Robôs-assassinos irão se revoltar contra a humanidade
Tudo Mais

Robôs-assassinos irão se revoltar contra a humanidade


Vem aí a revolta das máquinas e a humanidade deverá pensar como combater os robôs-assassinos.

Hoje, por toda a parte se utilizam robôs autônomos de combate, drones e sistemas automatizados de tiro. Os peritos militares alertaram a Voz da Rússia para os seus perigos.
A maioria das máquinas ao serviço dos homens está equipada com a função de piloto automático, o comando autônomo. Mas essa função ainda está ausente nos robôs de combate.
“Eis o exemplo da forma de "pensar" de um robô-assassino: se deslocar para o ponto com as coordenadas X e Y, localizar o alvo por radiação térmica, eliminar o alvo. Mas isso é o raciocínio de um robô. É terrível que ele não possa determinar o que se esconde por trás da radiação térmica. Pode ser tanto um soldado, como um rebelde ou um civil”, explica Noel Sharkey, Professor de Inteligência Artificial e Robótica da Universidade de Sheffield (Reino Unido).
Os militares e os cientistas continuam a aumentar a precisão dos sistemas automatizados de combate. Na opinião deles, os robôs-assassinos poderão reduzir a quantidade de soldados no campo de batalha, diminuindo dessa forma o número de baixas.
“Os cientistas criaram o drone Falcon HTV-2 que se encontra em fase de testes. Se trata de um avião completamente auto-comandado que pode desenvolver uma velocidade até 20000 km/h. Um piloto não pode comandar a essa velocidade porque ficaria simplesmente feito em bocados.”, conta Sharkey à Voz da Rússia.
O Ministério da Defesa dos EUA publicou um relatório sobre os sistemas automatizados de tiro no qual se falava das características das armas autônomas e semiautônomas. No fim do relatório, é apresentada a lista dos defeitos e das vulnerabilidades dessas armas. A lista era extensa e inclui aspetos tão importantes como a possibilidade de um ciberataque ao software, interferências no sinal de rádio, armadilhas de rádio-localização ou intercepção do sinal codificado para fins de pirataria informática.
“As tecnologias atualmente existentes são um passo no caminho da criação e utilização de máquinas-assassinas automatizadas sem controlo humano. Neste momento, os algoritmos da programação são tão complexos que os erros que o sistema apresenta às vezes não poderão ser corrigidos pelo homem. Uns sistemas interagem com outros sistemas e nós não conseguimos controlar essa ligação. Nós também não controlamos a reação de um sistema remoto ao sinal de um sistema que introduziu o erro”, refere os seus receios Avrum Gubrud, Doutor em Ciências Físico-Matemáticas, que está a desenvolver o Programa de Ciência e Segurança Global da Universidade de Princeton.
A organização internacional de defesa dos direitos humanos Human Rights Watch, em conjunto com especialistas da Escola de Direito da Universidade de Harvard, publicou um relatório intitulado "Perda de humanidade: um caso contra os robôs-assassinos".
O relatório fala da necessidade de banir a utilização, fabrico e concepção de “robôs-assassinos” totalmente autônomos. Além disso, é necessário elaborar normas e leis de direito internacional que regulem a circulação de máquinas de combate no mundo de forma a evitar o seu fabrico descontrolado.
“Eu não acredito que os robôs, por muito que a sua inteligência artificial seja desenvolvida, se orientem pelas normas internacionais de proteção de civis durante as ações de combate. Nada os irá deter, eles não sentem absolutamente nada. Além disso, é difícil controlar as ações dos robôs-assassinos . Por outro lado, os seus atos não-controlados podem minar o princípio da dissuasão pela intimidação”, disse a perita em assuntos militares principal da Human Rights Watch Bonnie Docherty na sua entrevista à Voz da Rússia.
Neste momento, a maioria dos cientistas e investigadores apelam os construtores a não equipar os robôs com armas, mas sim a usá-los com fins pacíficos. Os peritos concordam que os robôs devem trabalhar nas áreas civis, como por exemplo na produção agrícola ou serem usados na medicina.
Nós temos de proibir o uso de máquinas-assassinas indomáveis. Nós temos de dirigir os robôs por um caminho pacífico, para que eles ajudem as pessoas em vez de matá-las. Pois até no campo de batalha há alturas em que o fator humano tem o papel decisivo, enquanto os robôs só podem imitar cegamente o comportamento humano, pelo menos agora.
Fonte: http://portuguese.ruvr.ru/2012_12_16/Robos-assassinos-irao-se-revoltar-contra-a-humanidade/
http://issoeofim.blogspot.com.br/




- O Futuro Do Relacionamento? Logo Milhões De Homens Terão Sexo Com Robôs Femininos Quase Humanos
Começa a aparecer no horizonte um dos mercados possivelmente mais frutíferos e rentáveis do futuro: o dos robôs sexuais. Agora parece uma ideia de ficção científica, mas já estão preparando o terreno para isso. Cada vez mais os robôs estão...

- Alerta Total: Onu Soa O Alarme No Surgimento De 'robôs Assassinos' Autônomos
RT  Com a proliferação de sistemas de armas letais, cada vez mais capaz de realizar missões distantes com supervisão humana mínima, a ONU está a regulamentação sobre as máquinas de matar exigente.Estados membros da ONU na quinta-feira...

- Cientista Alerta Que A Ascensão Da Inteligência Artificial Levará à Extinção Da Humanidade
De acordo com o cientista autor de um novo estudo publicado no Journal of Experimental & Theoretical Artificial Intelligence, "sistemas racionais apresentarão uma motivação universal para a auto-proteção, aquisição de recursos, replicação...

- Robôs Assassinos C/vontade Própria Para Matar
”O Ponto sem RETORNO”: E SE os Robôs forem capazes de decidir matar por conta própria? O relatório, divulgado pelo professor Chrisof Heyns, relator especial da ONU sobre execuções extrajudiciais, sumárias ou arbitrárias, também prevê...

- Sexo Com Robôs Em Um Futuro Não Muito Distante
Conheça Roxxxy, o robô sexual. Dependendo de sua visão, "ela" está ou no limiar da interface humano-robô ou é um efeito moderno das dificuldades de alguns homens de se relacionar com parceiros na vida real.Embora ajudas sexuais não sejam novas,...



Tudo Mais








.