A inteligência artificial representa uma ameaça aos seres humanos? Devemos temer a possibilidade de uma revolta de robôs autoconscientes contra seus “mestres” humanos?
Devemos sim nos preocupar com o fato de que as máquinas se tornem tão boas em alcançar os objetivos que forem para elas estabelecidos, que poderemos acabar aniquilados por ordenarmos, sem perceber, tarefas erradas, dizem alguns especialistas em inteligência artificial.
Futurologistas preveem que num futuro não muito distante, as máquinas atinjam uma capacidade tão alta de processamento que tomam decisões e resolvem problemas que os humanos não são capazes.
Um caso real
Um robô da fábrica da Tesla em Austin, capital do Texas, nos Estados Unidos, prendeu um engenheiro de software contra uma superfície, “cravou suas garras em seu corpo e tirou sangue de suas costas e braço”, de acordo com um relatório de incidentes enviado pela empresa às autoridades do estado americano.
O caso aconteceu em 2021, mas foi revelado recentemente no documento que a Tesla deve submeter para manter os incentivos fiscais no Texas. Segundo o relatório, o engenheiro não precisou de licença de trabalho, mas sofreu uma “laceração, corte ou ferida aberta” na mão esquerda, segundo teve acesso o site “Information”.
O homem trabalhava na programação do software que controla os robôs, que têm como função cortar peças dos automóveis a partir de placas de alumínio recém-fundidas. Duas das máquinas foram desligadas para que o engenheiro e outras duas pessoas trabalhassem no local em segurança, mas uma terceira continuou em operação.
Testemunhas contam que o botão de emergência foi acionado e o homem caiu alguns centímetros de uma rampa projetada para coletar sucata de alumínio. Ele deixou rastros de sangue no local, de acordo com pessoas que estavam na fábrica.
Alertas
O professor Stuart Russell, da Universidade da Califórnia, alerta que os robôs não terão sentimentos humanos, então, “esse é um motivo errado para se preocupar”.
“Não há realmente (nas máquinas) uma consciência ruim. Há sim uma competência com a qual temos de nos preocupar, a competência para atingir um objetivo que nós especificamos mal”.
Ou seja, segundo ele, digamos que uma máquina com inteligência artificial tenha de cumprir uma tarefa que a damos, porém, para atingir essa meta ela pode ter que tomar decisões extremas. Então, provavelmente a máquina não terá condições de fazer um julgamento moral sobre suas ações: vai apenas tentar atingir o objetivo final, como se fosse qualquer outro. Aí está o perigo.