Tecnologia

Inteligência artificial tem perigo em comum com arma nuclear, diz pesquisador

Spread the love

Há cerca de três semanas, dois pesquisadores da Universidade de Oxford foram convidados pelo Parlamento do Reino Unido para falar sobre os riscos da inteligência artificial (IA). A reunião aconteceu após a aparição do ChatGPT, que deslumbrou pessoas em todo o mundo.

O recurso tem sido apontado como uma nova revolução digital. Mas, no Palácio de Westminster, o professor Michael Osborne e seu aluno Michael Cohen deram alguns exemplos desastrosos sobre mau uso de IA. Se a um sistema do tipo fosse que pedido que erradicasse o câncer, por exemplo, ele poderia achar que matar todos os seres humanos seria um meio válido para que a doença fosse eliminada.

Em outro momento, a dupla comparou a ameaça da IA à das armas nucleares. Em entrevista, Osbourne detalha como isso pode acontecer e revela que a IA pode, sim, se tornar autoconsciente.

PERGUNTA – A história de máquinas autossuficientes dominando a Terra e tentando extinguir a raça humana, contada em filmes e livros de ficção científica, pode acontecer de verdade?
MICHAEL OSBORNE – Estamos vendo que a inteligência artificial se tornou muito poderosa muito rapidamente, notadamente na forma do ChatGPT, que demonstra alguns graus de raciocínio e inteligência. Precisamos pensar seriamente sobre como essa tecnologia será no futuro –estou pensando na propagação da desinformação, em possíveis impactos sobre empregos, em discursos de preconceito, em preocupações com a privacidade.

A IA está se tornando autoconsciente?
M. O. – Não acho impossível que a inteligência artificial se torne consciente, ainda que mesmo os algoritmos mais avançados estejam longe do nível de sofisticação de um ser humano. Mas, a longo prazo, não acho que exista nenhum obstáculo fundamental para uma IA desenvolver autoconsciência e capacidades muito avançadas de planejamento e raciocínio.

Há seis meses, o Google demitiu um engenheiro que disse que a IA na qual trabalhava tinha adquirido consciência. O que pensa sobre isso?
M. O. – Isso foi no LaMDA [modelo de linguagem para aplicativos de diálogo]. A primeira coisa é que aquele engenheiro estava incorreto. Todos que trabalhamos nesse campo podemos dizer isso. Os modelos de linguagem estão muito longe de serem conscientes. Eles não entendem o mundo ao seu redor da maneira que os humanos o fazem.
Mas estou feliz que o engenheiro tenha falado. Precisamos proteger quem faz denúncias como essa e criar uma estrutura na qual aqueles que trabalham nessas tecnologias em grandes empresas não transparentes, como o Google, possam sair publicamente e declarar que têm preocupações legítimas sem serem punidos por isso.

A ameaça da IA é pior que a das armas nucleares?
M. O. – Existem perigos em comum. A IA, assim com a energia nuclear, é o que chamamos de tecnologia de uso duplo: ou seja, tem aplicações civis e militares.
A energia nuclear é uma perspectiva empolgante para a obtenção do fim das emissões de carbono. Mas também pode ser aproveitada como arma. Também há enormes vantagens na IA. Mas a IA também está sendo utilizada como um meio de direcionar drones para o alvo.

É possível que a IA faça mal sem ter a intenção?

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo