Cultura

Especialistas em inteligência artificial assinam carta aberta para proteger a humanidade das máquinas

 artificial-intellgience-getty.jpg

Estamos a décadas de poder desenvolver um supercomputador sociopata que poderia escravizar a humanidade, mas especialistas em inteligência artificial já estão trabalhando para evitar o pior quando – não se – as máquinas se tornarem mais inteligentes que as pessoas.

Especialistas em IA em todo o mundo estão assinando uma carta aberta emitido no domingo pelo Future of Life Institute que se compromete a coordenar com segurança e cuidado o progresso no campo para garantir que ele não cresça além do controle da humanidade. Os signatários incluem cofundadores da Deep Mind, a empresa britânica de IA comprada pelo Google em janeiro de 2014; professores do MIT; e especialistas em algumas das maiores corporações de tecnologia, incluindo a equipe de supercomputadores Watson da IBM e a Microsoft Research.

'Os benefícios potenciais são enormes, já que tudo o que a civilização tem a oferecer é um produto da inteligência humana... Recomendamos pesquisas expandidas destinadas a garantir que os sistemas de IA cada vez mais capazes sejam robustos e benéficos: nossos sistemas de IA devem fazer o que queremos que eles façam. fazer', dizia a carta em parte. Um documento de pesquisa anexado à carta aberta descreve possíveis armadilhas e recomenda diretrizes para o desenvolvimento contínuo da IA.

A carta vem depois que especialistas emitiram alertas sobre os perigos das máquinas superinteligentes. Os especialistas em ética, por exemplo, se preocupam com a forma como um carro autônomo pode pesar a vida de ciclistas versus passageiros enquanto desvia para evitar uma colisão. Há dois anos, um representante das Nações Unidas pediu uma moratória no teste, produção e uso das chamadas armas autônomas que podem selecionar alvos e iniciar ataques sem intervenção humana.



O famoso físico Stephen Hawking e o CEO da Tesla Motors, Elon Musk, também expressaram suas preocupações sobre permitir que a inteligência artificial enlouqueça. “Pode-se imaginar essa tecnologia superando os mercados financeiros, inventando pesquisadores humanos, manipulando líderes humanos e desenvolvendo armas que nem podemos entender”, disse Hawking em um artigo que ele co-escreveu em maio para O Independente . 'Enquanto o impacto de curto prazo da IA ​​depende de quem a controla, o impacto de longo prazo depende de ela poder ser controlada.'

Musk em agosto twittou 'precisamos ser super cuidadosos com a IA. Potencialmente mais perigoso do que armas nucleares'.

'Estou cada vez mais inclinado a pensar que deveria haver alguma supervisão regulatória, talvez em nível nacional e internacional, apenas para garantir que não façamos algo muito tolo', disse ele. disse a uma audiência no Instituto de Tecnologia de Massachusetts em outubro.

O Future of Life Institute é uma organização de pesquisa somente para voluntários cujo objetivo principal é mitigar os riscos potenciais da inteligência artificial em nível humano que poderia avançar exponencialmente. Foi fundada por dezenas de matemáticos e especialistas em ciência da computação em todo o mundo, principalmente Jaan Tallinn, cofundador do Skype, e o professor do MIT Max Tegmark.

O plano de longo prazo é parar de tratar distopias fictícias como pura fantasia e começar a abordar prontamente a possibilidade de que uma inteligência maior que a nossa possa um dia começar a agir contra sua programação.