web analytics

Humanos não serão capazes de controlar máquinas superinteligentes

Compartilhe esta informação com a galáxia!
Tempo de leitura: 2 min.
Humanos não serão capazes de controlar máquinas superinteligentes
“Ela computou que a maneira mais rápida de ‘minimizar a miséria” era a de eliminar a humanidade!” © Iyad Rahwan

Somos fascinados por máquinas que podem controlar carros, compor sinfonias ou derrotar pessoas no xadrez, Go ou Jeopardy! Enquanto mais progresso está sendo feito o tempo todo na Inteligência Artificial (IA), alguns cientistas e filósofos alertam sobre os perigos de uma IA superinteligente incontrolável.

Usando cálculos teóricos, uma equipe internacional de pesquisadores, incluindo cientistas do Center for Humans and Machines do Instituto Max Planck para o Desenvolvimento Humano, mostra que não seria possível controlar uma IA superinteligente.

Suponha que alguém programe um sistema de IA com inteligência superior à dos humanos, para que possa aprender de forma independente. Conectada à Internet, a IA pode ter acesso a todos os dados da humanidade. Ela poderia substituir todos os programas existentes e assumir o controle de todas as máquinas online em todo o mundo. Isso produziria uma utopia ou distopia? A IA curaria o câncer, traria a paz mundial e evitaria um desastre climático? Ou iria destruir a humanidade e assumir o controle da Terra?

Cientistas da computação e filósofos se perguntaram se seríamos mesmo capazes de controlar uma IA superinteligente, para garantir que não representasse uma ameaça para a humanidade. Uma equipe internacional de cientistas da computação usou cálculos teóricos para mostrar que seria fundamentalmente impossível controlar uma IA superinteligente

O coautor do estudo, Manuel Cebrian, Líder do Grupo de Mobilização Digital no Centro para Humanos e Máquinas do Instituto Max Planck para o Desenvolvimento Humano disse:

“Uma máquina superinteligente que controla o mundo parece ficção científica. Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam. Surge, portanto, a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade.”

Os cientistas exploraram duas ideias diferentes de como uma IA superinteligente poderia ser controlada. Por um lado, as capacidades da IA ​​superinteligente poderiam ser especificamente limitadas, por exemplo, bloqueando-a da Internet e de todos os outros dispositivos técnicos para que não pudesse ter contato com o mundo exterior – ainda assim, isso tornaria a IA superinteligente significativamente menos poderosa, menos capaz de reagir às missões de humanidades. Sem essa opção, a IA poderia ser motivada desde o início a buscar apenas objetivos que atendam aos melhores interesses da humanidade, por exemplo, programando princípios éticos nela. No entanto, os pesquisadores também mostram que essas e outras ideias contemporâneas e históricas para controlar a IA superinteligente têm seus limites.

Em seu estudo, a equipe concebeu um algoritmo de contenção teórica que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, simulando o comportamento da IA ​​primeiro e interrompendo-o se for considerado prejudicial. Mas uma análise cuidadosa mostra que em nosso paradigma atual de computação, esse algoritmo não pode ser construído.

Iyad Rahwan, Diretor do Centro para Humanos e Máquinas, disse:

“Se você dividir o problema em regras básicas da ciência da computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações. Se isso acontecer, você não saberá se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável.”

Com base nesses cálculos, o problema de contenção é incomputável, ou seja, nenhum algoritmo único pode encontrar uma solução para determinar se uma IA produziria danos ao mundo. Além disso, os pesquisadores demonstram que podemos nem mesmo saber quando as máquinas superinteligentes chegaram, porque decidir se uma máquina exibe inteligência superior aos humanos está no mesmo reino do problema de contenção.

O estudo  “Superintelligence cannot be contained: Lessons from Computability Theory“ (“Superinteligência não pode ser contida: Lições da Teoria da Computabilidade“) foi publicado no Journal of Artificial Intelligence Research. Outros pesquisadores do estudo incluem Andres Abeliuk da University of Southern California, Manuel Alfonseca da Universidade Autônoma de Madrid, Antonio Fernandez Anta do IMDEA Networks Institute e Lorenzo Coviello.

(Fonte)


Temos sido alertados sobre este perigo desde a década de 60, inclusive em filmes de Hollywood. Agora que temos a tecnologia para desenvolver tais inteligências artificiais vamos menosprezar esses alertas? Lembre-se, coisas que achávamos que nunca iriam acontecer nos têm pego de surpresa nesses últimos meses.

n3m3

P.S.: Por que o OVNI Hoje publicou este artigo? Clique aqui para saber.

E não esqueça: nossa página principal é atualizada diariamente, com novos artigos podendo ser publicados ao longo do dia. Clique aqui.

Compartilhe esta informação com a galáxia!



PARTICIPE DOS COMENTÁRIOS MAIS ABAIXO…


O OVNI Hoje TAMBÉM ESTÁ NAS REDES SOCIAIS:

O OVNI Hoje precisa de sua ajuda. Você pode ajudar na manutenção do site.

Clique aqui para apoiar através do site Apoia.se, ou use o botão abaixo:


*Agora você também pode apoiar o OVNI Hoje através de uma transferência PIX, clicando aqui, ou utilizando o QR Code abaixo:

(Obs.: Se preferir utilizar depósito bancário, favor enviar e-mail para n3m3@ovnihoje.com para obter as informações. Obrigado.)



ÁREA DE COMENTÁRIOS

Atenção:

  • Os comentários são de responsabilidade única e exclusiva de cada pessoa que comenta. O OVNI Hoje não se responsabiliza por transtornos, rixas ou quaisquer outras indisposições causadas pelos comentários.
  • Comente educadamente e com ética, sempre tratando seu colega de comentários como você mesmo/a queira ser tratado/a.
  • Qualquer comentário com “pregação” política ou religiosa, obsceno ou inapropriado será prontamente apagado pelos moderadores. Pessoas que insistirem em burlar as regras serão banidas dos comentários.

Obs: A versão AMP do site não possui área de comentários. Para comentar, favor acessar o OVNI Hoje sem a extensão /amp no endereço do artigo, ou acesse através do seu computador desktop.