web analytics

Humanos não serão capazes de controlar máquinas superinteligentes

Compartilhe com a galáxia!
Tempo de leitura: 3 min.
Humanos não serão capazes de controlar máquinas superinteligentes
“Ela computou que a maneira mais rápida de ‘minimizar a miséria” era a de eliminar a humanidade!” © Iyad Rahwan

Somos fascinados por máquinas que podem controlar carros, compor sinfonias ou derrotar pessoas no xadrez, Go ou Jeopardy! Enquanto mais progresso está sendo feito o tempo todo na Inteligência Artificial (IA), alguns cientistas e filósofos alertam sobre os perigos de uma IA superinteligente incontrolável.

Usando cálculos teóricos, uma equipe internacional de pesquisadores, incluindo cientistas do Center for Humans and Machines do Instituto Max Planck para o Desenvolvimento Humano, mostra que não seria possível controlar uma IA superinteligente.

Suponha que alguém programe um sistema de IA com inteligência superior à dos humanos, para que possa aprender de forma independente. Conectada à Internet, a IA pode ter acesso a todos os dados da humanidade. Ela poderia substituir todos os programas existentes e assumir o controle de todas as máquinas online em todo o mundo. Isso produziria uma utopia ou distopia? A IA curaria o câncer, traria a paz mundial e evitaria um desastre climático? Ou iria destruir a humanidade e assumir o controle da Terra?

Cientistas da computação e filósofos se perguntaram se seríamos mesmo capazes de controlar uma IA superinteligente, para garantir que não representasse uma ameaça para a humanidade. Uma equipe internacional de cientistas da computação usou cálculos teóricos para mostrar que seria fundamentalmente impossível controlar uma IA superinteligente

O coautor do estudo, Manuel Cebrian, Líder do Grupo de Mobilização Digital no Centro para Humanos e Máquinas do Instituto Max Planck para o Desenvolvimento Humano disse:

“Uma máquina superinteligente que controla o mundo parece ficção científica. Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam. Surge, portanto, a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade.”

Os cientistas exploraram duas ideias diferentes de como uma IA superinteligente poderia ser controlada. Por um lado, as capacidades da IA ​​superinteligente poderiam ser especificamente limitadas, por exemplo, bloqueando-a da Internet e de todos os outros dispositivos técnicos para que não pudesse ter contato com o mundo exterior – ainda assim, isso tornaria a IA superinteligente significativamente menos poderosa, menos capaz de reagir às missões de humanidades. Sem essa opção, a IA poderia ser motivada desde o início a buscar apenas objetivos que atendam aos melhores interesses da humanidade, por exemplo, programando princípios éticos nela. No entanto, os pesquisadores também mostram que essas e outras ideias contemporâneas e históricas para controlar a IA superinteligente têm seus limites.

Em seu estudo, a equipe concebeu um algoritmo de contenção teórica que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, simulando o comportamento da IA ​​primeiro e interrompendo-o se for considerado prejudicial. Mas uma análise cuidadosa mostra que em nosso paradigma atual de computação, esse algoritmo não pode ser construído.

Iyad Rahwan, Diretor do Centro para Humanos e Máquinas, disse:

“Se você dividir o problema em regras básicas da ciência da computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações. Se isso acontecer, você não saberá se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável.”

Com base nesses cálculos, o problema de contenção é incomputável, ou seja, nenhum algoritmo único pode encontrar uma solução para determinar se uma IA produziria danos ao mundo. Além disso, os pesquisadores demonstram que podemos nem mesmo saber quando as máquinas superinteligentes chegaram, porque decidir se uma máquina exibe inteligência superior aos humanos está no mesmo reino do problema de contenção.

O estudo  “Superintelligence cannot be contained: Lessons from Computability Theory“ (“Superinteligência não pode ser contida: Lições da Teoria da Computabilidade“) foi publicado no Journal of Artificial Intelligence Research. Outros pesquisadores do estudo incluem Andres Abeliuk da University of Southern California, Manuel Alfonseca da Universidade Autônoma de Madrid, Antonio Fernandez Anta do IMDEA Networks Institute e Lorenzo Coviello.

(Fonte)


Temos sido alertados sobre este perigo desde a década de 60, inclusive em filmes de Hollywood. Agora que temos a tecnologia para desenvolver tais inteligências artificiais vamos menosprezar esses alertas? Lembre-se, coisas que achávamos que nunca iriam acontecer nos têm pego de surpresa nesses últimos meses.

…E não esqueça: Nossa página principal é atualizada diariamente, com novos artigos podendo ser publicados ao longo do dia. Clique aqui.

ATENÇÃO: Qualquer artigo aqui publicado serve somente para cumprir a missão deste site. Assim, o OVNI Hoje não avaliza sua veracidade totalmente ou parcialmente.

IMPORTANTE: Se puder, colabore para manter o OVNI Hoje no ar. Cada doação, por menor que seja, é crucial para manter este espaço de informação e conhecimento disponível para todos os interessados. Ao utilizar o QR code do PIX abaixo ou a chave PIX “OVNIHoje” (sem aspas), você está desempenhando um papel fundamental na sustentação deste site.

As doações não são apenas um ato de generosidade, mas também uma demonstração do seu compromisso em apoiar o compartilhamento de informações relevantes e o crescimento da comunidade interessada em assuntos tão fascinantes, possibilitando a continuação das pesquisas, análises e publicações que enriquecem nosso entendimento.

Seja parte deste movimento contínuo em prol do conhecimento. O OVNI Hoje e seus leitores agradecem sinceramente por seu apoio dedicado.

Agradecimentos aos colaboradores do mês!

Muito obrigado!


ÁREA DE COMENTÁRIOS
(Mais abaixo…👇)

ATENÇÃO:

Ads Blocker Image Powered by Code Help Pro

BLOQUEADOR DE ANÚNCIOS DETECTADO!!!

Caro leitor, a existência do OVNI Hoje depende dos anúncios apresentados aqui. Por favor, apoie o OVNI Hoje e desabilite seu bloqueador de anúncios para este site. Obrigado!

hit counter code