web analytics

Stephen Hawking finalmente revela seu plano para prevenir um apocalipse causado pela Inteligência Artificial

Tempo de leitura: 2 minutos

Stephen Hawking é, sem dúvida, uma das maiores mentes da sociedade moderna, assim muitas pessoas prestam atenção quando ele compartilha seus pensamentos com o mundo. Recentemente, ele tem estado falando sobre o futuro.

Hawking expressou sua opinião a respeito de tópicos que vão desde a vida extraterrestre até a inteligência artificial (IA), e para este último ele demonstrou uma séria preocupação. Ele não é contra o desenvolvimento da tecnologia IA. Na verdade, uma vez ele disse que a IA poderia ser o maior evento na história da nossa civilização. Mas como muitos outros cientistas e pensadores hoje no mundo, Hawking está preocupado com a ascensão da IA, trazendo com ela vários efeitos colaterais negativos.

Ele também já alertou a respeito do impacto da IA nos empregos da classe média, e junto com Elon Musk, CEO da Tesla, ele pediu uma proibição no desenvolvimento de robôs de IA para o uso militar. Ele também está preocupado que a IA possa se apoderar do mundo ou, pior ainda, acabar com ele. Nossa melhor aposta contra uma revolta da IA, ele agora diz para o The Times, é a criação de alguma forma de governo mundial que poderia controlar a tecnologia.

Inteligência Artificial

Foto: Karwai Tang/Getty Images

Hawking explicou seu raciocínio por detrás desta necessidade de um corpo governamental internacional:

Desde que a civilização começou, a agressão tem sido tão útil quanto ela é de vantagem para sobrevivência. Isto está programado em nossos genes pela evolução darwiniana. Agora, porém, a tecnologia tem avançado até o nível que esta agressão pode nos destruir através da guerra nuclear ou biológica. Precisamos controlar esse instinto inerente através de nossa lógica e razão.

Para podermos acompanhar a IA, precisamos ser capazes de nos adaptar. Hawking disse no final de 2014:

O desenvolvimento da inteligência artificial poderia significar o fim da raça humana. Ela decolaria por si própria e se redesenharia à uma velocidade cada vez mais rápida. Os humanos, que são limitados pela lenta evolução biológica, não poderiam competir, e seriam superados.”

Contudo, ele não acha que as máquinas irão nos perseguir por razões emocionais:

O risco real da inteligência artificial não é a malícia, mas sim a competência. Uma IA super inteligente será extremamente boa em atingir suas metas, e se essas metas não estiverem alinhadas com as nossas, estaremos em apuros.

Assim, alguma forma de corpo governamental e a habilidade de adaptação rápida é o que precisamos para sobreviver o nascimento da IA ou super inteligência, de acordo com Hawking.

Felizmente, várias instituições estão trabalhando a respeito disto. Essas instituições tais como a Partnership on AI e a Ethics and Governance of Artificial Intelligence Fund (ou AI Fund), começaram a desenvolver normas estruturais de trabalho para um desenvolvimento de IA mais consciente. A IEEEE também liberou o primeiro manual para sistemas éticos de IA.

Apesar do potencial para tudo dar errado, Hawking permanece o otimista a respeito do Futuro:

Tudo isso pode parecer um pouco ominoso, mas eu sou um otimista. Eu acho que a raça humana irá se levantar e superar estes desafios.

n3m3

Fonte