Stephen Hawking é, sem dúvida, uma das maiores mentes da sociedade moderna, assim muitas pessoas prestam atenção quando ele compartilha seus pensamentos com o mundo. Recentemente, ele tem estado falando sobre o futuro.
Hawking expressou sua opinião a respeito de tópicos que vão desde a vida extraterrestre até a inteligência artificial (IA), e para este último ele demonstrou uma séria preocupação. Ele não é contra o desenvolvimento da tecnologia IA. Na verdade, uma vez ele disse que a IA poderia ser o maior evento na história da nossa civilização. Mas como muitos outros cientistas e pensadores hoje no mundo, Hawking está preocupado com a ascensão da IA, trazendo com ela vários efeitos colaterais negativos.
Ele também já alertou a respeito do impacto da IA nos empregos da classe média, e junto com Elon Musk, CEO da Tesla, ele pediu uma proibição no desenvolvimento de robôs de IA para o uso militar. Ele também está preocupado que a IA possa se apoderar do mundo ou, pior ainda, acabar com ele. Nossa melhor aposta contra uma revolta da IA, ele agora diz para o The Times, é a criação de alguma forma de governo mundial que poderia controlar a tecnologia.

Hawking explicou seu raciocínio por detrás desta necessidade de um corpo governamental internacional:
Desde que a civilização começou, a agressão tem sido tão útil quanto ela é de vantagem para sobrevivência. Isto está programado em nossos genes pela evolução darwiniana. Agora, porém, a tecnologia tem avançado até o nível que esta agressão pode nos destruir através da guerra nuclear ou biológica. Precisamos controlar esse instinto inerente através de nossa lógica e razão.
Para podermos acompanhar a IA, precisamos ser capazes de nos adaptar. Hawking disse no final de 2014:
O desenvolvimento da inteligência artificial poderia significar o fim da raça humana. Ela decolaria por si própria e se redesenharia à uma velocidade cada vez mais rápida. Os humanos, que são limitados pela lenta evolução biológica, não poderiam competir, e seriam superados.”
Contudo, ele não acha que as máquinas irão nos perseguir por razões emocionais:
O risco real da inteligência artificial não é a malícia, mas sim a competência. Uma IA super inteligente será extremamente boa em atingir suas metas, e se essas metas não estiverem alinhadas com as nossas, estaremos em apuros.
Assim, alguma forma de corpo governamental e a habilidade de adaptação rápida é o que precisamos para sobreviver o nascimento da IA ou super inteligência, de acordo com Hawking.
Felizmente, várias instituições estão trabalhando a respeito disto. Essas instituições tais como a Partnership on AI e a Ethics and Governance of Artificial Intelligence Fund (ou AI Fund), começaram a desenvolver normas estruturais de trabalho para um desenvolvimento de IA mais consciente. A IEEEE também liberou o primeiro manual para sistemas éticos de IA.
Apesar do potencial para tudo dar errado, Hawking permanece o otimista a respeito do Futuro:
Tudo isso pode parecer um pouco ominoso, mas eu sou um otimista. Eu acho que a raça humana irá se levantar e superar estes desafios.
n3m3
AVISO: Fique alerta quanto as regras da área de comentários clicando aqui.