Inteligência artificial pode destruir a humanidade “acidentalmente”

Compartilhe este artigo com a galáxia!
Tempo de leitura: 2 min.
Ouça este artigo...

Em meados do século XXI, a humanidade será capaz de criar uma inteligência artificial (IA) verdadeiramente poderosa que destruirá nossa civilização se algo der errado em seu trabalho.

A Inteligência Artificial poderá ser nociva à humanidade, mesmo acidentalmente.

Segundo o Washington Post, tal ameaça é considerada real por Émile Torres, filósofo e especialista em avaliar a probabilidade de catástrofes globais.

Torres tem certeza de que em 2050 aparecerá no mundo a chamada superinteligência artificial – uma máquina cujas capacidades superarão as de uma pessoa.

Torres alertou:

“A criação de superinteligência artificial levará a um avanço tecnológico em várias áreas, mas também teremos que lidar com perigos muito sérios.

Se as pessoas confiam na superinteligência com algumas coisas realmente importantes, então há uma alta probabilidade de que a máquina destrua a humanidade ou a prejudique muito.

Algoritmos de controle de IA muito complexos serão necessários, mas onde está a probabilidade de um supergênio do computador não ser capaz de contorná-los? Mesmo nos algoritmos de IA de hoje, há aspectos que escapam à nossa compreensão e, no futuro, as pessoas entenderão cada vez menos como a IA poderosa funciona.”

O especialista acredita que uma catástrofe global causada pela IA pode ocorrer se as pessoas confiarem na máquina tarefas muito complexas e abstratas. Por exemplo, eles instruirão a IA a “causar a paz no mundo”, como resultado do qual o computador simplesmente destruirá todas as pessoas (sem pessoas – ninguém para lutar entre si).

Não está claro que a humanidade estará preparada para a superinteligência, mas certamente não estamos prontos agora. Com toda a nossa instabilidade global e compreensão ainda incipiente da tecnologia, adicionar IA seria acender um fósforo ao lado de uma fábrica de fogos de artifício.

A pesquisa sobre inteligência artificial deve desacelerar, ou mesmo pausar. E se os pesquisadores não tomarem essa decisão, os governos devem tomá-la por eles.

(Fonte)



Apoie o OVNI Hoje: Cada Doação é Essencial para continuidade deste site!

Agradecimentos aos colaboradores do mês: ❤️Silas Raposo ❤️Edward Vaz ❤️Maria Cristina V Boas

Muito obrigado!


ÁREA DE COMENTÁRIOS

Todos são bem-vindos a participar da área de comentários abaixo. Contudo, os comentários são de responsabilidade única e exclusiva de seus próprios autores. Ou seja, o site OVNI Hoje não se responsabiliza por quaisquer inconveniências ou conflitos por eles causados.

Importante: Antes de comentar, atente-se às regras da Área de Comentários e evite ser banido. As regras podem ser acessadas clicando aqui.

Émile Torreshumanidadeinteligência artificialOVNI Hoje
Comentários não são disponíveis na versão AMP do site. (0)
Clique aqui para abrir versão normal do artigo e poder comentar.