web analytics

Inteligência artificial pode destruir a humanidade “acidentalmente”

Compartilhe com a galáxia!
Tempo de leitura: 2 min.
Ouça este artigo...

Em meados do século XXI, a humanidade será capaz de criar uma inteligência artificial (IA) verdadeiramente poderosa que destruirá nossa civilização se algo der errado em seu trabalho.

Inteligência artificial pode destruir a humanidade "acidentalmente"
A Inteligência Artificial poderá ser nociva à humanidade, mesmo acidentalmente.

Segundo o Washington Post, tal ameaça é considerada real por Émile Torres, filósofo e especialista em avaliar a probabilidade de catástrofes globais.

Torres tem certeza de que em 2050 aparecerá no mundo a chamada superinteligência artificial – uma máquina cujas capacidades superarão as de uma pessoa.

Torres alertou:

“A criação de superinteligência artificial levará a um avanço tecnológico em várias áreas, mas também teremos que lidar com perigos muito sérios.

Se as pessoas confiam na superinteligência com algumas coisas realmente importantes, então há uma alta probabilidade de que a máquina destrua a humanidade ou a prejudique muito.

Algoritmos de controle de IA muito complexos serão necessários, mas onde está a probabilidade de um supergênio do computador não ser capaz de contorná-los? Mesmo nos algoritmos de IA de hoje, há aspectos que escapam à nossa compreensão e, no futuro, as pessoas entenderão cada vez menos como a IA poderosa funciona.”

O especialista acredita que uma catástrofe global causada pela IA pode ocorrer se as pessoas confiarem na máquina tarefas muito complexas e abstratas. Por exemplo, eles instruirão a IA a “causar a paz no mundo”, como resultado do qual o computador simplesmente destruirá todas as pessoas (sem pessoas – ninguém para lutar entre si).

Não está claro que a humanidade estará preparada para a superinteligência, mas certamente não estamos prontos agora. Com toda a nossa instabilidade global e compreensão ainda incipiente da tecnologia, adicionar IA seria acender um fósforo ao lado de uma fábrica de fogos de artifício.

A pesquisa sobre inteligência artificial deve desacelerar, ou mesmo pausar. E se os pesquisadores não tomarem essa decisão, os governos devem tomá-la por eles.

(Fonte)


ATENÇÃO: Qualquer artigo aqui publicado serve somente para cumprir a missão deste site. Assim, o OVNI Hoje não avaliza sua veracidade totalmente ou parcialmente.

Apoie o OVNI Hoje: Cada Doação é Essencial!

Agradecimentos aos colaboradores do mês: ❤️Eneias Vieira ❤️Silas Raposo ❤️Leopoldo Della Rocca ❤️Cristina Vilas Boas

Muito obrigado!


ÁREA DE COMENTÁRIOS
(Mais abaixo…👇)

ATENÇÃO:

Ads Blocker Image Powered by Code Help Pro

BLOQUEADOR DE ANÚNCIOS DETECTADO!!!

Caro leitor, a existência do OVNI Hoje depende dos anúncios apresentados aqui. Por favor, apoie o OVNI Hoje e desabilite seu bloqueador de anúncios para este site. Obrigado!

hit counter code