O astrofísico Stephen Hawking, que morreu em 2018, ajudou a remodelar como a humanidade entende o universo, mas também tornou algumas previsões surpreendentes e muito perturbadoras durante sua carreira. Em 2010, ele disse que era racional assumir que os alienígenas não apenas existem, mas que provavelmente nos matariam em contato. “Se os alienígenas nos visitarem, o resultado seria tanto quando Colombo pousou na América, o que não acabou com os nativos americanos”, disse ele (através do BBC). Se esse pensamento não o incomodar, talvez as outras previsões de Hawking o façam. Entre seus vários cenários para o fim do mundo, como a conhecemos, ele acreditava que a inteligência artificial (IA) poderia acabar acabando com a raça humana.
Anúncio
Em uma entrevista de 2017 com Conectado A revista, o então professor da Universidade de Cambridge disse que, embora devamos continuar desenvolvendo a tecnologia de IA, devemos estar atentos aos seus perigos em potencial. “Temo que a IA possa substituir completamente os seres humanos”, disse ele. “Se as pessoas projetarem vírus de computador, alguém projetará a IA que se replica. Essa será uma nova forma de vida que superará os seres humanos”. Ele foi ainda mais franco em um 2014 BBC entrevista. “O desenvolvimento da inteligência artificial completa pode significar o fim da raça humana”, disse ele. “Isso decolaria por conta própria, e re-designaria a si mesmo a uma taxa cada vez maior”. Alguns novos desenvolvimentos, incluindo pequenos robôs vivos auto-replicantes e IA capazes de enganar, parecem reforçar os medos de Hawking.
Anúncio
Um vislumbre do futuro?
A idéia de inteligência artificial destruindo ou subjugando a humanidade já foi apenas o alcance da ficção científica, como as franquias do Terminator e da Matrix, mas alguns acreditam que a vida pode acabar imitando arte. A idéia de Stephen Hawking sobre a IA auto-replicante potencialmente chegou um passo mais perto da criação de xenobots, pequenos robôs vivos auto-replicantes de milímetros, criados em um esforço colaborativo do Instituto Wyss, da Universidade Tufts e da Universidade de Vermont. “Com o design certo-eles se auto-replicarão espontaneamente”, disse o cientista da Universidade de Vermont, Joshua Bongard, em 2021 Comunicado de imprensa.
Anúncio
Hawking não foi o único cientista a prever a IA poderia acabar com o mundo. Geoffrey Hinton, apelidado de padrinho de inteligência artificial por seu trabalho sobre aprendizado profundo, alguns dos quais ele desenvolveu enquanto trabalhava no Google, está soando o alarme sobre os riscos sérios que a IA apresenta à humanidade. Ele deixou o cargo de vice -presidente e bolsista de engenharia no Google em 2023, para que ele pudesse ser mais vocal sobre sua posição. Como Hawking, ele também acredita que a IA será mais inteligente que os humanos. “Acho que eles estão muito perto disso agora e serão muito mais inteligentes do que nós no futuro”, disse ele MIT Technology Review em maio de 2023. “Como sobrevivemos a isso?”
Ai já é capaz de engano
Os medos de Stephen Hawking sobre a IA em essência giravam em torno de se tornar mais inteligentes do que seus criadores e uma grande parte disso diz respeito à AI aprendendo a nos manipular. Em maio de 2023 CNN Entrevista, Geoffrey Hinton falou com isso. “Se for muito mais inteligente que nós, será muito bom em manipulação, porque teria aprendido isso conosco”, disse ele. “E existem muito poucos exemplos de algo mais inteligente sendo controlado por uma coisa menos inteligente”. Infelizmente, a IA já é capaz de engano.
Anúncio
Testes recentes realizados pela Apollo Research, uma organização sem fins lucrativos dedicada à segurança da IA, constatou que os sistemas de IA de ponta atuais são capazes de “esquemar” escondendo sua verdadeira intenção de seres humanos em busca de uma meta (por per. Tempo revista). Um artigo científico “”Decepção da IA: uma pesquisa com exemplos, riscos e soluções em potencial,” published in the journal Patterns in May 2024, also found AI models were capable of deception with real-world implications. “AI’s increasing capabilities at deception pose serious risks, ranging from short-term risks, such as fraud and election tampering, to long-term risks, such as losing control of AI systems,” the researchers wrote. Additionally, they found that trying to train AI models to be more truthful could Fogo da culatra.
Anúncio
JOVILDAY (Relógio) se aproxima
O infame relógio do dia do juízo final que começou em 1947 como uma maneira metafórica de demonstrar o quão perto a humanidade está do seu fim potencial recentemente abordou o possível papel da IA em ajudar a empurrar a humanidade sobre o limite. Em janeiro de 2025, o relógio, criado pelo Boletim de Cientistas Atômicos, está definido em 89 segundos antes da meia -noite, o mais próximo que já foi da catástrofe global.
Anúncio
Os cientistas, em janeiro de 2025 Declaração do relógio do dia do juízo finalescreveu que a preocupação com a IA no curto prazo tem a ver com seu uso na disseminação de informações errôneas. “Os avanços na IA estão facilitando a divulgação de informações falsas ou inautênticas pela Internet – e mais difíceis de detectá -las”, escreveram eles. A longo prazo, os cientistas estão preocupados com o fato de que gerações de modelos de IA seguintes podem representar “perigos potenciais, existenciais ou outros”. Embora Hawking não esteja mais entre nós para testemunhar se sua previsão se tornará realidade ou se a humanidade será capaz de reinar na IA, para o resto de nós, teremos que esperar e ver.