banner
Lar / Notícias / CEOs da OpenAI e do Google DeepMind assinam declaração de alerta de que a IA representa “risco de extinção”
Notícias

CEOs da OpenAI e do Google DeepMind assinam declaração de alerta de que a IA representa “risco de extinção”

Jul 08, 2023Jul 08, 2023

Mais de 350 especialistas da indústria de IA, incluindo da OpenAI e do Google, estão alertando que a IA é tão perigosa quanto grandes pandemias e guerra nuclear.

-

Um grupo de especialistas em inteligência artificial (IA) alertou que a IA pode representar uma ameaça para a humanidade se não for desenvolvida e usada com responsabilidade. O grupo, que inclui pesquisadores do Google, Microsoft e OpenAI, publicou um artigo na revista Nature em 30 de maio de 2023, descrevendo suas preocupações.

Sam Altman, CEO da OpenAI, Dario Amodei, CEO da Anthropic, e Demis Hassabis, CEO da Google DeepMind são os signatários mais notáveis.

“Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz a carta aberta. O New York Times informa que a declaração será divulgada pelo Center for AI Safety, uma nova organização sem fins lucrativos. Mais de 350 pesquisadores de IA, engenheiros e executivos de empresas assinaram a carta.

Geoffrey Hinton e Yoshua Bengio são dois pesquisadores notáveis ​​que assinaram. Estes são dois dos três pesquisadores que ganharam o Prêmio Turing pelo desenvolvimento de redes neurais. Ambos os inovadores em IA, Hinton e Bengio, são conhecidos como os "padrinhos" da inovação em IA. No início deste mês, Hinton deixou seu cargo no Google depois de ficar frustrado com a falta de visão e liderança do Google no desenvolvimento de IA. Ele também alertou sobre os perigos potenciais da IA.

Os especialistas argumentam que a IA pode ser usada para criar armas autônomas que podem matar sem intervenção humana. Eles também temem que a IA possa ser usada para manipular pessoas ou espalhar desinformação. O grupo pede um esforço global para desenvolver IA de forma segura e responsável.

O alerta dos especialistas em IA ocorre em um momento em que a IA está se tornando cada vez mais poderosa. Nos últimos anos, a IA tem sido usada para desenvolver carros autônomos, software de reconhecimento facial e até mesmo chatbots com inteligência artificial. À medida que a IA continua a se desenvolver, é importante considerar os riscos potenciais, bem como os benefícios potenciais.

Os especialistas em IA que publicaram o artigo na Nature não são os primeiros a alertar sobre os perigos potenciais da IA. Em 2015, Elon Musk e Stephen Hawking foram co-autores de uma carta aberta pedindo a proibição de armas autônomas. E em 2017, o Future of Life Institute, uma organização sem fins lucrativos que promove pesquisas sobre riscos existenciais, publicou um relatório sobre os perigos da IA.

Os avisos dos especialistas em IA e de outros especialistas são um alerta. É claro que a IA é uma tecnologia poderosa com potencial para causar grandes danos. É essencial que desenvolvamos a IA de forma responsável e que tomemos medidas para mitigar os riscos.

Existem muitas preocupações sobre IA e legisladores, e até mesmo os envolvidos na indústria de IA estão expressando-os. Talvez o maior paradoxo da tecnologia no momento seja que o desenvolvimento continua na IA generativa avançada, apesar de muitas figuras importantes falarem sobre os perigos. Acho que a pergunta óbvia é: se executivos como Sam Altman estão preocupados, por que ainda estão desenvolvendo sistemas de IA? É puramente voltado para o lucro ou é arrogância e uma crença de que podemos controlar essa tecnologia?

Sam Altman é o cofundador da OpenAI (junto com Elon Musk) e atual CEO da empresa de pesquisa de IA. Ele se tornou um dos líderes tecnológicos mais poderosos nos últimos meses, pois o ChatGPT se tornou o chatbot de IA mais popular. Altman também desenvolveu uma parceria profunda com a Microsoft após bilhões de dólares em investimentos da empresa de Redmond.

Enquanto a OpenAI e a Microsoft aumentaram seus produtos de IA, como GPT-4, ChatGPT, Bing Chat, Microsoft 365 Copilot e GitHub Copilot. No entanto, os críticos de Altman afirmam que a OpenAI foi muito rápida em desenvolver seus produtos generativos de IA sem esperar pelos regulamentos adequados. Elon Musk, ex-sócio de Altman na OpenAI, é um desses críticos, dizendo que a forma como a empresa está agora não é o que ele pretendia.

Musk também se juntou a outros líderes em tecnologia na criação do projeto Initiative for Life, que pede aos desenvolvedores de IA que parem de desenvolver modelos mais poderosos que o GPT-4 por pelo menos seis meses. Vale a pena notar que Altman afirmou recentemente que o GPT-5 não está sendo desenvolvido pela OpenAI. Esta semana, Altman falou em uma audiência no Congresso nos Estados Unidos e admitiu que é necessário haver regulamentos claros e rígidos para o desenvolvimento da IA.