Tamanho do mercado Lockout Tagout Equipment, participação, análise de demanda global, segmentação da indústria e relatório de previsão até 2028: Master Lock, Brady, ABUS
Mar 07, 2023Spy Shot: A Next
Mar 09, 2023Opinião: Decisão da Suprema Corte corrói o direito de greve ao capacitar empregadores a processar sindicatos
Mar 11, 2023Valorant 6.11 Patch Notes: atualizações de agentes, alterações no mapa Pearl, armas e muito mais
Mar 13, 2023idade digital
Mar 15, 2023CEOs da OpenAI e do Google DeepMind assinam declaração de alerta de que a IA representa “risco de extinção”
Mais de 350 especialistas da indústria de IA, incluindo da OpenAI e do Google, estão alertando que a IA é tão perigosa quanto grandes pandemias e guerra nuclear.
-
Um grupo de especialistas em inteligência artificial (IA) alertou que a IA pode representar uma ameaça para a humanidade se não for desenvolvida e usada com responsabilidade. O grupo, que inclui pesquisadores do Google, Microsoft e OpenAI, publicou um artigo na revista Nature em 30 de maio de 2023, descrevendo suas preocupações.
Sam Altman, CEO da OpenAI, Dario Amodei, CEO da Anthropic, e Demis Hassabis, CEO da Google DeepMind são os signatários mais notáveis.
“Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz a carta aberta. O New York Times informa que a declaração será divulgada pelo Center for AI Safety, uma nova organização sem fins lucrativos. Mais de 350 pesquisadores de IA, engenheiros e executivos de empresas assinaram a carta.
Geoffrey Hinton e Yoshua Bengio são dois pesquisadores notáveis que assinaram. Estes são dois dos três pesquisadores que ganharam o Prêmio Turing pelo desenvolvimento de redes neurais. Ambos os inovadores em IA, Hinton e Bengio, são conhecidos como os "padrinhos" da inovação em IA. No início deste mês, Hinton deixou seu cargo no Google depois de ficar frustrado com a falta de visão e liderança do Google no desenvolvimento de IA. Ele também alertou sobre os perigos potenciais da IA.
Os especialistas argumentam que a IA pode ser usada para criar armas autônomas que podem matar sem intervenção humana. Eles também temem que a IA possa ser usada para manipular pessoas ou espalhar desinformação. O grupo pede um esforço global para desenvolver IA de forma segura e responsável.
O alerta dos especialistas em IA ocorre em um momento em que a IA está se tornando cada vez mais poderosa. Nos últimos anos, a IA tem sido usada para desenvolver carros autônomos, software de reconhecimento facial e até mesmo chatbots com inteligência artificial. À medida que a IA continua a se desenvolver, é importante considerar os riscos potenciais, bem como os benefícios potenciais.
Os especialistas em IA que publicaram o artigo na Nature não são os primeiros a alertar sobre os perigos potenciais da IA. Em 2015, Elon Musk e Stephen Hawking foram co-autores de uma carta aberta pedindo a proibição de armas autônomas. E em 2017, o Future of Life Institute, uma organização sem fins lucrativos que promove pesquisas sobre riscos existenciais, publicou um relatório sobre os perigos da IA.
Os avisos dos especialistas em IA e de outros especialistas são um alerta. É claro que a IA é uma tecnologia poderosa com potencial para causar grandes danos. É essencial que desenvolvamos a IA de forma responsável e que tomemos medidas para mitigar os riscos.
Existem muitas preocupações sobre IA e legisladores, e até mesmo os envolvidos na indústria de IA estão expressando-os. Talvez o maior paradoxo da tecnologia no momento seja que o desenvolvimento continua na IA generativa avançada, apesar de muitas figuras importantes falarem sobre os perigos. Acho que a pergunta óbvia é: se executivos como Sam Altman estão preocupados, por que ainda estão desenvolvendo sistemas de IA? É puramente voltado para o lucro ou é arrogância e uma crença de que podemos controlar essa tecnologia?
Sam Altman é o cofundador da OpenAI (junto com Elon Musk) e atual CEO da empresa de pesquisa de IA. Ele se tornou um dos líderes tecnológicos mais poderosos nos últimos meses, pois o ChatGPT se tornou o chatbot de IA mais popular. Altman também desenvolveu uma parceria profunda com a Microsoft após bilhões de dólares em investimentos da empresa de Redmond.
Enquanto a OpenAI e a Microsoft aumentaram seus produtos de IA, como GPT-4, ChatGPT, Bing Chat, Microsoft 365 Copilot e GitHub Copilot. No entanto, os críticos de Altman afirmam que a OpenAI foi muito rápida em desenvolver seus produtos generativos de IA sem esperar pelos regulamentos adequados. Elon Musk, ex-sócio de Altman na OpenAI, é um desses críticos, dizendo que a forma como a empresa está agora não é o que ele pretendia.
Musk também se juntou a outros líderes em tecnologia na criação do projeto Initiative for Life, que pede aos desenvolvedores de IA que parem de desenvolver modelos mais poderosos que o GPT-4 por pelo menos seis meses. Vale a pena notar que Altman afirmou recentemente que o GPT-5 não está sendo desenvolvido pela OpenAI. Esta semana, Altman falou em uma audiência no Congresso nos Estados Unidos e admitiu que é necessário haver regulamentos claros e rígidos para o desenvolvimento da IA.