Embora existam áreas em que a inteligência artificial (IA) pode ser benéfica, também há muitas coisas relacionadas a ela que podem “dar errado”, reconheceu Sam Altman, diretor executivo da OpenAI Inc. “Trabalhamos com tecnologia perigosa que pode ser usada de maneiras perigosas com muita frequência”, afirmou Altman no evento Technology Summit em San Francisco.
Segundo o empresário e programador americano, cujo OpenAI foi avaliado em mais de US$ 27 bilhões, os “benefícios superam os custos” da nova tecnologia. Altman destacou áreas como ciência, educação e medicina como oferecendo um campo de implementação promissor para os avanços da IA, “Acho que seria bom acabar com a pobreza, mas teremos que administrar o risco para chegar lá”.
Altman também avaliou os apelos contínuos dos legisladores para regular o modelo da inteligência artificial, dizendo que a regulamentação global pode ajudar a torná-lo seguro, o que é uma resposta melhor do que pará-lo”.
Sam Altman elogiou o enorme sucesso dos produtos da OpenAI, como o chatbot ChatGPT e o gerador de imagens Dall-E, e insistiu que suas preocupações com a IA neste estágio “não eram sobre dinheiro”.
“Eu tenho dinheiro suficiente… Esse conceito de ter dinheiro suficiente não é algo fácil de passar para outras pessoas”, disse Altman, ressaltando que a construção das chamadas grades de proteção para o uso de IA é um dos mais importantes passos que “a humanidade tem que percorrer com a tecnologia.”
Altman também avaliou os recentes avisos do CEO da Tesla, Elon Musk, sobre o potencial da IA de causar danos. Musk, que fundou a OpenAI com Altman, “realmente se preocupa muito com a segurança da IA”, destacou o guru da tecnologia, acrescentando que os alarmes que ele vinha soando estavam “vindo de um bom lugar”.
Anteriormente, centenas de pesquisadores de inteligência artificial e executivos de tecnologia assinaram um aviso severo de que a IA representa uma ameaça existencial para a humanidade.
“Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, afirmou o comunicado publicado em 30 de maio.
O alerta trazia as assinaturas de alguns dos principais nomes do setor, incluindo Altman, o “padrinho da IA” Geoffrey Hinton, diretor do Center for AI Safety Dan Hendrycks e altos executivos da Microsoft e do Google.
Outra carta publicada em março atraiu as assinaturas de mais de mil acadêmicos, empresários e especialistas em tecnologia pedindo uma pausa no desenvolvimento da IA até que ela possa ser regulamentada e executada com responsabilidade.