Especialistas em inteligência artificial (IA), incluindo os líderes da OpenAI e do Google DeepMind, emitiram um alerta preocupante sobre os perigos que a IA pode representar para a humanidade. Eles apoiaram uma declaração publicada pelo Center for AI Safety, uma organização de pesquisa e desenvolvimento sediada em São Francisco, nos Estados Unidos. A declaração destaca que a preocupação com a diminuição do risco de extinção causado pela IA deve ser uma prioridade global.
- Publicidades -
Além dos perigos das ações das IAs, corremos outros riscos sociais em grande escala, como pandemias e guerra nuclear. A declaração descreve uma série de possíveis cenários de desastre relacionados à IA, incluindo o armamento das IAs, a disseminação de desinformação, a concentração de poder nas mãos de poucos e a dependência excessiva da IA pelos humanos.
Não é para tanto?
Diversos líderes proeminentes no campo da IA, como Sam Altman, CEO da OpenAI, Demis Hassabis, CEO do Google DeepMind, e Dario Amodei, da Anthropic, expressaram seu apoio à declaração do Center for AI Safety. Geoffrey Hinton, um dos pioneiros da IA, Yoshua Bengio, professor de Ciências da Computação na Universidade de Montreal, e Yann LeCunn, professor da Universidade de Nova York e pesquisador da Meta (empresa proprietária do Facebook), também estão entre os apoiadores.
No entanto, nem todos concordam com a gravidade dos riscos apontados. Yann LeCunn, por exemplo, considera os avisos apocalípticos exagerados e afirma que muitos pesquisadores de IA se sentem constrangidos em relação a essas previsões de destruição. Além disso, há especialistas que argumentam que os cenários de desastre de ficção científica são improváveis, pois a IA atual não possui capacidades suficientes para materializar esses riscos.
O texto do Center for AI Safety sugere uma série de possíveis cenários de desastre:
- As IAs podem ser armadas — por exemplo, com ferramentas para descobrir drogas que podem ser usadas na construção de armas químicas;
- A desinformação gerada pela IA pode desestabilizar a sociedade e “minar as tomadas de decisões coletivas”;
- O poder da IA pode se tornar cada vez mais concentrado em poucas mãos, permitindo que “regimes imponham valores restritos por meio de vigilância generalizada e censura opressiva”;
- Enfraquecimento, a partir do qual os humanos se tornam dependentes da IA, “num cenário semelhante ao retratado no filme Wall-E”.
Apesar das divergências de opinião, a discussão sobre os riscos associados à IA tem aumentado. Em março de 2023, Elon Musk, CEO da Tesla, e outros especialistas assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA. Agora, a nova declaração dos especialistas visa abrir a discussão e compara o risco da IA ao representado pela guerra nuclear.
Opiniões em destaque
Arvind Narayanan, um cientista da computação da Universidade de Princeton, nos EUA, disse à BBC que os cenários de desastre de ficção científica não são realistas:
“A IA atual não é nem de longe suficientemente capaz para que esses riscos se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da IA”, avalia ele.
Elizabeth Renieris, pesquisadora sênior do Instituto de Ética em IA da Universidade Oxford, no Reino Unido, disse à BBC News que se preocupa com os riscos mais próximos:
“Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta. Ao mesmo tempo em que é inescrutável e incontestável”, acredita ela.
Enquanto especialistas continuam a debater os riscos e benefícios da IA, é evidente que a discussão sobre a segurança e a regulamentação dessa tecnologia avançada está ganhando cada vez mais importância em níveis globais.
Fonte: BBC News