Um grupo de 20 empresas de tecnologia anunciou na sexta-feira (16) que concordou em trabalhar em conjunto para evitar que conteúdo enganoso de inteligência artificial interfira nas eleições em todo o mundo este ano.
O rápido crescimento da inteligência artificial generativa (IA), que pode criar texto, imagens e vídeo em segundos em resposta a solicitações, aumentou os receios de que a nova tecnologia possa ser usada para influenciar eleições importantes este ano, já que mais de metade da população mundial está preparada para ir às urnas.
Os signatários do acordo tecnológico, anunciado na Conferência de Segurança de Munique, incluem empresas que estão construindo modelos generativos de IA usados para criar conteúdo, incluindo OpenAI, Microsoft e Adobe.
Outros signatários incluem plataformas de redes sociais que enfrentarão o desafio de manter conteúdo prejudicial fora de seus sites, como Meta Platforms, TikTok e X, anteriormente conhecido como Twitter.
O acordo inclui compromissos de colaboração no desenvolvimento de ferramentas para detectar imagens, vídeos e áudio enganosos gerados por IA, criando campanhas de conscientização pública para educar os eleitores sobre conteúdo enganoso e tomar medidas sobre esse conteúdo em seus serviços.
A tecnologia para identificar conteúdo gerado por IA ou certificar sua origem poderia incluir marcas d’água ou incorporação de metadados, disseram as empresas.
O acordo não especificou um cronograma para cumprir os compromissos ou como cada empresa os implementaria.
“Acho que a utilidade deste (acordo) é a amplitude das empresas que o assinam”, disse Nick Clegg, presidente de assuntos globais da Meta Platforms.
“Está tudo muito bem se as plataformas individuais desenvolverem novas políticas de detecção, proveniência, rotulagem, marca d’água e assim por diante, mas a menos que haja um compromisso mais amplo para fazê-lo de uma forma interoperável compartilhada, ficaremos presos a uma miscelânea de diferentes compromissos”, disse Clegg.
A IA generativa já está a ser usada para influenciar a política e até convencer as pessoas a não votarem.
Em janeiro, uma chamada automática usando áudio falso do presidente Biden circulou entre os eleitores de New Hampshire, instando-os a ficar em casa durante as eleições primárias presidenciais do estado.
Apesar da popularidade de ferramentas de geração de texto como o ChatGPT da OpenAI, as empresas de tecnologia se concentrarão na prevenção dos efeitos nocivos de fotos, vídeos e áudio de IA, em parte porque as pessoas tendem a ter mais ceticismo em relação ao texto, disse Dana Rao, diretora de confiança da Adobe, em uma entrevista.
“Há uma conexão emocional com áudio, vídeo e imagens”, disse ele. “Seu cérebro está programado para acreditar nesse tipo de mídia.”