Gigantes da IA assinam acordo para combater conteúdo eleitoral enganoso

Foto: Fernando Frazão/Agência Brasil
Compartilhe

O acordo surge como uma resposta à crescente preocupação com a integridade das eleições em vários países

Um grupo de líderes em inteligência artificial (IA), incluindo Google, Microsoft, Meta, OpenAI, Adobe e TikTok, está prestes a assinar um acordo comprometendo-se a desenvolver tecnologia para detectar, identificar e controlar conteúdo gerado por IA que possa enganar eleitores. O acordo surge como uma resposta à crescente preocupação com a integridade das eleições em vários países.

No entanto, a versão final do acordo, obtida pelo The Washington Post, não inclui uma proibição direta do conteúdo eleitoral enganoso gerado por IA. Em vez disso, o documento funciona mais como um manifesto, reconhecendo os riscos apresentados pelo conteúdo gerado por IA para a integridade das eleições e propondo medidas para mitigar esses riscos.

As medidas propostas incluem a rotulagem de conteúdo suspeito de IA e a educação do público sobre os perigos associados à disseminação de deepfakes. Deepfakes, uma forma de conteúdo gerado por IA que pode imitar a aparência e a voz de pessoas reais, têm se tornado cada vez mais sofisticados e difíceis de distinguir do conteúdo real.

Exemplos recentes de deepfakes em campanhas eleitorais incluem um anúncio em apoio ao ex-candidato presidencial Ron DeSantis, que usou IA para imitar a voz do ex-presidente Donald Trump, e o uso de IA pelo candidato presidencial paquistanês Imran Khan para criar discursos enquanto estava na prisão. Além disso, recentemente uma ligação automática, alegando ser do presidente Biden, incentivou as pessoas a não votarem nas primárias de New Hampshire, utilizando uma versão gerada por IA da voz de Biden.

O acordo representa um passo importante na luta contra a desinformação e a manipulação eleitoral. No entanto, a ausência de uma proibição direta do conteúdo eleitoral enganoso gerado por IA deixa uma lacuna significativa que precisa ser abordada.

Você pode gostar...

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Skip to content