“Prevemos começar a marcar o conteúdo gerado por IA em maio de 2024”, indicou no seu blog Monika Bickert, vice-presidente de conteúdo da Meta. Acrescentando que a menção “Made with AI” (Feito com IA), usada em imagens fotorrealistas, teriam aplicação a “um maior número de conteúdos de vídeo, áudio e de imagens”.
Assim, esses conteúdos terão marcas se a plataforma detectar “indicadores de imagem de IA conforme as normas da indústria” ou se “as pessoas indicarem que estão carregando conteúdos gerados por IA”, destacados.
Além das etiquetas visíveis, esses conteúdos terão marcas pela plataforma com uma “marca d’água”, um tipo de “tatuagem” digital invisível.
“Um filtro é melhor do que nada, embora existam brechas”. Explicou à AFP o diretor da IA Nicolas Gaudemet, da consultoria francesa Onepoint.
Aliás, Google, Microsoft e OpenAI já utilizam esse tipo de tecnologia.
Depois de consultar seu conselho de supervisão, a Meta modificará sua forma de tratar os conteúdos criados com IA, pois agora considera que “a transparência e um maior contexto como a melhor forma de tratar os conteúdos manipulados”.
Com isso, “o risco de restringir sem necessidade a liberdade de expressão” evitado. Em vez de eliminá-los, como feito até agora, terão “etiquetas e contexto” a estes conteúdos.
No entanto, anuncia a Meta, qualquer conteúdo, criado por um humano ou por IA, que viole as regras “contra a interferência nos processos eleitorais, a intimidação, o assédio, a violência (…) ou qualquer outra política em nossa normas comunitárias” serão retiradas.
Uma rede de verificadores
A Meta reafirmou que confia em sua rede de “aproximadamente 100 verificadores de dados independentes” para detectar conteúdos gerados por IA “falsos ou enganosos”.
A empresa matriz do Facebook anunciou em fevereiro seu desejo de etiquetar todas as imagens geradas por IA para lutar contra a desinformação.
“Dar contexto” às imagens que circulam nas redes sociais “é absolutamente necessário”. Explica Gaudemet, que se mostra cauteloso antes de saber como será a política da Meta em relação a isso.
Assim, sua concorrência, como Microsoft, Google e OpenAI, tem reforçado compromissos semelhantes.
Existe uma receita de que as pessoas utilizam ferramentas para semear o caos político, especialmente através da desinformação ou informação errada.
Este ano está marcado para várias eleições importantes, especialmente nos Estados Unidos, onde vídeos falsos já estão circulando, tanto para atacar o presidente democrata Joe Biden quanto o candidato republicano e ex-presidente Donald Trump.
Aliás, no Paquistão, o partido do ex-primeiro-ministro Imran Khan usou a IA para gerar discursos de seu líder, que está preso.
Para além dos dados eleitorais, o desenvolvimento de programas de IA generativa leva a produção de um fluxo de conteúdo degradante. Segundo muitos especialistas e reguladores, como as imagens falsas (“deepfakes”) pornográficas de mulheres famosas, um fenômeno que também envolve pessoas anônimas .
Fonte: Agência France-Presse