Memoriais de campos de concentração e centros de documentação manifestaram profunda preocupação, em uma carta divulgada nesta semana, com a onda do chamado AI slop — imagens falsas geradas por inteligência artificial — sobre o assassinato de mais de seis milhões de judeus pelos nazistas durante a Segunda Guerra Mundial.
Entre os conteúdos citados estão ilustrações altamente emocionais de episódios inventados, como encontros entre prisioneiros de campos de concentração e seus libertadores ou crianças atrás de arame farpado.
“O conteúdo gerado por IA distorce a história por meio da trivialização e da kitschificação”, diz a carta, datada de 13 de janeiro. Segundo as instituições, essas imagens também contribuem para aumentar a desconfiança dos usuários em relação a documentos históricos autênticos.
O ministro da Cultura e da Mídia da Alemanha, Wolfram Weimer, afirmou que apoia os esforços das instituições memoriais para que imagens geradas por IA sejam claramente identificadas e, quando necessário, removidas.
“Essa é uma questão de respeito pelos milhões de pessoas que foram mortas e perseguidas sob o regime de terror nazista”, disse ele em um e-mail enviado à Reuters.
Empresas de inteligência artificial, especialmente a xAI, de Elon Musk, responsável pelo chatbot Grok — também enfrentam pressão após a circulação online de milhares de imagens deepfake sexualizadas de mulheres e menores de idade.
As instituições memoriais afirmam que parte dessas imagens é criada para gerar engajamento e lucro, enquanto outra parte tem o objetivo de “diluir fatos históricos, inverter os papéis de vítimas e perpetradores ou espalhar narrativas revisionistas”.
Entre as instituições signatárias estão centros memoriais de Bergen-Belsen, Buchenwald, Dachau e outros campos de concentração onde judeus foram mortos, assim como outras pessoas, incluindo ciganos e sinti, minorias sexuais e pessoas com deficiência.
Segundo elas, as plataformas de mídia social devem agir de forma proativa contra imagens falsas geradas por IA sobre o Holocausto, em vez de esperar que usuários façam denúncias. As medidas defendidas incluem a identificação clara desse tipo de conteúdo e a proibição de sua monetização.
A disseminação de AI slop de baixa qualidade, que pode incluir textos, imagens ou vídeos falsos, tem despertado o alerta de especialistas, que temem que esse material polua o ambiente informativo e torne cada vez mais difícil para os usuários distinguir o que é verdadeiro do que é falso.
Por Reuters
Fonte: g1
