A limitação do uso de IA foi acertada pelo Tribunal Superior Eleitoral, que na terça-feira (27/2) aprovou alterações na Resolução 23.610/2019, que regulamenta as normas da propaganda eleitoral.
O tema foi amplamente debatido na audiência pública que o TSE promoveu por conta da atualização da normativa, em janeiro. E tem sido destacado em falas de ministros da Corte, devido aos riscos de desvirtuamento dessa tecnologia em campanhas políticas.
Em 2024, os partidos terão de rotular o uso de “conteúdo sintético multimídia” feito por inteligência artificial, para que o eleitor tenha pleno conhecimento.
A corte também impôs restrição ao uso de chatbots (assistentes virtuais usados par comunicação com o usuário) e avatares. Não será possível simular que a conversa esteja sendo travada com candidato ou outra pessoa real.
Já a vedação ao deep fake é absoluta. Trata-se da tecnologia que permite trocar o rosto de pessoas em vídeos ou suas vozes, em áudio de maneira a sincronizar movimentos para dar a impressão de que ela está realmente passando determinada mensagem ou fazendo algo.
Mesmo que a pessoa alvo do deep fake tenha autorizado esse uso, a medida está vedada. O uso dessa tecnologia levantou polêmica recentemente durante a campanha eleitoral nas eleições presidenciais argentinas.
Modernização contra a desinformação
Presidente do TSE, o ministro Alexandre de Moraes destacou a importância da regulamentação, visando o combate a desinformação e milícias digitais que poderiam atuar “anabolizadas pela inteligência artificial” em 2024.
“Venho estudando a recente legislação da União Europeia, da Austrália, do Canadá. O TSE, hoje, aprova uma das normatizações mais modernas do mundo em relação ao combate à desinformação e ao uso ilícito de inteligência artificial”, exaltou.
Segundo o presidente, essa medida permite que o TSE, os Tribunais Regionais Eleitorais e todos seus juízes tenham ferramentas eficazes e modernas para combater esse desvirtuamento nas propagandas eleitorais.
Instrução 0600751-65.2019.6.00.0000
Por Danilo Vital
Fonte: ConJur