Cadastre-se e receba grátis as principais notícias do Correio.
Estadão
Publicado em 24 de outubro de 2024 às 08:50
Pesquisa do International Panel on the Information Environment (IPIE) revelou piora na expectativa de especialistas sobre desinformação. O estudo aponta líderes políticos, governos e donos de redes sociais como principais ameaças à qualidade do ambiente informacional mundial e põe a inteligência artificial (IA) no centro das preocupações. Analistas ouvidos pelo Estadão consideram que, apesar de a IA ter tido impacto menor do que o esperado nas eleições de 2024, instituições devem se manter em alerta para os próximos pleitos. >
Mais de 400 acadêmicos de áreas como ciências da computação, engenharia de dados e ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Enquanto mais da metade (54%) esperava que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% se disseram muito pessimistas em relação ao futuro do ambiente informacional. Um dos principais motivos para esse pessimismo é o uso de IA.>
Proprietários de redes sociais foram citados como principal ameaça ao ambiente informacional por 15,5%. Governos e políticos do país de origem dos entrevistados vieram na sequência, com 12,1%. Depois, governos e políticos de outros países e as mídias estatais. O menor risco, segundo os entrevistados, vem de jornalistas e da imprensa, citados como ameaça por apenas 1,5% dos participantes.>
"O controle que essas entidades (plataformas) exercem sobre a distribuição de conteúdo e as políticas de moderação afetam significativamente a qualidade e a integridade da informação", afirmou o presidente do IPIE, Phil Howard. "O poder irrestrito dessas entidades representa um grave risco para a saúde do nosso ambiente informacional global.">
Para mais da metade dos participantes da pesquisa, vídeos, vozes, imagens e textos gerados artificialmente representam um risco. O Data Privacy Brasil, que monitora o uso de IA em parceria com o Desinformante e a Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no País. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados.>
Entre as ocorrências, foram registrados até "deepnudes", imagens e vídeos falsos com teor sexual. Candidatas derrotadas na disputa de São Paulo, Tabata Amaral (PSB) e Marina Helena (Novo) foram vítimas. A lista de vídeos falsos incluiu ainda suposto abraço entre Pablo Marçal (PRTB) e Tabata.>
"É um risco permanente. Daí a importância de serem observados e contidos por medidas institucionais, especialmente a atuação da Justiça", disse o diretor do Data Privacy Brasil, Rafael Zanatta "É preciso avançar desse pleito para o próximo reavaliando o quanto as regras vigentes são aderentes a uma realidade que está sempre em transformação.">
Chefe de Programas do IPIE, Egerton Neto afirmou que os próximos pleitos serão desafiadores. "O mais difícil ainda está por vir. As eleições de 2026 e 2028 ocorrerão em um ambiente informacional ainda pior. Isso coloca pressão nas instituições tanto para regular o uso de IA como para explorar formas em que a IA possa ser uma aliada, como na detecção de deepfakes.">