Acesse sua conta

Ainda não é assinante?
Ao continuar, você concorda com a nossa Política de Privacidade
ou
Entre com o Google

Alterar senha

Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.

Recuperar senha

Preencha o campo abaixo com seu email.

Já tem uma conta? Entre

Alterar senha

Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.

Dados não encontrados!

Você ainda não é nosso assinante!

Mas é facil resolver isso, clique abaixo e veja como fazer parte da comunidade Correio *

ASSINE

YouTube vai obrigar usuários a identificar vídeos feitos com inteligência artificial

O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo

  • Foto do(a) author(a) Estadão
  • Estadão

Publicado em 19 de março de 2024 às 23:44

O YouTube passou a exigir dos criadores a inclusão de um aviso na publicação de conteúdos realistas feitos com inteligência artificial (IA). A intenção da plataforma é evitar a confusão de vídeos manipulados e fictícios com eventos, locais e pessoas reais.

Agora, durante a publicação de vídeos, o criador é obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou fazer algo que ela não fez, se altera algum registro visual, evento real ou lugar e se gera uma cena realista que nunca existiu. Ao selecionar sim, um aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo em questão.

O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo. Contudo, o YouTube afirma que pode adicionar um aviso mesmo se o criador não o fizer. Outros rótulos serão incluídos em vídeos com conteúdos sensíveis como saúde, eleições e finanças.

A medida, que foi implementada nesta segunda-feira, 18, foi originalmente anunciada em novembro de 2023 na forma de uma atualização das políticas do YouTube para conteúdos baseados em IA. Vídeos gerados por IA mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou locais reais, não são afetados pela medida.

Outro recurso mencionado em novembro mas que ainda não foi implementado na última atualização da plataforma é a possibilidade de uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que usam sua imagem.