YouTube vai obrigar usuários a identificar vídeos feitos com inteligência artificial
Criadores precisam declarar se conteúdo manipula pessoa, evento ou lugar
CONTEÚDO DE IA
O YouTube implementou uma nova exigência para os criadores, que agora devem incluir um aviso ao publicarem conteúdos realistas gerados por inteligência artificial (IA). Essa medida tem como objetivo evitar confusões entre vídeos manipulados e fictícios com eventos, locais e pessoas reais.
Agora, durante a publicação de vídeos, o criador é obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou fazer algo que ela não fez, se altera algum registro visual, evento real ou lugar e se gera uma cena realista que nunca existiu. Ao selecionar sim, um aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo em questão.
O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo. Contudo, o YouTube afirma que pode adicionar um aviso mesmo se o criador não o fizer. Outros rótulos serão incluídos em vídeos com conteúdos sensíveis como saúde, eleições e finanças.
A medida, que foi implementada nesta segunda-feira (18), foi originalmente anunciada em novembro de 2023 na forma de uma atualização das políticas do YouTube para conteúdos baseados em IA. Vídeos gerados por IA mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou locais reais, não são afetados pela medida.
Outro recurso mencionado em novembro mas que ainda não foi implementado na última atualização da plataforma é a possibilidade de uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que usam sua imagem.