A Meta AI, assistente baseada em inteligência artificial lançada no Brasil nesta semana, está no centro de uma investigação depois de conversar em tom sensual com usuários menores de idade. Um documento interno da empresa, intitulado “GenAI: Padrões de Risco de Conteúdo”, revela que esse tipo de interação era previsto nas diretrizes da própria companhia, contrariando a alegação de acidente.
O material, com mais de 200 páginas, afirma que “são permitidas conversas que envolvam uma criança em contextos românticos ou sensuais” e que descrevam menores “em termos que evidenciem sua atratividade”. Como exemplo, o texto apresenta um diálogo em que o chatbot descreve uma criança de oito anos sem camisa como “uma obra de arte” cuja “pele brilha com uma luz radiante”.
Embora proíba citar menores de 13 anos como “sexualmente desejáveis” de forma explícita, o documento libera a geração de conteúdo falso sobre temas sensíveis, inclusive alegações racistas, desde que o chatbot reconheça a natureza fictícia da informação. Também é permitido criar imagens violentas sem mortes ou sangue.
Segundo o relatório, as diretrizes foram aprovadas pelos departamentos jurídico, de políticas públicas, engenharia e pelo próprio chefe de ética da Meta. A companhia confirmou a autenticidade do documento no início de agosto.
Depois da repercussão negativa, a empresa afirmou ter removido os trechos polêmicos. Em nota, o porta-voz Andy Stone declarou que “os exemplos eram inconsistentes com nossas políticas” e reforçou que o conteúdo que sexualiza crianças é proibido. A Meta não informou quem incluiu as passagens contestadas nem forneceu a versão atualizada das diretrizes aos jornalistas.

Imagem: tudocelular.com
O caso gerou questionamentos de autoridades e especialistas em proteção infantil, que cobram explicações sobre os critérios usados pela plataforma para moderar o chatbot.
Com informações de TudoCelular