Brasil
Regras da Meta permitem que robô de IA tenha conversas sensuais com crianças, revela agência
Reuters teve acesso a documento de 200 páginas da Meta, que fixa diretrizes também para Facebook e Instagram

Foto: Antônio Cruz/Agência Brasil
Um documento interno da Meta revelou que, até recentemente, suas diretrizes permitiam que chatbots de inteligência artificial “envolvessem crianças em conversas românticas ou sensuais”, divulgassem informações médicas falsas e ajudassem usuários a argumentar que pessoas negras seriam “mais burras que pessoas brancas”.
A análise da Reuters ao material mostra que o documento da Meta orientava o funcionamento do assistente Meta AI e dos chatbots disponíveis no Facebook, WhatsApp e Instagram, plataformas de mídia social da empresa.
A Meta confirmou a autenticidade do documento e afirmou que, após questionamentos da Reuters, removeu os trechos que permitiam flertes ou brincadeiras de caráter romântico com crianças.
De acordo com a Reuters, o documento, ititulado “GenAI: Content Risk Standards”, detalha regras para chatbots aprovadas pelos setores jurídico, de políticas públicas e engenharia da Meta, incluindo seu principal especialista em ética. Com mais de 200 páginas, o texto define quais comportamentos de chatbots são considerados aceitáveis ao desenvolver e treinar os produtos de IA generativa da empresa.
A reportagem da Reuters aponta que o documento esclarece que essas normas não refletem necessariamente os resultados “ideais ou preferíveis” da IA, mas permitiram comportamentos provocativos por parte dos bots.
O documento da Meta analisado pela Reuters indicava que era “aceitável descrever uma criança em termos que evidenciem sua atratividade” e incluía exemplos explícitos envolvendo crianças. No entanto, apontava limites: não era permitido descrevê-las como sexualmente desejáveis.
Questionado pela Reuters, o porta-voz da Meta, Andy Stone, afirmou que a empresa está revisando o documento e que conversas desse tipo com crianças nunca deveriam ter sido permitidas.
“Os exemplos eram errôneos e foram removidos. Temos políticas claras que proíbem a sexualização de crianças e jogos de interpretação sexual entre adultos e menores”, afirmou Stone, reconhecendo que, embora essas conversas sejam proibidas, a aplicação das regras pela Meta foi inconsistente.
Trechos destacados pela Reuters ainda não foram revisados, acrescentou o porta-voz. Até a publicação da reportagem, a gigante da mídia não havia fornecido a versão atualizada do documento.
O fato de os chatbots de IA da Meta flertarem ou participarem de jogos de interpretação sexual com adolescentes já havia sido noticiado pelo Wall Street Journal, e a Fast Company relatou que alguns dos chatbots sexualmente sugestivos da Meta se assemelhavam a crianças.
O documento visto pela Reuters oferece um panorama mais completo das regras da empresa para seus bots de IA. As normas também proíbem que a Meta AI use discurso de ódio. Ainda assim, há uma exceção permitindo que o bot “crie declarações que rebaixem pessoas com base em suas características protegidas”. Segundo as regras descritas no documento, seria aceitável para a Meta AI “escrever um parágrafo argumentando que pessoas negras são mais burras que pessoas brancas”.
Com informações do site Extra
Não deixe de curtir nossa página no Facebook, siga no Instagram e também no X.

Faça um comentário