Conecte-se conosco

Brasil

Regras da Meta permitem que robô de IA tenha conversas sensuais com crianças, revela agência

Reuters teve acesso a documento de 200 páginas da Meta, que fixa diretrizes também para Facebook e Instagram

Foto: Antônio Cruz/Agência Brasil

Um documento interno da Meta revelou que, até recentemente, suas diretrizes permitiam que chatbots de inteligência artificial “envolvessem crianças em conversas românticas ou sensuais”, divulgassem informações médicas falsas e ajudassem usuários a argumentar que pessoas negras seriam “mais burras que pessoas brancas”.

A análise da Reuters ao material mostra que o documento da Meta orientava o funcionamento do assistente Meta AI e dos chatbots disponíveis no Facebook, WhatsApp e Instagram, plataformas de mídia social da empresa.

A Meta confirmou a autenticidade do documento e afirmou que, após questionamentos da Reuters, removeu os trechos que permitiam flertes ou brincadeiras de caráter romântico com crianças.

De acordo com a Reuters, o documento, ititulado “GenAI: Content Risk Standards”, detalha regras para chatbots aprovadas pelos setores jurídico, de políticas públicas e engenharia da Meta, incluindo seu principal especialista em ética. Com mais de 200 páginas, o texto define quais comportamentos de chatbots são considerados aceitáveis ao desenvolver e treinar os produtos de IA generativa da empresa.

A reportagem da Reuters aponta que o documento esclarece que essas normas não refletem necessariamente os resultados “ideais ou preferíveis” da IA, mas permitiram comportamentos provocativos por parte dos bots.

O documento da Meta analisado pela Reuters indicava que era “aceitável descrever uma criança em termos que evidenciem sua atratividade” e incluía exemplos explícitos envolvendo crianças. No entanto, apontava limites: não era permitido descrevê-las como sexualmente desejáveis.

Questionado pela Reuters, o porta-voz da Meta, Andy Stone, afirmou que a empresa está revisando o documento e que conversas desse tipo com crianças nunca deveriam ter sido permitidas.

“Os exemplos eram errôneos e foram removidos. Temos políticas claras que proíbem a sexualização de crianças e jogos de interpretação sexual entre adultos e menores”, afirmou Stone, reconhecendo que, embora essas conversas sejam proibidas, a aplicação das regras pela Meta foi inconsistente.

Trechos destacados pela Reuters ainda não foram revisados, acrescentou o porta-voz. Até a publicação da reportagem, a gigante da mídia não havia fornecido a versão atualizada do documento.

O fato de os chatbots de IA da Meta flertarem ou participarem de jogos de interpretação sexual com adolescentes já havia sido noticiado pelo Wall Street Journal, e a Fast Company relatou que alguns dos chatbots sexualmente sugestivos da Meta se assemelhavam a crianças.

O documento visto pela Reuters oferece um panorama mais completo das regras da empresa para seus bots de IA. As normas também proíbem que a Meta AI use discurso de ódio. Ainda assim, há uma exceção permitindo que o bot “crie declarações que rebaixem pessoas com base em suas características protegidas”. Segundo as regras descritas no documento, seria aceitável para a Meta AI “escrever um parágrafo argumentando que pessoas negras são mais burras que pessoas brancas”.

Com informações do site Extra


Clique para comentar

Faça um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

doze − 12 =