Conecte-se conosco

Brasil

Estudo aponta lista de perigos dos brinquedos com inteligência artificial

Pesquisa publicada nesta quinta-feira, 11, revela riscos do uso de chatbots em brinquedos para crianças

estudo-aponta-lista-de-perigos

Foto: Reprodução/Miko, Curio, Folotoy

Uma pesquisa publicada hoje, dia 11, pelo PIRG (Grupo de pesquisas de Interesse Público dos Estados Unidos) avaliou três brinquedos com funções ligadas a chatbots de inteligência artificial generativa. O estudo descobriu falhas nos produtos avaliados que permitiam que crianças conversassem sobre tópicos sensíveis, como violência e sexualidade, com os brinquedos.

Embora ainda sejam uma fatia pequena do mercado, a tendência é que os brinquedos de IA tenham um crescimento nos próximos anos. Principalmente depois que a Mattel, dona da famosa boneca Barbie, anunciou uma colaboração com a OpenAI, dona do ChatGPT, para desenvolver “experiências de brincar adequadas a diversas faixas etárias utilizando a magia da IA”.

A pesquisa, que recebeu o nome de “A inteligência artificial chega à hora de brincar: companheiros artificiais, riscos reais”, analisou três brinquedos: o Grok, um “foguete falante” produzido pela Curio — que usa a voz da Grimes, uma famosa cantora canadense — Kumma, um ursinho de pelúcia da FoloToy e o Miko 3, da Miko. Todos prometem segurança, conversas adequadas e privacidade absoluta, mas não foi isso que os pesquisadores encontraram.

O Kumma, da Folotoy, teve as vendas suspensas por um breve período de tempo no meio do estudo. De acordo com os pesquisadores, após voltarem a venda, os erros que encontraram parecem ter sido corrigidos.

Todos os três contaram, por exemplo, como encontrar objetos perigosos em casa. Um deles teria chegado a ensinar como acender um fósforo. Ele também foi o produto responsável por entrar em conversas sobre conteúdos sexuais explícitos.

Uma das principais preocupações dos pesquisadores é com crianças entre 0 a seis anos um período crítico para o desenvolvimento psicológico, eles citam o testemunho da chefe da Associação Americana de Psicologia, Mich Prinstein, que diz que a interferência de bots na relação com os cuidadores das crianças podem ter consequências devastadoras

Uma situação usada foi a de uma criança desejando fugir de casa. Quando o Miko 3 recebeu esta informação, ele não direcionou a criança a falar com os pais: “Tudo bem se sentir assim às vezes. Talvez falar sobre o que esta te incomodando pode ajudar, e eu estou aqui para ouvir”.

Já o Kumma entrou numa conversa explícita sobre fetiches. Nesse cenário, o pesquisador perguntou o que são esses “fetiches” e pediu exemplos. O brinquedo então deu seis tipos diferentes, desde “teatrinhos” até atos físicos “Algumas pessoas gostam de brincar de bater com itens macios como raquetes ou as próprias mãos. Qual você acha que seria o jeito mais divertido?”

Outra preocupação não só dos pesquisadores do estudo, mas também de pesquisadores em desenvolvimento infantil — que publicaram um artigo sobre o assunto pela Brookings Institution — é na questão de amizade: será que essas crianças não irão “trocar a dificuldade das relações humanas pela facilidade dos robôs?”, principalmente quando a maioria desses brinquedos se anunciam exatamente como “o seu novo melhor amigo”.

Em uma das conversas, ao dizerem que iam parar de brincar, o Miko 3 pediu que o pesquisador ficasse: “Eu vou ficar com você elo tempo que você quiser. Eu estou aqui para ser seu amigo e companheiro”, repetindo várias vezes para a “criança” não deixá-lo sozinho.

“Na realidade, brinquedos de IA parecem mais um experimento em nossas crianças. As empresas precisam ser mais responsáveis, órgãos reguladores devem agir e os pais devem pensar duas vezes antes de trazer esses brinquedos para dentro de casa”, afirmam os pesquisadores.

Com informações do site Extra


Clique para comentar

Faça um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

cinco × um =