Conecte-se conosco

Brasil

ECA Digital: governo federal aumenta classificação indicativa do YouTube para maiores de 16 anos

Lei estabelece que plataformas adotem sistemas para identificar, pelo comportamento de uso, se quem acessa uma conta é adulto ou criança.

eca-digital-governo-federal-au

O Ministério da Justiça e Segurança Pública (MJSP) aumentou a classificação indicativa do YouTube. Conforme portaria publicada nesta terça-feira,5/5, no Diário Oficial da União (DOU), a plataforma, antes classificada como inadequada para menores de 14 anos, passa a não ser recomendada para menores de 16 anos. A medida faz parte do Estatuto Digital da Criança e do Adolescente (ECA Digital), legislação que criou novas regras para proteger menores de idade na internet e impõe às plataformas a obrigação de verificar a idade dos usuários.

YouTube passa a não ser indicado para menores de 16

De acordo com a pasta, os descritores de conteúdo — resumo das principais tendências de indicação presentes na obra — do YouTube passam a conter “conteúdo sexual, drogas, linguagem imprópria e violência extrema”. A nova classificação indicativa também ressalta que a plataforma oferece a possibilidade de realizar compras on-line, ter interações com outros usuários e acesso a publicidade e recomendações de outros conteúdos.

ECA Digital cria regras para proteção online

Sancionado pelo presidente Luiz Inácio Lula da Silva (PT), o ECA Digital entrou em vigor em março deste ano e foi elaborado com participação da sociedade civil, especialistas e das próprias empresas de tecnologia e é tratado pelo governo como um marco regulatório inédito para o ambiente online.

A legislação busca adaptar princípios já previstos no Estatuto da Criança e do Adolescente ao mundo digital, onde, segundo dados citados pela ministra, 93% dos brasileiros entre 9 e 17 anos estão presentes.

Plataformas devem remover conteúdo ilegal

A nova norma estabelece uma série de obrigações para as plataformas, incluindo a remoção ágil de conteúdos ilegais, a proteção de dados pessoais de menores e a oferta de ferramentas de controle parental. Também prevê a criação de uma autoridade independente para fiscalizar o cumprimento das regras.

Outro ponto central é o chamado “dever de cuidado” das empresas. Antes da lei, a retirada de conteúdos considerados criminosos frequentemente dependia de decisões judiciais. Agora, as plataformas passam a ser responsáveis por agir diretamente após denúncias ou identificação de material ilegal, como casos de exploração sexual infantil ou violência.

Verificação de idade será obrigatória

Espaços digitais que vendem ou expõem conteúdos proibidos para menores de 18 anos também precisaram se adaptar para garantir um espaço on-line seguro para esse público. Neste caso, eles vão precisar verificar a idade do consumidor no ato do cadastro do usuário ou no momento da aquisição.

Além disso, o texto define que é dever da rede social ou de qualquer outro aplicativo submetido ao ECA Digital oferecer “tratamento prioritário e proceder à retirada , de maneira imediata e independentemente de ordem judicial, de conteúdo que viole direitos de crianças e adolescentes” quando a denúncia for apresentada pela vítima ou seus representantes; pelo Ministério Público; por autoridades policiais; ou por entidades da sociedade civil que serão habilitadas pela Autoridade Nacional de Proteção de Dados (ANPD).

Como verificar a idade?

Em linhas gerais, a nova lei exige que empresas de tecnologia adotem sistemas capazes de identificar, pelo comportamento de uso, se quem acessa uma conta é adulto ou criança, e, em caso de suspeita, solicitem comprovação adicional. A Agência Nacional de Proteção de Dados (ANPD) também divulgou orientações gerais e os requisitos mínimos para a adoção desse controle.

Em entrevista à Voz do Brasil, em março, a ministra dos Direitos Humanos e da Cidadania, Macaé Evaristo, ressaltou a criação de mecanismos de perceber sinais de identificação nas redes sociais, para identificar, por meio do padrão de uso, se quem está acessando é uma criança ou um adulto.

Plataformas devem analisar comportamento digital

— No geral, se perguntava só idade. Qual é a sua idade? Você é maior de 18 anos? E aí, qualquer um pode ir lá e responder sim. Não basta só dizer sim. É preciso que ele tenha mecanismos de perceber sinais de identificação. Se o padrão de consumo de internet é de um adulto ou se o padrão de consumo é de uma criança. Se ele vê que é de uma criança ele vai pedir mais uma forma de comprovação de que ali não é uma criança que está usando — afirmou.

Em 2025, 30% dos adolescentes brasileiros driblaram a idade mínima para acessar plataformas digitais em 2025, segundo pesquisa divulgada em janeiro deste ano pela Unico, startup especializada em verificação de identidade digital, em parceria com a Ipsos Brasil.

Como cada área foi impactada:

Games: Jogos digitais possuem classificação indicativa de idade e, por isso, será necessário verificação etária na compra.

Bancos: Alguns bancos possuem contas destinadas a adolescentes e, agora, precisarão garantir as proteções do ECA Digital.

Ensino: Plataformas de ensino têm baixo risco,mas terão que se adequar quanto ao tratamento de dados dos estudantes.

Marketplaces: Apps de venda que forneçam ou intermedeiem produtos proibidos para menores de 18 anos precisarão ter aferição de idade.

Apps de entrega: Serviços de delivery que vendem bebidas alcoólicas ou cigarros terão que garantir que os usuários não sejam menores de 18 anos.


Clique para comentar

Faça um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

6 + 4 =