Quando o produto vira réu: o que as condenações da Meta e do YouTube ensinam ao Brasil
- GMPR Advogados

- há 13 horas
- 4 min de leitura
Por Luiz Felipe Fleury Calaça*
Em março de 2026, dois júris americanos proferiram decisões que podem mudar a forma como o mundo regula as redes sociais. No Novo México, a Meta foi condenada ao pagamento de USD 375 milhões por violar a lei estadual de proteção ao consumidor ao omitir riscos de exploração sexual de crianças em suas plataformas[1]. Na Califórnia, Meta e YouTube foram responsabilizadas por danos à saúde mental de uma jovem usuária, com indenização total de USD 6 milhões — resultado do uso deliberado de recursos como rolagem infinita e reprodução automática de vídeos para mantê-la engajada além de qualquer limite razoável[2]. Ambas as empresas anunciaram recursos.
À primeira vista, os casos parecem mais um capítulo da longa batalha entre reguladores e gigantes da tecnologia. Mas há algo estruturalmente diferente nessas condenações. E entender essa diferença é fundamental para o Brasil.
Do conteúdo ao design: a virada conceitual
Na última década, o debate sobre responsabilidade das plataformas gravitou em torno do conteúdo. A pergunta central era sempre a mesma: a plataforma hospedou algo ilegal? Nos Estados Unidos, a Seção 230 do Communications Decency Act funciona como escudo: as plataformas, em regra, não respondem pelo que terceiros publicam em seus ambientes. No Brasil, o art. 19 do Marco Civil da Internet segue lógica semelhante, condicionando a responsabilidade civil à ausência de cumprimento de ordem judicial de remoção.
Esse modelo parte de uma premissa: a plataforma é um intermediário neutro. O problema é que essa premissa nunca foi verdadeira.
Os julgamentos americanos de 2026 enfrentaram essa ficção de frente. Pela primeira vez, o que se julgou não foi o que as plataformas publicam, mas como elas foram construídas. A negligência reconhecida pelos júris não decorreu de um post específico ou de um conteúdo que deveria ter sido removido. Decorreu de decisões de arquitetura — escolhas feitas por designers e engenheiros sobre como o produto funciona, como prende a atenção, como recomenda conteúdo, como notifica, como recompensa o tempo de uso.
Essas são decisões de produto. E, agora, decisões de produto têm consequências jurídicas.
O ECA Digital e a abertura de uma nova arena
O Brasil não chegou a esse debate despreparado. A Lei n. 15.211/2025, conhecida como ECA Digital, representa a maior inovação legislativa nacional em matéria de proteção de crianças e adolescentes no ambiente digital. Seu art. 4º estabelece os fundamentos que devem orientar qualquer produto ou serviço de tecnologia voltado a esse público: proteção integral, prevalência absoluta dos interesses da criança, reconhecimento de sua condição peculiar de pessoa em desenvolvimento, segurança contra violência e exploração, e transparência no tratamento de dados pessoais.
Entre as disposições mais relevantes, a lei veda expressamente a publicidade direcionada a crianças com base em perfilamento — ou seja, proíbe que dados de comportamento sejam usados para segmentar anúncios ao público infantojuvenil. Trata-se de uma norma que vai diretamente ao coração do modelo de negócios das grandes plataformas.
A lei abre uma arena promissora. A questão que se coloca agora é: como interpretar a responsabilidade das plataformas por design nocivo à luz desses fundamentos? Os julgamentos americanos oferecem uma bússola. Se uma plataforma utiliza rolagem infinita, recomendações algorítmicas de conteúdo sensacionalista e sistemas de notificação compulsória dirigidos a usuários que ela sabe serem crianças ou adolescentes, é possível sustentar que viola, ao mesmo tempo, o dever de proteção integral e a vedação à exploração comercial previstos no ECA Digital — independentemente de qualquer conteúdo ilegal específico.
Esse deslocamento interpretativo ainda está por ser construído no Brasil.
A lição do julgamento da Meta e do Youtube
Rafael Zanatta e Carolina Rossini, em artigo publicado no JOTA[3], capturam com precisão o significado desse momento:
"O julgamento em Los Angeles não vai resolver sozinho a crise de governança da internet. Mas pode marcar um possível ponto de inflexão: o momento em que sociedades democráticas passaram a tratar decisões algorítmicas como o que elas são em mercados digitais — decisões de produto, com consequências reais sobre pessoas reais, sujeitas a obrigações reais de segurança e responsabilidade."
Os autores acrescentam que o ECA Digital abre uma nova arena de debates sobre vícios, design de arquiteturas e responsabilidade das big techs, e concluem com um chamado ao que denominam "inovação responsável" — tecnologia a serviço das pessoas, não contra elas.
É uma conclusão correta. E há um passo adiante a ser dado.
O debate sobre responsabilidade por design só produz efeitos reais se incorporarmos o conceito de safety by design — segurança desde a concepção — como exigência estruturante do desenvolvimento de produtos digitais voltados a crianças e adolescentes. Não basta criar salvaguardas após o produto estar no mercado, como resposta a pressões regulatórias ou a litígios já instaurados. A proteção precisa ser projetada antes, integrada à arquitetura do sistema desde suas primeiras decisões de engenharia.
Isso representa uma mudança para o setor. Significa que designers, cientistas da computação e equipes de produto precisam incorporar, já na fase de concepção, perguntas que hoje ainda são tratadas como questões jurídicas ou de compliance: este recurso cria dependência? Este sistema de recomendação pode expor usuários vulneráveis a conteúdos nocivos? Esta notificação serve ao usuário ou serve à métrica de engajamento?
Um novo ônus — e uma oportunidade
Os julgamentos americanos deslocam o eixo da pergunta regulatória. A questão central deixa de ser "a plataforma removeu o conteúdo ilegal?" e passa a ser "a plataforma foi projetada para proteger seus usuários mais vulneráveis?".
Esse deslocamento impõe às empresas um ônus complementar — e ao Brasil, uma oportunidade. Com o ECA Digital em vigor e um ciclo de litígios americanos que tende a se expandir, o país tem a chance de construir, antes que os casos cheguem às suas cortes, uma jurisprudência e uma cultura regulatória voltadas ao design responsável. Trata-se de um espaço em que o Brasil pode — e deve — liderar no contexto do Sul Global.
A história das big techs não precisa se repetir aqui. Há espaço para inovação responsável, para empresas que levem a sério a primazia do melhor interesse de crianças e adolescentes não como obrigação legal de última hora, mas como princípio de produto desde o primeiro dia.
Os júris do Novo México e da Califórnia julgaram plataformas. O Brasil tem a oportunidade de construir algo diferente.
*Luiz Felipe Fleury Calaça é advogado, sócio e coordenador da equipe de Direito Público do escritório GMPR Advogados, doutorando em Direito pelo IDP e professor universitário.
[1] https://www.businessinsider.com/meta-found-liable-new-mexico-suit-protect-children-sexual-exploitation-2026-3?utm_medium=email&utm_campaign=tabuleiro_149&utm_source=RD+Station

Comentários