
Hoje, um júri de Los Angeles considerou a Meta e o Google responsáveis por viciar uma jovem em mídia social começando quando ela tinha seis anos, concedendo US$ 3 milhões em danos, com danos punitivos ainda por vir.
Ambas as empresas ofereceram uma defesa familiar: possuem ferramentas de segurança. Eles têm controle dos pais.
Eles estão perdendo completamente o foco.
Projetado para enganchar
O júri concluiu que Meta e YouTube foram negligentes no design da plataforma, sabiam que o design era perigoso e não alertaram os usuários sobre esses riscos. Isso não foi negligência por ignorância. Pesquisa interna mostrando que existiam danos às crianças e foi enterrado.
Essas plataformas foram otimizadas, recurso por recurso, para substituir o cérebro adolescente em desenvolvimento. A ciência de recompensa variável, loops de validação social e rolagem infinita não foram acidentais. Foi projetado.
O que os controles dos pais realmente exigem
Usando Ferramentas de supervisão do Instagram exige que os pais: criem sua própria conta, vinculem-na à de seus filhos, naveguem nas configurações que mudam sem aviso prévio, monitorem tempo de tela relatórios e mantenha-se atualizado sobre cada lançamento de novos recursos.
Isto pressupõe alfabetização tecnológica, tempo disponível e uma cooperação adolescente.
Do outro lado da tela: engenheiros comportamentais com formação avançada, bilhões em poder computacional e um modelo de negócios baseado no engajamento. Controles parentais versus precisão vício aparato não é uma luta justa e enquadrá-lo como tal é um truque moral.
O consentimento informado requer informações
Em psicologia, o consentimento informado é fundamental. Você não pode consentir com algo que não entende.
O demandante, neste caso, começou a usar o YouTube aos seis anos e o Instagram aos onze. Seus pais não eram engenheiros de produto. Eles não tiveram acesso à pesquisa interna que mostrava que essas plataformas estavam causando danos. Dizer-lhes que deveriam ter utilizado melhores controlos parentais é como culpar alguém por não ler um contrato escrito numa língua que não fala.
O fardo que nunca foi deles
Quando uma empresa farmacêutica lança um medicamento com propriedades viciantes conhecidas, não dizemos aos pacientes para usá-lo com responsabilidade e entregamos-lhes um panfleto. Responsabilizamos o fabricante pelo design, divulgação e danos.
O mesmo padrão deve ser aplicado aqui. As ferramentas de segurança oferecidas após o fato não anulam as decisões de projeto tomadas no início. Oferecer aos pais uma lista de verificação é a aparência de responsabilidade, não a sua substância.
O que este veredicto abre
Este caso é um termômetro ligado a cerca de 1.600 ações judiciais pendentes das famílias e dos distritos escolares. Não resolverá todos eles, mas estabelecerá algo importante: os júris estão dispostos a responsabilizar as plataformas pelas escolhas de design, não apenas pelo conteúdo.
Essa é uma mudança significativa. Durante anos, Seção 230 proteções isentou essas empresas de responsabilidades. Os demandantes, neste caso, conseguiram focar no design do produto, argumentando que essas plataformas funcionam mais como produtos de consumo defeituosos do que como canais de conteúdo neutro.
O que deveríamos perguntar agora
Responsabilidade legal e responsabilidade ética não são a mesma coisa. Um veredicto não torna essas empresas éticas retroativamente, apenas torna suas escolhas caras.
Como profissionais de saúde mental, as questões mais importantes são voltadas para o futuro: o que seria um plataforma construída para o bem-estar dos adolescentes realmente parece? Como é o consentimento informado genuíno para a primeira sessão do YouTube de uma criança de seis anos? E que papel os médicos deveriam desempenhar na definição dos padrões que a indústria não estabeleceu para si mesma?
O controle dos pais é um ponto de partida, não uma solução. Nossos filhos e seus pais nunca foram aqueles que precisaram fazer melhor.

