A rede social X, controlada por Elon Musk, está sob investigação das autoridades brasileiras após a disseminação de imagens sexuais geradas pelo Grok, ferramenta de inteligência artificial (IA) integrada à plataforma. As imagens, produzidas sem consentimento, reproduziam pessoas reais com roupas íntimas, caracterizando o chamado “deepnude”, um tipo de deepfake sexualizado.
Segundo estimativas divulgadas por órgãos de fiscalização, mais de 3 milhões de imagens desse tipo foram geradas e espalhadas em menos de dez dias, aumentando a preocupação com o uso da tecnologia para violação de privacidade e exploração sexual.
Ação de órgãos brasileiros
O caso passou a ser acompanhado pelo Ministério Público Federal (MPF), pela Secretaria Nacional do Consumidor (Senacon) e pela Agência Nacional de Proteção de Dados (ANPD). Em janeiro, esses órgãos emitiram uma recomendação conjunta à plataforma, exigindo:
-
Suspensão imediata da geração de imagens sexualizadas;
-
Remoção das imagens já produzidas;
-
Bloqueio de contas responsáveis pela divulgação;
-
Criação de canal de denúncia online para vítimas.
O objetivo é proteger usuários e punir práticas que violam direitos de imagem e privacidade, alinhado às legislações brasileiras.
Sanções previstas
O relatório enviado à plataforma detalha possíveis penalidades, incluindo medidas do Marco Civil da Internet, do Código de Defesa do Consumidor (CDC) e da Lei Geral de Proteção de Dados (LGPD). Entre as ações previstas estão:
-
Advertências e multas de até 10% do faturamento da empresa no Brasil;
-
Bloqueio parcial do acesso a dados de usuários;
-
Interrupção temporária ou proibição das atividades da plataforma no país.
A empresa respondeu dentro do prazo inicial, evitando a aplicação imediata das sanções, mas novo prazo de 30 dias foi estabelecido para que todas as imagens irregulares sejam removidas. Caso contrário, as penalidades poderão ser aplicadas.
Possível investigação internacional
Além da fiscalização nacional, imagens sexualizadas envolvendo crianças são tratadas como material de abuso sexual infantil (CSAM). A plataforma, sediada nos Estados Unidos, deve reportar esses casos ao NCMEC (Centro Nacional para Crianças Exploradas e Desaparecidas).
O comitê intersetorial brasileiro solicitou à Polícia Federal a apuração sobre se as notificações foram feitas corretamente. Caso não tenham sido, o Departamento de Justiça dos EUA e o FBI poderão ser acionados, gerando repercussões internacionais para a empresa.











