Violações no Grok da Plataforma X persistem, conforme avaliação recente e conjunta do Ministério Público Federal (MPF), da Agência Nacional de Proteção de Dados (ANPD) e da Secretaria Nacional do Consumidor (Senacon). As entidades federais concluíram que as respostas apresentadas pela plataforma X, controladora da ferramenta de inteligência artificial (IA) Grok, são insuficientes diante do uso indevido para a criação e circulação de imagens de pessoas em contexto de sexualização, realizadas sem autorização prévia.
Esta avaliação ocorre após uma série de recomendações emitidas no mês anterior pelas três instituições, as quais visavam a adoção de procedimentos técnicos e operacionais robustos. O objetivo primordial era a identificação, revisão e subsequente remoção de conteúdos inapropriados gerados pelo Grok a partir de comandos de usuários. A recorrência dessas infrações tem acendido um alerta sobre a efetividade das políticas de moderação da plataforma e o cumprimento das normas vigentes de proteção de dados e direitos do consumidor no ambiente digital.
Violações Grok na Plataforma X Persistem, Alertam Órgãos
Apesar das alegações da Plataforma X de ter removido milhares de publicações e suspendido centenas de contas por violação às suas políticas, além de ter implementado novas medidas de segurança, as instituições consideraram tais informações desprovidas de evidências concretas. A ausência de relatórios técnicos detalhados e mecanismos de monitoramento verificáveis impediu a aferição da real eficácia das ações declaradas pela empresa. Testes preliminares, conduzidos pelas equipes técnicas do MPF, ANPD e Senacon, revelaram a persistência das falhas, confirmando a continuidade da geração e da circulação de conteúdos incompatíveis com as diretrizes e recomendações previamente emitidas pelos órgãos fiscalizadores, indicando uma falha sistêmica na contenção do problema.
Novas Determinações e Detalhamento de Exigências
Em uma nova e incisiva manifestação, divulgada na quarta-feira, 11 de fevereiro de 2026, os três órgãos governamentais impuseram determinações adicionais à Plataforma X. Exige-se agora a implementação imediata de medidas efetivas destinadas a coibir a produção, através do Grok, de qualquer conteúdo de cunho sexualizado ou erotizado envolvendo crianças, adolescentes e adultos que não tenham manifestado consentimento explícito. Esta determinação reforça a gravidade da situação e a necessidade de intervenção imediata para proteger usuários vulneráveis e garantir a integridade do ambiente online.
Além das providências preventivas, as instituições solicitaram que o X preste informações detalhadas sobre todas as ações já empreendidas para mitigar os problemas detectados na recomendação inicial. Em seu respectivo âmbito de atuação, o Ministério Público Federal foi além, ordenando o fornecimento de relatórios mensais a partir de fevereiro de 2026. Tais relatórios devem pormenorizar a atuação da plataforma para impedir e reprimir a produção de “deepfakes” com crianças, adolescentes e maiores de idade sem autorização. O MPF também manifestou preocupação com a falta de transparência na resposta anterior da empresa, ressaltando a urgência de uma comunicação mais clara, proativa e respaldada por dados concretos e verificáveis.
Coordenação Institucional e Medidas Específicas
A atuação conjunta da ANPD, MPF e Senacon sublinha a seriedade com que as autoridades brasileiras encaram o uso indevido de ferramentas de inteligência artificial. Cada instituição mantém um procedimento administrativo independente aberto contra a Plataforma X, em consonância com suas áreas específicas de competência. Essa abordagem coordenada visa a cobertura abrangente dos diversos aspectos das violações, desde a proteção de dados pessoais até a defesa do consumidor, passando pela tutela dos direitos individuais.
No contexto das atribuições da Agência Nacional de Proteção de Dados, uma medida preventiva foi estabelecida com foco na amplitude da cobertura. Ela impõe que os recursos e mecanismos para impedir o uso inadequado da ferramenta de IA, o Grok, devem ser aplicados a todas as suas versões, planos e modalidades disponíveis. Isso garante que não haja brechas em sua implementação, independentemente do tipo de acesso ou assinatura dos usuários, assegurando uma proteção uniforme e integral em toda a oferta do produto e minimizando os riscos de disseminação de conteúdo impróprio.
Para o MPF, a exigência de relatórios mensais detalha ainda mais o tipo de informação que a Plataforma X deve fornecer para demonstrar sua conformidade. A partir deste mês de fevereiro de 2026, a empresa precisará enviar informações pormenorizadas sobre como está agindo para impedir e reprimir a criação e disseminação de “deepfakes” que envolvam crianças, adolescentes e adultos sem seu consentimento prévio. Devem ser indicados o número exato de postagens prejudiciais que foram retiradas do ar, bem como a quantidade de contas suspensas por estarem envolvidas nessas práticas durante cada período de relato, fornecendo um panorama claro das ações de moderação.
Consequências do Não Cumprimento e Reforço da Fiscalização
O não cumprimento das determinações impostas pelos órgãos fiscalizadores poderá acarretar sérias consequências para a Plataforma X. A empresa de rede social está sujeita à aplicação de multas diárias, as quais podem se acumular rapidamente, refletindo a urgência e a gravidade das infrações. Adicionalmente, os responsáveis poderão responder criminalmente pelo crime de desobediência às ordens judiciais ou administrativas, um delito grave. A falta de conformidade também pode levar a medidas investigatórias mais rigorosas por parte das autoridades, culminando em uma eventual ação judicial contra a companhia, reforçando o compromisso das entidades em assegurar o cumprimento da legislação brasileira e a proteção dos cidadãos.
Em paralelo, a Secretaria Nacional do Consumidor (Senacon) reforçou suas exigências através de uma medida cautelar administrativa. A Senacon demanda a comprovação formal das providências já adotadas pela empresa para conter os riscos identificados e sanar as vulnerabilidades apontadas na recomendação conjunta. Esta ação visa proteger os consumidores contra práticas que violem seus direitos fundamentais, como a integridade da imagem e a privacidade digital. Para mais informações sobre regulamentações digitais, veja este artigo sobre os desafios da legislação de inteligência artificial no Brasil no G1, que aborda temas de alta relevância no cenário atual da tecnologia.
Complementarmente, a Senacon exigiu a entrega de um relatório métrico abrangente e detalhado. Este documento deve conter dados quantitativos verificáveis referentes à identificação, moderação, remoção e indisponibilização de conteúdos sexualizados que estejam relacionados ao funcionamento do Grok. Entre as informações solicitadas estão o número total de conteúdos identificados e removidos, os prazos médios de resposta da plataforma, os critérios técnicos empregados nas análises, e quaisquer medidas corretivas adicionais, como a suspensão de contas ou a restrição de funcionalidades para usuários reincidentes. Essa transparência métrica é crucial para que as autoridades possam monitorar a eficácia das ações da plataforma e aprimorar as estratégias de fiscalização.
Confira também: Imoveis em Rio das Ostras
A situação da Plataforma X e as violações associadas ao Grok continuam sob o escrutínio rigoroso das autoridades brasileiras, evidenciando a crescente preocupação com a ética e a segurança no desenvolvimento e uso de inteligência artificial. Acompanhe as próximas atualizações e análises detalhadas sobre tecnologia, regulamentação e direitos digitais em nossa editoria. Mantenha-se informado sobre outras discussões importantes no cenário tecnológico e político brasileiro visitando a nossa categoria de Política, onde encontrará as últimas notícias e análises aprofundadas sobre temas relevantes.
Crédito da imagem: X/Divulgação