MPF considera falhas as ações do X contra deepfakes geradas pelo Grok
Autoridades exigem relatórios, bloqueios imediatos e responsabilização judicial em caso de descumprimento

O Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) consideraram insuficientes as medidas adotadas pela plataforma X para conter o uso indevido de sua ferramenta de inteligência artificial (IA), o Grok.
As entidades já haviam cobrado ações concretas para impedir que a IA gere e dissemine imagens sexualizadas ou pornográficas de menores de idade — sempre ilegais — e de adultos sem consentimento. Para os órgãos, a empresa falhou em mostrar que neutralizou os riscos.
Receba nossas atualizações
+ Leia mais notícias de Política em Oeste
Em ação coordenada, MPF, ANPD e Senacon instauraram procedimentos próprios contra o X, cada um com base em sua competência. Os processos apuram a ausência de controle eficaz sobre os conteúdos gerados pelo Grok a partir de comandos de usuários.
Como resultado, a ANPD determinou que o X aplique as proteções contra uso indevido em todas as versões, modalidades e planos da ferramenta. Já o MPF exigiu relatórios mensais, a partir de fevereiro, detalhando as providências tomadas pela plataforma.
A Senacon, por sua vez, cobrou provas sobre o cumprimento das medidas. Nesse sentido, exigiu um relatório métrico com dados verificáveis sobre identificação, moderação e exclusão de conteúdos nocivos.
O MPF declarou que, se a empresa descumprir as determinações, poderá sofrer multas diárias. Também há risco de responsabilização por crime de desobediência, imposição de sanções mais severas e até abertura de ação judicial.
Eis a nota do MPF, da ANPD e da Senacon:
“Em sua resposta à recomendação conjunta, a plataforma X afirmou ter removido milhares de publicações e suspendido centenas de contas por violação às suas políticas, além de declarar a adoção de medidas de segurança. Porém, na avaliação das instituições, as informações apresentadas não foram acompanhadas de evidências concretas, relatórios técnicos ou mecanismos de monitoramento que permitam aferir sua efetividade. Testes preliminares realizados pelas equipes técnicas das instituições indicam a persistência das falhas, com a continuidade da geração e da circulação de conteúdos incompatíveis com as recomendações já emitidas.”
+ Leia também: “UE exige que Meta abra o WhatsApp a chatbots de IA rivais”

Entre ou assine para enviar um comentário.
Você precisa de uma assinatura válida para enviar um comentário, faça um upgrade aqui.