El gigante tecnológico Google ha retirado de su plataforma AI Studio el modelo de inteligencia artificial Gemma, después de que este generara acusaciones falsas contra la senadora republicana Marsha Blackburn y otros activistas conservadores en Estados Unidos. El caso ha reabierto el debate sobre la desinformación producida por las llamadas “alucinaciones” de los modelos de lenguaje.
Una acusación inventada que provocó una reacción política
Según información publicada por The Verge, el modelo Gemma fabricó una historia en la que afirmaba que Blackburn había sido acusada de violación durante una supuesta campaña al Senado estatal en 1987, aportando incluso enlaces falsos a medios inexistentes. La senadora, indignada por el contenido, envió una carta al CEO de Google, Sundar Pichai, exigiendo una explicación inmediata.
“Escribo para expresar mi profunda preocupación e indignación por el material difamatorio y patentemente falso generado por el modelo de lenguaje de Google”, señalaba Blackburn, quien acusó a la compañía de permitir un patrón de sesgo político contra figuras conservadoras.
El caso se suma al de Robby Starbuck, activista republicano que recientemente demandó a Google por difamación tras sufrir una situación similar con Gemini, otro modelo de la compañía. El incidente ha escalado hasta el punto de que una comisión del Senado estadounidense ha solicitado aclaraciones formales a la empresa.
Google defiende la naturaleza experimental de Gemma
Ante la polémica, Google reconoció el error y aclaró que Gemma es un modelo de código abierto destinado a investigadores y desarrolladores, no una herramienta de información pública ni un sistema de respuestas fácticas. “Nunca fue nuestra intención que Gemma se utilizara como fuente de datos objetivos o verificables”, indicó la compañía en un comunicado difundido desde su cuenta oficial de noticias.
La tecnológica añadió que el modelo seguirá disponible para desarrolladores mediante API, pero ya no podrá accederse a él desde AI Studio, el entorno en el que se produjo la respuesta falsa. Markham Erickson, vicepresidente de Asuntos Gubernamentales de Google, reconoció ante los senadores que las alucinaciones son “un problema conocido” en los modelos de IA y aseguró que la empresa trabaja para mitigarlas.
Un nuevo golpe a la confianza en la IA generativa
El caso Gemma pone de nuevo en evidencia los riesgos de las herramientas de inteligencia artificial abiertas y su capacidad para difundir desinformación sin control. En un contexto político especialmente polarizado, las falsas narrativas generadas por IA pueden tener consecuencias graves en la opinión pública y la reputación de figuras públicas.

