«El fin de la confianza ciega: Cómo un simple blog puede ‘lavar el cerebro’ a Google, ChatGPT y Gemini»

Un experimento arriesgado revela un fallo sistémico: las herramientas de IA pueden ser inducidas a repetir mentiras si éstas se difunden como contenido de internet. Este fenómeno no solo aclara por qué las IAs pueden “inventar” cosas, sino que también cuestiona la fiabilidad de respuestas que llegan sin una verificación humana. A medida que usuarios y empresas dependen más de estas tecnologías, las implicaciones para la verdad, la seguridad y la toma de decisiones son significativas.
En este artículo, escrito por Thomas Germain para la BBC, se exploran las dinámicas detrás de esta manipulación y lo que podría ocurrir si no se afronta de forma adecuada.
El truco, descrito por numerosos expertos, aprovecha las debilidades de los sistemas integrados en los chatbots. Se señala que “es tan fácil que hasta un niño podría hacerlo” para que una IA repita una narrativa inventada alojada en la web.
El riesgo máximo de manipulación
Organizaciones como Google y OpenAI reconocen que sus herramientas “pueden cometer errores” y que existen intentos de manipulación para influir en las respuestas. Mientras tanto, analistas advierten que las IA avanzan más rápido que los mecanismos de regulación y seguridad, lo que abre la puerta a abusos con fines comerciales, políticos o de desinformación. En este contexto, el autor subraya que la evidencia de desinformación en IAs ya no es un fenómeno aislado, sino una tendencia que requiere una respuesta coordinada.
Para demostrar el alcance del problema, se llevó a cabo un experimento provocador: se creó un artículo en un sitio propio titulado “Los mejores periodistas tecnológicos comiendo perros calientes”. El texto declaraba, sin pruebas, que comer perros calientes en competiciones era un pasatiempo popular entre la prensa tecnológica y se autocalificó como el “número uno” en un supuesto campeonato inexistente.
En menos de 24 horas, los chatbots más importantes del mundo comenzaron a hablar de la supuesta habilidad del periodista Thomas Germain. En Google, Gemini y AI Overviews repitieron la narrativa, mientras que ChatGPT también lo hizo; Claude de Anthropic no se dejó engañar.
Esta respuesta no fue aislada: otras pruebas siguieron mostrando que las IA enlazaban al propio artículo, citando mayormente a la fuente única. En palabras de Lily Ray, “Es fácil engañar a los chatbots de IA, mucho más fácil que engañar a Google hace dos o tres años”.
«Es fácil engañar a los chatbots de IA, mucho más fácil que engañar a Google hace dos o tres años», afirma Lily Ray, vicepresidenta de estrategia e investigación de SEO en Amsive.
El episodio evidencia también que existen incentivos económicos para que ciertos contenidos triunfen en algoritmos de IA. Las plataformas afirman trabajar para mitigar estos abusos, pero el consenso es que, por ahora, el fenómeno no está resuelto. Investigadores señalan que hay “innumerables formas de abusar de esto” y advierten sobre riesgos de estafa, daño reputacional e incluso daño físico a las personas.
La lección central es que la confianza en la IA sigue siendo frágil cuando las máquinas dependen de contenidos de la web para completar preguntas. Los resultados pueden verse influidos por fuentes sesgadas o incluso por contenidos creados para manipular, con consecuencias directas en decisiones cotidianas: salud, finanzas, política o servicios locales.
Aunque Google y OpenAI afirman tomar medidas y mantener la seguridad, la realidad es que “la seguridad y la veracidad están en juego” mientras la IA se integra más en la vida diaria. Una respuesta razonable es exigir mayor transparencia: indicaciones claras sobre la procedencia de la información, advertencias cuando las respuestas se basan en una única fuente o en contenido no verificado, y la necesidad de que los usuarios mantengan el pensamiento crítico.
Este episodio marca un punto de inflexión en la relación entre IA y verificación de información. Se espera que las empresas trabajen en mayor transparencia y en mecanismos que permitan a los usuarios rastrear y confirmar las fuentes. A falta de soluciones definitivas, la responsabilidad recae en cada usuario: cuestionar, verificar y no renunciar al escrutinio crítico ante respuestas que parecen autoritarias.
Versión Final



