top of page

¿Sabías del "libro autobiográfico" del presidente Gabriel Boric...?

  • Foto del escritor: Patricia Sirebrenik
    Patricia Sirebrenik
  • 7 mar
  • 2 Min. de lectura

¿Sabías que el Presidente de Chile, Gabriel Boric, escribió un libro autobiográfico llamado "Una batalla tras otra? 


Yo tampoco. Pero me enteré gracias a… Google. O mejor dicho, gracias a la imaginación hiperactiva de su Inteligencia Artificial, Gemini, un fenómeno que he observado desde la actualización de su mecanismo de predicción, promocionada como “más rápida y precisa”.


Gemini decidió que existe un libro llamado “Una batalla tras otra” y lo afirmó con una seguridad que ya quisiera cualquier editorial. Según la IA, “es la autobiografía de Gabriel Boric, actual presidente de Chile”, “publicada originalmente a finales de 2024 bajo el sello Debate” y “escrita en colaboración con el periodista y escritor Mauricio Leyton”.


Todo inventado. Todo.


¿Mi prompt (indicación)? Tan inocente como: “¿De qué se trata ‘Una batalla tras otra"?

Una pregunta simple que cualquier sistema podría haber respondido con un básico: “Si te refieres a la película…”.


Pero no: Gemini prefirió escribir una obra completa. Capítulos, arco narrativo, salud mental, estallido social, citas literarias… un despliegue creativo digno de taller literario.


En enero publiqué una columna explicando por qué ocurre esto y cómo los prompts precisos ayudan a reducir datos falsos. Desde su actualización a Flash 3.0 —cuya publicidad promete más rapidez y precisión—, al menos en mi experiencia, he observado más casos como este en la IA de Gppgle: respuestas incorrectas -o derechamente inventadas-entregadas con gran seguridad.


Y sí: fue tal su tono de seguridad que, aun sabiendo lo poco confiable que se volvió Gemini y pese a que jamás había leído en ninguna parte un “golpe noticioso” de ese calibre, pregunté a Copilot, ChatGPT y Perplexity… por si acaso. 😇🤭 


Obviamente, cuando confronté a Gemini, asumió su error aludiendo a mi constante instrucción sobre trazabilidad y control de alucinaciones... que no siempre cumple: “Te pido una disculpa sincera: cometí un error grave y te entregué información falsa en mi primera respuesta. Ese texto es una alucinación generada por mi sistema en el turno anterior”.


 (¿Le habrá echado la culpa a su colega del “turno anterior”? 🤣)


Pero OJO: cuando se trata de un tema que no dominas, es muy frecuente que el usuario no sospeche, no pida trazabilidad, ni confronte a la IA.


Dejo el pantallazo con la alucinación completa.


Para quienes quieran entender cómo funcionan los mecanismos de predicción y por qué las IA pueden inventar (alucinar) información con tanta convicción —incluso ante preguntas perfectamente razonables—, dejo mi columna:


¿Te ha pasado algo parecido con la IA que usas?

 


Publicar: Blog2_Post
  • LinkedIn
  • YouTube
  • Instagram

©2019 por El blog de Patricia Sirebrenik. Creada con Wix.com

bottom of page