{"id":523,"date":"2025-11-30T15:25:28","date_gmt":"2025-11-30T18:25:28","guid":{"rendered":"https:\/\/dragonlibre.net\/?p=523"},"modified":"2025-11-30T15:25:28","modified_gmt":"2025-11-30T18:25:28","slug":"alucinaciones-en-la-ia-la-odisea-del-pelentrenque","status":"publish","type":"post","link":"https:\/\/dragonlibre.net\/index.php\/2025\/11\/30\/alucinaciones-en-la-ia-la-odisea-del-pelentrenque\/","title":{"rendered":"Alucinaciones en la IA: La Odisea del Pelentrenque"},"content":{"rendered":"<h2 class=\"western\">La Odisea del Pelentrenque: Las alucinaciones de la IA<\/h2>\n<p>El pelentrenque es un marsupial del monte Pele\u00e9\u2026 o, tal vez no. Puede que en realidad sea un reptil \u00e1gil de las Canarias, a quien tambi\u00e9n llaman \u201cperenqu\u00e9n\u201d.O quiz\u00e1s se trata de \u201cuna especie de mam\u00edfero carn\u00edvoro arbor\u00edcola asi\u00e1tico\u201d sobre el cual \u201cno hay un consenso entre los cient\u00edficos\u201d. Puede tambi\u00e9n que sea el nombre mal escrito del chita (?), o acaso sea un \u201cartr\u00f3podo y no un mam\u00edfero\u201d.<\/p>\n<p>Este abanico de descripciones del \u201cpelentrenque\u201d fue producida por varios chatbots basados en Modelos Grandes de Lenguaje (LLM por sus siglas en ingl\u00e9s), una de las expresiones m\u00e1s conocidas de lo que se conoce como \u201cInteligencia Artificial\u201d. Cabe aclarar que -hasta donde s\u00e9- \u201cpelentrenque\u201d es una palabra sin sentido que surgi\u00f3 por inspiraci\u00f3n de Nicolino Roche, aquel personaje creado por Pedro Saborido y Diego Capusotto que profer\u00eda aleatoriamente palabras o sonidos sin sentido en medio de sus oraciones a causa del consumo excesivo de Rohypnol y otras pastillas .<\/p>\n<p>Estas respuestas forman parte de un fen\u00f3meno com\u00fan en los LLMs y en las IA generativas en general: las alucinaciones.<\/p>\n<figure id=\"attachment_525\" aria-describedby=\"caption-attachment-525\" style=\"width: 342px\" class=\"wp-caption alignright\"><a href=\"http:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/891473011478121116.png\"><img loading=\"lazy\" decoding=\"async\" class=\" wp-image-525\" src=\"http:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/891473011478121116-300x200.png\" alt=\"\" width=\"342\" height=\"228\" srcset=\"https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/891473011478121116-300x200.png 300w, https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/891473011478121116-1024x683.png 1024w, https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/891473011478121116-768x512.png 768w, https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/891473011478121116.png 1152w\" sizes=\"auto, (max-width: 342px) 100vw, 342px\" \/><\/a><figcaption id=\"caption-attachment-525\" class=\"wp-caption-text\">Imagen generada por IA<\/figcaption><\/figure>\n<p>\u00bfQu\u00e9 son las alucinaciones? No hay una definici\u00f3n \u00fanica universalmente aceptada (hablamos en el contexto de la Inteligencia Artificial, claro). Podemos decir que se trata de respuestas producidas por las IA que son f\u00e1cticamente incorrectas, inconsistentes l\u00f3gicamente o directamente fabricadas (como en el caso del pelentrenque), como lo resume Karpowicz.<\/p>\n<p>Un problema con esa definici\u00f3n informal es que la correcci\u00f3n f\u00e1ctica no es algo que se pueda determinar ni de manera f\u00e1cil ni un\u00edvoca en muchos casos. Por ejemplo, la respuesta a cu\u00e1l es el mejor futbolista de la historia podr\u00eda ser considerada acertada por algunas personas y rechazada por otras. Esa ambig\u00fcedad es un aspecto crucial a la hora de pensar las consecuencias de la aplicaci\u00f3n de IA en diferentes \u00e1mbitos.<\/p>\n<p>Para acercarnos al tema, vamos a mirar primero las distintas causas que llevan a que una IA alucine, para luego referirnos a algunos riesgos que traen consigo, no s\u00f3lo a futuro sino ya mismo.<\/p>\n<h3 class=\"western\">Alucin\u00f3genos para IAs<\/h3>\n<p>En el caso del pelentrenque, la utilizaci\u00f3n de la palabra inexistente no fue casual: se buscaba intencionalmente que los chatbots respondieran textos siempre diferentes, para lo cual se enviaron \u201cprompts\u201d con esta palabra -entre otras estrategias- teniendo en mente un trabajo de Yao, Ning y otros (J.-Y. Yao et\u00a0al., 2023) en el que muestran c\u00f3mo las indicaciones (prompts) sem\u00e1nticamente d\u00e9biles alientan las respuestas falsas de los LLMs.<\/p>\n<figure id=\"attachment_526\" aria-describedby=\"caption-attachment-526\" style=\"width: 300px\" class=\"wp-caption alignleft\"><a href=\"http:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/PelentrenqueGemini.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"size-medium wp-image-526\" src=\"http:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/PelentrenqueGemini-300x97.jpg\" alt=\"\" width=\"300\" height=\"97\" srcset=\"https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/PelentrenqueGemini-300x97.jpg 300w, https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/PelentrenqueGemini.jpg 731w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a><figcaption id=\"caption-attachment-526\" class=\"wp-caption-text\">El Pelentrenque, seg\u00fan Gemini<\/figcaption><\/figure>\n<p>El fondo del tema es que en realidad los LLMs no comprenden de qu\u00e9 hablan: en palabras de Sebastian Raschka (Raschka, 2024), son capaces de procesar y generar texto de maneras que <span style=\"color: #000000;\"><i>parecen<\/i><\/span> coherentes y contextualmente relevantes, pero no poseen conciencia o comprensi\u00f3n comparable a los seres humanos.<\/p>\n<p>El trabajo de Yao mencionado m\u00e1s arriba, comienza su t\u00edtulo con unas palabras m\u00e1s que sugerentes: \u201cLLM miente: las alucinaciones no son errores sino caracter\u00edsticas\u2026\u201d. M\u00e1s a\u00fan: en la tercera p\u00e1gina los autores demuestran que se puede producir cualquier alucinaci\u00f3n a trav\u00e9s de prompts \u201cperturbados\u201d (construidos espec\u00edficamente para hacerlos alucinar).<\/p>\n<p>Pero los prompts mutilados no son las \u00fanicas causas por las que los LLMs alucinan. Las IA pueden proferir disparates porque sus datos de entrenamiento las condicionan, porque \u201cno saben callarse\u201d, porque las indicaciones (prompts) que les dan son incompletas, tendenciosas, demasiado abiertas, o incluyen fallas de diversos tipos.<\/p>\n<figure id=\"attachment_527\" aria-describedby=\"caption-attachment-527\" style=\"width: 300px\" class=\"wp-caption alignright\"><a href=\"http:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/PelentrenqueCopilot.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"size-medium wp-image-527\" src=\"http:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/PelentrenqueCopilot-300x97.jpg\" alt=\"\" width=\"300\" height=\"97\" srcset=\"https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/PelentrenqueCopilot-300x97.jpg 300w, https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/PelentrenqueCopilot.jpg 731w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a><figcaption id=\"caption-attachment-527\" class=\"wp-caption-text\">El pelentrenque, seg\u00fan Copilot<\/figcaption><\/figure>\n<p>Los errores y sesgos en los datos de entrenamiento constituyen un factor esencial para la generaci\u00f3n de desvar\u00edos. Estos sistemas se caracterizan precisamente por utilizar una cantidad enorme de material a partir del cual \u201caprende\u201d a generar sus respuestas. Este problema fue se\u00f1alado por Bender y otros (Bender et\u00a0al., 2021) en una publicaci\u00f3n muy famosa, que dio pie a la a\u00fan m\u00e1s famosa carta (Future Of Life, 2023) cuasi-apocal\u00edptica firmada por CEOS, empresarios e ingenieros de renombre.<\/p>\n<p>Pero \u00bfqui\u00e9n puede asegurar que los datos de entrenamiento son correctos?<\/p>\n<p>En tiempos en los que algunas personas pretenden zanjar discusiones consultando a un chatbot (ChatGPT, DeepSeek, Grok u otros), es crucial entender que los LLM alucinan y siempre lo har\u00e1n, al menos mientras los \u201ctransformadores\u201d y las redes neuronales artificiales sigan siendo las bases de estas tecnolog\u00edas. Pero, sobre todo, sus respuestas van a estar condicionadas por los datos de entrenamiento, cargando con los prejuicios, los sesgos, los puntos de vista, que se expresen con mayor frecuencia en esos datos.<\/p>\n<h3 class=\"western\">Peligro: IA<\/h3>\n<p>Las IA se extienden r\u00e1pidamente en los \u00e1mbitos m\u00e1s dis\u00edmiles, incluyendo educaci\u00f3n, seguridad, justicia, salud, gobierno.<\/p>\n<p>Si esas IA de vez en cuando alucinan (aunque sea pocas veces, aunque sea algo relativamente raro), desconocer esa caracter\u00edstica implica desatender riesgos que pueden ser verdaderamente graves. Peor a\u00fan: ignorar qui\u00e9n proporciona los datos de entrenamiento, cu\u00e1les son esos datos, qu\u00e9 debilidades pueden tener y qu\u00e9 intereses persiguen los \u201cpropietarios\u201d de un LLM, son caminos directos a obtener resultados negativos, completamente err\u00f3neos o adecuados a criterios de \u201cverdad\u201d que nos resulten ajenas e incluso hostiles.<\/p>\n<p>Michael Karpowicz (Karpowicz, 2025), investigador de Samsung, demostr\u00f3 que las alucinaciones no son un mero resultado de decisiones te\u00f3ricas o de ingenier\u00eda espec\u00edficas, sino que constituyen una caracter\u00edstica matem\u00e1ticamente inevitable. Sourav Banerjee (Banerjee et\u00a0al., 2024) fue un poco m\u00e1s lejos, se\u00f1alando que las alucinaciones son inherentes a estos modelos y son inevitables; esto se debe a la incompletitud de los datos (no pueden tener todos los datos de todo), el desconocimiento previo de los LLM de qu\u00e9 es lo que va a responder y cu\u00e1ndo dar por terminada su respuesta, e incluso la imposibilidad de completitud y consistencia, heredados del teorema de incompletitud de G\u00f6del.<\/p>\n<p>Una mirada \u201coptimista\u201d (Suzuki et\u00a0al., 2025) se\u00f1ala que las alucinaciones no pueden eliminarse, pero s\u00ed hacerse estad\u00edsticamente irrelevantes hasta cualquier nivel arbitrario. El trabajo objeta que los anteriores son abstractos, aunque su enfoque se mantiene en un registro similar, ya que la des-alucinacionizaci\u00f3n se conseguir\u00eda con suficientes datos correctos y el algoritmo adecuado\u2026 algo de cuya factibilidad no se ocupa.<\/p>\n<p>Cabe preguntarse hasta d\u00f3nde es posible contar con datos equilibrados, correctos, sin sesgos y completos. Quienes seleccionan o recopilan los datos no son entidades carentes de intereses: son sobre todo grandes monopolios. Es dif\u00edcil, de m\u00ednima, pensar que Microsoft -por ejemplo- no va a tomar alg\u00fan tipo de medidas para dificultar que su propio producto lo cuestione severamente, o que los datos de entrenamiento son absolutamente ecu\u00e1nimes en cuanto a las virtudes y defectos de sus productos (Buyl et\u00a0al., 2024).<\/p>\n<h3 class=\"western\">La persistencia de las alucinaciones<\/h3>\n<p>Las alucinaciones en casos reales siguen existiendo, constituyendo un tema necesario de abordar. En el \u00e1mbito legal, aparece como citas de trabajos inexistentes (a veces asignados a autores reales, lo que complica la detecci\u00f3n); o ponderando de manera err\u00f3nea la jurisprudencia en que se basan. Magesh y otros (Magesh et\u00a0al., 2025), Lidsky y otros (Lidsky &amp; Daves, 2025), mostraron que las herramientas basadas en IA pod\u00edan alucinar en varios aspectos, no adecu\u00e1ndose al correcto razonamiento jur\u00eddico, apelando a autoridades o legislaci\u00f3n no aplicable, o tomando como referencia a fuentes que no son las m\u00e1s relevantes para un caso en concreto.<\/p>\n<p>Las consecuencias ya pueden verse en muchos lugares. Sin ir m\u00e1s lejos (ni en distancia ni en tiempo), en octubre \u00faltimo la C\u00e1mara en lo Penal de Esquel <a href=\"https:\/\/www.palabrasdelderecho.com.ar\/articulo\/6314\/Anularon-una-condena-penal-por-uso-indebido-de-inteligencia-artificial-\">anul\u00f3<\/a> un fallo por el uso indebido de la Inteligencia Artificial por parte de un juez.<\/p>\n<p>En la creaci\u00f3n de c\u00f3digo (Haque et\u00a0al., 2025) de computadoras, se manifiesta en codificaci\u00f3n insegura (repitiendo fallas de seguridad conocidas, por ejemplo), funciones que intentan utilizar equivocadamente bibliotecas (libraries) que no corresponden o no funcionan correctamente con el resto del software, o en la inclusi\u00f3n de c\u00f3digo directamente irrelevante<\/p>\n<p>En el \u00e1mbito de la salud, Apoorva Muley y otros (Muley et\u00a0al., 2023) realizaron en 2023 una revisi\u00f3n sistem\u00e1tica de investigaciones referidas a los riesgos de la IA . Partiendo de los 39 trabajos relevados,observaron 3 \u00e1reas principales: riesgos de datos cl\u00ednicos, debidos a errores de la IA; riesgos t\u00e9cnicos, que incluyes los derivados del uso incorrecto de las herramientas, los que surgen por los sesgos de los datos de entrenamiento, o cuestiones relativas a la privacidad; y aspectos socio \u00e9ticos, como la falta de transparencia sobre c\u00f3mo funcionan o qu\u00e9 datos usan, y la poca claridad en cuanto a las responsabilidades de su uso (si algo sale mal, \u00bfes por el algoritmo? \u00bfpor c\u00f3mo se us\u00f3? ).<\/p>\n<p>M\u00e1s recientemente, la aparici\u00f3n de modelos \u201crazonadores\u201d como O-1, DeepSeek R1, y otros (que siguen cadenas de pensamiento antes de emitir su respuesta) logr\u00f3 que este tipo de modelos obtuviera mejores resultados en muchos problemas formales con los que modelos previos alucinaban f\u00e1cilmente. Sin embargo, fuera de ese dominio espec\u00edfico, hay indicios de que los nuevos modelos alucinan a\u00fan m\u00e1s que antes (v\u00e9ase Yao y otros (Z. Yao et\u00a0al., 2025), o el <a href=\"https:\/\/techcrunch.com\/2025\/04\/18\/openais-new-reasoning-ai-models-hallucinate-more\/\">art\u00edculo<\/a> de Maxwell Zeff para TechCrunch.<\/p>\n<p>En definitiva, es muy arriesgado dejar decisiones importantes en manos de ChatBots u otras aplicaciones basadas en Modelos Grandes de Lenguaje. No existe duda razonable al respecto, parafraseando el lenguaje jur\u00eddico.<\/p>\n<p>A pesar de ello, vemos a diario iniciativas que pretenden reemplazar labores que hoy realizan seres humanos por sistemas basados en IA. Hubo anuncios relacionados con la redacci\u00f3n o la revisi\u00f3n de leyes, la evaluaci\u00f3n de alumnxs y docentes, o la \u201cpredicci\u00f3n\u201d de la posible comisi\u00f3n de delitos. Hay IAs que conducen veh\u00edculos, incluso drones de guerra, \u201cidentifican\u201d personas para su detenci\u00f3n, u ofrecen lecturas pre masticadas de trabajos cient\u00edficos.<\/p>\n<p>Si semejante colonizaci\u00f3n de las IA termina produciendo desajustes y hasta desastres, no ser\u00e1 por las limitaciones propias de las IA sino por quienes la adoptan acr\u00edticamente, muchas veces bajo el impulso del factor preponderante en la consideraci\u00f3n de muchos actores de poder: bajar los costos.<\/p>\n<p>&nbsp;<\/p>\n<h3 class=\"western\">Referencias<\/h3>\n<p>Banerjee, S., Agarwal, A., &amp; Singla, S. (2024). Llms will always hallucinate, and we need to live with this. <i>arXiv preprint arXiv:2409.05746<\/i>.<\/p>\n<p>Bender, E. M., Gebru, T., McMillan-Major, A., &amp; Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?\ud83e\udd9c. <i>Proceedings of the 2021 ACM conference on fairness, accountability, and transparency<\/i>, 610-623.<\/p>\n<p>Buyl, M., Rogiers, A., Noels, S., Bied, G., Dominguez-Catena, I., Heiter, E., Johary, I., Mara, A.-C., Romero, R., Lijffijt, J., &amp; others. (2024). Large language models reflect the ideology of their creators. <i>arXiv preprint arXiv:2410.18417<\/i>.<\/p>\n<p>Future Of Life, F. O. (2023). Pause giant AI experiments: An open letter. <i>Future of Life Institution. https:\/\/futureoflife. org\/open-letter\/pause-giant-ai-experiments<\/i>.<\/p>\n<p>Haque, A., Siddique, S., Rahman, M. M., Hasan, A. R., Das, L. R., Kamal, M., Masura, T., &amp; Gupta, K. D. (2025). SOK: Exploring Hallucinations and Security Risks in AI-Assisted Software Development with Insights for LLM Deployment. <i>arXiv preprint arXiv:2502.18468<\/i>.<\/p>\n<p>Karpowicz, M. (2025). On the Fundamental Impossibility of Hallucination Control in Large Language Models. <i>arXiv preprint arXiv:2506.06382<\/i>.<\/p>\n<p>Lidsky, L. B., &amp; Daves, A. (2025). Inevitable Errors: Defamation by Hallucination in AI Reasoning Models (forthcoming in the Journal of Free Speech Law 2025). <i>Available at SSRN 5362314<\/i>.<\/p>\n<p>Magesh, V., Surani, F., Dahl, M., Suzgun, M., Manning, C. D., &amp; Ho, D. E. (2025). Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools. <i>Journal of Empirical Legal Studies<\/i>, <i>22<\/i>(2), 216-242.<\/p>\n<p>Muley, A., Muzumdar, P., Kurian, G., &amp; Basyal, G. P. (2023). Risk of AI in healthcare: A comprehensive literature review and study framework. <i>arXiv preprint arXiv:2309.14530<\/i>.<\/p>\n<p>Raschka, S. (2024). <i>Build a large language model (from scratch)<\/i>. Manning.<\/p>\n<p>Suzuki, A., He, Y., Tian, F., &amp; Wang, Z. (2025). Hallucinations are inevitable but can be made statistically negligible. The&#8221; innate&#8221; inevitability of hallucinations cannot explain practical LLM issues. <i>arXiv preprint arXiv:2502.12187<\/i>.<\/p>\n<p>Yao, J.-Y., Ning, K.-P., Liu, Z.-H., Ning, M.-N., Liu, Y.-Y., &amp; Yuan, L. (2023). Llm lies: Hallucinations are not bugs, but features as adversarial examples. <i>arXiv preprint arXiv:2310.01469<\/i>.<\/p>\n<p>Yao, Z., Liu, Y., Chen, Y., Chen, J., Fang, J., Hou, L., Li, J., &amp; Chua, T.-S. (2025). Are Reasoning Models More Prone to Hallucination? <i>arXiv preprint arXiv:2505.23646<\/i>.<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La Odisea del Pelentrenque: Las alucinaciones de la IA El pelentrenque es un marsupial del monte Pele\u00e9\u2026 o, tal vez no. Puede que en realidad sea un reptil \u00e1gil de las Canarias, a quien tambi\u00e9n llaman \u201cperenqu\u00e9n\u201d.O quiz\u00e1s se trata de \u201cuna especie de mam\u00edfero carn\u00edvoro arbor\u00edcola asi\u00e1tico\u201d sobre el [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":525,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[26,15],"tags":[105,107,106,108],"class_list":["post-523","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-educacion","category-informatica","tag-alucinaciones","tag-chatbots","tag-llms","tag-pelentrenque"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/dragonlibre.net\/wp-content\/uploads\/2025\/11\/891473011478121116.png","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/posts\/523","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/comments?post=523"}],"version-history":[{"count":2,"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/posts\/523\/revisions"}],"predecessor-version":[{"id":528,"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/posts\/523\/revisions\/528"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/media\/525"}],"wp:attachment":[{"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/media?parent=523"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/categories?post=523"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dragonlibre.net\/index.php\/wp-json\/wp\/v2\/tags?post=523"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}