POR VICENTE LUIS MORA

Hay varias razones por las que la inteligencia artificial no puede hoy –y creo que no podrá nunca–, escribir literatura importante, quedando limitada a emitir variaciones de la existente. Estos son, entre otros, sus problemas:

1. Nadie da lo que no tiene

Nemo dat quod non habet, los juristas lo saben desde la antigua Roma. Extrapolémoslo a la creatividad: para «darle» imaginación creadora a un programa de IA, antes deberíamos ser capaces de «disponer» de la nuestra. Pero eso no es posible, quizá por suerte.

La parte más valiosa de nuestra imaginación viene del inconsciente. Pero el inconsciente está a salvo de nuestras prácticas extractivas: no podemos ir allí a buscar inspiración. Por ese motivo, no podemos introducirlo en las redes neuronales de aprendizaje profundo, porque nadie puede dar lo que no tiene. Nuestra imaginación no es un mineral extraíble, cuyas pautas de emanación y decantado podamos trasvasarle a una IA: ni siquiera conocemos sus reglas. De ahí que el talento creativo sea tan escaso e injusto: no lo tiene casi nadie, y quienes lo tienen no lo «poseen» casi nunca. Va entregando a lo largo de los años, con avara escasez, algunas gotas para que el artista o la escritora las desarrollen, pulan y mejoren. No es una mina donde cavar; es más bien un pájaro que nos sobrevuela de vez en cuando y deja caer una idea en nuestro balcón mental. La imaginación es nuestra por completo, pero no somos dueños de ella. Eso la mantiene a salvo de la IA.

Si las máquinas tuvieran creatividad real, propia, no podríamos darnos cuenta: careceríamos de los medios y parámetros para detectar no sólo su innovación, sino su simple existencia. Porque un hecho de esa magnitud implicaría una diferencia radical, una singularidad. De no ser así, si sigue siendo «reconocible» como creación artística, son nuestros parámetros creativos lo que detectamos.

Yuk Hui, en Fragmentar el futuro. Ensayos sobre tecnodiversidad (2020) ha apuntado otra paradoja: la inteligencia tiende «a liberarse de los constreñimientos de la materia actuando en contra de esta a fin de esquematizarse», pero tras lograrlo corre el peligro de verse «amenazada y subordinada por sus propios productos» (pp. 164-165). El primer riesgo de una inteligencia no humana sería divergir abiertamente de la nuestra. Aplicando nuestras coordenadas, su primer gesto artístico sería rebelde, quizá matar estéticamente al padre. Pero si pensamos en esos términos, caemos en la aporía que hemos descrito antes: en realidad, si las máquinas pensaran artísticamente, no pensarían para nosotros. Nunca seríamos los destinatarios de sus creaciones, reservadas a dispositivos análogos. Ignoraríamos el acontecimiento y jamás podríamos detectar sus obras, codificadas en una lengua particular, del mismo modo que las mujeres chinas de Hunan desarrollaron el idioma nü shu (“书) para comunicarse sin ser entendidas. Queda la dudosa excepción de la música; digo dudosa porque sospecho que, si las máquinas creasen, lo harían en un espectro inaudible para el ser humano, en ultrasonidos superiores a 20 KHz, sólo por molestar, sólo para quedar a salvo de nuestros juicios.

2. Incapacidad para quebrar las reglas

En Los campos electromagnéticos. Teorías y prácticas de la inteligencia artificial (2023), Jorge Carrión dice con acierto que Chat GPT hace bien lo micro, pero que tiene problemas para lo macro, para elaborar textos complejos. La razón late, seguramente, en este impecable razonamiento de Javier Argüello en su artículo «No somos datos», aparecido en el nº18 de Granta:

«Cuando leo a Víctor Hugo, más allá de si habla de tormentas en Los trabajadores del mar o del tejido social en Los miserables, puedo reconocer la idea de mundo que organiza todos esos datos en torno a un centro sólido. Cuando leo a Dostoievski […] me encuentro con el ser humano que hay detrás de esas palabras y con la visión del mundo sobre la que éstas descansan. Las máquinas pueden barajar ingentes cantidades de información, pero no pueden establecer un centro desde el cual conectarlas». (p. 156)

Es decir, las máquinas serían zombis conductuales, como afirma Anil Seth en La creación del yo. Una nueva ciencia de la conciencia (2023), término tomado de la filosofía de la conciencia, para explicar cuándo alguien se comporta como si tuviera conciencia, sin tenerla. De la misma manera, la IA es un zombi literario: parece que escribe, pero lo que hace es redactar, no escribir creativamente.

Los ingenieros informáticos están presos de su lenguaje, no se dan cuenta de que los límites de su lenguaje de programación son los límites de su mundo, dando la razón al primer Wittgenstein. Llaman creatividad a lo que apenas es reproducción reconocible de modelos. No se trata de ser como nosotros, sino de ser diferentes; distintos no sólo de nosotros, sino entre nosotros.

El sistema de prompts de Chat GPT se parece a los dispensadores de bebidas de los lugares públicos: le metes una moneda y te da una botella de agua. Si un día, al pasar junto a una de esas máquinas, el aparato me lanzara una botella de agua y dijese: «Pareces sediento, la botella de hoy es gratis», pensaría que puede tener algo parecido a una inteligencia.

Una vez participé en una mesa redonda sobre IA y creatividad. Uno de los intervinientes explicaba cómo entrenaban su programa: le introducían datos, después le hacían preguntas y la máquina respondía de modo supuestamente creativo. Le respondí que, en ese escenario, la única posibilidad del sistema de ser creativo era negarse a ofrecer una respuesta a su pregunta. Mi interlocutor no respondió, seguramente porque no era una máquina y podía abstenerse de hacerlo.

3. Falta de sintiencia

La inteligencia tiene un suelo, la consciencia, cuyos contornos finales no hemos sido capaces aún de conformar, pues no hay acuerdo universal en qué sea la conciencia (ambos términos son sinónimos, según el diccionario). Y a partir de ese suelo difuso se levanta la inteligencia creadora. Eso vuelve problemático trasvasar «consciencia» a una máquina, porque nadie puede trasvasar un conocimiento del que carece. Y la conciencia está a su vez ligada a la sintiencia, a la capacidad de percibirse dentro de un mundo, en el seno de un ambiente o hábitat exterior. Y también requiere de un cuerpo —como señala Adela Cortina en su libro ¿Ética o ideología de la inteligencia artificial? (2024)— del que surgir y al que regir, por no hablar de que los humanos «tenemos actividad eléctrica, pero también química» (citando a Ramón López de Mántaras en la entrevista que le hizo Manuel Pascual para El País el 18 de abril de 2025). Si el sistema endocrino es el que se encarga de que nos mantengamos con vida, el sistema «conciencial» es el responsable de que esa vida sea capaz de pensar desde la autopercepción, gracias a la suma de biología, electricidad y química.

Las aplicaciones de IA que «escriben», tipo Chat GPT, no pueden percibir el entorno (ni a sus habitantes), por lo que la información que poseen es referencial, está conformada por textos y, como explica Jesús Conill en su capítulo «Inteligencia artificial e inteligencia corporal y sentiente (en perspectiva zubiriana)» del volumen Inteligencia Artificial: concepto, alcance y retos publicado en 2023 por Tirant, carecen de una idea de mundo. El ingeniero y ensayista Jordi Torres lo expone así en La inteligencia artificial explicada a los humanos (2023): «No hay que perder de vista que la red neuronal no es más que un modelo limitado del mundo conformado con los valores de sus parámetros, y no un modelo del mundo real» (p. 80). Así que producir efectos generales con mundos limitados es complicado, y no digamos producir los efectos infinitos que según Paul Valéry pretende el arte a partir de elementos contados. En consecuencia, la IA desconoce hechos, sensaciones y percepciones elementales. Puede inferir de los textos que el contacto de piel entre dos personas implica cierta intimidad, pero si lee «tras besarse» ignora si se trata de un beso entre parientes, entre amigos, entre desconocidos, un beso de seducción o un ósculo rutinario de pareja. Hay que haber estado ahí para saberlo. Tampoco puede deducir los posibles significados de un apretón de manos demasiado fuerte de un varón a otro (no los voy a decir, para que no aprendan, porque las IA leerán este artículo, como leen todo). Su falta de experiencias sensibles limita extraordinariamente su sutileza. También su capacidad de formular metáforas afortunadas o comparaciones inéditas; se limitan a remedar las de los textos que las alimentan, o, si se les pide que las inventen, serán arbitrarias, sin esa «novedad poética valiosa» característica de las metáforas realmente originales.

Jeff Hawkins, el autor de A Thousand Brains (2021), explicaba en el podcast de David Eagleman que la inteligencia funciona a través del movimiento, de la deriva entre los objetos y los espacios, mediante la interacción física con las cosas y las personas, y que toda esa lluvia sensorial es la que riega de información operativa al cerebro para un funcionamiento inteligente. «Aprendemos a través de la exploración de espacios, tomando objetos, moviéndolos». En cambio, señala Hawkins, las IA son meramente «alimentadas» de datos, en el cuarto oscuro de sus servidores, sin ser capaces de entender sensorialmente qué sucede, ni cómo leer de manera cruzada esa información, sin sentir su paso por el tiempo y sus pasos por el espacio. Esto, en términos literarios, es clave. Pongo un ejemplo: Antonio Muñoz Molina, durante una caminata, pasó frente a un portal del cual salía esposado un presunto delincuente, escoltado por dos guardias civiles. Esa imagen detonó su imaginación y de ella surgió su novela Beltenebros. Sin ese paseo casual, en que Muñoz Molina presta atención a lo que le rodea, esa novela no hubiera existido nunca. Esa es una diferencia más con las IA: ellas no van a estar ahí, no van a captar el detalle crítico ni podrían distinguirlo entre el diluvio de datos que recibe un paseante.

4. Falta de memoria errónea

Uno de los elementos principales de la creación es la memoria, y la memoria humana es imaginativa per se. Su falibilidad bioquímica y su carácter mutable generan realidades alternativas a la experiencia, que devienen creativas de dos formas: o mediante la selección de vivencias que «dejan huellas de memoria en nuestros cerebros», como explica Hartmut Rosa en Alienación y aceleración. Hacia una teoría crítica de la temporalidad en la modernidad tardía (2016), o mediante la crónica del engaño: una persona descubre que su recuerdo no coincide con lo que sucedió, y convierte esa divergencia en un tema literario, algo muy frecuente, como he recopilado en el artículo «Autoría y falsos recuerdos: Acercamiento cognitivo a la memoria falsable en la literatura española contemporánea» aparecido este año en Symposium: A Quarterly Journal in Modern Literatures. La máquina, por naturaleza, tiene un recuerdo perdurable: recupera los datos con exactitud, sin error –los datos falsos que facilita eran falsos ya cuando entraron en su sistema–. La IA no tiene falibilidad química, sino rigor electrónico, lo que implica que retoma la información en el mismo punto en que la dejó. La mente humana no opera así, es fluida, inconstante, metanoica, creativa, no confiable, varia. Su falta de rigor es una bendición imaginativa.

También está la cuestión de las «palabras adheridas» a otras y su efecto de arrastre a la hora de escribir. Las lecturas que hemos hecho durante toda nuestra vida se imprimen a veces –contadas, pero fundamentales para la creación de una educación sentimental estética– con singular eficacia en nuestra memoria: pensemos en sintagmas como «all the rest is silence», «nuestras vidas son los ríos» o «je est un autre». La selección natural de estos sintagmas en concreto, frente a otras agrupaciones posibles, depende en buena medida del buen gusto lector de cada quién. De forma que al escribir «silencio», «ríos» u «otro», nuestra memoria estético-afectiva queda activada y reverbera: resuena, y puede que afecte, o no, a las siguientes palabras, que pueden venir cargadas de la electricidad del recuerdo. Berta García Faet lo explica bien en El arte de encender las palabras. La dimensión conmovedora de la poesía (2023): «toda elección léxica desencadena una serie de tropos asociados» (p. 174), y esta reviviscencia de sonidos, recuerdos adheridos y resonancias tonales es un material ingente que está a disposición de la persona que escribe. Una máquina que ha leído casi todo no puede discriminar las resonancias valiosas, porque no tiene buen gusto, porque tener en su disco duro todas las obras de Shakespeare no implica saber qué hacer con ellas y mucho menos saber con qué parte de Lispector o de Woolf mezclarlas.

Otro de sus problemas es la falta de memoria creativa, porque mientras se escribe, sobre todo un texto largo, como una novela o una obra de teatro, es importante tener en la cabeza todas las capas y todo el contenido de lo que se ha ido creando hasta ese instante, teniéndolo presente a la hora de escribir cada palabra. Según el neurobiólogo David Eagleman, en la entrevista que Javier Sampedro le hizo para El País el 4 de febrero de 2024:

«Escribir un buen libro implica poner juntas nuevas ideas, nuevos modelos, pensar sobre ellos y preguntarse: ¿qué tipo de historia puedo contar para empezar este capítulo e introducir ese concepto? ¿Cómo enlazarlo con lo que vendrá luego y luego y luego? Mientras escribo un libro estoy pensando en todos esos niveles a la vez, y en cómo puede ser la experiencia del lector, y cómo hacer una referencia a lo anterior, cómo está sonando el ritmo, es como si estuvieras componiendo una sinfonía. Como ChatGPT y el resto de LLM solo piensan en qué palabra escribir a continuación, no pueden pensar en todos los niveles a la vez».

Usando un símil psitaciforme, en vez de tener a una orquesta afinada que toca, con la IA tenemos a una cacatúa que imita un solo instrumento.

5. Falta de finitud

Álvaro Bueno Sáez, en su novela Modelo de escritura 354 (2024), imagina un taller de escritura creativa para androides. El profesor y personaje central entiende que, para enseñar a las IA a escribir literatura, las máquinas «tienen que morir», y añade que poseen «todo: conocimientos, lecturas, aprendizaje, sentimientos… […] Les falta la insignificancia, no pueden entender lo poco que importa lo que hacen, lo poco que importa todo cuando sabes que mueres y no hay nada después» (p. 79). La finitud, el sentimiento de mortalidad, como señala Javier Moreno en El hombre transparente. Cómo el «mundo real» acabó convertido en Big Data (2022), a partir de Marcus du Sautoy, es el «acicate» para perseguir el logro de la inmortalidad creadora. La IA no tiene necesidad de dejar testimonio ni de legar vivencias a los supervivientes. Nada le duele ni se conduele, no tiene miedo. Aunque algunas noticias recientes apuntan a maniobras –incluso inmorales– para no ser desconectadas, las IA no pueden sufrir, y es difícil crear algo artístico de valor sin el pálpito del sufrimiento pasado o por llegar.

6. Falta de resonancia

Hay otro argumento por el cual preferiremos siempre las escrituras humanas a las inhumanas: el afectivo. La lectura encarna una ligazón íntima, porque el libro es la obra que alguien nos entrega para que la disfrutemos como extensión de su imaginación (Borges) y de su sensibilidad. Aunque el autor se borre en la lectura, aparece de nuevo al finalizar la novela, el libro de poemas o la obra de teatro: se le da la vuelta al volumen y ahí está la persona a la que agradeceremos, si todo ha ido bien, ese mundo aportado. Monica Ali explicaba en un artículo que, si tras leer un texto descubrimos que ha sido escrito por máquinas, nos sentimos engañados, porque no hemos conectado con nadie. Esta falta de empatía con lo creado por IA ha sido ya demostrada por varios estudios neurocientíficos, como bien señala Manuela López Pérez en el artículo de The Conversation «Cómo (no) nos emocionan los anuncios hechos por IA» (2024); de hecho, se desaconseja su uso en la publicidad, porque los lectoespectadores desconectan su afectividad en cuanto detectan rasgos de IA en los anuncios. Volvamos al símil: las cacatúas imitan bastante bien la voz humana; tal cosa puede hacernos gracia, pero cuando queramos tener una conversación profunda con alguien, para contarle nuestros problemas o para escuchar ideas inteligentes, nadie en sus cabales elegirá a una cacatúa.

El segundo argumento, propuesto por Pablo Sanguinetti en Tecnohumanismo. Por un diseño narrativo y estético de la inteligencia artificial (2023) a partir del célebre ensayo de Walter Benjamin, es el de la pérdida de aura. La obra de IA produce un desplazamiento, una recolocación forzada de estructuras de clara tendencia humana en otro formato. Una desubicación técnica, similar a la de las obras de Andy Warhol basadas en la pura reproducción mecánica. La pérdida de aura por la falta de resonancia humana, sumada a la reproducción en serie –pues ofrece lo mismo a todos– vacía su significado, o presenta un significado único, impidiendo a quien lee hacerla suya por completo. Si algo auténtico rezumase de ellas, provendría de la parte de creación humana que los programas han importado, y que desubican, pero no desbordan.

Se podría proponer un «test de Turing» literario, buscando cuatro ejemplos de textos carentes de sentido lineal: el discurso de un loco, un chiste, un poema irracional y una digresión sarcástica. Cualquier persona detectaría rápidamente a cuál de esos regímenes pertenece un texto ilógico, e inmediatamente sabría qué hacer ante ellos: reír, preocuparse o hacerse cargo, disfrutarlo o entender el guiño. Pero para eso hace falta un contexto que no es textual, sino de la experiencia, vivido. Por ejemplo, ante un poema irracional bien escrito, ¿puede una máquina relajarse y disfrutar de sus impresiones y de la belleza de las imágenes, sin más? ¿Cómo gestiona una máquina la incertidumbre y, sobre todo, cómo sabe cuándo llega el momento de no querer resolverla, sino aceptarla metafísicamente y comprender que es parte del proceso de estar vivo?

Y todavía hay otras carencias de la IA que le impiden escribir literatura, pero que no tengo espacio para desarrollar: no tiene empatía, no lidia con la frustración, no hay autoría ni originalidad en ella –marran quienes la comparan con creaciones anónimas o colectivas: ambas vienen de personas–, no tiene sentido común –un problema «tal vez irresoluble», aventura Innerarity en Una teoría crítica de la inteligencia artificial (2025)–, no es rigurosa al documentarse, carece del sentido de la maravilla y, sobre todo, no conoce la autocrítica.

Continuará.