POR DANIEL ESCANDELL MONTIEL

Podría decir que mi último libro no lo he escrito yo, sino una inteligencia artificial; o que este dossier lo ha diseñado un algoritmo a partir de una sencilla instrucción mía, porque es un tópico al que ya estamos acostumbrados. La boutade no tendría mucho aplauso; aun así, podría llegar a ser de cierta relevancia si lo que hubiera en esas páginas tuviera algo de sustancia pese a ser hija realmente del algoritmo de turno sin tener una intervención humana masiva para lograrlo. Para la más reciente novela de un escritor estadounidense que no he leído, los publicistas han hecho eso y el blurb de la contraportada es un texto en el que el autor se construye (con éxito relativo) la imagen pública de un enfant terrible —con edad de ser, en todo caso, un dirty old man el cual ha escrito la obra con un generador de textos entrenado con sus libros anteriores. Eso le parece muy transgresor, claro, a uno le dan ganas de contarle que hace ya años que eso se ha realizado en otras lenguas, y que quizá debería mirar más allá de la pequeña burbuja en la que es un malote. Si tenemos (mala) suerte y consiguen que sea un éxito en EE. UU., supongo que pronto podremos leer la novela traducida, quizá, por otra inteligencia artificial al castellano sin que ningún humano lo lea, llena de divertidos fenómenos lingüísticos que hagan de ella algo más singular, y triste.

La realidad es que los discursos sobre la IA son, en su mayoría, las mismas cosas que decíamos hace más de una década, solo que ahora el modelo de lenguaje de turno domina mejor la sintaxis y, de vez en cuando, aparenta algo de chufla. La verdad es que, en los momentos de pulsión misántropa provocados de vez en cuando por el mundo de la pantalla, me sumerjo en la monomanía de contemplar cómo la IA no ha seguido ya los pasos de Skynet. En vez de seguir ese modelo de conducta, solo le ha alcanzado para poner en peligro el trabajo de los propios programadores, traductores, ilustradores y otros artistas. También, de vez en cuando, le hace mal los deberes a los estudiantes vagos con un ritmo tedioso que saca a relucir su falta de estilo y clase, mientras salpica los párrafos que firmarán otros con tonterías, muchas tonterías. Sin duda, el gran triunfo del capItAloceno para hundir toda esperanza del pueblo es la constatación de que incluso la megalomanía del opulento hasta la náusea es infinitamente más cutre que en la ciencia ficción de serie B; no es de extrañar, dado que nuestros oligarcas son, al fin y al cabo, unos tipos rancios y anodinos que transitan las antípodas del (in)genio.

La mercadotecnia también ha hecho lo suyo. La inteligencia artificial no existe, podemos afirmar sin ruborizarnos. Lo han hecho antes que nosotros multitud de expertos en computación, en lenguaje —como Chomsky en su artículo para el New York Times «The False Promise of ChatGPT» de 2023—, y se ha hablado de AI-washing, reconociendo que el término, simplemente, sirve para venderle la moto (o cualquier otro producto) al consumidor. Y lo que vende no es que un programa tenga verborrea o que haga imágenes que parezcan un poco reales, o música banal, sino la idea que la ficción ha construido de la IA. Toda su imagen aspiracional sigue anclada en el terreno de la ficción especulativa, la cual ha establecido unas bases claras para el gran público de lo que se supone que es la autonomía de pensamiento real. Y, sí, quizá la ficción ha tendido a atribuir a la IA vocación genocida (a imagen y semejanza de nosotros) del mismo modo que, en no pocas ocasiones, ha dibujado a los humanos como borreguitos encantados de que una máquina tome todas sus decisiones, quizá porque depositar la autonomía vital en los proclamados representantes de algún poder divino está demasiado pasado de moda para montar una secta futurista (como saben los criptobros). Dicho eso, la IA es algo más que el loro glorificado o el mal imitador de pintores y artistas. De vez en cuando se nos recuerda que los algoritmos y el aprendizaje automático tienen enorme potencial, como la detección altamente eficiente y precisa de enfermedades. No obstante, por alguna razón, los inversores que han inyectado miles de millones de euros en las empresas de inteligencia artificial han creído que era más provechoso impulsar estos modelos informáticos que sirven para imitar el arte, esto es, la IA generativa: es la hija pobre—y poco brillante— de la IA general.

Es fácil comprender que se haga el esfuerzo descomunal que ha llevado a los grandes modelos de lenguaje (large language model, abreviado LLM) como ChatGPT o Gemini, pues la búsqueda de una interfaz natural, como el texto (oral o escrito) con el dispositivo ha sido (y sigue siendo) una meta complicada que sí tiene el potencial de democratizar el acceso a una parte importante de la tecnología. Que haya quien lo use para componer un soneto, un ensayo o una lista de los mejores libros del año, es una anécdota que, según el resultado (y el ejecutor) fluctúa entre lo curioso y el simple mal gusto. El motivo es sencillo, pues un LLM no deja de procesar datos y realizar cálculos sobre cantidades masivas de escritos, no necesariamente por textos buenos, ni interesantes en su estilo, ni factualmente correctos en su información. Por tanto, lo que ofrece es un destilado de la medianía, en ocasiones algo maquillado, y glorificado por un nombre muy comercial.

No es ludismo. Resultaría extraño que quien ha navegado durante décadas en los intersticios entre las tecnologías digitales y la literatura se dejara llevar por un temor a la máquina. Esta tecnología tiene problemas asociados a la falta de ética de sus dueños, como la falta de respeto a los creadores de todas las artes y la búsqueda expresa de banalizar sus destrezas mientras les escupe en la cara, entre otros. Si podemos dejar de lado esas cuestiones, estamos ante un juguete interesante, con potencial incluso para ser fascinante en algún momento, y, sobre todo, una herramienta de escritura que puede ayudar a los más torpes con el teclado (o el lenguaje, o las dos cosas) dando un salto equiparable al que supuso WordStar en 1978, cuando dio inicio a la popularización el procesamiento de textos con ordenador en las oficinas. Lo potencial y lo real son, por lo general, cuestiones bien diferenciadas. Lo que puede conducir en algunos casos a nuevas formas de trabajo para todo tipo de textualidades, y un apoyo de primer orden para quienes escriben, ha sido explotado para recortar costes salariales (afectando a periodistas, traductores y otros profesionales), y, también, para plagiar con autoengaños y delirios en la mente del plagiario, mientras su propia ignorancia permite que ¿su? texto se llene de alucinaciones. La decepción no nace en la tecnología, sino de quienes la usan. Así ha sido siempre.

Las alucinaciones, eso sí, me divierten. Lo confieso: son un placer culpable, incluso algo morboso. También me indignan, aunque sé que llegan a nosotros por la irresponsabilidad y la incompetencia de quienes ven en algo como ChatGPT al nuevo oráculo de Delfos. Alucinar es lo más parecido a la inventiva que tiene realmente el algoritmo tras su cortina de estadísticas. Poco importa que un abogado que trabaja defendiendo a un vendedor de almohadas se invente la jurisprudencia de sus escritos para el juez, que la IA de Google te recomiende comer varias rocas al día porque son muy saludables, o que un periódico (que despidió a la plantilla de la sección de cultura) te invite a leer una novela de Isabel Allende que no existe aprovechando tus vacaciones de verano. Ojalá me hubiera inventado estos tres ejemplos.

Las alucinaciones de la IA en los sistemas LLM tienen un inconveniente: como ya avisaba Gary N. Smith en su artículo «An AI that can “write” is feeding delusions about how smart artificial intelligence really is» (2023), la propia expresión antropomorfiza a la máquina y le resta, añado, responsabilidad a sus creadores. La metáfora nos ayuda a entender el delirio maquina; no obstante, tiene la contrapartida de hacernos luz de gas con la función real de estos sistemas: imitar el lenguaje humano, no comprometerse con la verdad, la lógica ni la ética. Si abrazamos nuestra siempre ambivalente hipermodernidad, debemos aceptar que la época de la posverdad (hermoso eufemismo de la vida en la mentira constante) implica que la IA quizá sí tiene programadas en su núcleo las responsabilidades que decíamos, pero no con la ciudadanía.

Claro, pienso en ello en una pesada tarde de canícula que no llega a romper la prometida tormenta que llevan días pronosticando. E imagino al dirty old man de mi primer párrafo entrenando a una IA para que sea capaz de escribir con un remedo de su mismo estilo. Ni bueno ni malo, pero (hasta ahora) suyo, al fin y al cabo. ¿O son el texto de la contraportada y sus intervenciones en redes sociales simple y vacío AI-washing? Conjeturo que ha consultado algunos de los diferentes tutoriales que cuentan cómo hacerlo en no muchos pasos, en vídeos de YouTube, en artículos de Medium (que quizá ha escrito otra IA), y demás. Hacer eso, la verdad, no da tanto trabajo como pueda pensar quien no ha trasteado nunca con herramientas de este tipo. El requisito principal es quererse mucho, quizá demasiado. No es preciso ir a la búsqueda de flores oesteñas; sin embargo, sí lo es suministrar suficientes textos escritos por uno mismo y, de eso, sospecho que nuestro personaje va sobrado. El usuario promedio no precisa saber mucho más, como tampoco necesita saber qué sucede en las tripas de su ordenador cuando escribe, ni en el motor de su coche cuando lo conduce. Sospecho que el acto es profundamente onanista, sobre todo cuando llega el momento de leer los resultados, de hablar con un chat que busca imitarlo en todo momento, y le gusta el reflejo que le está dando ese espejo. Si tuviera más retratos suyos estaría pensando en dar el salto a deepfakes pornográficos, aunque, en cualquier caso, hablar con el mejor émulo de sí mismo es mucho más satisfactorio y placentero. Lo que antes era solo un sueño es ahora real.

La IA generativa no es creativa, sino derivativa, y la misma falta de sustancia que vemos en las ilustraciones con la misma enervante textura y sabor que regurgitan los sistemas de producción de imágenes sintéticas, es la que domina los textos. Lo aprecia cualquier ilustrador, como cualquier persona que pueda considerarse letrada siente el anodino hastío del tono sin sustancia del LLM antes de llegar al final de la primera línea. Porque el sistema es un Balzac, pero de saldo… si no fuera por su coste energético, su impacto ecológico y la desazón que genera. Solo satisface a quien no tiene los conocimientos y estrategias para identificar sus carencias, a los Bill Lumbergh de la vida, y a los accionistas mayoritarios.

Hay quienes trabajan en sistemas de IA que puedan crear historias de forma dinámica, construyendo narrativas emergentes con potencial casi ilimitado, pensando en mundos sintéticos, como los de los videojuegos, capaces de reaccionar al input de los usuarios, en darle al jugador contenidos e interacciones significativas con personajes que no tienen al otro lado de la pantalla a otra persona, entre otras muchas iniciativas genuinamente sorprendentes e inasibles con métodos tradicionales y artesanos que han estudiado investigadores como Takashi Ogata y Taisuke Akimoto (incluyendo su volumen de 2019 Postnarratology Through Computational And Cognitive Approaches). El abuso de la tecnología de la autoescritura y la autonarrativa nos pone en una senda que piensa más en la mercadotecnia que en la creatividad, y que expande el miasma de la fabricación vana frente a la artesanía: fantasmas que, si bien no son nuevos, tienen ahora más presencia y poder que nunca. Porque, más allá de sus usos más acertados o no, de su eventual asimilación como herramienta escritural, y de los posibles resultados que sean auténticamente significativos (cuando lleguen) y novedosos, de lo que se trata aquí y ahora es de la intención innegable del dinero tras la IA de robarle el valor a la creatividad, al trabajo cualificado, al conocimiento, y al artista. Porque en el capItAloceno todo eso puede hacerlo la máquina.