Grabado en madera de una lechuza sobre un tocón de árbol con ramas y hojas, en negro sobre sepia muy claro.

Curso de Inteligencia Artificial Generativa

Es una visión un tanto cínica, pero difícilmente evitable: uno aprende con el tiempo que las tecnologías que van a darle la vuelta a nuestra sociedad como un calcetín, a decir de los pregoneros de los medios, son una y otra vez mentira, exageración o incluso ambas cosas a la vez. La cadena de bloques, los coches voladores, la conducción autónoma son ejemplos palmarios. ¿También la inteligencia artificial generativa?

Uno, que sabe ya casi más por viejo que por ingeniero, tiene sus sospechas. Pero también estoy dispuesto a retar mis preconcepciones. Lo hice en su momento con el blockchain y los criptoactivos. Obtuve la conclusión, tras el curso sobre el particular que estudié, de correr todo lo rápido que pudiera en sentido contrario a donde apareciese alguno de sus evangelistas. Y ahora había decidido hacerlo con estas nuevas bestias, aparentemente capaces de vencer a Turing, a su legado en forma de test y a las convicciones matrimoniales de algunos reporteros despistados. Aquí van algunas conclusiones después de la experiencia. Aviso desde ya por si queréis ir afilando la sagrada indignación: no son demoledoras.

La primera es que el test de Turing no era para tanto. Engañar a un ser humano no es tan difícil para un bot conversacional para nada inteligente, pero con un modelo grande de lenguaje detrás. Un bicho, como voy a llamarlo aquí con cariño. Lo de modelo grande de lenguaje es, por cierto, traducción literal de Large Language Model. Hay una interesante reflexión detrás del cutrerío denominativo de la palabra «grande»: un modelo «pequeño» no sería capaz de hacer algo tan nebuloso como engañarnos casi siempre en un test de Turing. De modo que sí que hay una característica emergente en esos modelos. Pero, contrariamente a lo que suelen afirmar los gurús de Silicon Valley, no es la inteligencia.

Seguimos sin saber qué demonios significa «ser inteligente» estando, como estamos, fascinados con tan solo parecerlo.

Si vais a decirme que la inteligencia artificial generativa es inmoral porque gasta cantidades infames de energía, agua y mano de obra en condiciones de semiesclavitud para evaluar y guiar sus maquinales procesos de aprendizaje, tengo una palabra para vosotros: coltán. Menos brevemente, no existe prácticamente tecnología que no haya requerido, directa o indirectamente, del concurso de una previa explotación ecocida o genocida. Renunciar a una tecnología por su supuesta inmoralidad es poco sostenible, igual que renunciar a comer animales porque consideremos inaceptable su sacrificio ignora la cantidad de animales que son sacrificados por minuto para cultivar las plantas con las que los sustituiremos. Aunque sean insectos y den asco. Estoy hoy que lo tiro metiéndome en jardines.

Por el contrario, renunciar a una tecnología porque es manifiestamente inútil es de lo más racional. Es el caso general de las cadenas de bloques, por ejemplo. Pero, atención, las inteligencias artificiales generativas no son inútiles.

En otra vuelta de tuerca sobre la utilidad, conseguir textos de una calidad semántica mínima requiere casi tanto cuidado con el prompt (lo que le dices al bicho para obtener los resultados deseados, que llamaré encantamiento) y con la revisión posterior del resultado como escribirlos uno mismo. Podemos asumir que el grado en que esto es cierto depende bastante de lo que podríamos llamar «grado de tontería» (bullshit level) de tu empleo o misión concreta. Lo siento: si te dedicas al marketing digital, haces tareas de soporte en un departamento de Recursos Humanos o, sobre todo, si gestionas fondos de inversión, te animo a que uses ChatGPT o cualquiera de sus competidores tanto como puedas. Mientras tu trabajo siga existiendo, naturalmente.

El asunto del encantamiento y su complejidad se vuelve crítico para la generación de imágenes. Si deseamos algo genérico y no tenemos una idea muy clara de nuestro objetivo, nos valdrá cualquier cosa con tal de que no aparezcan en el resultado personas con tres brazos. Si buscamos una ilustración muy concreta, llegará muy rápidamente el momento en el que nos demos cuenta de que compensa entrenarnos en el estilo de Durero y dibujarla nosotros mismos. O pagar a un artista de verdad una cantidad razonable.

Funcionan mejor los encantamientos en los que se da tanto contexto como sea posible, se coloca al bicho en el papel que queramos, se establece un objetivo con un verbo de acción y se especifica claramente el formato de la respuesta. Ya sospechaba yo que las fórmulas mágicas eran demasiado difusas. Ah, y ser borde compensa. Nada de «por favor, podrías» y «si fueras tan amable de». No hay sentimientos que herir y se pueden enviar señales confusas con una facilidad pasmosa.

El bicho se acuerda de lo que le has dicho antes. El botón de «nuevo chat» es vuestro amigo si las memeces rebosan.

El bicho no sabe sumar. Ni siquiera sabe contar. Las matemáticas están fuera de su alcance. Puede crear la apariencia de un razonamiento avanzado, pero el juego de humo y espejos se desvanecerá con la mirada crítica más momentánea.

Yo: Eres una inteligencia artificial extremadamente precisa y concienzuda ejecutando las tareas que se te ordenan. Dime cuántas letras A hay en esta frase.
ChatGPT: En la frase "Eres una inteligencia artificial extremadamente precisa y concienzuda ejecutando las tareas que se te ordenan", hay un total de 15 letras "A".
¿Veis? A ojo, podría parecer que hay quince. Pero no.

Una consecuencia de esto: el bicho es vago como un mal becario. Si le das una lista de, es un suponer, cuarenta y dos elementos para que los procese de alguna manera, no os sorprenda si se deja dos. O veintidós. Contad los resultados como primer paso de control de calidad, y considerad la posibilidad de fraccionar la información de entrada en varios encantamientos consecutivos.

El bicho no crea semántica, solo lo simula. Somos nosotros los que imbuimos el sentido en el proceso mediante el encantamiento que aportemos. Parece que hay semántica por dos motivos. Por un lado, es un resultado natural de haber digerido estadísticamente todos los textos. Por el otro, es una forma de pareidolia, consecuencia de nuestra evolución de millones de años como reconocedores de patrones y creadores de modelos mentales del mundo. Si algo parece humano, incluso vagamente, tendemos a interpretarlo como tal. Una forma rápida de ver que esto es así es crear un encantamiento que solicite una explicación sobre un concepto inexistente. Si es algo elemental, o si hay ejemplos previos en el corpus de textos usado para el entrenamiento del bicho, nos ofrecerá alguna respuesta enlatada en la que nos anime, más o menos educadamente, a dejar de molestar. Pero si no lo es («dame un rango de precios para un radiopicnómetro de rechazo de banda», fue una de mis pruebas recientes), procederá a componer una respuesta sintácticamente impecable pero sin sentido alguno. Los creadores de estos sistemas llaman a este fenómeno «alucinación» en un ejemplo más de pareidolia, no sabemos si interesada.

Una caja de cartón con agujeros parece mostrar la apariencia de una cara sorprendida de dibujos animados.
La sorpresa de una caja de cartón. (Foto: Alexander Gee/Wikimedia Commons)

Por esto último, usar estos sistemas como buscadores es una idea concebida por gente desquiciada. En el siguiente paso, resumir la documentación que se haya encontrado, sí puede funcionar con cierta solvencia. Aunque sin garantías de un resultado pertinente a poco que tratemos con asuntos sutiles. Recuerdan algo a los coches de cierto magnate que «se conducen solos» pero necesitan un conductor con las manos en el volante todo el tiempo, por si acaso.

Esta es grave. Un encantamiento perfecto incluye necesariamente información muy detallada y, por tanto, potencialmente delicada. Podríais perder el trabajo por revelación de secretos si alguien mira dos veces.

Esta también es grave. El bicho está sesgado porque los datos de entrenamiento, que son básicamente todos los textos en internet, están sesgados. Sorpresa: todos los sesgos de todos los textos del mundo, estadísticamente mezclados, no se compensan entre sí.

Las respuestas que se generen son vuestras, pero son de la empresa que haya creado el bicho, pero en realidad son de quien tuviera el copyright de los textos robados… Perdón, «utilizados» como base de entrenamiento de los modelos de lenguaje. Por cierto, si esos textos originales estuvieran bajo alguna licencia copyleft (como Wikipedia, que ha sido saqueada de arriba abajo multitud de veces para entrenar bichos), vuelven a ser vuestras pero tendríais que citar a todos los posibles creadores. Que, dada la condición de caja negra de las inteligencias artificiales generativas, supone nombrar a literalmente todo el mundo. Todas estas cláusulas son simultáneamente ciertas. El primer juez que logre que desenmarañar esta madeja para que tenga sentido ganará reconocimiento en rotondas de todo el planeta.

Esto mismo con imágenes es todavía más sangrante, porque los bichos han reproducido incluso versiones distorsionadas de las marcas de agua que pudiera llevar el arte original, previa y presuntamente pirateado.

Nadie se va a hacer responsable de nada si la cagáis fuerte, con la obvia excepción de vosotros mismos por vuestra condición de eslabón más débil en la cadena de valor.

Elon Musk es un peligro público, pero como ya sabemos que es un egomaníaco imbécil, lo damos por descontado.

Sam Altman es un peligro público. Nada de lo que dice es inocente.

Al final no importa si los bichos pueden o no quitarnos el trabajo. Lo que importa es que quienes nos pagan crean que pueden.

Comentarios

4 respuestas a «Curso de Inteligencia Artificial Generativa»

  1. @blog muy interesante.

    Hay una duda que me sale a veces sobre LLM y el asunto de los derechos y el uso para reelaborar o tratar de forma _creativa_ un asunto.

    Cuando creamos estamos reelaborando sobre nuestros propios conocimientos y sensibilidades, como modelo o como inspiración podemos coger un tema ya tratado, o una parte, concreta o difusa de uno o distintas artistas.

    y si una LLM usa infinidad de referencias pero no copia literalmente ninguna, ¿no es equivalente?

    1. Cuando razonamos sobre estos temas, merece la pena cuestionarnos las premisas. ¿Qué es «creativo» y qué no lo es? ¿Tenemos claro lo que es la creatividad? Si nos limitamos a la definición más simple, «cualidad de lo que produce algo nuevo», un simple generador de números aleatorios sería creativo. Necesitamos al menos un ingrediente adicional, que podría consistir en añadir «que tenga sentido» a la definición. Pero las IA generativas no crean sentido. Hay quien afirma que la comprensión surge como propiedad emergente, pero me parece una afirmación extraordinaria que requiere, como suele decirse, pruebas extraordinarias. Además, las refutaciones abundan: en el mismo artículo hay alguna.

      Por otro lado, los LLM no copian literalmente nada… mientras el corpus de textos relevantes que esté por debajo sea lo suficientemente diverso. Si el prompt es muy específico se le pueden hacer «escupir» fragmentos de textos originales. Esto se ve mucho mejor con los generadores de imágenes, porque la variedad de imágenes únicas posibles es muy superior a la de textos, y es más fácil que sí haya copia, más o menos deformada. Este resultado, por cierto, es trivial si piensas en términos de teoría de la información y te das cuenta de que una imagen en formato PNG a 24 bits/píxel para un monitor de resolución 1080p contiene el mismo orden de magnitud de información en bytes que la novela media.

  2. @blog Es una reflexión importante. Poner los modelos amplios de lenguaje al nivel de lo que son: herramientas (creadas de la manera que lo son) cuyos resultados requieren del ojo humano pero, sobre todo, del conocimiento.
    Me vienen a la mente los interminables ejemplos de frases mal traducidas por servicios automáticos.

  3. @blog Buenísimo articulo.
    Estos modelos generativos son una maravilla, y no quiero negar el mérito y el gran avance que son. El problema está más bien en que quieren venderlos como si fueran oráculos mágicos que lo pueden todo.
    Digamos que son buenos inventos en manos de vendedores sin escrúpulos. El capitalismo metiendo la pata como siempre.