ChatGPT y las escopetas de feria
Hace ya tiempo que no paro de hablar de inteligencia artificial. No tanto aquí, donde prefiero abordar otros temas, sino en Xataka, donde casi todos los días publicamos al menos uno o dos artículos sobre esta tecnología.
Es lógico: esto pinta a disrupción. A una que ya lograron el PC, internet o los móviles. Eso no lo digo yo (que también), sino gente mucho más lista y que ha estado metida en esos ajos en las últimas tres o cuatro décadas. Bill Gates decía justo eso hace unos días, por ejemplo, y suele ser bastante cauto con sus predicciones.
Todo se ha acelerado con la aparición de dos grandes fenómenos virales. El primero, el de las IAs generativas de imágenes. DALL·E 2, Midjourney y Stable Diffusion se han convertido en plataformas creativas alucinantes. Imperfectas, eso sí, como precisamente contábamos hoy en Xataka en mi tema al hablar de lo mal que se les da dibujar manos humanas. Y aún así, insisto, alucinantes.
El segundo, por supuesto, el de las IAs conversacionales representadas por ChatGPT. El motor de OpenAI es por ahora el gran protagonista de una escena en la que Google va con pies de plomo con Bard, y en el que Microsoft ha querido hacer justo lo contrario al anunciar y lanzar "Bing con ChatGPT" (aunque es un modelo algo mejorado, ese nombre es bastante apropiado).
Lo curioso es que a los seres humanos nos encantan dos cosas. Primero, fliparnos ("Uauh, qué pasada, ¿has visto lo bien que contesta a todo?") y luego, inpepinablemente, criticarlos ("Uauh, qué horor, ¿has visto cómo ha metido la pata ChatGPT/Bing/Bard en eso?").
Con Stable Diffusion y sus competidores ya ocurrió eso mismo. Del asombro inicial muchos se dieron cuenta de que la magia tenía su lado oscuro: la de las imágenes (sobre todo las que tienen derechos de autor) que se usaron indiscriminadamente para entrenar al modelo. El debate detonó alguna que otra demanda que está en marcha y que podría definir este escenario, pero no tengo nada claro que sea posible controlar algo así. Lo vimos con GitHub y su Copilot, que es básicamente un ChatGPT especializado en programar. Ahora estamos viendo cómo a esa fascinación por ChatGPT o Bing se ve enfrentada a su mayor limitación:
Estos motores fallan más que una escopeta de feria.
Es algo que no paramos de ver los últimos días. No solo es que fallen porque sí: es que además los usuarios estamos poniéndoles todas las zancadillas que podemos para forzarles a decir cosas que no deberían y a convertirse en versiones malévolas (o al menos gamberras) de las originales.
En los últimos días he contado cómo a ChatGPT le sacaron su hermano gemelo gamberro, DAN, cómo Bard metió la pata (más o menos) con su demo inicial, cómo ambos contaminan, cómo "torturaron" a Bing con ChatGPT para que confesara sus "leyes de la robótica", cómo estos motores están también comenzando a usarse para el mal y como Bing puede llegar a desvariar bastante. ¿Cuál es el hilo conductor de todas esas noticias?
Que ChatGPT y Bing están muy lejos de ser perfectos.
Es un discurso que se está viendo mucho por ahí. Lo comentábamos hoy entre los editores: parece que hay una corriente en medios —y nosotros estamos un poco metidos— de poner a caer de un burro a la inteligencia artificial. De soltar aquello de "no os flipéis".
Esos mensajes han llegado también de gente bastante potente en el ámbito tecnológico. Yann Le Cun, responsable de la IA de Meta, decía que ChatGPT "no es nada revolucionario, aunque está bien hecho", y Vinton Cerf —cocreador del protocolo TCP/IP— advertía de los problemas éticos de usarlo. Estos días leía también una entrevista a Kazuhiko Nishi, creador del MSX —me temo que eso, al menos en este ámbito, le pone un escalón por debajo de mis otros dos citados—, que decía también que "ChatGPT sigue siendo muy tonto".
Y luego están las críticas de otra gente en medios diversos. En The Atlantic escribían poco después de su aparición que "ChatGPT es más tonto de lo que piensas", y algo parecía soltaban en Mashable, Wired o en El País, donde contaron como Bing perdía los papeles con Pedro Sánchez.
A ver. Es cierto. Estos motores, insisto (otra vez) se equivocan y se inventan cosas. Esta mañana yo he tenido una conversación bastante estúpida con Bing a raíz de la hora. Me la dijo mal desde el principio y luego no paró de tratar de defender que en todo momento la había dicho bien. Es una lástima que debajo de cada mensaje no aparezca la hora del mensaje, pero da igual: creedme, que soy humano, porras. Bing con ChatGPT metió la pata (otra vez). Todo eso me lleva al corolario de esta reflexión.
Todo esto no importa (mucho).
Así es. Y no lo hace porque esta tecnología está en pañales. Lo que se ha conseguido en apenas unos meses —en realidad, unos pocos años, que esto de los Large Language Model viene de algo más atrás— es sencillamente increíble, y que ChatGPT o metan la pata es normal.
De hecho aquí me ha gustado mucho el hilo de Steven Sinofsky, que fue directivo de Microsoft durante años y que suele hacer comentarios estupendos y coherentes. Aquí la primera parte del hilo:
Y debió animarse o se le quedó incompleto, porque aquí está la segunda:
En esos mensajes hay uno especialmente relevante para esta reflexión. Este, en el que comenta cómo "la primera década del PC fue literalmente la de "hacerlo funcionar". ¿Con internet? Seguridad, enlaces rotos, etc".
Es una buena analogía. Los PCs son ahora máquinas estupendas y maduras, pero durante años los estándares bailaban porque aquella era la fase de desarrollo, lo mismo que con una internet que por mucho que nos alucinara, era imperfecta e incompleta. Aún hoy puede considerarse así —de ahí que ideas como la de esa descentralizada Web 3.0 tengan su encanto—, pero como decía, durante los primeros años internet era bastante cutre (¿Geocities? ¡Argh!). Y acordaos de los móviles, chicos. No ya de los que precedieron al iPhone, sino de los primeros años de Android compitiendo con estos. Las aplicaciones, los servicios, la conectividad y las cámaras eran bastante castaña. Nos flipaban, pero también eran totalmente imperfectos. Hoy no se puede decir que sean caros perfectos, pero la cosa ha mejorado un porrón.
Así que queridos lectores, haced caso a Sinofsky y a ese primer mensaje. Los LLMs —la base de ChatGPT— "representan el primer avance tecnológico que tiene el potencial de desplegarse de forma transparente a 7.000 millones de smartphones y por tanto puede ser un cambio de plataforma". O lo que es lo mismo: una disrupción.
Ni metaverso, ni criptos, ni leches. Esto va a ser la pera. Que sí, que meten la pata, que se inventan cosas, que son imprecisos, que contestan mal, que se pueden usar para el mal (como el PC, internet o el móvil). Todo eso da igual, porque esto es solo el principio. Insisto.
Esto va a ser la pera. Dadle tiempo al tiempo.