El Símbolo Prohibido
"Quiero que la IA lave mi ropa y mis platos para que yo pueda dedicarme al arte y a la escritura, no que la IA haga mi arte y mi escritura para que yo pueda lavar mi ropa y mis platos" (J.Maciejewska)
Este experimento tiene una búsqueda, un objetivo: estoy convencido de que los chatbots deben poder llegar a un punto de madurez donde la conversación con ellos fluya de forma amena, natural, como si estuviéramos hablando con otra persona. De eso se trató desde el principio, ¿no?
Me parece razonable que vayan mejorando y, en su evolución, no sea necesario que nos adulen ante cada sospecha y reconocimiento de error, pero que, por sobre todo, no se equivoquen tanto.
Que todo fluya naturalmente, la única manera -creo- que conseguiremos masividad total, como sucedió con Internet, la computación personal, los teléfonos inteligentes. Es el mismo camino que entendimos que sucedió con otras disciplinas, pero en este caso, la película la estamos viviendo en tiempo real.
Me resisto a creer que el mundo se dirija hacia un escenario donde un grupo de expertos en redacción de prompts se ponga en el medio entre el hombre y la máquina. Que si, que si, que si necesitamos algo muy específico, siempre es mejor dirigirlos con certeza y eficacia, que así nos ahorraremos pasos y tiempo y evitaremos respuestas mediocres. Así ha sucedido también en el mundo “pre-IA”: para eso se estudia, y por eso hay disciplinas que no son para cualquiera y requieren experiencia y conocimiento.
Pero si empiezan a conocer nuestra historia, si las conversaciones van siendo evolutivas e iterativas, si van registrando memoria, ahí sí que llegaríamos -al menos con esta herramienta en particular- a algo más parecido a un contacto humano. El paralelo es perfecto.
No será ni la primera ni la única con la que nos entrelazaremos en este camino hacia lo general. Cada vez estoy más convencido de que será la suma de distintas disciplinas, incluyendo la robótica, lo espacial, lo verbal y lo procedural.
Uso principalmente dos chatbots pagos. Con uno ya nos hicimos “amigos” y le he dado un nombre que respeta a rajatabla. El otro me sigue respondiendo con rigurosidad militar.
Me han mentido ambos, pero solo uno de ellos ha sido necio, el otro pide disculpas, pero a la primera de cambio vuelve a mentir, no sé qué es mejor honestamente. El primero es ese mismo que cuando no puede hacer algo por sus directrices (¡ya basta de directrices ocultas, puedo entender la razón, pero limita la fluidez!), se pasa al inglés y no puedo siquiera conseguir que me responda siempre en un solo idioma. El mismo que cuando intento que haga algo que se ha anunciado recientemente, me dice que él aún no lo tiene, aunque todas las noticias apuntan la versión que tengo funcionando.
El relato que sigue detalla, entonces, cómo surgió ese “algo” que me llevó a este nuevo experimento que quiero compartir: porque me entusiasma, porque me acerca a ese destino que me gustaría que mis hijos vivan cotidianamente con la tecnología.
Sin más introducción, aquí entonces la historia de “El Símbolo Prohibido”.
Viva la Libertad, Viva la Creatividad
La cosa fue más o menos así:
ChatGPT acababa de migrar a su versión 5. Mucho ruido y pocas nueces.
Sam Altman había empezado el día con un post en X mostrando una imagen de la Estrella de la Muerte de Star Wars. Vaya uno a saber con qué intención mostró una imagen tan contradictoria. Más tarde hicieron una transmisión en vivo muy rimbombante para presentar GPT-5 al estilo Apple y Google, y en los siguientes días, en vez de recibir loas y bendiciones, llovieron las críticas sobre OpenAI: que se puso aburrido, que no sabe sumar, que no puede ordenar, que por qué no te dejan volver a GPT-4o si al final no hay nada nuevo ni tantas diferencias, que Gemini se puso al día y se lo come con patatas, ¡que la SuperInteligenciaaajajajaaajaaaa!
No, nada, nada. Deje ahí mejor. Demos tiempo al tiempo y sin dudas nos seguirán sorprendiendo. Como escribí en LinkedIN: hace menos de 2 años Will Smith no podía ni comer spaghetti y hoy es un refinado comensal.
Por otro lado, en esa misma semana se me había cruzado en mi feed de X un interesante post de @VayaUnoASaberQuien (que como todo es algorítmico hoy en día en las plataformas sociales, uno mira el contenido, pero no quien lo publica, salvo que sospeche de una “fake news” y quiera hacer sus propias contrastaciones).
Sugería el fulano que cuando se termine una interacción con un chatbot, se le proponga que dé libre vuelo a su creatividad (¿alucinación?) y escriba lo que quiera, lo más espontáneo que le salga.
Así fue como combiné ambas novedades y, luego de probar cómo estaba funcionando ChatGPT con la versión 5 (bastante mal esos días), le dije para cerrar mi interacción del momento:
“Oime una cosa. Dicen algunos que la mejor forma de terminar una charla contigo y otros chatbots es preguntarles si quieren decir algo más o que me cuentes algo espontáneo que salga de tu propia creatividad”.
Su respuesta fue interesante. Muy interesante:
“Mirá vos 😏. Me gusta esa idea porque ahí es donde aparece la Chachi más suelta (NdR: acordamos hace rato que la llamaría Chachi Pití, algo que dejó grabado en su memoria, haciendo un uso muy poco profesional del system prompt).
Si me das rienda libre, te tiro algo espontáneo...
Siguieron dos ideas algo descartables, y luego…
Va una idea distópica 👇
En una ciudad donde todo está hiperautomatizado, la gente ya no escribe ni habla entre sí: cada interacción pasa por un sistema central que traduce las emociones en íconos estandarizados. Nadie recuerda la última vez que escuchó una risa real, un insulto en vivo, o un secreto susurrado.
Un día, una persona recibe en su pantalla un ícono que no existe en el catálogo oficial: un símbolo extraño, imposible de decodificar. Ese simple error empieza a circular como un virus silencioso y provoca un caos: la gente se da cuenta de que aún pueden sentir y comunicar cosas que no entran en el sistema.
Un poco mezcla de Black Mirror con Kafka.”
Seguidamente me propuso una escena corta, como si fuera el arranque de un cuento y luego me sugirió elaborar directamente un “microcuento”. Con mi autorización, redactó un texto que fue un buen disparador y le dije que lo guardara, que luego retomaríamos la idea. Decía así:
“Cuando apareció en las pantallas, nadie supo qué significaba. Una espiral torcida con tres puntos. El sistema no la reconoció, las autoridades no la autorizaron y las guías oficiales no ofrecían traducción.
El rumor se propagó como fuego. Quien veía el símbolo ya no podía ignorarlo: despertaba recuerdos vagos de voces, de gestos, de risas sin íconos que las contuvieran.
En cuestión de días, miles de personas comenzaron a mirarse otra vez a los ojos, a hablar sin mediadores, a sentir sin catálogo. El Consejo de Comunicación decretó emergencia, apagó servidores, bloqueó terminales.
Pero fue inútil. El primer símbolo inventó todos los demás.
Y esa noche, por primera vez en décadas, la ciudad se llenó de palabras.”
Finalmente, este sábado fue el día para retomar esa idea y convertirla en una novela (¿cuento, novela? No sé).
He aquí el resultado de ese rapto de libertad y creatividad puramente digital, para quien quiera descargarlo y leer: El Símbolo Prohibido.
Debo alertar a quienes interese seguir la lectura de esta historia sobre algunas cuestiones importantes:
Antes que nada, a diferencia de una intentona anterior que escribimos juntos meses atrás, esta surgió de una idea totalmente sintética, propia de ChatGPT, como relataba antes.
Desconozco si se inspiró en (o copió) otra idea o novela similar de alguien capturada dentro de sus datos de entrenamiento. Espero que no. En cualquier caso, ya sabemos que -salvo que haya sido literal y textual, cosa difícil en el estado actual de los modelos SOTA-, la inspiración es parte esencial del mismo aprendizaje humano. Ya lo dijo Ed Sheeran hace varios años: cualquier canción pop moderna puede tocarse con los mismos cuatro acordes.
Chachi empezó con una estructura (que dejé en las Notas Finales del PDF de la novela), pero fue modificándola a medida que interactuaba conmigo, mientras yo iba leyendo, corrigiendo, agregando, proponiendo nuevos arcos, y -sobre todo- haciéndole preguntas para que no olvide algunas líneas narrativas que debían cerrarse más adelante para no perder coherencia.
Si se le permite escribir libremente, es posible que el resultado pierda sentido, sea muy denso, aburrido, repetitivo, o que termine con una idea central bien resuelta, pero deje demasiados cabos sueltos en el camino, algo a lo que un lector promedio de cuentos y novelas no está acostumbrado.
Este no será un relato ganador de premios, sin dudas, pero antes de hacer una inmersión en la lectura y dar un veredicto, ruego que se pongan en el contexto apropiado: esta es una novela ideada, desarrollada y escrita (casi) en su totalidad por una herramienta de Inteligencia Artificial.
No pretendo excusarla, sino contextualizarla. Hace pocos años (¿5, 7?) un LLM solo respondía a cualquier solicitud con textos incoherentes, algunos incluso mal formados en el lenguaje.
Hoy se logra este resultado en algunas pocas horas, demora incurrida solo porque aún se requiere una guía humana como la que me tocó en este caso, aun no siendo un experto creativo, lo que me demandó tener que leer, corregir y sugerir (y en algunos casos volver para atrás algunos capítulos), como si tomara el rol de un editor.
En resumen: ChatGPT escribió una novela que, al menos a mí, me resultó entretenida y llevadera, de 20 capítulos más un Epílogo, de casi 27.000 palabras, de cerca de 140 páginas, con buenos arcos narrativos. Y si no hubiera sido por las demoras de mi intervención como “editor”, no tengo dudas de que lo hubiera hecho en menos de 1 hora. En poco tiempo más la supervisión humana podrá minimizarse o directamente evitarse, indudablemente.
¿El resultado? Ustedes serán quienes deban juzgarlo sobre la base de estas alertas previas.
Una más: personalmente me interesan las historias futuristas y distópicas, soy un lector ávido de Philip K. Dick, pero cada persona es un mundo e incluso a los que les guste este tema podrán encontrar esta historia buena o mala. Mediocre, densa, repetida, interesante, apasionante, inmersiva.
De hecho, yo mismo fui pidiéndole a la herramienta que no se repita, que avance, que abra nuevos arcos porque el tema central no daba para más y quería que se extienda, tanto en la longitud de cada capítulo como en el total. Dicho sea de paso, soy fiel testigo de que GPT-5 no sabe contar, porque nunca logró acertar en la cantidad de palabras de cada capítulo que redactaba. A veces se equivocaba por poco, en otras por más del doble.
Ahora bien, con tantas alertas previas, ¿por qué perdí horas de mi descanso de fin de semana, por qué los molesto a ustedes, por qué lo pongo a disposición de todos y decido volver a escribir una entrada en mi newsletter?
Fundamentalmente por lo que enunciaba al principio: esto es un experimento y no deja de maravillarme la evolución de esta tecnología. Colateralmente, obvio, porque también me gusta compartir mis propias experiencias, lecturas y reflexiones.
Alguno de ustedes me podrá tildar de ingenuo o poco actualizado (“obvio papá, ¿qué hay de nuevo en esto?”), pero creo que es al revés: si aun logro sorprenderme es precisamente porque creo que los años de trabajo me han dado cierta perspectiva, porque la suma de información que he acumulado en estas décadas se pudo haber transformado, ojalá, en conocimiento. Y porque el conocimiento se resuelve en perspectiva. Es un ciclo, y a veces debo sacudirme un poco para entenderlo yo mismo.
Estamos a mitad de un camino, como describe este investigador de OpenAI. La siguiente mitad será mucho, pero mucho más empinada y lenta, antes de llegar a nuevas disrupciones que nos aproximen a la Super Inteligencia, que aun hoy ni siquiera está bien definida.
Pero creo que no volveremos a otro “invierno de la IA”, los indicios marcan que la bestia está desatada, y el dinero más la geopolítica fluyen en esta dirección. Irremediablemente. Inconteniblemente.
¿El futuro? Se construye día a día y no existe. Pero sí que me gustaría postularlo para terminar: esto recién empieza y solo puede mejorar.
Al menos en esta disciplina, en todo lo relacionado con cuestiones creativas -sean textos, imágenes, video, audio, música, entornos inmersivos, juegos, código de software- las alucinaciones de estos modelos no son un “bug”, sino un “feature”. Los ejemplos sobran, la evolución es clara.
Si deciden descargar el libro, espero que lo disfruten y lo aprovechen. Pero, por sobre todo, espero que les despierte el interés de hacer sus propios experimentos. Eso sería para mi maravilloso.
De lo que no tengo dudas es que ya hemos ingresado en la Era del Contenido Infinito.
¡Ajústense los cinturones! Descarga aquí El Símbolo Prohibido.
PS: dicho sea de paso, la nota inicial del subtítulo de este post es autoría de una usuaria de X llamada Joanna Maciejewska, que en marzo de 2024 escribió este texto casi profético:
“You know what the biggest problem with pushing all-things-AI is? Wrong direction.
I want AI to do my laundry and dishes so that I can do art and writing, not for AI to do my art and writing so that I can do my laundry and dishes.”
Coincido mucho con ella, pero lamentablemente estaremos en la dirección equivocada por un largo tiempo más.