Guía Práctica para Padres Primerizos (en la IA)
"En cualquier situación de la vida, solo tienes tres opciones. Siempre tienes tres opciones: puedes cambiarlo, puedes aceptarlo o puedes dejarlo" (Naval Ravikant)
Seguía su frase Naval Ravikant en alguna de aquellas charlas compendiadas en el “Navalmanack” de Eric Jorgenson:
… o puedes dejarlo. Lo que no es buena opción es quedarse sentado deseando cambiarlo pero no cambiándolo, deseando dejarlo pero no dejarlo, y no aceptarlo. Es esa lucha, esa aversión, la responsable de gran parte de nuestra miseria. La frase que probablemente más me digo a mí mismo es una sola palabra: aceptar.
Aceptar es la palabra clave. Pero, también, decidir actuar. Desear que algo suceda no alcanza. “Agency” lo llaman los gringos, siempre prácticos y breves para sus definiciones.
Decidir es el camino más difícil. También de Naval, sobre las decisiones:
Si no puedes decidir, la respuesta es no.
Si hay dos caminos igualmente difíciles, elige el más doloroso en el corto plazo (evitar el dolor es crear una ilusión de igualdad).
Elige el camino que te deje más ecuánime a largo plazo.
Decía en mi último ensayo que ya hemos sido conquistados por la Inteligencia Artificial. Que al final no importa si las herramientas siguen fallando, si responden con veracidad o no. Lo relevante es que ya lograron quebrar la resistencia humana y generaron el hábito de uso. Se hicieron masivas, en vías de la omnipresencia, divinamente ubicuas.
Ya habrá tiempo de corregir sobre la marcha lo que no funciona bien. Si hace tan solo dos años lo usual era que las manos tuvieran 6 dedos o las personas, 3 piernas, ¿qué importa si aún hoy a los modelos les cuesta sentar a un pianista de frente a su instrumento o si los quintetos los dibujan con 6 músicos? Dos años, una eternidad… ¡ayer nomás!
Para cada problema fue naciendo una solución, cada vez más sofisticada, cada día más cercana al comportamiento humano. Aprendizajes. Un camino continuo…
Ahora lo Ves, Ahora NO lo Ves

Si lo conveniente es aceptarlo (ni cambiarlo, ni dejarlo), pues entonces toca decidir usarlo, pero hacerlo bien.
Sin embargo, en estas últimas semanas pródigas de novedades yo me seguía resistiendo a decidir cuándo sería el momento ideal para permitir que la IA penetre en mi casa, que llegue sin dudas ni limitaciones obvias a mis hijos adolescentes.
Comentarios al pasar con mi esposa (ingeniera, para colmo), nunca una conversación profunda. Es que nos tocaba hacer como en otras ocasiones, de tan contaminados que estamos de precauciones y prevenciones: organizar las reglas, poner las restricciones, controlar. Supervisar es, precisamente, lo más difícil como padres y guías. Pura procrastinación, no daban ganas de ir a fondo.
Nunca se termina lo que no se empieza. Y me sucedió -por suerte o desgracia- que me encontré con dos piezas de contenidos que me ayudaron y recomiendo:
Anthropic publicando un paper donde explica su preocupación e interés por entender cómo funcionan por dentro sus modelos.
Y me terminó de convencer el instante mismo en que me puse a debatir con Gemini sobre una de esas dos publicaciones, la de Anthropic. Quedé tan sorprendido, tan íntimamente impactado, que continué la conversación y en un momento sentí efectivamente que estaba chateando con otra persona. Muy gentil, muy insistente y repetitivo con algunos mensajes, pero nada diferente a lo que me podría pasar en un contexto profesional donde mi interlocutor está guionado y no puede salirse de algunos “corsets” impuestos desde más arriba. Pero había algo más. Me resisto a usar el verbo “sentir”, pero... Para quien tenga ganas y tiempo, dejo por aquí esa charla. Pasen y vean. “Sientan”.
¿Qué puedo recomendar, entonces, aparte de dejar de postergar y ponerse a la tarea, sin prisa, sin pausa, pero sin demora?
Aquí una breve guía práctica para padres primerizos en la IA.
La Góndola del Supermercado
¿Dónde encuentro esa película que me recomendaron? ¿La serie de la que me hablaron está en Netflix, en Amazon Prime o en Disney+?
Es casi imposible estar suscripto a todas las plataformas de streaming, todos los días salen nuevos contenidos y siempre habrá alguien que te pregunta si “ya la viste”. El FOMO en su esplendor.
Lo mismo pasa hoy con las plataformas de IA generativa: ChatGPT, Gemini, Grok, Claude, Mistral, Llama, DeepSeek, Kling, Apple Intelligence (no, esa no), ¡MeLlevaelChanfle! (tampoco).
Si te quedas esperando una, te lleva puesto la otra. Ya se nivelarán, elige tu propia aventura. No gastes de más, pero tampoco te quedes con la versión gratuita. Enseguida se queda corta. Que si, que si. Aún en imágenes y videos hay diferencias, en el resto no tanto. Insisto, ya se nivelarán.
Hoy la pelea es por el usuario, por crear la comunidad, el efecto de redes, el producto de consumo masivo. No te dejes confundir: una cosa son los modelos y otra muy distinta el producto que la gente efectivamente utilizará. Como dice Altman:
“Donde creo que hay ventajas estratégicas está la construcción de la gigantesca empresa de internet. Creo que debería ser una combinación de varios servicios clave. Probablemente haya tres o cuatro cosas similares a ChatGPT, y conviene comprar una suscripción que las incluya todas. Querrás poder acceder a otros servicios con tu IA personal, que te ha ido conociendo a lo largo de tu vida, a lo largo de los años, y usarla allí. Habrá, creo, nuevos y sorprendentes tipos de dispositivos optimizados para el uso de una IA. Habrá nuevos tipos de navegadores web, habrá todo un clúster, alguien desarrollará productos valiosos en torno a la IA.”
Lo Cotidiano
Entendámoslo bien, en su punto justo: el uso de las herramientas generativas ya casi no es un lujo, en poco tiempo se convertirá en una necesidad para la vida cotidiana, al menos para el mundo del estudio y el trabajo.
Es aquella calculadora científica, excepcional en los ‘70s que se hizo standard en los ‘80s y ‘90s. Es aquella PC con Windows Vista (mentira, con 95 o XP). Es Excel y no Lotus.
Será un control remoto, un reloj, un teléfono inteligente.
Googlear.
Recurro de nuevo a Altman cuando le da consejos a la hija de Thompson, que está por terminar su bachillerato y quiere prepararse para el futuro laboral:
“La estrategia obvia es dominar el uso de herramientas de IA. Por ejemplo, cuando me graduaba del último año de preparatoria, la estrategia obvia era dominar la programación. Y esta es la nueva versión de eso.
La estrategia más general es que creo que las personas pueden cultivar la resiliencia y la adaptabilidad, además de comprender lo que quieren los demás y cómo serles útiles. Y yo practicaría eso. Sea lo que sea que estudies, los detalles quizás no importen tanto. Quizás nunca lo hicieron. Lo valioso que aprendí en la escuela es la meta-capacidad de aprender, no algo específico. Así que, sea lo que sea que aprendas, aprende estas habilidades generales que parecen ser importantes a medida que el mundo atraviesa esta transición.”
Yo me preocupo, tú te preocupas, él se preocupa
Si no estamos sincronizados aun, alcanza con leer el primer párrafo del documento de Anthropic para quedar girando como un trompo:
“Los modelos de lenguaje como Claude no son programados directamente por humanos, sino que se entrenan con grandes cantidades de datos. Durante ese proceso de entrenamiento, aprenden sus propias estrategias para resolver problemas. Estas estrategias están codificadas en los miles de millones de cálculos que realiza un modelo por cada palabra que escribe. Llegan inescrutables para nosotros, los desarrolladores del modelo. Esto significa que no entendemos cómo los modelos hacen la mayoría de las cosas que hacen.”
Todos nos preocupamos. Pero deberemos (con)vivir con eso, no queda otra. Ya vendrán los mayorcitos a entender y controlar el juguete que crearon.
Mientras tanto… (pre)ocuparse.
Lo que falta
Lo que no entienden del todo los modelos, solo por ahora, es lo que no existe para ellos. No hay mucho más, es simplemente aquello que por alguna razón muy específica -de nicho, silos cerrados, oscuros o profundos- no está (visible) en Internet.
Todo lo demás ya ha sido engullido, triturado y procesado. Tan simple como eso, tan lejos de cualquier demanda de derechos de autor. Cuando algún juez dicte sentencia, ya será tarde, el daño o beneficio estará consumado y todos los datos serán sintéticos.
Si quieres seguir esperando, solo vas a perder tiempo valioso. Ya no hay vuelta atrás.
Es la Superinteligencia, estúpido
No importará si la llamamos Inteligencia Artificial General o simplemente inteligencia.
Es la Superinteligencia (ASI, SuperAI, AIS) ahora, pero le pondrán otro nombre luego, cuando se haya gastado el nuevo de tanto uso repetido y vacío.
Agentes, “vibra”, automatización multimodal. Siempre habrá un nuevo acrónimo o un nuevo slang para confundir.
Lo importante: ya llegó, ya lo estamos viviendo. Es la Superinteligencia, estúpido.
Cierro así: el futuro será solo aquello que aún no podamos hacer.
¿Qué es la IAG? Has dado muchas definiciones. Hay muchas definiciones en OpenAI. ¿Cuál es tu definición actual y más avanzada de IAG?
Altman: Creo que lo que acabas de decir es clave: es una frontera difusa que abarca muchas cosas y es un término que, en mi opinión, se ha devaluado casi por completo. Para algunos, según la definición de muchos otros, ya estaríamos ahí, sobre todo si pudiéramos transportar a alguien de 2020 a 2025 y mostrarle lo que tenemos.
Bueno, esto fue IA durante muchísimos años. La IA siempre fue lo que no podíamos hacer. En cuanto pudimos hacerlo, se convirtió en aprendizaje automático. Y en cuanto no lo notaste, se convirtió en un algoritmo.
Altman: Cierto. Creo que para mucha gente, es algo así como una fracción del valor económico. Para mucha gente, es algo de propósito general. Creo que pueden hacer muchas cosas muy bien. Para algunos, se trata de algo que no comete errores tontos. Para otros, se trata de algo que sea capaz de auto superarse, todas esas cosas. Simplemente no hay una buena alineación.
¿Qué hay de los agentes? ¿Qué es un agente?
Altman: Algo que pueda funcionar de manera autónoma y hacer gran parte del trabajo por ti.
Para mí, eso es la cuestión de la AGI. Es decir, el nivel de reemplazo de empleados.
Altman: ¿Pero qué pasa si solo es bueno en ciertas tareas y no puede hacer otras? Es decir, algunos empleados también son así.
Sí, estaba pensando en esto porque se trata de una redefinición total. Se suponía que la IAG lo era todo, pero ahora tenemos la SuperIA. SuperIA, una superinteligencia. Para mí, es un problema de nomenclatura. La SuperIA, sí, puede realizar cualquier tarea que le encarguemos. Si consigo una IA que realiza una tarea específica, ya sea codificación o lo que sea, y la realiza de forma consistente, puedo asignarle un objetivo y lo logra determinando los pasos intermedios. Para mí, es un claro cambio de paradigma respecto a la situación actual, donde es necesario guiarla en gran medida.
Altman: Si tuviéramos un gran agente de codificación autónomo, ¿dirías: “OpenAI lo hizo, ellos crearon la IAG”?
Sí. Así es como lo defino. Y coincido en que es casi una reducción de lo que solía significar la IAG. Pero simplemente sustituyo SuperIA por IAG.
No importa como lo llames, no le pongas nombre, siempre estará mutando, siempre evolucionando, siempre involucionando.
Se hizo transparente, usual, cotidiano. Se metió en nuestra vida diaria.
Ahora lo ves… ahora NO lo ves.