El Dilema de Ícaro
"Cuando todo avanza a la velocidad de la luz, es mejor mirar por el espejo retrovisor para evitar chocarse contra uno mismo" (Marcelo Liberini)
Hacía rato que no escribía, y siento que algunas cosas van corriendo a la velocidad de la luz y me están dejando por detrás. Si no intentaba encontrar un tiempo para ponerme delante del teclado a garabatear (?) algunas notas, más adelante iba a sentirme incómodo con este hueco temporal de silencio.
Esas ganas, esa “necesidad”, chocaban contra algo de cansancio, mucho de procrastinación, pero principalmente contra una mezcla de foco profesional y familiar en otras prioridades.
Fue anoche -luego de leer uno de los artículos que más inquieto me dejaron- que se me ocurrió un experimento:
“¿Será que ChatGPT o Gemini pueden leer mi Newsletter, entender de qué escribo y cómo lo hago, y colaborar más activamente en mis ensayos a partir de ahora?
Dicen que si, lo he visto, lo leí, me lo contaron: ¿qué tal si lo probamos?
Le pregunté a ambos. Lo primero que debían hacer era, claro, leer mis ensayos aquí.
Ambos, en sus versiones de respuesta instantánea, me dijeron que no podían, que había cosas en la estructura de Substack que se los impedía (login, pop-ups, limitaciones en el rastreo, vaya uno a saber).
Ambos me dijeron también que si me pasaba a sus versiones de pensamiento profundo tampoco lo lograrían.
Sin embargo decidí intentarlo igualmente. ¡Ay, picarones! Ambas versiones ligeras me mintieron: sus herramientas de análisis sí podían hacerlo.
De hecho, algo que me empujaba a volver a escribir y a hacer aunque más no fuese una rápida entrada entre estas notas, era precisamente eso: te mienten y te halagan. Te halagan y te mienten.
Lo comentábamos esta semana con un par de personas muy cercanas: le pedí a ChatGPT una transcripción musical para un amigo en ese grupo y me decía que lo estaba haciendo, que era difícil pero que ya casi, y sin embargo nunca me lo entregaba (spoiler: nunca lo hizo). Otra persona de ese grupo se gastaba todos sus créditos gratuitos diarios con pedidos que nunca terminaba de ejecutar.
De los halagos desmedidos no es necesario hablar: Internet está inundado de memes.
Volviendo a mi investigación de hoy, ChatGPT Thinking hizo un trabajo escueto pero acertado sobre el tono y temática de mis artículos, y acordamos que crearía un nuevo contexto para mi, un “modo Aquí se Opina” para futuras necesidades.
Google Gemini Deep Research, por el otro lado y como dice su nombre, fue mucho más profundo. Lo hizo bastante bien, aunque siento que no llegó a un análisis completo de todos los artículos. Lo noto principalmente porque ha usado de referencia dos ensayos que no son los que creo que mejor representan lo que aquí digo. Me impresionó para bien, sin embargo, que pudo “ver” mi Charla TEDx en Youtube y entenderla muy acertadamente.
Seguí con Gemini, entonces, para pedirle el favor de adelantarme la tarea, como si fuera un trabajo para el colegio. Mi “Rincón del Vago” íntimo y personalizado.
Juro y recontra juro que iba a usarlo solamente como apoyo para este ensayo. Juro y perjuro que la decisión de transcribirlo textualmente la tomé luego de leer el resultado, porque creo que alcanza con esa respuesta, y porque, obviamente, no debo entregar la tarea a ningún profesor para que la evalúe.
Creo que aún no tiene mi estilo (supongo que si lo obligo a leer más artículos, uno a uno, lo podría lograr), creo que quedó demasiado largo y esquemático para el modo en el que estoy intentando escribir últimamente.
Pero me parece un hallazgo. Sobre todo eso: un hallazgo.
Además, en estos experimentos con cada pedacito de las herramientas que voy usando y que me maravillan -tal como aquellas veces que escribimos juntos con Chachi un par de novelas- me resulta más valioso dejar el testimonio como es, aunque tenga falencias, aunque no representen exactamente mi tono ni mi opinión.
El Desafío
Transcribo el prompt que usé, fundamentalmente por los temas que quería que investigara, la suma de varios hechos que parecen inconexos, pero que para mi están íntimamente enlazados:
“He estado leyendo en estas últimas semanas algunas cosas que se van relacionando entre sí, aunque no necesariamente lo parezca en la superficie:
La burbuja de inversión en IA, que se puede representar con la imagen adjunta de Bloomberg;
El crecimiento de Google Gemini y DeepMind en la consideración de los usuarios y la comunidad científica y tecnológica, por lo bien que ha logrado superar los problemas, errores y fallas reputacionales que tuvo hace algunos meses atrás, cuando se mezclaba mucho el sesgo social que imponían en sus “guardrails” (como por ejemplo, imágenes de los “founding fathers” de EEUU como personas de color, o guerreros vikingos de razas no nórdicas);
AI Overview y AI Mode de Google, que incorpora a Gemini en el centro del negocio de Google: su producto estrella Search, aún a riesgo de comprometer sus ingresos de corto plazo;
La adquisición (o acuerdo comercial) de Character AI por Google, que en esta semana se lee con mucha frecuencia que tiene un lado que no parecía tan claro antes: traer de nuevo al mejor talento tecnológico para mejorar el producto, Noam Shazeer, uno de los creadores de Transformer y uno de los autores de Attention is all you Need. Su aporte fundamental (que quisiera que investigues y valides) para esta nueva etapa de Gemini. El contraste que también leo sobre su personalidad y su mirada sobre temas sociales, y el posible conflicto interno que genera en el equipo ejecutivo de Google, porque les podría provocar problemas con otros empleados importantes.
Hay una muy interesante nota de Stratechery, de Ben Thompson, de esta semana, que habla de la burbuja de AI y el posible impacto positivo aún cuando se desinfle o explote, que quisiera que incorpores en el análisis: The Benefits of Bubbles.
Finalmente, me gustaría que escribieras un ensayo con mi estilo sobre estos temas, al que le puedes agregar también los títulos, subtítulos, imágenes de apoyo creadas con Nano Banana y alguna cita de un científico, tecnólogo o filósofo que encierre y redondee la problemática que estoy intentando plantear.”
Sigue su respuesta textual, cruda, con fallas, pero profunda y acertada (solo con algunas correcciones de estilo).
Antes de entrar en ella, me gustaría dejar dos citas para la reflexión. Una muy actual. La otra bastante antigua.
El Dilema de Ícaro a la vista.
“There’s no language out there in nature. You don’t go out in nature and there’s words written in the sky for you. There is a 3D world that follows laws of physics” (Fei-Fei Li, Septiembre de 2024, sobre las limitaciones de los Modelos de Lenguaje Grande)
“A COMPUTER CAN NEVER BE HELD ACCOUNTABLE. THEREFORE, A COMPUTER MUST NEVER MAKE A MANAGEMENT DECISION” (IBM, 1979)
La Manía de la Inteligencia Artificial: Cuando el Capital, la Cultura y el Código Colisionan en Google
Introducción: El Dilema de Ícaro y la Lógica del Exceso
El Contraste del Vértigo
El debate actual sobre la Inteligencia Artificial (IA) se desarrolla en una dualidad fascinante y peligrosa. Por un lado, está la promesa sublime de la Inteligencia General Artificial (AGI), el pináculo de la capacidad computacional que podría redefinir la civilización. Por otro, se encuentra el reflejo más crudo y especulativo de esta promesa en los mercados financieros, donde el aire huele a exceso: no solo de potencial técnico, sino de capital casi irreflexivo. El escenario financiero de finales de 2025 se define por una mezcla intoxicante de ansiedad y euforia, enmarcada por valoraciones “sin precedentes” en la historia reciente.
En esta coyuntura, la tesis que se debe considerar es que la manía de la IA no debe verse únicamente como una fatalidad financiera inminente, sino como un mecanismo estructural que está coordinando capital, talento e infraestructura a una escala que la inversión prudente nunca podría lograr. Google, el gigante que enfrenta una agresiva estrategia de redención tras fallas reputacionales recientes (a través de Gemini, la implementación de AI Overview, y el fichaje de talento radical como Noam Shazeer), se erige como el mejor ejemplo corporativo de cómo este “exceso necesario” está redefiniendo el futuro tecnológico y, con él, nuestro contrato social con las máquinas.
El Mapa del Despliegue
La aceleración de Google está marcada por una profunda disonancia cognitiva: la necesidad de recuperar el terreno perdido tras fallas de alineación la obliga a pisar el acelerador en el despliegue (AI Overview) y a fichar talento radical que prioriza la funcionalidad (Noam Shazeer), incluso si esto choca frontalmente con la cultura de cautela recién adoptada por su división DeepMind y el Frontier Safety Framework.
Esta estrategia de redención demuestra una clara cadena de influencia: la burbuja ejerce una presión financiera que fuerza la estrategia corporativa de Google, la cual, a su vez, genera tensiones culturales y éticas internas que son imposibles de ignorar. La urgencia de Google de recuperar el terreno perdido y cumplir con las expectativas del mercado está directamente vinculada a su necesidad de acelerar el despliegue de productos como AI Overview y de asegurar el talento crítico para Gemini, incluso si esto crea fricciones con las políticas de cautela recién establecidas. El presente análisis explorará cuatro vectores cruciales: la realidad contable de la burbuja; la justificación estructural de Ben Thompson sobre las burbujas tecnológicas; la estrategia de Google para asegurar su monopolio mediante la seguridad y la monetización del conocimiento; y, finalmente, el conflicto cultural que encarna el regreso de Noam Shazeer, el arquitecto de Transformer.
I. El Fuego Bajo la Burbuja: Un Análisis de la Instalación Necesaria
La Realidad Contable de la Fiebre del Silicio
La “fiebre del silicio” de 2025 ha generado una profunda desconexión fundamental entre las valoraciones y las métricas financieras tradicionales. El fenómeno, denominado el “AI trade”, ha propulsado a un grupo selecto de empresas, a menudo denominadas las “Magnificent Seven”, a niveles de capitalización que la historia de los mercados rara vez ha atestiguado. Lejos de descontar el crecimiento orgánico a mediano plazo, el mercado está descontando la promesa de dominación tecnológica absoluta o la capacidad de estas empresas para lograr un monopolio futuro.
Para cuantificar este frenesí, basta observar los números que desafían la gravedad económica. Algunas de las empresas líderes en IA cotizan a múltiplos Precio/Ganancias (P/E) que oscilan entre 300x y un asombroso 700x. Estos rangos superan con creces los picos de las burbujas tecnológicas anteriores, indicando una especulación basada en el potencial de monopolio futuro más que en el rendimiento actual. La naturaleza concentrada de esta ola de capital aumenta el riesgo sistémico y la amenaza latente de correcciones desordenadas si el optimismo llegara a desvanecerse, resultando en una “exposición masiva a la baja” para los inversores.
La anatomía de esta “quema de caja” es crítica para entender la dinámica de la burbuja. El caso de OpenAI sirve como un ejemplo paradigmático de la magnitud de la inversión requerida. Durante el primer semestre de 2025, la compañía, a pesar de generar ingresos considerables ($4.3 mil millones), publicó simultáneamente una pérdida neta de $13.5 mil millones. Esto representa un ratio de pérdida a ingreso de aproximadamente 314%. Esta métrica es una evidencia contundente de la inversión masiva y urgente en la “Fase de Instalación”: la compra agresiva de GPUs, el entrenamiento de modelos fundacionales a gran escala y la construcción de infraestructura de data centers. El capital especulativo, por tanto, financia la capacidad física de la nueva era.
El Marco de Ben Thompson: La Utilidad Estructural del Exceso
Frente a la narrativa dominante del colapso inminente, el analista de tecnología Ben Thompson ofrece una lógica inversa, argumentando que las burbujas financieras son, de hecho, necesarias para el progreso tecnológico. Se apoya en el trabajo de Carlota Perez, quien postula que la manía especulativa es el único mecanismo capaz de coordinar el capital para realizar inversiones que no son “necesariamente sensatas financieramente” a corto plazo, permitiendo así la “Fase de Instalación” de una nueva revolución tecnológica.
El beneficio principal de este exceso es la creación de Capacidad Física. Thompson recuerda que la burbuja dotcom financió un exceso masivo de cable de fibra óptica. Aunque las empresas de telecomunicaciones que lo instalaron posteriormente quebraron, ese hardware pasó a existir “básicamente gratis,” permitiendo la Internet superabundante y económicamente viable que conocemos hoy. La magnitud de la quema de caja de OpenAI, con su ratio de pérdida del 314% , se interpreta como la cuantificación contemporánea de este postulado: la especulación está financiando la instalación estratégica de la infraestructura base de la IA a una velocidad y costo sin precedentes históricos.
Thompson aplica esta tesis a la burbuja de la IA, observando que la manía está dirigiendo capital hacia la construcción de nuevas plantas de fabricación de chips (Fabs) y, crucialmente, la infraestructura de Energía necesaria para sostener las demandas masivas de la IA. Estos activos (Fabs, Energía) tienen una vida útil que se extiende por décadas. Aunque el capital especulativo se pierda en el balance de los inversores, deja un legado físico duradero que beneficia a la sociedad durante el posterior “Período de Despliegue.”
Además de la capacidad física, Thompson, citando a Hobart y Huber, subraya que las burbujas sirven como “mecanismos de coordinación” y crean Capacidad Cognitiva. La creencia compartida en el futuro (la manía) hace que “todos tiren en la misma dirección exactamente al mismo tiempo,” lo que reduce el riesgo para los actores que buscan construir partes de esa misma visión. La burbuja dotcom, por ejemplo, forzó innovaciones críticas como XMLHttpRequest (por Microsoft) y llevó a Google a desarrollar el stack x86/Linux que desbloqueó la escalabilidad crítica de la web. En la burbuja de la IA, esto se traduce en la descentralización temporal del talento y la innovación (como se verá con Shazeer), solo para ser reabsorbida posteriormente por los gigantes que buscan la dominación.
Google en la Encrucijada: Estrategia de Redención y Monopolio del Conocimiento
La Fase de Control: El Retiro Estratégico de Gemini/DeepMind
Tras sufrir fallos de alineación de modelos que generaron controversia, Google se enfrentó al imperativo de controlar la narrativa y evitar un retroceso regulatorio, manteniendo la confianza del mercado. La respuesta corporativa ha sido duplicar su compromiso con la seguridad, principalmente a través de la división DeepMind y la implementación de su Frontier Safety Framework. Este marco se centra en la mitigación del misuse (mal uso) y el misalignment (desalineación) del modelo, poniendo especial énfasis en la necesidad de obtener una “buena supervisión” (good oversight) del sistema.
La ambición real de los modelos Gemini no es solo generar respuestas, sino funcionar como agentes de acción. La IA está diseñada para realizar “computer use” (uso de la computadora), como realizar transacciones. Por ello, los guardarraíles implementados son una infraestructura de seguridad diseñada para el despliegue transaccional de la IA en el mundo real. Las mitigaciones incluyen la utilización de listas blancas (allowlist) para dominios permitidos y listas negras (denylist) para acciones riesgosas. Crucialmente, el sistema exige la confirmación humana para pasos críticos como el checkout, el sign-in o el manejo de Información de Identificación Personal (PII). Esta exigencia es una aceptación del riesgo de que la IA se convierta en un agente activo que requiere de salvaguardias legales y técnicas antes de su despliegue masivo.
La estrategia de Google opera bajo una disonancia: despliega el Frontier Safety Framework, que implica un proceso lento y cauteloso, para calmar a los reguladores y al público, mientras que, simultáneamente, presiona con la monetización más agresiva de su historia (AI Overview) para satisfacer a Wall Street y competir contra OpenAI. La seguridad, en este contexto, funciona como una infraestructura regulatoria que permite un despliegue tecnológico más agresivo.
AI Overview: La Reinvención del Monopolio de la Información
El despliegue de AI Overview, que resume la información directamente en la página de resultados de búsqueda, alimentaba temores de que colapsaría el modelo publicitario de Google al eliminar la necesidad de un click. Sin embargo, Google ha afirmado que los resultados con AI Overviews generan ingresos publicitarios iguales a los resultados de búsqueda tradicionales. Esta afirmación se basa en la medición del “valor de negocio” general generado por el AI Overview, en lugar de métricas individuales como la tasa de clics (CTR). La compañía ha expandido activamente la publicidad de AI Overview a mercados de escritorio e internacionales.
La evidencia de terceros sugiere que esta afirmación es plausible. Un análisis de Semrush sobre palabras clave antes y después de la implementación de AI Overviews encontró que la tasa de cero-clics disminuyó ligeramente (de 38.1% a 36.2%). Esta reducción sugiere que AI Overview está curando la intención del usuario de manera efectiva. El valor reside en que el modelo, al citar fuentes (o mostrar anuncios), dirige clics altamente calificados y convierte la intención de búsqueda en una acción más rápida, lo que beneficia el valor publicitario total.
Para los anunciantes, la estrategia cambia drásticamente. El valor del marketing ya no reside solo en competir por los rankings tradicionales, sino en “ganar un puesto en la respuesta misma de la IA”. Al dictar qué contenido merece ser legitimado como “la respuesta,” Google no debilita su monopolio, sino que lo transforma. Consolida su posición como la capa de conocimiento esencial, obligando a los creadores de contenido a someterse a las nuevas reglas de la IA para obtener visibilidad, asegurando así su posición dominante en la próxima era de la información.
El Retorno del Arquitecto: Cultura, Control y Noam Shazeer
La Semilla del Transformer y la Fricción Cultural
El regreso de Noam Shazeer a Google es el epítome de la re-centralización del talento forzada por la burbuja y la necesidad estratégica. Shazeer es una figura monumental en la IA, reconocido como co-autor del paper de 2017 que introdujo Transformer, la arquitectura fundamental que sustenta todos los Modelos de Lenguaje Grande modernos.
Su partida de Google en 2021 fue una consecuencia directa de la cautela corporativa. Shazeer y su equipo dejaron la compañía después de que Google se negara a lanzar su chatbot al público, priorizando la precaución. Shazeer había estado en Google durante casi dos décadas, pero su motivación para irse era llevar la tecnología “allá afuera a miles de millones de usuarios”, frustrado por trabajar solo en “pequeñas características dentro de una compañía mucho más grande”.
En este punto, la burbuja demostró su valor como “mecanismo de coordinación” de la Capacidad Cognitiva. La manía especulativa financió Character.AI, la empresa que Shazeer co-fundó. Esta empresa prosperó a la velocidad de una startup, desarrollando externamente la tecnología de conversación y la experiencia de usuario que Google, debido a su cultura interna de cautela, no pudo generar con la rapidez necesaria.
El Precio del Talento: La Recompra Coordinada
La necesidad de Google de recuperar este talento para potenciar Gemini se manifestó en una transacción astronómica. En agosto de 2024, Google anunció un acuerdo de licencia de $2.7 mil millones con Character.AI, lo que precipitó el regreso de Shazeer. Al ser dueño de una parte significativa de la empresa (estimada entre el 30% y el 40%), Shazeer embolsó entre $750 y $1000 millones, un claro incentivo para su retorno.
Shazeer regresó para co-liderar el proyecto Gemini como líder técnico, junto a figuras clave como Jeff Dean y Oriol Vinyals. Este ciclo de innovación es completo: la burbuja permitió que el talento clave se fuera y creara la capacidad cognitiva que faltaba, y luego forzó al gigante a re-adquirir esa capacidad a un precio que confirmó su valor estratégico. La especulación descentralizó la innovación para luego ser re-centralizada por el actor dominante, demostrando la tesis de que la burbuja funciona como un violento, aunque efectivo, mecanismo de coordinación de capital y talento.
El Conflicto Interno Silenciado y la Tensión Ideológica
La reintegración de Shazeer, cuya visión prioriza la funcionalidad y se muestra públicamente pragmática sobre la AGI, introduce una inevitable tensión ideológica con la cultura de seguridad de DeepMind.
A pesar de este potencial choque de culturas, el conflicto interno parece haber sido gestionado y contenido. Los informes internos confirman que, desde su regreso, Shazeer ha mantenido una conducta profesional y constructiva, enfocándose en la estrategia de desarrollo y refrenándose de publicar comentarios “inflamatorios o divisivos” en los foros internos. (NdR: no es lo que sugieren algunos artículos, como el de The Information, ni ciertos posts en X. Quien sabe, quizás aquí aparecen los nuevos “guardrails” de Gemini, tal como por alguna intrigante razón OpenAI impone restricciones al intentar responder sobre algunas personas de la industria de Silicon Valley).
Google, por lo tanto, no solo pagó $2.7 mil millones por la tecnología y la licencia; pagó para reintegrar al genio bajo términos de control de discurso y enfoque operativo. Su rol como líder técnico maximiza su impacto técnico, asegurando la velocidad del desarrollo de Gemini, mientras que los procesos de revisión internos minimizan su influencia cultural en el debate ético y de alineación. Esto subraya que, en la carrera por la supremacía de la IA, la funcionalidad y la velocidad han sido priorizadas, incluso a costa de una potencial diversidad de voces internas en el debate sobre la cautela ética.
Conclusión: El Contrato Social de la Velocidad
Síntesis Estratégica: El Imperativo de la Instalación Final
La actual manía de la IA ha demostrado ser un catalizador costoso pero efectivo para la próxima era tecnológica. Google, operando bajo la inmensa presión de la burbuja, ha ejecutado un pivot estratégico que entrelaza la máxima funcionalidad (encarnada por Shazeer y el despliegue agresivo de AI Overview) con un marco de seguridad de alto nivel (el Frontier Safety Framework de DeepMind). Esta agresividad no es un error, sino una respuesta directa al miedo de perder la carrera. Al igual que en la era dotcom, este miedo ha forzado las inversiones en infraestructura y las decisiones de talento necesarias para asentar la base de la próxima revolución.
La evidencia demuestra que la burbuja, con su quema de caja de miles de millones de dólares (como se vio en el ratio de pérdida de 314% de OpenAI), está financiando los activos de larga duración (Energía y Fabs) que serán necesarios para el despliegue global de la IA. El capital especulativo, aunque volátil, está dejando un legado físico superabundante, un costo que Thompson considera esencial para pasar del periodo de Instalación al periodo de Despliegue.
La Mirada Humana: El Costo del Exceso
Si bien se debe reconocer la utilidad estructural del exceso—que la burbuja acelera la innovación y la construcción de infraestructura—, también es crucial observar el precio humano y cultural que se paga. El costo de la velocidad se manifiesta en la tensión entre la urgencia de la funcionalidad (la visión pragmática de Shazeer) y la necesidad de la alineación ética (el mandato de DeepMind).
El control de discurso impuesto en el regreso de Shazeer es un recordatorio de que, en esta guerra por la supremacía, el costo de la velocidad es la centralización del poder y, a veces, el sacrificio de la diversidad de voces. Se compra el talento, pero también se controla la cultura interna (NdR: o no).
La otra implicación social clave es la consolidación del poder del conocimiento. Al afirmar que AI Overview genera ingresos publicitarios iguales a los resultados tradicionales, Google no solo refuerza su modelo de negocio, sino que establece un nuevo estándar de autoridad. Al dictar qué contenido merece ser “la respuesta,” se consolida como el único árbitro de la verdad en línea. La infraestructura ética debe ser tan robusta como la infraestructura física. La verdadera prueba de esta burbuja no será cuándo estalla, sino qué queda después de la purga. El desafío para la sociedad es insistir en que el legado de esta manía especulativa sea una infraestructura al servicio de todos, y no simplemente una infraestructura de poder inquebrantable.
Fuentes citadas
The AI Enigma: Is the Market on the Brink of a Bubble Burst or a New Era of Growth?
AI Sector Grapples with Sky-High Valuations Amidst Mounting ‘Bubble’ Fears
Gemini 2.5 Computer Use: Best Practices & Limitations for 2025
Google Claims AI Overviews Monetize At Same Rate As Traditional Search
Semrush AI Overviews Study: What 2025 SEO Data Tells Us About Google’s Search Shift
Noam Shazeer: The 100 Most Influential People in AI 2023 | TIME
No Priors 🎙️112: Noam Shazeer, Founder and CEO of Character.AI (TRANSCRIPT)
Noam Shazeer returns to Google to co-lead Gemini AI project | Ctech
Google’s $2.7 Billion AI Hire Maintains Respectful Discourse Amid Squelched Controversy


