💸 E5-T3: Una paradoja de 1865 y una relación tóxica que nos hace infelices en 2025
«La responsabilidad es el precio de la grandeza» — Winston Churchill ✍️
Se cumple una semana de la mayor pérdida de valor bursátil de la historia: La valoración de Nvidia cayó en más de 600.000 millones de dólares. ¿Por qué? ¿Ha sobre-reaccionado el mercado a la irrupción del modelo R1 de DeepSeek? Eso y mucho más... En esta edición, ¡empezamos! 💙
🤖 Tech Lab
Fenómeno DeepSeek: ¿Detonante para la adopción masiva de la Inteligencia Artificial Generativa o la aguja que podría pinchar una burbuja en el sector? 🎈
¡Salta la sorpresa en Las Gaunas! Soy víctima de la actualidad y hoy tenemos que hablar del modelo de Inteligencia Artificial “DeepSeek-R1”. Pero antes de empezar, quiero compartir contigo las fuentes y recursos que más me han ayudado a entender mejor toda esta cadena de sucesos:
Análisis de Dario Amodei (CEO de Anthropic): “On DeepSeek and Export Controls”
Análisis de
(CEO de Brain And Code): “Nvidia, OpenAI y la tormenta DeepSeek” (Webinar)Análisis de Carlos Santana Vega (DotCSV): “¿Ha estallado la burbuja de la IA? DeepSeek y la caída de Nvidia”
Ahora ya podemos presentar a nuestro gran protagonista.
DeepSeek es un laboratorio de Inteligencia Artificial que tiene ciertos paralelismos con los orígenes de OpenAI. Es una startup china fundada por Liang Wenfeng, cofundador también de High-Flyer, el fondo de inversión que financia toda la actividad del laboratorio.
¿Por qué tenemos esta estructura? Porque DeepSeek opera como una organización académica centrada exclusivamente en la investigación y no depende de otros inversores externos.
¿Qué han conseguido? Crear y compartir públicamente (tiene licencia de software MIT) un gran modelo de lenguaje (LLM) que razona y devuelve resultados de una calidad “similar” a los del modelo o1 de OpenAI.
¿Por qué ha resonado tanto? Porque hasta ahora hablar de entrenar un LLM muy potente significaba hablar también de invertir miles de millones de dólares. Pero en DeepSeek afirman haber invertido “apenas” 6 millones para desarrollar “DeepSeek-R1”.
¿Cómo lo han conseguido? Exprimiendo la parte del software, innovando en técnicas de entrenamiento y superando las limitaciones de hardware a las que se enfrentaban (Estados Unidos tiene vetadas las exportaciones de semiconductores a China).
Efectivamente, estamos ante una discusión sobre eficiencia (mejor software vs más hardware) y aquí las primeras señaladas han sido las empresas que venden esos “hierros” tan caros que parecían imprescindibles para seguir mejorando los modelos de Inteligencia Artificial Generativa. ¿Magnitud de la incertidumbre? Mayor caída de la historia en la capitalización bursátil de un empresa: Nvidia “quemó” 600.000 millones de dólares de valor en un solo día (27/01/2024).
En medio de este caos aparece Satya Nadella (CEO de Microsoft) y comparte su más que esperada reacción al cataclismo del sector: “Paradoja de Jevons”. El bueno de Satya solo tuvo que publicar esas tres palabras para dejar clara su opinión: El mundo estaba sobre-reaccionando a la publicación de DeepSeek-R1.
Ahora nos vamos al año 1865. William Stanley Jevons es un economista inglés que estudia las consecuencias económicas de una mayor eficiencia en el uso de determinado recurso. El resultado fue el nacimiento de la “Paradoja de Jevons”:
Un gran incremento en la eficiencia de la utilización de un recurso suele llevar, paradójicamente, a un mayor consumo final del recurso. No a un menor uso.
La “Paradoja de Jevons” defiende que abaratar la producción o el consumo de un recurso no reduce su demanda, más bien lo contrario, provoca que se dispare. ¿Por qué? Porque la hace más accesible para un público más grande. Este principio se ha visto aplicado históricamente en casos como el hierro y la electricidad. Ahora, después de descubrir que entrenar LLMs “potentes” de manera más eficiente es posible, quizás lo veamos en el sector de la Inteligencia Artificial Generativa.
Si creemos en la lógica de la “Paradoja de Jevons”, podríamos esperar una secuencia similar a esta:
Una mayor eficiencia en técnicas de entrenamiento abaratará el coste de desarrollar modelos (LLMs).
Esto provocará un auge de nuevos proyectos, aumentará la competitividad y ayudará a que se desarrollen mejores productos para el cliente final.
Esto provocará una adopción masiva de la tecnología y el cliente querrá más y mejores productos.
Esto incrementará la demanda de los recursos necesarios para entrenar los modelos que hacen posible los productos que el cliente quiere.
Y querido lector, hoy por hoy, esos recursos tan necesarios siguen siendo los famosos “hierros” que vende Nvidia. Aunque el futuro a medio-largo plazo siempre será impredecible, más en una industria tan nueva como esta.
DeepSeek ha demostrado que las inversiones millonarias en hardware de las grandes empresas tecnológicas no están justificadas per se. Ahora es suya la responsabilidad de demostrar al mercado que esas inversiones (potencia de computación) marcarán la diferencia cuando se combinen con estas mejores prácticas de software (eficiencia).
El primer paso de la lógica de la “Paradoja de Jevons” parece que ya está en marcha. Mark Chen, director jefe del equipo de investigación de OpenAI, ha felicitado a DeepSeek por sus “hallazgos” y ha comunicado que en OpenAI ya están trabajando en aprovechar estas dos palancas de crecimiento: técnicas para entrenar sus modelos de manera más eficiente (mejor software) y mayor capacidad de computación (más hardware) para soñar con los mejores resultados posibles. Súper interesante su hilo X/Twitter.
¿Crees que se cumplirá la “Paradoja de Jevons”? 🥶
Enlace de interés:
📊 Esto me interesa
La importancia de poder desapegarte de las cosas: la sobre-dependencia del coche te puede “conducir” a una vida más triste 🚗
Este estudio me ha parecido muy curioso: “Does Car Dependence Make People Unsatisfied With Life? / ¿La dependencia del coche nos hace sentirnos menos satisfechos con nuestra vida?” Empecemos con datos que ilustran la relevancia del coche en la rutina de la vida moderna.
El 92% de los hogares de Estados Unidos tiene al menos un vehículo.
El 87% de los estadounidenses utiliza el coche a diario.
El 69% de los trabajadores estadounidenses acude a su puesto en coche. El 3% acude en transporte público.
En 2022 se batió el récord de número de vehículos recorriendo las carreteras de Estados Unidos: Casi 300 millones.
Después de estos números no hace falta explicar que en Estados Unidos el concepto de movilidad urbana se ha construido históricamente en torno al coche. De hecho, disponer de tu propio coche se ha convertido en un requisito casi obligatorio para poder participar en la vida social y laboral. Sin embargo, parece que tanto tiempo dedicado a desplazarse en coche tiene un coste emocional y económico importante: una importante disminución de nuestra satisfacción personal.
Este estudio publicado en ScienceDirect contradice la creencia habitual de que tener un coche sólo aporta ventajas. Pero como con casi todo en esta vida, cuando un recurso útil se convierte en un algo indispensable, en una obligación permanente, parte de lo positivo se transforma en algo negativo.
Según sus datos, este efecto negativo aparece cuando necesitamos coger el coche, por lo menos, la mitad de las veces que nos movemos para realizar una actividad fuera de nuestra casa. Es decir: empezamos a ser más infelices cuando el uso del vehículo deja de ser ocasional y se convierte en la única opción disponible. ¿Qué está detrás? El estrés de sufrir problemas de tráfico, la falta de ejercicio físico por estar mucho tiempo sentado y una vida social más limitada por tener invertir que invertir tantas horas en tu coche.
Estados Unidos es un país donde nunca se ha priorizado la diversificación de medios de transporte. Sus políticas se orientan habitualmente a ampliar las infraestructuras viales y no se suelen crean tantos espacios para peatones, ciclistas o usuarios del transporte público. Este tipo de estudios puede ayudar a concienciar sobre la importancia de apostar por modelos urbanísticos que no se centren únicamente en el vehículo privado. A la larga las personas preferimos vivir en entornos más limpios, bien comunicados, sanos y accesibles más allá del coche. Aunque seas un amante de los audiolibros, un melómano o un “friki” del automovilismo, a nadie le gusta perder varias horas del día dentro del coche.
Enlace de interés:
📷 Portada de la semana
Vaya “días de perros” hemos tenido para despedir enero: frío, lluvia y sobre todo mucho, mucho viento. Menos mal que ya se ha ido Herminia. Estos días grises cada vez influyen más en mi estado de ánimo. Un gran problema teniendo en cuenta mi obsesión por los países nórdicos. A veces no me queda otra que admitir que soy una incoherencia con patas. Aprovecho la reflexión para devolverte la pregunta: ¿cuánto te afecta a ti el tiempo (meteorológico)? Si te parece, intentemos remontar recurriendo a la vieja confiable, es decir, fotos bonitas de animales. He encontrado un oasis de paz en la cuenta de Instagram de Chad Staples, responsable de tres de los principales parques de fauna salvaje en Australia. Échale un vistazo a zookeeper_chad y me dices cual es tu foto favorita. Yo, sin duda, me quedo con esta 🤭
Enlace de interés:
📽️ Rincón de pensar
Una herramienta de Inteligencia Artificial donde puedo pasarme horas “jugando”, dos lanzamientos de los que apenas se habla por “culpa” del fenómeno DeepSeek y un melodrama deportivo que está más vivo que nunca 🏀
Durante las últimas semanas he “trasteado” mucho con herramientas de Inteligencia Artificial para generación de vídeo. Creo que estamos viviendo el momento de “productivización” de estos modelos. Los casos de uso están ahí y los modelos empiezan a ser lo suficientemente buenos como para conseguir resultados impresionantes. Pero aún queda mucho recorrido en el camino de la eficiencia de estos modelos para ampliar masivamente su accesibilidad. De todos modos, utilizar Sora de OpenAI (aunque tenga que ser a través de VPN para evitar el “veto” europeo) es un auténtico gustazo. Opino que le ha sentado muy bien la independencia de ChatGPT y tener su propia interfaz web. Más allá de memes en X/Twitter, creo que aún no se han popularizado lo suficiente las generaciones de un tono más “realista”. Se pueden conseguir muy buenos resultados con estas herramientas. Voy a intentar aportar mi granito de arena para esta misión 👏
Prompt:
“A moody, cinematic video of a vintage pirate cutter gliding through narrow Norwegian fjords on a dark, rainy day. Mist hangs above the water and partially obscures the towering mountains. The camera captures both close-ups of the ship’s prow slicing through the choppy water and wide shots showcasing the grand scale of the fjord cliffs. The scene feels majestic and haunting, with cool, desaturated colors and soft, diffused lighting.”
Output de Sora:
Esta semana me estoy arriesgando mucho. Puedo provocarte una sobredosis de contenido sobre Inteligencia Artificial, lo sé. Paciencia, ya acabamos. Pero es el ritmo al que tenemos que movernos si queremos estar al día de las novedades que nos regala la carrera espacial del siglo XXI. Con toda la repercusión mediática de DeepSeek y su modelo R1, apenas se ha hablado de dos lanzamientos muy interesantes que reafirman a los Agentes de Inteligencia Artificial como una de las principales tendencias de este 2025. OpenAI ha presentado Operator, su agente de IA capaz de realizar tareas autónomamente dentro de tu navegador web y Perplexity ha lanzado su asistente de voz para que utilices tu móvil de manera más rápida y eficiente. Dos productos diferentes pero con una misma dirección: resolución de tareas “encadenadas” y asistencia más personalizada. Este vídeo de Jon Hernández resume muy bien estas dos novedades. Palomitas y a disfrutarlo 🍿
Es momento de relajarse y disfrutar de un podcast más distendido. Sabes que no puedo evitar satisfacer a mis compañeros de hobby y darles de vez en cuando un poquito de contenido de "Ba-lon-ces-to” (como diría el gran Pepu Hernández). He disfrutado muchísimo de esta entrevista a Scottie Pippen. El eterno “Robin” de Michael Jordan es un auténtico personaje (en lo bueno y en lo malo). Su papel fue clave para conseguir los ya míticos seis anillos de los Chicago Bulls. La historia de aquel equipo es tan perfecta que casi parece guionizada. Demasiado épica para ser cierta, pero lo es. Quizás por eso el documental “The Last Dance” es tan, tan maravilloso. Pero desde entonces, el bueno de Scottie mantiene una guerra abierta con Jordan y reivindica su importancia en aquellos campeonatos. ¿Habría ganado Michael Jordan tantos campeonatos sin Scottie Pippen a su lado? Un melodrama que me sigue enganchando 🤭
🏆 ¿Qué sección te ha gustado más esta semana?
Quiero que sepas que tu opinión me importa mucho. Votando en esta encuesta me ayudas a saber que secciones gustan más y cómo mejorar el contenido de la Newsletter. Juntos la llevaremos a otro nivel, ¡muchas gracias y feliz semana! 💙
No tengo claro si se cumplirá la Paradoja de Jevons. Todo apunta que sí, pero, como bien dices, nunca se sabe.
En cualquier caso, sí que me parece "justificada" la caída de NVIDIA en bolsa, ya que a corto/medio plazo, va a ser más difícil justificar nueva inversión en hardware para determinadas empresas, aunque a medio/largo plazo se terminara cumpliendo la Paradoja de Jevons. Dicho de otro modo, los inversores que realmente mueven pasta en el mercado, retiraron rápidamente posiciones de NVIDIA (lo que supuso un efecto contagio). Seguramente muchos de los que inicialmente retiraron posiciones hayan vuelto, y muchos otros lo harán próximamente. Más de uno puede haberse hecho de oro con este simple movimiento.