Un móvil de gama baja hace normalmente todo lo que necesitamos. Un móvil de gama alta simplemente lo hace más rápido y más vistosamente. Un coche familiar nos lleva perfectamente de un lado a otro, pero la experiencia es distinta y mejor en un coche de lujo. La economía contemporánea nos ha enseñado como la vida puede funcionar a dos velocidades, y con la IA está pasando exactamente lo mismo.
(Foto: Shutterstock).
Ayer, DeepMind anunciaba la disponibilidad de Gemini 2.5 Flash Lite, un modelo de razonamiento, según la empresa, "para aquellos que buscan bajo costo y latencia". No es el modelo más potente de Google ni mucho menos, pero sí que es una cosa: barato. Cuesta entre tres y seis veces menos que su modelo estándar, Gemini 2.5 Flash, y eso hace que más que nunca se confirme una tendencia clara.
Desde que comenzaran a comercializarse los modelos de IA fuimos viendo cómo teníamos una IA a dos velocidades. Por un lado, los chatbots gratuitos o muy baratos -incluso locales- con modelos "carne picada" para las grandes masas. Por otro, los chatbots súper potentes y capaces, los más avanzados y también los más caros.
Esa división se fue agrandando con el tiempo. Los planes de IA de 20 dólares por mes se han convertido ya en planes "gama media" para los usuarios. Ahora estamos viviendo un claro fenómeno en el que si queremos lo mejor, tendremos que pagar mucho por ello. Los modelos más avanzados de OpenAI y de Google cuestan 200 y 250 dólares al mes respectivamente. Antes teníamos móviles superpremium, ahora tenemos IAs superpremium.
De todos modos, los modelos gratuitos, los que usan la inmensa mayoría de los usuarios, son fantásticos para muchos escenarios y cumplen sobradamente sus necesidades. Aquí nos hemos beneficiado de un mercado ultra competitivo: las empresas de IA han tenido que ofrecer cada vez mejores prestaciones en sus plataformas gratuitas para que no huyéramos a usar otras que hacían lo mismo de forma gratuita o más barata.
Hace unos días, OpenAI recortaba en un 80% el precio de o3 y ofrecía su versión avanzada, o3 Pro. Este último es un modelo aún más capaz, pero también es 10 veces más caro que el modelo o3 estándar. Está destinado a usuarios muy específicos que sacan todo el jugo a estos modelos con prompts y contextos muy detallados. O3 Pro no es de gran ayuda para las consultas típicas (a menudo no demasiado específicas) que realizamos en ChatGPT, por ejemplo. Esa tendencia al abaratamiento de la IA es constante.
Lo contrario también es cierto: el costo de la inferencia no para de bajar, pero el acceso a los mejores modelos podría encarecerse aún más. Sobre todo si, como parece, las empresas que los ofrecen los plantean como sustitutos de empleados humanos. Sam Altman ya señaló que un agente de IA superavanzado, con la capacidad de un doctorado humano, no saldrá por 200, sino por 20.000 dólares al mes. Pero si cumple con las expectativas -y como siempre, incertidumbre máxima aquí, Altman es especialista en generar expectativa-, esa IA será capaz de hacer el trabajo de muchísimos empleados, y hacerlo además de forma constante.
También estamos viendo cómo esos modelos ultrapremium son los que dan acceso a características que consumen muchos recursos, como la espectacular capacidad de generación de vídeo de Veo 3. Aunque es posible generar unos pocos vídeos con las cuentas "gama media" de Google, para usar esa opción de forma mucho menos limitada podemos anotarnos en el plan Google AI Ultra, de 250 euros al mes.
Como sea, esa IA para pobres y para ricos provocará una nueva brecha digital. Quienes puedan pagar los mejores modelos de IA podrán hacer más cosas y mejor -si realmente le sacan el jugo- que aquellos que tan sólo tienen acceso a modelos gratuitos o baratos. No habrá igualdad de oportunidades para unos y otros. Podríamos ver algo así con el acceso a los prometedores agentes de IA, que serán especialmente intensivos en consumo de recursos pero teóricamente también harán muchas cosas por nosotros de forma autónoma... pero no por los que no puedan pagar por ellos.
(Fuente: Xataka)