
El cambio de estrategia de las empresas de Inteligencia Artificial para cobrar más

Muy probablemente usted ya haya usado alguna herramienta de Inteligencia Artificial en los últimos meses, como Chat GPT, Claude, Gemini, Grok o Copilot. Y si su uso es un poco más avanzado, quizá también haya probado agentes de IA: programas capaces de encadenar pasos por su cuenta para investigar, programar, redactar documentos o navegar por internet con menor supervisión humana. En otras palabras, inteligencias artificiales que no solo «responden preguntas»; también empiezan a ejecutar tareas por su cuenta.
Si usted sigue de cerca la conversación tecnológica, sabrá que la IA generativa no solo promete productividad: también exige una enorme infraestructura. El proceso de «inferencia» —el momento en que un modelo ya entrenado genera una respuesta a una petición nueva— consume cómputo, electricidad y agua para enfriamiento en centros de datos. La Agencia Internacional de Energía proyecta que el consumo eléctrico de los centros de datos pasará de 415 TWh en 2024 a unos 945 TWh hacia 2030, y que la IA será el principal motor de ese crecimiento.
Pero más allá del debate ambiental o laboral, hay una pregunta más inmediata: ¿es este negocio rentable? La respuesta, al menos en los términos en que se popularizó la IA para el público masivo, es que todavía no. El problema no es la «burbuja» en abstracto de la que tanto se ha hablado en los últimos meses, sino algo más concreto: durante varios años, las empresas ofrecieron herramientas de IA muy poderosas a precios que no reflejaban su costo real de operación, especialmente cuando los usuarios hacían consultas largas y complejas, usaban agentes, procesaban archivos o lanzaban tareas complejas de investigación y programación. Los «tokens» —los fragmentos de texto que los modelos procesan y que suelen usarse para medir uso y costo— se volvieron la unidad económica detrás de esta industria.
Los datos públicos disponibles apuntan en esa dirección. OpenAI cerró 2025 con cerca de 13 mil millones de dólares de ingresos pero más de 8 mil millones en pérdidas operativas, y proyecta que su quema de caja superará los 17 mil millones en 2026. Su margen bruto ajustado cayó a 33% en 2025 desde 40% el año anterior. Documentos internos de Microsoft filtrados por el periodista Ed Zitron revelaron que sólo en los primeros nueve meses de 2025 OpenAI gastó 8.67 mil millones de dólares en inferencia: aproximadamente dos dólares de cómputo por cada dólar de ingreso. Anthropic, por su parte, tuvo que recortar su proyección de margen bruto 2025 de 50% a 40% por sobrecostos de inferencia 23% superiores a lo previsto, según The Information. Ya desde inicios de 2025, Sam Altman había reconocido que su suscripción premium de 200 dólares «estaba perdiendo dinero porque la gente la usaba más de lo esperado». Nick Turley, jefe de Chat GPT, lo dijo más directo en abril de 2026: «Es posible que en la era actual, tener un plan ilimitado de IA sea como tener un plan ilimitado de electricidad. Simplemente no tiene sentido.»
Entonces, ¿por qué seguir perdiendo dinero? Porque en tecnología muchas empresas aceptan márgenes débiles o pérdidas temporales para crecer primero y cobrar mejor después (la estrategia de Uber, Amazon o Netflix).
Esa etapa de subsidios ya empezó a mostrar límites concretos. El 28 de julio de 2025 Anthropic anunció límites semanales de uso para sus planes Pro y Max —vigentes desde el 28 de agosto— citando demanda «sin precedentes» y casos de usuarios que mantenían procesos corriendo 24/7. Quien pagaba 200 dólares al mes por el plan más caro descubrió, sin previo aviso, que su acceso «ilimitado» tenía un techo. La empresa también empezó a ofrecer «uso extra» de pago para seguir trabajando después de topar los planes incluidos.
OpenAI fue todavía más lejos: el 9 de febrero de 2026 lanzó oficialmente publicidad dentro de Chat GPT en sus planes Free y Go, una decisión que años atrás Sam Altman había rechazado públicamente. Una filtración de Axios reveló que OpenAI proyecta a sus inversionistas pasar de 2.5 mil millones de dólares en ingresos publicitarios en 2026 a 100 mil millones en 2030, con escalones de 11 mil millones en 2027, 25 mil millones en 2028 y 53 mil millones en 2029. Curiosamente, Perplexity caminó el camino contrario: tras experimentar con anuncios desde finales de 2024, los abandonó en febrero de 2026 al concluir que erosionaban la confianza del usuario.
Y eso importa mucho para quienes ya montaron flujos de trabajo sobre estas herramientas. Cuando una persona o una empresa organiza su productividad alrededor de un agente que automatiza tareas de alto valor, está generando también una dependencia comercial. No significa que mañana todo vaya a dispararse de precio de manera drástica, pero sí que el acceso más intensivo será cada vez más segmentado: planes básicos para uso ligero, niveles premium para usuarios exigentes, cobro por consumo para equipos y empresas, y publicidad para sostener parte del acceso masivo. La barra libre de IA con una tarifa plana relativamente baja empieza a verse menos como regla y más como el final de una primera estrategia de adopción.
Para América Latina este reordenamiento llega con un contexto particular. Según la CEPAL, la región concentra el 14% de las visitas globales a soluciones de IA pero recibe apenas el 1.12% de la inversión global del sector. En México, la encuesta más reciente de la SEP encontró que 97% de los estudiantes universitarios y 93% de los docentes ya usan IA en su trabajo cotidiano. Una decisión de aumentos de precio o disminuciones de calidad tomada en San Francisco se traduce, casi de inmediato, en cambios para millones de usuarios que la usan como herramienta laboral o académica.
A esto se suma la estrategia china. Varios laboratorios chinos han apostado por modelos open-weight, es decir, modelos cuyos parámetros entrenados pueden descargarse para correrlos localmente, afinarlos o adaptarlos —no son productos cerrados como Chat GPT o Claude, pero tampoco implican acceso al código de entrenamiento ni a todos los datos. Deep Seek lanzó V4 Pro en abril de 2026 bajo licencia MIT y con versiones afinadas para chips Huawei Ascend, en respuesta directa a las restricciones estadounidenses a Nvidia. Alibaba distribuye Qwen, que según un reporte reciente de Stanford ya superó a Llama de Meta en descargas acumuladas. Y Kimi K2.6, de la empresa Moonshot, lidera hoy el ranking Artificial Analysis entre modelos abiertos con 54 puntos en su índice general, contra 60 del mejor modelo cerrado, GPT-5.5.
Esto no significa que los modelos abiertos hayan alcanzado por completo a la frontera cerrada estadounidense: la diferencia ronda los 3 a 6 puntos en las principales pruebas estandarizadas, y la experiencia de uso depende de muchas cosas que un benchmark no captura. Pero la distancia se ha reducido lo suficiente como para que correr IA propia, sin pagar API a Estados Unidos, sea cada vez más viable.
De hecho, el cambio más interesante es la posibilidad de correr modelos potentes en hardware accesible. El ingeniero Awni Hannun, de Apple, demostró que DeepSeek V3 —un modelo de 671 mil millones de parámetros, comparable a los modelos más poderosos de EEUU— corre a más de 20 tokens por segundo en una Mac Studio M3 Ultra de unos 14 mil dólares. En paralelo, Apple integra Apple Intelligence en sus dispositivos compatibles, combinando procesamiento local con apoyo en la nube; Microsoft empuja la categoría de Copilot+ PC, equipos con NPUs especializadas para ejecutar funciones de IA sin depender de la nube. No significa que toda laptop traerá mañana un modelo equivalente a GPT-5, pero sí que el monopolio de la nube estadounidense sobre la IA útil empieza a desdibujarse.La conclusión, entonces, no es simplemente que «la IA será más cara», sino algo un poco más preciso: la era de la IA masiva, muy poderosa y aparentemente barata está dando paso a una etapa de monetización más agresiva y más sofisticada. Para el usuario ocasional quizá el cambio sea pequeño. Para quien ya usa estas herramientas como infraestructura de trabajo, el cambio puede ser decisivo. Lo que viene no parece ser el fin de la IA, sino el fin de la ilusión de que podía escalar indefinidamente con precios bajos, límites suaves y subsidios permanentes. A partir de aquí, usar bien la IA no solo será cuestión de saber preguntar y de saber escribir prompts efectivos, sino también de saber cuánto cuesta depender de ella.
ATiempo.Tv es el primer medio de comunicación nativo digital e independiente en Coahuila, caracterizado por su compromiso y responsabilidad de contribuir a la sociedad; brindando información verificada de manera profesional, ética y confiable. Es por eso que te invitamos a seguirnos en nuestras redes sociales para que tengas acceso a las noticias más relevantes a nivel local, nacional e internacional.

