La carrera por la inteligencia artificial está tomando formas cada vez más distintas y entrelazadas. Por un lado, grandes nombres buscan fortalecer sus posiciones mediante alianzas estratégicas; por otro, se abre la puerta a infraestructuras abiertas que permiten a empresas construir soluciones a medida. Todo ello mientras los navegadores exploran la IA como una opción, no como un requisito, y la conversación sobre el costo de la memoria y la ejecución local de IA empieza a cambiar la forma en que se negocian precios y margenes en la industria.
La noticia más notable llega desde la tirolesa de inversiones entre gigantes de la IA: OpenAI está negociando con Amazon una alianza que implicaría una inversión de 10.000 millones de dólares. En la operación, Amazon vendería a OpenAI sus chips Trainium y le alquilaría capacidad de cómputo en sus centros de datos para ampliar la ejecución de modelos y servicios como ChatGPT. Para OpenAI, se trata de asegurar recursos para seguir creciendo; para Amazon, de reforzar su ecosistema de IA y su capacidad de cómputo en la nube. Este tipo de movimientos refuerza la idea de una financiación circular en la que actores de distintos frentes se apoyan entre sí, en lugar de competir de forma aislada.
La historia de alianzas no se queda ahí. Microsoft, NVIDIA y Google también han participado en inversiones vinculadas a Anthropic, y AWS ya había firmado un acuerdo con OpenAI por 38.000 millones de dólares, subrayando que estas redes de cooperación están cobrando una inercia notable. En ese contexto, las grandes tecnológicas suman fichas para permanecer fuertes ante un paisaje que favorece a quienes controlan tanto la infraestructura como el desarrollo de modelos de IA.
En paralelo, NVIDIA ha presentado Nemotron 3, una familia de modelos de IA orientada a infraestructuras abiertas. Su propósito es claro: permitir a las empresas construir aplicaciones de IA propias sin depender de proveedores de modelos cerrados. La oferta se desglosa en tres versiones —Nano, Super y Ultra—, cada una con distintos niveles de parámetros y capacidad de contexto. Lo más disruptivo es la arquitectura híbrida MoE, que combina capas Mamba, transformers y ruteo por expertos, buscando eficiencia, razonamiento sólido y escalabilidad.
La apertura es un pilar clave. NVIDIA no solo comparte pesos, sino también datos de entrenamiento (más de 3 billones de tokens) y bibliotecas de refuerzo y evaluación. Además, pone a disposición herramientas como NeMo Gym para entrenar y verificar tareas de forma automática, y NeMo RL para aprender mediante recompensas verificables. El objetivo es que las empresas puedan ejecutar y adaptar agentes de IA en sus propios entornos, reduciendo la dependencia de servicios externos y de modelos cerrados. Aunque Nemotron 3 Nano ya está disponible en plataformas como Hugging Face, las versiones Super y Ultra llegarán en la primera mitad de 2026. El coste de Nano empieza en tarifas atractivas por millón de tokens, lo que refuerza la idea de una solución rentable para despliegues a gran escala.
En el frente del navegador, Mozilla ha presentado AI Window, una función pensada para ofrecer un espacio inteligente de IA dentro del navegador, de uso opcional y fácilmente desactivable. El nuevo CEO afirma que la meta es convertir a Mozilla en la empresa de software más confiable del mundo y que la IA debe permanecer como una opción para el usuario. Este movimiento sitúa a Mozilla en la conversación sobre cómo incorporar IA sin sacrificar la confianza y la privacidad del usuario en un terreno competitivo entre navegadores.
Por último, la historia de los precios de los dispositivos no queda fuera. Se comenta que la subida de precios de las memorias RAM podría afectar a productos como el iPhone, pero algunos informes señalan que Apple podría esquivar alzas significativas en el corto plazo gracias a sus márgenes y a su estrategia de ejecución local de IA. Counterpoint señala un alza global de precios de smartphones en 2026, aunque Apple podría estar mejor posicionada para evitar subidas grandes, al menos de manera inmediata. En Apple Intelligence, la ejecución mayoritaria en dispositivos ayuda a preservar la privacidad, pero la presión de costos en memorias y la demanda de IA podrían, a largo plazo, influir en precios. En contraste, Google tiende a basar más IA en la nube, reduciendo la demanda de memorias en los dispositivos.
En conjunto, estos movimientos muestran un ecosistema tecnológico que ya no depende de una sola vía: se tejen alianzas, se abren plataformas y se busca la autonomía operativa. Es un momento de gran complejidad y oportunidades: una era en la que la rapidez de la innovación pasa por la capacidad de colaborar, personalizar y controlar la infraestructura, sin perder de vista la confianza del usuario y la eficiencia de costos.