Gemma 4 y Apache 2.0: por qué Google acaba de cambiar las reglas de la IA open source

Gemma 4 y Apache 2.0: por qué Google acaba de cambiar las reglas de la IA open source

Google publica su modelo más potente bajo licencia completamente abierta. No es solo un modelo mejor: es un cambio de estrategia que presiona a Meta, desafía a OpenAI y plantea preguntas sobre el futuro de la IA privada.

El 2 de abril de 2026, Google DeepMind publicó Gemma 4. En circunstancias normales, otro modelo open source más no sería noticia de primera página. Pero Gemma 4 no es circunstancias normales.

Un modelo de 31B parámetros que se coloca como el #3 del mundo en modelos abiertos, supera a modelos 20 veces más grandes en múltiples benchmarks, y se publica bajo Apache 2.0 (la primera vez que Google lo hace con Gemma). Eso es una declaración de intenciones. Google acaba de decirle al mercado: los modelos open source de primer nivel ya no son cosa de startups chinas o de Meta. Son nuestros también, y sin restricciones.

Este artículo analiza qué significa esto para el mercado, quién gana, quién pierde, y qué implica para quien trabaja con IA.

 

Qué ha pasado: Gemma 4 en 30 segundos

Gemma 4 es la cuarta generación de modelos abiertos de Google, construida sobre la misma tecnología que Gemini 3 (su modelo privado). Viene en cuatro tamaños: desde 2B para móviles hasta 31B para estaciones de trabajo. Los números son llamativos: en matemáticas pasó de 20.8% a 89.2% respecto a Gemma 3, en coding de 29.1% a 80%, y en uso de herramientas agentic de 6.6% a 86.4%. Y todo esto bajo licencia Apache 2.0, sin restricciones comerciales.

400 millones de descargas acumuladas de la familia Gemma y más de 100.000 variantes creadas por la comunidad. Google ya no trata los modelos abiertos como un proyecto secundario. Los trata como infraestructura.

 

Por qué Google cambió a Apache 2.0 (y por qué ahora)

Las versiones anteriores de Gemma tenían licencias restrictivas con cláusulas de no competencia, límites de usuarios activos mensuales y restricciones de redistribución. Eran "open weights" pero no "open source" en el sentido real del término. Esto frenaba la adopción empresarial: los equipos legales de las empresas veían la licencia custom y descartaban Gemma por el riesgo jurídico.

El cambio a Apache 2.0 no es casual. Responde a tres presiones:

La presión china. DeepSeek y Qwen (Alibaba) llevan meses publicando modelos competitivos bajo Apache 2.0. Cada modelo que DeepSeek publica con licencia abierta es una demostración de que se puede competir al máximo nivel sin restricciones. Google no podía seguir con licencias restrictivas mientras la competencia china ofrecía lo mismo o más con total libertad.

La presión de Meta. Llama sigue siendo el modelo open más descargado del mundo, pero su licencia custom (que prohíbe el uso a empresas con más de 700 millones de MAU) es una limitación real para grandes empresas. Google vio una oportunidad: ofrecer un modelo de calidad similar o superior a Llama con una licencia genuinamente abierta.

La presión del ecosistema. La comunidad lo pidió explícitamente. Google reconoce en su anuncio: "nos disteis feedback, y escuchamos". Los 100.000 fine-tunes y las 400 millones de descargas demuestran que hay un mercado enorme para modelos abiertos de calidad. Pero ese mercado necesita certeza legal, y Apache 2.0 la proporciona.

 

Qué significa Gemma 4 para Meta y Llama

Llama tiene la adopción. Llama tiene la marca. Llama tiene el ecosistema. Pero Llama tiene un problema que Gemma 4 acaba de resolver: la licencia.

La licencia de Llama prohíbe el uso a empresas con más de 700 millones de usuarios activos mensuales. Eso excluye a Google, Amazon, Apple, Samsung y cualquier otra empresa de escala global. Para startups y empresas medianas no es problema, pero para adopción enterprise a gran escala, es una restricción real.

Gemma 4 bajo Apache 2.0 ofrece una alternativa directa: rendimiento competitivo con Llama 4 en la mayoría de benchmarks, sin ninguna restricción de uso. Si eres una empresa grande evaluando modelos open source para producción, Gemma 4 acaba de convertirse en la opción con menos riesgo legal.

Meta probablemente responderá. Puede ajustar su licencia, lanzar una versión de Llama bajo Apache 2.0, o diferenciarse por otras vías (mejor rendimiento, mejor ecosistema de herramientas). Lo que no puede hacer es ignorar que Google acaba de eliminarse como competidor en el frente de licencias.

 

Qué significa para OpenAI y Anthropic (los modelos cerrados)

Para los proveedores de modelos cerrados (OpenAI, Anthropic), Gemma 4 representa un tipo de presión diferente: la presión del "suficientemente bueno gratis".

Claude y GPT-5 siguen siendo superiores en calidad absoluta, especialmente en tareas complejas, consistencia y herramientas integradas. Eso no cambia con Gemma 4. Pero para un porcentaje creciente de casos de uso, Gemma 4 es suficientemente bueno. Y "suficientemente bueno" a coste cero (modelo gratuito, ejecución en hardware propio, sin suscripción mensual) es un argumento poderoso.

Un informe de Databricks de 2026 indica que más del 75% de las empresas ya usan dos o más familias de modelos en producción, mezclando open source y privados según coste, rendimiento y privacidad. La tendencia es clara: los modelos privados se usan para las tareas difíciles que justifican el precio, y los modelos open source cubren todo lo demás.

Gemma 4 no va a hacer que nadie cancele su suscripción a Claude o ChatGPT mañana. Lo que hace es ampliar el territorio donde los modelos open source son una opción viable, reduciendo el porcentaje de tareas por las que merece la pena pagar un modelo privado.

 

El problema de la eficiencia: modelos pequeños que compiten con gigantes

El dato más relevante de Gemma 4 no es ningún benchmark individual. Es que un modelo de 31B parámetros está compitiendo con modelos de 400B+. Eso rompe una narrativa que ha dominado la IA durante años: que más grande es siempre mejor.

El 26B MoE es todavía más llamativo: solo activa 3.8B parámetros por token, pero rinde cerca del 31B Dense. Eso es inteligencia bajo demanda: el modelo tiene acceso a 26B parámetros de conocimiento pero solo usa los relevantes para cada tarea.

Esto tiene implicaciones prácticas enormes. Si un modelo de 31B puede hacer el trabajo de uno de 400B, el hardware necesario para ejecutar IA de primer nivel baja drásticamente. Ya no necesitas un clúster de GPUs H100 para tener un modelo serio. Una sola RTX 4090 (una tarjeta gráfica de consumo) puede ejecutar Gemma 4 31B cuantizado.

La eficiencia por parámetro es donde se va a librar la verdadera batalla de la IA en los próximos años. No quién tiene el modelo más grande, sino quién consigue más inteligencia por watio consumido y por euro gastado en hardware.

 

La carrera de los cuatro: Google, Meta, DeepSeek y Alibaba

El panorama de modelos open source en abril de 2026 es una carrera a cuatro bandas:

Google (Gemma 4): Apache 2.0, eficiencia por parámetro, multimodal nativo, integración con el ecosistema Android y Google Cloud. La apuesta: ser la opción más segura legalmente y la más accesible en hardware de consumo.

Meta (Llama 4): el más descargado, el mayor ecosistema de adopción, pero con licencia restrictiva. La apuesta: volumen de adopción y marca. Meta tiene la distribución (WhatsApp, Instagram, Facebook) para hacer que Llama sea el estándar de facto.

DeepSeek: modelos extremadamente eficientes en coste de entrenamiento, open source, y ahora optimizados para hardware chino. Con V4 en camino, la apuesta es demostrar que no necesitas NVIDIA ni presupuestos de Silicon Valley para hacer IA de primer nivel.

Alibaba (Qwen 3.5): el líder en razonamiento puro con modelos de hasta 397B parámetros, fuerte en multilingüe y en el mercado asiático. Apache 2.0 desde hace tiempo. La apuesta: ser el modelo más potente en bruto, independientemente del hardware que necesites para ejecutarlo.

Lo interesante es que ninguno de los cuatro domina en todo. Cada uno tiene un punto fuerte y un punto débil. Para el mercado, esto es positivo: la competencia beneficia a los desarrolladores que pueden elegir el modelo que mejor encaje con su caso de uso, su hardware y sus requisitos legales.

 

Qué cambia para empresas y desarrolladores

Si trabajas con IA, Gemma 4 cambia el cálculo de tres formas concretas:

Para soberanía de datos y privacidad (GDPR): ejecutar un modelo open source en tu propia infraestructura significa que los datos del usuario nunca salen de tu servidor. Con Gemma 4 bajo Apache 2.0, tienes un modelo de calidad seria que puedes deployar on-premise sin restricciones legales. Para empresas europeas que necesitan cumplir GDPR sin depender de APIs externas, esto es directamente aplicable.

Para costes a largo plazo: una suscripción a Claude o ChatGPT cuesta $20-200 al mes por persona. Gemma 4 ejecutándose en una GPU propia tiene un coste único de hardware. Si tienes un equipo de 10 personas y cada una gasta $20/mes en Claude Pro, eso son $200/mes o $2.400/año. Una RTX 4090 que ejecuta Gemma 4 para todo el equipo cuesta unos $1.600 una vez. El modelo se amortiza en 8 meses.

Para independencia de proveedor: cuando dependes de una API cerrada, el proveedor puede subir precios, cambiar los términos de servicio, o desactivar funciones de un día para otro (como hizo xAI con Grok Imagine). Con un modelo open source en tu hardware, no dependes de la decisión de ninguna empresa.

 

Lo que Gemma 4 no resuelve (todavía)

Gemma 4 es el mejor modelo abierto de Google, pero no es la solución a todo:

No sustituye a los modelos privados para tareas críticas. Si tu negocio depende de que la IA no falle en una tarea compleja, Claude Opus o GPT-5.4 siguen siendo más fiables. Gemma 4 es impresionante en benchmarks, pero la consistencia real en producción todavía favorece a los modelos cerrados que tienen meses de RLHF y ajuste fino detrás.

No viene con herramientas. Claude tiene Claude Code. ChatGPT tiene Codex. Gemini tiene Code Assist. Gemma 4 es un modelo: un archivo de pesos que descargas. Las herramientas para usarlo (Ollama, LM Studio, vLLM) son de terceros. Esto da flexibilidad pero también significa más trabajo de configuración.

El knowledge cutoff es de enero 2025. Gemma 4 no sabe nada de lo que ha pasado en los últimos 15 meses a no ser que lo conectes a herramientas externas. Soporta function calling nativamente, pero la integración es responsabilidad tuya.

No es el más potente en su categoría. Qwen 3.5 397B y DeepSeek superan a Gemma 4 en razonamiento puro si no te importa el hardware que necesitas. Gemma 4 gana en eficiencia por parámetro, no en rendimiento absoluto.

Pero estas son las limitaciones de hoy. Si el salto de Gemma 3 a Gemma 4 es indicativo (y los benchmarks sugieren que lo es), la siguiente generación podría cerrar estas brechas. La tendencia es clara: cada generación reduce la distancia entre modelos abiertos y cerrados. Y Gemma 4 la ha reducido más que cualquier modelo anterior de Google.

Para profundizar

Para una guía técnica completa de Gemma 4 con benchmarks detallados, requisitos de hardware, instrucciones de instalación y comparativa con Llama/Qwen/DeepSeek, consulta nuestro artículo en ScreenAI.es.