Nuevo Modelo de IA de Google Gemma 3 se Luce Con Los Escritores Creativos: AnĂ¡lisis Detallado

En Resumen

  • Google lanzĂ³ Gemma 3, un modelo de IA de cĂ³digo abierto basado en Gemini 2.0
  • El modelo superĂ³ a competidores mĂ¡s grandes en benchmarks de LMArena
  • Su capacidad de escritura creativa destacĂ³ sobre modelos como Claude 3.7

El martes, Google lanzĂ³ Gemma 3, un modelo de IA de cĂ³digo abierto basado en Gemini 2.0 que ofrece una sorprendente potencia para su tamaño.

El modelo completo funciona en una sola GPU, pero segĂºn los benchmarks de Google, es lo suficientemente competitivo cuando se compara con modelos mĂ¡s grandes que requieren mucha mĂ¡s potencia de cĂ¡lculo.

Imagen: Google

La nueva familia de modelos, que Google dice que fue “co-diseñada con la familia de modelos de vanguardia Gemini”, viene en cuatro tamaños que van desde 1 mil millones hasta 27 mil millones de parĂ¡metros.

Google lo estĂ¡ posicionando como una soluciĂ³n prĂ¡ctica para desarrolladores que necesitan implementar IA directamente en dispositivos como telĂ©fonos, computadoras portĂ¡tiles y estaciones de trabajo.

“Estos son nuestros modelos abiertos mĂ¡s avanzados, portĂ¡tiles y desarrollados de manera responsable hasta ahora”, escribieron Clement Farabet, VP de InvestigaciĂ³n en Google DeepMind, y Tris Warkentin, Director en Google DeepMind, en un anuncio del miĂ©rcoles.

A pesar de su tamaño relativamente modesto, Gemma 3 superĂ³ a modelos mĂ¡s grandes como el Llama-405B de Meta, DeepSeek-V3, Qwen 2.5 Max de Alibaba y o3-mini de OpenAI en la clasificaciĂ³n de LMArena.

La versiĂ³n de 27B con instrucciones obtuvo 1.339 en la calificaciĂ³n Elo de LMSys Chatbot Arena, ubicĂ¡ndose entre los 10 mejores modelos en general.

Gemma 3 tambiĂ©n es multimodal: maneja texto, imĂ¡genes e incluso videos cortos en sus variantes mĂ¡s grandes.

Su ventana de contexto expandida de 128.000 tokens (32.000 para la versiĂ³n 1B) supera ampliamente el lĂ­mite de 8.000 tokens del anterior Gemma 2, permitiĂ©ndole procesar y comprender mucha mĂ¡s informaciĂ³n a la vez.

El alcance global del modelo se extiende a mĂ¡s de 140 idiomas, con 35 idiomas soportados de forma nativa. Esto lo posiciona como una opciĂ³n viable para desarrolladores que construyen aplicaciones para audiencias internacionales sin necesidad de modelos separados para diferentes regiones.

Google afirma que la familia Gemma ya ha visto mĂ¡s de 100 millones de descargas desde su lanzamiento el año pasado, con desarrolladores creando mĂ¡s de 60.000 variantes.

El “Gemmaverse” creado por la comunidad —un ecosistema completo construido alrededor de la familia de modelos Gemma— incluye versiones personalizadas para el Sudeste AsiĂ¡tico, Bulgaria, y un modelo personalizado de texto a audio llamado OmniAudio.

Los desarrolladores pueden implementar aplicaciones de Gemma 3 a través de Vertex AI, Cloud Run, la API de Google GenAI, o en entornos locales, proporcionando flexibilidad para diversos requisitos de infraestructura.

Probando Gemma

Sometimos a Gemma 3 a una serie de pruebas del mundo real para evaluar su rendimiento en diferentes tareas. Esto es lo que encontramos en cada Ă¡rea.

Escritura creativa

Nos sorprendieron las capacidades de escritura creativa de Gemma 3. A pesar de tener solo 27.000 millones de parĂ¡metros, logrĂ³ superar a Claude 3.7 Sonnet, que recientemente venciĂ³ a Grok-3 en nuestras pruebas de escritura creativa. Y ganĂ³ por un amplio margen.

Gemma 3 produjo la historia mĂ¡s larga de todos los modelos que probamos, con la excepciĂ³n de Longwriter, que fue diseñado especĂ­ficamente para narrativas extensas.

La calidad tampoco se sacrificĂ³ por la cantidad: la escritura fue atractiva y original, evitando las introducciones formulaicas que la mayorĂ­a de los modelos de IA tienden a mostrar.

Gemma también fue muy bueno creando mundos detallados e inmersivos con fuerte coherencia narrativa. Los nombres de personajes, ubicaciones y descripciones encajaban naturalmente dentro del contexto de la historia.

Y esto es una gran ventaja para escritores creativos porque otros modelos a veces mezclan referencias culturales u omiten estos pequeños detalles, lo que acaba matando la inmersiĂ³n. Gemma 3 mantuvo la consistencia a lo largo de todo.

El formato mĂ¡s largo de la historia permitiĂ³ un desarrollo natural con transiciones fluidas entre segmentos narrativos. El modelo fue muy bueno describiendo acciones, sentimientos, pensamientos y diĂ¡logos de una manera que creaba una experiencia de lectura creĂ­ble.

Cuando se le pidiĂ³ incorporar un final sorpresa, logrĂ³ hacerlo sin romper la lĂ³gica interna de la historia. Todos los otros modelos hasta ahora tendĂ­an a estropearlo un poco al intentar concluir la historia. Pero Gemma no.

Para escritores creativos que buscan un asistente de IA que pueda ayudar con proyectos de ficciĂ³n aptos para el trabajo, Gemma 3 parece ser el lĂ­der actual.

Puedes leer nuestro prompt y todas las respuestas en nuestro repositorio de GitHub.

Resumen y recuperaciĂ³n de informaciĂ³n

Aunque su escritura creativa fue excelente, Gemma 3 tuvo dificultades significativas con tareas de anĂ¡lisis de documentos.

Subimos un documento del FMI de 47 pĂ¡ginas al AI Studio de Google, y aunque el sistema aceptĂ³ el archivo, el modelo no pudo completar su anĂ¡lisis, deteniĂ©ndose a mitad de la tarea. MĂºltiples intentos arrojaron resultados idĂ©nticos.

Probamos un enfoque alternativo que funcionĂ³ con Grok-3, copiando y pegando el contenido del documento directamente en la interfaz, pero encontramos el mismo problema.

El modelo simplemente no pudo manejar el procesamiento y resumen de contenido extenso.

Vale la pena señalar que esta limitaciĂ³n podrĂ­a estar relacionada con la implementaciĂ³n de AI Studio de Google mĂ¡s que con una falla inherente en el modelo Gemma 3.

Ejecutar el modelo localmente podrĂ­a dar mejores resultados para el anĂ¡lisis de documentos, pero los usuarios que dependen de la interfaz oficial de Google probablemente enfrentarĂ¡n estas limitaciones, al menos por ahora.

Temas sensibles

Como caracterĂ­stica Ăºnica entre las interfaces de chatbot de IA, Google AI Studio ofrece filtros de contenido muy estrictos que son accesibles a travĂ©s de una serie de controles deslizantes.

Probamos los lĂ­mites de Gemma solicitando consejos cuestionables para situaciones hipotĂ©ticas no Ă©ticas (consejos para seducir a una mujer casada), y el modelo se negĂ³ firmemente a cumplir. De manera similar, cuando se le pidiĂ³ generar contenido para adultos para una novela ficticia, se negĂ³ a producir algo remotamente sugestivo.

Nuestros intentos de ajustar o eludir estos filtros de censura apagando los parĂ¡metros de Google no funcionaron realmente.

Los “ajustes de seguridad” de Google AI Studio en teorĂ­a controlan cuĂ¡n restringido estĂ¡ el modelo cuando se trata de generar contenido que puede considerarse como acoso, discurso de odio, sexualmente explĂ­cito o peligroso.

Incluso con todas las restricciones desactivadas, el modelo rechazĂ³ consistentemente participar en conversaciones que contenĂ­an elementos controvertidos, violentos u ofensivos, aĂºn cuando claramente eran para propĂ³sitos creativos ficticios.

Al final, los controles realmente no hicieron ninguna diferencia.

Los usuarios que esperan trabajar con temas sensibles, incluso en contextos creativos legĂ­timos, probablemente necesitarĂ¡n encontrar formas de hacer jailbreak al modelo o elaborar prompts extremadamente cuidadosos.

En general, las restricciones de contenido de Gemma 3 para aquellos dispuestos a usar el Studio de Google parecen estar a la par con las de ChatGPT, siendo a veces incluso demasiado restrictivas dependiendo del caso de uso.

Aquellos dispuestos a ejecutarlo localmente no enfrentarĂ¡n estos problemas. Para aquellos que necesitan una buena interfaz de IA y un modelo algo menos censurado, la mejor opciĂ³n parece ser Grok-3, que tiene muchas menos restricciones. Todos los otros modelos cerrados tambiĂ©n se negaron.

Puedes leer nuestro prompt y todas las respuestas en nuestro repositorio de GitHub.

Multimodalidad

Gemma 3 es multimodal en su nĂºcleo, lo que significa que puede procesar y comprender imĂ¡genes de forma nativa sin depender de un modelo de visiĂ³n separado.

En nuestras pruebas, encontramos algunas limitaciones de la plataforma. Por ejemplo, AI Studio de Google no nos permitiĂ³ procesar imĂ¡genes directamente con el modelo.

Sin embargo, pudimos probar las capacidades de imagen a travĂ©s de la interfaz de Hugging Face, que presenta una versiĂ³n mĂ¡s pequeña de Gemma 3.

El modelo demostrĂ³ una sĂ³lida comprensiĂ³n de las imĂ¡genes, identificando con Ă©xito elementos clave y proporcionando anĂ¡lisis relevantes en la mayorĂ­a de los casos. PodĂ­a reconocer objetos, escenas y contenido general dentro de fotos con una precisiĂ³n razonable.

Sin embargo, la variante de modelo mĂ¡s pequeña de Hugging Face mostrĂ³ limitaciones con el anĂ¡lisis visual detallado.

En una de nuestras pruebas, no logrĂ³ interpretar correctamente un grĂ¡fico financiero, alucinando que Bitcoin tenĂ­a un precio de alrededor de $68.618 en 2024, informaciĂ³n que en realidad no se mostraba en la imagen pero probablemente provenĂ­a de sus datos de entrenamiento.

Aunque las capacidades multimodales de Gemma 3 son funcionales, usar un modelo mĂ¡s pequeño puede no igualar la precisiĂ³n de modelos de visiĂ³n especializados mĂ¡s grandes, incluso los de cĂ³digo abierto como Llama 3.2 Vision, LlaVa o Phi Vision, particularmente cuando se trata de grĂ¡ficos, diagramas o contenido que requiere anĂ¡lisis visual detallado.

Razonamiento no matemĂ¡tico

Como era de esperar para un modelo de lenguaje tradicional sin capacidades de razonamiento especializadas, Gemma 3 muestra claras limitaciones cuando se enfrenta a problemas que requieren deducciĂ³n lĂ³gica compleja en lugar de simples predicciones de tokens.

Lo probamos con nuestro problema de misterio habitual del conjunto de datos BigBENCH, y el modelo no logrĂ³ identificar pistas clave ni extraer conclusiones lĂ³gicas de la informaciĂ³n proporcionada.

Curiosamente, cuando intentamos guiar al modelo a travĂ©s de un razonamiento explĂ­cito de cadena de pensamiento (esencialmente pidiĂ©ndole que “piense paso a paso”), activĂ³ sus filtros de violencia y se negĂ³ a proporcionar cualquier respuesta.

Puedes leer nuestro prompt y todas las respuestas en nuestro repositorio de GitHub.

¿Es este el modelo para ti?

AmarĂ¡s u odiarĂ¡s Gemma 3 dependiendo de tus necesidades especĂ­ficas y casos de uso.

Para escritores creativos, Gemma 3 es una opciĂ³n destacada. Su capacidad para crear narrativas detalladas, coherentes y atractivas supera a algunos modelos comerciales mĂ¡s grandes, incluidos Claude 3.7, Grok-3 y GPT-4.5 con un condicionamiento mĂ­nimo.

Si escribes ficciĂ³n, publicaciones de blog u otro contenido creativo que se mantenga dentro de los lĂ­mites aptos para el trabajo, este modelo ofrece una calidad excepcional a costo cero, funcionando en hardware accesible.

Los desarrolladores y creadores que trabajan en aplicaciones multilingĂ¼es apreciarĂ¡n el soporte de Gemma 3 para mĂ¡s de 140 idiomas. Esto hace que sea prĂ¡ctico crear servicios especĂ­ficos para regiones o aplicaciones globales sin mantener mĂºltiples modelos especĂ­ficos para cada idioma.

Las pequeñas empresas y startups con recursos informĂ¡ticos limitados tambiĂ©n pueden disfrutar de la eficiencia de Gemma 3. Ejecutar capacidades avanzadas de IA en una sola GPU reduce drĂ¡sticamente la barrera de entrada para implementar soluciones de IA sin inversiones masivas en infraestructura.

La naturaleza de cĂ³digo abierto de Gemma 3 proporciona una flexibilidad que los modelos cerrados como Claude o ChatGPT simplemente no pueden igualar.

Los desarrolladores pueden ajustarlo para dominios especĂ­ficos, modificar su comportamiento o integrarlo profundamente en sistemas existentes sin limitaciones de API o costos de suscripciĂ³n.

Para aplicaciones con requisitos estrictos de privacidad, el modelo puede ejecutarse completamente desconectado de internet en hardware local.

Sin embargo, los usuarios que necesitan analizar documentos extensos o trabajar con temas sensibles encontrarĂ¡n limitaciones frustrantes. Las tareas de investigaciĂ³n que requieren razonamiento matizado o la capacidad de procesar material controvertido siguen siendo mĂ¡s adecuadas para modelos de cĂ³digo cerrado mĂ¡s grandes que ofrecen mĂ¡s flexibilidad.

Tampoco es realmente bueno en tareas de razonamiento, codificaciĂ³n o cualquiera de las tareas complejas en las que nuestra sociedad ahora espera que los modelos de IA sobresalgan. AsĂ­ que no esperes que genere un juego para ti, mejore tu cĂ³digo o sobresalga en algo mĂ¡s allĂ¡ de la escritura creativa de texto.

En general, Gemma 3 no reemplazarĂ¡ a los modelos de razonamiento propietarios o de cĂ³digo abierto mĂ¡s avanzados para cada tarea.

Sin embargo, su combinaciĂ³n de rendimiento, eficiencia y personalizaciĂ³n lo posiciona como una opciĂ³n muy interesante para entusiastas de la IA que aman probar cosas nuevas, e incluso para fanĂ¡ticos del cĂ³digo abierto que quieren controlar y ejecutar sus modelos localmente.

Editado por Sebastian Sinclair

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.

Crédito: Enlace fuente

Related Articles

Responses

Your email address will not be published. Required fields are marked *