Por Efrén Páez Jiménez
(dpl news) Las Vegas, Nevada.- Tras la introducción y actualización de su modelo Gemini a finales del año pasado, Google ha redoblado sus esfuerzos para su integración a través de sus productos y soluciones que le permitan adaptarse a los casos de uso requeridos por usuarios y empresas.
Durante el Next ’24 celebrado en Las Vegas, Thomas Kurian, CEO de Google Cloud, resumió los avances que ha logrado la compañía en los pasados ocho meses, incluyendo llegar a 40 regiones, nuevos cables submarinos para garantizar una baja latencia de conectividad a la Nube, además del lanzamiento de Gemini.
El directivo destacó la posición actual de Google Cloud en el ecosistema de IA, que ahora atiende a más del 60% de las startups de IA Generativa y casi 90% de los unicornios de IA Generativa, incluidas empresas como Anthropic, AI21 Labs, Contextual AI, Essential AI y Mistral AI.
Adicionalmente, otros grandes grupos iniciaron la adopción de las capacidades de Google Cloud, como Bayer, Discover Financial, IHG Hotels & Resorts, Mercedes Benz, Palo Alto Networks y Verizon.
Durante el Google Cloud Next ’24, la compañía presentó avances en sus estrategias de Nube para IA, como: la disponibilidad general de sus chips TPU v5p y Google Axion; Gemini 1. 5 Pro, que incluye un gran avance en la comprensión del contexto a largo plazo; nuevas capacidades de conexión a tierra (grounding) en Vertex AI; Gemini Code Assist para desarrolladores; capacidades de ciberseguridad ampliadas con Gemini en Threat Intelligence; y nuevas mejoras para Gemini en Google Workspace.
Nueva infraestructura para IA
Una de las bases de las capacidades de IA Generativa actualmente se encuentra en la infraestructura requerida para su uso y desarrollo, incluyendo nuevos semiconductores especializados para estas cargas de trabajo.
Para ello, Google presentó una nueva arquitectura AI Hypercomputer, que combina las unidades de procesamiento Tensor (TPU), las unidades de procesamiento gráfico (GPU), software de IA y otros componentes para entrenar y servir modelos de forma rentable y eficiente.
En cuanto al segmento GPU, la compañía introdujo la nueva instancia A3 mega basada en GPUs H100, así como Confidential A3, especializada en proteger la confidencialidad e integridad de los datos sensibles.
Adelantó también que Google Cloud tendrá acceso a principios de 2025 a los nuevos chips Grace Blackwell de Nvidia: B200 y GB200 NVL72. El B200 está diseñado para la formación y el servicio de modelos convencionales, mientras que el GB200 NVL72 está diseñado para la formación y el servicio de modelos de última generación.
En cuanto a desarrollos propios, Kurian habló sobre la introducción del acelerador desarrollado por Google para cargas de IA, el TPU v5p, con cuatro veces más potencia de cálculo por módulo respecto a la generación anterior. El chip será también compatible con Google Kubernetes Engine (GKE).
Al igual que otras compañías de Nube y fabricantes de chips, Google se sumó a la tendencia para la introducción de chips con arquitectura ARM para su uso en servidores y centros de datos. Google Cloud presentó Axion, su primera CPU personalizada basada en esta arquitectura, con la que promete hasta 50% más de rendimiento y hasta 60% más de eficiencia energética frente a las instancias comparables construidas bajo x86 de la generación actual.
Las nuevas instancias con Axion estarían enfocadas principalmente para cargas de trabajo de uso general, como servidores web y de aplicaciones, microservicios en contenedores, bases de datos de código abierto, cachés en memoria, motores de análisis de datos, procesamiento multimedia, formación e inferencias de IA basadas en CPU, entre otros.
Por otro lado, para facilitar el acceso a las capacidades de IA desde cualquier lugar donde se generan los datos, la compañía introdujo Google Distributed Cloud (GDC), que permitirá a sus clientes elegir el entorno, la configuración y los controles que mejor se adapten a las necesidades específicas de su organización.
Por ejemplo, el proveedor líder de telefonía móvil Orange, que opera en 26 países donde los datos locales deben mantenerse en cada nación, aprovecha la IA en GDC para mejorar el rendimiento de la red y mejorar las experiencias de los clientes.
Entre otras funciones del GDC, se incluyen la disponibilidad de GPUs Nvidia, GKE, modelos abiertos como Gemma y Llama 2, AlloyDB Omni para búsqueda vectorial de datos privados y confidenciales con una latencia extremadamente baja; y soberanía de datos mediante operaciones locales.
Kurian también presentó actualizaciones relacionadas con Vertex AI, la plataforma de la compañía que permite a las empresas administrar, desplegar y personalizar modelos de IA.
Además de la inclusión de nuevos modelos fundacionales como Gemini 1.5 Pro, Claude 3 e Imagen 2.0 para la conversión de texto a imagen, la plataforma ahora ofrece nuevas capacidades para el aprovechamiento de los datos de la propia empresa, con el uso de herramientas gestionadas para extensiones, llamadas a funciones y conexión a tierra.
La plataforma cuenta también con Retrieval Augmented Generation (RAG) que conecta el modelo elegido a los sistemas de la empresa para recuperar información y emprender acciones, ya sea actualizar la información de contacto o las suscripciones de los clientes, o incluso completar transacciones.
Para mejorar las capacidades de conexión a tierra de la plataforma, Google anunció la adición de Búsqueda de Google para el acceso a información actualizada que permita mejorar la precisión de las respuestas; así como Enterprise Truth, para el acceso a datos de aplicaciones empresariales como Workday y Salesforce o que estén almacenados en Google Cloud.