banner

Blog

Dec 05, 2023

Google Cloud estrena su IA más poderosa

ACTUALIZADO A LAS 08:00 EDT / 29 DE AGOSTO DE 2023

por Mike Wheatley

Google Cloud está reforzando su infraestructura informática de inteligencia artificial basada en la nube, añadiendo nuevas unidades de procesamiento de tensores y máquinas virtuales basadas en unidades de procesamiento de gráficos que, según afirma, están optimizadas para impulsar las cargas de trabajo de IA más exigentes.

Las nuevas máquinas virtuales optimizadas para IA se anunciaron en Google Cloud Next 2023, junto con el lanzamiento de una oferta actualizada de Google Distributed Cloud que permite ejecutar cargas de trabajo de análisis de datos e IA en cualquier ubicación, incluso en el borde de la red. Además, Google presentó una nueva edición de nivel empresarial de Google Kubernetes Engine para aplicaciones basadas en contenedores.

En una publicación de blog, Amin Vahdat, director general de aprendizaje automático, sistemas e IA en la nube de Google, dijo que los clientes exigen máquinas virtuales más potentes para hacer frente a las demandas exponencialmente crecientes de nuevas cargas de trabajo como la IA generativa y los grandes modelos de lenguaje. "La cantidad de parámetros en los LLM se ha multiplicado por 10 por año durante los últimos cinco años", dijo. "Como resultado, los clientes necesitan una infraestructura optimizada para IA que sea rentable y escalable".

Para satisfacer esta necesidad, Google ha concebido Cloud TPU v5e, disponible ahora en versión preliminar. Se dice que es la TPU en la nube más rentable, versátil y escalable que jamás haya ideado, y proporciona integración con GKE, el marco de aprendizaje automático de Google, Vertex AI, y varios marcos de inteligencia artificial líderes, como PyTorch, TensorFlow y JAX. Se dice que está diseñado para aplicaciones de inferencia y entrenamiento de IA a mediana y gran escala, ofreciendo un rendimiento de entrenamiento hasta dos veces más rápido por dólar y hasta 2,5 veces el rendimiento de inferencia por dólar para LLM y modelos de IA generativa, en comparación con la generación anterior. Nube TPU v4.

La buena noticia es que los clientes no tienen que sacrificar el rendimiento o la flexibilidad por estas ganancias en eficiencia de costos, afirmó Vahdat. Dijo que los pods TPU v5e ofrecen un equilibrio perfecto entre rendimiento con flexibilidad y eficiencia, permitiendo interconectar hasta 256 chips con un ancho de banda de más de 400 terabytes por segundo y 100 petaOps de rendimiento. Los clientes pueden elegir entre ocho configuraciones diferentes de VM, que van desde un solo chip hasta más de 250 en un solo segmento. Ofrece a los clientes una flexibilidad superior para entrenar y ejecutar una amplia variedad de LLM y modelos de IA, añadió Vahdat.

Con el lanzamiento de las máquinas virtuales Cloud TPU v5e, Google también está poniendo a disposición una nueva tecnología Multislice en versión preliminar, que permite combinar decenas de miles de chips TPU v5e o los chips TPU v4 más antiguos de Google. Anteriormente, los clientes estaban limitados a una sola porción de chips de TPU, lo que significaba que estaban limitados a un máximo de 3072 chips con el TPU v4. Multislice permite a los desarrolladores trabajar con decenas de miles de chips basados ​​en la nube conectados a través de una interconexión entre chips.

Junto con las máquinas virtuales TPU v5e, Google anunció sus nuevas máquinas virtuales A3 basadas en la última GPU H100 de Nvidia Corp., diciendo que están diseñadas específicamente para las cargas de trabajo de IA generativa más exigentes. Según Google, ofrecen un gran avance en términos de rendimiento en comparación con las GPU A100 de la generación anterior, con un entrenamiento tres veces más rápido y 10 veces más ancho de banda de red. Debido al mayor ancho de banda, los clientes pueden ampliar sus modelos a decenas de miles de GPU H100, dijo Vahdat.

Ahora en versión preliminar, una sola máquina virtual A3 incluye ocho GPU H100 junto con 2 terabytes de memoria de host y también contiene las últimas unidades de procesamiento central escalables Xeon de cuarta generación de Intel para descargar otras tareas de aplicaciones.

Google dijo que la startup de inteligencia artificial generativa Anthropic AI, que es un rival de OpenAI LP, es una de las primeras en adoptar sus nuevas máquinas virtuales TPU v5e y A3. Las ha estado utilizando en conjunto con Google Kubernetes Engine para entrenar, implementar y compartir su software más modelos avanzados.

"GKE nos permite ejecutar y optimizar nuestra infraestructura de GPU y TPU a escala, mientras que Vertex AI nos permitirá distribuir nuestros modelos a los clientes a través de Vertex AI Model Garden", dijo el cofundador de Anthropic, Tom Brown. "La infraestructura de IA de próxima generación de Google traerá beneficios de precio-rendimiento para nuestras cargas de trabajo a medida que continuamos construyendo la próxima ola de IA".

Google Distributed Cloud ofrece a los clientes una forma de llevar la pila de software de Google Cloud a sus propios centros de datos, similar a Azure Stack de Microsoft Corp. De esa manera, pueden ejecutar varias aplicaciones locales con las mismas interfaces de programación de aplicaciones, planos de control, hardware y herramientas de Google Cloud que utilizan con sus aplicaciones alojadas en la nube. “A muchos clientes les gusta esa gestión completa”, dijo a SiliconANGLE en una entrevista exclusiva Sachin Gupta, vicepresidente y director general del Grupo de Soluciones e Infraestructura de Google Cloud.

Con las actualizaciones de hoy, Google Distributed Cloud se está adaptando para ejecutar cargas de trabajo de datos e inteligencia artificial en cualquier ubicación, incluso en el borde de la red, dijo Google. Estas capacidades están siendo habilitadas por una integración con la plataforma Vertex AI de Google, que por primera vez lleva múltiples servicios de aprendizaje automático a los propios centros de datos del cliente.

Vertex AI en GDC Hosted ofrece modelos previamente entrenados para voz, traducción, reconocimiento óptico de caracteres y más, y los clientes pueden usar la plataforma para optimizarlos para cargas de trabajo más específicas utilizando sus propios datos. Otras capacidades de Vertex AI en GDC Hosted incluyen Vertex Prediction, que ayuda a automatizar el servicio de modelos personalizados, y Vertex Pipelines, para gestionar operaciones de aprendizaje automático a escala, dijo Google.

Google Distributed Cloud también obtiene soporte para AlloyDB Omni, un nuevo servicio de base de datos administrada que ahora está en versión preliminar, brindando todos los beneficios de la oferta AlloyDB basada en la nube a los centros de datos locales de los clientes. Como base de datos compatible con PostgreSQL, AlloyDB Omni es ideal tanto para cargas de trabajo transaccionales como para datos de entrenamiento de IA, gracias a su soporte para incrustaciones de vectores, que son representaciones numéricas de datos generados por LLM.

Finalmente, Google está lanzando nuevo hardware para que los clientes ejecuten Google Distributed Cloud en el sitio. Esto incluye una nueva pila de hardware que se dice que es la más poderosa hasta el momento, con CPU Xeon de cuarta generación de Intel combinadas con GPU A100 de Nvidia y una estructura de red de alto rendimiento con un rendimiento de hasta 400 gigabytes por segundo. Ofrece un rendimiento de CPU virtual mejorado, mayor memoria, rendimiento de operaciones de entrada/salida PCIe Gen5 y enlaces de red de 400G/100G.

Mientras tanto, Google anunció tres nuevas plataformas GDU Edge, basadas en servidores de factor de forma pequeño (pequeños, medianos y grandes) con diferentes capacidades de vCPU, RAM y almacenamiento y un diseño robusto que los hace ideales para su uso en ubicaciones como tiendas minoristas y restaurantes. . "Necesitamos una variedad de factores de forma para todas estas opciones", dijo Gupta.

Google Kubernetes Engine es la plataforma de Google para administrar contenedores, que alojan los componentes de aplicaciones modernas, y los clientes están obteniendo nuevas capacidades con la disponibilidad de GKE Enterprise a partir de hoy.

En una publicación de blog, Google explicó que la edición GKE Enterprise admite flotas de múltiples clústeres, lo que permite agrupar cargas de trabajo similares en clústeres dedicados por primera vez, aplicar configuraciones personalizadas y políticas de seguridad a esas flotas y aislar cargas de trabajo confidenciales. También agrega nuevas características de seguridad administrada, como información avanzada sobre vulnerabilidades de cargas de trabajo y controles de políticas y gobernanza, además de una malla de servicios administrados.

Google dijo que GKE Enterprise está completamente administrado e integrado, lo que significa que los clientes dedicarán menos tiempo y esfuerzo a administrar la plataforma y más tiempo a crear aplicaciones y experiencias para sus usuarios. En particular, GKE Enterprise también admite plataformas híbridas y multinube, lo que permite ejecutar cargas de trabajo de contenedores en cualquier ubicación, incluidas otras nubes públicas o locales.

"En resumen, GKE Enterprise hace que sea más rápido y seguro para los equipos distribuidos ejecutar incluso sus cargas de trabajo más críticas para el negocio a escala, sin aumentar los costos ni la plantilla", dijo Chen Goldberg, gerente general y vicepresidente de Google Cloud Runtimes. Afirmó que los clientes han visto "resultados sorprendentes" en las primeras implementaciones, mejorando la productividad en un 45% y acelerando los tiempos de implementación de software en más del 70%.

Con información de Robert Hof

GRACIAS

Meta elimina miles de cuentas vinculadas a la campaña de propaganda del gobierno chino

Fuera lo viejo, dentro lo nuevo: la IA da forma a la narrativa de Google Cloud Next

Mandiant advierte que los piratas informáticos siguen atacando los dispositivos Barracuda Email Security Gateway

Las acciones de Box caen al informar ganancias estrechas y orientación débil

Un grupo de trabajo multinacional derriba la prolífica operación de botnet y malware Qakbot

Las acciones de HPE y HP caen debido a una orientación suave a medida que el gasto empresarial se retrasa

Meta elimina miles de cuentas vinculadas a la campaña de propaganda del gobierno chino

POLÍTICA - POR JAMES FARRELL. 1 HORA ANTES

Fuera lo viejo, dentro lo nuevo: la IA da forma a la narrativa de Google Cloud Next

NUBE - POR MARK ALBERTSON. 1 HORA ANTES

Mandiant advierte que los piratas informáticos siguen atacando los dispositivos Barracuda Email Security Gateway

SEGURIDAD - POR DUNCAN RILEY. HACE 2 HORAS

Las acciones de Box caen al informar ganancias estrechas y orientación débil

NUBE - POR MIKE WHEATLEY. HACE 3 HORAS

Un grupo de trabajo multinacional derriba la prolífica operación de botnet y malware Qakbot

SEGURIDAD - POR DUNCAN RILEY. HACE 3 HORAS

Las acciones de HPE y HP caen debido a una orientación suave a medida que el gasto empresarial se retrasa

INFRA - POR MIKE WHEATLEY . HACE 3 HORAS

Actualizaciones de la nube distribuidaEdición empresarial de GKE “TheCUBE es un socio importante para la industria. Ustedes realmente son parte de nuestros eventos y realmente apreciamos que vengan y sé que la gente también aprecia el contenido que crean” – Andy JassyGRACIAS
COMPARTIR