Google Cloud quiere facilitar la ejecución de cargas de trabajo masivas de ML

Google Cloud quiere facilitar la ejecución de cargas de trabajo masivas de ML

Google Cloud ha anunciado la disponibilidad general de sus máquinas virtuales de TPU.

Las unidades de procesamiento de tensor (TPU) son circuitos integrados específicos de la aplicación (ASIC) desarrollados por Google que se utilizan para acelerar las cargas de trabajo de aprendizaje automático.

Cloud TPU le permite ejecutar sus cargas de trabajo de aprendizaje automático en el hardware de aceleración de TPU del gigante del alojamiento en la nube mediante la plataforma de aprendizaje automático TensorFlow de código abierto.

¿Qué pueden hacer las máquinas virtuales de TPU por los usuarios?

Google dice que su comunidad de usuarios ha adoptado las TPU virtuales porque brindan una mejor experiencia de depuración y también permiten ciertas configuraciones de capacitación, incluido el aprendizaje de refuerzo distribuido, que dice que no eran factibles con la arquitectura de nodo UPT (acceso a la red) existente de Google.

Las TPU en la nube están optimizadas para cargas de trabajo de clasificación y recomendación a gran escala según Google, citando cómo Snap fue uno de los primeros en adoptar la capacidad.

Además, con el lanzamiento de GA de las máquinas virtuales de TPU, Google está introduciendo una nueva API de integración de TPU, que, según afirma, puede acelerar las cargas de trabajo de clasificación y recomendación basadas en ML.

Google destacó cuántas empresas modernas se basan en casos de uso de clasificación y recomendación, como recomendaciones de audio y video, recomendaciones de productos y clasificación de anuncios.

El gigante tecnológico dijo que las TPU pueden ayudar a las empresas a implementar un enfoque basado en redes neuronales profundas para abordar los casos de uso anteriores, que dice que pueden ser costosos y requieren muchos recursos.

Google también afirma que sus máquinas virtuales de TPU ofrecen varias funciones adicionales sobre la arquitectura de nodos de TPU existente debido a su configuración de tiempo de ejecución local, ya que la canalización de datos de entrada puede ejecutarse directamente en los hosts de TPU, lo que permite a las organizaciones ahorrar recursos de TI.

TPU VM GA Release también es compatible con otros marcos de ML importantes, como PyTorch y JAX.

¿Está interesado en implementar una TPU virtual? Puede seguir una de las guías de inicio rápido o tutoriales de Google.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir