Google ya trabaja en la creación de nuevas supercomputadoras, las cuales usan inteligencia artificial y que permiten la creación de mejoras en estos sistemas, asegurando que son mejores que las de NVIDIA.
La carrera por desarrollar mejores inteligencias artificiales ya está aquí, pues Google asegura que sus componentes y creaciones son más rápidas y eficientes energéticamente, los cuales pertenecen a su cuarta generación de su chip “Unidad de Procesamiento de Tensor”.
Los TPU son chips pensados para entrenar modelos de IA, pero Google también demostró la forma en que se pudieron conectar más de 4,000 de estos chips.
A través de un artículo, el gigante tecnológico muestra de que forma se logaron unir estos chips en una supercomputadora utilizando interruptores ópticos a la medida, esto para ayudar a conectar máquinas individuales en un total de 4,096 chips.
De esta forma, se permitió reconfigurar las conexiones “sobre la marcha”, corregir problemas y hacer ajustes para mejorar el rendimiento.
Google detalla que la supercomputadora con los chips TPU v4 ya se ha utilizado en distintas ocasiones por ellos mismos. Un ejemplo es dentro de su propio centro de datos en el condado de Mayes, Oklahoma, operando en línea desde 2020, así como en algunos equipos líderes de IA.
Por último, Google asegura que sus chips son hasta 1.7 veces más rápidos y 1.9 veces más eficientes energéticamente que el chip A100 de NVIDIA.
También te puede interesar: Google ya prueba una inteligencia artificial en Gmail