Le logo d'Openai. / VCG

Openai a déclaré qu’il n’avait pas l’intention active d’utiliser la puce interne de Google pour alimenter ses produits, deux jours après que plusieurs médias ont rapporté que le laboratoire d’IA se tournait vers les puces d’intelligence artificielle (IA) de son concurrent pour répondre à la demande croissante.

Un porte-parole d’OpenAI a déclaré dimanche que si le laboratoire AI était en début de test avec certaines des unités de traitement des tenseurs de Google (TPU), il n’a pas l’intention de les déployer à grande échelle pour l’instant.

Bien qu’il soit courant pour les laboratoires AI de tester différentes puces, l’utilisation de nouveaux matériels à grande échelle peut prendre beaucoup plus de temps et nécessite une prise en charge de l’architecture et des logiciels différents. OpenAI utilise activement les unités de traitement graphique de NVIDIA (GPU) et les puces AI d’AMD pour répondre à sa demande croissante. La société développe également sa propre puce, un effort qui reste sur la bonne voie pour atteindre le jalon « sur bande » cette année, lorsque la conception de la puce est finalisée et envoyée pour la fabrication.

OpenAI s’est inscrit à Google Cloud Services pour répondre à son besoin croissant de capacité informatique, marquant une collaboration surprenante entre deux principaux concurrents dans le secteur de l’IA. La majeure partie de la puissance de calcul utilisée par OpenAI proviendra de serveurs GPU exploités par Coreweave, une société soi-disant Neocloud.

Google a élargi l’accès externe à ses puces AI internes, ou TPU, qui étaient historiquement réservées à l’usage interne. Cela a aidé Google à attirer des clients, notamment Big Tech Player Apple et des startups telles que la superintelligence anthropique et sûre, deux concurrents de ChatGpt-Maker lancés par d’anciens dirigeants OpenAI.