OpenAI a officialisé un partenariat stratégique de 38 milliards de dollars avec Amazon Web Services (AWS) pour renforcer la capacité de calcul nécessaire à ses futurs modèles d’intelligence artificielle. Cet accord, d’une durée de sept ans, permettra à la société de Sam Altman d’accéder à l’infrastructure cloud d’AWS, incluant des centaines de milliers de processeurs graphiques Nvidia et la possibilité d’étendre l’utilisation à des dizaines de millions de processeurs centraux. L’objectif est clair: soutenir la montée en puissance des technologies de génération automatique et des agents intelligents à travers ChatGPT et les autres produits d’OpenAI.
Les deux entreprises ont précisé que le déploiement complet de cette capacité serait achevé d’ici à fin 2026, avec des extensions possibles en 2027 et au-delà. L’infrastructure fournie par AWS repose sur une architecture optimisée pour le calcul intensif, regroupant les GPU Nvidia GB200 et GB300 via les serveurs Amazon EC2 UltraServers, afin d’assurer des performances à faible latence sur des systèmes interconnectés. Ce dispositif permettra à OpenAI d’entraîner ses modèles de nouvelle génération tout en répondant à la demande croissante d’utilisateurs sur ChatGPT.
Selon plusieurs sources, cette alliance marque un tournant dans l’écosystème technologique, plaçant AWS en concurrent direct d’Azure de Microsoft, partenaire historique d’OpenAI. Amazon affirme disposer de l’expérience nécessaire pour exécuter des charges IA à grande échelle, avec des clusters dépassant 500 000 puces, garantissant sécurité et fiabilité.









