ChatGPT: c'est quoi

OpenAI Envisage de s’Engager dans la Fabrication de Puces d’IA Face à la Pénurie Croissante

OpenAI, acteur majeur dans le domaine de l’intelligence artificielle, est confrontée à une problématique grandissante : la pénurie de puces essentielles pour l’entraînement de ses modèles d’IA.

Cette situation a poussé la société à envisager sérieusement la fabrication de ses propres puces d’IA, afin de pallier cette pénurie et garantir l’accès à un matériel essentiel à ses activités.

OpenAI

Les discussions interns chez OpenAI concernant les stratégies à adopter en matière de puces d’IA sont selon Reteurs en cours depuis au moins l’année dernière. La société explore différentes voies pour concrétiser cette ambition.

Cela inclut l’examen de la possibilité d’acquérir un fabricant de puces d’IA existant ou de développer ses propres puces en interne, selon des sources fiables.

Le PDG d’OpenAI, Sam Altman, a clairement énoncé que l’acquisition d’un plus grand nombre de puces d’IA est désormais une priorité absolue pour l’entreprise.

La dépendance actuelle envers le matériel GPU pour le développement de modèles tels que ChatGPT, GPT-4 et DALL-E 3 a souligné la nécessité d’une diversification des sources d’approvisionnement.

Outre cette pénurie, la disponibilité limitée du matériel serveur indispensable à l’exécution de l’IA affecte également Microsoft et d’autres entreprises majeures du secteur.

Le boom de l’IA générative, une avancée remarquable, a mis à rude épreuve la chaîne d’approvisionnement des GPU, perturbant l’écosystème informatique.

Les GPU, fondamentaux pour l’exécution et le service des modèles d’OpenAI, demeurent incontournables malgré leur coût élevé.

Afin de garantir leur accessibilité et de surmonter les défis actuels, OpenAI évalue donc activement la voie vers la production de ses propres puces d’IA, renforçant ainsi son indépendance et son efficacité opérationnelle.

OpenAI a besoin de grande quantité

ChatGPT a besoin de beaucoup de GPU

Une analyse approfondie menée par Stacy Rasgon, analyste chez Bernstein, a révélé que pour que les requêtes traitées par ChatGPT atteignent seulement un dixième de l’échelle de Google Search, il serait nécessaire d’investir massivement dans des GPU et des puces d’intelligence artificielle.

Cette analyse met en lumière la demande croissante en ressources informatiques pour alimenter les modèles de traitement du langage naturel à grande échelle.

Dans ce contexte, OpenAI, acteur majeur dans le domaine de l’intelligence artificielle, suit l’exemple d’autres géants de l’industrie tels que Google, Amazon et Microsoft en envisageant la création de ses propres puces dédiées à l’IA.

Cette décision stratégique vise à garantir un approvisionnement adéquat en puces, crucial pour le développement et l’exécution efficace de modèles d’IA toujours plus sophistiqués.

Fortement capitalisée, OpenAI a réussi à lever plus de 11 milliards de dollars en capital-risque, consolidant ainsi ses capacités financières pour des investissements majeurs en recherche et développement dans le domaine des puces d’IA.

Néanmoins, le coût substantiel et la complexité du projet soulignent la nécessité de ressources considérables et le temps que prendrait le développement d’une puce d’IA personnalisée, malgré les moyens financiers actuellement disponibles.

Par ailleurs, le secteur des puces d’IA a récemment été confronté à des défis majeurs.

Plusieurs entreprises ont dû faire face à des licenciements et des problèmes dans le développement de puces d’IA personnalisées, mettant en lumière les risques et les complexités liés à ce domaine technologique en constante évolution.

OpenAI pourrait potentiellement être en phase de test avec une puce d’IA interne appelée Athena en collaboration avec AMD, bien que ces informations demeurent non confirmées à ce stade.

Ces développements soulignent l’effervescence et l’importance croissante des puces d’IA dans le secteur de l’intelligence artificielle et la course à l’autonomie computationnelle.