fbpx

Le fonctionnement du ChatGPT coûterait la somme astronomique de 700 000 dollars par jour

Partager

Microsoft et OpenAI versent 700 000 dollars par jour pour maintenir ChatGPT en activité. Avec la nouvelle version GPT-4, cela pourrait devenir encore plus coûteux. ChatGPT a besoin d’une puissance de calcul considérable pour calculer les réponses en fonction des demandes de l’utilisateur.

L’exécution de modèles d’apprentissage automatique à grande échelle, tels que ChatGPT, sur des serveurs peut s’avérer coûteuse en raison des ressources informatiques importantes nécessaires à l’entraînement et à la maintenance de ces modèles. En outre, le coût peut varier en fonction de facteurs tels que la taille et la complexité du modèle, la quantité de données traitées et le niveau de demande des utilisateurs.

Néanmoins, les organisations qui utilisent des modèles linguistiques d’IA peuvent considérer que les avantages de leurs capacités valent le coût de leur exploitation sur leurs serveurs. ChatGPT est le modèle linguistique le plus populaire au monde à l’heure actuelle et, selon des rapports récents, son coût d’exploitation est trés élevé.

ChatGPT coûte 700 000 dollars par jour, GPT-4 pourrait être plus onéreux

Le modèle linguistique d’OpenAI, ChatGPT, qui fournit des services de traitement du langage naturel (NLP), nécessite une puissance de calcul importante et peut coûter jusqu’à 700 000 dollars.

Ce coût élevé est principalement dû aux serveurs nécessaires pour fournir un retour d’information basé sur les données de l’utilisateur, y compris la rédaction de lettres de motivation, la génération de plans d’enseignement et l’optimisation des données personnelles. De plus, alors que Dylan Patel, analyste en chef chez SemiAnalysis, a estimé le coût du modèle GPT-3, ChatGPT pourrait maintenant être encore plus cher après l’adoption du dernier modèle GPT-4.

LIRE AUSSI  Comment l'Égypte a saboté l'accord de cessez-le-feu entre Israël et le Hamas

«La plupart de ces coûts sont liés aux serveurs coûteux qu’ils requièrent», a déclaré Patel à la publication technologique.

Si les grands model linguistiques training de ChatGPT coûtent probablement des dizaines de millions de dollars, les dépenses opérationnelles, ou coûts d’inférence, «dépassent de loin les coûts d’apprentissage lors du déploiement d’un modèle à une échelle raisonnable», ont déclaré Dylan Patel et Afzal Ahmad, un autre analyste de SemiAnalysis, à Forbes. «En fait, les coûts d’inférence de ChatGPT dépassent les coûts de machine learning sur une base hebdomadaire», ont-ils ajouté.

Athèna, l’arme secrète de Microsoft

Après avoir misé très tôt sur OpenAI, le créateur de ChatGPT, Microsoft a une autre arme secrète dans son arsenal : sa propre puce d’intelligence artificielle pour alimenter les grands modèles linguistiques responsables de la compréhension et de la génération d’un langage semblable à celui de l’homme. L’information a été révélé dans l’article The Information.

Microsoft a choici le code inerne Athèna pour cette nouvelle puce. Elle est en développement, depuis 2019 déjà, selon la même source. Les puces sont déjà disponibles pour un petit groupe d’employés de Microsoft et d’OpenAI, qui testent la technologie.

L’idée derrière la puce était double, selon The Information. Les dirigeants de Microsoft se sont rendu compte qu’ils étaient à la traîne par rapport à Google et Amazon dans leurs efforts pour construire leurs propres puces. Parallèlement, Microsoft aurait cherché des solutions moins coûteuses – ses modèles d’intelligence artificielle fonctionnaient avec des puces Nvidia connues sous le nom d’unités de traitement graphique – et a décidé de construire une puce moins onéreuse.

Près de quatre ans plus tard, plus de 300 employés de Microsoft travailleraient actuellement sur la puce. La puce pourrait être mise à la disposition de Microsoft et d’OpenAI pour un usage interne dès l’année prochaine, a indiqué The Information.

En attendant, malgré le coût impressionnant de l’exploitation de ChatGPT, OpenAI semble être dans une situation financière stable grâce au succès de l’application.

Les limites d’application de ChatGPT

ChatGPT peut également générer du code fonctionnel à partir de zéro, ce qui fait craindre qu’il ne remplace un jour les programmeurs. Toutefois, des recherches récentes suggèrent que le code généré par le chatbot ne serait pas très sûr.

Pour vérifier les capacités de ChatGPT en matière de codage, les chercheurs lui ont demandé de générer 21 programmes et scripts à l’aide de quatre langages de programmation : C, C++, Python et Java, indique TechSpot. Au premier essai, le chatbot IA n’a réussi à écrire que cinq programmes sécurisés, mais il a ensuite produit sept autres extraits de code sécurisés après avoir été invité à le faire par les chercheurs.

Les résultats suggèrent que l’utilisation de ChatGPT pour coder des applications pourrait être dangereuse dans un avenir proche, bien que cela puisse changer à un moment ou à un autre.

Laisser un commentaire

Your email address will not be published.

- Advertisement -