Selon Sam Altman, PDG d’OpenAI, les formules de politesse adressées à ChatGPT pourraient coûter «des dizaines de millions de dollars» en électricité. Derrière cette remarque ironique, se pose une question sérieuse: nos échanges avec les IA sont-ils neutres pour la planète?
Chaque réponse générée consomme en moyenne 0,3 watt-heure, un chiffre faible en soi, mais qui devient conséquent multiplié par des millions de requêtes. En 2023, une étude estimait qu’une seule réponse équivaut à la consommation d’une bouteille d’eau pour refroidir les serveurs, et jusqu’à trois bouteilles pour 100 mots générés par GPT-4.
Faut-il alors renoncer à la politesse avec les bots? Pas nécessairement. Certains utilisateurs rapportent que des requêtes respectueuses produisent de meilleures réponses. La courtoisie pourrait même devenir une variable influençant les résultats.
Pour OpenAI, le coût reste justifié. Mais à l’échelle planétaire, ces petits mots accumulés dessinent une nouvelle réalité énergétique à ne pas ignorer.