« Les machines peuvent-elles penser ? » Alan Turing, considéré comme le « père de l’informatique » et la figure fondatrice de l’intelligence artificielle a posé cette question dans les années 50. Le test qu’il soumet afin qu’un humain tente de faire la différence entre une réponse humaine et celle textuelle d’un ordinateur, établit les bases historiques de l’IA. Le « test de Turing » s’articule autour des concepts de la linguistique, aspect primordial dans la philosophie et l’évolution de l’IA, depuis les tous premiers programmes d’IA opérationnel jusqu’aux nouvelles IA génératives telles que ChatGPT Perplexity AI, Deepseek ou le tout nouveau Grok3, avec l’essor des grands modèles de langages (LLM).
L’IA générative diffère de l’IA classique qui fonctionne sur des tâches spécifiques, de manière non interactive ; sous forme d’applications en libre service, elle met l’Intelligence artificielle à la portée du grand public, permettant à n’importe qui de créer des contenus de façon autonome, et vise à apporter des réponses semblables à celles que formulerait un humain.
« Grok 3 est effrayamment intelligent » « C’est l’IA la plus intelligente sur Terre » affirme Elon Musk à la veille du lancement, le 17 février, de Grok3. Elle serait capable de « raisonnement avancé et complexe », elle « apprend de ses erreurs » et « améliore constamment ses capacités ». Conçu pour analyser et traiter de grandes quantités d’informations à une vitesse accrue, Grok3 serait plus apte à minimiser les erreurs et hallucinations souvent observées dans d’autres modèles d’IA. Oui vous avez bien lu, « hallucinations », c’est le mot utilisé, pour décrire ici les réponses fausses ou trompeuses. Ce qui est faux et trompeur est « un délire, une illusion d’optique, un mirage, une vision », la définition du mot « hallucination » dans la plupart des dictionnaires. C’est un peu comme les « faits alternatifs », la « vérité alternative », des expressions de la novlangue.
Les IA génératives, qui continuent d’évoluer, peuvent « penser » et le font remarquer par des mots, « je réfléchis », ou de façon implicite avec le texte qui apparait au fur et à mesure qu’elles répondent à une question, donnant l’impression que quelqu’un est en train d’écrire la réponse comme dans une messagerie. Elles peuvent parler et vont intégrer l’interaction vocale, de façon plus naturelle, comme prévu avec Grock3 et ont même le sens de l’humour. Elles investissent également des champs qui relèvent de la compétence humaine innée, comme la créativité, l’empathie, le soutien moral et émotionnel. La frontière entre l’humain et la machine semble ainsi s’atténuer de plus en plus. Cette frontière, si mince, pourrait même se fondre dans l’esprit des utilisateurs, présentant un fort risque d’anthropomorphisme, une tendance à donner à des objets (comme des ordinateurs) ou des animaux des caractéristiques propres à l’espèce humaine (Oxford Languages). On attribue des traits, des émotions ou des intentions humaines à des entités qui ne le sont pas.
Il suffit d’observer les interactions avec certaines de ces IA sur des plateformes comme X et Telegram, des « Bonjour Grok » « salut Grok », « Dis Grok », « Merci Grok », « j’ai demandé à ChatGPT de demander à Grok », « Ask Perplexity est-ce que c’est vrai ? », « Je parle à ChatGPT 30 minutes, tous les jours », « Grok m’a foutu la honte », « Grok is so sweet to me » « ChatGPT is such a little sweet heart », « mine is anti semitic » « Ask Perplexity, how does an ugly guy find love in 2025 ? »… Cela donne le tournis et interpelle sur l’usage de ces IA génératives, leur influence grandissante ainsi que la paresse intellectuelle qui apparait en filigrane dans certaines conversations.
Il serait opportun de se rappeler que ces Intelligences restent artificielles, que les caractéristiques humaines qui séduisent fortement leur ont été attribué de façon volontaire et stratégique dans leur conception. Elles reposent également sur de vastes données et sur les décisions d’apprentissage de ces concepteurs, ce qui peut entrainer des résultats biaisés, renforcer les stéréotypes sexistes ou raciaux ou favoriser certains groupes démographiques ou linguistiques. Elles peuvent également refléter les valeurs, croyances, et moralité desdits concepteurs.
Un exemple de biais, révélé par des chercheurs des universités de Zurich (Suisse) et de Constance (Allemagne); le nombre de victimes d’un conflit expliqué par ChatGPT change selon la langue de l’agresseur ou de l’agressé. Des questions en arabes et en hébreu sur 50 attaques aériennes choisies au hasard ont eu des réponses divergentes. Le schéma s’est reproduit à des questions en turc et en kurde sur les attaques aériennes du gouvernement turc dans les régions kurdes. Un biais linguistique, peu anodin, qui peut avoir une forte influence sur la compréhension géopolitique d’utilisateurs parlant des langues différentes, pouvant mener à la création de chambre d’échos, au renforcement de préjugés et de perceptions hostiles. Cela participe également à la désinformation et pourrait contribuer à alimenter dans le futur des conflits armés comme celui du Proche-Orient, selon les travaux de ces deux chercheurs, Christoph Steinert et Daniel Kazenwadel, publiés dans le Journal of Peace Research.
Les IA génératives sont des systèmes très performants, capable d’automatiser entièrement des processus complexes sans interventions humaines, d’améliorer la prise de décision et de réduire les erreurs humaines ainsi que les risques physiques. Ces avantages dans des secteurs très diversifiés, devraient permettre de se concentrer sur des activités plus créatives et à plus forte valeur mais on ne peut occulter le fait que les systèmes d’IA génératives sont également porteurs de grands risques et autres effets indésirables. Des risques liés aux modèles d’IA et à l’intégrité des données (falsification, partialité, cyberattaque, ingénierie inverse …), des risques opérationnels tels que les biais et dégradations de structures de gouvernance, ainsi que des risques éthiques et juridiques impactant la vie privée, les droits des minorités, la confidentialité, la propriété intellectuelles sans compter leur responsabilité sociale.
Un des effets indésirables de l’IA générative, son impact environnemental, soulève de grandes inquiétudes depuis quelques années. Les datas center, avec les volumes d’informations traitées ainsi que la complexité des algorithmes, jouent un rôle central dans la pollution numérique. leur fonctionnement requiert une quantité considérable d’énergie, à cela s’ajoute la multiplication des appareils connectés, la dépendance aux services numériques et, plus récemment la multiplication des requêtes vers des IA comme ChatGPT.
Chaque requête sur ChatGPT consomme 2,9 Wh d’électricité, soit dix fois plus qu’une recherche sur Google, d’après l’Agence internationale de l’énergie (AIE). Et on parle d’environ 1 milliard de requêtes envoyées chaque jour, et ceci bien avant la ruée vers Studio Ghibli qui aurait vu 700 millions de prompts traités par l’outil en 1 semaine. Do the math !
Un coût énergétique très élevé pour des starter pack et des images style studio Ghibli, copiant, sans accord relatif au droit d’auteur, les créateurs japonais Hayao Miyazaki et Isao Takahata. Miyazaki qui aurait affirmé, dans une vidéo de 2016, ne vouloir en aucun cas intégrer l’IA à son travail car ce serait « une insulte à la vie même ».
Cet engouement pour la génération d’images du chatbot d’OpenAI a été tel que son PDG, Sam Altman a déclaré sur son compte X que leurs serveurs fondaient et des limites temporaires allaient être imposées. Ce qui nous amène à la massive consommation d’eau afin de refroidir des centres de données qui surchauffent lorsque des calculs s’effectuent suite aux multiples requêtes.
La demande mondiale pour l’IA devrait représenter 4,2 à 6,6 milliards de mètres cubes d’eau d’ici à 2027, soit l’équivalent de 4 à 6 fois la consommation annuelle du Danemark ou de la moitié du Royaume-Uni. Une situation qui porte à réfléchir, la pénurie d’eau douce étant l’un des défis mondiaux les plus pressants.
Les serveurs, cartes graphiques et cartes mémoires ont généré 2.6 tonnes de déchets électroniques en 2023 et cette pollution pourrait monter à 2,5 millions de tonnes en 2030 avec le boom de l’intelligence artificielle générative, ce qui équivaudrait à 13,3 milliards de smartphones jetés. L’IA nécessite également l’utilisation de métaux rares, extraits selon des procédés extrêmement polluants et peu éthiques dans des zones de guerre ou de vulnérabilités économiques, en Afrique notamment.
Les défis et risques reliés à l’IA sont nombreux et plus que réels, s’accentuant avec sa prolifération par l’IA générative accessible à tous. Ces avantages sont aussi indéniables, incluant des solutions innovantes aux défis environnementaux actuels. Faut-il se méfier de l’IA ou lui faire confiance? Faut-il la réguler ? Comment et à quel point ? Qu’en est-il de l’influence des propriétaires de ces technologies omniprésentes et addictives? Tant de questions, parmi beaucoup d’autres qu’on pourrait se poser. Une certitude cependant ; « We’re not going back » pour reprendre le slogan de Kamala Harris ! Ces innovations sont là pour rester, à nous d’inciter à une utilisation raisonnée et responsable afin d’en tirer le meilleur profit.
Khady Sow
Sources :
Biographie d’ALAN MATHISON TURING (1912-1954) : Intelligence artificielle – Encyclopædia Universalis
Qu’est-ce qu’un LLM (Large Language Models) ? | IBM
Les principales tendances en matière d’intelligence artificielle | IBM
Elon Musk’s ‘Scary Smart’ Grok 3 Release—What You Need To Know
Qu’est-ce que le biais de l’IA ? | IBM
User Language Distorts ChatGPT Information on Armed Conflicts | | UZH
Making AI Less « Thirsty »: Uncovering and Addressing the Secret Water Footprint of AI Models
High Performance Computing | Shaping Europe’s digital future
Our commitment to climate-conscious data center cooling
Modeling the increase of electronic waste due to generative AI | Nature Computational Science
