L'intelligence artificielle (IA) s'est imposée dans de nombreux domaines, des services en ligne aux applications industrielles. Face à ces progrès rapides, il est essentiel de prendre du recul et d'analyser ses impacts négatifs potentiels.
Ce sont des questions cruciales pour les futurs professionnels de l'informatique que vous êtes.
Cette section de cours vise à explorer les grands enjeux éthiques, juridiques et environnementaux de l'IA. Nous tenterons de couvrir successivement les biais algorithmiques, la transparence des modèles, la protection des données et de la vie privée, l'impact de l'IA sur l'emploi, les questions de sécurité et de mésusage, l'empreinte environnementale de l'IA, et enfin les initiatives vers une IA responsable.
Les biais algorithmiques désignent les distorsions ou discriminations que peut produire une IA en reproduisant les préjugés présents dans ses données d'entraînement. En effet, les modèles d'IA apprennent à partir de données humaines, qui peuvent contenir des préjugés sexistes, racistes ou autres. Si ces biais existent dans les données d'apprentissage, l'IA risque non seulement de les reproduire, mais parfois de les amplifier. Cela conduit à des décisions discriminatoires dans divers domaines, souvent à l'insu même de leurs concepteurs.
Origines des biais : La source principale des biais algorithmiques est la partialité des données. Par exemple, si un historique de décisions humaines inéquitables sert à entraîner un modèle, celui-ci apprendra ces tendances biaisées. Un autre facteur est le choix des caractéristiques : un algorithme peut s'appuyer sur des variables corrélées à des catégories protégées (genre, origine ethnique, etc.), induisant une discrimination indirecte.
Ces exemples illustrent comment l'IA peut perpétuer voire aggraver des discriminations existantes, souvent de manière invisible. Un modèle de vision peut mal classer des visages d'une certaine origine en raison d'un ensemble d'images d'entraînement non représentatif, ou un chatbot peut associer des stéréotypes négatifs à un groupe social s'il a été entraîné sur des textes biaisés.
Heureusement, plusieurs approches permettent de réduire ces biais :
En résumé, la lutte contre les biais de l'IA nécessite de la vigilance tout au long du cycle de vie d'un projet IA : depuis la constitution du jeu de données jusqu'à l'évaluation des sorties du modèle en production. Cette thématique est fondamentale car elle touche à des principes de justice et d'égalité de traitement. Dans des domaines sensibles comme la santé, la justice ou l'embauche, il est indispensable d'assurer une équité pour ne pas renforcer les discriminations existantes.
Un des grands défis actuels est la transparence des modèles d'IA.
Beaucoup de systèmes performants, notamment les réseaux de neurones profonds, fonctionnent comme des « boîtes noires » : ils produisent des prédictions difficiles à expliquer en termes compréhensibles par l'être humain. Autrement dit, on connaît les données d'entrée et la réponse, mais le cheminement interne du modèle -- des millions de pondérations et de calculs -- n'est pas intelligible de façon simple. Cette opacité pose problème, car elle peut diminuer la confiance dans l'IA et compliquer l'identification d'erreurs ou de biais.
Notion de boîte noire : On parle de « boîte noire » lorsque le fonctionnement interne d'un système est obscur. Dans le cas des algorithmes d'IA complexes (deep learning), même les développeurs ont du mal à retracer pourquoi le modèle a pris telle décision. Par exemple, si une IA de crédit refuse un prêt à un client, sur quels critères l'a-t-elle fait ? Si un véhicule autonome prend une décision de freinage tardive, quel enchaînement de neurones en est responsable ? Aujourd'hui, rendre ces modèles explicables est un défi technique majeur -- « comment s'assurer que l'algorithme est vraiment interprétable et explicable ? C'est encore loin d'être résolu » souligne un expert en machine learning. Cette opacité est d'autant plus problématique dans les domaines où des décisions critiques sont prises par l'IA : en médecine (diagnostic, traitement), en justice (décision de libération conditionnelle), en finance (octroi de crédit, assurance), etc. Dans ces secteurs, ne pas pouvoir justifier un résultat d'algorithme pose des enjeux éthiques et juridiques (droit à une explication, responsabilité en cas de dommage).
Pourquoi l'explicabilité est importante : Elle permet de comprendre et de faire confiance aux systèmes d'IA. Pour les utilisateurs comme pour les régulateurs, il est rassurant de savoir qu'une décision algorithmique peut être expliquée en termes clairs. L'explicabilité aide à détecter des erreurs ou des biais (si on voit que tel facteur induit un résultat absurde, on peut corriger les données ou le modèle). Elle est parfois exigée par la loi : en Europe, le RGPD consacre un droit à une « explication » dans le cadre des décisions entièrement automatisées affectant significativement une personne (par exemple un refus de prêt automatisé doit pouvoir être justifié de manière intelligible). Enfin, fournir des explications est essentiel pour l'acceptation de l'IA : un médecin sera plus enclin à suivre l'avis d'une IA diagnostique si celle-ci lui indique les signes cliniques ou images sur lesquels elle s'est appuyée.
Face à la « boîte noire », les chercheurs ont développé des méthodes d'explication a posteriori, souvent regroupées sous le terme XAI (eXplainable AI). Deux techniques répandues, sans entrer dans les détails mathématiques, méritent d'être citées : LIME et SHAP.
Ces deux techniques sont complémentaires. LIME est souvent utilisé pour comprendre une décision particulière (explication locale), tandis que SHAP aide à saisir la logique générale du modèle (importance des variables globalement). D'autres méthodes existent, comme les caméras à attention en vision (heatmaps sur les images), les contre-exemples (trouver la plus petite modification de l'entrée qui change la décision, afin de voir ce qui compte), ou encore l'ouverture du réseau neuronal couche par couche pour en extraire des règles approximatives. La recherche en IA explicable est très active, soutenue par la nécessité dans certains secteurs d'avoir des modèles interprétables par design (par exemple en finance, des modèles moins complexes mais explicables peuvent être préférés pour respecter des obligations réglementaires).
Transparence et domaines sensibles : Dans des domaines comme la santé ou la justice, cette transparence n'est pas qu'un confort, c'est une exigence éthique. Il paraît impensable d'annoncer à un patient un diagnostic généré par IA sans être capable de justifier sur quels indicateurs médicaux ce diagnostic repose. De même, si un algorithme recommande une peine de prison ou la libération d'un détenu, la personne concernée a le droit de savoir sur quels éléments (antécédents, contexte) cette recommandation a été faite. Sinon, le risque est de délégitimer la décision et de priver l'individu d'une possibilité de contestation. C'est pourquoi l'« explicabilité » est souvent mise en avant dans les principes éthiques de l'IA (par exemple, l'UNESCO en fait un des éléments clés de sa recommandation sur l'éthique de l'IA).
En pratique, atteindre une transparence totale est difficile. Tous les modèles ne peuvent pas être simples et compréhensibles, surtout quand la performance exige de la complexité. Il faut donc trouver un équilibre entre performance et interprétabilité. Parfois, on optera pour un modèle moins performant mais plus explicable, selon le contexte d'usage. Dans d'autres cas, on accompagnera un modèle puissant mais opaque d'un « module explicatif » qui en analyse les sorties (comme LIME/SHAP). Dans tous les cas, la tendance actuelle est de rendre l'IA « déloisonnée » -- ouvrir la boîte noire autant que possible -- pour instaurer une IA de confiance.
L'essor de l'IA s'est accompagné d'une explosion des données collectées.
Les systèmes apprenants, en particulier, consomment d'énormes volumes de données, dont beaucoup sont des données personnelles (photos d'utilisateurs, textes de réseaux sociaux, historiques médicaux, etc.). Cette collecte massive pose un double défi : protéger la vie privée des individus et assurer la sécurité de ces informations sensibles.
Collecte et utilisation des données : Pour entraîner un modèle de machine learning, il n'est pas rare de rassembler des données provenant de nombreuses sources (données publiques en ligne, bases clients d'entreprises, données de capteurs, etc.). Sans encadrement, cela peut mener à des atteintes à la vie privée. Par exemple, des applications mobiles peu scrupuleuses peuvent aspirer les contacts, messages ou photos des utilisateurs pour enrichir leur IA, souvent sans consentement explicite. Même des modèles grand public comme les IA conversationnelles (ChatGPT, etc.) sont entraînés sur d'immenses corpus textuels comprenant potentiellement des informations personnelles glanées sur Internet.
Une fois ces données accumulées, plusieurs risques apparaissent :
Face à ces risques, la réglementation est intervenue. En Europe, le Règlement Général sur la Protection des Données (RGPD) impose depuis 2018 des règles strictes pour tout traitement de données personnelles. Parmi les principes clés du RGPD, on trouve : le consentement éclairé des personnes, la minimisation des données collectées (ne pas recueillir plus que nécessaire), la limitation de la conservation, le droit à l'effacement (droit à l'oubli), la transparence sur les traitements, etc. Ces obligations s'appliquent pleinement aux projets d'IA manipulant des données personnelles. Par exemple, entraîner un modèle sur les données des utilisateurs d'un service requiert d'informer ces derniers et souvent de demander leur consentement, ainsi que de sécuriser fortement les données. Des manquements peuvent entraîner de lourdes sanctions (jusqu'à 20 millions d'euros d'amende ou 4% du chiffre d'affaires mondial, selon le RGPD).
Un concept phare du RGPD est le « Privacy by Design » (protection de la vie privée dès la conception). Il s'agit d'intégrer la réflexion sur la vie privée dès le début d'un projet et non en bout de chaîne. Appliqué à l'IA, cela signifie que dès qu'on conçoit le système et collecte les données, on doit prévoir des mesures de protection : anonymisation/pseudonymisation des données, sécurisation, contrôle des accès, etc. Par exemple, limiter la collecte aux seules données vraiment utiles, ou chiffrer les données sensibles dans la base d'entraînement, fait partie d'une démarche Privacy by Design. La CNIL (l'autorité française de protection des données) insiste sur le fait d'intégrer dès la conception les principes de protection des données personnelles dans tout développement en IA.
En parallèle, on voit émerger le concept de « fédération des données » ou federated learning, où le modèle est entraîné directement sur les appareils des utilisateurs (par exemple sur leur smartphone avec leurs données locales) puis seule une synthèse (les poids du modèle mis à jour) remonte au serveur. Ceci évite de centraliser les données brutes et améliore la confidentialité.
Enfin, il convient de mentionner la sensibilité particulière de certaines données face à l'IA. Les données biométriques (visage, voix, empreinte digitale) peuvent être exploitées par des IA de reconnaissance, d'où un risque pour l'identité et la vie privée (exemple : la reconnaissance faciale dans l'espace public, très controversée). Les données des enfants sont également hyper-protégées par la loi et les IA qui les traitent (ex : jouets connectés) doivent redoubler de précautions.
En résumé, l'IA doit être développée dans un cadre de confiance numérique, où l'innovation technique ne se fait pas au détriment des droits fondamentaux. Tout professionnel de l'informatique impliqué dans des projets IA doit connaître les bases de la protection des données et travailler main dans la main avec les spécialistes juridiques pour garantir un déploiement responsable. La confiance des utilisateurs en l'IA en dépend.
L'arrivée de systèmes d'IA de plus en plus performants soulève à la fois des craintes et des espoirs quant au futur du travail. D'un côté, l'automatisation intelligente promet d'augmenter la productivité et de libérer les humains de tâches pénibles ou routinières. De l'autre, beaucoup s'inquiètent de voir l'IA menacer des emplois existants, notamment parmi les postes les moins qualifiés ou les tâches répétitives.
L'IA excelle désormais dans de nombreuses tâches spécifiques : classer des documents, répondre à des questions simples, détecter des anomalies dans des logs, traduire des textes, etc. Dans les entreprises, cela se traduit par l'automatisation de certaines fonctions :
Ces exemples montrent que de nombreuses tâches répétitives, basiques ou analysables par des règles sont mûres pour l'automatisation via l'IA. Cela entraîne des gains d'efficacité importants pour les entreprises, mais pose la question du devenir des travailleurs qui effectuaient ces tâches.
Historiquement, chaque révolution technologique a inquiété sur le front de l'emploi (on se souvient des luddites brisant les machines au début de l'ère industrielle). Pour l'IA, plusieurs études ont tenté d'estimer l'impact. Certaines tâches ou métiers entiers pourraient disparaître ou se transformer radicalement. Typiquement, les emplois peu qualifiés ou très routiniers sont considérés à risque. Un rapport de l'OCDE évoquait que près de 14% des emplois actuels pourraient être automatisés à court ou moyen terme du fait de l'IA et de la robotique, et qu'encore 30% pourraient voir au moins la moitié de leurs tâches confiées à des machines.
Les sondages reflètent la peur des travailleurs : dans certains pays européens, plus de 70% des salariés disent s'inquiéter du fait que l'IA pourrait entraîner des suppressions d'emplois. Par exemple, d'après une enquête EY de 2024, l'inquiétude concernant la perte d'emploi liée à l'IA atteint 74% des personnes interrogées en Belgique, 76% en Italie, 78% en Espagne et jusqu'à 80% au Portugal. Ces chiffres montrent une anxiété réelle, même si dans des pays comme la France elle est un peu moindre (autour de 46% seulement pensaient en 2024 que leur emploi était menacé).
Il est vrai que certains métiers risquent d'être fortement réduits : par exemple, un logiciel d'IA capable de tenir une comptabilité simple et de préparer les déclarations fiscales menace directement les emplois d'assistants comptables débutants. De même, des IA de traduction très performantes peuvent diminuer la demande de traducteurs humains pour des textes courants. On voit également apparaître des robots physiques dans la logistique (tri de colis, préparation de commandes) qui concurrencent les magasiniers.
Cependant, l'histoire enseigne aussi que la technologie crée de nouveaux emplois. Avec l'IA, on observe déjà l'émergence de métiers qui n'existaient pas il y a quelques années :
En plus de ces nouveaux métiers, beaucoup de professions existantes vont simplement évoluer en intégrant l'IA comme assistant. Un médecin augmentera son diagnostic avec une IA d'aide à l'imagerie. Un juriste utilisera un assistant juridique pour la recherche documentaire. Un développeur informatique aura à disposition une IA (type Copilot) qui génère du code basique, et son rôle consistera davantage à valider, corriger et intégrer ce code, gagnant en productivité. On parle de plus en plus de complémentarité homme--machine : l'IA excelle dans le traitement massif de données et les tâches répétitives, tandis que l'humain garde l'avantage sur la créativité, l'empathie, le sens critique, la polyvalence et la responsabilité éthique.
Ainsi, nombre d'experts estiment que l'IA ne va pas tant supprimer des emplois qu'en transformer la nature. Par exemple, un comptable ne disparaîtra peut-être pas, mais son travail sera axé sur l'analyse des résultats générés par l'IA comptable et le conseil stratégique, plutôt que sur la saisie de factures. L'employabilité future passera par la montée en compétences : savoir collaborer avec l'IA, se concentrer sur les tâches à valeur ajoutée humaine. D'après une étude récente, 96% des salariés pensent d'ailleurs que l'IA peut les aider dans leur travail actuel, tout en étant 60% à craindre qu'elle ne finisse par les exclure s'ils ne s'adaptent pas.
L'inquiétude doit être tempérée par la perspective de nouveaux rôles apparaissant. En 2025, on voit déjà des intitulés d'emplois insolites liés à l'IA, preuve que le marché s'ajuste. Par exemple, certaines entreprises embauchent des spécialistes pour « entraîner » les IA conversationnelles en affinant leurs réponses (rédaction de nombreuses interactions pour calibrer le ton de l'IA). D'autres recherchent des managers capables de piloter des projets d'IA et d'expliquer ces technologies aux opérationnels.
Pour les professionnels de l'IT en formation aujourd'hui, il est important d'anticiper comment l'IA va impacter leur métier. Plutôt que d'en avoir peur, il faut l'envisager comme un outil puissant qui, bien utilisé, peut augmenter leurs capacités. Le défi sera d'acquérir suffisamment de compétences en IA pour l'utiliser à bon escient et se concentrer sur des tâches plus stratégiques ou créatives. Cette transition peut nécessiter de la formation continue. Les gouvernements et entreprises ont un rôle à jouer pour faciliter la reconversion des travailleurs dont les missions sont amenées à changer.
En conclusion, l'impact de l'IA sur l'emploi sera significatif : des tâches seront automatisées, certains emplois disparaîtront, mais de nouvelles opportunités verront le jour. L'histoire montre que les gains de productivité créent souvent plus d'emplois qu'ils n'en détruisent sur le long terme, mais cela peut créer des tensions à court terme (chômage technologique transitoire). Le vrai défi est donc social et éducatif : comment accompagner les travailleurs dans cette mutation, pour que l'IA soit synonyme de progrès partagé et non de casse sociale.
Comme toute technologie puissante, l'IA peut être utilisée à des fins malveillantes ou présenter des risques de dérives. Cette section aborde les menaces liées à un mésusage de l'IA et les enjeux de sécurité et de sûreté (AI safety).
L'IA générative permet de créer des images, des vidéos ou des sons synthétiques extrêmement réalistes. C'est le phénomène des deepfakes. S'il est possible de faire chanter un chatbot ou de générer le portrait imaginaire d'un paysage, on peut tout aussi bien fabriquer de fausses vidéos d'une personne en train de tenir des propos qu'elle n'a jamais prononcés. Ces contenus truqués se multiplient sur Internet et ouvrent une nouvelle ère en matière de désinformation. On a déjà vu des deepfakes visant des personnalités politiques -- par exemple une fausse vidéo du président ukrainien appelant à déposer les armes, ou des faux discours attribués à des chefs d'État -- circuler sur les réseaux pour tromper l'opinion. De faux audios peuvent imiter à la perfection la voix de quelqu'un (d'un PDG annonçant une fausse mauvaise nouvelle pour faire chuter le cours de bourse, etc.). La qualité des deepfakes s'améliore sans cesse, ce qui rend leur détection difficile et menace de nous faire entrer dans une « ère du faux indiscernable ». Les enjeux sont énormes : manipulations politiques, escroqueries (arnaques téléphoniques avec la voix d'un proche reproduite), atteinte à la réputation, etc. En réponse, des recherches s'organisent pour détecter les deepfakes via des analyses subtiles (détection d'incohérences dans les pixels, filigranes numériques) et les pouvoirs publics commencent à légiférer (certains pays envisagent de punir la diffusion de deepfakes malveillants, notamment à caractère pornographique ou pour la désinformation électorale).
Les pirates informatiques exploitent eux aussi l'IA. On assiste à l'essor de malwares assistés par IA. Par exemple, des modèles de langage comme ChatGPT peuvent, en théorie, aider à générer du code malveillant. Certes, ChatGPT refusera poliment si on lui demande directement « écris-moi un virus informatique », car il a des garde-fous éthiques intégrés. Mais des attaquants astucieux cherchent à contourner ces filtres par des « jailbreaks » (prompts détournés). S'ils y parviennent, l'IA peut alors fournir du code de malware, des scripts d'exploitation de failles, ou même optimiser un virus pour qu'il échappe aux antivirus. Plus inquiétant, des modèles alternatifs non bridés apparaissent sur le dark web : on parle de « FraudGPT » ou de « DarkBard » -- des IA spécialement entraînées par et pour des criminels, sans aucune censure. FraudGPT, par exemple, serait conçu pour aider à rédiger des emails de phishing convaincants, développer des outils de piratage ou commettre des fraudes bancaires. Il s'agit de versions clandestines de GPT dont les sorties ne sont pas restreintes et qui peuvent même être orientées vers certains types d'attaques.
Au-delà de la génération de code, l'IA permet aussi aux hackers de s'améliorer tactiquement :
Tous ces usages malveillants sont combattus par le domaine de la cybersécurité, qui utilise lui-même l'IA en défense (détection d'intrusion par apprentissage automatique, identification de deepfakes, etc.). C'est une véritable course à l'armement algorithmique entre attaquants et défenseurs.
Ce terme recouvre l'idée de s'assurer qu'une IA, surtout si elle devient très autonome, ne cause pas de dommages intentionnels ou accidentels. Cela inclut par exemple : empêcher qu'un système de conduite autonome ne prenne des décisions dangereuses, s'assurer qu'un robot collaboratif en usine s'arrête s'il détecte un humain sur sa trajectoire, ou encore éviter qu'une super-intelligence hypothétique ne cherche à échapper au contrôle humain. Si ce dernier scénario relève encore de la science-fiction pour certains, il est pris au sérieux par une partie de la communauté scientifique (prévenir un « accident d'IA » catastrophique, comme un algorithme boursier causant un krach éclair, ou dans le futur une IA générale prenant une mauvaise initiative).
Concrètement, plusieurs mesures sont discutées pour améliorer la sûreté :
En somme, la question de la sécurité de l'IA est vaste : il s'agit à la fois de contrer ceux qui utiliseraient l'IA pour nuire (mésusage volontaire), et de se prémunir contre des défaillances de l'IA elle-même (accident involontaire). Il est crucial de comprendre ces enjeux, car vous serez en première ligne pour mettre en place des garde-fous dans les systèmes que vous développerez peut-être. Comme pour la cybersécurité classique, une approche proactive est nécessaire : penser à la sécurité dès la conception (par exemple, faire auditer son IA par des experts « red team » qui chercheront à la manipuler), et ne jamais considérer qu'un modèle est inoffensif par défaut. Anticiper les dérives possibles et planifier des parades (banalisation de contenus, processus de validation humaine, etc.) doit faire partie du déploiement responsable de l'IA.
Souvent vantée pour ses prouesses, l'IA a aussi un côté caché moins reluisant : son empreinte écologique. Derrière les modèles virtuels se cachent des serveurs bien réels qui consomment de l'électricité, de l'eau pour le refroidissement, et des matériaux pour les construire. À l'heure où la transition écologique est un impératif, il faut prendre conscience du coût environnemental de l'IA, parfois massif, et réfléchir aux moyens de le réduire.
Entraîner un modèle d'IA, notamment les grands modèles de deep learning, demande d'énormes ressources de calcul. Des milliers de processeurs (GPU) fonctionnant en parallèle durant des jours ou des semaines, cela représente une quantité d'énergie électrique colossale. Et même une fois entraînée, une IA déployée en ligne (par ex. un assistant vocal ou un service de traduction) va consommer de l'énergie à chaque requête d'utilisateur pour faire ses inférences. D'après une estimation, l'ensemble des datacenters du monde (dont l'IA est une part croissante) représenterait environ 2.5% à 3.7% des émissions mondiales de gaz à effet de serre, soit davantage que le secteur de l'aviation. L'IA est comparée à l'industrie des crypto-monnaies sur ce point : elle nécessite des calculs intensifs 24h/24, donc une demande électrique soutenue.
Chaque étape du cycle de vie d'une IA a un impact : la collecte des données (parcours du web, stockage de gigantesques datasets), l'entraînement du modèle (calculs intensifs), puis les requêtes utilisateurs au quotidien (inférences) -- sans oublier la fabrication du matériel (construction des puces et serveurs) et éventuellement leur recyclage. Chacune de ces phases consomme de l'électricité, souvent issue d'énergies fossiles, et donc émet du CO₂, ainsi que de l'eau pour refroidir les machines (les datacenters évacuent la chaleur via des tours de refroidissement par évaporation d'eau). De plus, les équipements (GPU, circuits intégrés) nécessitent des ressources naturelles pour être produits (métaux rares, matériaux divers), dont l'extraction et le transport ont eux aussi une empreinte carbone et environnementale.
Pour rendre concrète cette empreinte, voici quelques exemples quantifiés :
Tous ces éléments soulignent que l'IA a une empreinte non négligeable. Un modèle de génération d'images comme Stable Diffusion, par exemple, peut consommer en quelques jours autant d'énergie qu'une famille en un an lors de son entraînement. Et même si, comparaison n'est pas raison, on commence à voir fleurir des équivalences parlantes : on a pu lire que entraîner GPT-3 a rejetté autant de CO₂ qu'une centaine de voitures essence sur une année, ou que générer 1000 images via une IA consommait l'équivalent de quelques kilomètres parcourus en voiture.
Il ne faut donc pas croire que seul l'entraînement « coûte ». Certes, l'entraînement d'un modèle phare représente un pic de consommation, mais si ce modèle sert des millions d'utilisateurs ensuite, son usage cumulé peut surpasser l'entraînement. Par exemple, une estimation indiquait que ChatGPT, sur un mois, avait une empreinte équivalente à plus de 250 vols transatlantiques (en comptant toutes les interactions de tous les usagers). Chaque question posée, chaque image générée, a un petit coût énergétique qui, multiplié par des milliards, devient un enjeu global.
Effet rebond : Par ailleurs, on observe un phénomène d'effet rebond : plus l'IA devient efficace et utile, plus on l'utilise, et plus on consomme de ressources au total. Par exemple, si demain chaque salarié utilise en continu un assistant IA pour toutes ses tâches, même si chaque usage isolé n'est pas énorme, la somme de tous ces usages pourrait exploser la demande énergétique du numérique.
Il est donc crucial de conscientiser l'empreinte écologique de l'IA. Cela ne signifie pas qu'il faut arrêter l'IA, mais qu'il faut innover en gardant en tête l'efficacité énergétique autant que l'efficacité fonctionnelle. Ce sujet a engendré un mouvement dit de Green AI (IA verte), que nous abordons dans la section suivante.
Après avoir dressé la liste des préoccupations, venons-en aux solutions et initiatives pour une IA plus responsable et durable. Il s'agit d'orienter la recherche et l'industrie vers des pratiques vertueuses, et d'encadrer l'IA par des règles éthiques et juridiques adaptées.
Le concept de « Green AI » a été proposé pour inciter à développer des modèles plus économes en ressources. Concrètement, cela passe par :
Toutes ces mesures visent à atténuer l'empreinte écologique de l'IA. Des initiatives ont vu le jour, comme l'outil CodeCarbon (une librairie qui permet de tracker les émissions de CO₂ d'un entraînement en fonction du lieu et de la puissance consommée), ou des programmes de benchmark qui classent les modèles aussi sur leur efficacité (voir par ex. les concours EfficientNLP). On parle également d'IA « frugale » pour désigner des solutions intelligentes mais économes, adaptées parfois aux pays émergents ou à des contextes où les ressources de calcul sont limitées.
Au-delà de l'environnement, « IA responsable » englobe l'idée d'une IA qui respecte les valeurs humaines, les droits et qui bénéficie à tous. De nombreuses organisations internationales et comités d'éthique ont planché sur des principes directeurs.
L'UNESCO a par exemple adopté en novembre 2021 une Recommandation sur l'éthique de l'IA, approuvée par 193 pays. Ce texte pose 4 valeurs fondamentales : le respect des droits de l'homme et de la dignité, la promotion de la paix et de la justice, la garantie de la diversité et inclusion, et le bénéfice partagé de l'IA pour l'environnement et la société. Il insiste sur des principes tels que la transparence, l'équité, la responsabilité humaine, la non-discrimination, la protection de la vie privée, et le partage des bénéfices de l'IA entre et au sein des pays. Par exemple, l'UNESCO encourage à ce que les systèmes d'IA intègrent par conception des mécanismes de transparence et d'explication (principe de « explicabilité »), qu'ils soient conçus pour réduire les biais et promouvoir l'égalité, et que les gouvernements investissent dans la formation et la sensibilisation du public à l'IA. Ce cadre n'est pas contraignant juridiquement, mais il donne une direction morale et politique. Il sert de base à de nombreux pays pour élaborer leur stratégie d'IA de manière éthique.
Sur le plan légal, l'Union européenne est à la pointe avec le projet de Règlement européen sur l'IA, dit AI Act. Adopté politiquement en 2023-2024, ce règlement devrait entrer en vigueur en 2025-2026. Il s'agit de la première loi au monde spécifiquement consacrée à l'intelligence artificielle. Son approche est de classer les usages de l'IA par niveau de risque et d'imposer des obligations proportionnées :
Le règlement prévoit en outre des sanctions dissuasives en cas de non-respect : jusqu'à 30 millions d'euros d'amende ou 6% (finalement 7%) du chiffre d'affaires annuel mondial pour les violations les plus graves -- un niveau calqué sur le RGPD en encore plus strict. L'AI Act vise également un large champ d'application : toute entité fournissant une IA dans l'UE devra se conformer aux règles, même si elle est établie hors d'Europe.
Une fois mise en œuvre, cette régulation européenne pourrait devenir une référence mondiale (comme l'a été le RGPD). Elle obligera les fabricants d'IA à intégrer le volet conformité dès la conception -- ce qui rejoint l'idée de « by design » responsable. Par exemple, une start-up qui développe un logiciel d'orientation professionnelle basé sur l'IA (considéré à haut risque car influençant des choix de vie) devra maintenir à jour une documentation sur son jeu de données, l'équité de son algorithme, fournir éventuellement un accès pour audit aux régulateurs, etc., sans quoi elle ne pourra commercialiser son produit en Europe.
Au-delà de l'Europe, d'autres juridictions s'activent : aux États-Unis, il n'y a pas encore de loi fédérale globale, mais des textes sectoriels et des initiatives (une AI Bill of Rights a été esquissée par la Maison-Blanche pour guider les développeurs, et des États comme la Californie travaillent sur des lois locales). La Chine impose déjà un examen de sécurité pour les nouveaux modèles d'IA et censure fortement les contenus générés, dans une optique de contrôle politique. L'ONU discute de principes internationaux, et l'OCDE a adopté dès 2019 des principes directeurs sur l'IA (non contraignants) qui recoupent ceux de l'UNESCO.
On voit également l'essor d'organismes et de projets dédiés à une IA plus responsable :