L'Intelligence Artificielle Générale (IAG -- AGI en anglais pour Artificial General Intelligence), désigne un concept théorique d'intelligence artificielle qui posséderait des capacités cognitives équivalentes à celles d'un être humain. Autrement dit, une véritable IAG aurait la capacité de comprendre et de résoudre n'importe quel problème intellectuel, comme le ferait un humain. Ce concept est en opposition aux IA actuelles dites « spécialisées », qui sont limitées à des domaines particuliers.
En résumé, une IA spécialisée peut exceller dans une tâche précise -- par exemple, battre le champion du monde aux échecs comme l'a fait Deep Blue, ou bien générer du texte de haute qualité comme le fait ChatGPT -- mais elle ne saura pas d'elle-même apprendre ensuite à cuisiner un gâteau ou à réparer une voiture sans être reprogrammée ou ré-entraînée pour ces nouvelles tâches. Une IAG, en théorie, serait capable de le faire.
En d'autres termes, l'IA classique actuelle est conçue pour exceller dans des tâches spécifiques, alors que l'IAG « aspire à une intelligence comparable à celle d'un être humain », capable de « comprendre le monde dans toute sa complexité, d'apprendre de manière autonome et de s'adapter à des situations nouvelles ». En clair, une IAG pourrait résoudre une grande variété de problèmes, raisonner, faire preuve de créativité et même posséder une forme de conscience de soi.
L'IAG demeure pour l'instant un objectif de long terme et hautement spéculatif.
À ce jour (2025), aucune IAG complète n'a été réalisée -- les systèmes d'IA existants, même les plus avancés, restent spécialisés ou tout au plus polyvalents dans un ensemble restreint de domaines. Par exemple, les grands modèles de langage (Large Language Models, LLM) récents comme GPT-5 ont des capacités impressionnantes sur de nombreuses tâches, mais ils ne constituent pas pour autant des intelligences générales. Des chercheurs de Microsoft ont certes observé en 2023 que GPT-4 pouvait résoudre des problèmes nouveaux et difficiles dans des domaines variés (mathématiques, programmation, vision, médecine, droit, etc.) avec des performances proches d'un humain -- si bien qu'ils le décrivent comme une version précoce mais incomplète d'un système d'AGI. Cette publication, intitulée « Sparks of Artificial General Intelligence », a marqué les esprits en suggérant que des « étincelles » d'intelligence générale semblent émerger dans les IA actuelles. Néanmoins, le consensus dans la communauté scientifique reste que GPT-4 (et ses semblables) n'est pas une IAG aboutie et présente encore de sérieuses limitations.
En effet, malgré leurs prouesses, les IA actuelles conservent des limites importantes qui les différencient d'une véritable IAG. Par son architecture même, un modèle comme ChatGPT (basé sur GPT-4) ne garantit pas un raisonnement logique infaillible, peut fournir des réponses erronées ou incohérentes, n'a pas de connaissances actualisées en temps réel, et peut être trompé par de simples manipulations dans les requêtes (attaques par prompt injection). De plus, ces IA, bien que très sophistiquées, ne font que simuler une forme d'intelligence à partir de corrélations statistiques dans d'énormes volumes de données. Elles ne manifestent pas (à ce stade du moins) de véritable compréhension du monde physique ou social, ni d'autonomie au sens où elles définiraient elles-mêmes des buts au long cours. Par exemple, ChatGPT n'a ni motivations propres ni conscience de soi : il suit les instructions et génère des réponses probables à partir de son entraînement, sans intentionnalité réelle.
Quand peut-on espérer atteindre une IAG ? Il n'y a actuellement aucun consensus sur un échéancier, et les avis divergent largement. Certaines figures du domaine affichent un optimisme marqué : par exemple, Shane Legg, cofondateur de DeepMind, estimait en 2023 qu'il y avait 50 % de chances qu'une IAG émerge d'ici 2028. D'autres experts et chercheurs sont beaucoup plus prudents, voire sceptiques. Une enquête récente de l'Association for the Advancement of Artificial Intelligence (AAAI) auprès de 475 spécialistes montre qu'une large majorité d'entre eux doute qu'une simple prolongation des méthodes actuelles suffise -- 76 % des chercheurs interrogés jugent improbable d'atteindre l'IAG en se contentant d'« amplifier » les modèles actuels (par exemple en les rendant juste plus gros et plus rapides). En d'autres termes, beaucoup pensent qu'il faudra de nouvelles idées ou architectures pour franchir le cap, et pas seulement plus de calcul ou de données.
Plusieurs arguments étayent l'idée que l'IAG pourrait être encore lointaine. Le philosophe Nick Bostrom souligne le « problème de la complexité des valeurs », en référence aux innombrables notions de valeur, de bon sens et de nuances que l'humanité a développées au cours de son évolution. Reproduire une intelligence englobant toute cette complexité pourrait être un travail de plusieurs décennies, sinon plus. De même, le roboticien Rodney Brooks insiste sur l'importance du corps et de l'expérience incarnée : selon lui, une véritable intelligence générale nécessiterait d'être intégrée à un corps physique interagissant de façon continue avec un environnement riche sur une très longue période. Ces perspectives suggèrent que l'IAG, surtout dans sa version « forte » imaginée par certains (une IA consciente et autonome), est encore loin de devenir une réalité.
En pratique, la recherche progresse surtout par des avancées incrementales sur l'IA dite étroite. Les modèles actuels s'améliorent graduellement et repoussent les limites dans leurs domaines respectifs (vision, langage, robotique, etc.). Par exemple, les dernières versions de systèmes génératifs d'images ou de langage montrent des progrès tangibles chaque année. Toutefois, ces progrès peuvent donner l'impression de ralentir à mesure qu'un certain niveau de performance est atteint : améliorer un modèle déjà très performant requiert des efforts exponentiels, ce qui fait que les améliorations deviennent plus subtiles -- un phénomène qu'on peut assimiler à une forme de rendements décroissants dans le deep learning. Comme l'a confié le professeur Stuart Russell (UC Berkeley) : « Les investissements massifs dans la mise à l'échelle, sans efforts équivalents pour comprendre les mécanismes sous-jacents, m'ont toujours semblé mal orientés. Il y a environ un an, tout le monde s'est rendu compte que les bénéfices classiques liés à la mise à l'échelle avaient atteint un plateau ». De fait, fin 2023, il a été rapporté en interne que la nouvelle version du modèle GPT d'OpenAI n'apportait que peu d'améliorations significatives par rapport à la précédente, et Sundar Pichai (PDG de Google) déclarait que les « gains faciles » en IA étaient désormais derrière nous. Ces signes indiquent que la route vers une véritable IAG nécessitera probablement autre chose que de simplement entraîner des modèles plus grands sur plus de données.
On entend parfois une inquiétude : l'avènement hypothétique de l'IAG pourrait s'accompagner d'un « effondrement qualitatif » des IA actuelles, qui deviendraient obsolètes ou délaissées au profit de cette quête de l'intelligence générale. Il s'agit en réalité d'un malentendu sur la dynamique du domaine. Le développement de l'IAG ne se fait pas au détriment des progrès des IA spécialisées ; au contraire, il s'appuie sur ceux-ci. Voici quelques éléments à considérer :
Comme mentionné, plus un modèle d'IA est poussé vers un haut niveau de performance, plus il est coûteux en données, en temps de calcul et en efforts d'ingénierie de gagner encore un petit pourcentage de performance. Les avancées récentes peuvent sembler moins spectaculaires qu'il y a quelques années, ce qui peut donner l'illusion que l'IA progresse moins vite. En réalité, les progrès continuent, mais ils sont plus graduels et souvent moins visibles pour le grand public. Les experts notent par exemple que les bénéfices de la simple montée en échelle (scaling) commencent à stagner par rapport aux investissements déployés. Cela ne signifie pas que la qualité régresse, mais plutôt que les améliorations suivent une courbe plus asymptotique qu'exponentielle.
Un autre sujet de préoccupation est la qualité des données d'entraînement à l'avenir. Avec l'explosion du contenu généré par l'IA sur Internet, certains craignent que les futurs modèles soient entraînés en partie sur des données déjà produites par d'autres IA, et non sur des données humaines fraîches. Ce recyclage pourrait introduire des erreurs accumulées et un appauvrissement progressif de la qualité, un phénomène que des chercheurs ont qualifié de « model collapse » (effondrement de modèle). En termes simples, si une IA apprend à partir de contenus artificiels biaisés ou dégradés générés par ses prédécesseurs, elle risque de perdre en précision et en diversité au fil des générations. Il s'agit d'un défi technique réel pour la communauté, mais des solutions sont explorées (filtrage des données, recours accru à des données d'origine humaine, etc.) pour éviter ce piège. Quoi qu'il en soit, ce problème potentiel n'implique pas que l'on abandonne les IA actuelles ; au contraire, on cherche à les rendre plus robustes en garantissant la qualité des données.
Enfin, l'attention médiatique portée aux perspectives futuristes de l'IAG peut donner l'impression que les IA spécialisées actuelles sont dépassées ou en passe d'être obsolètes. Depuis que des personnalités technologiques très en vue (Elon Musk, Sam Altman, etc.) et des chercheurs publient des tribunes ou alertent sur l'arrivée possible d'une super-intelligence, le grand public entend beaucoup parler d'IA générale. Ce buzz peut occulter le fait que, dans la pratique, les IA dites « simples » restent au cœur de 99 % des applications de l'IA aujourd'hui. Il ne faut pas confondre la couverture médiatique (qui adore les récits de science-fiction sur une IA surpuissante imminente) avec la réalité des laboratoires et des entreprises. Dans les faits, les chercheurs et développeurs en IA continuent de se concentrer majoritairement sur l'amélioration des systèmes existants, tout en gardant en toile de fond l'objectif lointain de l'IAG. D'ailleurs, selon l'enquête de l'AAAI mentionnée plus haut, en 2025 seuls 23 % des chercheurs interrogés déclarent faire de la quête de l'IAG une priorité, tandis que 77 % d'entre eux placent plutôt au cœur de leurs travaux l'analyse des risques et bénéfices des IA actuelles. Cela montre bien que la communauté ne s'est pas détournée des enjeux concrets présents pour courir après un rêve lointain ; au contraire, elle prend du recul et aborde l'avenir avec pragmatisme.
L'IAG est un concept fascinant, ambitieux, un poil inquiétant aussi -- celui d'une machine aussi polyvalente et intelligente qu'un humain -- mais elle ne remplacera pas de sitôt les IA actuelles. Au contraire, le chemin qui y mène passe par des IA spécialisées toujours plus performantes, et ces dernières resteront pendant longtemps des outils irremplaçables pour nos besoins quotidiens. On peut voir les IA étroites et la recherche vers l'IAG comme complémentaires : les avancées de l'une nourrissent l'autre. Par exemple, les améliorations des modèles de vision ou de langage profitent à l'objectif d'une intelligence plus générale, tandis que les réflexions sur l'IAG conduisent à mieux structurer certains problèmes et à développer de nouvelles méthodes qui redescendent ensuite vers les applications spécialisées. Plutôt que d'opposer IA actuelle et IA générale, il vaut mieux comprendre que l'évolution se fait de manière cumulative et intégrative.
Par ailleurs, les véritables préoccupations des experts en 2025 ne sont pas une crainte d'« effondrement » de la qualité des modèles actuels au profit d'une IAG mystique. Leurs préoccupations se situent sur des terrains bien concrets : la consommation énergétique exponentielle des modèles (et son impact écologique), la disponibilité de données de qualité pour entraîner les futurs systèmes, la question de l'alignement des IA sur les valeurs et les objectifs humains (comment s'assurer qu'un système intelligent, qu'il soit étroit ou général, agisse dans l'intérêt de l'humanité), ainsi que les risques éthiques et sociétaux posés par des IA de plus en plus puissantes (biais, désinformation, impact sur l'emploi, etc.). Ces défis existent dès à présent avec les IA spécialisées et seront tout aussi cruciaux -- voire plus -- le jour où une IAG verra le jour. En somme, l'IAG reste pour l'instant un horizon lointain qui fait l'objet de recherches exploratoires, sans nuire aux progrès des IA actuelles. Au contraire, la quête de l'IAG s'appuie sur les succès des IA spécialisées, et d'ici là nous continuerons de bénéficier d'IA de plus en plus avancées dans chaque domaine. L'objectif ultime d'une intelligence artificielle générale stimule l'innovation, mais il n'handicape en rien les développements présents -- il les oriente tout au plus.
En définitive, il n'y a pas lieu de craindre un « effondrement » des IA actuelles à cause de l'IAG. Mieux vaut suivre avec lucidité l'amélioration continue de ces IA spécialisées tout en participant aux débats sur l'IAG de demain de manière éclairée. L'Intelligence Artificielle Générale est un sujet passionnant pour la recherche et la réflexion philosophique, mais dans la pratique d'aujourd'hui, ce sont bien les IA spécialisées -- de plus en plus sophistiquées -- qui transforment notre monde, étape par étape, en attendant éventuellement un saut qualitatif futur vers la généralité.
Qques Sources : Les explications et affirmations ci-dessus s'appuient sur des analyses récentes et des avis d'experts, notamment l'article Polytechnique Insights sur l'IAG et sa régulation, le rapport d'enquête de l'AAAI résumé par Trust My Science (mars 2025), ainsi que des travaux de recherche tels que l'étude de Microsoft Research sur GPT-4 intitulée « Sparks of AGI ». Des publications d'IBM et d'autres acteurs de l'IA ont également été utilisées pour illustrer le concept de model collapse et les défis actuels liés aux données d'entraînement.