L’intelligence artificielle (IA) fait partie de l’informatique. Elle vise à créer des systèmes pour réaliser des tâches nécessitant l’intelligence humaine. Les systèmes d’IA peuvent traiter d’énormes volumes de données, en tirer des schémas et adapter leurs actions. Contrairement aux programmes classiques, l’IA s’améliore seule.
L’idée de machines autonomes existe depuis longtemps. Des automates mécaniques ont été conçus dans l’Antiquité. Le mot “automate” vient du grec ancien. Des pigeons mécaniques apparaissent dès 400 av. J.-C. Léonard de Vinci a également conçu un automate célèbre en 1495. Cependant, l’IA moderne dépend de l’émergence de l’informatique.
Les prémices de l’IA : 1900-1950
Au XXe siècle, le concept d’humains artificiels a commencé dans la culture populaire. Cela a incité les scientifiques à explorer l’idée de créer un cerveau artificiel. Les premières réalisations étaient de simples robots mécaniques alimentés par la vapeur. Le terme “robot” émerge dans une pièce tchèque en 1921.
Dates clés :
- 1921 : Karel Čapek dévoile “Rossum’s Universal Robots”. Le terme “robot” nait.
- 1929 : Makoto Nishimura construit Gakutensoku, le premier robot japonais.
- 1949 : “Giant Brains” crée une analogie entre ordinateurs et cerveau.
La naissance de l’IA : 1950-1956
Cette période marque le passage à une discipline formelle. Alan Turing établit un critère pour mesurer l’intelligence des machines. Un groupe de chercheurs structure le domaine. Leurs travaux ouvrent la voie à l’IA moderne.
Dates clés :
- 1950 : Turing publie “Computer Machinery and Intelligence”. Le Test de Turing nait.
- 1952 : Arthur Samuel construit un jeu de dames apprenant par lui-même.
- 1955 : John McCarthy introduit le terme “intelligence artificielle” lors d’un séminaire à Dartmouth.
Maturation et premières contraintes : 1957-1979
Cette phase a vu le développement d’outils essentiels, mais aussi des limites pratiques. Des langages de programmation et des concepts apparaissent. Les promesses se heurtent à des contraintes de calcul et à une complexité accrue. Ce décalage incite à réduire les financements.
Dates clés :
- 1958 : John McCarthy crée LISP, un langage pour IA.
- 1959 : Samuel introduit “machine learning”.
- 1961 : Unimate devient le premier robot industriel dans une usine GM.
- 1965 : Un système expert modélise le raisonnement humain.
- 1973 : Le rapport Lighthill souligne les écarts entre promesses et résultats, réduisant les financements publics.
- 1979 : Le Stanford Cart traverse une pièce sans aide humaine.
Le cycle de l’IA : « boom » (1980-1987) et « hiver » (1987-1993)
Les années 80 montrent bien ce cycle d’investissements. Le succès commercial des systèmes experts et des financements gouvernementaux massifs apparait au Japon. Ensuite, un “hiver” suit les attentes déçues, car les systèmes experts deviennent coûteux et limités.
Dates clés :
- 1980 : XCON est le premier système expert commercial.
- 1981 : Le projet japonais “Ordinateurs de cinquième génération” dispose de 850 millions.
- 1986 : Une première voiture sans conducteur est testée en Allemagne.
- 1987 : Le marché des machines LISP s’effondre.
- 1988 : Jabberwacky, le chatbot engageant, est créé par Rollo Carpenter.
L’ère des agents intelligents : 1993-2011
Après l’hiver, les recherches se concentrent sur des problèmes concrets. L’objectif ne vise plus l’intelligence générale, mais la résolution de tâches spécifiques avec performance accrue. L’IA commence à s’intégrer dans des systèmes grand public tels que la reconnaissance vocale et les recommandations.
Dates clés :
- 1997 : Deep Blue bat Garry Kasparov aux échecs, montrant la puissance du calcul.
- 2002 : Roomba, le premier aspirateur robot, est lancé.
- 2003 : Les rovers Spirit et Opportunity naviguent sur Mars.
- 2006 : Facebook et Twitter utilisent l’IA pour personnaliser l’expérience utilisateur.
- 2011 : Watson d’IBM remporte Jeopardy!, prouvant ses capacités en traitement du langage.
- 2011 : Siri d’Apple devient le premier assistant vocal populaire.
L’ère de l’apprentissage profond : 2012-aujourd’hui
La période actuelle est marquée par trois facteurs clés. D’abord, la disponibilité de Big Data. Ensuite, une puissance de calcul massive grâce aux GPU. Enfin, des avancées en réseaux de neurones. Cela a permis le surpassement des limites antérieures en reconnaissance d’images et génération de langage.
Dates clés :
- 2012 : Des chercheurs de Google apprennent à un réseau neural à reconnaître des chats grâce à des images non étiquetées.
- 2015 : Une lettre ouverte demande l’interdiction des armes autonomes.
- 2016 : Hanson Robotics dévoile Sophia, un robot humanoïde interactif.
- 2020 : OpenAI lance GPT-3, capable de générer un texte d’une qualité étonnante.
- 2021 : DALL-E est créé par OpenAI pour générer des images à partir de texte.
Perspectives
Plutôt que de prévoir des applications spécifiques, il convient d’observer les évolutions sous-jacentes. L’automatisation des tâches cognitives destinées aux humains avance. Une intégration accrue de l’IA dans les infrastructures critiques est probable. Cela modifie le marché du travail et mène à la création de systèmes plus autonomes , surtout dans les transports et la logistique.