Évolution

L’intelligence artificielle avant 2000

1956, l’intelligence artificielle est officialisée.

Dès le milieu des années 60, la recherche autour de l’IA sur le sol américain était principalement financée par le Département de la Défense. Dans le même temps, des laboratoires ouvrent çà et là à travers le monde. Certains experts prédisaient à l’époque que « des machines seront capables, d’ici 20 ans, de faire le travail que toute personne peut faire ». Si l’idée était visionnaire, même en 2020 l’intelligence artificielle n’a pas encore pris cette importance dans nos vies.

En 1973-1974 arrive une période appelée le « AI Winter ». Beaucoup d’experts ne réussissent pas à faire aboutir leurs projets et les gouvernements britannique et américain réduisent leurs financements pour les académies. Ils préfèrent soutenir des idées ayant plus de chances de déboucher sur quelque chose de concret.

Dans les années 80, le succès des systèmes experts permet de relancer les projets de recherche sur l’intelligence artificielle. Un système expert était un ordinateur capable de se comporter comme un expert (humain), mais dans un domaine bien précis. Grâce à ce succès, le marché de l’IA atteint une valeur d’un milliard de dollars, ce qui motive les différents gouvernements à de nouveau soutenir financièrement plus de projets académiques.

Le développement exponentiel des performances informatiques, notamment en suivant la loi de Moore, permet entre 1990 et 2000 d’exploiter l’IA sur des terrains jusqu’alors peu communs. On retrouve à cette époque le data mining, ou encore les diagnostics médicaux.

C’est également à cette période que les jeux de société et vidéos voient apparaître un nouvel adversaire doté d’une aisance de jeu… déroutante.

2000 – 2010 : l’IA représente un enjeu de société

Au début des années 2000, l’intelligence artificielle s’intègre dans une grande quantité de films de « science-fiction » présentant des scénarios plus ou moins réalistes. Le plus marquant du nouveau millénaire étant certainement Matrix, premier volet de la saga sorti en salles le 23 juin 1999. S’en suivra A.I. de Steven Spielberg sorti en 2001, inspiré par Stanley Kubrick, puis I, Robot (2004). Metropolis (1927), Star Wars (1977), Blade Runner (1982), Tron (1982) et Terminator (1984) avaient déjà pavé la voie, mais on ne connaissait pas encore assez bien l’IA et ses applications pour imaginer de réels scénarios.

Tiens, en voilà deux que l’on connaît bien

Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones voient le jour … La connectivité et la mobilité lancent l’ère de l’Homo Numericus.

Jusqu’à 2010, on s’interroge également sur l’éthique de l’intégration de l’IA dans de nombreux secteurs. Ainsi, en 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. En 2009, le MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes lignes de la recherche sur ce domaine.

C’est pourquoi l’intelligence artificielle est très sollicitée pour avancer plus vite et produire plus dans notre société actuelle.

À partir de 2010 : l’IA sans limites

Dès le début de notre décennie, l’IA s’illustre grâce aux prouesses de Waston d’IBM. En 2011, ce super-cerveau a battu en direct les deux plus grands champions de Jeopardy!. Un exercice loin d’être simple pour un ordinateur. Néanmoins, après Deep Blue, les années 2010 marquent un tournant dans la médiatisation des recherches.

La loi de Moore continue de guider les progrès de l’intelligence artificielle, mais le traitement de la donnée vient renforcer tout cela. Pour exécuter une tâche, un système n’a besoin que de règles. Lorsqu’il s’agit d’avoir une réflexion ou de livrer la réponse la plus juste possible, il faut que ce système apprenne. C’est ainsi que les chercheurs développent de nouveaux procédés. Rapidement, ces approches nourries par les données passent de nombreux records, poussant de nombreux autres projets à suivre cette voie. De plus, le développement des technologies pour l’intelligence artificielle permet de lancer des projets très divers et de ne plus penser calcul pur et dur, mais d’intégrer le traitement des images.

La gestion des données permettra de mettre l’IA en application pour comprendre des radiographies mieux que les médecins, conduire des voitures, faire de la traduction, jouer à des jeux vidéo complexes, créer des musiques, voir à travers un mur, imaginer une partie manquante d’une photographie… Les domaines où les intelligences artificielles performent sont plus que nombreux et cela soulève de nombreuses questions sur le rôle professionnel de l’Homme dans les années à venir.

Eh oui, l’intelligence artificielle n’a pas fini de nous surprendre !

Concevoir un site comme celui-ci avec WordPress.com
Commencer