Le Machine Learning (aussi appelé « ap­pren­tis­sage au­to­ma­tique ») est un domaine de l’in­tel­li­gence ar­ti­fi­cielle dans lequel des modèles in­for­ma­tiques ap­pren­nent à partir de données pour faire des pré­dic­tions ou prendre des décisions sans pro­gram­ma­tion explicite. Il n’intéresse pas seulement le monde scien­ti­fique et les en­tre­prises tech­no­lo­giques comme Google ou Microsoft. Le monde du marketing peut également être trans­formé par les dé­ve­lop­pe­ments de l’in­tel­li­gence ar­ti­fi­cielle.

Qu’est-ce que le Machine Learning ?

Par principe, les machines, les or­di­na­teurs et les pro­grammes ne fonc­tion­nent que de la façon dont vous les avez préa­la­ble­ment con­fi­gu­rés : « si le cas A survient, alors activer B ». Cependant, nos attentes à l’égard des systèmes in­for­ma­tiques modernes sont de plus en plus élevées et les pro­grammes ne peuvent prévoir tous les cas ima­gi­nables ni imposer une solution à l’or­di­na­teur. Il est donc né­ces­saire que le logiciel prenne des décisions de manière in­dé­pen­dante et réagisse de manière ap­pro­priée aux si­tua­tions inconnues. Pour ce faire, des al­go­rithmes doivent être dis­po­nibles pour permettre aux pro­grammes d’apprendre. Cela signifie que, dans un premier temps, le système doit être alimenté en données et, dans un second temps, établir des as­so­cia­tions : c’est là le principe du Machine Learning.

Dans ce contexte, des termes connexes ap­pa­rais­sent ré­gu­liè­re­ment, qu’il convient de définir afin de mieux com­prendre le concept d’ap­pren­tis­sage au­to­ma­tique.

AI Model Hub
Votre pla­te­forme d'IA mul­ti­mo­dale sécurisée
  • Conforme au RGPD et hébergée en toute sécurité en Europe
  • Modèles d'IA les plus puissants
  • Open source, sans vendor lock-in

In­tel­li­gence ar­ti­fi­cielle

La recherche sur l’in­tel­li­gence ar­ti­fi­cielle (IA) tente de créer des machines capables d’agir comme des êtres humains : en effet, les or­di­na­teurs et les robots sont censés analyser leur en­vi­ron­ne­ment et ainsi prendre la meilleure décision possible. Les robots doivent donc se comporter de manière « in­tel­li­gente ». Mais cela soulève une question : quels critères devons-nous utiliser pour juger de notre propre in­tel­li­gence ? Aujourd’hui, l’IA ne peut pas simuler l’être humain dans son entier (notamment l’in­tel­li­gence émo­tion­nelle). Au lieu de cela, des aspects partiels sont isolés afin de faire face à des tâches spé­ci­fiques. C’est ce que l’on nomme com­mu­né­ment l’in­tel­li­gence ar­ti­fi­cielle faible.

Depuis 2022, les systèmes utilisant l’IA gé­né­ra­tive comme les as­sis­tants IA (ChatGPT par exemple) ont connu une forte crois­sance. Ils sont basés sur des modèles de type trans­for­ma­teur (Trans­for­mer) capables de générer du texte, des images ou du code à partir d’énormes quantités de données. Néanmoins, il s’agit toujours de systèmes spé­cia­li­sés qui ne possèdent pas de véritable in­tel­li­gence générale.

Réseau neuronal

Une branche de la recherche sur l’in­tel­li­gence ar­ti­fi­cielle, la neuro-in­for­ma­tique, tente de concevoir des or­di­na­teurs davantage inspirés du cerveau. Elle considère les systèmes nerveux comme abstraits, c’est-à-dire libérés de leurs pro­prié­tés bio­lo­giques et confinés à leurs modes de fonc­tion­ne­ment. Les réseaux de neurones ar­ti­fi­ciels sont prin­ci­pa­le­ment des méthodes ma­thé­ma­tiques abs­traites. Un réseau de neurones (fonctions ma­thé­ma­tiques ou al­go­rithmes) est organisé à l’image du cerveau humain et peut s’attaquer à des tâches complexes. Les liens entre les neurones varient en force et peuvent s’adapter aux problèmes.

Le dé­ve­lop­pe­ment des réseaux neuronaux a conduit à l’essor du Deep Learning. Il s’agit de réseaux neuronaux complexes com­por­tant de nom­breuses couches (layers), très répandus aujourd’hui.

Big Data

Le terme de Big Data décrit sim­ple­ment un énorme ensemble de données qui est d’une telle ampleur qu’il dépasse les capacités humaines d’analyse. La mé­dia­ti­sa­tion crois­sante du Big Data ces dernières années est due à l’origine de ces données : en effet, dans de nombreux cas, le flot d’in­for­ma­tions est créé à partir de données uti­li­sa­teurs (intérêts, profils, données per­son­nelles) col­lec­tées par des sociétés comme Google, Amazon ou Meta afin d’adapter plus pré­ci­sé­ment l’offre aux clients.

De tels volumes de données ne peuvent plus être évalués de manière sa­tis­fai­sante par les systèmes in­for­ma­tiques tra­di­tion­nels : les logiciels con­ven­tion­nels ne trouvent que ce que l’uti­li­sa­teur recherche. C’est la raison pour laquelle il faut désormais des systèmes d’ap­pren­tis­sage au­to­ma­tique qui per­met­tent de découvrir et de réaliser des con­nexions inconnues jusqu’alors.

Data Mining

Le Data Mining consiste à analyser les données du Big Data. En effet, la collecte seule n’est pas encore d’une grande valeur : il faut y extraire les ca­rac­té­ris­tiques per­ti­nentes et les évaluer. Le Data Mining se distingue du Machine Learning par le fait qu’il se préoccupe prin­ci­pa­le­ment de l’ap­pli­ca­tion de modèles reconnus, tandis que le second recherche de nouveaux modèles. Les méthodes de Data Mining com­pren­nent par exemple les analyses de clusters, les arbres de décision, les méthodes de ré­gres­sion et les analyses d’as­so­cia­tion. Aujourd’hui, le Data Mining fait souvent partie des systèmes de Business In­tel­li­gence ou sert à l’analyse pré­dic­tive pour prédire le com­por­te­ment des clients ou les tendances du marché.

Com­pa­rai­son des dif­fé­rentes méthodes de Machine Learning

Fon­da­men­ta­le­ment, les dé­ve­lop­peurs dis­tin­guent le Deep Learning de l’ap­pren­tis­sage supervisé (Su­per­vi­sed Learning) et de l’ap­pren­tis­sage non supervisé (Un­su­per­vi­sed Learning). Les al­go­rithmes utilisés sont très dif­fé­rents.

Su­per­vi­sed Learning

L’ap­pren­tis­sage supervisé, ou Su­per­vi­sed Learning, apporte des exemples au système. Les dé­ve­lop­peurs spé­ci­fient la valeur des in­for­ma­tions, par exemple, si elles ap­par­tien­nent à la catégorie A ou B. Le système d’ap­pren­tis­sage au­to­ma­tique en tire des con­clu­sions, reconnaît les modèles et peut mieux gérer des données inconnues. L’objectif est de réduire davantage le taux d’erreur.

Un exemple connu d’ap­pren­tis­sage supervisé est le filtre anti-spam : le système examine des ca­rac­té­ris­tiques (features) pour décider si le courrier est envoyé à la boîte de réception ou bien s’il est déposé dans le dossier spam (courrier in­dé­si­rable). Si le système fait une erreur, vous pouvez le corriger ma­nuel­le­ment et le filtre ajustera ainsi ses futurs calculs. Le logiciel obtient donc ainsi de meilleurs résultats.

Un­su­per­vi­sed Learning

Dans l’Un­su­per­vi­sed Learning, c’est-à-dire l’ap­pren­tis­sage non supervisé, le programme essaie de re­con­naître les modèles par lui-même. Il peut utiliser le clus­te­ring (par­ti­tion­ne­ment des données), par exemple : un élément est sé­lec­tionné parmi la quantité de données, examiné pour ses ca­rac­té­ris­tiques et ensuite comparé à celles déjà examinées. S’il a déjà examiné des éléments équi­va­lents, l’objet courant y sera ajouté. Si ce n’est pas le cas, il est alors stocké sé­pa­ré­ment.

Des systèmes basés sur l’ap­pren­tis­sage non supervisé sont mis en œuvre dans les réseaux neuronaux. Des exemples d’ap­pli­ca­tion se trouvent dans la sécurité réseau : un système d’ap­pren­tis­sage au­to­ma­tique détecte les com­por­te­ments anormaux. Par exemple, si une cy­be­rat­taque ne peut pas être attribuée à un groupe connu, le programme peut alors détecter la menace et signaler un problème.

En plus de ces deux domaines prin­ci­paux, il existe aussi l’ap­pren­tis­sage semi-supervisé (Semi-su­per­vi­sed Learning), l’ap­pren­tis­sage par ren­for­ce­ment (Rein­for­ce­ment Learning), l’ap­pren­tis­sage actif (Active Learning) et l’ap­pren­tis­sage auto-supervisé (Self-su­per­vi­sed Learning) : ces quatre méthodes sont plus étroi­te­ment liées à l’ap­pren­tis­sage supervisé et diffèrent au niveau du type et de l’étendue de la par­ti­ci­pa­tion des uti­li­sa­teurs. L’ap­pren­tis­sage auto-supervisé, dans lequel les systèmes génèrent eux-mêmes les tâches d’ap­pren­tis­sage sans la par­ti­ci­pa­tion des uti­li­sa­teurs, est par­ti­cu­liè­re­ment pertinent aujourd’hui.

Deep Learning

Con­trai­re­ment aux al­go­rithmes clas­siques de Machine Learning comme les arbres de décision ou les machines à vecteurs de support, le Deep Learning utilise des réseaux neuronaux mul­ti­couches pour traiter des données complexes, souvent non struc­tu­rées (images, audio, texte).

Ces dernières sont complexes, car il s’agit d’in­for­ma­tions na­tu­relles, par exemple celles qui se pro­dui­sent dans la parole, l’écriture ou la re­con­nais­sance faciale. Les données na­tu­relles sont faciles à traiter pour les humains, mais pas pour une machine, car elles sont dif­fi­ciles à ap­pré­hen­der ma­thé­ma­ti­que­ment.

Le Deep Learning et les réseaux de neurones ar­ti­fi­ciels sont étroi­te­ment liés. Ce terme désigne l’en­traî­ne­ment de réseaux neuronaux profonds ; on le nomme de cette manière parce que le réseau de neurones est organisé en plusieurs niveaux hié­rar­chiques. Le premier niveau commence par une couche de neurones d’entrée. Ils en­re­gistrent les données, com­men­cent leur analyse et envoient leurs résultats au nœud neuronal suivant. À la fin, l’in­for­ma­tion de plus en plus affinée atteint la couche de sortie et le réseau délivre une valeur. Les niveaux parfois très nombreux situés entre l’entrée et la sortie sont appelés couches cachées (hidden layers).

Comment fonc­tionne le Machine Learning pour le marketing ?

Le Machine Learning a déjà des fonctions im­por­tantes pour le marketing. Ac­tuel­le­ment, ce sont surtout les grandes en­tre­prises qui utilisent en interne ces tech­no­lo­gies, notamment Google. Les grands acteurs du numérique dé­ve­lop­pent leurs propres systèmes et jouent un rôle moteur dans ce domaine. Cependant, malgré l’intérêt com­mer­cial, certains optent pour une approche open source et tra­vail­lent de concert avec des scien­ti­fiques in­dé­pen­dants. Les avancées sur le terrain de­vien­nent de plus en plus im­por­tantes et s’ac­cé­lè­rent.

Analyses de données et pré­vi­sions

Outre l’aspect créatif, le marketing a aussi un aspect ana­ly­tique : les sta­tis­tiques sur le com­por­te­ment des clients jouent un rôle important dans le choix de mesures pu­bli­ci­taires spé­ci­fiques. Plus la quantité de données est im­por­tante, plus on peut gé­né­ra­le­ment en tirer des règles, des con­clu­sions. C’est ici que les systèmes d’ap­pren­tis­sage au­to­ma­tique entrent en jeu : les pro­grammes in­for­ma­tiques in­tel­li­gents re­con­nais­sent les tendances et peuvent ainsi donner des pré­dic­tions, qui pour­raient être biaisées si elles étaient réalisées par des humains.

En effet, un analyste aborde ha­bi­tuel­le­ment la masse de données avec une certaine attente. Ces idées pré­con­çues sont bien dif­fi­ci­le­ment évitables pour l’humain et pro­vo­quent souvent des dis­tor­sions au niveau des résultats. Plus la quantité de données traitées par les analystes est élevée, plus l’écart est sus­cep­tible d’être important. Même si les machines in­tel­li­gentes peuvent aussi avoir des préjugés, parce que ces derniers ont été formés de manière in­vo­lon­taire par des humains, mais avec des faits concrets, elles procèdent de manière plus objective et four­nis­sent donc gé­né­ra­le­ment des analyses plus sig­ni­fi­ca­tives et per­ti­nentes.

Cloud GPU VM
Maximisez les per­for­mances de l'IA avec votre VM GPU dans le Cloud
  • GPU NVIDIA H200 exclusifs pour une puissance de calcul maximale
  • Per­for­mances garanties grâce à des cœurs de pro­ces­seurs en­tiè­re­ment dédiés
  • Hé­ber­ge­ment en Europe pour une sécurité maximale des données et une con­for­mité au RGPD
  • Modèle tarifaire simple et pré­vi­sible avec un prix fixe par heure

Vi­sua­li­sa­tion

Les systèmes d’ap­pren­tis­sage au­to­ma­tique amé­lio­rent et fa­ci­li­tent aussi la pré­sen­ta­tion des résultats d’analyse. La vi­sua­li­sa­tion au­to­ma­ti­sée des données (Automated Data Vi­sua­li­za­tion) est une technique dans laquelle l’or­di­na­teur sé­lec­tionne au­to­ma­ti­que­ment la bonne pré­sen­ta­tion des données et des in­for­ma­tions. Cela est important pour que les personnes puissent bien com­prendre les résultats de la machine. Dans le flot de données, il devient parfois difficile d’afficher et d’organiser les résultats. Ainsi, la vi­sua­li­sa­tion doit également être au­to­ma­ti­sée et reposer sur des al­go­rithmes.

Per­son­na­li­sa­tion et design génératif

Le Machine Learning peut aussi avoir une influence sur la création du contenu : c’est le design génératif. Au lieu de concevoir le même parcours client pour tous les uti­li­sa­teurs, les systèmes dy­na­miques basés sur le Machine Learning peuvent créer des ex­pé­riences in­di­vi­duelles. Le contenu du site Web affiché à l’uti­li­sa­teur est toujours créé par des ré­dac­teurs et des con­cep­teurs, mais le système intègre les com­po­sants spé­ci­fi­que­ment pour l’uti­li­sa­teur. Les systèmes d’ap­pren­tis­sage au­to­ma­tique sont aussi utilisés pour concevoir des designs ou rédiger des contenus par eux-mêmes : avec le projet Dream­cat­cher, il est par exemple possible de faire concevoir des com­po­sants par une machine. Les LLM (Large Language Model comme ChatGPT peuvent également créer des textes pour des sites Web adaptés à des groupes d’uti­li­sa­teurs spé­ci­fiques.

Chatbots in­tel­li­gents et trai­te­ment du langage

Le Machine Learning peut notamment être utilisé pour améliorer les chatbots. De nom­breuses en­tre­prises utilisent déjà des pro­grammes qui gèrent une partie du support client via un chatbot. Mais dans de nombreux cas, les uti­li­sa­teurs sont ra­pi­de­ment ennuyés par ces derniers. Un chatbot basé sur un système d’ap­pren­tis­sage au­to­ma­tique avec une bonne com­pré­hen­sion du langage (Natural Language Pro­ces­sing) peut donner aux clients le sentiment qu’ils com­mu­ni­quent avec une personne réelle, et ainsi réussir le test de Turing.

Re­com­man­da­tions per­son­na­li­sées

Amazon ou Netflix montrent l’exemple d’un autre dé­ve­lop­pe­ment du Machine Learning pour les spé­cia­listes du marketing : les re­com­man­da­tions. Un facteur important pour le succès de ces four­nis­seurs est de prédire le prochain souhait de l’uti­li­sa­teur. En fonction des données col­lec­tées, les systèmes d’ap­pren­tis­sage au­to­ma­tique peuvent re­com­man­der d’autres produits. Ce qui n’était au­pa­ra­vant possible que sur une grande échelle (« Nos clients aiment le produit A, donc la plupart d’entre eux aimeront aussi le produit B. ») est main­te­nant également possible sur une petite échelle grâce à des pro­grammes modernes (« Le client X a aimé les produits A, B et C, c’est pourquoi il aimera pro­ba­ble­ment aussi le produit D. »)

Ainsi, pour résumer, les systèmes de Machine Learning in­fluen­ce­ront le marketing en ligne de quatre manières :

  • Quantité : les pro­grammes qui fonc­tion­nent avec le Machine Learning et qui ont été bien entraînés peuvent traiter d’énormes quantités de données et faire des pré­vi­sions pour l’avenir.
  • Rapidité : l’analyse prend du temps, si vous devez la faire ma­nuel­le­ment. Les systèmes d’ap­pren­tis­sage au­to­ma­tique aug­men­tent la vitesse de travail et vous per­met­tent de réagir plus ra­pi­de­ment aux chan­ge­ments.
  • Au­to­ma­ti­sa­tion : le Machine Learning facilite l’au­to­ma­ti­sa­tion des opé­ra­tions. Comme les systèmes modernes peuvent s’adapter de manière autonome aux nouvelles con­di­tions grâce au Machine Learning, des processus d’au­to­ma­ti­sa­tion complexes sont également possibles.
  • In­di­vi­dua­lité : les pro­grammes in­for­ma­tiques peuvent servir d’in­nom­brables clients. Comme les systèmes d’ap­pren­tis­sage au­to­ma­tique col­lec­tent et traitent les données des uti­li­sa­teurs in­di­vi­duels, ils peuvent également leur apporter des conseils per­son­na­li­sés.

Autres domaines d’ap­pli­ca­tion des systèmes d’ap­pren­tis­sage au­to­ma­tique

Le Machine Learning est de plus en plus utilisé dans le marketing, mais aussi dans de nombreux autres domaines. Dans certains cas, ces systèmes aident la science et la tech­no­lo­gie à faire avancer les progrès. Ils sont également utilisés sous la forme de gadgets parfois plus grands, parfois plus petits, pour sim­pli­fier notre vie quo­ti­dienne. Les domaines d’ap­pli­ca­tion présentés ici ne sont que des exemples : on peut supposer que le Machine Learning affectera notre vie entière dans un avenir proche.

Science

Ce qui s’applique au marketing est encore plus important dans les sciences na­tu­relles. Le trai­te­ment in­tel­li­gent du Big Data est un énorme sou­la­ge­ment pour les scien­ti­fiques qui tra­vail­lent em­pi­ri­que­ment. Les phy­si­ciens des par­ti­cules, par exemple, peuvent utiliser les systèmes d’ap­pren­tis­sage au­to­ma­tique pour collecter et traiter bien plus de mesures, et détecter des écarts. Le Machine Learning aide aussi en médecine : déjà aujourd’hui, certains médecins utilisent l’in­tel­li­gence ar­ti­fi­cielle pour le diag­nos­tic et le trai­te­ment des patients. Il est aussi utilisé pour prédire le risque ou l’évolution du diabète ou des crises car­diaques, par exemple.

Robotique

Dans certains contextes, comme au sein des usines, les robots sont om­ni­pré­sents. Ils aident notamment à au­to­ma­ti­ser les étapes de travail dans la pro­duc­tion de masse. Cependant, ils n’ont souvent pas grand-chose à voir avec les systèmes in­tel­li­gents, car ils ne sont pro­gram­més que pour l’étape de travail précise qu’ils ef­fec­tuent. Si des systèmes d’ap­pren­tis­sage au­to­ma­tique sont utilisés en robotique, ces machines doivent également maîtriser de nouvelles tâches. Bien entendu, ces dé­ve­lop­pe­ments sont également très in­té­res­sants pour d’autres domaines : du voyage spatial à la maison, des robots dotés d’in­tel­li­gence ar­ti­fi­cielle seront utilisés dans des domaines très variés.

Transport

L’un des produits phares du Machine Learning est la voiture autonome. Le fait que les véhicules peuvent manœuvrer de façon autonome en mi­ni­mi­sant les accidents dans le trafic réel ne peut être réalisé que par le Machine Learning, puisqu’il est im­pos­sible de pro­gram­mer toutes les si­tua­tions. Pour cette raison, il est impératif que les voitures autonomes reposent sur cette tech­no­lo­gie. Des al­go­rithmes in­tel­li­gents, sous la forme de réseaux neuronaux ar­ti­fi­ciels, peuvent analyser le trafic et dé­ve­lop­per des systèmes de gestion du trafic plus efficaces, par exemple grâce à des feux de sig­na­li­sa­tion in­tel­li­gents.

Internet

Le Machine Learning joue déjà un rôle majeur sur Internet : les filtres anti-spam en font partie. Grâce à un ap­pren­tis­sage constant, les filtres pour les emails in­dé­si­rables sont plus per­for­mants et éliminent les spams de manière plus fiable depuis la boîte de réception. Il en va de même pour la défense in­tel­li­gente contre les virus et logiciels mal­veil­lants, qui protège mieux les or­di­na­teurs contre les logiciels mal­veil­lants. Les al­go­rithmes de clas­se­ment des moteurs de recherche, en par­ti­cu­lier RankBrain de Google, sont également des systèmes d’ap­pren­tis­sage au­to­ma­tique. Même si l’al­go­rithme ne sait pas quoi faire de la saisie de l’uti­li­sa­teur (parce que personne n’a effectué la même recherche au­pa­ra­vant), il peut deviner ce qui pourrait convenir à la requête.

As­sis­tants per­son­nels

Même dans notre quotidien à la maison, les systèmes in­for­ma­tiques ap­pre­nants gagnent en im­por­tance. De simples ap­par­te­ments de­vien­nent do­ré­na­vant des smart homes, c’est-à-dire des maisons in­tel­li­gentes. Moley Robotics développe ainsi une cuisine in­tel­li­gente capable de préparer des repas. Des as­sis­tants per­son­nels tels que Google Home et Amazon Echo, avec lesquels certaines parties de la maison peuvent être con­trô­lées, utilisent le Machine Learning pour com­prendre au mieux les uti­li­sa­teurs. Mais beaucoup de gens emportent leurs as­sis­tants avec eux à tout moment : avec Siri, Copilot, Gemini ou Google Assistant, les uti­li­sa­teurs peuvent utiliser la commande vocale pour envoyer des commandes et poser des questions à leur smart­phone.

Jeux

Depuis le début de la recherche sur l’in­tel­li­gence ar­ti­fi­cielle, la capacité des consoles et logiciels de jeux a été une grande mo­ti­va­tion pour les scien­ti­fiques. Aux échecs, aux dames ou au Go chinois (l’un des jeux de société les plus complexes), les systèmes d’ap­pren­tis­sage au­to­ma­tique se me­su­raient contre des ad­ver­saires humains. Les dé­ve­lop­peurs de jeux in­for­ma­tiques utilisent également le Machine Learning pour rendre leurs jeux plus in­té­res­sants, comme pour créer un gameplay équilibré et s’assurer que les ad­ver­saires de l’or­di­na­teur s’adaptent in­tel­li­gem­ment aux com­por­te­ments des joueurs.

L’histoire du Machine Learning

Les robots et automates sont une source d’intérêt depuis plusieurs siècles : la relation de l’être humain à la machine pensante a toujours oscillé entre crainte et fas­ci­na­tion. Cependant, les réels progrès du Machine Learning ne com­men­cè­rent pas avant les années 50, à une époque où les or­di­na­teurs n’en étaient encore qu’à leurs bal­bu­tie­ments et où l’in­tel­li­gence ar­ti­fi­cielle ne pouvait que faire rêver. Au cours des deux siècles pré­cé­dents, des théo­ri­ciens comme Thomas Bayes, Adrien Marie Legendre et Pierre-Simon Laplace avaient déjà jeté les bases de la recherche, mais il faut attendre les travaux d’Alan Turing pour parler con­crè­te­ment d’ap­pren­tis­sage au­to­ma­tique des machines.

Citation

« Dans un tel cas, il faudrait admettre que les progrès de la machine n’avaient pas été prévus au moment où ses ins­truc­tions initiales lui ont été données. Ce serait com­pa­rable à un élève qui aurait beaucoup appris de son maître, mais qui en aurait ajouté bien davantage par son propre travail. Lorsque cela se produit, j’estime qu’on est alors obligé de con­si­dé­rer que la machine fait preuve d’in­tel­li­gence. » Alan Turing lors d’une con­fé­rence en 1947. (cité d’après B. E. Carpenter et R. W. Doran (eds.), A. M. Turing’s Ace Report of 1946 and Other Papers).

En 1950, Turing a développé une pro­po­si­tion de test d’in­tel­li­gence ar­ti­fi­cielle : le test de Turing. Il s’agit d’une sorte de jeu dans lequel un or­di­na­teur prétend être un être humain. Si la personne en face n’est pas capable d’iden­ti­fier que son in­ter­lo­cu­teur est en fait une machine, on considère alors que l’or­di­na­teur a passé le test avec succès. Deux ans plus tard, Arthur Samuel a développé un or­di­na­teur pouvant jouer aux dames tout en s’amé­lio­rant à chaque partie. Le programme avait donc la capacité d’apprendre. Enfin, en 1957, Frank Ro­sen­blatt a développé le per­cep­tron, un premier al­go­rithme d’ap­pren­tis­sage ou réseau neuronal ar­ti­fi­ciel.

Plus récemment, IBM a développé Watson, un programme in­for­ma­tique qui possède un immense ré­fé­ren­tiel de con­nais­sances et qui peut répondre aux questions posées en langage naturel. Google et Meta utilisent quant à elles le Machine Learning pour mieux com­prendre les uti­li­sa­teurs et offrir davantage de fonc­tion­na­li­tés.

Aller au menu principal