C’est quoi le Deep Learning ?

Partager sur facebook
Facebook
Partager sur twitter
Twitter
Partager sur linkedin
LinkedIn

Qu’est-ce donc que le Deep Learning ?

C’est un sous-domaine de recherche sur le machine learning au sein duquel l’ordinateur apprend à la manière du cerveau humain. Si on en entend beaucoup parler ces dernières années, c’est parce que la discipline est en pleine évolution et que ses domaines d’application sont nombreux.

Le développement de l’intelligence artificielle

L’intelligence artificielle semble être au centre des enjeux technologiques depuis les années 2000. Pourtant, le concept est bien plus vieux. Il était déjà présent dans la mythologie gréco-romaine avec les automates d’Héphaïstos, ou encore dans les mythes véhiculés par l’alchimie.

L’IA naît au milieu du XX siècle après plusieurs découvertes mathématiques appliquées à la recherche informatique. Tout d’abord vient la proposition du modèle neuronal formel de Warren McCulloch et Walter Pitts. En 1950, Alan Turing établit « le test de Turing » dans le but d’établir si une machine peut imiter le comportement humain. Parallèlement à cela, il publie un article : « Computing Machinery and Intelligence ». Il y explique ses perspectives de développement afin que les ordinateurs puissent évoluer en fonction de leurs expériences et se reprogrammer automatiquement. Enfin, en 1957, Frank Rosenblatt met au point le perceptron, considéré comme le premier réseau neuronal artificiel.

*C’est à la conférence au Dartmouth College en 1956 que le concept d’intelligence artificielle est inventé. Après l’invention du test de Turing, la recherche autour de l’IA se développe puis ralentit au début des années 80. Depuis le début des années 2010, elle connaît un nouvel essor.

Comment fonctionne le Deep Learning ?

Le Deep Learning s’inspire du perceptron et fonctionne sur la base de réseaux de neurones artificiels. Il présente de nombreuses caractéristiques propres à ces derniers, tel que l’apprentissage automatique. Toutefois, il se différencie par la structure de ses neurones non interconnectés mais tous reliés à ceux de couches précédentes. Pour schématiser, la première couche reçoit les données d’entrée et la dernière modèle le résultat final. Entre les deux, les couches intermédiaires – dites cachées – permettent une analyse plus approfondie des données d’entrée. De cette manière, le réseau de neurones artificiels établit une représentation des informations qu’il reçoit (images, sons ou textes). Par exemple, à partir d’une oreille de visage humain, le programme va d’abord distinguer le visage, puis les cheveux, puis les yeux et ainsi de suite.

Dans le schéma ci-dessus, on en compte une seule (en bleu).

Cette technologie signe son retour en 2012, via le concours ILSVRC 2010. Lors de cette édition, l’Université de Stanford lance un défi sur la reconnaissance d’images. Le vainqueur bat tous les records précédents grâce à un programme s’appuyant sur le deep learning. La même année, Google dévoile son projet Google Brain : une application capable de détecter et de reconnaître des images. Aujourd’hui, c’est l’IA la plus utilisée pour traiter des données volumineuses et complexes, telles que du son, du texte et de l’image. En résumé, le Deep Learning fournit aux entreprises, et particulièrement aux Big Data de développer de nouveaux cas d’usages dans leur stratégie.

Exemples d’application de Deep Learning

Il existe plusieurs types de deep learning, tout comme il existe différents styles de réseaux de neurones artificiels profonds. Chacun est adapté à un profil de problématiques.

En réalité, il ne faudrait pas parler « du » deep learning, mais « des » deep learnings. En effet, il existe différents types de réseaux de neurones profonds, chacun étant plus ou moins adapté à des problématiques à traiter.

Le Deep Learning permet aux ordinateurs de comprendre par eux-mêmes comment reconnaître les objets, les mots ou les phrases souhaités. En bref, ces ordinateurs peuvent désormais s’auto-enseigner. Toutes ces tâches d’apprentissage en profondeur ont permis un changement révolutionnaire dans l’Intelligence Artificielle.

  • Logiciel de traitement du langage naturel : il accompagne l’ordinateur dans la conversion des messages et du texte
  • Logiciel de reconnaissance d’images : il permet à l’ordinateur d’effectuer des recherches par segments pour la détection d’objets
  • Logiciel de reconnaissance vocale : il permet aux utilisateurs d’interagir avec leurs appareils intelligents

Laisser un commentaire

Vous aimerez aussi :

Donec lectus commodo dapibus luctus facilisis Lorem mi, libero massa consectetur