Les Feed­for­ward Neural Networks (FNN) sont des réseaux neuronaux simples qui trans­met­tent ex­clu­si­ve­ment des in­for­ma­tions d’une couche à la suivante. Ils sont divisés en FNN mo­no­couche et FNN mul­ti­couche et ont dif­fé­rents domaines d’ap­pli­ca­tion dans le domaine du Deep Learning.

Qu’est-ce qu’un Feed­for­ward Neural Network ?

Un Feed­for­ward Neural Network (FNN), également appelé réseau de neurones à action directe en français, est un réseau neuronal composé de neurones ar­ti­fi­ciels et en­tiè­re­ment sans ré­troac­tion. Ce type de réseau est considéré comme une forme par­ti­cu­liè­re­ment simple de réseau neuronal ar­ti­fi­ciel, car il agit toujours ex­clu­si­ve­ment dans une direction, sans ré­troac­tion. Les réseaux neuronaux profonds à ré­troac­tion sont un élément important pour la création de modèles dans le domaine du Deep Learning et de l’in­tel­li­gence ar­ti­fi­cielle. Selon le nombre de couches utilisées (layer en anglais), on distingue les FNN mo­no­couches et mul­ti­couches.

Outils d'IA
Exploitez toute la puissance de l'in­tel­li­gence ar­ti­fi­cielle
  • Créez votre site Web en un temps record
  • Boostez votre activité grâce au marketing par IA
  • Gagnez du temps et obtenez de meilleurs résultats

Comment fonc­tionne un Feed­for­ward Neural Network ?

Comme pour tout réseau neuronal ar­ti­fi­ciel, le modèle du réseau de neurones à action directe s’inspirent vaguement du fonc­tion­ne­ment du cerveau humain, bien que leur ar­chi­tec­ture soit bien plus sim­pli­fiée. Celui-ci traite aussi les in­for­ma­tions par le biais d’un réseau neuronal. Le FNN dispose d’au moins deux couches : une couche d’entrée (input layer) et une couche de sortie (output layer). Entre les deux, il peut y avoir d’autres couches (hidden layers) en nombre quel­conque. Chaque couche est ex­clu­si­ve­ment reliée à la couche qui lui succède. Cette connexion se fait par des « arêtes ». Dans un Feed­for­ward Neural Network, toutes les in­for­ma­tions ne circulent que dans une seule direction, à savoir de la couche d’entrée vers la couche de sortie.

  • La couche d’entrée : elle reçoit toutes les données d’entrée qui sont in­tro­duites dans le réseau neuronal. Chaque neurone de cette couche cor­res­pond à une propriété des données entrantes.
  • Les couches cachées : des couches cachées peuvent se trouver entre la couche d’entrée et la couche de sortie. Chaque couche cachée est cons­ti­tuée de neurones in­ter­con­nec­tés entre la couche pré­cé­dente et la suivante.
  • La couche de sortie : la couche de sortie donne le résultat final du Feed­for­ward Neural Network.

Dans un Feed­for­ward Neural Network, les données sont in­tro­duites dans la couche d’entrée, où chaque neurone re­pré­sente une ca­rac­té­ris­tique spé­ci­fique des entrées. Ces neurones ap­pli­quent des poids sy­nap­tiques aux in­for­ma­tions reçues avant de les trans­mettre. Dans un FNN à une seule couche, les données passent di­rec­te­ment à la couche de sortie, tandis que dans un FNN à plusieurs couches, elles tran­si­tent d’abord par des couches cachées, où elles sont de nouveau pondérées et trans­for­mées. Comme ces trans­for­ma­tions in­ter­mé­diaires ne sont pas visibles, on parle de couches cachées.

Image: Infographie sur les Feedforward Neural Networks
Dans un Feed­for­ward Neural Network, les in­for­ma­tions ne sont trans­mises que vers l’avant.

Tout au long du processus, les valeurs pondérées sont cumulées à chaque étape. Une fonction d’ac­ti­va­tion est ensuite appliquée pour dé­ter­mi­ner si un neurone doit trans­mettre une in­for­ma­tion ou non. Dans certains cas, une valeur seuil est utilisée pour cette décision. Dans un Feed­for­ward Neural Network, les con­nexions sont stric­te­ment uni­di­rec­tion­nelles, reliant uni­que­ment une couche à la suivante sans ré­troac­tion.

Quels sont les prin­ci­paux domaines d’ap­pli­ca­tion ?

Il existe de nombreux domaines d’ap­pli­ca­tion possibles pour les Feed­for­ward Neural Networks. Les réseaux pré­sen­tent de nombreux avantages, notamment lorsqu’il s’agit de traiter et de relier de grandes quantités de données non struc­tu­rées. Voici quelques domaines d’ap­pli­ca­tion possibles :

  • la re­con­nais­sance et le trai­te­ment de la parole : les réseaux de neurones à action directe peuvent être utilisés pour convertir du texte en langage parlé ou pour convertir du langage parlé en texte.
  • la re­con­nais­sance et le trai­te­ment d’images : on peut analyser des images et en extraire des ca­rac­té­ris­tiques, par exemple en nu­mé­ri­sant et re­con­nais­sant des écritures ma­nus­crites.
  • la clas­si­fi­ca­tion : à l’aide d’un Feed­for­ward Neural Network, les données peuvent être classées en fonction de pa­ra­mètres définis.
  • la pré­dic­tion : les FNN peuvent aussi être utilisés pour la pré­dic­tion d’évé­ne­ments ou de tendances, par exemple en finance et mé­téo­ro­lo­gie. Ils sont utilisés entre autres pour les pré­vi­sions mé­téo­ro­lo­giques ou dans dif­fé­rents systèmes d’alerte précoce dans les domaines de la pro­tec­tion contre les ca­tas­trophes, de l’espace et de la défense.
  • la détection des fraudes : les Feed­for­ward Neural Networks peuvent jouer un rôle important dans l’iden­ti­fi­ca­tion d’activités ou de modèles frau­du­leux.

Quelle est la dif­fé­rence avec un Recurrent Neural Network (RNN) ?

Le contraire d’un Feed­for­ward Neural Network est le Recurrent Neural Network (RNN). Celui-ci fonc­tionne certes de manière fon­da­men­ta­le­ment similaire et transmet des in­for­ma­tions sur les neurones de la couche initiale à la couche finale, mais peut également les renvoyer. Dans un tel réseau, des con­nexions ré­cur­rentes per­met­tent aux in­for­ma­tions de circuler non seulement vers l’avant mais aussi de revenir aux couches pré­cé­dentes, ce qui permet au réseau de conserver un certain his­to­rique des données traitées.

Les réseaux de ce type sont surtout utilisés lorsque le contexte est important dans la recherche de résultats. Cela est par­ti­cu­liè­re­ment utile pour le trai­te­ment du langage, où le contexte est crucial. Par exemple, le mot « opéra » peut désigner un genre musical, un bâtiment ou une pâ­tis­se­rie ; un RNN permet d’in­ter­pré­ter cor­rec­te­ment le mot en fonction du contexte de la phrase.

Aller au menu principal