.
-

Réseau de neurones

Les rĂ©seaux de neurones sont un modèle computationnel inspirĂ© par le fonctionnement du cerveau humain. Ces rĂ©seaux sont utilisĂ©s pour des tâches variĂ©es d'apprentissage automatique, notamment la classification, la rĂ©gression, la reconnaissance d'images et de parole, et bien d'autres. Les rĂ©seaux de neurones ont rĂ©volutionnĂ© de nombreux domaines grâce Ă  leur capacitĂ© Ă  apprendre des reprĂ©sentations complexes et Ă  traiter de grandes quantitĂ©s de donnĂ©es. Ils constituent une pierre angulaire de l'apprentissage profond (deep learning). Ils sont constituĂ©s de couches de noeuds appelĂ©s neurones, qui sont connectĂ©s entre eux par des poids. 

Chaque neurone (noeud) reçoit des entrées, effectue un calcul sur ces entrées, et transmet une sortie. Un neurone typique prend un ensemble d'entrées pondérées, applique une fonction d'activation et produit une sortie. La couche d'entrée reçoit les données d'entrée; les couches cachées effectuent des transformations et extractions de caractéristiques intermédiaires; la couche de sortie produit la sortie finale du réseau. Les connexions entre les neurones sont pondérées. C'està-dire que des paramètres (poids) déterminent l'importance des connexions. Pendant l'entraînement, les poids sont ajustés pour minimiser l'erreur du réseau. Des fonction d'activation (Sigmoïde, Tanh, ReLU ( = Rectified Linear Unit) introduisent de la non-linéarité dans le modèle, permettant au réseau d'apprendre des relations complexes.

Dans la propagation avant (Forward Propagation), les entrĂ©es sont passĂ©es Ă  travers le rĂ©seau, couche par couche. Chaque neurone effectue un calcul basĂ© sur ses entrĂ©es, applique la fonction d'activation et transmet la sortie Ă  la couche suivante.        La sortie du rĂ©seau est comparĂ©e Ă  la valeur attendue (Ă©tiquette) pour calculer une erreur (ou perte). La fonction de perte mesure la diffĂ©rence entre la sortie prĂ©dite et la sortie rĂ©elle. Dans la rĂ©tropropagation (backpropagation), l'erreur est propagĂ©e en arrière Ă  travers le rĂ©seau. Les poids des connexions sont ajustĂ©s pour rĂ©duire l'erreur. Cela se fait en utilisant la descente de gradient pour minimiser la fonction de perte. Les poids sont mis Ă  jour après chaque itĂ©ration en fonction de l'erreur et du taux d'apprentissage. Le processus est rĂ©pĂ©tĂ© pour plusieurs itĂ©rations (ou Ă©poques) jusqu'Ă  ce que l'erreur soit minimisĂ©e.

Types de réseaux de neurones :

+ Les réseaux de neurones artificiels (Artificial Neural Networks, ANN) sont composés de couches entièrement connectées. Ils sont utilisés pour des tâches générales de classification et de régression.

+ Les réseaux de neurones convolutifs (Convolutional Neural Networks, CNN) sont utilisés principalement pour la vision par ordinateur. Ils incluent des couches de convolution et de pooling qui extraient automatiquement des caractéristiques des images.

+ Les réseaux de neurones récurrents (Recurrent Neural Networks, RNN) sont utilisés pour traiter des données séquentielles (ex. : séries temporelles, texte). Ils ncluent des connexions récurrentes permettant de conserver une mémoire des états précédents.

+ Les réseaux de neurones à mémoire longue et courte (Long Short-Term Memory, LSTM) sont un type de RNN conçu pour surmonter le problème des gradients qui disparaissent, permettant de conserver des informations sur de longues périodes.

+ Les réseaux antagonistes génératifs (Generative Adversarial Networks, GAN) sont composés de deux réseaux en compétition : un générateur et un discriminateur. Ils sont utilisés pour générer des données réalistes, comme des images ou du texte.

.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2024. - Reproduction interdite.