Deep Learning, comment un modèle apprend ? Partie 1 – Loss function

Dans cette suite d’article, nous allons aborder des concepts fondamentaux du Deep Learning. Comment la loss function, le gradient et leur fonctionnement dans l’optimisation d’un modèle de Deep Learning.

Pour comprendre ces concepts, il faut préalablement comprendre la notion de réseau de neurones.

Si vous ne l’avez pas encore vu, je vous propose de lire cet article sur l’explication des réseaux de neurones que nous avons rédigé.

Si vous connaissez cette notion vous pourrez rapidement comprendre les concepts que l’on va abordé dans cette premiere partie, notamment le concept de loss function.

Photo by Austin Gardner on Unsplash

Qu’est-ce que « optimiser un modèle de Deep Learning » ?

Nous allons reprendre la notion de fonction mathématique représentant les neurones, comme détaillé ici.

Les neurones sont des fonctions mathématiques permettant de transformer des données brutes en données interprétable par l’homme.

La donnée se transmet entre chaque couche du modèle grâce aux neurones.

Chacun des neurones à une influence sur le résultat final. Modifier un seul neurone et le résultat en est modifié.

Optimiser un modèle de Deep Learning c’est donc optimiser chacun des résultats de ses neurones.

Il est inutile d’optimiser un modèle qui nous donne déjà le bon résultat. C’est pourquoi avant d’optimiser un modèle, il faut d’abord déterminer si ce modèle doit être optimiser.

Pour cela, on calcule la différence entre le résultat prédit et le résultat attendu.

difference(resultat_predit, resultat_attendu)

En d’autres termes, on dit que l’on calcule la perte (on parle aussi de taux d’erreur)… d’où le nom de loss function ou fonction de perte !

Plus cette perte est minime plus le modèle est performant.

Le but de l’optimisation est donc de minimiser le résultat de la loss function.

LA MÉTHODE PARÉ POUR FAIRE DU DEEP LEARNING !

Reçois tes 7 JOURS De Formation GRATUITE Pour Apprendre À Créer TA PREMIÈRE INTELLIGENCE ARTIFICIELLE !

Pendant les 7 prochains jours je vais te montrer comment utiliser les Réseaux de neurones.

Tu vas comprendre ce qu'est le Deep Learning avec des exemples concrets qui vont te rester dans la tête.

ATTENTION, cette série d’email ne s’adresse pas à tout le monde. Si tu es du genre à aimer les cours théoriques et scolaires tu peux passer ta route.

Mais si tu souhaite apprendre la méthode PARÉ pour faire du Deep Learning, clique ici :

Photo by Engin Akyurt on Unsplash

Minimiser la loss function

Pour minimiser la loss function il faut modifier ses données d’entrées.

On rappelle que la loss function compare le résultat prédit et le résultat attendu (ses données d’entrées).

loss_function = difference(resultat_predit, resultat_attendu)

La donnée « résultat attendu » étant un résultat fixe et immuable, c’est sur le résultat prédit que nous allons effectuer une modification.

Rappel:

resultat_predit = fonction_neurone(resultat_du_neurone_precedent, poids)

Le résultat prédit est obtenu grâce à la fonction du neurone qui s’applique à la fois sur :

  • le résultat du neurone précédent
  • le poids associé au neurone actuel

Un neurone n’a aucune influence sur le résultat du neurone précédent, pour améliorer son résultat on doit donc modifier son poids.

Conclusion: Optimiser un modèle de Deep Learning c’est optimiser les poids de ses neurones.

Pour comprendre avec une autre approche, imaginons un joueur de baseball qui doit renvoyer une balle avec sa batte :

  • Le joueur de baseball représente le neurone
  • La balle représente la donnée d’entrée
  • Le geste du joueur avec sa batte représente le poids associé au neurone
  • Le résultat de son tir représente le résultat de sa prédiction

Le joueur n’a pas d’emprise sur la balle qu’il reçoit. Pour améliorer son tir il n’a d’autre choix que d’améliorer son geste lorsqu’il frappe la balle.

Eh bien, pour le neurone, c’est la même idée ! Le neurone n’a pas d’emprise sur la donnée qu’il reçoit sa seule possibilité pour améliorer sa prédiction est d’améliorer son poids.

Arrivé ici vous devriez avoir compris comment notre modèle évalue ses capacités, ses poids 🙂

Dans la partie 2 de cet article nous verrons comment optimiser ses poids !

sources

LA MÉTHODE PARÉ POUR FAIRE DU DEEP LEARNING !

Reçois tes 7 JOURS De Formation GRATUITE Pour Apprendre À Créer TA PREMIÈRE INTELLIGENCE ARTIFICIELLE !

Pendant les 7 prochains jours je vais te montrer comment utiliser les Réseaux de neurones.

Tu vas comprendre ce qu'est le Deep Learning avec des exemples concrets qui vont te rester dans la tête.

ATTENTION, cette série d’email ne s’adresse pas à tout le monde. Si tu es du genre à aimer les cours théoriques et scolaires tu peux passer ta route.

Mais si tu souhaite apprendre la méthode PARÉ pour faire du Deep Learning, clique ici :

Tom Keldenich
Tom Keldenich

Data Engineer & passionné d'Intelligence Artificielle !

Fondateur du site Inside Machine Learning

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Enter your email to receive for free

The PANE method for Deep Learning

* indicates required

 

You will receive one email per day for 7 days – then you will receive my newsletter.
Your information will never be given to third parties.

You can unsubscribe in 1 click from any of my emails.

Entre ton email pour recevoir gratuitement
la méthode PARÉ pour faire du Deep Learning


Tu recevras un email par jour pendant 7 jours - puis tu recevras ma newsletter.
Tes informations ne seront jamais cédées à des tiers.

Tu peux te désinscrire en 1 clic depuis n'importe lequel de mes emails.