Qu’est-ce que la Skewness et le Kurtosis ? – Tout savoir rapidement

Voyons en détail ce qu’est la Skewness et le Kurtosis ! Deux mesures de la Data Science pour analyser la disparité dans un dataset.

Quand on fait de la Data Science, il est important de savoir analyser la disparité d’un dataset.

La disparité, c’est quand les données d’un dataset sont déséquilibrées.

Par exemple, si l’on mesure l’âge des personnes dans un parc de jeux pour enfants dans lequel il y a 20 enfants et 6 adultes. L’âge des personnes de ces personnes sera disparate.

Effectivement, la majorité des personnes sont des enfants, disons entre 4 et 8 ans. Et pour les adultes, il y aura deux babysitter de 20 et 24 ans, 3 parents entre 28 et 35 ans et finalement une grand-mère de 60 ans.

Et parce qu’une image vaut mille mot, voilà le graphe du dataset :

Disparité

Ici on voit bien que le dataset est disparate. La plupart des données sont regroupées sur la gauche, quand des individus unique se trouve à droite. On appelle ces données solitaires des « outliers », des données « hors de la norme » ou « hors du cadre ».

Mais alors à quoi sert la Skewness et le Kurtosis ?

Skewness

Plus haut on a analysé la disparité à l’oeil nu.

Sur ce graphe c’est assez évident car j’ai voulu prendre un exemple exagérément disparate. Dans ce cas l’oeil fait l’affaire pour déterminer la disparité.

Mais il existe des mesures mathématiques pour faire cette analyse.

Des mesures beaucoup plus précise qui, quand on les connaît, nous renseignent directement sur notre dataset.

La première est la Skewness.

La Skewness permet de calculer la symétrie de notre dataset.

Un dataset est symétrique quand les données sont également réparties de part et d’autre de la moyenne.

Lorsque la Skewness est égale 0, le dataset est symétrique.

Mais cette mesure nous renseigne aussi sur le type d’asymétrie.

Si la Skewness est supérieur à 0, alors le dataset est skewed sur la droite. C’est à dire que la majorité des données se trouvent sur la gauche et les outliers se trouvent sur la droite.

Si la Skewness est inférieur à 0, alors le dataset est skewed sur la gauche. C’est à dire que la majorité des données se trouvent sur la droite et les outliers se trouvent sur la gauche.

Dans notre exemple du parc pour enfant, la Skewness est de 2.47.

Effectivement on peut voir sur le graphique que le dataset est skewed sur la droite :

Disparité

Les adultes ayant un âge bien plus grand que les enfants, ils déséquilibrent le dataset sur la droite.

Nettoyons un peu le dataset en enlevant tous les adultes.

On obtient ce graphe :

Symétrie

Ici, il y a déséquilibre. Mais il est beaucoup plus difficile à voir à l’oeil nu.

Quand on calcule la Skewness on obtient -0.006.

LA MÉTHODE PARÉ POUR FAIRE DU DEEP LEARNING !

Reçois tes 7 JOURS De Formation GRATUITE Pour Apprendre À Créer TA PREMIÈRE INTELLIGENCE ARTIFICIELLE !

Pendant les 7 prochains jours je vais te montrer comment utiliser les Réseaux de neurones.

Tu vas comprendre ce qu'est le Deep Learning avec des exemples concrets qui vont te rester dans la tête.

ATTENTION, cette série d’email ne s’adresse pas à tout le monde. Si tu es du genre à aimer les cours théoriques et scolaires tu peux passer ta route.

Mais si tu souhaite apprendre la méthode PARÉ pour faire du Deep Learning, clique ici :

Le déséquilibre est très léger, sur la gauche cette fois.

C’est la précision de la Skewness qui nous permet de déterminer ce déséquilibre.

En plus de l’asymétrie, la Skewness permet de calculer la force du déséquilibre. Ici -0.006 indique un très léger déséquilibre. Une valeur de 1 est un déséquilibre normal.

Voici le code pour calculer la Skewness sur un Dataframe Pandas en Python :

df['AGE'].skew()

Kurtosis

Le Kurtosis permet lui aussi de calculer la disparité d’un dataset. Mais en utilisant une autre approche.

Le Kurtosis calcule la hauteur des queues de notre courbe.

La queue désigne essentiellement la partie de la distribution qui est très éloignée de la moyenne.

Plus il y a d’ouliers, plus la queue est épaisse.

Attention ne dites surtout pas que le Kurtosis calcule l’applatissement de la courbe, au risque de vous faire taper les doigts par des mathématiciens.

Mais gardons à l’esprit que : « La queue d’une distribution n’est pas un terme précisément défini. En d’autres termes, il n’y a pas d’endroit spécifique où l’on cesse d’être au milieu de la distribution et où l’on commence à être dans la queue. »

Prenons le contexte d’un dataset relativement symétrique comme celui de notre exemple :

Symétrie

Dans notre exemple, le graphe est bossu et symétrique. Cela indique qu’il y a un regroupement des données au niveau de la moyenne.

Nous constatons également que nos queues semblent être normales. Elles ne sont ni trop épaisses ni trop fines.

Comment cela se traduit-il en Kurtosis ?

Ici, le Kurtosis est de -0,03.

Pour un ensemble de données symétriques :

Si le Kurtosis est supérieur à 0, alors l’ensemble de données est leptokurtique, c’est-à-dire que les queues sont plus épaisses que la normale. Cela indique un regroupement d’outliers.

Si le Kurtosis est inférieur à 0, alors l’ensemble de données est platykurtique, c’est-à-dire que les queues sont plus fines que la normale. Cela indique un excès négatif d’outlier. En d’autres termes, la plupart des données ont tendance à se rassembler autour de la moyenne.

Lorsque le Kurtosis est égal à 0, alors l’ensemble de données est mésokurtique, c’est-à-dire que les queues sont les mêmes que dans une distribution normale.

Voici le code pour calculer le Kurtosis sur un dataframe Pandas en Python :

df['AGE'].kurtosis()

Dataset disparate = mauvais dataset ?

Dans cette article, vous avez appris à calculer la Skewness et le Kurtosis.

Avec, vous pourrez analyser plus précisément la disparité de votre dataset.

Mais gardez à l’esprit qu’un dataset disparate n’est pas forcément un mauvais dataset !

Avant tout, la Skewnes & le Kurtosis sont de bons indicateurs pour comprendre vos données. L’interprétation de ce résultat dépendra du contexte de votre projet.

Si vous êtes intéressé par la Data Science, vous pouvez retrouver tout nos articles sur l’analyse de données et la Data Science sur ce lien !

À bientôt dans un prochain article 😉

sources :

LA MÉTHODE PARÉ POUR FAIRE DU DEEP LEARNING !

Reçois tes 7 JOURS De Formation GRATUITE Pour Apprendre À Créer TA PREMIÈRE INTELLIGENCE ARTIFICIELLE !

Pendant les 7 prochains jours je vais te montrer comment utiliser les Réseaux de neurones.

Tu vas comprendre ce qu'est le Deep Learning avec des exemples concrets qui vont te rester dans la tête.

ATTENTION, cette série d’email ne s’adresse pas à tout le monde. Si tu es du genre à aimer les cours théoriques et scolaires tu peux passer ta route.

Mais si tu souhaite apprendre la méthode PARÉ pour faire du Deep Learning, clique ici :

Tom Keldenich
Tom Keldenich

Data Engineer & passionné d'Intelligence Artificielle !

Fondateur du site Inside Machine Learning

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Enter your email to receive for free

The PANE method for Deep Learning

* indicates required

 

You will receive one email per day for 7 days – then you will receive my newsletter.
Your information will never be given to third parties.

You can unsubscribe in 1 click from any of my emails.

Entre ton email pour recevoir gratuitement
la méthode PARÉ pour faire du Deep Learning


Tu recevras un email par jour pendant 7 jours - puis tu recevras ma newsletter.
Tes informations ne seront jamais cédées à des tiers.

Tu peux te désinscrire en 1 clic depuis n'importe lequel de mes emails.