Modèle du processus d’apprentissage supervisé#

Un modèle classique de description du processus d’apprentissage supervisé est composé de trois composantes [Vap91]:

  • Un environnement, qui fournit des vecteurs \(\mathbf x\in X\) avec une probabilité fixe mais inconnue \(P_X\) ;

  • Un superviseur qui fournit pour chaque vecteur \(\mathbf x\) reçu de l’environnement une réponse désirée \(y\in Y\), selon une probabilité \(P(\mathbf x\mid y)\) fixe mais inconnue. La réponse \(y\) et \(\mathbf x\) sont liés par une relation \(y=f(\mathbf x,\epsilon)\), \(\epsilon\) étant un bruit permettant au superviseur d’être « bruité » ;

  • Un algorithme d’apprentissage qui implémente une classe de fonctions \(\mathcal{F}\), définies par un paramètre vectoriel \(\boldsymbol{\boldsymbol{\theta}}\), reliant l’espace des vecteurs \(\mathbf x\) à l’espace des réponses \(Y\) : \(\mathcal{F} = \{F(\mathbf x,\boldsymbol{\boldsymbol{\theta}}),\boldsymbol{\theta}\in\boldsymbol{\Theta}\}\)

Le problème de l’apprentissage supervisé consiste alors à choisir dans \(\mathcal{F}\) une fonction qui approche la réponse \(y\) pour tout \(\mathbf x\) d’une manière optimale, au sens statistique du terme. La recherche de cet optimum est basée sur un ensemble de \(n\) exemples i.i.d., dit ensemble d’apprentissage \(Z=\left \{(\mathbf x_i,y_i),i\in[\![1,n]\!],\mathbf x_i\in X,y_i\in Y\right \}\). Chaque exemple \((\mathbf x_i,y_i)\) est tiré par l’algorithme d’apprentissage depuis \(Z\) avec une probabilité jointe fixe mais inconnue \(P_{X,Y}\).

Trouver un « bon » candidat dans \(\mathcal{F}\) qui approche \(f\) repose sur le fait que \(Z\) contient « suffisamment » d’information pour permettre d’une part d’apprendre correctement \(Z\) (facile), mais aussi d’être capable de généraliser de manière cohérente sur \(X\times Y\). La quantification de cette information a été apportée par les travaux de Vapnik et Chervonenkis [VC71].

Soit \(L\left (y,F(\mathbf x,\boldsymbol{\theta})\right )\) une fonction de perte, qui mesure l’écart entre la réponse \(y\) fournie par le superviseur et la réponse calculée par l’algorithme d’apprentissage. L’espérance de \(L\) définit le risque fonctionnel

\[R(\boldsymbol{\theta}) = \int L\left (y,F(\mathbf x,\boldsymbol{\theta})\right )dP_{X,Y}\]

que l’algorithme d’apprentissage doit donc minimiser sur la classe des fonctions \(\mathcal{F}\).

Cette minimisation est difficile, la probabilité \(P_{X,Y}\) étant inconnue. La seule connaissance sur les couples \((\mathbf x,y)\) est contenue dans \(Z\), et on remplace le problème de minimisation précédent par la minimisation du risque empirique :

\[R_{emp}(\boldsymbol{\theta}) = \frac{1}{n}\displaystyle\sum_{i=1}^n L\left (y_i,F(\mathbf x_i,\boldsymbol{\theta})\right )\]

qui ne nécessite pas la connaissance de \(P_{X,Y}\).

Minimisation du risque empirique#

Soit \(\hat{\boldsymbol{\theta}}\) (respectivement \(F(\mathbf x,\hat{\boldsymbol{\theta}})\)) le vecteur (resp. la fonction) optimal(e) pour le problème de minimisation du risque empirique. Pour une valeur \(\boldsymbol{\theta}^*\in\boldsymbol{\theta}\), le risque \(R(\boldsymbol{\theta}^*)\) est l’espérance d’une certaine variable aléatoire définie par \(M_{\boldsymbol{\theta}^*} = L(y,F(\mathbf x,\boldsymbol{\theta}^*))\). Le risque empirique \(R_{emp}(\boldsymbol{\theta}^*)\), quant à lui, est la moyenne arithmétique de \(M_{\boldsymbol{\theta}^*}\). D’après la loi des grands nombres, si \(n\rightarrow\infty\), la moyenne de \(M_{\boldsymbol{\theta}^*}\) tend vers son espérance, et donc vers \(R(\boldsymbol{\theta}^*)\), ce qui justifie d’utiliser le risque empirique en lieu et place de \(R(\boldsymbol{\theta})\).

Il n’y a cependant aucune raison a priori pour que \(\hat{\boldsymbol{\theta}}\) minimise également \(R(\boldsymbol{\theta})\).

Nous allons montrer que si \(R_{emp}(\boldsymbol{\theta})\) approche uniformément \(R(\boldsymbol{\theta})\) avec une précision \(\epsilon\), alors le minimum du risque empirique s’écarte du minimum de \(R(\boldsymbol{\theta})\) d’au plus \(2\epsilon\).

Supposons

\[(\forall \epsilon>0)\quad (\forall \boldsymbol{\theta}\in\boldsymbol{\theta})\quad \displaystyle\lim\limits_{n\rightarrow\infty}P\left (\displaystyle\sup_{\boldsymbol{\theta}}\mid R(\boldsymbol{\theta})-R_{emp}(\boldsymbol{\theta})\mid>\epsilon\right ) =0\]

De manière équivalente, puisque pour tout \(\epsilon>0\) on a \(P\left (\displaystyle\sup_{\boldsymbol{\theta}}\mid R(\boldsymbol{\theta})-R_{emp}(\boldsymbol{\theta})\mid>\epsilon\right ) <\alpha\) pour \(\alpha>0\), alors

\[P\left (\mid R(\hat{\boldsymbol{\theta}})-R(\boldsymbol{\theta}_0)\mid >2\epsilon\right )<\alpha\]

\(\boldsymbol{\theta}_0\) minimisant \(R(\boldsymbol{\theta})\). Ainsi, si \(P\left (\displaystyle\sup_{\boldsymbol{\theta}}\mid R(\boldsymbol{\theta})-R_{emp}(\boldsymbol{\theta})\mid>\epsilon\right ) <\alpha\) est vraie, alors avec probabilité au moins 1-\(\alpha\) la fonction \(F(\mathbf x,\hat{\boldsymbol{\theta}})\) donnera un risque \(R(\boldsymbol{\hat\theta})\) qui s’écartera du minimum \(R(\boldsymbol{\theta}_0)\) d’au plus \(2\epsilon\).

En effet on a

  • avec probabilité 1-\(\alpha\) \(\mid R(\boldsymbol{\hat\theta})-R_{emp}(\boldsymbol{\hat\theta})\mid<\epsilon\) et \(\mid R(\boldsymbol{\theta}_0)-R_{emp}(\boldsymbol{\theta}_0)\mid<\epsilon\)

  • \({\boldsymbol{\hat\theta}}\) et \(\boldsymbol{\theta}_0\) étant les optimum de \(R_{emp}\) et \(R\), \(R_{emp}({\boldsymbol{\hat\theta}})<R_{emp}(\boldsymbol{\theta}_0)\)

Ces trois équations permettent alors d’écrire

\[\mid R(\boldsymbol{\hat\theta})-R(\boldsymbol{\theta}_0)\mid<2\epsilon\]

La minimisation du risque empirique consiste donc à :

  1. Calculer le risque empirique sur \(Z\) et la valeur \(\boldsymbol{\hat\theta}\) de son paramètre réalisant le minimum de ce risque

  2. Affirmer que \(R(\boldsymbol{\hat\theta})\) converge en probabilité vers le risque minimum sur tout \(X\times Y\), lorsque la taille de l’ensemble d’apprentissage tend vers l’infini, et ce en supposant que \(R_{emp}(\boldsymbol{\theta}\)) converge uniformément vers \(R(\boldsymbol{\theta})\)

Minimisation du risque structurel#

L’erreur d’entraînement \(E_t(\boldsymbol{\theta})\) d’un algorithme d’apprentissage est reliée à la fréquence des erreurs obtenues par cet algorithme sur \(Z\). On demande à un tel algorithme non seulement d’avoir une faible erreur d’entraînement, mais aussi d’être capable de donner des valeurs justes sur des données non vues lors de la phase d’entraînement. On parle de bonne capacité de généralisation.

L’erreur en généralisation \(E_g(\boldsymbol{\theta})\) mesure les erreurs effectuées par l’algorithme sur des exemples qu’il n’a jamais vu, appelés exemples test. On suppose que des exemples sont issus de la même population que les données d’entraînement.

Soit \(h\) la dimension de Vapnik-Chervonenkis d’une famille de classifieurs \(\mathcal{F}\). On peut montrer [Vap91] qu’avec probabilité \(1-\alpha\), pour un nombre d’exemples \(n>h\) que pour toutes les fonctions de \(\mathcal{F}\),

\[E_g(\boldsymbol{\theta}) = E_t(\boldsymbol{\theta}) + \epsilon_1\left (n,h,\alpha,E_t(\boldsymbol{\theta})\right )\]

avec

\[ \epsilon_1\left (n,h,\alpha,E_t(\boldsymbol{\theta})\right ) = 2\epsilon_0^2(n,h,\alpha)\left (1+\sqrt{1+\frac{E_t(\boldsymbol{\theta})}{\epsilon_0^2(n,h,\alpha)}}\right )\]

et où

\[\epsilon_0(n,h,\alpha) = \sqrt{\frac{h}{n}\left ( log\left ( \frac{2n}{h}\right ) +1 \right ) -\frac{1}{n}log\alpha}\]

est l’intervalle de confiance. Pour \(n\) fixé, \(E_t(\boldsymbol{\theta})\) décroît lorsque \(h\) augmente, alors que l’intervalle de confiance croît. Ainsi, le risque garanti et l’erreur en généralisation passent par un minimum. Avant cet optimum, le problème d’apprentissage est surdéterminé (\(h\) est trop petit par rapport au niveau d’information contenu dans \(Z\)). Au-delà, il est sous-déterminé (l’algorithme est trop « complexe ») (Fig. 6).

_images/vcdim.png

Fig. 6 Relation entre les erreurs et \(h\). L’erreur d’estimation donne une mesure de la performance perdue par la fonction d’approximation en utilisant un ensemble d’apprentissage de taille \(n\). L’erreur d’approximation donne une mesure de performance en fonction de la complexité du modèle#

Un des objectifs dans la résolution d’un problème d’apprentissage supervisé est donc d’atteindre la meilleure capacité de généralisation (minimiser \(E_g(\boldsymbol{\theta})\)). La minimisation du risque structurel propose une méthode inductive permettant d’atteindre cet objectif, en faisant de \(h\) une variable de contrôle.

Soit pour \(k\in[\![1,n]\!]\) \(\mathcal{F}_k=\{F(\mathbf x,\boldsymbol{\theta}),\boldsymbol{\theta}\in\boldsymbol{\theta}_k\}\) un ensemble emboité de classes de fonctions tel que \(\mathcal{F}_1\subset\mathcal{F}_2\ldots \mathcal{F}_n\). Les dimensions de Vapnik-Chervonenkis correspondantes vérifient \(h_1\leq h_2\ldots \leq h_n\). La minimisation du risque structurel consiste à :

  • Minimiser \(E_t(\boldsymbol{\theta})\) pour chaque fonction

  • Idenfifier la classe \(\mathcal{F}^*\) dont le risque garanti est le plus faible. Une des fonctions dans \(\mathcal{F}^*\) fournit le meilleur compromis entre \(E_t(\boldsymbol{\theta})\) (qualité d’approximation de \(Z\)) et intervalle de confiance (complexité de la fonction d’approximation).

En pratique, la variation de \(h\), et donc la création des ensembles emboîtés, peut être réalisée dans des réseaux de neurones à nombre de neurones cachés croissant.

[Cov65]

Thomas M. Cover. Geometrical and statistical properties of systems of linear inequalities with applications in pattern recognition. Electronic Computers, IEEE Transactions on, EC-14(3):326–334, 1965. URL: http://hebb.mit.edu/courses/9.641/2002/readings/Cover65.pdf.

[VC71]

V. N. Vapnik and A. Ya. Chervonenkis. On the uniform convergence of relative frequencies of events to their probabilities. Theory of Probability and its Applications, 16(2):264–280, 1971.

[Vap91] (1,2)

Vladimir Vapnik. Principles of risk minimization for learning theory. In NIPS, 831–838. Morgan Kaufmann, 1991.