cnam.marc/cnam/travaux/probatoire/document/principles.tex

129 lines
3.6 KiB
TeX
Raw Normal View History

2020-08-06 23:09:36 +02:00
\section{Principes}
2020-08-10 21:46:33 +02:00
L’approche \gls{svm} est un ensemble de méthodes supervisées utilisant :
2020-08-06 23:09:36 +02:00
\begin{enum}
2020-08-10 21:46:33 +02:00
\item{un \gls{ds} d’apprentissage pour entraîner l’algorithme,\\
2020-08-06 23:09:36 +02:00
et qui fait donc office de superviseur}
2020-08-10 21:46:33 +02:00
\item{un \gls{ds} de test pour vérifier sa pertinence}
2020-08-06 23:09:36 +02:00
\end{enum}
Cette approche se révèle appropriée dans de nombreux cas d’utilisation :
\begin{itmz}
\item{filtrage d’email, courriel légitime ou pourriel (phishing, spam)}
2020-08-10 12:40:03 +02:00
\item{classification d’images, quel que soit le \gls{si}}
\item{détection de \gls{sgn} dans des fichiers multimédias}
\item{quantification de granularité dans des textures}
\item{reconnaissance de caractères dans des images}
\item{classification d’expressions faciales dans des images}
\item{reconnaissance vocale dans des échantillons sonores}
\item{classification de protéines}
\item{établissement de diagnostics médicaux}
2020-08-10 18:36:15 +02:00
\item{classification de documents en différentes catégories}
2020-08-06 23:09:36 +02:00
\end{itmz}
2020-08-10 21:46:33 +02:00
En fonction du type de problèmes, deux types de résolution :
2020-08-06 23:09:36 +02:00
\begin{itmz}
2020-08-10 21:46:33 +02:00
\item{\textbf{régression}}
2020-08-11 19:27:41 +02:00
\item{\textbf{classification} (la plus courante)}
2020-08-06 23:09:36 +02:00
\end{itmz}
2020-08-10 21:46:33 +02:00
En fonction des \glspl{ds}, deux types d’approches mathématiques :
\begin{itmz}
2020-08-11 19:27:41 +02:00
\item{\textbf{linéaire} : la plus simple}
\item{\textbf{non linéaire} : faisant appel à des \glspl{kf}}
2020-08-10 21:46:33 +02:00
\end{itmz}
Quatre paramètres permettent d’affiner le modèle :
\begin{itmz}
\item{\textbf{noyau} : linéaire, \gls{rbf}, polynominal ou \gls{sigmoid}}
\item{\textbf{degré} : aide à trouver un \gls{hpp} séparateur en contexte polynominal,
faisant rapidement augmenter le temps nécessaire à l’entraînement}
\item{\textbf{gamma} : pour les \glspl{hpp} non linéaires}
\item{\textbf{C} : pénalité augmentant la distance des données prises en compte,\\
au risque d’engendrer un surentraînement si trop importante}
\end{itmz}
\pagebreak
2020-08-06 23:09:36 +02:00
\subsection{Régression}
2020-08-13 01:10:36 +02:00
Un hyperparamètre \textbf{ε} permet de fait varier l’épaisseur de la marge,
afin d’y inclure le plus de données possible.
2020-08-06 23:09:36 +02:00
\subsubsection{Régression linéaire}
2020-08-13 01:10:36 +02:00
Régression la plus simple : une approximation affine est suffisante.
2020-08-07 15:39:00 +02:00
2020-08-13 01:10:36 +02:00
\bifig{}{Régression linéaire, variation d’ε \cite{homl-linear}}
{15em}{regression_linear_left}{regression_linear_right}
2020-08-06 23:09:36 +02:00
\subsubsection{Régression non linéaire}
2020-08-13 01:10:36 +02:00
Régression nécessitant l’utilisation d’une fonction noyau.
Une grande valeur de C intègre des données plus éloignées.
2020-08-07 15:39:00 +02:00
2020-08-13 01:10:36 +02:00
\bifig{}{Régression polynominale de degré 2, variation de C \cite{homl-nonlinear}}
{15em}{regression_nonlinear_left}{regression_nonlinear_right}
2020-08-06 23:09:36 +02:00
\subsection{Classification}
\subsubsection{Classification linéaire}
2020-08-07 16:31:53 +02:00
\bifig{}{Vaste marge \cite{homl-large-scale}}
2020-08-07 15:39:00 +02:00
{9em}{margin_large_left}{margin_large_right}
2020-08-07 16:31:53 +02:00
\bifig{}{ \cite{homl-large-scale}}
2020-08-07 15:39:00 +02:00
{10em}{margin_scale_left}{margin_scale_right}
2020-08-07 16:31:53 +02:00
\bifig{}{ \cite{homl-hard-few}}
2020-08-07 15:39:00 +02:00
{9em}{margin_hard_left}{margin_hard_right}
2020-08-07 16:31:53 +02:00
\bifig{}{ \cite{homl-hard-few}}
2020-08-07 15:39:00 +02:00
{9em}{margin_few_left}{margin_few_right}
2020-08-06 23:09:36 +02:00
\subsubsection{Classification non linéaire}
2020-08-07 16:31:53 +02:00
\bifig{}{Séparabilité linéaire \cite{homl-nonlinear-linear}}
2020-08-07 15:39:00 +02:00
{14em}{nonlinear_linear_left}{nonlinear_linear_right}
2020-08-08 12:06:15 +02:00
\fig{}{ \cite{homl-feat-poly}}
{9em}{features_polynomial}
2020-08-11 19:27:41 +02:00
\bifig{}{\Gls{kf} polynominale \cite{homl-poly}}
2020-08-07 15:39:00 +02:00
{14em}{kernel_polynomial_left}{kernel_polynomial_right}
2020-08-08 12:06:15 +02:00
\bifig{}{ \cite{homl-feat-simi}}
{14em}{features_similar_left}{features_similar_right}
2020-08-11 19:27:41 +02:00
\bifig{}{\Gls{kf} gaussien \gls{rbf} \cite{homl-rbf}}
2020-08-07 15:39:00 +02:00
{26em}{kernel_rbf_left}{kernel_rbf_right}
2020-08-12 23:15:43 +02:00
Référence multi-classes \cite{multi-class}
Référence optimisation \cite{mri} \cite{optimization}
2020-08-06 23:09:36 +02:00
\pagebreak