\section{Principes} L’approche \gls{svm} est une méthode supervisée de classification d’éléments utilisant : \begin{enum} \item{un \gls{dataset} d’apprentissage pour entraîner l’algorithme,\\ et qui fait donc office de superviseur} \item{un \gls{dataset} de test pour vérifier sa pertinence} \end{enum} Cette approche se révèle appropriée dans de nombreux cas d’utilisation : \begin{itmz} \item{classification d’images, quel que soit le \gls{si}} \item{classification de protéines, dans le champ médical} \item{filtrage d’email, courriel légitime ou pourriel (phishing, spam)} \end{itmz} En fonction du type de problèmes à résoudre, deux types de résolution sont disponibles : \begin{itmz} \item{régression linéaire} \item{régression non linéaire} \item{classification linéaire} \item{classification non linéaire} \end{itmz} \subsection{Régression} … \subsubsection{Régression linéaire} \bifig{}{Régression linéaire \cite{homl-linear}} {16em}{regression_linear_left}{regression_linear_right} … \subsubsection{Régression non linéaire} \bifig{}{Régression non linéaire \cite{homl-nonlinear}} {16em}{regression_nonlinear_left}{regression_nonlinear_right} … \subsection{Classification} … \subsubsection{Classification linéaire} … \bifig{}{Vaste marge \cite{homl-large-scale}} {9em}{margin_large_left}{margin_large_right} … \bifig{}{ \cite{homl-large-scale}} {10em}{margin_scale_left}{margin_scale_right} … \bifig{}{ \cite{homl-hard-few}} {9em}{margin_hard_left}{margin_hard_right} … \bifig{}{ \cite{homl-hard-few}} {9em}{margin_few_left}{margin_few_right} … \subsubsection{Classification non linéaire} … \bifig{}{Séparabilité linéaire \cite{homl-nonlinear-linear}} {14em}{nonlinear_linear_left}{nonlinear_linear_right} … \bifig{}{Fonction noyau polynominale \cite{homl-poly}} {14em}{kernel_polynomial_left}{kernel_polynomial_right} … \bifig{}{Fonction noyau gaussien \gls{rbf} \cite{homl-rbf}} {26em}{kernel_rbf_left}{kernel_rbf_right} … \cite{svm} \pagebreak