pros,cons

This commit is contained in:
Marc Beninca 2020-08-12 16:17:24 +02:00
parent 7a4ab3c8cd
commit 80a2063642
2 changed files with 18 additions and 3 deletions

View file

@ -71,6 +71,14 @@ publisher = "O'Reilly",
pages = "164", pages = "164",
} }
@phdthesis{large-scale,
author = "Antoine Bordes",
title = "New Algorithms for Large-Scale SVM",
year = "2010",
school = "Université Paris VI",
}
@book{csdd, @book{csdd,
author = "Jean Beney", author = "Jean Beney",
title = "Classification supervisée de documents : théorie et pratique", title = "Classification supervisée de documents : théorie et pratique",

View file

@ -7,7 +7,10 @@
de petits changements dans les données impactent peu les \glspl{hpp}} de petits changements dans les données impactent peu les \glspl{hpp}}
\item{ce même modèle peut être utilisé à la fois pour\\ \item{ce même modèle peut être utilisé à la fois pour\\
résoudre des problèmes de régression ou de classification} résoudre des problèmes de régression ou de classification}
\item{très efficace avec une marge de séparation nette} \item{est une alternative aux réseaux de neurones,\\
dans le cas de \glspl{ds} de taille réduite}
\item{très précis avec une marge de séparation nette}
\item{peut capturer des relations complexes dans des \glspl{ds}}
\item{fonctionne avec un grand nombres d’espaces dimensionnels} \item{fonctionne avec un grand nombres d’espaces dimensionnels}
\item{reste pertinent même avec plus de dimensions que d’éléments} \item{reste pertinent même avec plus de dimensions que d’éléments}
\item{capacité de régularisation pour rester générique,\\ \item{capacité de régularisation pour rester générique,\\
@ -19,6 +22,8 @@ par l’intermédiaire de différentes \glspl{kf}}
\item{une variété de \glspl{kf} existe pour les fonctions de décision} \item{une variété de \glspl{kf} existe pour les fonctions de décision}
\item{il est possible de combiner plusieurs \glspl{kf},\\ \item{il est possible de combiner plusieurs \glspl{kf},\\
pour pouvoir travailler avec des \glspl{hpp} plus complexes} pour pouvoir travailler avec des \glspl{hpp} plus complexes}
\item{pendant longtemps considéré inadapté aux très grands \glspl{ds},\\
de nouveaux algorithmes ont été mis à contribution depuis \cite{large-scale}}
\end{itmz} \end{itmz}
\subsection{Inconvénients} \subsection{Inconvénients}
@ -29,7 +34,8 @@ et peut facilement mener à un trop grand nombre de \glspl{sv}}
\item{la mémoire nécessaire augmente avec le nombre de \glspl{sv},\\ \item{la mémoire nécessaire augmente avec le nombre de \glspl{sv},\\
car ces derniers doivent y être intégralement stockés} car ces derniers doivent y être intégralement stockés}
\item{le temps d’entraînement augmente avec le nombre d’éléments} \item{le temps d’entraînement augmente avec le nombre d’éléments}
\item{les calculs de probabilité de justesse sont très coûteux} \item{les calculs de probabilité de justesse sont très coûteux,\\
nécessitant une validation croisée en plusieurs étapes}
\item{les modèles sont difficilement interprétables par des humains,\\ \item{les modèles sont difficilement interprétables par des humains,\\
contrairement par exemple aux arbres de décisions} contrairement par exemple aux arbres de décisions}
\item{effet boîte noire si compréhension insuffisante des outils mathématiques} \item{effet boîte noire si compréhension insuffisante des outils mathématiques}
@ -38,7 +44,8 @@ contrairement par exemple aux arbres de décisions}
\subsection{Limitations} \subsection{Limitations}
\begin{itmz} \begin{itmz}
\item{fonctionne mal quand des classes se recouvrent} \item{fonctionne mal quand des classes se recouvrent, car\\
plusieurs paramètres varient, contrairement à d’autres méthodes}
\item{une normalisation préalable des données est nécessaire,\\ \item{une normalisation préalable des données est nécessaire,\\
pour que les fonctions objectifs restent pertinentes} pour que les fonctions objectifs restent pertinentes}
\end{itmz} \end{itmz}