diff --git a/cnam/travaux/probatoire/document.bib b/cnam/travaux/probatoire/document.bib index bcc2b5c..2223576 100644 --- a/cnam/travaux/probatoire/document.bib +++ b/cnam/travaux/probatoire/document.bib @@ -71,6 +71,14 @@ publisher = "O'Reilly", pages = "164", } +@phdthesis{large-scale, +author = "Antoine Bordes", +title = "New Algorithms for Large-Scale SVM", +year = "2010", +school = "Université Paris VI", +} + + @book{csdd, author = "Jean Beney", title = "Classification supervisée de documents : théorie et pratique", diff --git a/cnam/travaux/probatoire/document/analysis.tex b/cnam/travaux/probatoire/document/analysis.tex index 611a748..7fa2e6d 100644 --- a/cnam/travaux/probatoire/document/analysis.tex +++ b/cnam/travaux/probatoire/document/analysis.tex @@ -7,7 +7,10 @@ de petits changements dans les données impactent peu les \glspl{hpp}} \item{ce même modèle peut être utilisé à la fois pour\\ résoudre des problèmes de régression ou de classification} -\item{très efficace avec une marge de séparation nette} +\item{est une alternative aux réseaux de neurones,\\ +dans le cas de \glspl{ds} de taille réduite} +\item{très précis avec une marge de séparation nette} +\item{peut capturer des relations complexes dans des \glspl{ds}} \item{fonctionne avec un grand nombres d’espaces dimensionnels} \item{reste pertinent même avec plus de dimensions que d’éléments} \item{capacité de régularisation pour rester générique,\\ @@ -19,6 +22,8 @@ par l’intermédiaire de différentes \glspl{kf}} \item{une variété de \glspl{kf} existe pour les fonctions de décision} \item{il est possible de combiner plusieurs \glspl{kf},\\ pour pouvoir travailler avec des \glspl{hpp} plus complexes} +\item{pendant longtemps considéré inadapté aux très grands \glspl{ds},\\ +de nouveaux algorithmes ont été mis à contribution depuis \cite{large-scale}} \end{itmz} \subsection{Inconvénients} @@ -29,7 +34,8 @@ et peut facilement mener à un trop grand nombre de \glspl{sv}} \item{la mémoire nécessaire augmente avec le nombre de \glspl{sv},\\ car ces derniers doivent y être intégralement stockés} \item{le temps d’entraînement augmente avec le nombre d’éléments} -\item{les calculs de probabilité de justesse sont très coûteux} +\item{les calculs de probabilité de justesse sont très coûteux,\\ +nécessitant une validation croisée en plusieurs étapes} \item{les modèles sont difficilement interprétables par des humains,\\ contrairement par exemple aux arbres de décisions} \item{effet boîte noire si compréhension insuffisante des outils mathématiques} @@ -38,7 +44,8 @@ contrairement par exemple aux arbres de décisions} \subsection{Limitations} \begin{itmz} -\item{fonctionne mal quand des classes se recouvrent} +\item{fonctionne mal quand des classes se recouvrent, car\\ +plusieurs paramètres varient, contrairement à d’autres méthodes} \item{une normalisation préalable des données est nécessaire,\\ pour que les fonctions objectifs restent pertinentes} \end{itmz}