This commit is contained in:
Marc Beninca 2020-08-12 23:15:43 +02:00
parent 2a4f08fa06
commit 75c6ee7b00
4 changed files with 51 additions and 25 deletions

View file

@ -71,6 +71,30 @@ publisher = "O'Reilly",
pages = "164",
}
@book{multi-class,
author = "Paresh Deka",
title = "A primer on machine learning applications in civil engineering",
year = "2020",
publisher = "CRC Press",
pages = "86-89",
}
@book{mri,
author = "Anand Kulkarni and Suresh Satapathy",
title = "Optimization in Machine Learning and Applications",
year = "2020",
publisher = "Springer",
pages = "51-68",
}
@book{optimization,
author = "Anand Kulkarni and Suresh Satapathy",
title = "Optimization in Machine Learning and Applications",
year = "2020",
publisher = "Springer",
pages = "54",
}
@phdthesis{large-scale,
author = "Antoine Bordes",
title = "New Algorithms for Large-Scale SVM",
@ -78,17 +102,9 @@ year = "2010",
school = "Université Paris VI",
}
@book{csdd,
author = "Jean Beney",
title = "Classification supervisée de documents : théorie et pratique",
year = "2008",
publisher = "Hermes Science",
}
@article{svm,
author = "Ricco Rakotomalala",
title = "SVM : Support Vector Machine",
year = "????",
publisher = "Université Lumière Lyon 2",
@unpublished{cs,
author = "Philippe Gambette",
title = "Classification supervisée et non supervisée",
year = "2014",
school = "Université Paris-Est Marne-la-Vallée",
}

View file

@ -72,7 +72,7 @@ de nouveaux algorithmes ont été mis à contribution depuis \cite{large-scale}}
\begin{itmz}
\item{le choix d’une \gls{kf} appropriée n’est pas facile,\\
\item{le choix d’une \gls{kf} appropriée n’est pas évident,\\
et peut facilement mener à un trop grand nombre de \glspl{sv}}
\end{itmz}\begin{itmz}
@ -82,6 +82,10 @@ car ces derniers doivent y être intégralement stockés}
\end{itmz}\begin{itmz}
\item{difficile d’identifier les bonnes valeurs de paramètres}
\end{itmz}\begin{itmz}
\item{le temps d’entraînement augmente avec le nombre d’éléments}
\end{itmz}\begin{itmz}
@ -96,7 +100,8 @@ contrairement par exemple aux arbres de décisions}
\end{itmz}\begin{itmz}
\item{effet boîte noire si compréhension insuffisante des outils mathématiques}
\item{effet boîte noire en cas de compréhension insuffisante\\
des différents outils mathématiques sous-jacents}
\end{itmz}
@ -114,6 +119,10 @@ plusieurs paramètres varient, contrairement à d’autres méthodes}
\item{une normalisation préalable des données est nécessaire,\\
pour que les fonctions objectifs restent pertinentes}
\end{itmz}\begin{itmz}
\item{les problèmes multi-classes sont encore un champ de recherche}
\end{itmz}

View file

@ -57,15 +57,16 @@ Exemples d’algorithmes :
\subsection{Méthodes supervisées}
Ces dernières méthodes utilisent un ensemble d’éléments intégralement étiquetés,
Ces méthodes utilisent 2 sous-ensembles d’éléments intégralement étiquetés,
ayant une valeur de sortie pour plusieurs valeurs de variables en entrée.
Ces données d’apprentissage permettent après entraînement de pouvoir
prévoir des valeurs de sortie correctes à partir de nouvelles valeurs en entrée.
Les données d’apprentissage permettent un entraînement préalable du modèle.
Les données de test permettent ensuite d’en évaluer la pertinence.
Ces prédictions sont de 2 types :
Le modèle permet enfin, à partir de nouvelles valeurs en entrée,
de fournir des valeurs de sortie prédictives de 2 types :
\begin{itmz}
\item{régression → la valeur sortante est un nombre}
\item{classification → la valeur sortante est une catégorie}
\item{régression → la valeur est un nombre}
\item{classification → la valeur est une catégorie, parmi un ensemble défini}
\end{itmz}
Exemples d’algorithmes :
@ -79,9 +80,7 @@ Exemples d’algorithmes :
\end{itmz}
Ce sont ces \gls{svm} qui feront l’objet d’étude du présent document.
Après en avoir abordé les différents principes sous-jacents,
une analyse critique sera proposée en se basant sur les avantages,
inconvénients et limitations de ce type d’algorithmes
dans le cadre d’un exemple d’application.
En seront passés en revue les différents principes techniques sous-jacents,
un exemple d’application, ainsi qu’un regard critique sur ce type d’algorithmes.
\pagebreak

View file

@ -120,6 +120,8 @@ au risque d’engendrer un surentraînement si trop importante}
Référence multi-classes \cite{multi-class}
Référence optimisation \cite{mri} \cite{optimization}
\cite{svm}
\pagebreak