diff --git a/cnam/travaux/probatoire/document.bib b/cnam/travaux/probatoire/document.bib index 2223576..3d72364 100644 --- a/cnam/travaux/probatoire/document.bib +++ b/cnam/travaux/probatoire/document.bib @@ -71,6 +71,30 @@ publisher = "O'Reilly", pages = "164", } +@book{multi-class, +author = "Paresh Deka", +title = "A primer on machine learning applications in civil engineering", +year = "2020", +publisher = "CRC Press", +pages = "86-89", +} + +@book{mri, +author = "Anand Kulkarni and Suresh Satapathy", +title = "Optimization in Machine Learning and Applications", +year = "2020", +publisher = "Springer", +pages = "51-68", +} + +@book{optimization, +author = "Anand Kulkarni and Suresh Satapathy", +title = "Optimization in Machine Learning and Applications", +year = "2020", +publisher = "Springer", +pages = "54", +} + @phdthesis{large-scale, author = "Antoine Bordes", title = "New Algorithms for Large-Scale SVM", @@ -78,17 +102,9 @@ year = "2010", school = "Université Paris VI", } - -@book{csdd, -author = "Jean Beney", -title = "Classification supervisée de documents : théorie et pratique", -year = "2008", -publisher = "Hermes Science", -} - -@article{svm, -author = "Ricco Rakotomalala", -title = "SVM : Support Vector Machine", -year = "????", -publisher = "Université Lumière Lyon 2", +@unpublished{cs, +author = "Philippe Gambette", +title = "Classification supervisée et non supervisée", +year = "2014", +school = "Université Paris-Est Marne-la-Vallée", } diff --git a/cnam/travaux/probatoire/document/analysis.tex b/cnam/travaux/probatoire/document/analysis.tex index 3b32b4e..483dd10 100644 --- a/cnam/travaux/probatoire/document/analysis.tex +++ b/cnam/travaux/probatoire/document/analysis.tex @@ -72,7 +72,7 @@ de nouveaux algorithmes ont été mis à contribution depuis \cite{large-scale}} \begin{itmz} -\item{le choix d’une \gls{kf} appropriée n’est pas facile,\\ +\item{le choix d’une \gls{kf} appropriée n’est pas évident,\\ et peut facilement mener à un trop grand nombre de \glspl{sv}} \end{itmz}\begin{itmz} @@ -82,6 +82,10 @@ car ces derniers doivent y être intégralement stockés} \end{itmz}\begin{itmz} +\item{difficile d’identifier les bonnes valeurs de paramètres} + +\end{itmz}\begin{itmz} + \item{le temps d’entraînement augmente avec le nombre d’éléments} \end{itmz}\begin{itmz} @@ -96,7 +100,8 @@ contrairement par exemple aux arbres de décisions} \end{itmz}\begin{itmz} -\item{effet boîte noire si compréhension insuffisante des outils mathématiques} +\item{effet boîte noire en cas de compréhension insuffisante\\ +des différents outils mathématiques sous-jacents} \end{itmz} @@ -114,6 +119,10 @@ plusieurs paramètres varient, contrairement à d’autres méthodes} \item{une normalisation préalable des données est nécessaire,\\ pour que les fonctions objectifs restent pertinentes} +\end{itmz}\begin{itmz} + +\item{les problèmes multi-classes sont encore un champ de recherche} + \end{itmz} diff --git a/cnam/travaux/probatoire/document/introduction.tex b/cnam/travaux/probatoire/document/introduction.tex index bf707b7..2169ac8 100644 --- a/cnam/travaux/probatoire/document/introduction.tex +++ b/cnam/travaux/probatoire/document/introduction.tex @@ -57,15 +57,16 @@ Exemples d’algorithmes : \subsection{Méthodes supervisées} -Ces dernières méthodes utilisent un ensemble d’éléments intégralement étiquetés, +Ces méthodes utilisent 2 sous-ensembles d’éléments intégralement étiquetés, ayant une valeur de sortie pour plusieurs valeurs de variables en entrée. -Ces données d’apprentissage permettent après entraînement de pouvoir -prévoir des valeurs de sortie correctes à partir de nouvelles valeurs en entrée. +Les données d’apprentissage permettent un entraînement préalable du modèle. +Les données de test permettent ensuite d’en évaluer la pertinence. -Ces prédictions sont de 2 types : +Le modèle permet enfin, à partir de nouvelles valeurs en entrée, +de fournir des valeurs de sortie prédictives de 2 types : \begin{itmz} -\item{régression → la valeur sortante est un nombre} -\item{classification → la valeur sortante est une catégorie} +\item{régression → la valeur est un nombre} +\item{classification → la valeur est une catégorie, parmi un ensemble défini} \end{itmz} Exemples d’algorithmes : @@ -79,9 +80,7 @@ Exemples d’algorithmes : \end{itmz} Ce sont ces \gls{svm} qui feront l’objet d’étude du présent document. -Après en avoir abordé les différents principes sous-jacents, -une analyse critique sera proposée en se basant sur les avantages, -inconvénients et limitations de ce type d’algorithmes -dans le cadre d’un exemple d’application. +En seront passés en revue les différents principes techniques sous-jacents, +un exemple d’application, ainsi qu’un regard critique sur ce type d’algorithmes. \pagebreak diff --git a/cnam/travaux/probatoire/document/principles.tex b/cnam/travaux/probatoire/document/principles.tex index 76b74bd..d981b62 100644 --- a/cnam/travaux/probatoire/document/principles.tex +++ b/cnam/travaux/probatoire/document/principles.tex @@ -120,6 +120,8 @@ au risque d’engendrer un surentraînement si trop importante} … +Référence multi-classes \cite{multi-class} +Référence optimisation \cite{mri} \cite{optimization} \cite{svm} \pagebreak