glossaries,intro,principles

This commit is contained in:
Marc Beninca 2020-08-07 15:39:00 +02:00
parent 6c9f2eea8e
commit ef4795b1ca
3 changed files with 45 additions and 2 deletions

View file

@ -1,6 +1,8 @@
\printglossary[title=Abréviations,type=\acronymtype] \printglossary[title=Abréviations,type=\acronymtype]
\newacronym{hbos}{HBOS}{Histogram Based Outlier Score} \newacronym{hbos}{HBOS}{Histogram Based Outlier Score}
\newacronym{nn}{NN}{Nearest Neighbors}
\newacronym{rbf}{RBF}{Radial Basis Function}
\newacronym{sgbd}{SGBD}{Systèmes de Gestion de Bases de Données} \newacronym{sgbd}{SGBD}{Systèmes de Gestion de Bases de Données}
\newacronym{si}{SI}{Systèmes d’Information} \newacronym{si}{SI}{Systèmes d’Information}
\newacronym{svm}{SVM}{Support Vector Machine} \newacronym{svm}{SVM}{Support Vector Machine}

View file

@ -32,7 +32,7 @@ des mécanismes permettant de faire du \gls{clustering} de ces éléments.
Exemples d’algorithmes : Exemples d’algorithmes :
\begin{itmz} \begin{itmz}
\item{k-means} \item{k-means (moyennes)}
\item{réduction de dimensionnalité} \item{réduction de dimensionnalité}
\item{réseaux de neurones} \item{réseaux de neurones}
\item{analyse des composants principaux ou indépendants} \item{analyse des composants principaux ou indépendants}
@ -72,7 +72,7 @@ Exemples d’algorithmes :
\begin{itmz} \begin{itmz}
\item{régressions linéaire, logistique ou vectorielle} \item{régressions linéaire, logistique ou vectorielle}
\item{arbres de régression, classification} \item{arbres de régression, classification}
\item{K-NN} \item{k-\gls{nn} (plus proches voisins)}
\item{classificateur Naïve Bayes} \item{classificateur Naïve Bayes}
\item{réseaux de neurones} \item{réseaux de neurones}
\item{\gls{svm}} \item{\gls{svm}}

View file

@ -30,10 +30,16 @@ deux types de résolution sont disponibles :
\subsubsection{Régression linéaire} \subsubsection{Régression linéaire}
\bifig{}{Régression linéaire}
{16em}{regression_linear_left}{regression_linear_right}
\subsubsection{Régression non linéaire} \subsubsection{Régression non linéaire}
\bifig{}{Régression non linéaire}
{16em}{regression_nonlinear_left}{regression_nonlinear_right}
\subsection{Classification} \subsection{Classification}
@ -44,10 +50,45 @@ deux types de résolution sont disponibles :
\bifig{}{Vaste marge}
{9em}{margin_large_left}{margin_large_right}
\bifig{}{}
{10em}{margin_scale_left}{margin_scale_right}
\bifig{}{}
{9em}{margin_hard_left}{margin_hard_right}
\bifig{}{}
{9em}{margin_few_left}{margin_few_right}
\subsubsection{Classification non linéaire} \subsubsection{Classification non linéaire}
\bifig{}{Séparabilité linéaire}
{14em}{nonlinear_linear_left}{nonlinear_linear_right}
\bifig{}{Fonction noyau polynominale}
{14em}{kernel_polynomial_left}{kernel_polynomial_right}
\bifig{}{Fonction noyau gaussien \gls{rbf}}
{26em}{kernel_rbf_left}{kernel_rbf_right}
\cite{csd} \cite{csd}
\pagebreak \pagebreak