Perceptron multi-couches

Ce TP consiste à faire quelques expérimentations avec le perceptron multi-couches (PMC) dans une tâche de classification supervisée. L'objectif est de compendre le fonctionnement d'un PMC et d'exhiber le phénomène de sur-apprentissage. On utilise la bibliothèque nnet de R qui permet de manipuler des perceptrons à une couche cachée et un neurone en sortie. La fonction d'activation des neurones de la couche cachée est la fonction logistique.

En cas de besoin, voir le TP précédent.

Entraînement et utilisation d'un PMC

Voir le TP précédent.
La seule différence est qu'ici, la sortie attendue est 0 ou 1 et non pas un nombre réel. Le perceptron de sortie aura donc une fonction d'activation logistique.

Apprentissage des poids

Voir le TP précédent.

Prédiction à l'aide d'un PMC

Voir le TP précédent.

Application

Exercice 1

On va utiliser les exemples présents dans ce fichier. Chaque exemple possède deux attributs numériques et une classe (0 ou 1).

L'objectif de l'exercice est de créer des PMC ayant un nombre croissant de neurones dans leur couche cachée (de 1 à 10 neurones par exemple) est de voir la classe prédite en chaque point du domaine.

Exercice 2