Accueil > Recherche / Enseignement > Recherche > Thèse > Ma Thèse > Le sujet initial de la thèse
Le sujet initial de la thèse
lundi 21 juillet 2003, par
I Position de l'étude
Le réseau de neurones par ses propriétés
d'apprentissage et d'approximateur universel, est un outil intéressant
dans l'approximation de fonctions complexes, approximation qui
reste délicate dans le cadre de l'identification, car elle
implique souvent l'approximation de fonctions nonlinéaires
/Renders 95/. C'est pourquoi la capacité des réseaux
de neurones à reproduire les fonctions nonlinéaires
/Narendra & Parthasarathy 90/ a conduit les chercheurs à
utiliser ces structures pour la représentation de systèmes
multivariables dynamiques. Mais leur utilisation n'est pas simple.
Pour l'identification, il faut déterminer la structure
adéquate ainsi que l'algorithme d'adaptation des poids
du réseau. Actuellement, deux types de structures sont
utilisées: les réseaux de neurones multicouches
et les réseaux récurrents. En ce qui concerne l'algorithme
d'adaptation, la méthode la plus utilisée est la
rétropropagation du gradient de l'erreur /Levin & Narendra
93/, /Amat &Yahiaoui 95/.
Par analogie avec les systèmes linéaires, les réseaux
de neurones peuvent être utilisés pour le contrôle
de processus. Deux structures pour l'identification par réseau
de neurones peuvent être adoptées: le modèle
"sérieparallèle" où les sorties
réelles du processus sont utilisées pour construire
l'entrée, et le modèle dit "parallèle"
qui utilise les propres prédictions, ou sorties, du réseau
pour construire ses futures entrées. La première
structure est préférable du point de vue de la stabilité,
des performances et de la simplicité des algorithmes. La
deuxième structure est un cas particulier des réseaux
récurrents. Un réseau récurrent possédant
une entrée et une sortie unique, et une topologie analogue
à celle d'un réseau de Hopfield avec autorécurrence
au niveau de chaque neurone, semble une voie prometteuse car il
est libre de développer sa propre représentation
d'état adaptée au problème, sans avoir connaissance
de l'ordre du processus et de son temps mort /Renders 95/.
Dans la pratique, la rétropropagation du gradient
stochastique /Amat & Yahiaoui 95/ permet en effet de résoudre
correctement le problème de l'apprentissage, même
pour des courbes d'énergie très complexes. Cependant
ces techniques sont inadaptées lorsque lors de la phase
d'apprentissage, l'optimisation de la topologie est prise en compte.
En effet, dans des travaux déjà "anciens"
/Miller & al. 89/ les raisons invoquées sont nombreuses.
Le problème de la conception d'un réseau revient
à rechercher une architecture "optimale" pour
une tâche donnée en fonction d'un critère
de performance prédéfini. Ce processus peut être
vu comme la recherche d'une surface définie par des niveaux
de performance d'apprentissage du réseau dans l'espace
des architectures possibles du réseau. Cette surface est
évidemment infinie et d'après /Miller & al.
89/ elle est non différentiable, épistatique, complexe,
bruitée et multimodale.
Pour ce type de problème les méthodes de descente
du gradient sont donc inappropriées puisqu'elles nécessitent
une surface différentiable et qu'elles sont de faible qualité
pour des problèmes contenant de nombreux minima locaux.
Les algorithmes génétiques semblent être une
alternative intéressante aux méthode basées
sur le gradient: ils ne nécessitent pas la dérivabilité
des fonctions à optimiser et permettent une bonne exploration
de l'espace des solutions.
II Présentation du sujet
Une voie prometteuse pour l'identification par réseaux
de neurones est basée sur les réseaux récurrents
qui permettent la prise en compte d'une représentation
d'état interne du procédé. Le travail concerne
donc la recherche de structure de réseaux de neurones et
d'algorithmes d'optimisation adaptés à l'identification
et le contrôle de systèmes multivariables. La rétropropagation
n'étant pas adaptée, des algorithmes d'optimisation
performants sont à envisager: Sollis & Wetts /Glorennec
94/, Algorithmes Génétiques /Goldberg 94/~ Stratégies
d'Evolution.
De plus des ponts ont été établis entre réseaux
de neurones et systèmes flous, par exemple une équivalence
entre les réseaux de neurones de type RBF (Radial Basis
Function) et systèmes flous. Cette équivalence pour
des réseaux de type feedforward peut être étendue
pour une certaine classe de réseaux récurrents (réseaux
de Elman). Ces différents ponts peuvent donc automatiser
des combinaisons intéressantes au niveau de la commande
de processus. Cette thèse se propose d'explorer différentes
possibilités dans le cadre de la commande de processus.
Toutes les méthodes mises en oeuvre pourront être
testées et validées sur des plateformes d'essais:
une station de climatisation, un pendule inversé et un
doublependule inversé.
Références
Amat J. L., Yahiaoui G. (1995) Techniques avaMcées pour
le Traitement de l'lnformation. Réseaux de neurones, logique
f70ue, algorithmes génétiques. CÉPADUES
ÉDITIONS.
Decamp E., Amy B. (1988)
Neurocalcul et réseaux d'automates. Le point sur les
recherches et les applications. EC2
Glorennec P. Y. (1994) Modélisation d'lm bâtiment
par réseau de neurones récurrents. G.R. Automatique,
Pôle Automatisation Intégrée, Projet CSN,
Rapport 943, Septembre 1994.
Goldberg D. E. (1994)
Algorithmes Génétiques. Ed. Addison Westley
Levin & Narendra (1993)
Systems Using Neural Net,work Controllability and Stabilization.
1045/9227 1993 IEEE Trans. on Neural Networks
Miller G. F., Todd P. M., Hedge S. U. (1989) Designing Neural
Net,works unsiMg Genetic Algorithms. Proceedings of the Third
Intemational Conference on Genetic Algorithms, pp. 379384
Morgan Kaufmann Publishers Inc.
Narendra & Parthasarathy (1990)
Ident,ificat,ion and Control of Dynamical,s Syste711s.
1045/9227 IEEE Trans. on Neural Networks
Renders J. M. (1995) Algorithmes Génétiques et
Réseaux de Neurones, applications à la commande
de processus. Ed. Hermès, collection Systèmes
complexes.