Accueil > Recherche / Enseignement > Recherche > Thèse > Ma Thèse > Le sujet initial de la thèse

Le sujet initial de la thèse

lundi 21 juillet 2003, par Yann

Sujet de Thèse
Mise en oeuvre de lois de commande basées sur les réseaux de neurones pour les systèmes multivariables.


I ­ Position de l'étude

Le réseau de neurones par ses propriétés d'apprentissage et d'approximateur universel, est un outil intéressant dans l'approximation de fonctions complexes, approximation qui reste délicate dans le cadre de l'identification, car elle implique souvent l'approximation de fonctions non­linéaires /Renders 95/. C'est pourquoi la capacité des réseaux de neurones à reproduire les fonctions non­linéaires /Narendra & Parthasarathy 90/ a conduit les chercheurs à utiliser ces structures pour la représentation de systèmes multivariables dynamiques. Mais leur utilisation n'est pas simple. Pour l'identification, il faut déterminer la structure adéquate ainsi que l'algorithme d'adaptation des poids du réseau. Actuellement, deux types de structures sont utilisées: les réseaux de neurones multicouches et les réseaux récurrents. En ce qui concerne l'algorithme d'adaptation, la méthode la plus utilisée est la rétropropagation du gradient de l'erreur /Levin & Narendra 93/, /Amat &Yahiaoui 95/.

Par analogie avec les systèmes linéaires, les réseaux de neurones peuvent être utilisés pour le contrôle de processus. Deux structures pour l'identification par réseau de neurones peuvent être adoptées: le modèle "série­parallèle" où les sorties réelles du processus sont utilisées pour construire l'entrée, et le modèle dit "parallèle" qui utilise les propres prédictions, ou sorties, du réseau pour construire ses futures entrées. La première structure est préférable du point de vue de la stabilité, des performances et de la simplicité des algorithmes. La deuxième structure est un cas particulier des réseaux récurrents. Un réseau récurrent possédant une entrée et une sortie unique, et une topologie analogue à celle d'un réseau de Hopfield avec autorécurrence au niveau de chaque neurone, semble une voie prometteuse car il est libre de développer sa propre représentation d'état adaptée au problème, sans avoir connaissance de l'ordre du processus et de son temps mort /Renders 95/.

Dans la pratique, la rétro­propagation du gradient stochastique /Amat & Yahiaoui 95/ permet en effet de résoudre correctement le problème de l'apprentissage, même pour des courbes d'énergie très complexes. Cependant ces techniques sont inadaptées lorsque lors de la phase d'apprentissage, l'optimisation de la topologie est prise en compte.

En effet, dans des travaux déjà "anciens" /Miller & al. 89/ les raisons invoquées sont nombreuses. Le problème de la conception d'un réseau revient à rechercher une architecture "optimale" pour une tâche donnée en fonction d'un critère de performance prédéfini. Ce processus peut être vu comme la recherche d'une surface définie par des niveaux de performance d'apprentissage du réseau dans l'espace des architectures possibles du réseau. Cette surface est évidemment infinie et d'après /Miller & al. 89/ elle est non différentiable, épistatique, complexe, bruitée et multimodale.

Pour ce type de problème les méthodes de descente du gradient sont donc inappropriées puisqu'elles nécessitent une surface différentiable et qu'elles sont de faible qualité pour des problèmes contenant de nombreux minima locaux. Les algorithmes génétiques semblent être une alternative intéressante aux méthode basées sur le gradient: ils ne nécessitent pas la dérivabilité des fonctions à optimiser et permettent une bonne exploration de l'espace des solutions.

II ­ Présentation du sujet

Une voie prometteuse pour l'identification par réseaux de neurones est basée sur les réseaux récurrents qui permettent la prise en compte d'une représentation d'état interne du procédé. Le travail concerne donc la recherche de structure de réseaux de neurones et d'algorithmes d'optimisation adaptés à l'identification et le contrôle de systèmes multivariables. La rétro­propagation n'étant pas adaptée, des algorithmes d'optimisation performants sont à envisager: Sollis & Wetts /Glorennec 94/, Algorithmes Génétiques /Goldberg 94/~ Stratégies d'Evolution.

De plus des ponts ont été établis entre réseaux de neurones et systèmes flous, par exemple une équivalence entre les réseaux de neurones de type RBF (Radial Basis Function) et systèmes flous. Cette équivalence pour des réseaux de type feedforward peut être étendue pour une certaine classe de réseaux récurrents (réseaux de Elman). Ces différents ponts peuvent donc automatiser des combinaisons intéressantes au niveau de la commande de processus. Cette thèse se propose d'explorer différentes possibilités dans le cadre de la commande de processus.

Toutes les méthodes mises en oeuvre pourront être testées et validées sur des plateformes d'essais: une station de climatisation, un pendule inversé et un double­pendule inversé.

Références

Amat J. L., Yahiaoui G. (1995) Techniques avaMcées pour le Traitement de l'lnformation. Réseaux de neurones, logique f70ue, algorithmes génétiques. CÉPADUES ÉDITIONS.

Decamp E., Amy B. (1988)

Neurocalcul et réseaux d'automates. Le point sur les recherches et les applications. EC2

Glorennec P. Y. (1994) Modélisation d'lm bâtiment par réseau de neurones récurrents. G.R. Automatique, Pôle Automatisation Intégrée, Projet CSN, Rapport 94­3, Septembre 1994.

Goldberg D. E. (1994)

Algorithmes Génétiques. Ed. Addison Westley

Levin & Narendra (1993)

Systems Using Neural Net,work Controllability and Stabilization.

1045/9227 1993 IEEE Trans. on Neural Networks

Miller G. F., Todd P. M., Hedge S. U. (1989) Designing Neural Net,works unsiMg Genetic Algorithms. Proceedings of the Third Intemational Conference on Genetic Algorithms, pp. 379­384 Morgan Kaufmann Publishers Inc.

Narendra & Parthasarathy (1990)

Ident,ificat,ion and Control of Dynamical,s Syste711s.

1045/9227 IEEE Trans. on Neural Networks

Renders J. M. (1995) Algorithmes Génétiques et Réseaux de Neurones, applications à la commande de processus. Ed. Hermès, collection Systèmes complexes.