Soutenance de Thèse – Parcollet Titouan – 3 Décembre 14h30

Soutenance de Thèse – Parcollet Titouan – 3 Décembre 14h30

Soutenance de thèse de Parcollet Titouan, intitulée « Réseaux de neurones artificiels fondés sur l’algèbre des quaternions »
 ce mardi 3 décembre 2019 à 14H30 en amphithéâtre Blaise Pascal (CERI).
La thèse sera défendue devant un jury composé de :
M. Thierry Artières,  Professeur, ECM/LIS/CNRS, Aix-Marseille université  (Rapporteur)
M. Alexandre Allauzen,  Professeur, LIMSI/CNRS, Paris-Sud université  (Rapporteur)
 
Mme Nathalie Camelin,  Maître de Conférence, LIUM, Le Mans université  (Examinatrice)
M. Yoshua Bengio,  Professeur, DIRO/MILA, Université de Montréal  (Visioconférence, Examinateur)
M. Benjamin Lecouteux, Maître de Conférence, LIG, Université Grenoble Alpes  (Examinateur)
M. Xavier Bost,   Ingénieur de recherche, ORKIS (Examinateur)
 
M. Georges Linarès,  Professeur, LIA, Avignon université  (Directeur)
M. Mohamed Morchid,  Maître de Conférence, LIA, Avignon université  (co-Directeur)
 
La soutenance sera réalisée en Français. Vous êtes également tous invités au pot qui suivra en Salle 5.
 
Résumé:
Au cours des dernières années, l’apprentissage profond est devenu l’appr-oche privilégiée pour le développement d’une intelligence artificielle moderne (IA). L’augmentation importante de la puissance de calcul, ainsi que la quantité sans cesse croissante de données disponibles ont fait des réseaux de neurones profonds la solution la plus performante pour la resolution de problèmes complexes. Cependant, la capacité à parfaitement représenter la multidimensionalité des données réelles reste un défi majeur pour les architectures neuronales artificielles.
 
Pour résoudre ce problème, les réseaux de neurones basés sur les algèbres des nombres complexes et hypercomplexes ont été développés. Ainsi, la multidimensionnalité des données est intégrée dans les neurones dorénavant complexes et hypercomplexes composant le modèle. En particulier, les réseaux de neurones de quaternions (QNN) ont été proposés pour traiter les données tridimensionnelles et quadridimensionnelles, sur la base des quaternions représentant des rotations dans notre espace tridimensionnel. Malheureusement, et contrairement aux réseaux de neurones à valeurs complexes qui sont de nos jours acceptés comme une alternative aux réseaux de neurones réels, les QNNs souffrent de nombreuses lacunes qui sont en partie comblées par les différents travaux détaillés par ce manuscrit.
 
Ainsi, la thèse se compose de trois parties qui introduisent progressivement les concepts manquants, afin de faire des QNNs une alternative aux réseaux neuronaux à valeurs réelles. La premiere partie présente et répertorie les précédentes découvertes relatives aux quaternions et aux réseaux de neurones de quaternions, afin de définir une base pour la construction des QNNs modernes.
 
La deuxième partie introduit des réseaux neuronaux de quaternions état de l’art, afin de permettre une comparaison dans des contextes identiques avec les architectures modernes traditionnelles. Plus précisément, les QNNs étaient majoritairement limités par leurs architectures trop simples, souvent composées d’une seule couche cachée comportant peu de neurones. Dans cette partie, nous comblons cet important fossé entre les réseaux neuronaux de quaternions et ceux basés sur les nombres réels. Premièrement, les paradigmes fondamentaux, tels que les autoencodeurs et les réseaux de neurones profonds sont présentés. Ensuite, les très répandus et étudiés réseaux de neurones convolutionnels et récurrents sont étendus à l’espace des quaternions. De nombreuses experiences sur différentes applications réelles, telles que la vision par ordinateur, la compréhension du langage parlé ainsi que la reconnaissance automatique de la parole sont menées pour comparer les modèles de quaternions introduits aux réseaux neuronaux conventionnels. Dans ces contextes bien spécifiques, les QNNs ont obtenus de meilleures performances ainsi qu’une réduction importante du nombre de paramètres neuronaux nécessaires à la phase d’apprentissage.
 
Les QNNs sont ensuite étendus à des conditions d’entrainement permettant de traiter toutes les représentations en entrée des modèles de quaternions. Dans un scénario traditionnel impliquant des QNNs, les caractéristiques d’entrée sont manuellement segmentées en quatre composants, afin de correspondre à la representation induite par les quaternions. Malheureusement, il est difficile d’assurer qu’une telle segmentation est optimale pour résoudre le problème considéré. De plus, une segmentation manuelle réduit fondamentalement l’application des QNNs à des tâches naturellement définies dans un espace à au plus quatre dimensions. De ce fait, la troisième partie de cette thèse introduit un modèle supervisé et un modèle non supervisé permettant l’extraction de caractéristiques d’entrée désentrelacées et significatives dans l’espace des quaternions, à partir de n’importe quel type de signal réel uni-dimentionnel, permettant l’utilisation des QNNs indépendamment de la dimensionnalité des vecteurs d’entrée et de la tâche considérée. Les expériences menées sur la reconnaissance de la parole et la classification de documents parlés montrent que les approches proposées sont plus performantes que les représentations traditionnelles de quaternions.
Les commentaires sont clos.