Résumé:
Les matrices, en tant que représentations des applications linéaires en dimension finie, jouent un rôle central en traitement du signal et des images et en apprentissage automatique. L'application d'une matrice de rang plein à un vecteur implique a priori un nombre d'opérations arithmétiques de l'ordre du nombre d'entrées non-nulles que contient la matrice. Cependant, il existe des matrices pouvant être appliquées bien plus rapidement, cette propriété étant d'ailleurs un des fondements du succès de certaines transformations linéaires, telles que la transformée de Fourier ou la transformée en ondelettes.
Quelle est cette propriété ? Est-elle vérifiable aisément ? Peut-on approcher des matrices quelconques par des matrices ayant cette propriété ? Peut-on estimer des matrices ayant cette propriété ?
La thèse s’attaque à ces questions en explorant des applications telles que l’apprentissage de dictionnaire à implémentation efficace, l’accélération des itérations d’algorithmes de résolution de problèmes inverses pour la localisation de sources, ou l’analyse de Fourier rapide sur graphe.