|
GREYC
|
Mon travail est une étude algorithmique de la
réduction des réseaux euclidiens. Un réseau euclidien est l'ensemble des combinaisons
linéaires entières de
vecteurs libres de
. Les
vecteurs forment alors une base du réseau
et
leur nombre est la dimension du réseau. Un même réseau peut ainsi
être engendré par de multiples bases, qui peuvent être de qualité
très variable. Réduire un
réseau
consiste à trouver une base qui engendre le même réseau et qui soit de bonne
qualité vis-à-vis de la structure euclidienne: les vecteurs de la base
doivent être assez courts et en même temps assez
orthogonaux.
Le problème de la réduction est d'un interêt majeur en particulier par ses nombreuses applications en théorie algorithmique des nombres, en optimisation entière ou encore en cryptographie. En dimension , il existe un algorithme de réduction dû à Gauss. En dimension
, le problème a intéressé des mathématiciens tels que Hermite et Minkowski, mais rarement de façon constructive. Ce n'est que depuis 1982 qu'il existe un algorithme d'approximation polynomial qui construit une base réduite (au sens de
-Lovász) dans un réseau: c'est le célèbre algorithme LLL
baptisé des initiales de ses inventeurs, H.W. Lenstra, A.K. Lenstra et L. Lovász,
qui sert à la fois de point de départ et
de référence constante à ma thèse.
Dans ma thèse, je considère plusieurs nouvelles définitions de bases réduites et je compare ces réductions à celle de -Lovász. Les nouvelles réductions sont a priori moins fortes. Mais la qualité des bases de sortie reste similaire à celle des bases LLL-réduites, alors que les nouveaux algorithmes de réduction sont en moyenne plus rapides.
Les nouveaux algorithmes de réduction sont définis dans le Chapitre , où je fournis également une analyse dans le pire des cas et une étude comparative des bases de sortie.
Les Chapitres -
étudient le comportement des différents algorithmes de réduction sur des réseaux aléatoires. Mes résultats sont basés d'une part sur un théorème de Daudé et Vallée sur la longueur des orthogonalisés d'une base aléatoire et d'autre part sur une généralisation de la méthode de Laplace que je propose dans le Chapitre
. Ainsi, je mets en évidence des phénomènes de seuil dans les réseaux aléatoires qui me permettent ensuite de classer les algorithmes de réduction (l'analyse dans le pire des cas n'arrivait pas à les distinguer).
En analysant les agorithmes de réduction dans le pire des cas et en moyenne sur les bases du modèle uniforme, je fournis une étude comparative de leurs comportements et je montre que les nouveaux algorithmes sont plus rapides. Mon analyse est complétée (Chapitre ) par des exprérimentations qui confirment mes résultats sur des réseaux aléatoires provenant de problèmes réels.
Dans le Chapitre , je considère la complexité de l'algorithme LLL, lorsque son paramètre d'approximation
prend sa valeur optimale
(la meilleure base réduite est alors construite). C'était un problème ouvert auquel j'ai apporté une réponse: l'algorithme LLL optimal reste polynomiale en la taille de la base lorsque la dimension
du réseau ext fixé.
Mots-clefs : algorithmique, complexité, analyse en moyenne, réseaux euclidiens, bases réduites, algorithme LLL, calcul formel, cryptographie, réseaux aléatoires, distribution uniforme, probabilités asymptotiques, lois 0-1.