En algorithmique et en traitement du signal, l’algorithme de Lloyd-Max est un algorithme qui permet de construire le quantifieur scalaire optimal. C'est donc une méthode pour quantifier un signal en une dimension de manière à minimiser la distorsion, mesurée par l'erreur quadratique moyenne.
L'optimalité du quantifieur est assurée par deux conditions sur les niveaux de reconstruction et de décision, découvertes par Lloyd en 1957. Il fournit aussi un algorithme, qui permet de construire itérativement le quantifieur optimal. L'algorithme peut être étendu à la quantification de vecteurs (algorithme de Linde-Buzo-Gray).
Historique
L'algorithme fut développé par Lloyd en 1957, mais n'a pas été publié en revue scientifique. Il fut présenté à l'Institut de Statistiques Mathématiques et la seule version imprimée est un mémorandum technique des laboratoires Bell. L'algorithme resta donc peu connu pendant plusieurs années. Les résultats exposés dans le mémorandum furent redécouverts indépendamment par plusieurs chercheurs. Cependant toutes ces redécouvertes utilisèrent des dérivations différentes de celle utilisée par Lloyd, indispensable pour l'extension du théorème à la quantification de vecteurs et pour plusieurs procédures d'optimisation de quantificateurs[1].
L'algorithme fut notamment redécouvert par Joel Max en 1960[2].
Algorithme
L'algorithme est initialisé par k points de l'espace d'entrée. Il itère ensuite la procédure suivante:
- calculer le diagramme de Voronoï des k points
- intégrer chaque cellule de Voronoï de manière à en déterminer le centroïde
- chacun des k points est alors déplacé sur les centroïdes
L'algorithme diffère de l'algorithme des k-moyennes au sens où ce dernier agit sur des données discrètes (par exemple un ensemble de points d'un espace vectoriel) alors que l'algorithme de Lloyd-Max peut être appliqué à des données continues (par exemple une densité).
Conditions d'optimalités
Un quantifieur scalaire peut se définir comme un ensemble d'intervalles de l'espace de départ, , où les sont appelés niveaux de décision. On suppose que le quantifieur possède niveaux de reconstructions , et niveaux de décision .
Pour une source de densité de probabilité , les conditions d'optimalités sur les niveaux de reconstructions et de décision sont obtenues en minimisant l'erreur de reconstruction (appelée aussi distorsion) :
Les conditions d'optimalités sont alors données par :
- (1)
- (2)
Cas particulier
Dans le cas d'une source uniforme : , les conditions d'optimalités se simplifient :
ce qui donne, en injectant dans (1) :
Le pas de quantification est constant, et égale à . Les niveaux de reconstruction et de décisions sont alors régis par les règles simples :
On retrouve le quantifieur scalaire uniforme, qui est donc optimal pour une source de distribution uniforme.
Voir aussi
Notes et références
- R. M. Gray et D. L. Neuhoff, « Quantization », IEEE Transactions on Information Theory, vol. 44, no 6, , p. 2325–2383 (ISSN 0018-9448, DOI 10.1109/18.720541, lire en ligne, consulté le )
- J. Max, « Quantizing for minimum distortion », IRE Transactions on Information Theory, vol. 6, no 1, , p. 7–12 (ISSN 0096-1000, DOI 10.1109/TIT.1960.1057548, lire en ligne, consulté le )
Références
- M. Antonini and V. Ricordel. Chapitre Quantification, pp. 45–72. Traité IC2. Hermès, Paris, .
- Robert M. Gray, David L. Neuhoff, Quantization, IEEE Transactions on Information Theory, vol. 44, n°6, pp. 2325-2383, DOI 10.1109/18.720541
- Source Coding Theory, Robert M. Gray
- S. P. Lloyd, Least squares quantization in PCM, IEEE Transactions on Information Theory, vol. 28, n°2, pp. 129–137, DOI 10.1109/TIT.1982.1056489
- Anil K. Jain, Fundamentals of digital image processing, Prentice Hall, 1989.