Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Distance algorithmique — Wikipédia
Distance algorithmique — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.

En théorie de l'information, la distance algorithmique entre deux objets finis est le nombre de bits du programme le plus court qui transforme l'un des objets en l'autre sur un ordinateur universel. Elle s'appuie sur la complexité de Kolmogorov[note 1]. En termes de contenu d’information, la distance algorithmique est l'information minimale nécessaire pour passer d'un objet à l'autre. Elle a été définie et étudiée en 1992 par Ming Li et Paul Vitanyi.

Propriétés

[modifier | modifier le code]

Définition

[modifier | modifier le code]

La distance d'information I D ( x , y ) {\displaystyle ID(x,y)} {\displaystyle ID(x,y)} entre x {\displaystyle x} {\displaystyle x} et y {\displaystyle y} {\displaystyle y} est définie par I D ( x , y ) = min { | p | : p ( x ) = y ∧ p ( y ) = x } , {\displaystyle ID(x,y)=\min\{|p|:p(x)=y\;\wedge \;p(y)=x\},} {\displaystyle ID(x,y)=\min\{|p|:p(x)=y\;\wedge \;p(y)=x\},} où p {\displaystyle p} {\displaystyle p} est un programme pour un ordinateur universel fixé ayant pour entrées des chaînes binaires x , y {\displaystyle x,y} {\displaystyle x,y}.

Bennett et al. démontrent[1] que I D ( x , y ) = E ( x , y ) + O ( log ⋅ max { K ( x ∣ y ) , K ( y ∣ x ) } ) {\displaystyle ID(x,y)=E(x,y)+O(\log \cdot \max\{K(x\mid y),K(y\mid x)\})} {\displaystyle ID(x,y)=E(x,y)+O(\log \cdot \max\{K(x\mid y),K(y\mid x)\})} avec E ( x , y ) = max { K ( x ∣ y ) , K ( y ∣ x ) } , {\displaystyle E(x,y)=\max\{K(x\mid y),K(y\mid x)\},} {\displaystyle E(x,y)=\max\{K(x\mid y),K(y\mid x)\},} où K {\displaystyle K} {\displaystyle K} est la complexité de Kolmogorov[2],[3] que l'on applique à la paire ( ⋅ ∣ ⋅ ) {\displaystyle (\cdot \mid \cdot )} {\displaystyle (\cdot \mid \cdot )}[note 2]. E ( x , y ) {\displaystyle E(x,y)} {\displaystyle E(x,y)} est la quantité pertinente. En effet, le terme correctif sert à assurer qu'il s'agit bien d'une métrique.

Universalité

[modifier | modifier le code]

Soit Δ {\displaystyle \Delta } {\displaystyle \Delta } la classe des distances D ( x , y ) {\displaystyle D(x,y)} {\displaystyle D(x,y)} semi-calculables supérieurement (en) qui satisfont la condition de densité : ∑ x ≠ y 2 − D ( x , y ) ≤ 1 , ∑ y ≠ x 2 − D ( x , y ) ≤ 1. {\displaystyle \sum _{x\neq y}2^{-D(x,y)}\leq 1,\;\sum _{y\neq x}2^{-D(x,y)}\leq 1.} {\displaystyle \sum _{x\neq y}2^{-D(x,y)}\leq 1,\;\sum _{y\neq x}2^{-D(x,y)}\leq 1.} Cela exclut les distances non pertinentes telles que D ( x , y ) = 1 2 {\displaystyle D(x,y)={\frac {1}{2}}} {\displaystyle D(x,y)={\frac {1}{2}}} pour x ≠ y {\displaystyle x\neq y} {\displaystyle x\neq y}, et cela assure que si la distance augmente, alors le nombre d'objets à cette distance d'un objet donné augmente. Si D ∈ Δ {\displaystyle D\in \Delta } {\displaystyle D\in \Delta }, alors E ( x , y ) ≤ D ( x , y ) {\displaystyle E(x,y)\leq D(x,y)} {\displaystyle E(x,y)\leq D(x,y)} à un terme additif constant près[1]. Ces expressions probabilistes de la distance constituent la première classe cohomologique en cohomologie symétrique de l'information[4],[5], ce qui peut être considéré comme une propriété d'universalité.

Métrique

[modifier | modifier le code]

La distance E ( x , y ) {\displaystyle E(x,y)} {\displaystyle E(x,y)} est une métrique au terme additif O ( log ⋅ max K ( x ∣ y ) , K ( y ∣ x ) ) {\displaystyle O(\log \cdot \max {K(x\mid y),K(y\mid x)})} {\displaystyle O(\log \cdot \max {K(x\mid y),K(y\mid x)})} près[1]. La version probabiliste de la métrique est unique comme l'a montré Te Sun Han en 1981[6].

Chevauchement maximal

[modifier | modifier le code]

Si E ( x , y ) = K ( x ∣ y ) {\displaystyle E(x,y)=K(x\mid y)} {\displaystyle E(x,y)=K(x\mid y)}, alors il existe un programme p {\displaystyle p} {\displaystyle p} de longueur K ( x ∣ y ) {\displaystyle K(x\mid y)} {\displaystyle K(x\mid y)} qui convertit y {\displaystyle y} {\displaystyle y} en x {\displaystyle x} {\displaystyle x}, et un programme q {\displaystyle q} {\displaystyle q} de longueur K ( y ∣ x ) − K ( x ∣ y ) {\displaystyle K(y\mid x)-K(x\mid y)} {\displaystyle K(y\mid x)-K(x\mid y)} tel que le programme q p {\displaystyle qp} {\displaystyle qp} convertit x {\displaystyle x} {\displaystyle x} en y {\displaystyle y} {\displaystyle y}. Les programmes sont écrits sous forme auto-délimitée, ce qui signifie que l'on peut décider où un programme se termine et où l'autre commence dans la concaténation des programmes, autrement dit les programmes les plus courts passant d'un objet à l'autre peuvent être rendus maximaux en chevauchement[1].

Chevauchement minimal

[modifier | modifier le code]

Les programmes de conversion entre les objets x {\displaystyle x} {\displaystyle x} et y {\displaystyle y} {\displaystyle y} peuvent également être rendus minimalement chevauchants : il existe un programme p {\displaystyle p} {\displaystyle p} de longueur K ( x ∣ y ) {\displaystyle K(x\mid y)} {\displaystyle K(x\mid y)} (à un terme additif en O ( log ⁡ ( max K ( x ∣ y ) , K ( y ∣ x ) ) ) {\displaystyle O(\log(\max {K(x\mid y),K(y\mid x)}))} {\displaystyle O(\log(\max {K(x\mid y),K(y\mid x)}))} près) qui transforme y {\displaystyle y} {\displaystyle y} en x {\displaystyle x} {\displaystyle x} et a une petite complexité lorsque x {\displaystyle x} {\displaystyle x} est connu ( K ( p ∣ x ) ≈ 0 {\displaystyle K(p\mid x)\approx 0} {\displaystyle K(p\mid x)\approx 0}). En intervertissant les deux objets, nous obtenons l'autre programme[7]. En gardant à l'esprit le parallélisme entre la théorie de l'information (de Shannon) et la théorie de la complexité de Kolmogorov, on peut dire que ce résultat est analogue aux théorèmes de Slepian-Wolf (en) et de Körner–Imre Csiszár–Marton.

Applications

[modifier | modifier le code]

Applications théoriques

[modifier | modifier le code]

Le théorème d'Andrej Muchnik sur le chevauchement minimal[7] montre qu'à partir de n'importe quel objet, pour aller vers un objet cible, il existe un programme dont la complexité de Kolmogorov ne dépend presque que de l'objet cible ! Ce résultat est à peu près optimal, car le terme d'erreur ne peut pas être significativement amélioré[8].

Applications pratiques

[modifier | modifier le code]

Pour déterminer la similarité entre des objets tels que les génomes, les langues, la musique, les virus informatiques, les logiciels, etc., des approximations de la distance algorithmique[note 3] sont proposées; la complexité de Kolmogorov est remplacée par un algorithme de compression existant réellement[note 4]. Le concept est alors la distance de compression normalisée (en) (NCD) entre les objets, qui sont donnés sous forme de fichiers informatiques, ainsi le génome d'une souris, le texte d'un livre, la partition d'une œuvre musicale, etc. Partant d'un identifiant d'un objet comme le « génome d'une souris », l'utilisateur d'une base de données et d'un moyen de rechercher dans la base de données (comme un moteur de recherche) obtient sous forme indirecte cette information (par exemple en décomptant les pages liées à ce nom), et il est ensuite possible de calculer (approximativement) la distance algorithmique[9].[pas clair]

Notes et Références

[modifier | modifier le code]
  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Information distance » (voir la liste des auteurs).

Notes

[modifier | modifier le code]
  1. ↑ La complexité de Kolmogorov d'un objet correspond à l'information contenue dans cet objet. Ici, il est question de deux objets, dont on veut savoir de combien ils diffèrent en termes de quantité d’information.
  2. ↑ K ( ⋅ ∣ ⋅ ) {\displaystyle K(\cdot \mid \cdot )} {\displaystyle K(\cdot \mid \cdot )} est la longueur du plus petit programme qui calcule x {\displaystyle x} {\displaystyle x} si y {\displaystyle y} {\displaystyle y} est fourni par ailleurs.
  3. ↑ Qui, comme la complexité de Kolmogorov, ne peut être calculée exactement.
  4. ↑ La complexité de Kolmogorov est une borne inférieure de la longueur en bits d'une version compressée de l'objet.

Références

[modifier | modifier le code]
  1. ↑ a b c et d (en) C.H. Bennett, P. Gacs, M. Li, P.M.B. Vitanyi et W. Zurek, « Information distance », IEEE Transactions on Information Theory, vol. 44:4,‎ 1998, p. 1407–1423. Disponible sur ArXiv : « Information distance »
  2. ↑ A.N. Kolmogorov, Trois approches pour la définition quantitative de l'information, Problems Inform. Transmission, 1:1(1965), 1–7
  3. ↑ (en)L.A. Levin, Laws of Information Conservation (Nongrowth) and Aspects of the Foundation of Probability Theory, Problems Inform. Transmission, 10:3(1974), 30–35
  4. ↑ (en) Pierre Baudot et Mathieu Bernard, « Information Cohomology methods for machine learning statistical structures of data » [PDF], Median Thechnology, 2020
  5. ↑ (en) Pierre Baudot, « The Poincaré-Shannon Machine: Statistical Physics and Machine Learning Aspects of Information Cohomology », Entropy, vol. 21, no 9,‎ septembre 2019, p. 881 (ISSN 1099-4300, DOI 10.3390/e21090881, lire en ligne, consulté le 21 juin 2024)
  6. ↑ (en)Te Sun Han, A uniqueness of Shannon information distance and related nonnegativity problems, Journal of combinatorics. 6:4 p.320-331 (1981), 30–35
  7. ↑ a et b (en)Andrej A. Muchnik, « Conditional complexity and codes », Theoretical Computer Science, vol. 271, nos 1–2,‎ 2002, p. 97–109 (DOI 10.1016/S0304-3975(01)00033-0 Accès libre)
  8. ↑ (en)N.K Vereshchagin, M.V. Vyugin, Independent minimum length programs to translate between given strings, Proc. 15th Ann. Conf. Computational Complexity, 2000, 138–144
  9. ↑ (en)« Topological Information Data Analysis. Deep statistical unsupervised and supervised learning - File Exchange - Github », sur github.com/pierrebaudot/infotopopy/ (consulté le 26 septembre 2020)

Littérature connexe

[modifier | modifier le code]
  • (en) Alexandre Arkhanguelski et Lev Pontriaguine, General Topology I: Basic Concepts and Constructions Dimension Theory, Springer, coll. « Encyclopaedia of Mathematical Sciences », 1990 (ISBN 3-540-18178-4).
  • (en) Ming Li et Paul Vitányi, An Introduction to Kolmogorov Complexity and Its Applications, New York, Springer, 2008, 3e éd., 792 p. (ISBN 978-0387339986, DOI 10.1007/978-0-387-49820-1).
  • Jean-Paul Delahaye, « La complexité mesurée », Pour la Science, no 203,‎ décembre 2003, p. 34-38 (lire en ligne)
  • icône décorative Portail de l'informatique théorique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Distance_algorithmique&oldid=228452927 ».
Catégories :
  • Distance et longueur
  • Théorie algorithmique de l'information
  • Calculabilité
Catégories cachées :
  • Article contenant un appel à traduction en anglais
  • Portail:Informatique théorique/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id