Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. WeltenzyklopÀdie
  2. Test de Turing
Test de Turing 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voir Turing.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources (juillet 2015).

Si vous disposez d'ouvrages ou d'articles de rĂ©fĂ©rence ou si vous connaissez des sites web de qualitĂ© traitant du thĂšme abordĂ© ici, merci de complĂ©ter l'article en donnant les rĂ©fĂ©rences utiles Ă  sa vĂ©rifiabilitĂ© et en les liant Ă  la section « Notes et rĂ©fĂ©rences Â».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?
« InterprĂ©tation standard Â» du test de Turing : A et B sont respectivement un ordinateur programmĂ© pour se faire passer pour un humain et un joueur humain. Le joueur C, l'interrogateur, doit dĂ©terminer lequel de ces joueurs est un ordinateur. L'interrogateur est limitĂ© Ă  des questions Ă©crites.

Le test de Turing est une proposition de test d’intelligence artificielle fondĂ©e sur la facultĂ© d'une machine Ă  imiter la conversation humaine. DĂ©crit par Alan Turing en 1950 dans sa publication Computing Machinery and Intelligence, ce test consiste Ă  mettre un humain en confrontation verbale Ă  l’aveugle avec un ordinateur et un autre humain. Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considĂ©rer que le logiciel de l’ordinateur a passĂ© avec succĂšs le test. Cela sous-entend que l’ordinateur et l’humain essaieront d’avoir une apparence sĂ©mantique humaine.

Pour conserver la simplicitĂ© et l’universalitĂ© du test, la conversation est limitĂ©e Ă  des messages textuels entre les protagonistes.

Histoire

[modifier | modifier le code]

Inspiration

[modifier | modifier le code]

La version originale du test de Turing s'inspire d'un « jeu d'imitation Â» dans lequel un homme et une femme vont dans une piĂšce sĂ©parĂ©e et les invitĂ©s neutres tentent de discuter avec les deux protagonistes en Ă©crivant des questions et en lisant les rĂ©ponses qui leur sont renvoyĂ©es. L'homme essaye d'imiter une femme. Les observateurs doivent dĂ©terminer qui est la femme.

Dans la version originale du test[1], un homme et un ordinateur doivent chacun essayer d'imiter une femme, l'ordinateur est considĂ©rĂ© « intelligent Â» s'il arrive aussi bien que l'homme Ă  imiter une femme[2],[3],[4]. À l’origine, Alan Turing a imaginĂ© ce test pour rĂ©pondre Ă  la question : « une machine peut-elle penser ? Â», en donnant une interprĂ©tation plus concrĂšte de sa question.

Il propose aussi que les rĂ©ponses soient donnĂ©es dans des intervalles de temps dĂ©finis, pour que l’observateur ne puisse pas Ă©tablir une conclusion qui soit fondĂ©e sur la rapiditĂ© de rĂ©ponse des ordinateurs.

Origine du nom et forme moderne

[modifier | modifier le code]

Dans la publication de Turing, l'expression « jeu d’imitation Â» est utilisĂ©e pour dĂ©signer sa proposition de test. Celle de « test de Turing Â» semble avoir Ă©tĂ© formulĂ©e dans les annĂ©es 1970, longtemps aprĂšs la mort de Turing en 1954[5].

Dans le mĂȘme temps, l'Ă©preuve a pris la forme plus gĂ©nĂ©rale que nous connaissons aujourd'hui : un ordinateur, communiquant par des questions et rĂ©ponses Ă©crites, tente de se faire passer pour un ĂȘtre humain et est considĂ©rĂ© « intelligent Â» s'il y parvient.

Prédictions et tests

[modifier | modifier le code]

Alan Turing a prĂ©dit que les ordinateurs seraient un jour capables de passer le test avec succĂšs. Il estimait qu’en l’an 2000, des machines avec 128 Mo de mĂ©moire seraient capables de tromper environ 30 % des juges humains durant un test de cinq minutes. Il a prĂ©dit que les humains, Ă  ce moment-lĂ , ne verraient pas l’expression « machine intelligente Â» comme contradictoire. Il a aussi prĂ©dit que l’acquisition par apprentissage des ordinateurs serait aussi importante pour construire des ordinateurs performants, une mĂ©thode qui est en effet aujourd’hui utilisĂ©e par les chercheurs contemporains en intelligence artificielle Ă  travers le machine learning, par exemple.

Des programmes de conversation simples tels qu'ELIZA ont trompĂ© des humains qui croyaient parler Ă  d’autres humains, parfois en utilisant des expressions informelles, comme avec le dialogueur OELiza[rĂ©f. souhaitĂ©e]. Mais de tels « succĂšs Â» ne reviennent pas Ă  passer le test de Turing. La plupart du temps, la personne n’a pas de raison de suspecter qu'elle ne parle pas avec un humain, alors que, dans le cadre du test de Turing, le juge essaye de dĂ©terminer de façon active la nature de l’entitĂ© avec laquelle il converse. Notamment, ces programmes participaient Ă  des conversation sur l’IRC (un rĂ©seau de discussion en ligne), oĂč il est courant d’engager des Ă©changes futiles et sans vĂ©ritable signification. De plus, beaucoup de participants Ă  l’IRC conversent dans une langue autre que leur langue maternelle, le plus souvent l'anglais, ce qui rend encore plus facile le fait d’ĂȘtre trompĂ© par un bot, en pensant ne pas tout comprendre ou encore en n’étant pas suffisamment informĂ© de l’existence mĂȘme des bots.

Le prix Loebner est une compĂ©tition annuelle rĂ©compensant le programme considĂ©rĂ© comme le plus proche de rĂ©ussir le test de Turing. ALICE a remportĂ© ce prix Ă  plusieurs reprises[rĂ©f. souhaitĂ©e]. Aucun des programmes prĂ©sentĂ©s n’a en revanche encore passĂ© le test de Turing avec succĂšs.

En septembre 2011, Ă  Guwahati en Inde, le programme Cleverbot parvint Ă  convaincre la majoritĂ© des participants et observateurs du test de son humanitĂ©. Les conversations durĂšrent quatre minutes chacune. Quinze participants discutĂšrent avec Cleverbot et quinze autres avec des humains. Le public pouvait suivre les conversations puis voter avec les participants. Il y eut 1 334 votes. Cleverbot fut considĂ©rĂ© humain Ă  59 % et les interlocuteurs humains Ă  63 %[6].

Le 7 juin 2014, l'UniversitĂ© anglaise de Reading affirme que le test de Turing a Ă©tĂ© remportĂ© par le produit d'une Ă©quipe informaticienne russe, rĂ©ussissant Ă  convaincre 33 % des juges (au-delĂ  de la limite de 30 % fixĂ©e par Turing) qu'un humain Ă©tait derriĂšre la machine[7],[8]. Cette affirmation est aussitĂŽt contestĂ©e, mĂȘme si de rĂ©els progrĂšs sont gĂ©nĂ©ralement reconnus. Les critiques adressĂ©es au programme informatique sont que celui-ci est la simulation d'un humain d'une intelligence d'un enfant de 13 ans, parlant mal l'anglais, ce qui diminue la qualitĂ© nĂ©cessaire au programme pour convaincre les juges, et qu'il applique un protocole de test opaque[9].

Objections et réponses

[modifier | modifier le code]

Objections

[modifier | modifier le code]

Alan Turing lui-mĂȘme a suggĂ©rĂ© de nombreuses objections qui peuvent ĂȘtre faites au test et en a donnĂ© une rĂ©ponse dans sa publication initiale :

  • objection thĂ©ologique : la pensĂ©e serait le fait innĂ© de l’ñme dont l’humain serait seul dotĂ©, et ainsi la machine ne saurait pas penser. Turing rĂ©pond qu’il ne voit aucune raison pour laquelle Dieu ne pourrait donner Ă  un ordinateur une Ăąme s’il le souhaitait ;
  • argument de la conscience : cet argument, suggĂ©rĂ© par le professeur Geoffrey Jefferson (en), dit qu'« aucune machine ne peut Ă©crire un sonnet ou composer un concerto Ă  cause de l’absence d’émotions, et mĂȘme en alignant des notes au hasard, on ne peut pas dire qu’une machine puisse Ă©galer un cerveau humain[10] Â». La rĂ©ponse de Turing est que nous les hommes n’avons aucun moyen de connaĂźtre vĂ©ritablement l’expĂ©rience des Ă©motions de tout autre individu que soi-mĂȘme, et donc que nous devrions accepter le test[11] ;
  • originalitĂ© : une autre objection, trĂšs controversĂ©e, est que les ordinateurs seraient incapables d’avoir de l’originalitĂ©. Turing rĂ©pond que les ordinateurs peuvent surprendre les humains, en particulier lorsque les consĂ©quences de diffĂ©rents faits ne sont pas immĂ©diatement reconnaissables ;
  • formalisme : cet argument dit que chaque systĂšme gouvernĂ© par des lois peut ĂȘtre prĂ©visible et donc pas rĂ©ellement intelligent. Turing rĂ©pond que ceci revient Ă  confondre des lois du comportement avec des rĂšgles gĂ©nĂ©rales de conduite ;
  • perception extra-sensorielle : Turing semble suggĂ©rer qu’il y a des preuves de perceptions extra-sensorielles. Cependant, il estime que des conditions idĂ©ales peuvent ĂȘtre créées, dans lesquelles ces perceptions n’affecteraient pas le test et ainsi seraient nĂ©gligeables.

Chambre chinoise

[modifier | modifier le code]
Article dĂ©taillĂ© : Chambre chinoise.

Dans un article datĂ© de 1980, le philosophe John Searle remet en cause la pertinence du test de Turing, en invoquant la limite des ordinateurs Ă  la syntaxe. Selon l’auteur, la sĂ©mantique, caractĂ©ristique de la pensĂ©e humaine, ne saurait ĂȘtre rĂ©duite Ă  la manipulation de symboles selon des rĂšgles syntaxiques dĂ©terminĂ©es, ce qui semble ĂȘtre le propre de la machine.

Pour illustrer son propos, il prĂ©sente l’expĂ©rience de pensĂ©e de la chambre chinoise : supposez que vous ĂȘtes Ă  l’intĂ©rieur d’une piĂšce contenant des symboles chinois ainsi qu’un manuel d'instructions comportant des rĂšgles type « questions-rĂ©ponses Â». Lorsqu’un locuteur chinois, Ă  l’extĂ©rieur de la piĂšce, vous envoie un message sur papier, vous pourrez, grĂące au manuel, fournir une rĂ©ponse adĂ©quate et donner l’impression Ă  votre interlocuteur de savoir parler sa langue, sans qu’il soit nĂ©cessaire que vous la compreniez.

Faiblesses du test

[modifier | modifier le code]

Le test de Turing est fondĂ© sur l’hypothĂšse que les ĂȘtres humains peuvent juger de l’intelligence d’une machine en comparant son comportement avec le comportement humain. Chaque Ă©lĂ©ment de cette hypothĂšse a Ă©tĂ© remis en question : le jugement de l’humain, la valeur de la comparaison qui est de seulement comparer le comportement et la valeur de la comparaison avec un humain. Pour ces raisons et d’autres considĂ©rations, certains chercheurs en intelligence artificielle ont mis en doute l’utilitĂ© de l’essai.

Intelligence humaine contre l'intelligence en général

[modifier | modifier le code]
Diagramme de Venn situant le test de Turing.

Ce test ne dĂ©termine pas directement si l’ordinateur se comporte de façon intelligente, cela teste seulement si l’ordinateur se comporte comme un ĂȘtre humain. Étant donnĂ© que le comportement intelligent et les comportements humains ne sont pas exactement la mĂȘme chose, le test ne permet pas de mesurer avec prĂ©cision l’intelligence de deux façons :

  • certains comportements intelligents ne sont pas humains : le test de Turing ne vĂ©rifie pas la prĂ©sence, ou l’absence, d’un comportement intelligent, tel que la capacitĂ© de rĂ©soudre des problĂšmes difficiles ou de trouver des idĂ©es originales. Elle exige expressĂ©ment la tromperie de la part de la machine : si la machine est plus intelligente qu’un ĂȘtre humain, il lui faut dĂ©libĂ©rĂ©ment Ă©viter de paraĂźtre trop intelligente. Si elle Ă©tait capable de rĂ©soudre un problĂšme de calcul qui serait impossible pour un humain, alors l’interrogateur saurait que le programme n’est pas humain, et la machine ne satisferait pas au test ;
  • certains comportements correspondant Ă  une intelligence humaine ne sont pas parfaits ou rationnels. Le test de Turing exige que la machine puisse exĂ©cuter tous les comportements humains, incluant mĂȘme des comportements que l’on peut considĂ©rer comme imparfaits ou irrationnels, tels que la susceptibilitĂ© Ă  des insultes, la tentation de mentir ou, tout simplement, une frĂ©quence Ă©levĂ©e d’erreurs de frappe. Si une machine ne peut imiter le comportement humain dans le dĂ©tail, comme faire des erreurs de frappe, l’intelligence Ă©choue au test, indĂ©pendamment de la façon dont elle peut ĂȘtre intelligente.

Cette derniĂšre objection a Ă©tĂ© soulevĂ©e par The Economist, dans un article intitulĂ© « Artificial Stupidity (en) Â», publiĂ© peu aprĂšs la premiĂšre compĂ©tition Loebner en 1992. L’article notait que la victoire du gagnant de la premiĂšre compĂ©tition Loebner Ă©tait due, au moins en partie, Ă  sa capacitĂ© Ă  « imiter les erreurs de frappe de l’homme Â». Turing lui-mĂȘme a suggĂ©rĂ© que les programmes devraient ajouter des erreurs dans leur sortie, de maniĂšre Ă  ĂȘtre de meilleurs « joueurs Â» dans la partie[12].

Intelligence réelle contre intelligence simulée

[modifier | modifier le code]

Cela ne teste que la façon dont le sujet agit — le comportement extĂ©rieur de la machine. À cet Ă©gard, cela prĂ©suppose une vision comportementaliste ou fonctionnaliste de l’intelligence. L’exemple d'ELIZA a suggĂ©rĂ© qu’une machine passant le test peut ĂȘtre en mesure de simuler le comportement conversationnel de l’homme par la suite d’une simple (mais vaste) liste de rĂšgles mĂ©caniques, sans penser, par automatisme.

John Searle avait fait valoir que le comportement externe ne pouvait pas ĂȘtre utilisĂ© pour dĂ©terminer si une machine pensait « rĂ©ellement Â» ou Ă©tait simplement en train de « simuler l’action de penser[13] Â».

Turing anticipa ces critiques dans son article original[14], oĂč il a Ă©crit :

« Je ne veux pas donner l’impression que je pense qu’il n’y a aucun mystĂšre quant Ă  la conscience. Il y a, par exemple, en quelque sorte un paradoxe liĂ© Ă  toute tentative visant Ă  la localiser. Mais je ne pense pas que ces mystĂšres aient nĂ©cessairement besoin d’ĂȘtre rĂ©solus avant que nous puissions rĂ©pondre Ă  la question qui nous prĂ©occupe dans cet article. Â»

— Alan Turing, (Turing 1950).

Naïveté des interrogateurs et le sophisme anthropomorphique

[modifier | modifier le code]
Article connexe : Effet ELIZA.

Le test de Turing suppose que l’interrogateur soit assez sophistiquĂ© pour dĂ©terminer la diffĂ©rence entre le comportement d’une machine et le comportement d’un ĂȘtre humain, bien que les critiques soutiennent que ce n’est pas une compĂ©tence que la plupart des gens ont. Les compĂ©tences prĂ©cises et les connaissances requises par l’interrogateur ne sont pas prĂ©cisĂ©es par Turing dans sa description de l’essai, mais il a utilisĂ© le terme d’« interrogateur moyen Â» : « L’interrogateur moyen n’aurait pas plus de 70 pour cent de chances de faire l’identification exacte aprĂšs cinq minutes d’interrogation[15] Â». Shah et Warwick (2009C) montrent que les experts sont dupes et que la stratĂ©gie de l’interrogateur, « pouvoir Â» ou « solidaritĂ© Â», influe sur l’identification correcte (la seconde Ă©tant plus efficace)[16].

Un dialogueur comme ELIZA a Ă  maintes reprises dupĂ© des naĂŻfs en leur faisant croire qu’ils sont en communication avec des ĂȘtres humains. Dans ces cas-lĂ , l’« interrogateur Â» n’est mĂȘme pas conscient de la possibilitĂ© qu’il soit en interaction avec un ordinateur. Pour rĂ©ussir Ă  paraĂźtre humaine, la machine n’a pas besoin d’avoir tous les renseignements, et seule une ressemblance superficielle du comportement humain est nĂ©cessaire. La plupart des gens conviennent que ce n’est pas un « vrai Â» test de Turing qui a Ă©tĂ© passĂ© dans des cas « mal informĂ©s Â» tels que celui-ci.

Lors des premiĂšres versions du prix Loebner, des interrogateurs « non sophistiquĂ©s Â» furent utilisĂ©s, et ils ont Ă©tĂ© facilement bernĂ©s par les machines. Depuis 2004, les organisateurs du Prix Loebner ont dĂ©ployĂ© des philosophes, des informaticiens et des journalistes parmi les interrogateurs. Certains d’entre eux ont Ă©tĂ© trompĂ©s par des machines[17].

Michael Shermer souligne que les ĂȘtres humains choisissent systĂ©matiquement de considĂ©rer les objets non humains comme humains dĂšs qu’ils en ont l’occasion, une erreur appelĂ©e Ă©galement sophisme anthropomorphique : ils parlent Ă  leur voiture, attribuent la volontĂ© et des intentions aux forces naturelles (par exemple, « la nature a horreur du vide Â»), et adorent le soleil comme Ă©tant un ĂȘtre humain ou comme un ĂȘtre douĂ© d’intelligence. Si le test de Turing est appliquĂ© Ă  des objets religieux, Shermer fait valoir que des statues inanimĂ©es, des roches et des lieux ont toujours rĂ©ussi le test, dans une certaine mesure, tout au long de l’histoire. Cette tendance humaine Ă  l’anthropomorphisme abaisse la barre pour le test de Turing, Ă  moins que les interrogateurs soient spĂ©cifiquement formĂ©s pour l’éviter.

IrrĂ©alisme et inutilitĂ© : le test de Turing et la recherche en IA

[modifier | modifier le code]

Les chercheurs en intelligence artificielle font valoir que tenter de faire passer le test de Turing est simplement une distraction au lieu de se consacrer Ă  des recherches fructueuses. En effet, le test de Turing n’est pas un foyer actif de beaucoup d’efforts acadĂ©miques ou commerciaux ; comme Stuart Russell et Peter Norvig l’écrivent : « Les chercheurs en IA ont consacrĂ© peu d’attention Ă  passer le test de Turing[18] Â». Il y a plusieurs raisons :

PremiĂšrement, il existe des façons plus faciles de tester leurs programmes. La plupart des recherches actuelles dans les domaines liĂ©s Ă  l’IA visent des objectifs modestes mais prĂ©cis, tels que l’ordonnancement automatisĂ©, la reconnaissance d'objet ou la logistique. Afin de tester l’intelligence des programmes qui rĂ©solvent des problĂšmes, les chercheurs en intelligence artificielle leur donnent la tĂąche Ă  exĂ©cuter directement, plutĂŽt que de passer par le dĂ©tour qui est de poser la question dans un chat peuplĂ© avec des ordinateurs et des personnes.

DeuxiĂšmement, la crĂ©ation de la vie comme les simulations d’ĂȘtres humains est un problĂšme difficile en soi qui n’a pas besoin d’ĂȘtre rĂ©solu pour atteindre les objectifs fondamentaux de la recherche en IA. Des personnages humains artificiels crĂ©dibles peuvent ĂȘtre intĂ©ressants dans une Ɠuvre d’art, un jeu vidĂ©o ou une interface utilisateur sophistiquĂ©e, mais cela ne fait pas partie de la science de la crĂ©ation de machines intelligentes, qui est la science des machines qui rĂ©solvent des problĂšmes liĂ©s Ă  l’intelligence. Russell et Norvig suggĂšrent une analogie avec l’histoire de l'aviation : les avions sont testĂ©s en fonction de leur vol, non pas en les comparant Ă  des oiseaux. Les essais sur l’aĂ©ronautique ne dĂ©finissent pas le but de leur domaine comme une course Ă  l’invention de machines volant de façon si semblable Ă  un pigeon que les pigeons eux-mĂȘmes s’y tromperaient[18].

Turing n’a jamais eu l’intention que son test soit utilisĂ© comme une mĂ©thode pour mesurer l’intelligence des programmes d’IA ; il voulait donner un exemple clair et comprĂ©hensible pour contribuer Ă  la discussion sur la philosophie de l'intelligence artificielle[n 1]. Ainsi, il n’est pas surprenant que le test de Turing ait eu si peu d’influence sur les recherches en Intelligence Artificielle. La philosophie de l’IA, en Ă©crivit John McCarthy, « a peu de chances d’avoir plus d’effet sur la pratique de la recherche en IA que la philosophie de la science en a gĂ©nĂ©ralement sur la pratique de la science[20] Â».

Vers un « test de Turing incarnĂ© Â»

[modifier | modifier le code]

Les neurosciences sont l'une des sources essentielles de modĂšles pour l'intelligence artificielle (IA)[21], de mĂȘme que le cerveau humain[22].

Vingt-huit chercheurs amĂ©ricains, canadiens et anglais du domaine de l'IA ou de la neurobiologie ont suggĂ©rĂ© en 2023 que pour accĂ©lĂ©rer les progrĂšs de l'IA, il fallait encore investir dans la recherche fondamentale en « NeuroIA Â»[23]. Dans ce contexte, ils ont proposĂ© la notion de « test de Turing incarnĂ© Â», qui « met au dĂ©fi les modĂšles animaux de l'IA d'interagir avec le monde sensorimoteur Ă  des niveaux de compĂ©tence semblables Ă  ceux de leurs homologues vivants. Le test de Turing incarnĂ© dĂ©place l'attention vers des capacitĂ©s comme le jeu et le langage, qui sont particuliĂšrement bien dĂ©veloppĂ©es ou particuliĂšrement humaines — hĂ©ritĂ©es de plus de 500 millions d'annĂ©es d'Ă©volution â€” et qui sont partagĂ©es avec tous les animaux Â». Selon ces chercheurs, « la construction de modĂšles capables de passer le test de Turing incarnĂ© sera une feuille de route vers la prochaine gĂ©nĂ©ration d'IA Â»[23].

Dans la culture populaire

[modifier | modifier le code]

Cinéma

[modifier | modifier le code]
  • Le test de Voight-Kampff, utilisĂ© par les policiers traquant les rĂ©plicants dans le film Blade Runner de Ridley Scott (1982), est inspirĂ© du test de Turing.
  • Dans le film The Machine (2013), Vincent McCarthy (jouĂ© par Toby Stephens) utilise le test de Turing pour tester son programme d'intelligence artificielle.
  • Le film Imitation Game (2014), bien que se concentrant sur la vie d'Alan Turing, aborde le test de Turing.
  • Le test de Turing fait partie intĂ©grante de l'intrigue du film Ex Machina (2015)[24].
  • Il est aussi utilisĂ© dans l’enquĂȘte d'un homme victime d'un ordinateur dans la sĂ©rie Numb3rs, Ă  l’épisode 17 de la saison 5.
  • Dans l'Ă©pisode 3 de la saison 1 de la sĂ©rie Westworld, le test de Turing est invoquĂ© en tant que tĂ©moin dans la ressemblance entre une intelligence artificielle et l'humain Ă  laquelle celle-ci est censĂ©e s'apparenter.
  • Dans l'Ă©pisode 4 de la saison 3 de la sĂ©rie Elementary, une intelligence artificielle est soupçonnĂ©e d'avoir tuĂ© son crĂ©ateur. Sherlock Holmes tente de la soumettre au test de Turing.
  • Dans l'Ă©pisode 3 de la sĂ©rie d'animation Un-Go, le test de Turing est utilisĂ© envers un ĂȘtre de synthĂšse.

Informatique

[modifier | modifier le code]

L’expression « FĂ©licitations ! Vous venez d’échouer au test de Turing
 Â» est une insulte potache dans le milieu informatique. Cette expression se dit lorsqu’une personne vient de dire quelque chose de particuliĂšrement stupide, et ne semble mĂȘme pas avoir le niveau d’intelligence d’une machine[25].

Musique

[modifier | modifier le code]
  • L'opĂ©ra The Turing Test du compositeur Ă©cossais Julian Wagstaff est inspirĂ© par le test.

Jeux vidéo

[modifier | modifier le code]
  • The Turing Test : jeu vidĂ©o sorti le 30 aoĂ»t 2016.
  • Virtue's Last Reward : un document secret Ă  trouver dans la piĂšce Gaulem bay parle du test de Turing.
  • Detroit: Become Human : le test de Turing y est plusieurs fois abordĂ©. L'un des androĂŻdes créés par le scientifique Elijah Kamski est mentionnĂ© comme Ă©tant le premier Ă  avoir rĂ©ussi le test de Turing.
  • Hitman : dans la mission « Situs Inversus Â», une conversation entre l'intelligence artificielle KAI et le Dr Laurent fait rĂ©fĂ©rence Ă  ce test. L'IA chargĂ©e du complexe GAMA y aurait Ă©chouĂ©.
  • The Talos Principle : alors que notre personnage, un androĂŻde, demande des privilĂšges administrateur (rĂ©servĂ©s aux ĂȘtres humains), une conversation avec une IA s'engage sur l'un des terminaux afin de vĂ©rifier qu'il s'agit bien d'une personne et non d'une machine. Cet Ă©change peut ĂȘtre assimilĂ© Ă  un test de Turing dans lequel il est nĂ©cessaire de convaincre une IA trĂšs suspicieuse de notre humanitĂ©.

Notes et références

[modifier | modifier le code]

Notes

[modifier | modifier le code]
  1. ↑ « Au lieu de m’essayer Ă  une telle dĂ©finition, je remplacerai la question par une autre, qui lui est Ă©troitement liĂ©e et qui est exprimĂ©e en des termes relativement non ambigus[19] Â»

Références

[modifier | modifier le code]
  1. ↑ Turing 1950, p. 433.
  2. ↑ (en-US) Erik Sofge, « Lie Like A Lady: The Profoundly Weird, Gender-Specific Roots Of The Turing Test Â», sur Popular Science, 13 juin 2014 (consultĂ© le 12 fĂ©vrier 2024).
  3. ↑ (en) Amy Kind, « Computing Machinery and Sexual Difference: The Sexed Presuppositions Underlying the Turing Test Get access Arrow Â».
  4. ↑ (en) Huma Shah, « Imitating Gender as a Measure for Artificial Intelligence: Is It Necessary? Â», Proceedings of the 8th International Conference on Agents and Artificial Intelligence (ICAART 2016), vol. 1,‎ fĂ©vrier 2016, p. 126-131 (lire en ligne [PDF]).
  5. ↑ (en) Jean LassĂšgue, « What Kind of Turing Test Did Turing Have in Mind? Â», (non publiĂ©),‎ janvier 1996 (lire en ligne) ()version pdf.
  6. ↑ (en) « Software tricks people into thinking it is human Â», New Scientist (consultĂ© le 5 aoĂ»t 2020).
  7. ↑ Olivier Lascar, « Intelligence artificielle : Eugene Goostman est-il le tombeur du test de Turing ? Â», sur sciencesetavenir.fr, 9 juin 2014 (consultĂ© le 5 aoĂ»t 2020).
  8. ↑ « Pour la premiĂšre fois, un ordinateur a rĂ©ussi le test de Turing Â», sur Slate.fr, 9 juin 2014 (consultĂ© le 5 aoĂ»t 2020).
  9. ↑ RĂ©ussite contestĂ©e d'un ordinateur au lĂ©gendaire test de Turing. Le Monde
  10. ↑ (en) Extrait du discours « The Mind of Mechanical Man Â» prononcĂ© le 9 juin 1949 lors de la remise de la « Lister Medal Â» Ă  Geoffrey Jefferson par le « Royal College of Surgeons of England Â».
  11. ↑ Dans le film I, Robot, le policier Ă©met la mĂȘme remarque Ă  un robot : « Vous ne pouvez pas Ă©crire un roman ni composer un concerto Â». Le robot lui rĂ©pond simplement : « Et vous ? Â»
  12. ↑ Turing 1950, p. 448.
  13. ↑ L’argument a pour but de montrer que, mĂȘme si le test de Turing est une dĂ©finition opĂ©rationnelle d’intelligence, il peut ne pas indiquer que la machine a un esprit, une conscience ou une intentionnalitĂ© (l’intentionnalitĂ© est un terme philosophique pour la puissance de pensĂ©e de l’ĂȘtre « sĂ»r Â» quelque chose).
  14. ↑ Russell et Norvig 2003, p. 958-960 (Identifier l’argument de Searle avec celui des rĂ©ponses de Turing).
  15. ↑ Turing 1950, p. 442.
  16. ↑ (en) Huma Shah et Kevin Warwick, « Hidden Interlocutor Misidentification in Practical Turing Tests Â», Minds and Machines, vol. 20, no 3,‎ aoĂ»t 2010, p. 441–454 (ISSN 0924-6495 et 1572-8641, DOI 10.1007/s11023-010-9219-6).
  17. ↑ Shah et Warwick (2009a) : Test de Turing cinq minutes, en parallĂšle jumelĂ© en jeu de l’imitation (Ă  paraĂźtre) Kybernetes Turing Test Special Issue[rĂ©f. incomplĂšte].
  18. ↑ a et b Russell et Norvig 2003, p. 3.
  19. ↑ Alan Ross Anderson (dir.) (trad. de l'anglais), PensĂ©e et machine, Seyssel, Champ Vallon, 1983, 150 p. (ISBN 2-903528-28-4, lire en ligne), « Les ordinateurs de l’intelligence Â», p. 39.
  20. ↑ (en) John McCarthy, The Philosophy of Artificial Intelligence.
  21. ↑ (en) Demis Hassabis, Dharshan Kumaran, Christopher Summerfield et Matthew Botvinick, « Neuroscience-Inspired Artificial Intelligence Â», Neuron, vol. 95, no 2,‎ juillet 2017, p. 245–258 (DOI 10.1016/j.neuron.2017.06.011, lire en ligne, consultĂ© le 1er janvier 2024).
  22. ↑ (en) « Is the brain a good model for machine intelligence? Â», Nature, vol. 482, no 7386,‎ fĂ©vrier 2012, p. 462–463 (ISSN 0028-0836 et 1476-4687, DOI 10.1038/482462a).
  23. ↑ a et b (en) Anthony Zador, Sean Escola, Blake Richards et Bence Ölveczky, « Catalyzing next-generation Artificial Intelligence through NeuroAI Â», Nature Communications, vol. 14, no 1,‎ 22 mars 2023 (ISSN 2041-1723, PMID 36949048, PMCID PMC10033876, DOI 10.1038/s41467-023-37180-x).
  24. ↑ Didier Flori, « Ex Machina de Alex Garland : critique Â», sur cinechronicle.com, 26 mai 2015.
  25. ↑ (en) « Dilbert Comic Search Â» [archive], Dilbert.

Annexes

[modifier | modifier le code]

Bibliographie

[modifier | modifier le code]
  • (en) Alan Turing, « Computing machinery and intelligence Â», Mind, Oxford University Press, vol. 59, no 236,‎ octobre 1950, p. 433-460 (lire en ligne)
  • Les Ordinateurs et l’Intelligence, in Alan Turing et Jean-Yves Girard, La machine de Turing, Éditions du Seuil, 1995 [dĂ©tail des Ă©ditions], p. 133-175
    La traduction française de l'article de Turing par Patrice Blanchard est Ă©galement publiĂ©e dans PensĂ©e et machine, Champ Vallon, 1983 p. 39-67
  • (en) Roger Penrose, The Emperor’s New Mind
  • (en) Stuart Russell et Peter Norvig, Artificial Intelligence : A Modern Approach, Prentice Hall, 2003 (ISBN 0-13-790395-2)
  • LassĂšgue, J. (1993). “Le test de Turing et l'Ă©nigme de la diffĂ©rence des sexes”. Les contenants de pensĂ©e. D. Anzieu ed. Paris, Dunod : 145-195. (ISBN 2-1000-8104-7).
  • LassĂšgue, J. (1996). “What Kind of Turing Test did Turing have in Mind ?”, Tekhnema; Journal of Philosophy and Technology (ISBN 2-9509944-0-7) (3) : 37-58.
  • LassĂšgue, J. (2001). “On my Vicious Ways; a Response to Justin Leiber”, Tekhnema; Journal of Philosophy and Technology (6): (ISBN 2-9509944-0-7)198-207)
  • LassĂšgue, J. (2008). “Doing Justice to the Imitation Game; a farewell to formalism”. Chap. 11, Parsing the Turing Test; Philosophical and Methodological Issues in the Quest for the Thinking Computer, Epstein, Roberts & Beber eds. Berlin, Spinger Verlag: 151-169. (ISBN 978-1-4020-6708-2)

Articles connexes

[modifier | modifier le code]
  • CAPTCHA, test public de Turing entiĂšrement automatique ayant pour but de distinguer les humains des ordinateurs
  • Test de Kamski
  • Computationnalisme
  • Intelligence artificielle
  • Philosophie de l'intelligence artificielle
  • Prix Loebner
  • Test de Voight-Kampff
  • Chambre chinoise

Liens externes

[modifier | modifier le code]
  • (en) EncyclopĂ©die de Philosophie de StanfordLe Test de Turing, par G. Oppy et D. Dowe.
  • (en) Test de Turing : 50 ans aprĂšs [PDF], retour sur un demi-siĂšcle de travaux sur le Test de Turing.
  • (en) Pari entre Kapor et Kurzweil, comprenant leur point de vue respectif en dĂ©tail.
  • Turing : Les machines peuvent-elles penser ?.
  • (en) L'opĂ©ra The Turing Test.
  • « L’hĂ©ritage d’Alan Turing, l’inventeur de l’ordinateur - Le pionnier de l’intelligence artificielle Â», sur lejournal.cnrs.fr
  • icĂŽne dĂ©corative Portail de l’informatique
  • icĂŽne dĂ©corative Portail de la philosophie
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Test_de_Turing&oldid=230825388 Â».
CatĂ©gories :
  • Intelligence artificielle
  • Alan Turing
CatĂ©gories cachĂ©es :
  • Article manquant de rĂ©fĂ©rences depuis juillet 2015
  • Article manquant de rĂ©fĂ©rences/Liste complĂšte
  • Article Ă  rĂ©fĂ©rence souhaitĂ©e
  • Article contenant un appel Ă  traduction en anglais
  • Portail:Informatique/Articles liĂ©s
  • Portail:Technologies/Articles liĂ©s
  • Portail:Philosophie/Articles liĂ©s
  • Portail:SociĂ©tĂ©/Articles liĂ©s
  • Portail:Sciences humaines et sociales/Articles liĂ©s

  • indonesia
  • Polski
  • Ű§Ù„Ű±ÙŠŰ©
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • Ù…Ű”Ű±
  • Nederlands
  • æœŹèȘž
  • PortuguĂȘs
  • Sinugboanong Binisaya
  • Svenska
  • ĐŁĐșŃ€Đ°Ń—ĐœŃĐșа
  • Tiáșżng Việt
  • Winaray
  • äž­æ–‡
  • РуссĐșĐž
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id