
Le test de Turing est une proposition de test dâintelligence artificielle fondĂ©e sur la facultĂ© d'une machine Ă imiter la conversation humaine. DĂ©crit par Alan Turing en 1950 dans sa publication Computing Machinery and Intelligence, ce test consiste Ă mettre un humain en confrontation verbale Ă lâaveugle avec un ordinateur et un autre humain. Si la personne qui engage les conversations nâest pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considĂ©rer que le logiciel de lâordinateur a passĂ© avec succĂšs le test. Cela sous-entend que lâordinateur et lâhumain essaieront dâavoir une apparence sĂ©mantique humaine.
Pour conserver la simplicitĂ© et lâuniversalitĂ© du test, la conversation est limitĂ©e Ă des messages textuels entre les protagonistes.
Histoire
[modifier | modifier le code]Inspiration
[modifier | modifier le code]La version originale du test de Turing s'inspire d'un « jeu d'imitation » dans lequel un homme et une femme vont dans une piÚce séparée et les invités neutres tentent de discuter avec les deux protagonistes en écrivant des questions et en lisant les réponses qui leur sont renvoyées. L'homme essaye d'imiter une femme. Les observateurs doivent déterminer qui est la femme.
Dans la version originale du test[1], un homme et un ordinateur doivent chacun essayer d'imiter une femme, l'ordinateur est considĂ©rĂ© « intelligent » s'il arrive aussi bien que l'homme Ă imiter une femme[2],[3],[4]. Ă lâorigine, Alan Turing a imaginĂ© ce test pour rĂ©pondre Ă la question : « une machine peut-elle penser ? », en donnant une interprĂ©tation plus concrĂšte de sa question.
Il propose aussi que les rĂ©ponses soient donnĂ©es dans des intervalles de temps dĂ©finis, pour que lâobservateur ne puisse pas Ă©tablir une conclusion qui soit fondĂ©e sur la rapiditĂ© de rĂ©ponse des ordinateurs.
Origine du nom et forme moderne
[modifier | modifier le code]Dans la publication de Turing, l'expression « jeu dâimitation » est utilisĂ©e pour dĂ©signer sa proposition de test. Celle de « test de Turing » semble avoir Ă©tĂ© formulĂ©e dans les annĂ©es 1970, longtemps aprĂšs la mort de Turing en 1954[5].
Dans le mĂȘme temps, l'Ă©preuve a pris la forme plus gĂ©nĂ©rale que nous connaissons aujourd'hui : un ordinateur, communiquant par des questions et rĂ©ponses Ă©crites, tente de se faire passer pour un ĂȘtre humain et est considĂ©rĂ© « intelligent » s'il y parvient.
Prédictions et tests
[modifier | modifier le code]Alan Turing a prĂ©dit que les ordinateurs seraient un jour capables de passer le test avec succĂšs. Il estimait quâen lâan 2000, des machines avec 128 Mo de mĂ©moire seraient capables de tromper environ 30 % des juges humains durant un test de cinq minutes. Il a prĂ©dit que les humains, Ă ce moment-lĂ , ne verraient pas lâexpression « machine intelligente » comme contradictoire. Il a aussi prĂ©dit que lâacquisition par apprentissage des ordinateurs serait aussi importante pour construire des ordinateurs performants, une mĂ©thode qui est en effet aujourdâhui utilisĂ©e par les chercheurs contemporains en intelligence artificielle Ă travers le machine learning, par exemple.
Des programmes de conversation simples tels qu'ELIZA ont trompĂ© des humains qui croyaient parler Ă dâautres humains, parfois en utilisant des expressions informelles, comme avec le dialogueur OELiza[rĂ©f. souhaitĂ©e]. Mais de tels « succĂšs » ne reviennent pas Ă passer le test de Turing. La plupart du temps, la personne nâa pas de raison de suspecter qu'elle ne parle pas avec un humain, alors que, dans le cadre du test de Turing, le juge essaye de dĂ©terminer de façon active la nature de lâentitĂ© avec laquelle il converse. Notamment, ces programmes participaient Ă des conversation sur lâIRC (un rĂ©seau de discussion en ligne), oĂč il est courant dâengager des Ă©changes futiles et sans vĂ©ritable signification. De plus, beaucoup de participants Ă lâIRC conversent dans une langue autre que leur langue maternelle, le plus souvent l'anglais, ce qui rend encore plus facile le fait dâĂȘtre trompĂ© par un bot, en pensant ne pas tout comprendre ou encore en nâĂ©tant pas suffisamment informĂ© de lâexistence mĂȘme des bots.
Le prix Loebner est une compĂ©tition annuelle rĂ©compensant le programme considĂ©rĂ© comme le plus proche de rĂ©ussir le test de Turing. ALICE a remportĂ© ce prix Ă plusieurs reprises[rĂ©f. souhaitĂ©e]. Aucun des programmes prĂ©sentĂ©s nâa en revanche encore passĂ© le test de Turing avec succĂšs.
En , à Guwahati en Inde, le programme Cleverbot parvint à convaincre la majorité des participants et observateurs du test de son humanité. Les conversations durÚrent quatre minutes chacune. Quinze participants discutÚrent avec Cleverbot et quinze autres avec des humains. Le public pouvait suivre les conversations puis voter avec les participants. Il y eut 1 334 votes. Cleverbot fut considéré humain à 59 % et les interlocuteurs humains à 63 %[6].
Le , l'UniversitĂ© anglaise de Reading affirme que le test de Turing a Ă©tĂ© remportĂ© par le produit d'une Ă©quipe informaticienne russe, rĂ©ussissant Ă convaincre 33 % des juges (au-delĂ de la limite de 30 % fixĂ©e par Turing) qu'un humain Ă©tait derriĂšre la machine[7],[8]. Cette affirmation est aussitĂŽt contestĂ©e, mĂȘme si de rĂ©els progrĂšs sont gĂ©nĂ©ralement reconnus. Les critiques adressĂ©es au programme informatique sont que celui-ci est la simulation d'un humain d'une intelligence d'un enfant de 13 ans, parlant mal l'anglais, ce qui diminue la qualitĂ© nĂ©cessaire au programme pour convaincre les juges, et qu'il applique un protocole de test opaque[9].
Objections et réponses
[modifier | modifier le code]Objections
[modifier | modifier le code]Alan Turing lui-mĂȘme a suggĂ©rĂ© de nombreuses objections qui peuvent ĂȘtre faites au test et en a donnĂ© une rĂ©ponse dans sa publication initiale :
- objection thĂ©ologique : la pensĂ©e serait le fait innĂ© de lâĂąme dont lâhumain serait seul dotĂ©, et ainsi la machine ne saurait pas penser. Turing rĂ©pond quâil ne voit aucune raison pour laquelle Dieu ne pourrait donner Ă un ordinateur une Ăąme sâil le souhaitait ;
- argument de la conscience : cet argument, suggĂ©rĂ© par le professeur Geoffrey Jefferson (en), dit qu'« aucune machine ne peut Ă©crire un sonnet ou composer un concerto Ă cause de lâabsence dâĂ©motions, et mĂȘme en alignant des notes au hasard, on ne peut pas dire quâune machine puisse Ă©galer un cerveau humain[10] ». La rĂ©ponse de Turing est que nous les hommes nâavons aucun moyen de connaĂźtre vĂ©ritablement lâexpĂ©rience des Ă©motions de tout autre individu que soi-mĂȘme, et donc que nous devrions accepter le test[11] ;
- originalitĂ© : une autre objection, trĂšs controversĂ©e, est que les ordinateurs seraient incapables dâavoir de lâoriginalitĂ©. Turing rĂ©pond que les ordinateurs peuvent surprendre les humains, en particulier lorsque les consĂ©quences de diffĂ©rents faits ne sont pas immĂ©diatement reconnaissables ;
- formalisme : cet argument dit que chaque systĂšme gouvernĂ© par des lois peut ĂȘtre prĂ©visible et donc pas rĂ©ellement intelligent. Turing rĂ©pond que ceci revient Ă confondre des lois du comportement avec des rĂšgles gĂ©nĂ©rales de conduite ;
- perception extra-sensorielle : Turing semble suggĂ©rer quâil y a des preuves de perceptions extra-sensorielles. Cependant, il estime que des conditions idĂ©ales peuvent ĂȘtre créées, dans lesquelles ces perceptions nâaffecteraient pas le test et ainsi seraient nĂ©gligeables.
Chambre chinoise
[modifier | modifier le code]Dans un article datĂ© de 1980, le philosophe John Searle remet en cause la pertinence du test de Turing, en invoquant la limite des ordinateurs Ă la syntaxe. Selon lâauteur, la sĂ©mantique, caractĂ©ristique de la pensĂ©e humaine, ne saurait ĂȘtre rĂ©duite Ă la manipulation de symboles selon des rĂšgles syntaxiques dĂ©terminĂ©es, ce qui semble ĂȘtre le propre de la machine.
Pour illustrer son propos, il prĂ©sente lâexpĂ©rience de pensĂ©e de la chambre chinoise : supposez que vous ĂȘtes Ă lâintĂ©rieur dâune piĂšce contenant des symboles chinois ainsi quâun manuel d'instructions comportant des rĂšgles type « questions-rĂ©ponses ». Lorsquâun locuteur chinois, Ă lâextĂ©rieur de la piĂšce, vous envoie un message sur papier, vous pourrez, grĂące au manuel, fournir une rĂ©ponse adĂ©quate et donner lâimpression Ă votre interlocuteur de savoir parler sa langue, sans quâil soit nĂ©cessaire que vous la compreniez.
Faiblesses du test
[modifier | modifier le code]Le test de Turing est fondĂ© sur lâhypothĂšse que les ĂȘtres humains peuvent juger de lâintelligence dâune machine en comparant son comportement avec le comportement humain. Chaque Ă©lĂ©ment de cette hypothĂšse a Ă©tĂ© remis en question : le jugement de lâhumain, la valeur de la comparaison qui est de seulement comparer le comportement et la valeur de la comparaison avec un humain. Pour ces raisons et dâautres considĂ©rations, certains chercheurs en intelligence artificielle ont mis en doute lâutilitĂ© de lâessai.
Intelligence humaine contre l'intelligence en général
[modifier | modifier le code]
Ce test ne dĂ©termine pas directement si lâordinateur se comporte de façon intelligente, cela teste seulement si lâordinateur se comporte comme un ĂȘtre humain. Ătant donnĂ© que le comportement intelligent et les comportements humains ne sont pas exactement la mĂȘme chose, le test ne permet pas de mesurer avec prĂ©cision lâintelligence de deux façons :
- certains comportements intelligents ne sont pas humains : le test de Turing ne vĂ©rifie pas la prĂ©sence, ou lâabsence, dâun comportement intelligent, tel que la capacitĂ© de rĂ©soudre des problĂšmes difficiles ou de trouver des idĂ©es originales. Elle exige expressĂ©ment la tromperie de la part de la machine : si la machine est plus intelligente quâun ĂȘtre humain, il lui faut dĂ©libĂ©rĂ©ment Ă©viter de paraĂźtre trop intelligente. Si elle Ă©tait capable de rĂ©soudre un problĂšme de calcul qui serait impossible pour un humain, alors lâinterrogateur saurait que le programme nâest pas humain, et la machine ne satisferait pas au test ;
- certains comportements correspondant Ă une intelligence humaine ne sont pas parfaits ou rationnels. Le test de Turing exige que la machine puisse exĂ©cuter tous les comportements humains, incluant mĂȘme des comportements que lâon peut considĂ©rer comme imparfaits ou irrationnels, tels que la susceptibilitĂ© Ă des insultes, la tentation de mentir ou, tout simplement, une frĂ©quence Ă©levĂ©e dâerreurs de frappe. Si une machine ne peut imiter le comportement humain dans le dĂ©tail, comme faire des erreurs de frappe, lâintelligence Ă©choue au test, indĂ©pendamment de la façon dont elle peut ĂȘtre intelligente.
Cette derniĂšre objection a Ă©tĂ© soulevĂ©e par The Economist, dans un article intitulĂ© « Artificial Stupidity (en) », publiĂ© peu aprĂšs la premiĂšre compĂ©tition Loebner en 1992. Lâarticle notait que la victoire du gagnant de la premiĂšre compĂ©tition Loebner Ă©tait due, au moins en partie, Ă sa capacitĂ© à « imiter les erreurs de frappe de lâhomme ». Turing lui-mĂȘme a suggĂ©rĂ© que les programmes devraient ajouter des erreurs dans leur sortie, de maniĂšre Ă ĂȘtre de meilleurs « joueurs » dans la partie[12].
Intelligence réelle contre intelligence simulée
[modifier | modifier le code]Cela ne teste que la façon dont le sujet agit â le comportement extĂ©rieur de la machine. Ă cet Ă©gard, cela prĂ©suppose une vision comportementaliste ou fonctionnaliste de lâintelligence. Lâexemple d'ELIZA a suggĂ©rĂ© quâune machine passant le test peut ĂȘtre en mesure de simuler le comportement conversationnel de lâhomme par la suite dâune simple (mais vaste) liste de rĂšgles mĂ©caniques, sans penser, par automatisme.
John Searle avait fait valoir que le comportement externe ne pouvait pas ĂȘtre utilisĂ© pour dĂ©terminer si une machine pensait « rĂ©ellement » ou Ă©tait simplement en train de « simuler lâaction de penser[13] ».
Turing anticipa ces critiques dans son article original[14], oĂč il a Ă©crit :
« Je ne veux pas donner lâimpression que je pense quâil nây a aucun mystĂšre quant Ă la conscience. Il y a, par exemple, en quelque sorte un paradoxe liĂ© Ă toute tentative visant Ă la localiser. Mais je ne pense pas que ces mystĂšres aient nĂ©cessairement besoin dâĂȘtre rĂ©solus avant que nous puissions rĂ©pondre Ă la question qui nous prĂ©occupe dans cet article. »
â Alan Turing, (Turing 1950).
Naïveté des interrogateurs et le sophisme anthropomorphique
[modifier | modifier le code]Le test de Turing suppose que lâinterrogateur soit assez sophistiquĂ© pour dĂ©terminer la diffĂ©rence entre le comportement dâune machine et le comportement dâun ĂȘtre humain, bien que les critiques soutiennent que ce nâest pas une compĂ©tence que la plupart des gens ont. Les compĂ©tences prĂ©cises et les connaissances requises par lâinterrogateur ne sont pas prĂ©cisĂ©es par Turing dans sa description de lâessai, mais il a utilisĂ© le terme dâ« interrogateur moyen » : « Lâinterrogateur moyen nâaurait pas plus de 70 pour cent de chances de faire lâidentification exacte aprĂšs cinq minutes dâinterrogation[15] ». Shah et Warwick (2009C) montrent que les experts sont dupes et que la stratĂ©gie de lâinterrogateur, « pouvoir » ou « solidaritĂ© », influe sur lâidentification correcte (la seconde Ă©tant plus efficace)[16].
Un dialogueur comme ELIZA a Ă maintes reprises dupĂ© des naĂŻfs en leur faisant croire quâils sont en communication avec des ĂȘtres humains. Dans ces cas-lĂ , lâ« interrogateur » nâest mĂȘme pas conscient de la possibilitĂ© quâil soit en interaction avec un ordinateur. Pour rĂ©ussir Ă paraĂźtre humaine, la machine nâa pas besoin dâavoir tous les renseignements, et seule une ressemblance superficielle du comportement humain est nĂ©cessaire. La plupart des gens conviennent que ce nâest pas un « vrai » test de Turing qui a Ă©tĂ© passĂ© dans des cas « mal informĂ©s » tels que celui-ci.
Lors des premiĂšres versions du prix Loebner, des interrogateurs « non sophistiquĂ©s » furent utilisĂ©s, et ils ont Ă©tĂ© facilement bernĂ©s par les machines. Depuis 2004, les organisateurs du Prix Loebner ont dĂ©ployĂ© des philosophes, des informaticiens et des journalistes parmi les interrogateurs. Certains dâentre eux ont Ă©tĂ© trompĂ©s par des machines[17].
Michael Shermer souligne que les ĂȘtres humains choisissent systĂ©matiquement de considĂ©rer les objets non humains comme humains dĂšs quâils en ont lâoccasion, une erreur appelĂ©e Ă©galement sophisme anthropomorphique : ils parlent Ă leur voiture, attribuent la volontĂ© et des intentions aux forces naturelles (par exemple, « la nature a horreur du vide »), et adorent le soleil comme Ă©tant un ĂȘtre humain ou comme un ĂȘtre douĂ© dâintelligence. Si le test de Turing est appliquĂ© Ă des objets religieux, Shermer fait valoir que des statues inanimĂ©es, des roches et des lieux ont toujours rĂ©ussi le test, dans une certaine mesure, tout au long de lâhistoire. Cette tendance humaine Ă lâanthropomorphisme abaisse la barre pour le test de Turing, Ă moins que les interrogateurs soient spĂ©cifiquement formĂ©s pour lâĂ©viter.
Irréalisme et inutilité : le test de Turing et la recherche en IA
[modifier | modifier le code]Les chercheurs en intelligence artificielle font valoir que tenter de faire passer le test de Turing est simplement une distraction au lieu de se consacrer Ă des recherches fructueuses. En effet, le test de Turing nâest pas un foyer actif de beaucoup dâefforts acadĂ©miques ou commerciaux ; comme Stuart Russell et Peter Norvig lâĂ©crivent : « Les chercheurs en IA ont consacrĂ© peu dâattention Ă passer le test de Turing[18] ». Il y a plusieurs raisons :
PremiĂšrement, il existe des façons plus faciles de tester leurs programmes. La plupart des recherches actuelles dans les domaines liĂ©s Ă lâIA visent des objectifs modestes mais prĂ©cis, tels que lâordonnancement automatisĂ©, la reconnaissance d'objet ou la logistique. Afin de tester lâintelligence des programmes qui rĂ©solvent des problĂšmes, les chercheurs en intelligence artificielle leur donnent la tĂąche Ă exĂ©cuter directement, plutĂŽt que de passer par le dĂ©tour qui est de poser la question dans un chat peuplĂ© avec des ordinateurs et des personnes.
DeuxiĂšmement, la crĂ©ation de la vie comme les simulations dâĂȘtres humains est un problĂšme difficile en soi qui nâa pas besoin dâĂȘtre rĂ©solu pour atteindre les objectifs fondamentaux de la recherche en IA. Des personnages humains artificiels crĂ©dibles peuvent ĂȘtre intĂ©ressants dans une Ćuvre dâart, un jeu vidĂ©o ou une interface utilisateur sophistiquĂ©e, mais cela ne fait pas partie de la science de la crĂ©ation de machines intelligentes, qui est la science des machines qui rĂ©solvent des problĂšmes liĂ©s Ă lâintelligence. Russell et Norvig suggĂšrent une analogie avec lâhistoire de l'aviation : les avions sont testĂ©s en fonction de leur vol, non pas en les comparant Ă des oiseaux. Les essais sur lâaĂ©ronautique ne dĂ©finissent pas le but de leur domaine comme une course Ă lâinvention de machines volant de façon si semblable Ă un pigeon que les pigeons eux-mĂȘmes sây tromperaient[18].
Turing nâa jamais eu lâintention que son test soit utilisĂ© comme une mĂ©thode pour mesurer lâintelligence des programmes dâIA ; il voulait donner un exemple clair et comprĂ©hensible pour contribuer Ă la discussion sur la philosophie de l'intelligence artificielle[n 1]. Ainsi, il nâest pas surprenant que le test de Turing ait eu si peu dâinfluence sur les recherches en Intelligence Artificielle. La philosophie de lâIA, en Ă©crivit John McCarthy, « a peu de chances dâavoir plus dâeffet sur la pratique de la recherche en IA que la philosophie de la science en a gĂ©nĂ©ralement sur la pratique de la science[20] ».
Vers un « test de Turing incarné »
[modifier | modifier le code]Les neurosciences sont l'une des sources essentielles de modĂšles pour l'intelligence artificielle (IA)[21], de mĂȘme que le cerveau humain[22].
Vingt-huit chercheurs amĂ©ricains, canadiens et anglais du domaine de l'IA ou de la neurobiologie ont suggĂ©rĂ© en 2023 que pour accĂ©lĂ©rer les progrĂšs de l'IA, il fallait encore investir dans la recherche fondamentale en « NeuroIA »[23]. Dans ce contexte, ils ont proposĂ© la notion de « test de Turing incarnĂ© », qui « met au dĂ©fi les modĂšles animaux de l'IA d'interagir avec le monde sensorimoteur Ă des niveaux de compĂ©tence semblables Ă ceux de leurs homologues vivants. Le test de Turing incarnĂ© dĂ©place l'attention vers des capacitĂ©s comme le jeu et le langage, qui sont particuliĂšrement bien dĂ©veloppĂ©es ou particuliĂšrement humaines â hĂ©ritĂ©es de plus de 500 millions d'annĂ©es d'Ă©volution â et qui sont partagĂ©es avec tous les animaux ». Selon ces chercheurs, « la construction de modĂšles capables de passer le test de Turing incarnĂ© sera une feuille de route vers la prochaine gĂ©nĂ©ration d'IA »[23].
Dans la culture populaire
[modifier | modifier le code]Cinéma
[modifier | modifier le code]- Le test de Voight-Kampff, utilisé par les policiers traquant les réplicants dans le film Blade Runner de Ridley Scott (1982), est inspiré du test de Turing.
- Dans le film The Machine (2013), Vincent McCarthy (joué par Toby Stephens) utilise le test de Turing pour tester son programme d'intelligence artificielle.
- Le film Imitation Game (2014), bien que se concentrant sur la vie d'Alan Turing, aborde le test de Turing.
- Le test de Turing fait partie intégrante de l'intrigue du film Ex Machina (2015)[24].
- Il est aussi utilisĂ© dans lâenquĂȘte d'un homme victime d'un ordinateur dans la sĂ©rie Numb3rs, Ă lâĂ©pisode 17 de la saison 5.
- Dans l'épisode 3 de la saison 1 de la série Westworld, le test de Turing est invoqué en tant que témoin dans la ressemblance entre une intelligence artificielle et l'humain à laquelle celle-ci est censée s'apparenter.
- Dans l'épisode 4 de la saison 3 de la série Elementary, une intelligence artificielle est soupçonnée d'avoir tué son créateur. Sherlock Holmes tente de la soumettre au test de Turing.
- Dans l'Ă©pisode 3 de la sĂ©rie d'animation Un-Go, le test de Turing est utilisĂ© envers un ĂȘtre de synthĂšse.
Informatique
[modifier | modifier le code]Lâexpression « FĂ©licitations ! Vous venez dâĂ©chouer au test de Turing⊠» est une insulte potache dans le milieu informatique. Cette expression se dit lorsquâune personne vient de dire quelque chose de particuliĂšrement stupide, et ne semble mĂȘme pas avoir le niveau dâintelligence dâune machine[25].
Musique
[modifier | modifier le code]- L'opéra The Turing Test du compositeur écossais Julian Wagstaff est inspiré par le test.
Jeux vidéo
[modifier | modifier le code]- The Turing Test : jeu vidéo sorti le .
- Virtue's Last Reward : un document secret Ă trouver dans la piĂšce Gaulem bay parle du test de Turing.
- Detroit: Become Human : le test de Turing y est plusieurs fois abordé. L'un des androïdes créés par le scientifique Elijah Kamski est mentionné comme étant le premier à avoir réussi le test de Turing.
- Hitman : dans la mission « Situs Inversus », une conversation entre l'intelligence artificielle KAI et le Dr Laurent fait référence à ce test. L'IA chargée du complexe GAMA y aurait échoué.
- The Talos Principle : alors que notre personnage, un androĂŻde, demande des privilĂšges administrateur (rĂ©servĂ©s aux ĂȘtres humains), une conversation avec une IA s'engage sur l'un des terminaux afin de vĂ©rifier qu'il s'agit bien d'une personne et non d'une machine. Cet Ă©change peut ĂȘtre assimilĂ© Ă un test de Turing dans lequel il est nĂ©cessaire de convaincre une IA trĂšs suspicieuse de notre humanitĂ©.
Notes et références
[modifier | modifier le code]Notes
[modifier | modifier le code]Références
[modifier | modifier le code]- â Turing 1950, p. 433.
- â (en-US) Erik Sofge, « Lie Like A Lady: The Profoundly Weird, Gender-Specific Roots Of The Turing Test », sur Popular Science, (consultĂ© le ).
- â (en) Amy Kind, « Computing Machinery and Sexual Difference: The Sexed Presuppositions Underlying the Turing Test Get access Arrow ».
- â (en) Huma Shah, « Imitating Gender as a Measure for Artificial Intelligence: Is It Necessary? », Proceedings of the 8th International Conference on Agents and Artificial Intelligence (ICAART 2016), vol. 1,â , p. 126-131 (lire en ligne [PDF]).
- â (en) Jean LassĂšgue, « What Kind of Turing Test Did Turing Have in Mind? », (non publiĂ©),â (lire en ligne) ()version pdf.
- â (en) « Software tricks people into thinking it is human », New Scientist (consultĂ© le ).
- â Olivier Lascar, « Intelligence artificielle : Eugene Goostman est-il le tombeur du test de Turing ? », sur sciencesetavenir.fr, (consultĂ© le ).
- â « Pour la premiĂšre fois, un ordinateur a rĂ©ussi le test de Turing », sur Slate.fr, (consultĂ© le ).
- â RĂ©ussite contestĂ©e d'un ordinateur au lĂ©gendaire test de Turing. Le Monde
- â (en) Extrait du discours « The Mind of Mechanical Man » prononcĂ© le 9 juin 1949 lors de la remise de la « Lister Medal » Ă Geoffrey Jefferson par le « Royal College of Surgeons of England ».
- â Dans le film I, Robot, le policier Ă©met la mĂȘme remarque Ă un robot : « Vous ne pouvez pas Ă©crire un roman ni composer un concerto ». Le robot lui rĂ©pond simplement : « Et vous ? »
- â Turing 1950, p. 448.
- â Lâargument a pour but de montrer que, mĂȘme si le test de Turing est une dĂ©finition opĂ©rationnelle dâintelligence, il peut ne pas indiquer que la machine a un esprit, une conscience ou une intentionnalitĂ© (lâintentionnalitĂ© est un terme philosophique pour la puissance de pensĂ©e de lâĂȘtre « sĂ»r » quelque chose).
- â Russell et Norvig 2003, p. 958-960 (Identifier lâargument de Searle avec celui des rĂ©ponses de Turing).
- â Turing 1950, p. 442.
- â (en) Huma Shah et Kevin Warwick, « Hidden Interlocutor Misidentification in Practical Turing Tests », Minds and Machines, vol. 20, no 3,â , p. 441â454 (ISSN 0924-6495 et 1572-8641, DOI 10.1007/s11023-010-9219-6).
- â Shah et Warwick (2009a) : Test de Turing cinq minutes, en parallĂšle jumelĂ© en jeu de lâimitation (Ă paraĂźtre) Kybernetes Turing Test Special Issue[rĂ©f. incomplĂšte].
- Russell et Norvig 2003, p. 3.
- â Alan Ross Anderson (dir.) (trad. de l'anglais), PensĂ©e et machine, Seyssel, Champ Vallon, , 150 p. (ISBN 2-903528-28-4, lire en ligne), « Les ordinateurs de lâintelligence », p. 39.
- â (en) John McCarthy, The Philosophy of Artificial Intelligence.
- â (en) Demis Hassabis, Dharshan Kumaran, Christopher Summerfield et Matthew Botvinick, « Neuroscience-Inspired Artificial Intelligence », Neuron, vol. 95, no 2,â , p. 245â258 (DOI 10.1016/j.neuron.2017.06.011, lire en ligne, consultĂ© le ).
- â (en) « Is the brain a good model for machine intelligence? », Nature, vol. 482, no 7386,â , p. 462â463 (ISSN 0028-0836 et 1476-4687, DOI 10.1038/482462a).
- (en) Anthony Zador, Sean Escola, Blake Richards et Bence Ălveczky, « Catalyzing next-generation Artificial Intelligence through NeuroAI », Nature Communications, vol. 14, no 1,â (ISSN 2041-1723, PMID 36949048, PMCID PMC10033876, DOI 10.1038/s41467-023-37180-x).
- â Didier Flori, « Ex Machina de Alex Garland : critique », sur cinechronicle.com, .
- â (en) « Dilbert Comic Search » [archive], Dilbert.
Annexes
[modifier | modifier le code]Bibliographie
[modifier | modifier le code]- (en) Alan Turing, « Computing machinery and intelligence », Mind, Oxford University Press, vol. 59, no 236,â , p. 433-460 (lire en ligne)
- Les Ordinateurs et lâIntelligence, in Alan Turing et Jean-Yves Girard, La machine de Turing, Ăditions du Seuil, [dĂ©tail des Ă©ditions], p. 133-175La traduction française de l'article de Turing par Patrice Blanchard est Ă©galement publiĂ©e dans PensĂ©e et machine, Champ Vallon, 1983 p. 39-67
- (en) Roger Penrose, The Emperorâs New Mind
- (en) Stuart Russell et Peter Norvig, Artificial Intelligence : A Modern Approach, Prentice Hall, (ISBN 0-13-790395-2)
- LassĂšgue, J. (1993). âLe test de Turing et l'Ă©nigme de la diffĂ©rence des sexesâ. Les contenants de pensĂ©e. D. Anzieu ed. Paris, Dunod : 145-195. (ISBN 2-1000-8104-7).
- LassĂšgue, J. (1996). âWhat Kind of Turing Test did Turing have in Mind ?â, Tekhnema; Journal of Philosophy and Technology (ISBN 2-9509944-0-7) (3) : 37-58.
- LassĂšgue, J. (2001). âOn my Vicious Ways; a Response to Justin Leiberâ, Tekhnema; Journal of Philosophy and Technology (6): (ISBN 2-9509944-0-7)198-207)
- LassĂšgue, J. (2008). âDoing Justice to the Imitation Game; a farewell to formalismâ. Chap. 11, Parsing the Turing Test; Philosophical and Methodological Issues in the Quest for the Thinking Computer, Epstein, Roberts & Beber eds. Berlin, Spinger Verlag: 151-169. (ISBN 978-1-4020-6708-2)
Articles connexes
[modifier | modifier le code]- CAPTCHA, test public de Turing entiĂšrement automatique ayant pour but de distinguer les humains des ordinateurs
- Test de Kamski
- Computationnalisme
- Intelligence artificielle
- Philosophie de l'intelligence artificielle
- Prix Loebner
- Test de Voight-Kampff
- Chambre chinoise
Liens externes
[modifier | modifier le code]- (en) Encyclopédie de Philosophie de StanfordLe Test de Turing, par G. Oppy et D. Dowe.
- (en) Test de Turing : 50 ans aprĂšs [PDF], retour sur un demi-siĂšcle de travaux sur le Test de Turing.
- (en) Pari entre Kapor et Kurzweil, comprenant leur point de vue respectif en détail.
- Turing : Les machines peuvent-elles penser ?.
- (en) L'opéra The Turing Test.
- « LâhĂ©ritage dâAlan Turing, lâinventeur de lâordinateur - Le pionnier de lâintelligence artificielle », sur lejournal.cnrs.fr

