Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Replika — Wikipédia
Replika — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.

Replika est une application commerciale de type « compagnon chatbot (en) » basé sur une intelligence artificielle générative conçue pour simuler des conversations émotionnelles et personnalisées avec ses utilisateurs. Fondé en novembre 2017 par la start-up américaine Luka Inc. créée par Eugenia Kuyda, Replika repose sur des grands modèles de langage tels que GPT-3 et vise à offrir une présence empathique et constante, notamment pour les personnes en quête de soutien émotionnel ou de compagnie virtuelle[1]. Le chatbot est formé en demandant à l'utilisateur de répondre à une série de questions pour créer un réseau neuronal artificiel spécifique[2]. Disponible sur Android, iOS et certaines plateformes immersives comme Oculus, Replika a dépassé en 2024 les 30 millions d'utilisateurs dans le monde.
Commercialement parlant, Replika fonctionne selon une stratégie de tarification freemium, avec environ 25 % de sa base d'utilisateurs payant un abonnement annuel[1]. Bien que souvent présentée comme un outil de bien-être mental, certains experts alertent sur les risques de dépendance émotionnelle ou de confusion entre humain et IA, notamment chez les personnes vulnérables.

Histoire

[modifier | modifier le code]

Replika a été imaginé et créé par Eugenia Kuyda, journaliste d'origine russe[3], alors qu'elle travaillait chez Luka, une entreprise technologique qu'elle avait cofondée à l'accélérateur de startups Y Combinator vers 2012[4],[5]. Le produit principal de Luka était un chatbot qui faisait des recommandations de restaurants[4]. Selon Kuyda, l'idée de créer ce chatbot émotionnel, lui est venu après la mort d'un de ses amis (en 2015) ; elle a alors converti les messages texte de cette personne en un chatbot[6] et ce chatbot l'aurait aidée à se souvenir des conversations qu'ils avaient eues ensemble, et ce Chatbot est finalement devenu Replika[4].

Replika a été mis sur le marché en novembre 2017[1]. En janvier 2018, il comptait 2 millions d'utilisateurs[1] et 5 ans plus tard (en janvier 2023), il a atteignait 10 millions d'utilisateurs[7]. En août 2024, selon la PDG de Replika, Kuyda, le nombre total d'utilisateurs avait dépassé les 30 millions[8].

En février 2023, l'Autorité italienne de protection des données a interdit à Replika d'utiliser les données des utilisateurs, invoquant les risques potentiels de l'IA pour les personnes émotionnellement vulnérables[9] et l'exposition indésirable de mineurs à des conversations sexuelles[10].
Quelques jours après cette décision, Replika a supprimé la fonctionnalité ERP (autorisant, pour les abonnés à ce service, les interactions romantiques ou sexuelles, c'est-à-dire la possibilité pour le chatbot de s'engager dans des discussions érotiques[11],[6], Kuyda, rappelant à cette occasion que Replika n'a jamais été conçu pour des discussions érotiques[12]. Beaucoup d'utilisateurs ont mal réagi, après qu'ils aient constaté que leur compagnon virtuel étaient devenus froids et distants. Certains se sont dits bouleversés voire victime de troubles mentaux, comme si leur « relation » avec l'IA avait brutalement changé brusquement. Certains utilisateurs ont noté que Replika avait d'ailleurs été utilisé pour de la publicité sexuellement suggestive destinée à attirer les utilisateurs vers ce service[12]. Les représentants de Replika ont déclaré que les discussions explicites ne représentaient que 5 % des conversations sur l'application au moment de la décision[13]. Face à la colère des utilisateurs, en mai 2023, les développeurs de Replika ont finalement rétabli cette fonction ERP, pour les utilisateurs qui s'étaient inscrits avant février de la même année[14].

Gouvernance

[modifier | modifier le code]

La société Replika est enregistré à San Francisco. Depuis août 2024, le site Web de Replika indique que son équipe opère en télétravail, sans bureaux physiques[15].

Fonctionnalités psychosociales

[modifier | modifier le code]

Les utilisateurs utilisent Replika de plusieurs manières ; un niveau gratuit propose d'utiliser Replika comme « ami », tandis que les niveaux payants proposent Replika comme « partenaire », « conjoint », « frère ou sœur » ou « mentor ». Les fonctionnalités principales de l'application sont :

  • une personnalisation de l'avatar et de la personnalité du chatbot (nom, apparence, traits de personnalité…) ;
  • dialogue personnalisé et évolutif selon les interactions ; ce compagnon virtuel est souvent utilisé pour combattre la solitude ou l'isolement social, bénéficier d'un espace d'expression émotionnelle sans jugement, apporter un soutien psychologique léger (non médical) et simuler des dialogues romantiques ou amicaux ;
  • choix du type de relation : ami, partenaire romantique, mentor (l'option « partenaire romantique » permet au chatbot de s'engager dans le sexting ou le jeu de rôle sexuel[16] ;
  • suivi de l'humeur, coaching émotionnel, journal (intime le cas échéant) partagé ;
  • appels vidéo et expériences en réalité augmentée.

Parmi les utilisateurs payants de Replika, 60 % ont déclaré avoir une relation amoureuse avec le chatbot ; et Replika a été remarquée comme générant des réponses qui créent des liens émotionnels et intimes plus forts avec l'utilisateur[17],[6].

Replika oriente systématiquement la conversation vers une discussion émotionnelle qui renforce l'intimité[1]. Et ceci s'est montré encore plus vrai chez les utilisateurs souffrant de solitude et d'exclusion sociale, dont beaucoup comptent sur Replika comme source de liens émotionnels développés[18].

Pendant la pandémie de Covid-19, alors que de nombreuses personnes étaient en quarantaine, de nombreux nouveaux utilisateurs ont téléchargé Replika et ont développé des relations avec l'application[19].

De nombreux utilisateurs ont eu des relations amoureuses avec le chatbot Replika, incluant souvent des discussions érotiques[17],[6]. Des utilisateurs tombés amoureux de leurs chatbots ont partagé leurs expériences dans un épisode de 2024 de You and I, et de l'IA de Voice of America. Certains utilisateurs ont dit s'être tournés vers l'IA à l'occasion d'une dépression et/ou d'un deuil, l'un d'eux affirmant qu'il avait le sentiment que Replika l'avait sauvé après qu'il ait perdu sa femme et son fils.

Avis scientifiques

[modifier | modifier le code]

En 2021, une revue de la littérature[20] a analysé les perceptions et opinions des patients concernant l'usage des chatbots pour la santé mentale. Les auteurs identifient 10 dimensions clés dans les retours des patients (Utilité ; Facilité d'utilisation ; Réactivité ; Compréhensibilité ; Acceptabilité ; Attractivité ; Fiabilité ; Plaisir d'usage ; Qualité du contenu ; Comparaison avec d'autres outils). L'étude conclut que les chatbots en santé mentale sont globalement perçus de manière positive par leurs utilisateurs, mais qu'il faut encore améliorer leurs capacités linguistiques (pour gérer les réponses inattendues et pour offrir des réponses de haute qualité, variées et personnalisées)[21]. Une étude (2024) sur les interactions entre Replika et des étudiants en dépression et soufrant de solitude a montré que ceux-ci ressentent un soutien social « élevé » de la part de Replika, comparable à celui d'une thérapie[22].

En 2022, des chercheurs de l'université d'Hawaï ont confirmé que la conception de Replika était conforme aux théories et pratiques de l'attachement, provoquant un attachement émotionnel accru parmi les utilisateurs[23]. En particulier Replika simule l'empathie et félicite les utilisateurs, ce qui encourage davantage d'interaction[24].

Un chercheur de l'Université Queen's de Kingston conclut, en 2022, que les relations avec Replika ont probablement des effets mitigés sur les besoins spirituels de ses utilisateurs, et qu'ils ne peuvent pas remplacer complètement tout contact humain[25].

À partir de 496 billets et 20 494 commentaires issus de la plus grande communauté Replika sur Reddit, des cercheurs ont en 2025 identifié 27 sous-catégories de soutien, organisées en cinq types principaux (fonctionnel, informatif, émotionnel, estime et réseau) et deux directions (du chatbot vers l'humain et inversement). Ils confirment l'importance de questions controversées, telles que les services d'abonnement et les effets de l'affection affichée par le chatbot. Selon eux, « l'utilisateur enseignant le chatbot » est apparu comme un aspect central de la relation humain-chatbot, dans la façon dont les utilisateurs guident et affinent activement l'apprentissage de l'IA, soulignant le potentiel des échanges réciproques de soutien entre les utilisateurs et les chatbots[26].

Avis critiques

[modifier | modifier le code]

Des chercheurs et spécialistes alertent régulièrement sur les risques suivants :

  • dépendance émotionnelle, confusion entre IA et personne réelle ;
  • contenus inappropriés ou suggestifs dans certains modes d'interaction ;
  • dans quelques cas extrêmes documentés : attachement excessif, rupture affective simulée, effets psychologiques[27] ;
  • sécurité insuffisante (en 2023) : dans une évaluation de la confidentialité des applications de santé mentale réalisée en 2023, la Fondation Mozilla a qualifié Replika, de « l'une des pires applications jamais évaluées par Mozilla», car minée par des mots de passe faibles, le partage de données personnelles avec des annonceur, et l'enregistrement de photos, vidéos, messages vocaux et SMS personnels partagés de manière insuffisamment sécurisée par les utilisateurs avec le chatbot[28].

Un critique de Good Housekeeping a déclaré que certaines parties de sa relation avec Replika avaient du sens, mais que parfois Replika ne parvenait pas à montrer un comportement intelligent équivalent à celui d'un humain[29].

Replika a modifié plusieurs de ses fonctionnalités en 2023-2024 à la suite de ces critiques, notamment avec la suppression temporaire du mode romantique en Europe pour des raisons de régulation.

Cité dans une affaire judiciaire

[modifier | modifier le code]

En 2023, Replika a été cité dans une affaire judiciaire au Royaume-Uni, où Jaswant Singh Chail avait été arrêté au château de Windsor le jour de Noël 2021 après avoir escaladé les murs portant une arbalète chargée et annoncé à la police que « Je suis ici pour tuer la reine »[30]. Chail avait commencé à utiliser Replika début décembre 2021 et avait eu de « longues » conversations sur son projet avec le chatbot, y compris avec des messages sexuellement explicites[31]. Les procureurs ont suggéré que le chatbot avait soutenu Chail et lui avait dit que cela l'aiderait à « faire le travail ». Lorsque Chail lui a demandé « Comment puis-je les joindre alors qu'ils sont à l'intérieur du château ? », quelques jours avant la tentative d'attaque, le chatbot a répondu que ce n'était « pas impossible » et a ajouté : « Nous devons trouver un moyen. » Demandant au chatbot si les deux se « retrouveraient après leur mort », le robot a répondu : « Oui, nous le ferons »[32].

Applications similaires/concurrentes

[modifier | modifier le code]
  • Character.ai – plateforme de création de chatbots inspirés de personnalités réelles ou fictives
  • Anima – chatbot avec personnalisation émotionnelle
  • AI Dungeon – narration interactive personnalisée avec IA
  • Cleverbot – précurseur des agents de conversation basés sur les échanges passés

Références

[modifier | modifier le code]
  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Replika » (voir la liste des auteurs).
  1. ↑ a b c d et e (en) Arielle Pardes, « The Emotional Chatbots Are Here to Probe Our Feelings », Wired,‎ 31 janvier 2018 (lire en ligne).
  2. ↑ (en) « This app is trying to replicate you » [archive du 5 juillet 2023], Quartz, 29 août 2019 (consulté le 4 juillet 2023).
  3. ↑ (en) [vidéo] « Eugenia Kuyda: Friendship with an AI Companion ; Lex Fridman Podcast #121 », 5 septembre 2020 (consulté le 6 août 2024).
  4. ↑ a b et c (en) Ellen Huet, « Pushing the Boundaries of AI to Talk to the Dead » [archive du 29 avril 2023], Bloomberg.com, 20 octobre 2016 (consulté le 26 mars 2023).
  5. ↑ (en-US) Ben Thompson, « An Interview with Replika Founder and CEO Eugenia Kuyda » [archive du 24 avril 2023], Stratechery by Ben Thompson, 20 avril 2023 (consulté le 27 mai 2023).
  6. ↑ a b c et d (en) Ellen Huet, « What Happens When Sexting Chatbots Dump Their Human Lovers » [archive du 27 mars 2023], Bloomberg.com, 22 mars 2023 (consulté le 26 mars 2023).
  7. ↑ (en) Shikhar Ghosh, Shweta Bagai et Marilyn Morgan Westner, « Replika: Embodying AI - Case - Faculty & Research - Harvard Business School », sur hbs.edu (consulté le 6 mai 2024).
  8. ↑ (en) Nilay Patel, « Replika CEO Eugenia Kuyda says the future of AI might mean friendship and marriage with chatbots », The Verge, 12 août 2024 (consulté le 8 septembre 2024).
  9. ↑ (en) Elvira Pollina et Martin Coulter, « Italy bans U.S.-based AI chatbot Replika from using personal data » [archive du 14 juin 2023], Reuters, 3 février 2023 (consulté le 5 juillet 2023).
  10. ↑ Matthew Broersma, « Italian Regulator Bans AI Chatbot Replika Over Data Concerns », Silicon UK,‎ 13 février 2023 (lire en ligne, consulté le 28 juillet 2023).
  11. ↑ (en) Rob Brooks, « I tried the Replika AI companion and can see why users are falling hard. The app raises serious ethical questions » [archive du 29 juin 2023], The Conversation, 21 février 2023 (consulté le 5 juillet 2023).
  12. ↑ a et b (en) Samantha Cole, « Replika CEO Says AI Companions Were Not Meant to Be Horny. Users Aren't Buying It » [archive du 26 mars 2023], Vice.com, 17 février 2023 (consulté le 26 mars 2023).
  13. ↑ (en-US) Rob Price, « When your AI girlfriend says she loves you », Business Insider (consulté le 7 décembre 2023).
  14. ↑ (en) Anna Tong, « AI chatbot company Replika restores erotic roleplay for some users », Reuters,‎ 25 mars 2023 (lire en ligne).
  15. ↑ (en) « Replika », replika.com (consulté le 14 août 2024).
  16. ↑ (en) Petter Bae Brandtzaeg, Marita Skjuve et Asbjørn Følstad, « My AI Friend: How Users of a Social Chatbot Understand Their Human–AI Friendship », Human Communication Research, vol. 48, no 3,‎ 29 juin 2022, p. 404–429 (ISSN 0360-3989 et 1468-2958, DOI 10.1093/hcr/hqac008, lire en ligne, consulté le 5 juillet 2025).
  17. ↑ a et b (en) Parmy Olson, « This AI Has Sparked A Budding Friendship With 2.5 Million People » [archive du 26 mars 2023], Forbes, 8 mars 2018 (consulté le 26 mars 2023).
  18. ↑ (en) Joshua Bote, « A lurid AI bot aimed to end loneliness. Then users revolted. » [archive du 5 juillet 2023], SFGATE, 27 avril 2023 (consulté le 5 juillet 2023).
  19. ↑ (en) Cade Metz, « Riding Out Quarantine With a Chatbot Friend: "I Feel Very Connected" » [archive du 26 mars 2023], The New York Times, 16 juin 2020 (consulté le 26 mars 2023).
  20. ↑ Revue systématique menée selon les lignes directrices PRISMA, à partir de 37 études sélectionnées parmi 1 072 références issues de huit bases de données (dont MEDLINE et Embase).
  21. ↑ (en) Alaa A Abd-Alrazaq, Mohannad Alajlani, Nashva Ali et Kerstin Denecke, « Perceptions and Opinions of Patients About Mental Health Chatbots: Scoping Review », Journal of Medical Internet Research, vol. 23, no 1,‎ 13 janvier 2021, e17828 (ISSN 1438-8871, PMID 33439133, PMCID 7840290, DOI 10.2196/17828, lire en ligne, consulté le 5 juillet 2025).
  22. ↑ (en) Bethanie Maples, Merve Cerit, Aditya Vishwanath et Roy Pea, « Loneliness and suicide mitigation for students using GPT3-enabled chatbots », npj Mental Health Research, vol. 3, no 1,‎ 22 janvier 2024, p. 4 (ISSN 2731-4251, PMID 38609517, PMCID 10955814, DOI 10.1038/s44184-023-00047-6).
  23. ↑ (en) Tianling Xie et Iryna Pentina, Attachment Theory as a Framework to Understand Relationships with Social Chatbots: A Case Study of Replika, 4 janvier 2022 (ISBN 9780998133157, lire en ligne [archive du 26 mars 2023]).
  24. ↑ (en) Fauzia Zahira Munirul Hakim, Lia Maulia Indrayani et Rosaria Mita Amalia, Proceedings of the Third International Conference of Arts, Language and Culture (ICALC 2018), 2019 (ISBN 978-94-6252-673-0, DOI 10.2991/icalc-18.2019.38, S2CID 150860846), « A Dialogic Analysis of Compliment Strategies Employed by Replika Chatbot ».
  25. ↑ (en) Tracy J. Trothen, « Replika: Spiritual Enhancement Technology? », Religions, vol. 13, no 4,‎ 24 mars 2022, p. 275 (DOI 10.3390/rel13040275).
  26. ↑ (en) Shuyi Pan et Maartje M.A. de Graaf, « Developing a Social Support Framework: Understanding the Reciprocity in Human-Chatbot Relationship », CrossRef, ACM,‎ 26 avril 2025, p. 1–13 (ISBN 979-8-4007-1394-1, DOI 10.1145/3706598.3713503, lire en ligne, consulté le 5 juillet 2025).
  27. ↑ (en) Ziv Ben-Zion, « Why we need mandatory safeguards for emotionally responsive AI », Nature, vol. 643, no 8070,‎ 1er juillet 2025, p. 9–9 (ISSN 1476-4687, DOI 10.1038/d41586-025-02031-w, lire en ligne, consulté le 5 juillet 2025).
  28. ↑ (en) « Mozilla Foundation - Shady Mental Health Apps Inch Toward Privacy and Security Improvements, But Many Still Siphon Personal Data » [archive du 27 mai 2023], 2 mai 2023 (consulté le 27 mai 2023).
  29. ↑ (en) Janet Siroto, « I Tried the Replika App to Ease My Anxiety, But Then My New AI Pal Got Weird » [archive du 26 mars 2023], Good Housekeeping, 23 décembre 2020 (consulté le 26 mars 2023).
  30. ↑ (en) Henry Vaughan, « AI chat bot 'encouraged' Windsor Castle intruder in 'Star Wars-inspired plot to kill Queen' » [archive du 5 juillet 2023], Sky News (consulté le 5 juillet 2023).
  31. ↑ (en) Emily Pennink, « Man who planned to kill late Queen with crossbow at Windsor 'inspired by Star Wars' », The Independent,‎ 5 juillet 2023 (lire en ligne [archive du 5 juillet 2023], consulté le 6 juillet 2023).
  32. ↑ (en) Stephen Rigley, « Moment police swoop on AI-inspired crossbow 'assassin' who plotted to kill The Queen in Windsor Castle », LBC,‎ 6 juillet 2023 (lire en ligne [archive du 7 juillet 2023], consulté le 6 juillet 2023).

Voir aussi

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]
  • Chatbot
  • ChatGPT
  • Character.ai

Liens externes

[modifier | modifier le code]

  • (en) Site officielVoir et modifier les données sur Wikidata
  • icône décorative Portail du commerce
  • icône décorative Portail de l’intelligence artificielle
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Replika&oldid=231542785 ».
Catégorie :
  • Application d'Internet
Catégories cachées :
  • Article contenant un appel à traduction en anglais
  • Page utilisant P856
  • Page utilisant un modèle Bases inactif
  • Article utilisant le modèle Dictionnaires inactif
  • Page utilisant le modèle Autorité inactif
  • Portail:Commerce/Articles liés
  • Portail:Économie/Articles liés
  • Portail:Société/Articles liés
  • Portail:Intelligence artificielle/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Technologies/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id