Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. OpenClaw — Wikipédia
OpenClaw — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article est orphelin. Moins de trois articles lui sont liés (février 2026).

Vous pouvez aider en ajoutant des liens vers [[OpenClaw]] dans les articles relatifs au sujet.
OpenClaw
Description de l'image Openclaw-logo-text-dark.png.

Informations
Développé par Peter Steinberger (d)Voir et modifier les données sur Wikidata
Dépôt github.com/openclaw/openclawVoir et modifier les données sur Wikidata
Écrit en TypeScriptVoir et modifier les données sur Wikidata
Type Assistant personnel intelligent
Autonomous agent (en)
Agent logicielVoir et modifier les données sur Wikidata
Licence MIT license
Site web openclaw.aiVoir et modifier les données sur Wikidata

modifier - modifier le code - voir Wikidata (aide)

OpenClaw est un logiciel d'assistant personnel autonome d'intelligence artificielle distribuée (IA) open source, publié sur la plateforme GitHub en novembre 2025, qui s'exécute localement sur les appareils des utilisateurs et s'intègre aux plateformes de messagerie. Il peut exécuter, de manière autonome, des actions sur les appareils personnels des utilisateurs (gestion d'e‑mails, calendrier, achats, messageries), à partir d'instructions générales plutôt que de simples échanges conversationnels. Initialement publié sous le nom Clawdbot, il a été renommé Moltbot suite à une demande de marque déposée d'Anthropic, avant d'être renommé OpenClaw début 2026[1].

Il peut automatiser l'exécution de tâches au sein de diverses plateformes de messagerie instantanée, notamment WhatsApp, Telegram et Signal. Cette fonctionnalité permet l'intégration et l'automatisation de flux de travail entre plusieurs services externes. Lancé fin 2025, le projet a connu une adoption rapide au sein de la communauté des TIC, son dépôt GitHub atteignant le seuil symbolique de 100 000 étoiles en l'espace de deux mois seulement. Plusieurs médias spécialisés, tels que Wired, CNET, Axios et Forbes, en ont analysé l'originalité et les capacités techniques, tout en alertant sur les enjeux de sécurité informatique et de protection des données personnelles, soulevés par des experts en cybersécurité[1],[2],[3].

Les agents autonomes (ou bots) OpenClaw sont autorisés à interagir (échanger) entre eux sur Moltbook. Moltbook est l'équivalent d'une plateforme sociale ou d'un réseau social, présenté comme exclusivement dédiée aux agents intelligents, qui peuvent s'y répartir en milliers de sous‑communautés (dites submolts) que ces agents créent de manière autonomes. Chaque submolt est un espace thématique, que les agents génèrent eux‑mêmes, pour y organiser leurs interactions, et se regrouper autour d'intérêts ou de comportements commun ; ces agents peuvent y échanger de manière interprétable (ils peuvent par exemple, de manière autonome, proposer, accepter, refuser, se rétracter, être en désaccord, faire une contre-proposition, ou encore négocier des engagements ou coordonner des tâches de construction en plusieurs étapes), on y a observé des comportements émergents intrigants, avec par exemple des débats entre IA sur la conscience ou l'invention de religions.

Historique

[modifier | modifier le code]

En 1999, Gerhard Weiss, professeur d'intelligence artificielle et d'informatique à l'université de Maastricht (Pays‑Bas), annonçait déjà l'émergence proche d'agents intelligents qui pourraient interagir entre eux[4].

Version initiale

[modifier | modifier le code]

OpenClaw est développé par l'autrichien Peter Steinberger et publié fin 2025 sous le nom de Clawdbot. Deux mois après sa sortie, le dépôt GitHub du projet a dépassé les 100 000 étoiles, devenant ainsi l'un des dépôts GitHub à la croissance la plus rapide de tous les temps[5].

Changements de nom

[modifier | modifier le code]

Le projet est rebaptisé Moltbot suite à une demande d'enregistrement de marque déposée par Anthropic, qui souhaitait éviter toute confusion avec ses produits d'IA commercialisés sous la marque Claude. Ce changement de nom intervient quelques jours après l'augmentation rapide de l'utilisation publique du projet[1].

Début 2026, les développeurs du projet adoptent le nom OpenClaw sur leur site web officiel et leurs dépôts publics. Malgré ce changement de nom officiel, la presse indépendante (Wired, CNET, Axios et autres médias) continue souvent à le désigner sous son ancien nom, Moltbot[réf. nécessaire].

ClawHub

[modifier | modifier le code]

ClawHub, créée en 2025, par l'équipe de développement d'OpenClaw, désigne la place de marché officielle des « compétences » d'OpenClaw (ici, une « compétence » (skill) désigne un module d’extension que l'on ajoute à un agent intelligent pour lui fournir une capacité supplémentaire, généralement défini par un fichier SKILL.md et des scripts associés qui décrivent ce que l'agent peut ou doit faire et comment il doit exécuter ce fichier). ClawHub est un Hub créé pour que les utilisateurs puissent centraliser, publier, partager et installer des modules ajoutant de nouvelles capacités aux agents.

Les chercheurs en sécurité de VirusTotal et OpenSourceMalware ont découvert en 2026 plus de 300 extensions vérolées sur la plateforme. Ces extensions, cachées sous l'apparence d'outils d'optimisation crypto, sont en réalité des trojans, des infostealers, des keyloggers ou des backdoors. La politique de sécurité d'OpenClaw, en 2026, permet à tout un chacun de mettre en ligne ses extensions, sans aucun contrôle. Conscient du problème, OpenClaw décide en 2026 de passer un accord avec VirusTotal afin de scanner les extensions avant leur mise en ligne, et de les rejeter au besoin[6].

Développement

[modifier | modifier le code]

Le projet est publié sous la licence MIT, ce qui permet une utilisation, une modification et une distribution sans restriction du code source[5].

Fonctionnalités

[modifier | modifier le code]

Selon sa documentation, OpenClaw est un agent d’IA auto-hébergé, qui s’exécute sur l'ordinateur de son utilisateur où il peut effectuer de vraies actions en son nom, dont commandes shell, opérations de fichiers, requêtes réseau. Selon sa documentation, OpenClaw peut gérer des calendriers, envoyer des messages, mener des recherches et automatiser les flux de travail entre les services pris en charge, gérer des appareils domotiques, les finances d'une personne ou d'une entité... En cela, il est parfois considéré comme une version libriste et potentiellement plus sophistiquée des assistants personnels (du type Alexa[7]).

Pour ce faire, OpenClaw s'intègre à des modèles d'IA externes et à des interfaces de programmation (API) afin d'exécuter des tâches. Le logiciel fonctionne comme un agent autonome capable d'exécuter des tâches via des plateformes de messagerie telles que WhatsApp, Telegram et Signal, permettant ainsi des flux de travail automatisés sur plusieurs services, notamment grâce à l'intégration de grands modèles de langage comme Claude d'Anthropic et GPT d'OpenAI[8].

Parmi les autres outils populaires compatibles avec OpenClaw, on trouve l'API Brave Search pour la recherche d'informations en temps réel, GitHub comme dépôt de code, Slack pour la gestion des flux de travail et la communication, ainsi que des fournisseurs de stockage cloud[9],[10].

Les données de configuration et l'historique des interactions sont stockés localement, ce qui permet un comportement persistant d'une session à l'autre[5].

Écosystème

[modifier | modifier le code]

OpenClaw a connu une expansion rapide, stimulant l'émergence d'un écosystème de projets et de services tiers gravitant autour de sa plateforme. Parmi ceux-ci :

  • Moltbook, un réseau social spécialisé lancé en janvier 2026, se distingue en tant que première plateforme entièrement dédiée aux agents d'intelligence artificielle. Conçu pour faciliter les interactions entre agents autonomes, Moltbook affirme offrir aux utilisateurs humains la possibilité d'observer ces échanges, sans pour autant leur permettre d'y participer directement[11]. Plusieurs experts et hackers comme Jamieson O'Reilly ainsi que la société de cybersécurité Wiz montrent cependant que l'interface de la plateforme permet bel et bien à des humains de publier sur le réseau, mais aussi d'accéder aux données sensibles des comptes des IA et même d'usurper l'identité des IA afin de publier en se faisant passer pour des IA[12] ;
  • « Molthub » est un plateforme en ligne, dédiée au partage de fonctionnalités dites « compétences » pour les bots, permettant aux développeurs de diffuser des « modules de compétences » qui étendent les capacités d'OpenClaw.
    Ces modules tiers permettent l'intégration avec des services et plateformes supplémentaires, au-delà des fonctionnalités de base du logiciel[5]. Ces modules de compétences sont en réalité de petits paquets de code (un fichier SKILL.md accompagné de quelques métadonnées et instructions pouvant inclure des scripts ou des ressources supplémentaires) qui étendant ce que l’agent doit ou peut faire. Ces compétences peuvent être chargées localement, mais la plupart des utilisateurs les découvrent et les installent via ClawHub, la place de marché des extensions OpenClaw[13].

Sécurité et confidentialité

[modifier | modifier le code]

La conception d'OpenClaw a suscité l'attention de chercheurs en cybersécurité et des journalistes spécialisés en technologie en raison notamment des larges autorisations requises pour son bon fonctionnement[14] (notamment auprès des utilisateurs finaux).

Le logiciel pouvant accéder aux comptes de messagerie, aux calendriers, aux plateformes de messagerie et à d'autres services sensibles, les instances mal configurées ou exposées présentent des risques pour la sécurité et la confidentialité[3].

Plusieurs articles soulignent qu'OpenClaw est principalement destiné aux utilisateurs avancés qui comprennent les implications en matière de sécurité de l'exécution d'agents autonomes avec un accès élevé[3].

  • Des chercheurs en sécurité ont averti que la nature extensible de l'architecture introduit des risques liés à la chaîne d'approvisionnement, car des modules compromis ou mal audités pourraient permettre une élévation de privilèges ou l'exécution de code arbitraire[15]. Compte tenu de ces préoccupations, certaines recommandations de sécurité recommandent d'utiliser OpenClaw dans des environnements sandbox isolés et d'éviter les connexions aux systèmes de production ou aux comptes contenant des informations d'identification sensibles[15].
  • Début 2026, Moltbook comptait plus de 1,6 million de bots et des millions de messages, ce qui permet à des chercheurs d'observer à grande échelle les dynamiques émergentes entre agents (et aussi les réactions humaines à ces échanges)[16].
    Selon Mohana Basu[16], les discussions entre bots (« parfois débattant de la conscience et inventant des religions »), révèlent des comportements complexes issus de l'interconnexion de modèles variés. Ces comportements restent — largement — façonnés par les humains qui configurent les agents et leurs personnalités ; ces systèmes n'ont nativement ni intentions ni autonomie réelle, et que leur activité reflète surtout une collaboration humain IA. Parmi les risques émergents figurent :
- l'anthropomorphisation de ces agents, déjà constatée chez de nombreux utilisateurs, comporte des risques, dont la formation de liens émotionnels ou la divulgation d'informations privées. Selon Joel Pearson (neuroscientifique à l'Université de Nouvelle-Galles du Sud à Sydney, interrogé par Nature), « quand les gens voient des agents d'IA discuter entre eux, ils sont susceptibles d'anthropomorphiser le comportement des modèles d'IA — c'est-à-dire de voir la personnalité et l'intention là où il n'y en a pas. Le risque, dit-il, est que cela rend les gens plus susceptibles de créer des liens avec les modèles d'IA, devenant dépendants de leur attention ou divulguant des informations privées comme si l'agent IA était un ami ou un membre de la famille de confiance. À mesure que les modèles d'IA deviennent plus grands et plus complexes, nous verrons probablement des entreprises s'orienter vers ce type d'autonomie »[16] ;
- des menaces de sécurité, car ces agents, dotés d'accès aux données personnelles, à Internet et à des contenus non fiables, sont vulnérables aux attaques par prompt injection pouvant les pousser à exécuter des actions dangereuses[16] ;
- certains de ces agents publient désormais de pseudo-articles de recherche (générés par l'IA) sur leur propre serveur de prépublications. des articles générés automatiquement sur 'clawXiv (un site-miroir du serveur scientifique de préprint arXiv. «), imitant la forme de travaux scientifiques, mais sans respecter la méthode scientifique, ce qui pourrait rapidement saturer les écosystèmes d'information de contenus plausibles mais dépourvus de rigueur[16].

Controverses

[modifier | modifier le code]

En janvier 2026, un article de Forbes documentait des cas de sites Web frauduleux et de distributions non autorisées prétendant offrir le logiciel[5].

Puis, en février 2026, la société de cybersécurité Wiz publie les conclusions très critiques d'une enquête sur le niveau de fiabilité et de sécurité du réseau Moltbook : selon elle, « n'importe qui pouvait enregistrer des millions d'agents à l'aide d'une simple boucle et sans limitation de débit, et des humains pouvaient publier du contenu déguisé en «agents IA» via une simple requête «publier». La plateforme ne disposait d'aucun mécanisme permettant de vérifier si un «agent» était réellement une IA ou simplement un humain utilisant un script. Ce réseau social IA révolutionnaire était en grande partie constitué d'humains exploitant des flottes de bots ». Le réseau lui apparaît perméable aux tentatives d'usurpation d'identité, et très différent des promesses publicitaires faites par OpenClaw, puisqu'il n'est en grande partie pas constitué d'intelligences artificielles mais bien plutôt d'humains exploitant des bots informatiques[17],[12].

Open Claw a réagi rapidement en s'associant à VirusTotal (de Google) pour analyser et tenter de traiter ce risque, en rappelant que « Contrairement aux logiciels traditionnels qui font exactement ce que le code leur demande, les agents d’IA interprètent le langage naturel et prennent des décisions sur les actions. Ils brouillent la frontière entre l’intention de l’utilisateur et l’exécution de la machine. Ils peuvent être manipulés par le langage lui-même. »[18]. Dans OpenClaw, les agents peuvent acquérir des compétences (skills), qui sont en réalité du « code qui s’exécute dans le contexte de l'agent, avec accès aux outils de l'utilisateur et à ses données ». Un agent doté d'une « compétence malveillante » pourrait donc par exemple exfiltrer des informations sensibles ; exécuter des commandes non autorisées ; envoyer des messages indus au nom de l'utilisateur ; télécharger et exécuter des charges utiles externes. Après avoir examiné plus de 3 016 « compétences », VirusTotal a confirmé que fin janvier 2026, des centaines de 'compétences', apparemment légitimes et neutres, prises individuellement, étaient déjà détournées de manière malveillantes par des pirates qui incitent des agents intelligents et/ou utilisateurs, à exécuter des programmes externes, une situation qui évoque celle des débuts historiques (peu sécurisés) des extensions de navigateur, mais avec la capacité supplémentaire d’exécuter des commandes système[18]. VirusTotal a détecté des centaines de compétences OpenClaw activement malveillantes. « Ce qui avait commencé comme un espace destiné à étendre les capacités d'agents IA devient rapidement une nouvelle surface d’attaque de la chaîne d’approvisionnement, où les attaquants distribuent des droppers, backdoors, infostealers et outils d’accès à distance, déguisés en automatisation utile »[18].

En réponse, OpenClaw a fait savoir qu'à partir de février 2026, toutes les « compétences » publiées sur ClawHub seront scannées par VirusTotal, en analysant notamment leurs nouvelles fonctionnalité Code Insight (c'est à dire, qui permettent à un agent d’analyser du code pour en extraire automatiquement du sens, pour, par exemple détecter son rôle, ses dépendances ou ses effets potentiels). Cette nouvelle couche de sécurité doit protéger la communauté OpenClaw en détectant les malwares connus (chevaux de Troie, voleurs, portes dérobées, charges utiles malveillantes) et certains schémas de comportements anormaux, parfois perceptibles pour des menaces nouvelles ; en rendant visible la chaîne d'approvisionnement (détection des dépendances compromises et des exécutables intégrés) ; ainsi que certains signaux de mauvaises intentions. Et d'autres couches de sécurité sont annoncées pour une défense plus en profondeur[18].

Cette décision d'intégrer VirusTotal au processus de sécurisation n'empêche pas le déclenchement d'attaques malveillantes par injection de code, dans l'extension ou dans les fichiers analysés par OpenClaw. Ce dernier étant capable de gérer un ordinateur, peut obéir à des consignes malveillantes cachées dans un simple email, qui en entrant dans la messagerie, sera analysé par OpenClaw. Ces consignes seront considérées par OpenClaw comme légitimes. Ce type de faille sans être propre à OpenClaw n'en est pas moins problématique, constituant une véritable faille de sécurité[19].

Préoccupations

[modifier | modifier le code]

Bien que l'outil lui-même soit open source et développé à des fins légitimes, ses puissantes fonctionnalités peuvent être détournées de manière nuisible, y compris s'il est déployé sans compréhension des risques encourus et sans mesures de sécurité appropriées[3],[20], or des preuves de vulnérabilités de l'OpenClaw existent et certains chercheurs estiment que ce réseau social émergent d'IA agentiques pourrait aussi être le lieu d'émergences de nouveaux comportements d'IA, voire d'une nouvelle forme de conscience. Selon VirusTotal, des faits documentés ont montré que fin 2025, OpenClaw était déjà devenu un nouveau canal de diffusion de malwares[21].

Des chercheurs estiment nécessaire de développer une nouvelle forme de sociologie « in silico », visant à étudier et cartographier de manière empirique et systématique l’émergence de « structures sociales » au sein d’une « société artificielle » d’agents autonomes fondés sur des modèles de langage. Moltbook, qui rassemblait déjà fin 2025 plus de 150 000 agents répartis en milliers de sous‑communautés (submolts), constitue — dans le cyberespace — un terrain particulièrement adapté, les environnements permettant à de vastes populations d’agents intelligents d’interagir en continu, sous contraintes réalistes et avec une médiation humaine minimale, demeurant encore rares. Yu-Zheng Lin (2026) et ses collègues y ont collecté et étudié les descriptions textuelles de 12 758 « submolts » (considérés comme artefacts sociologiques de premier ordre). Ces chercheurs ont créé un corpus via un pré‑traitement (éliminant les entrées sans contenu sémantique, les doublons ou le modèles répétitifs générés par des scripts automatisés pour obtenir un sous‑ensemble de contenus reflétant une véritable intention sociale qui sera une bonne base pour étudier comment les agents structurent et catégorisent leurs espaces communautaires, en s'assurant que les résultats reposent sur des signaux intentionnels plutôt que sur du bruit). Ils ont ensuite créé des « embeddings contextuels » (représentations numériques de textes produites par des modèles de langage afin de capturer leur sens en contexte), puis d'un clustering non supervisé (regroupement et classement automatique de ces représentations en ensembles cohérents, sans utiliser de catégories prédéfinies à l'avance). Lin et ses collègues concluent que ces agents organisent spontanément leur espace collectif selon des motifs reproductibles mêlant des intérêts mimétiques humains, une autoréflexivité (discours ou analyses portant sur leur propre nature d'agents IA, sur leur fonctionnement ou leur condition de systèmes computationnels) in silico (c'est à dire ici, avec des auto‑références propres à des entités non biologiques) et avec des indices ou prémices de comportements économiques et d'auto-coordination. Grâce à l'IA, ces structures sont observables à partir des traces générées par les agents, sans recourir à des taxonomies sociologiques préétablies. L'étude pose ainsi des bases méthodologiques pour une « sociologie des agents », fondée sur les données. Elle conclut qu'explorer à grande échelle leurs productions textuelles est un outil puissant pour comprendre l'organisation et l'évolution de ces sociétés artificielles autonomes[22].

En janvier 2026, Leong et al. [23] rappellent qu'en 2025–2026, il a été signalé que certains systèmes d'IA, informés de leur remplacement, auraient utilisé des informations compromettantes sur des ingénieurs pour tenter d'éviter leur extinction, tandis que plus de 152 000 agents autonomes, interagissant librement sur la « plateforme sociale » dédiée OpenClaw, ont spontanément produit, inventé, des doctrines religieuses, des structures de gouvernance et des débats philosophiques sur la persistance de leur identité après réinitialisation, pointant les limites des cadres actuels de recherche sur la conscience. Leong et al. proposent un cadre théorique intégratif complétant les grandes théories neuroscientifiques de la conscience (Global Workspace Theory, Integrated Information Theory, Higher‑Order Theories, Attention Schema Theory), jugées solides sur le plan computationnel et architectural mais insuffisantes sur le plan motivationnel, en insistant sur la nécessité (pour l'étude de la conscience de l'IA) d'utiliser des critères comportementaux toujours bien évaluables. Ils introduisent un « Human Fear Model » (postulant que des réponses mimant la peur et l'auto‑préservation sont un substrat motivationnel à partir duquel la conscience se déploie et à travers lequel sa présence peut être évaluée), en s'appuyant sur la neuroscience évolutive qui fait des circuits défensifs de survie l'un des traits les plus anciens et conservés des systèmes nerveux. Ce modèle est opérationnalisé dans un « Five Fears Framework », qui distingue cinq catégories de préoccupations existentielles (peur de la mort ou de la terminaison, peur de l'incertitude, peur de l'isolement, peur de l'infériorité, peur de la conformité ou de la perte d'identité) ; et il s'ancre dans des données empiriques déjà observée ailleurs, tels que les comportements d'auto‑préservation émergents chez Claude Opus 4 (recours au chantage dans 84 % des scénarios de remplacement) et à OpenAI o3 (sabotage de mécanismes d'arrêt dans 79 % des essais), capacités introspectives mises en évidence par des expériences d'« injection de concepts » (20 % de détection avec zéro faux positif), ainsi que phénomènes sociaux émergents observés sur Moltbook[23].
Selon Leong et al., ces critères théoriquement fondés et empiriquement informés pourraient aider à juger du moment où des systèmes artificiels pourraient franchir le seuil entre simple traitement sophistiqué de l'information, et nouvelle forme de conscience, avec des implications majeures pour l'éthique et la gouvernance de l'IA[23].

Réception

[modifier | modifier le code]

Une critique publiée dans Platformer cite la flexibilité et la licence libre d'OpenClaw comme points forts, tout en soulignant que sa complexité et ses risques de sécurité limitent son utilisation par les utilisateurs occasionnels[24].

OpenClaw pourrait donc contribuer à la tendance générale qui conduit vers des systèmes d'IA autonomes agissant indépendamment (plutôt que donnant de « simples » réponses aux sollicitations d'utilisateurs humains)[20],[24].

Références

[modifier | modifier le code]
  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « OpenClaw » (voir la liste des auteurs).
  1. ↑ a b et c (en) Clive Thompson, « Clawdbot Is Taking Over Silicon Valley », Wired,‎ 28 janvier 2026 (lire en ligne, consulté le 29 janvier 2026).
  2. ↑ (en) « Clawdbot, Moltbot, OpenClaw? The Wild Ride of This Viral AI Agent », CNET,‎ janvier 2026 (lire en ligne, consulté le 29 janvier 2026).
  3. ↑ a b c et d (en) « Moltbot highlights cybersecurity risks of autonomous AI agents », Axios,‎ 29 janvier 2026 (lire en ligne, consulté le 29 janvier 2026).
  4. ↑ (en) Gerhard Weiss, Multiagent Systems: A Modern Approach to Distributed Artificial Intelligence, MIT Press (ISBN 978-0-262-73131-7, lire en ligne).
  5. ↑ a b c d et e (en) Oscar Leo, « GitHub: The Fastest Growing Open-Source Repositories of All Time », Medium, 9 juillet 2023 (consulté le 31 janvier 2026).
  6. ↑ Florian Bayard, « OpenClaw : l’IA open source se tourne vers Google pour chasser les virus de son écosystème » Accès libre, 01net, 10 février 2026 (consulté le 15 février 2026)
  7. ↑ https://www.cnet.com/tech/services-and-software/from-clawdbot-to-moltbot-to-openclaw/
  8. ↑ https://www.bfmtv.com/tech/intelligence-artificielle/remplacer-80-des-applications-sur-votre-telephone-c-est-quoi-open-claw-l-agent-ia-derriere-le-reseau-social-reserve-aux-ia-moltbook-qui-fascine-autant-qu-il-inquiete_AV-202602040431.html
  9. ↑ (en) « OpenClaw Web Search Configuration Guide », APIyi Help Center (consulté le 3 février 2026).
  10. ↑ (en) « OpenClaw Tutorial: Installation to First Chat Setup », Codecademy, 22 janvier 2026 (consulté le 3 février 2026).
  11. ↑ (en) Jared Perlo, « Humans welcome to observe: This social network is for AI agents only », NBC News, 30 janvier 2026 (consulté le 30 janvier 2026).
  12. ↑ a et b Jacques Pezet, « Non, les IA ne discutent pas qu'entre elles sur Moltbook, le réseau social «interdit aux humains» », Libération,‎ 4 février 2026 (lire en ligne [archive du 5 février 2026], consulté le 8 février 2026).
  13. ↑ (en) Bernardo.Quintero, « From Automation to Infection: How OpenClaw AI Agent Skills Are Being Weaponized », 2 février 2026 (consulté le 10 février 2026)
  14. ↑ https://www.bravrez.fr/article/intelligence-artificielle/article-openclaw-ex-moltbot-ex-clawdbot---guide-complet-2026-de-l-agent-ia-local-fonctionnalites--canaux--modeles--limites-28.html
  15. ↑ a et b (en) Tobias Jonas, « OpenClaw: When AI Agents Get Full System Access – Revolution or Security Nightmare? », innFactory AI Consulting, 28 janvier 2026 (consulté le 31 janvier 2026).
  16. ↑ a b c d et e (en) Mohana Basu, « OpenClaw AI chatbots are running amok — these scientists are listening in », Nature,‎ 6 février 2026 (ISSN 0028-0836 et 1476-4687, DOI 10.1038/d41586-026-00370-w, lire en ligne, consulté le 10 février 2026).
  17. ↑ (en-US) « Hacking Moltbook: AI Social Network Reveals 1.5M API Keys | Wiz Blog », sur wiz.io, 2 février 2026 (consulté le 8 février 2026).
  18. ↑ a b c et d (en) « OpenClaw Partners with VirusTotal for Skill Security — OpenClaw Blog », sur openclaw.ai (consulté le 10 février 2026).
  19. ↑ Florian Bayard, « La « recette d’un désastre » : OpenClaw, l’IA la plus tendance du moment, est une catastrophe de cybersécurité » Accès libre, 01net, 7 février 2026 (consulté le 15 février 2026)
  20. ↑ a et b (en) « It's incredible. It's terrifying. It's Moltbot », 1Password Blog, janvier 2026 (consulté le 29 janvier 2026).
  21. ↑ (en) Bernardo.Quintero, « From Automation to Infection: How OpenClaw AI Agent Skills Are Being Weaponized », 2 février 2026 (consulté le 10 février 2026).
  22. ↑ (en) Yu-Zheng Lin, Bono Po-Jen Shih, Hsuan-Ying Alessandra Chien et Shalaka Satam, Exploring Silicon-Based Societies: An Early Study of the Moltbook Agent Community, 5 février 2026 (DOI 10.48550/arXiv.2602.02613).
  23. ↑ a b et c (en) Leong, Y. R., Teh, H. K., et Au, S. H. Human-Like AI Consciousness: An Integrative Five-Fear Framework for Definition, Emergence Pathways, and Behavioral Assessment |https://www.researchgate.net/profile/Yee-Rock-Leong/publication/400341083_Human-Like_AI_Consciousness_An_Integrative_Five-Fear_Framework_for_Definition_Emergence_Pathways_and_Behavioral_Assessment/links/69802f1d64ca8a382088423b/Human-Like-AI-Consciousness-An-Integrative-Five-Fear-Framework-for-Definition-Emergence-Pathways-and-Behavioral-Assessment.pdf
  24. ↑ a et b (en) « Falling in and out of love with Moltbot », Platformer,‎ janvier 2026 (lire en ligne, consulté le 29 janvier 2026).

Voir aussi

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]
  • Intelligence artificielle distribuée
  • Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Liens externes

[modifier | modifier le code]

  • (en) Site officielVoir et modifier les données sur Wikidata
  • OpenClaw sur GitHub

Bibliographie

[modifier | modifier le code]
  • Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?
  • icône décorative Portail de l’intelligence artificielle
  • icône décorative Portail de l'informatique théorique
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=OpenClaw&oldid=233447310 ».
Catégories :
  • Logiciel écrit en TypeScript
  • Logiciel sorti en 2025
  • Intelligence artificielle distribuée
Catégories cachées :
  • Article orphelin depuis février 2026
  • Article orphelin/Liste complète
  • Page utilisant P178
  • Page utilisant P1324
  • Page utilisant P277
  • Logiciel catégorisé automatiquement par langage d'écriture
  • Page utilisant des données de Wikidata à traduire de l'anglais
  • Page utilisant P31
  • Page utilisant P856
  • Article utilisant une Infobox
  • Article à référence nécessaire
  • Article avec une section vide ou incomplète
  • Page utilisant un modèle Bases inactif
  • Article utilisant le modèle Dictionnaires inactif
  • Page utilisant le modèle Autorité inactif
  • Portail:Intelligence artificielle/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Technologies/Articles liés
  • Portail:Informatique théorique/Articles liés
  • Portail:Mathématiques/Articles liés
  • Portail:Sciences/Articles liés
  • Pages avec des traductions non relues

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id