
Nous Research publie officiellement un framework open source d’agent IA, Hermes Agent, qui se positionne directement en face d’OpenClaw. L’équipe fournit également, en parallèle, des outils complets de migration de la mémoire et des compétences d’OpenClaw. Hermes Agent dispose d’un mécanisme de mémoire long terme basé sur SQLite, ainsi que d’une architecture d’auto-évolution via « Closed Learning Loop ».
Les chatbots traditionnels reposent sur une conception de questions-réponses ; à la fin de chaque conversation, le contexte est effacé. La finalité de Hermes Agent est fondamentalement différente : c’est un « système d’agent persistant », qui fonctionne sur le long terme dans l’environnement de l’utilisateur, en conservant des informations d’une session à l’autre grâce à un mécanisme de mémoire reposant sur SQLite + FTS5 (recherche plein texte), ce qui permet à l’agent de ne pas reconstruire le contexte depuis zéro à chaque fois.
La principale différence de Hermes Agent réside dans la boucle d’apprentissage en circuit fermé : après l’exécution de chaque tâche, le système organise automatiquement le processus d’exécution et génère un fichier de compétences (Skills) réutilisable. Dans des situations similaires ultérieures, il l’appelle directement, et forme progressivement une compréhension approfondie des comportements et préférences de l’utilisateur. Côté fournisseurs de modèles, il prend en charge OpenAI, Anthropic, OpenRouter, Ollama, ainsi que tous les endpoints personnalisés (Custom Endpoint) au format d’API compatible OpenAI, y compris vLLM et SGLang, ce dernier étant particulièrement utile pour les développeurs ayant besoin de déployer des modèles localement.
Le processus d’installation de Hermes Agent s’appuie principalement sur le Quickstart officiel. Les neuf étapes couvrent la configuration d’environnement, le choix du modèle, l’intégration de plateformes et l’extension des outils :
Étape un : installer l’environnement de base : exécuter la commande d’installation officielle curl. Une fois terminé, recharger le chemin du Shell (source ~/.bashrc ou ~/.zshrc)
Étape deux : configurer le fournisseur de modèle : à l’aide de la commande hermes model, sélectionner le fournisseur LLM. Prend en charge Nous Portal, OpenAI, Anthropic, OpenRouter, ou l’accès à un modèle local via Custom Endpoint
Étape trois : démarrer la conversation CLI : exécuter hermes pour entrer dans l’interface d’agent. Le système charge automatiquement des outils comme la recherche web, les opérations de fichiers et les commandes de terminal
Étape quatre : tester la capacité d’exécution du cœur : déclencher des commandes de terminal via un langage naturel (par ex. consulter l’utilisation du disque) afin de vérifier la capacité d’exécution des outils ; utiliser hermes -c pour restaurer le contexte de la conversation précédente
Étape cinq : connecter la plateforme de messages : exécuter hermes gateway setup pour terminer la configuration interactive des plateformes telles que Telegram, Discord, Slack, WhatsApp, etc.
Étape six : activer le mode vocal : après avoir installé le paquet voice, activer avec /voice on. Prend en charge l’entrée micro et la sortie vocale TTS, avec possibilité d’étendre vers des canaux vocaux sur Discord
Étape sept : installer Skills et automatisation de planification : installer les modules de fonctionnalités avec hermes skills install ; créer un Cron Job avec un langage naturel, par exemple « tous les jours à 9h du matin, consulter les actualités IA et les envoyer sur Telegram »
Étape huit : intégrer l’éditeur pour développeurs (ACP) : après avoir installé ACP, exécuter hermes acp afin que l’agent puisse fournir des capacités directement dans des éditeurs comme VS Code, Zed, JetBrains, etc.
Étape neuf : connecter des outils externes via MCP : ajouter un MCP Server (par ex. GitHub) dans le fichier de configuration ; étendre l’intégration des outils externes via Model Context Protocol
Concernant la sécurité, l’officiel recommande de basculer le backend d’exécution du terminal vers un conteneur Docker, afin de garantir que toutes les commandes de l’agent s’exécutent dans un environnement isolé, sans affecter le système hôte.
Hermes Agent fournit officiellement la commande hermes claw migrate, qui permet de lire les données depuis ~/.openclaw/ et d’importer en une fois dans le nouveau système : la personnalité (SOUL), la mémoire long terme, les modules de compétences, la configuration du modèle, les plateformes de communication et les clés API. Avant l’exécution, vous pouvez ajouter le paramètre --dry-run pour prévisualiser les modifications, confirmer ensuite, puis exécuter la migration complète.
Pendant la migration, plusieurs fichiers de mémoire sont fusionnés et dédupliqués avant d’être écrits dans l’architecture de mémoire de Hermes. Les éléments de configuration incompatibles de l’ancien système (par ex. plugins ou des configurations de channel complexes) sont stockés dans archive pour un ajustement manuel. Une fois la migration terminée, l’officiel recommande de vérifier l’efficacité des clés API, de redémarrer gateway et de tester les fonctionnalités de communication, afin de garantir que tout l’agent fonctionne correctement dans l’environnement Hermes.
Tous deux sont des frameworks open source d’agents IA, mais Hermes Agent possède un mécanisme de mémoire long terme basé sur SQLite + FTS5 ainsi qu’une boucle d’apprentissage en circuit fermé, permettant à l’agent de conserver l’expérience d’une session à l’autre et de progresser de manière évolutive. L’équipe fournit également un outil complet de migration en un clic, afin que les utilisateurs d’OpenClaw puissent transférer sans perte leurs configurations de mémoire existantes et leurs modules de compétences.
Oui. En configurant Custom Endpoint, Hermes Agent peut se connecter à des services d’inférence locaux comme Ollama, vLLM, SGLang ou tout service local au format d’API compatible OpenAI. Cela convient aux utilisateurs soucieux de la confidentialité des données ou nécessitant un environnement hors ligne, et ne requiert aucune modification de code pour changer de fournisseur.
L’officiel recommande de basculer le backend du terminal en mode conteneur Docker, afin que toutes les commandes de l’agent s’exécutent dans un environnement totalement isolé, sans affecter les fichiers de l’hôte ni la configuration système. Pour les scénarios nécessitant une isolation de sécurité encore plus élevée, le basculement vers un backend SSH pour une exécution à distance est également pris en charge.
Articles similaires
Réalité des agents IA de la Silicon Valley : énorme gaspillage de jetons, intégration système « extrêmement chaotique », la « prochaine version de ChatGPT » selon Jensen Huang encore à confirmer
L’IA engloutit 80% du capital-risque mondial, Q1 2026 attire 242 milliards de dollars : comment les acteurs de la cryptographie doivent réagir à la réallocation des capitaux
Un robot humanoïde remporte le semi-marathon de Yizhuang à Pékin 2026 en 50 minutes 26 secondes
La police de Hong Kong met en garde contre l’arnaque crypto « trading quantitatif par IA », une femme perd 7,7 millions de HK$
Cofondateur d’Ethereum Lubin : l’IA sera un tournant critique pour la crypto, mais le monopole des géants de la tech présente un risque systémique
Luffa s’associe à une plateforme d’actifs numériques pour intégrer un trading crypto propulsé par l’IA