Ollama devient fournisseur officiel de modèles pour OpenClaw, prenant en charge l'utilisation combinée de modèles en cloud et en local

Gate News annonce qu’à partir du 16 mars, l’outil de gestion de grands modèles locaux Ollama a officiellement été désigné comme fournisseur officiel de modèles pour OpenClaw. En exécutant la commande openclaw onboard --auth-choice ollama, les utilisateurs peuvent facilement intégrer Ollama, tous les modèles Ollama étant désormais compatibles de manière transparente avec OpenClaw. Cette intégration offre un mode hybride Cloud + Local, permettant aux utilisateurs d’utiliser simultanément des modèles hébergés dans le cloud par Ollama et des modèles exécutés localement. Le guide d’installation d’OpenClaw détecte automatiquement les modèles Ollama installés localement et prend en charge la transmission en flux continu ainsi que l’appel d’outils via l’API native d’Ollama. Peter Steinberger, le fondateur d’OpenClaw, a participé à la revue de cette intégration.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire