Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Lightbits, innovation dans l'efficacité de l'inférence AI pour réduire les coûts du cloud
Les progrès de l’industrie technologique s’accélèrent grâce à l’innovation dans le domaine de l’intelligence artificielle (IA). Lightbits Labs a récemment lancé une nouvelle architecture visant à résoudre le problème du goulot d’étranglement de la mémoire lors de l’inférence à grande échelle. Développée en collaboration avec ScaleFlux et FarmGPU, cette architecture combine une mémoire non volatile à stockage rapide, une infrastructure d’inférence GPU et le logiciel de Lightbits, aidant ainsi les systèmes d’IA à gérer plus efficacement le cache de données généré lors de l’inférence.
Dans un contexte où les opérateurs cloud ressentent la pression des coûts lors du traitement des tâches d’inférence, cette annonce est une bonne nouvelle. Le coût élevé des GPU représente une part importante des dépenses opérationnelles. Pour améliorer cette situation, Lightbits a fixé comme objectif d’optimiser l’utilisation des GPU.
La nouvelle plateforme de Lightbits augmente le nombre de requêtes qu’un seul GPU peut traiter, améliorant ainsi l’efficacité de l’inférence. Cela se traduit directement par une réduction du coût par traitement. Selon les résultats de tests, Lightbits a réussi à tripler le nombre de requêtes traitées sur le même GPU tout en réduisant de 65 % les coûts énergétiques et d’infrastructure.
La clé de cette solution réside dans le “cache KV”. Ce cache stocke les vecteurs intermédiaires générés lors de l’inférence, évitant ainsi des calculs inutiles en réutilisant les résultats précédents. Cependant, avec l’augmentation de la taille des modèles, la capacité du cache doit également croître rapidement. La demande en mémoire double chaque année, ce qui nécessite des efforts conjoints pour résoudre ce problème à long terme. À cette fin, Lightbits a introduit une méthode innovante qui prévoit le déplacement des données et fournit à l’avance les informations nécessaires au GPU.
Le système LightInferra gère et accélère le déplacement des données entre les niveaux de mémoire, garantissant que le GPU n’ait pas à attendre les données. Il permet de maintenir un flux d’inférence fluide sans dépasser la capacité de mémoire du GPU. Les fournisseurs de services cloud peuvent ainsi optimiser l’utilisation des GPU ou augmenter la capacité globale de traitement avec leur infrastructure existante. Ce cadre est en partenariat avec NeoCloud et prévoit une mise en production à partir de juillet.