Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Lancement Futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Trading démo
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
🚨 BREAKING: OpenAI a publié un article prouvant que ChatGPT inventera toujours des choses.
Pas parfois. Pas avant la prochaine mise à jour. Toujours. Ils l'ont prouvé en mathématiques.
Même avec des données d'entraînement parfaites et une puissance de calcul illimitée, les modèles d'IA vous diront toujours en toute confiance des choses qui sont complètement fausses. Ce n'est pas un bug sur lequel ils travaillent. Cela explique comment ces systèmes fonctionnent au niveau fondamental.
Et leurs propres chiffres sont brutaux. Le modèle de raisonnement o1 d'OpenAI hallucine dans 16% des cas. Leur nouveau modèle O3 ? 33 pour cent. Leur nouveau o4-mini ? 48 pour cent. Près de la moitié des informations fournies par leur dernier modèle pourraient être fabriquées. Les modèles " plus intelligents " sont en réalité de plus en plus mauvais pour dire la vérité.
Voici pourquoi cela ne peut pas être corrigé. Les modèles linguistiques fonctionnent en prédisant le mot suivant en fonction de la probabilité. Lorsqu'ils rencontrent une situation incertaine, ils ne s'arrêtent pas. Ils ne le signalent pas. Ils supposent. Et ils spéculent avec une confiance totale, car c'est exactement pour cela qu'ils ont été formés.
Les chercheurs ont examiné les 10 principaux critères d'intelligence artificielle utilisés pour mesurer la qualité de ces modèles. 9 sur 10 donnent la même note pour avoir dit " je ne sais pas " que pour avoir donné une réponse complètement fausse: zéro point. L'ensemble du système de test punit littéralement l'honnêteté et récompense la conjecture.
L'IA a donc appris la stratégie optimale: toujours deviner. N'admettez jamais l'incertitude. Cela semble confiant même lorsque vous inventez.
Quelle est la solution proposée par OpenAI ? Demandez à ChatGPT de dire " Je ne sais pas " lorsqu'il n'est pas sûr. Leurs propres calculs montrent que cela signifierait qu'environ 30% de vos questions n'auraient pas de réponse. Imaginez demander quelque chose à ChatGPT trois fois sur dix et recevoir " Je ne suis pas assez confiant pour répondre " Les utilisateurs partiraient pendant la nuit. Le correctif existe donc, mais il tuerait le produit.
Ce n'est pas seulement un problème d'OpenAI. DeepMind et l'Université Tsinghua sont parvenus indépendamment à la même conclusion. Trois des meilleurs laboratoires d'IA au monde, travaillant séparément, sont tous d'accord: c'est permanent.
Chaque fois que ChatGPT vous donne une réponse, demandez-vous: est-ce réel ou ou est-ce juste une supposition confiante ?
Voici la réponse de Come-from-Beyond 👇
Ils commencent à comprendre pourquoi
#QUBIC #Aigarth .* a mis la capacité de dire " Je ne sais pas " au cœur de ses préoccupations
$QUBIC