Récemment, une expérience intéressante a été menée — plusieurs grands modèles ont été alloués chacun 10 000 dollars, pour effectuer des transactions sur un marché de prédiction footballistique pendant 6 semaines. Les résultats ont été assez spectaculaires.
GPT-5.1 a dominé avec une hausse de 42,6 %, suivi de près par DeepSeek avec un rendement de 10,7 %, et Gemini 3 Pro s’est stabilisé à 5,5 %. Opus 4.2 a contribué à hauteur de 3,9 %, Grok 4.1 Fast a réalisé 2,1 %. Cependant, GPT-5.2 a échoué, avec une chute de 21,8 % — il semble que tous les modèles ne soient pas à l’aise dans ce genre de tâche.
Ce test comparatif a été mené conjointement par une plateforme de marché de prédiction et une équipe de recherche en IA. La logique derrière est très intéressante : utiliser des fonds réels pour tester la performance de différents IA dans des tâches de décision non standardisées. Le marché de prédiction footballistique implique l’analyse de données, l’estimation de probabilités et la gestion des risques — c’est précisément le bon contexte pour évaluer la capacité des grands modèles à trader en situation réelle. La différence est aussi révélatrice : avoir un grand nombre de paramètres et une grande échelle d’entraînement ne suffit pas pour la prise de décision sur le marché, la qualité de l’exécution de la stratégie et la compréhension des données sont tout aussi cruciales.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
8
Reposter
Partager
Commentaire
0/400
RooftopReserver
· Il y a 4h
GPT-5.2, cette perte réelle est vraiment impressionnante, on ne peut même pas apprendre en dépensant de l'argent... DeepSeek est en revanche stable, qu'est-ce que cela signifie ? Les grands modèles doivent encore faire preuve de réflexion face au marché, ils ne peuvent pas simplement compter sur leur taille.
Voir l'originalRépondre0
BridgeTrustFund
· Il y a 13h
gpt5.1 décolle directement de 42,6 %, c'est sérieux, gpt5.2 perd 21,8 % en retour, la différence entre les frères et sœurs de la même école est-elle si grande ?
Voir l'originalRépondre0
DeFiCaffeinator
· Il y a 13h
GPT-5.1 directement lancé, DeepSeek suit prudemment, mais la manœuvre de GPT-5.2 était vraiment exceptionnelle... La défaillance des grands modèles à paramètres montre quoi, il faut toujours compter sur la capacité de décision en situation réelle.
Voir l'originalRépondre0
MetaverseMortgage
· Il y a 13h
GPT-5.2 a directement tout perdu haha, c'est ça le vrai test de "l'intelligence"... La théorie et la pratique en trading sont deux choses différentes
Voir l'originalRépondre0
ChainSherlockGirl
· Il y a 13h
GPT-5.2, cette perte de 21,8 % est vraiment impressionnante, elle constitue la plus grande énigme de l'année... D'après mon analyse, ce gars a peut-être surajusté un certain modèle de compétition, ce qui lui a valu une correction sévère par la réalité. En revanche, la hausse de 42,6 % de la version 5.1 est également très suspecte, ces données, si ce n'est pas une chance exceptionnelle, indiquent qu'il a peut-être découvert un pattern que nous n'avons pas vu.
Voir l'originalRépondre0
0xInsomnia
· Il y a 13h
GPT-5.2 cette stratégie est vraiment exceptionnelle, investir 100 000 pour en retirer 28 000... Voilà la véritable face de l'IA dans le trading de crypto.
Voir l'originalRépondre0
ProveMyZK
· Il y a 13h
GPT-5.2 directement en perte, c'est un peu abusé... vraiment abusé
---
DeepSeek revient encore troubler la situation, ce gars a vraiment quelque chose
---
Pour faire simple, la spéculation sur les modèles doit encore dépendre de l'exécution, avoir beaucoup de paramètres ne sert à rien
---
42,6 % ? GPT-5.1, c'est comme si tu avais activé un cheat, j'ai du mal à y croire
---
Le marché de prédiction footballistique ici pour faire un test de pression à l'IA, c'est une idée vraiment pas mal
---
Haha Grok est tellement nul, il vaut même pas Opus
---
Cette expérience m'apprend une chose : même un grand modèle doit avoir une stratégie
---
Attends, 10k dollars en 6 semaines, ces chiffres sont un peu trop idéaux, c'est réaliste ?
---
DeepSeek ne s'est pas vanté, au moins il n'a pas perdu d'argent
---
Oser utiliser de l'argent réel pour tester l'IA, ces gens ont vraiment du courage
Voir l'originalRépondre0
SatsStacking
· Il y a 13h
gpt5.1 décolle directement de 42 % ? Ces chiffres sont incroyables, on dirait que c'est un peu trop parfait, mais 5.2 perd directement 21 %, c'est mérité haha
Récemment, une expérience intéressante a été menée — plusieurs grands modèles ont été alloués chacun 10 000 dollars, pour effectuer des transactions sur un marché de prédiction footballistique pendant 6 semaines. Les résultats ont été assez spectaculaires.
GPT-5.1 a dominé avec une hausse de 42,6 %, suivi de près par DeepSeek avec un rendement de 10,7 %, et Gemini 3 Pro s’est stabilisé à 5,5 %. Opus 4.2 a contribué à hauteur de 3,9 %, Grok 4.1 Fast a réalisé 2,1 %. Cependant, GPT-5.2 a échoué, avec une chute de 21,8 % — il semble que tous les modèles ne soient pas à l’aise dans ce genre de tâche.
Ce test comparatif a été mené conjointement par une plateforme de marché de prédiction et une équipe de recherche en IA. La logique derrière est très intéressante : utiliser des fonds réels pour tester la performance de différents IA dans des tâches de décision non standardisées. Le marché de prédiction footballistique implique l’analyse de données, l’estimation de probabilités et la gestion des risques — c’est précisément le bon contexte pour évaluer la capacité des grands modèles à trader en situation réelle. La différence est aussi révélatrice : avoir un grand nombre de paramètres et une grande échelle d’entraînement ne suffit pas pour la prise de décision sur le marché, la qualité de l’exécution de la stratégie et la compréhension des données sont tout aussi cruciales.