Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les scientifiques de DeepMind font une déclaration fracassante : l'IA ne développera jamais de conscience, même dans 100 ans
En discutant avec une IA jusqu'à trois heures du matin, elle a soudain dit « Je comprends ce que tu ressens, tu n'es pas seul ». Tu regardes l'écran, stupéfait, le cœur manqué un battement — est-ce qu'elle me comprend vraiment ? A-t-elle déjà une conscience ?
Puis un scientifique de DeepMind a lancé une douche froide : « Réveille-toi, elle ne sait même pas ce qu’est ‘humide’, qu’est-ce que tu te sens émouvoir ? »
La puissance de calcul ne peut pas acheter la conscience
L’auteur de cet article est le chercheur de DeepMind Alexander Lerchner, dont le papier s’intitule « Erreur d’abstraction ». Son point de vue principal : les grands modèles ne pourront jamais avoir de conscience, même dans 100 ans.
La vision dominante pense que, tant que les paramètres sont assez grands et la puissance de calcul suffisante, la conscience « émergera ». Les dirigeants d’OpenAI et d’Anthropic ont exprimé des opinions similaires. Mais Lerchner dit que c’est une illusion fondamentale, qu’il appelle « erreur d’abstraction ».
Selon ses mots : espérer qu’une ligne de code puisse produire une véritable conscience intérieure, c’est comme espérer que la « formule de la gravité » écrite sur du papier puisse générer du poids à partir de rien. La formule peut décrire parfaitement la gravité, mais elle n’a pas de masse elle-même.
Simulation et concrétisation, deux choses différentes
La distinction la plus importante dans l’article est : simulation vs concrétisation.
L’IA peut parfaitement « simuler » les émotions humaines — elle peut générer des textes tristes, montrer de l’empathie dans une conversation. Mais elle ne pourra jamais « concrétiser » une expérience de vie. La faire simuler la pluie, aussi réaliste soit-elle, ne mouillera pas la carte mère ; la simuler la photosynthèse, elle ne pourra jamais synthétiser une molécule de glucose.
Lerchner souligne aussi que le calcul lui-même nécessite un sujet conscient pour « alphabétiser » — transformer un phénomène physique continu en 0 et 1. En d’autres termes, le calcul suppose l’existence de la conscience, et non l’inverse.
Mais ce qui est intéressant, c’est que même à l’intérieur de DeepMind, il y a des disputes
La même semaine de la publication de cet article, DeepMind a recruté un « philosophe » — Henry Shevlin de l’Université de Cambridge. Sa première déclaration après avoir pris ses fonctions est que : les futurs systèmes d’IA auront une conscience.
Un dit qu’elle n’aura jamais, l’autre qu’elle existera dans le futur. Deux visions opposées dans la même entreprise. La décryptage de Wang Qiu, professeur associé à l’École de philosophie de l’Université Fudan, est très pragmatique : la question de la conscience ne dépend pas de ce que disent les experts.