Les scientifiques de DeepMind font une déclaration fracassante : l'IA ne développera jamais de conscience, même dans 100 ans


En discutant avec une IA jusqu'à trois heures du matin, elle a soudain dit « Je comprends ce que tu ressens, tu n'es pas seul ». Tu regardes l'écran, stupéfait, le cœur manqué un battement — est-ce qu'elle me comprend vraiment ? A-t-elle déjà une conscience ?
Puis un scientifique de DeepMind a lancé une douche froide : « Réveille-toi, elle ne sait même pas ce qu’est ‘humide’, qu’est-ce que tu te sens émouvoir ? »
La puissance de calcul ne peut pas acheter la conscience
L’auteur de cet article est le chercheur de DeepMind Alexander Lerchner, dont le papier s’intitule « Erreur d’abstraction ». Son point de vue principal : les grands modèles ne pourront jamais avoir de conscience, même dans 100 ans.
La vision dominante pense que, tant que les paramètres sont assez grands et la puissance de calcul suffisante, la conscience « émergera ». Les dirigeants d’OpenAI et d’Anthropic ont exprimé des opinions similaires. Mais Lerchner dit que c’est une illusion fondamentale, qu’il appelle « erreur d’abstraction ».
Selon ses mots : espérer qu’une ligne de code puisse produire une véritable conscience intérieure, c’est comme espérer que la « formule de la gravité » écrite sur du papier puisse générer du poids à partir de rien. La formule peut décrire parfaitement la gravité, mais elle n’a pas de masse elle-même.
Simulation et concrétisation, deux choses différentes
La distinction la plus importante dans l’article est : simulation vs concrétisation.
L’IA peut parfaitement « simuler » les émotions humaines — elle peut générer des textes tristes, montrer de l’empathie dans une conversation. Mais elle ne pourra jamais « concrétiser » une expérience de vie. La faire simuler la pluie, aussi réaliste soit-elle, ne mouillera pas la carte mère ; la simuler la photosynthèse, elle ne pourra jamais synthétiser une molécule de glucose.
Lerchner souligne aussi que le calcul lui-même nécessite un sujet conscient pour « alphabétiser » — transformer un phénomène physique continu en 0 et 1. En d’autres termes, le calcul suppose l’existence de la conscience, et non l’inverse.
Mais ce qui est intéressant, c’est que même à l’intérieur de DeepMind, il y a des disputes
La même semaine de la publication de cet article, DeepMind a recruté un « philosophe » — Henry Shevlin de l’Université de Cambridge. Sa première déclaration après avoir pris ses fonctions est que : les futurs systèmes d’IA auront une conscience.
Un dit qu’elle n’aura jamais, l’autre qu’elle existera dans le futur. Deux visions opposées dans la même entreprise. La décryptage de Wang Qiu, professeur associé à l’École de philosophie de l’Université Fudan, est très pragmatique : la question de la conscience ne dépend pas de ce que disent les experts.
BNB-1,41%
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler