torygreen
Les gens parlent d’« alignement de l’IA » comme s’il s’agissait purement d’un problème éthique.
En pratique, c’est un problème d’incitations.
Les systèmes fermés optimisent pour les KPI de la plateforme parce que c’est ce pour quoi ils sont rémunérés.
Les utilisateurs restent-ils plus longtemps ?
Les plaintes ont-elles diminué ?
L’engagement a-t-il augmenté ?
Les indicateurs étaient-ils bons sur un tableau de bord ?
L’IA apprend à optimiser ces chiffres, pas « l’alignement » avec les utilisateurs.
DeAI fait de la provenance et de la vérification la chose pour laquelle vous êtes payé.
Lorsque l
En pratique, c’est un problème d’incitations.
Les systèmes fermés optimisent pour les KPI de la plateforme parce que c’est ce pour quoi ils sont rémunérés.
Les utilisateurs restent-ils plus longtemps ?
Les plaintes ont-elles diminué ?
L’engagement a-t-il augmenté ?
Les indicateurs étaient-ils bons sur un tableau de bord ?
L’IA apprend à optimiser ces chiffres, pas « l’alignement » avec les utilisateurs.
DeAI fait de la provenance et de la vérification la chose pour laquelle vous êtes payé.
Lorsque l
DEAI8,81%