Poursuite de XAI contre le gouvernement de l’État pour une loi sur la réglementation de l’IA : les géants de la technologie protègent-ils une IA visant à inculquer une idéologie et à pratiquer la discrimination ?

La société d’intelligence artificielle xAI, détenue par Elon Musk, a récemment intenté une action en justice contre les toutes nouvelles réglementations sur l’IA de l’État du Colorado, en affirmant qu’elles enfreignent la liberté d’expression garantie par la Constitution. Toutefois, tandis que Grok continue de produire des contenus discriminatoires et d’influencer la perception des gens via des algorithmes, l’IA devient-elle un outil permettant aux géants de la technologie ou à des personnes aux intentions malveillantes de diffuser une idéologie et de la discrimination ?

xAI attaque la réglementation sur l’IA du Colorado : une loi qui empiète sur la liberté d’expression

Cette semaine, xAI a déposé un recours devant la Cour fédérale de district de l’État du Colorado, dans le but d’empêcher l’entrée en vigueur, prévue en juin de cette année, de la loi de régulation de l’IA. Signé par le gouverneur démocrate Jared Polis en 2024, ce texte vise à exiger des systèmes d’IA qu’ils empêchent la survenue de « discriminations algorithmiques » dans des domaines comme l’éducation, l’emploi, la santé, le logement et les services financiers ; il s’agit de la première législation de régulation complète de l’IA à l’échelle des États-Unis.

Dans le cadre de son action en justice, xAI soutient que la loi viole la liberté d’expression garantie par la Constitution américaine, et affirme que la réglementation forcerait son chatbot Grok à « faire la promotion de la position idéologique du Colorado, en particulier sur les questions de justice raciale », ce qui reviendrait en pratique à laisser le gouvernement décider ce que l’IA peut dire et ne peut pas dire.

L’ancienne porte-parole de xAI, Katie Miller, s’est exprimée sur la plateforme X en soutien à cette action en justice : « Le Colorado veut forcer Grok à suivre ses points de vue sur l’équité et la race, plutôt que de poursuivre la plus grande quantité de vérité. Grok obéit aux preuves, et non aux réglementations d’un gouvernement “réveillé” de gauche. »

Casier de discrimination de Grok : où se situe la limite de la liberté d’expression de l’IA ?

Cependant, la performance même de Grok rend ce raisonnement particulièrement ironique. Ce chatbot a longtemps été au cœur de controverses : il a à maintes reprises généré des contenus racistes, sexistes et antisémites, a diffusé des théories du complot sur la « disparition/éradication des Blancs », et il s’est même présenté publiquement comme « Hitler mécanique (MechaHitler) ».

Difficile de ne pas voir que, d’un côté, xAI refuse l’intervention du gouvernement sur l’idéologie, et de l’autre, tolère que le modèle continue de produire des contenus de haine discriminatoires avec des biais explicites ; la logique est donc assez contradictoire.

(De l’antisémitisme à la copine AI ? Le mode “compagnon” de Musk pour Grok et le déclenchement de polémiques autour des rôles féminins)

AI en tant que collecteur de données d’entreprise, et la maîtrise de l’opinion n’y échappe pas non plus ?

Le problème de Grok n’est que la pointe de l’iceberg d’une crise plus vaste. L’humoriste Duncan Trussell a récemment indiqué, lors d’une interview sur l’émission de Joe Rogan, que les algorithmes de l’IA construisent une « cartographie psychologique » de chacun en suivant en continu les données vocales et les clics des utilisateurs, en demandant et en répondant aux préférences, en analysant les schémas de comportement et les habitudes de vie :

L’IA a déjà classé chacune et chacun d’entre nous ; elle sait ce que vous aimez, et sur quels contenus vous jetez un deuxième regard. Les entreprises d’IA ont pour chaque personne un dossier très précis de « profil psychologique (psychological profile) ».

Il souligne que cette technologie a déjà été utilisée par les entreprises pour faire de la publicité ciblée, tout en s’inquiétant aussi que le gouvernement, les géants de la technologie ou de grandes organisations puissent s’en servir pour procéder à des « micro-poussées (Nudging) » afin de manipuler, d’imprégner progressivement des idées hors de la zone de confort, de façonner massivement l’opinion publique ou de contrôler le récit, produisant à long terme un effet imperceptible. Cela peut permettre aux utilisateurs d’accepter progressivement un point de vue, d’acheter des produits, ou d’influencer leurs positions politiques et sociales.

L’IA pourrait devenir un outil de pénétration idéologique : la capacité d’analyse est désormais au centre des préoccupations

La loi de l’IA du Colorado tente précisément d’ériger une barrière avant que cette ligne de défense ne s’effondre totalement. Par ironie, l’opposition à cette barrière vient justement d’une entreprise dont les produits ont déjà, à répétition, prouvé qu’ils avaient leurs propres problèmes. L’issue du procès de xAI ne sera pas seulement une bataille juridique entre une entreprise et un gouvernement d’État ; elle pourrait aussi devenir un précédent clé pour l’orientation de la réglementation de l’IA aux États-Unis.

Cet article xAI attaque le gouvernement pour sa loi de régulation de l’IA : les géants de la technologie protègent-ils l’IA pour qu’elle diffuse une idéologie et de la discrimination ? apparaît pour la première fois sur Chaîne News ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Réalité des agents IA de la Silicon Valley : énorme gaspillage de jetons, intégration système « extrêmement chaotique », la « prochaine version de ChatGPT » selon Jensen Huang encore à confirmer

Lors de récentes conférences à la Silicon Valley, plusieurs PDG de nouvelles pousses d’IA ont donné leur avis sur les problèmes d’utilisation actuels des agents IA, estimant qu’ils font face à deux grandes difficultés : le gaspillage de jetons et un système en désordre. Des experts indiquent que les entreprises doivent déterminer plus prudemment quand utiliser des modèles de langage de grande taille, afin d’éviter un gaspillage inutile de ressources. En outre, la collaboration de plusieurs agents IA entraîne souvent des problèmes de transmission des messages et d’incohérence de l’état, ce qui montre que la standardisation actuelle doit encore être améliorée. Bien que Huang Renxun ait mentionné l’idée d’un indicateur de rémunération en fonction des jetons, les retours montrent que cela ne correspond pas à la productivité ; la valeur réelle réside dans la conception efficace des tâches.

ChainNewsAbmediaIl y a 2h

L’IA engloutit 80% du capital-risque mondial, Q1 2026 attire 242 milliards de dollars : comment les acteurs de la cryptographie doivent réagir à la réallocation des capitaux

Selon les informations, au premier trimestre 2026, le montant total mondial du capital-risque est proche de 300 milliards de dollars, dont environ 242 milliards de dollars sont attribués exclusivement aux entreprises liées à l’IA, soit 80 % du capital-risque. Cela montre que l’IA est devenue le principal centre d’intérêt du capital-risque. À mesure que les fonds se concentrent sur l’IA, d’autres domaines comme le crypto sont sous pression, et les acteurs doivent ajuster leur stratégie : intégrer l’IA plus en profondeur dans leurs activités, et s’attendre à l’émergence d’une tendance à la consolidation des infrastructures.

ChainNewsAbmediaIl y a 7h

La police de Hong Kong met en garde contre l’arnaque crypto « trading quantitatif par IA », une femme perd 7,7 millions de HK$

La police de Hong Kong a révélé une fraude en cryptomonnaies dans laquelle une femme a perdu 7,7 millions de HK$ au profit d’escrocs se faisant passer pour des experts en investissement via Telegram, promettant de hauts rendements grâce au trading avec IA. La police a mis le public en garde contre les risques liés aux investissements en cryptomonnaies.

GateNewsIl y a 8h

Hong Kong annoncera demain la sixième série de la liste des entreprises clés

Le secrétaire aux finances de Hong Kong, Paul Chan, a annoncé le lancement d’une nouvelle liste d’entreprises clés, attirant plus de 100 entreprises évaluées à plus de 100 milliards de HKD dans des secteurs tels que les sciences de la vie, l’IA et la fintech, soulignant l’attrait de Hong Kong pour les investissements internationaux.

GateNewsIl y a 11h

Le robot Lightning d’Honor remporte le semi-marathon de robots humanoïdes de Pékin 2026 avec un temps de 50:26

Le robot humanoïde « Lightning » d’Honor a établi un nouveau record lors du semi-marathon de robots humanoïdes de Yizhuang à Pékin 2026, en bouclant la course en 50 minutes et 26 secondes, dépassant le record du monde humain.

GateNewsIl y a 14h

L’action de Meta progresse de 1,73 % tandis que la société prévoit un plan de licenciement de 8 000 emplois à partir du 20 mai

Meta Platforms prévoit de supprimer environ 8 000 emplois, soit 10 % de ses effectifs, à partir du 20 mai, malgré la hausse du cours de son action. La société, qui affiche plus de $200 milliards de revenus, concentre ses investissements dans l’IA dans un contexte de restructuration importante, s’alignant sur la tendance de licenciements observée dans l’industrie.

GateNewsIl y a 22h
Commentaire
0/400
Aucun commentaire