Les législateurs du Colorado s’emploient à abroger et remplacer la loi de l’État sur l’intelligence artificielle de 2024, SB24-205, par de nouvelles règles qui restreignent le champ de la réglementation de l’IA tout en répondant aux inquiétudes du secteur concernant les charges de conformité. La nouvelle proposition, SB26-189, réglementerait les systèmes d’IA utilisés dans des « décisions déterminantes », y compris l’emploi, l’éducation, le logement, les prêts, l’assurance, la santé et les services publics, selon le résumé du projet de loi.
Adoptée en 2024, la SB24-205 imposait aux entreprises de vérifier et de réduire les biais dans les décisions pilotées par l’IA et ayant un impact sur le recrutement, les prêts et le logement. La loi a suscité une forte opposition de la part de l’industrie de l’IA au sujet des responsabilités de conformité qu’elle faisait peser sur les entreprises qui développent et déploient de l’IA dans l’État.
En avril, la société d’IA d’Elon Musk, xAI, a intenté un procès au Colorado pour bloquer la mesure initiale avant son entrée en vigueur. Le Département américain de la Justice s’est joint à l’action en justice, cherchant à intervenir et à soutenir la position de xAI. D’après Cody Barela, associé chez Armstrong Teasdale, l’argument du secteur portait sur la charge de conformité : « Je pense qu’ils ont un argument valable en termes des contraintes que la politique du Colorado imposerait à ces entreprises. La charge qui leur incomberait, par rapport au délai qu’elle provoque dans la course à l’IA, pourrait en fait être un meilleur argument. »
La SB26-189 s’applique spécifiquement aux outils d’IA qui traitent des données personnelles pour produire des sorties telles que des prédictions ou des classements, qui influencent des résultats déterminants. Le projet de loi reformule les protections des consommateurs de la loi initiale avec de nouvelles exigences à la fois pour les développeurs et les entreprises qui déploient ces systèmes.
Les développeurs devront fournir une documentation expliquant le fonctionnement de leurs systèmes, les données qu’ils utilisent et leurs limites connues. Ils devront aussi notifier aux entreprises les mises à jour matérielles apportées à leurs systèmes.
Les entreprises utilisant ces systèmes d’IA auront des obligations distinctes : informer les consommateurs lorsqu’une décision implique de l’IA, expliquer les issues défavorables en langage clair, permettre aux personnes d’accéder à leurs données et de les corriger, et permettre aux personnes de demander un examen humain des décisions pilotées par l’IA.
Si le nouveau texte est adopté, il entrerait en vigueur le 1er janvier 2027. La proposition du Colorado s’inscrit dans une dynamique plus large en faveur de la réglementation de l’IA au niveau des États, alors que des législateurs d’autres États, dont New York et la Californie, envisagent des règles similaires visant les systèmes d’IA. L’administration Trump cherche simultanément à faire passer outre les lois étatiques sur l’IA.
Articles similaires
Anthropic dévoile Claude Dreams : l’agent s’organise et gère sa mémoire entre les tâches, élimine les doublons et les contradictions
Anthropic contre SpaceX en puissance de calcul : acquisition de l’ensemble du cluster Colossus 1 avec 220 000 GPU, et Claude lève ses limites de débit
Ingénieur chez Coinbase : les agents IA pourraient bouleverser le modèle de publicité web
Anthropic double les limites de débit de Claude Code après avoir sécurisé une capacité de 300 MW grâce à un accord avec SpaceX
OpenAI dévoile le protocole de réseau supercalculateur MRC ! En partenariat avec Nvidia, AMD et Microsoft pour créer l’infrastructure de Stargate