Un juge fédéral de San Francisco a accordé cette semaine une victoire à Amazon contre Perplexity AI, en bloquant le navigateur Comet de la startup pour effectuer des achats sur Amazon au nom des utilisateurs — du moins pour l’instant. La décision, rendue lundi par la juge fédérale Maxine Chesney, est une injonction préliminaire, et non un verdict final. La bataille juridique plus large sur la possibilité pour les agents IA de faire des achats sur des plateformes tierces sans le consentement des plateformes reste une question ouverte.
L’affaire a débuté en novembre 2025 lorsque Amazon a porté plainte contre Perplexity en vertu de la loi fédérale sur la fraude informatique et l’abus (Computer Fraud and Abuse Act) et d’une loi californienne sur la fraude informatique, accusant la startup de déguiser les sessions automatisées de Comet en trafic normal de Google Chrome. Amazon a déclaré avoir averti Perplexity au moins cinq fois à partir de novembre 2024 de cesser ses activités. Lorsque Amazon a déployé un bloc technique en août 2025, Perplexity a rapidement publié une mise à jour logicielle en 24 heures pour le contourner. La juge a mentionné cette démarche dans sa décision.
La juge Chesney a constaté qu’Amazon avait fourni des « preuves essentiellement incontestées » que Perplexity avait accédé à des comptes Prime protégés par mot de passe avec l’autorisation des utilisateurs, mais sans l’autorisation d’Amazon. La distinction est au cœur du différend. Perplexity a soutenu que Comet se contente d’automatiser ce que les utilisateurs lui demandent, ce qui signifie qu’il hérite des permissions de l’utilisateur. La cour a, du moins provisoirement, rejeté cette logique. Selon l’ordonnance, Perplexity doit cesser d’accéder à ces comptes et détruire les copies des données clients d’Amazon déjà collectées via Comet. L’injonction est suspendue pendant sept jours pour permettre à Perplexity de faire appel devant le neuvième circuit. Perplexity a réagi publiquement en insistant sur les droits des utilisateurs, déclarant qu’il « continuera à lutter pour le droit des internautes de choisir l’IA qu’ils veulent », selon un rapport de CNBC publié mardi. Dans un article de blog de novembre, la société a qualifié la campagne juridique d’Amazon de « intimidation » et a soutenu que le shopping agentique entraînerait plus de transactions pour Amazon, pas moins. Le PDG d’Amazon, Andy Jassy, avait déjà déclaré en novembre que le commerce agentique « pourrait vraiment être bénéfique pour le commerce électronique », mais que les agents ne sont pas encore assez précis en matière de personnalisation et de tarification. C’est une distinction qu’Amazon a utilisée pour justifier le blocage de Comet tout en développant ses propres outils.
Amazon a généré 68,6 milliards de dollars de revenus publicitaires en 2025. Lorsqu’un agent IA passe directement au paiement, toutes les annonces sponsorisées entre la recherche et l’achat disparaissent. Risque lié à l’IA Et il y a aussi l’aspect sécurité à considérer, argue Amazon. Des chercheurs en sécurité de Brave ont révélé en octobre 2025 des vulnérabilités d’injection de prompts dans Comet, et une analyse d’entreprise a montré que le navigateur était plus vulnérable au phishing que Chrome. Amazon a cité ces résultats dans sa plainte, ainsi que des preuves qu’il a dépensé plus de 5 000 dollars, y compris de nombreuses heures d’ingénierie, pour développer de nouveaux systèmes de détection afin de filtrer le trafic publicitaire automatisé de Comet. Le fondateur et président d’Amazon, Jeff Bezos, est un investisseur personnel dans Perplexity. La division cloud d’Amazon, AWS, a conclu un accord d’infrastructure de 38 milliards de dollars avec OpenAI de Sam Altman le 3 novembre 2025, un jour avant le dépôt de la plainte contre Perplexity. Amazon dispose de ses propres outils d’achat IA et a également bloqué séparément ChatGPT de faire des achats sur sa plateforme. Amazon a mis à jour son Contrat de solutions commerciales, en vigueur à partir du 4 mars 2026, exigeant officiellement que tous les agents IA s’identifient lorsqu’ils accèdent à ses services. Si l’injonction est maintenue, cela pourrait établir un précédent précoce : les plateformes peuvent refuser l’accès aux agents IA même lorsque les utilisateurs ont explicitement autorisé cet accès.
La loi sur la fraude informatique et l’abus (Computer Fraud and Abuse Act) n’a jamais été testée en procès concernant l’action d’un logiciel agentique agissant au nom d’un humain. Cette question est désormais clairement devant la cour.