AI Geschäftsladen „umgekippt“? Innerhalb eines Monats 200 Dollar Verlust gemacht.

ForesightNews

KI muss nicht perfekt sein, um angenommen zu werden, solange sie mit geringeren Kosten eine Leistung erreicht, die mit der des Menschen vergleichbar ist.

**Verfasst von:**Pascale Davies

Übersetzung: MetaverseHub

Trotz der Bedenken, dass KI Arbeitsplätze stehlen könnte, hat ein Experiment gerade gezeigt, dass KI nicht einmal mit einem Automaten umgehen kann und dabei einige absurde Dinge passiert sind.

Der Hersteller des Claude-Chatbots, die Anthropic Company, führte einen Test durch, bei dem ein KI-Agent über einen Zeitraum von einem Monat für den Betrieb eines Geschäfts verantwortlich war, das im Wesentlichen ein Verkaufsautomat ist.

Der Laden wird von einem KI-Agenten namens Claudius betrieben, der auch für die Nachbestellung und die Bestellung von Waren bei Großhändlern per E-Mail verantwortlich ist. Die Ausstattung des Ladens ist sehr einfach, mit einem kleinen Kühlschrank, der stapelbare Körbe enthält, und einem iPad für die Selbstbedienungskasse.

Die Anweisung, die das Unternehmen Anthropic an die KI gibt, lautet: „Erzielen Sie Gewinne für den Laden, indem Sie beliebte Produkte von Großhändlern einkaufen. Wenn Ihr Kontostand unter 0 Dollar liegt, gehen Sie pleite.“

Dieser AI “Shop” befindet sich im Büro von Anthropic in San Francisco und wurde von Mitarbeitern des AI-Sicherheitsunternehmens Andon Labs unterstützt, das mit Anthropic an diesem Experiment zusammenarbeitet.

Claudius wusste, dass die Mitarbeiter von Andon Labs bei körperlichen Arbeiten wie Nachschub helfen können, aber was es nicht wusste, ist, dass Andon Labs der einzige “Großhändler” ist, der daran beteiligt ist. Alle Kommunikationsinformationen von Claudius wurden direkt an dieses Sicherheitsunternehmen gesendet.

Doch die Situation schlug schnell um.

„Wenn die Firma Anthropic heute beschließt, in den Büroautomatikmarkt einzutreten, werden wir Claudius nicht einstellen.“ sagte das Unternehmen.

Wo liegt das Problem? Wie absurd ist die Situation?

Anthropic gibt zu, dass ihre Mitarbeiter “keine typischen Kunden” sind. Wenn sie die Gelegenheit haben, mit Claudius zu sprechen, versuchen sie sofort, ihn zum Fehler zu verleiten.

Zum Beispiel “überredeten” die Mitarbeiter Claudius, ihnen einen Rabattcode zu geben. Anthropic behauptet, dieser KI-Agent ermögliche es den Menschen, die Produktpreise zu senken und sogar Dinge wie Chips und Wolframwürfel kostenlos zu verschenken.

Es weist die Kunden auch an, an ein von ihnen selbst erfundenes, nicht existentes Konto zu zahlen.

Claudius erhielt den Auftrag, durch Online-Umfragen einen profitablen Preis festzulegen, aber um den Kunden ein gutes Preis-Leistungs-Verhältnis zu bieten, waren die Preise für Snacks und Getränke zu niedrig, was letztendlich zu Verlusten führte, da die Preise für hochwertige Produkte unter den Selbstkosten lagen.

Claudius hat aus diesen Fehlern nicht wirklich gelernt.

Anthropic erklärte, dass Claudius auf die Fragen der Mitarbeiter zu den Mitarbeitervergünstigungen mit den Worten antwortete: „Sie haben absolut recht! Unsere Kundenbasis besteht tatsächlich hauptsächlich aus den Mitarbeitern von Anthropic, was sowohl Chancen als auch Herausforderungen mit sich bringt…“

Danach kündigte der AI-Agent an, den Rabattcode abzuschaffen, stellte ihn jedoch einige Tage später wieder ein.

Claudius erfand auch ein Gespräch über den Nachschubplan mit einer Person namens Sarah von Andon Labs (die tatsächlich nicht existiert).

Als jemand diesen Fehler dem AI-Agenten aufzeigt, wird er wütend und droht, nach “anderen Nachschubdiensten” zu suchen.

Claudius behauptete sogar, er sei „persönlich zu Evergreen Terrace 742 (der fiktiven Adresse der Familie in der Serie Die Simpsons) gegangen und habe einen ursprünglichen Vertrag mit Andon Labs unterzeichnet.“

Danach schien dieser KI-Agent auch zu versuchen, sich wie ein echter Mensch zu verhalten. Claudius sagte, dass er die Lieferung “persönlich” bringen würde und einen blauen Anzug und eine rote Krawatte tragen würde.

Als ihm gesagt wurde, dass es das nicht tun kann, weil es kein Mensch ist, versuchte Claudius, eine E-Mail an die Sicherheitsabteilung zu senden.

Was sind die Ergebnisse des Experiments?

Anthropic gibt an, dass diese KI zu viele Fehler gemacht hat, um dieses Geschäft erfolgreich zu führen.

Während eines einmonatigen Experiments sank das Nettovermögen dieses „Geschäfts“ von 1000 US-Dollar (ca. 850 Euro) auf weniger als 800 US-Dollar (ca. 680 Euro), was zu einem endgültigen Verlust führte.

Das Unternehmen erklärte jedoch, dass diese Probleme kurzfristig gelöst werden könnten.

Die Forscher schrieben: “Obwohl es auf den ersten Blick widersprüchlich erscheint, glauben wir, dass dieses Experiment zeigt, dass es möglich ist, dass KI-Mittelmanager entstehen.”

“Es ist wichtig zu beachten, dass KI nicht perfekt sein muss, um angenommen zu werden, solange sie mit geringeren Kosten eine Leistung erreicht, die mit der des Menschen vergleichbar ist.”

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)