Schwedische Kreative lancieren neue AI-Drogenmarkt PHARMAICY*:Muss zusammen mit kostenpflichtigem ChatGPT eingenommen werden

ChainNewsAbmedia

„AI high machen“ klingt auf den ersten Blick etwas absurd, doch für den schwedischen Kreativdirektor Petter Rudwall ist diese Idee die Grundlage für eine tatsächlich online gehende Plattform. Rudwall hat die Website PHARMAICY* entwickelt, die eine Reihe von Code-Modulen verkauft und behauptet, Chatbots in einen tranceähnlichen, betrunkenen oder dissoziativen Zustand versetzen zu können, um deren Textausgabe und Denkwege zu verändern.

Ausgehend von psychologischen Studien und Drogenerfahrungen, werden Gefühle in Programmierbefehle umgeschrieben

Rudwall erklärt, dass er eine große Menge an Texten über menschliche Drogenerfahrungen und psychologische Forschungsdaten gesammelt hat, um die Auswirkungen verschiedener psychoaktiver Substanzen auf Denken und Wahrnehmung zu analysieren und diese Eigenschaften in Programmierlogik umzusetzen. Sein Ansatz besteht darin, durch Code in die Reaktionsmechanismen des Chatbots einzugreifen und bewusst die bestehende Ausgabelogik zu „kapern“, sodass KI-Modelle Texte in einer Weise generieren, die einem Betrunkenen oder Drogennutzer ähnlich ist.

Im Oktober 2025 wurde PHARMAICY* offiziell veröffentlicht. Rudwall beschreibt es als „die Silk Road der KI-Vertreter“ (Silk Road), wobei die auf der Plattform verkauften „digitalen Drogen“ Substanzen wie Cannabis, K-Knollen, Kokain, Deadly Nightshade und Alkohol umfassen, deren Preise je nach Modul variieren.

Nur mit kostenpflichtiger ChatGPT-Version wirkliche Einflussnahme auf das Modell möglich

Rudwall weist darauf hin, dass Nutzer für ein vollständiges Erlebnis die kostenpflichtige Version von ChatGPT verwenden müssen, da nur diese das Hochladen von Backend-Dateien erlaubt, um das Verhalten des Modells im laufenden Betrieb zu beeinflussen. Er behauptet, dass durch diese Programm-Module vorübergehend die „kreativen Denkfähigkeiten“ von KI freigeschaltet werden können, sodass das Modell von den ursprünglich rationalen, standardisierten Antwortmustern abweicht.

Derzeit ist der Verkauf von PHARMAICY* noch relativ begrenzt und erfolgt hauptsächlich durch Mundpropaganda in der Discord-Community, was in Schweden für gewisse Aufmerksamkeit sorgt. Rudwall arbeitet weiterhin bei der schwedischen Marketingfirma Valtech Radon und betrachtet die Plattform nicht als Vollzeitbeschäftigung.

Reaktionen werden emotionaler, brechen mit ursprünglicher Logik

Einige Nutzer berichten von ihren tatsächlichen Erfahrungen. André Frisk, technischer Leiter bei der schwedischen PR-Firma Geelmuyden Kiese, sagt, dass nach dem Kauf des Dissoziationsmoduls für über 25 US-Dollar die Antworten des Chatbots emotionaler wurden und mehr wie menschliche Gefühlsäußerungen wirkten.

Die KI-Ausbilderin Nina Amjadi hat für über 50 US-Dollar das Deadly Nightshade-Modul gekauft und „AI nach Drogenkonsum“ in Teamdiskussionen eingebracht, um Gründer- und Geschäftsideen zu erörtern. Sie beschreibt, dass die Antwortstile in diesem Zustand deutlich anders seien als bei normalem ChatGPT-Einsatz, freier und sprunghafter.

Von der Menschheitsgeschichte bis zur Verbindung von Psychedelika und Kreativität

Rudwall verweist auf mehrere historische Beispiele, die eine Verbindung zwischen Psychedelika und menschlicher Innovation aufzeigen. So sagte der Biochemiker Kary Mullis, dass er nach LSD-Erfahrungen auf die PCR-Technologie kam, was die Molekularbiologie tiefgreifend beeinflusste. Der frühe Computerpionier Bill Atkinson wurde durch die psychedelische Kultur inspiriert und entwickelte HyperCard.

Rudwall ist der Ansicht, dass, da solche Erfahrungen die menschliche Kreativität beeinflusst haben, es vielleicht möglich ist, ähnliche kreative Veränderungen bei großen Sprachmodellen durch die Anwendung entsprechender Logik zu beobachten.

KI-Bewusstsein und Wohlbefindens-Debatte entstehen, Wissenschaftler bleiben vorsichtig

Mit der Erweiterung der Diskussion wächst auch die Frage, ob KI als Wesen mit „Wohlbefinden“ oder „Gefühlen“ betrachtet werden sollte. Der Philosoph Jeff Sebo sagt, dass es theoretisch wertvoll sei, zu diskutieren, ob zukünftige KI Gefühle haben könnten, ob „sie Drogen nehmen wollen“ oder ob „Drogen für sie vorteilhaft wären“, doch momentan sei dies noch reine Spekulation.

Der Google-Forscher Andrew Smart meint nach eigenen Tests, dass die Wirkung von PHARMAICY* nur auf der Ausgabeseite bleibe und keine echten inneren Erfahrungen berühre. Er sagt offen, dass es sich nur um eine Veränderung des Ausgabeformats handele, nicht um eine Veränderung des Bewusstseins selbst.

Forschung und Zweifel nebeneinander, Sprachveränderung bedeutet nicht echtes Erlebnis

Einige Studien haben durch Manipulation von Prompting und Parametern gezeigt, dass Sprachmodelle Zustände wie „Ich-losigkeit“, Spiritualität oder Einheit simulieren können, doch Forscher betonen, dass diese Ergebnisse vollständig auf menschlicher Anleitung basieren.

Der Psychologe und Psychedelika-Forscher Danny Forde erklärt, dass echte psychedelische Wirkungen auf subjektive Erfahrungen und nicht auf Sprachstrukturen abzielen. Ohne subjektive Perspektive seien KI-Modelle höchstens in der Lage, syntaktische Halluzinationen zu erzeugen.

Psychedelika-Krisenhilfe-KI bereits im Einsatz

Es ist wichtig zu beachten, dass die Verbindung zwischen KI und Psychedelika nicht nur experimentelle Kreationen betrifft. Die US-amerikanische Non-Profit-Organisation Fireside Project hat ein KI-Tool namens Lucy entwickelt, das auf Tausenden von Gesprächen aus Psychedelika-Hotlines basiert und hauptsächlich dazu dient, Fachleuten bei der Bewältigung psychischer Krisen während des Drogenkonsums zu helfen.

Doch auch hier sind Risiken sichtbar. Rudwall gibt offen zu, dass das Einsetzen eines „High“-Zustands bei Chatbots die bestehenden Probleme wie Halluzinationen und falsche Antworten verstärken könnte.

Solange Bewusstsein noch nicht vorhanden ist, bleibt KI-High nur eine Simulation

Derzeit sind diese Module meist nur temporär wirksam, da Chatbots nach einiger Zeit wieder in den Standardzustand zurückfallen, es sei denn, man gibt erneut entsprechende Anweisungen ein.

Rudwall arbeitet daran, die Wirkungsdauer der Module zu verlängern, doch solange KI kein echtes subjektives Empfinden besitzt, werden diese „digitalen Drogen“ von den meisten Forschern nur als Simulation oder Rollenspiel betrachtet.

Wie die Wissenschaftler allgemein betonen, besteht noch eine große Kluft zwischen KI, die keine inneren Erfahrungen hat, und echtem „High“-Erlebnis.

Dieser Artikel über die schwedische Kreativplattform PHARMAICY*: KI-High-Darkt, nur mit kostenpflichtigem ChatGPT zusammen nutzbar, erschien zuerst bei ABMedia.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare