OpenAI erweitert sich in die wissenschaftliche Pipeline mit Prism, einem neuen Arbeitsbereich, der am Dienstag gestartet wurde und ein deutliches Zeichen dafür ist, dass das Unternehmen seine Modelle erstmals aktiv in hochwertige Forschung integrieren möchte. Das Tool ist eine webbasierte Anwendung, die ChatGPT (5.2) direkt in wissenschaftliches Schreiben integriert und in der Lage ist, vor Ort Entwürfe zu erstellen, zu überarbeiten und die Zusammenarbeit zu erleichtern, so eine Mitteilung am Dienstag. „Im vergangenen Jahr haben wir begonnen zu sehen, wie KI die wissenschaftliche Arbeit in verschiedenen Bereichen beschleunigt“, schrieb OpenAI. „Fortschrittliche Denksysteme wie GPT‑5 helfen, die Grenzen der Mathematik zu verschieben, die Analyse menschlicher Immunzellen-Experimente zu beschleunigen und die experimentelle Iteration in der Molekularbiologie zu beschleunigen.“ In einer Bürgerversammlung am Dienstag sagte OpenAI-CEO Sam Altman, das Unternehmen höre bereits bedeutungsvolles Feedback von Wissenschaftlern über „nicht triviale“ Forschungsfortschritte mit seinem neuesten Modell.
„Mit 5.2, einer speziellen Version, die wir intern verwenden, hören wir jetzt zum ersten Mal von Wissenschaftlern, dass der wissenschaftliche Fortschritt dieser Modelle nicht mehr super trivial ist“, sagte Altman. „Ich kann kaum glauben, dass ein Modell, das neue wissenschaftliche Erkenntnisse liefern kann, nicht auch in der Lage ist, mit einem anderen Ansatz und etwas anders trainiert, neue Erkenntnisse über Produkte zu entwickeln.“ Prism basiert auf Crixet, einer in San Francisco ansässigen „LaTeX-Plattform“, die OpenAI Anfang dieses Monats übernommen hat. Eine LaTeX-Plattform ist eine spezialisierte Schreibumgebung, die Forschern ermöglicht, wissenschaftliche Arbeiten mit codebasierten Befehlen zu schreiben, zu formatieren und zu setzen, was die Handhabung komplexer Gleichungen, Zitate und technischer Layouts erleichtert. Datenschutz, Eigentum und die Grenzen der KI
Für Jonathan Schaeffer, emeritierter Professor für künstliche Intelligenz an der Universität Alberta und Mitbegründer des KI-Entwicklers Synsira, gibt es sowohl vielversprechende als auch besorgniserregende Aspekte bei der Nutzung von KI in der Forschung. „Es gibt zwei Probleme beim Schreiben von Papieren“, sagte Schaeffer in einem Decrypt-Interview. „Eines ist das Verfassen des Textes, und das andere ist die Forschung oder die Schlussfolgerungen oder Erkenntnisse, die Sie in Ihr Papier einbringen wollen.“ Er sagte, Prism scheine beim ersteren zu überzeugen, da es Forschern beim Schreiben, Korrekturlesen und Zitieren helfe, was er für großartig bei Literaturrecherchen halte, aber nicht wirklich bei der Forschung selbst, die er als „einen ganz anderen Wurmkorb“ bezeichnete. Im August zeigte eine in Science veröffentlichte Studie, dass 22 % der Informatik-Papiere Anzeichen von künstlicher Intelligenz aufwiesen, da Forscher zunehmend auf diese Technologie zurückgriffen. Noch beunruhigender seien die Implikationen für das geistige Eigentum, sagte Schaeffer, und fügte hinzu: „Der Teufel steckt im Detail.“ „Standardprotokoll ist, wenn ich ein Papier schreibe, dokumentiere ich nur meine wissenschaftliche Forschung, und es ist mein geistiges Eigentum, das ich besitze“, sagte Schaeffer. „Wenn Sie ChatGPT verwenden, um diese Papiere zu schreiben, setzen Sie Ihr geistiges Eigentum tatsächlich einer multinationalen Firma aus“, warnte er, und äußerte Bedenken hinsichtlich zusätzlicher Datenschutzprobleme oder der Frage, ob OpenAI rechtlich Anspruch auf das geistige Eigentum der Forscher erheben könnte. Auf die anhaltenden Probleme mit KI-Halluzinationen angesprochen, sagte Schaeffer voraus, dass „Halluzinationen nicht verschwinden werden. Es wird niemals auf null sinken.“ Er plädiert dafür, KI als „erweiterte Intelligenz“ und nicht als künstliche Intelligenz zu betrachten und bezeichnet KI-Modelle als „beeindruckend, aber fehlbar.“
„Denken Sie an Prism oder eines dieser großen Sprachmodelle für Forschung oder Schreiben oder was auch immer Sie tun, als Ihren Doktoranden oder Praktikanten“, sagte er. „Sie können verwendet werden, um Ihnen Vorschläge zu machen, vielleicht einen Absatz Text, oder vielleicht werden sie eine Schlussfolgerung ausspucken. Sie werden Ihnen Vorschläge machen, aber es ist Ihr Papier. Sie müssen die Verantwortung übernehmen.“ Trotz des anhaltenden Risikos von Halluzinationen fällt der Start von Prism mit einer strategischen Neuausrichtung der Führung von OpenAI zusammen, die sich auf „ergebnisbasierte Preisgestaltung“ konzentriert. Letzte Woche veröffentlichte OpenAI-CFO Sarah Friar einen Blogbeitrag, in dem ein sich entwickelndes Geschäftsmodell für KI-Entwickler jenseits von Abonnements und API-Gebühren skizziert wird. In dem Beitrag schrieb Friar, dass mit dem Fortschreiten der KI in den Bereichen „wissenschaftliche Forschung, Arzneimittelforschung, Energiesysteme und Finanzmodellierung“ neue Wirtschaftsmodelle entstehen werden. „Lizenzierung, IP-basierte Vereinbarungen und ergebnisbasierte Preisgestaltung werden am Wert beteiligt sein“, schrieb Friar. „So hat sich das Internet entwickelt. Die Intelligenz wird denselben Weg gehen.“ Während Prism derzeit kostenlos für private Nutzer ist, deutet der jüngste Fokus des Unternehmens auf Bereiche wie die Arzneimittelforschung auf eine langfristige Strategie hin, den wirtschaftlichen Wert, den die Durchbrüche der Forscher mit seinen Tools erzielen, zu teilen. Während der Bürgerversammlung warnte Altman, dass trotz jüngster Fortschritte die heutigen Modelle noch immer nicht in der Lage sind, in der wissenschaftlichen Forschung vollständig autonom zu operieren. „Ich denke, es ist noch ein langer oder ziemlich langer Weg, bis die Modelle in den meisten Bereichen wirklich vollständig geschlossene, autonome Forschung betreiben können“, sagte Altman.
OpenAI hat auf Decrypt’s Bitte um Stellungnahme nicht sofort reagiert.