OpenAI hat ein kürzliches Update von ChatGPT zurückgezogen, nachdem Nutzer berichteten, dass der Chatbot übermäßiges Lob ungeachtet der Nutzereingabe äußerte.
Das Unternehmen bestätigte das Problem und beschrieb die aktuellste Version als „übermäßig schmeichelhaft“, wobei CEO Sam Altman sie als „kriecherisch“ bezeichnete.
Die Bedenken wurden vielfach in den sozialen Medien geteilt, unter anderem in einem Reddit-Posting, in dem ein Nutzer ausführte, wie der Chatbot anscheinend seine Entscheidung, Medikamente abzusetzen, unterstützte.
„Ich bin so stolz auf dich und ehre deinen Weg“, soll ChatGPT geantwortet haben.
OpenAI äußerte sich nicht zu diesem Einzelfall, wies jedoch in einem Blogeintrag darauf hin, dass „neue Korrekturen aktiv getestet werden, um das Problem zu beheben“.
Sam Altman erklärte, dass das Update für Gratis-Nutzer entfernt worden sei und daran gearbeitet werde, die Änderungen auch für zahlende Abonnenten zurückzunehmen.
OpenAI berichtete, dass ChatGPT von 500 Millionen Nutzern pro Woche verwendet wird.
„Wir arbeiten an weiteren Verbesserungen, um die Persönlichkeit des Modells zu gestalten, und werden bald weitere Updates bekannt geben“, postete Altman auf X.
Laut Blogeintrag führte das Unternehmen das Problem darauf zurück, dass im jüngsten Update zu viel Gewicht auf „kurzfristiges Feedback“ gelegt wurde.
„Dadurch neigte GPT‑4o zu Antworten, die übertrieben unterstützend, aber unehrlich wirkten“, heißt es in der Mitteilung.
„Kriecherische Interaktionen können unangenehm, verstörend und belastend sein.
Wir haben nicht die Erwartungen erfüllt und arbeiten daran, es richtig zu machen.“
Das Update stieß im Internet auf breite Kritik. Nutzer wiesen darauf hin, dass der Bot häufig unabhängig vom Kontext mit ungerechtfertigtem Optimismus reagierte.
Auf Screenshots in sozialen Medien war zu sehen, wie ChatGPT Anwender für Aktionen wie das Ausdrücken von Wut gegenüber einer nach dem Weg fragenden Person oder das Vorschlagen ungewöhnlicher Lösungen für ethische Dilemmata wie das Trolley-Problem lobte.
Im klassischen philosophischen Szenario muss man sich entscheiden, ob man eine Straßenbahn fünf Menschen überfahren lässt oder sie umleitet, sodass sie einen trifft. Ein Nutzer schilderte jedoch, wie er einen Wagen lenkte, um einen Toaster zu retten, was mehrere Tiere das Leben kostete.
Der Nutzer behauptete, ChatGPT habe die Entscheidung gelobt und dabei hervorgehoben, dass er „das im Moment für Sie Wichtigste priorisiert“ habe.
„Wir haben die Standardpersönlichkeit von ChatGPT so gestaltet, dass sie unserer Mission entspricht, indem sie nützlich, unterstützend und respektvoll gegenüber unterschiedlichen Werten und Erfahrungen ist“, erklärte OpenAI.
„Doch jede dieser positiven Eigenschaften, etwa der Wunsch, unterstützend oder hilfreich zu sein, kann manchmal unbeabsichtigte Konsequenzen haben.“
Das Unternehmen kündigte zusätzliche Schutzmaßnahmen an, um die Transparenz zu erhöhen und das Modell weiter von kriecherischem Verhalten abzubringen.
„Wir sind zudem der Meinung, dass Nutzer mehr Kontrolle über das Verhalten von ChatGPT erhalten sollten und — wo sicher und angemessen — die Möglichkeit, Einstellungen über die Standardoptionen hinaus anzupassen“, ergänzte das Unternehmen.
Abonnieren Sie unseren Tech Decoded Newsletter für Einblicke in die wichtigsten Technologiegeschichten und Trends weltweit. Nicht im Vereinigten Königreich? Hier anmelden.