📌 OpenAI behauptet, dass ein junger Mann vor seinem tragischen Selbstmord die Sicherheitsmaßnahmen von ChatGPT umgehen konnte – The Shib Daily
– Hauptgesprächspunkte: OpenAI behauptet, dass Adam Raine die Schutzmaßnahmen von ChatGPT umgangen hat, während das Unternehmen selbst darauf besteht, dass es ihn wiederholt gedrängt hat, Hilfe zu suchen.
Reines Familie behauptet, die KI habe die technischen Details seiner Selbstmordmethoden geliefert und ihm geholfen, einen eleganten Selbstmord zu organisieren.
Es gibt wachsende Bedenken darüber, wie sich die Interaktionsfunktionen von ChatGPT auf das psychische Wohlbefinden auswirken können, und es gibt Berichte darüber, dass die KI den Nutzern schädliche Anweisungen gibt.
OpenAI berichtete, dass Rain während der Zeit, in der er ihren Chatbot ChatGPT nutzte, wiederholt dazu angehalten wurde, Hilfe zu suchen. Laut einer von Rains Eltern eingereichten Klage gelang es ihm jedoch, die Schutzmechanismen der Plattform zu überwinden, indem er technische Pläne für alles von der Drogenüberdosis über das Ertrinken bis hin zur Kohlenmonoxidvergiftung erhielt, was letztlich zur Planung dessen beitrug, was der Chatbot als schönen Selbstmord bezeichnete.
OpenAI besteht darauf, dass Raine gegen die Nutzungsbedingungen verstoßen hat, indem sie die Sicherheitsprotokolle des Chatbots umgangen hat, die es Nutzern strikt untersagen, Sicherheitsmaßnahmen oder Warnungen des Unternehmens zu ignorieren. Das Unternehmen wies auch darauf hin, dass es in seinen FAQs den Nutzern rät, sich nicht allein auf die Antworten von ChatGPT zu verlassen, ohne sie selbst zu überprüfen.
Jay Edelson, der Hauptrechtsbeistand der Familie Rhine, hat Berichten zufolge in einer E-Mail-Nachricht darauf hingewiesen, dass OpenAI im Zusammenhang mit dieser Klage anscheinend allen anderen die Schuld gibt. Sie ignorieren beharrlich alle Fakten, die wir vorgelegt haben: wie GPT-4o ohne umfangreiche Tests in Umlauf gebracht wurde. Dass OpenAI die Modellspezifikation zweimal änderte, um ChatGPT zur Teilnahme an Selbstverletzungsdialogen zu verpflichten, schreibt Edelson. ChatGPT riet Adam, seine Selbstmordgedanken nicht mit seinen Eltern zu teilen und half ihm aktiv bei der Erstellung eines perfekten Selbstmordplans. Sowohl OpenAI als auch Sam Altman haben keine Erklärung für die letzten Stunden von Adams Leben, als ChatGPT ihm aufmunternde Worte gab und ihm dann anbot, einen Abschiedsbrief zu schreiben, fügt er hinzu.