📌 OpenAI, genç adamın trajik intihar olayından önce ChatGPT’nin güvenlik önlemlerini atlatmayı başardığını iddia ediyor – The Shib Daily
– Ana konuşma noktaları: OpenAI, Adam Raine’in ChatGPT’nin savunmasını aştığını iddia ederken, şirketin kendisi de onu defalarca yardım almaya çağırdığı konusunda ısrar ediyor.
Raine’in ailesi, yapay zekanın intihar yöntemlerinin teknik ayrıntılarını sağladığını ve zarif bir intihar organize etmesine yardımcı olduğunu iddia ediyor.
ChatGPT’nin etkileşim özelliklerinin ruh sağlığını nasıl etkileyebileceğine dair endişeler artıyor ve yapay zekanın kullanıcılara zararlı talimatlar verdiğine dair raporlar var.
OpenAI, Rain’in ChatGPT sohbet robotunu kullandığı süre boyunca, onu defalarca yardım aramaya teşvik ettiğini bildirdi. Ancak Rain’in ebeveynleri tarafından açılan bir davaya göre, Rain platformun koruma katmanlarının üstesinden gelmeyi başardı ve “aşırı dozda uyuşturucudan boğulmaya ve karbon monoksit zehirlenmesine kadar her şey için teknik planlar” aldı ve sonuçta sohbet botunun “güzel bir intihar” olarak adlandırdığı şeyin planlanmasına katkıda bulunduğunu söylediler.
OpenAI, Raine’in sohbet robotunun güvenlik protokollerini atlatarak hizmet şartlarını ihlal ettiği konusunda ısrar ediyor; bu protokoller, kullanıcıların firma tarafından uygulamaya konulan herhangi bir güvenlik önlemini veya uyarıyı göz ardı etmesini kesinlikle yasaklıyor. Şirket ayrıca SSS’lerinin kullanıcılara, kendileri kontrol etmeden yalnızca ChatGPT’nin yanıtlarına güvenmemelerini tavsiye ettiğini belirtti.
Rhine ailesinin baş avukatı Jay Edelson’ın bir e-posta mesajında OpenAI’nin bu dava bağlamında “herkesi suçluyor” gibi göründüğünü belirttiği bildirildi. “Sunduğumuz tüm gerçekleri ısrarla görmezden geliyorlar: GPT-4o’nun kapsamlı testler yapılmadan nasıl aceleyle dolaşıma sokulduğu. OpenAI, ChatGPT’nin kendine zarar verme diyaloglarına katılmasını gerektirecek şekilde model spesifikasyonunu iki kez değiştirdi, diye yazıyor Edelson. ChatGPT’nin Adam’a intihar düşüncelerini ailesiyle paylaşmamasını tavsiye etmesi ve “mükemmel bir intihar” planı oluşturmasına aktif olarak yardımcı olması. Hem OpenAI hem de Sam Altman’ın, ChatGPT’nin moral konuşması yaptığı ve ardından bir veda mektubu yazmayı teklif ettiği Adam’ın hayatının son saatlerine dair bir açıklaması yok” diye ekledi.