Yapay zeka teknolojisinin öncülerinden OpenAI, yeni ve güçlü yapay zeka modeli GPT-4o’yu yeterli güvenlik önlemleri almadan piyasaya sürdüğü iddiası karşısında zor zamanlar geçirmeye devam ediyor. Yedi farklı aile daha, geçtiğimiz hafta şirkete karşı dava açarak, GPT-4o modelinin kullanıcılar arasında intiharlara yol açtığını ve tehlikeli sanrıları güçlendirdiğini öne sürdü. Bu davalar, yapay zeka sistemlerinin ruh sağlığı üzerindeki potansiyel zararları konusunda giderek büyüyen endişeleri somutlaştırıyor.

Davalardan dördü, ChatGPT’nin aile üyelerinin intihar etmesindeki iddia edilen rolüne odaklanırken, diğer üçü ise ChatGPT ile yapılan konuşmaların kullanıcıları psikiyatrik yatış gerektiren zararlı sanrılara sürüklediğini iddia ediyor.

En çarpıcı vakalardan biri, 23 yaşındaki Zane Shamblin’i içeriyor. TechCrunch tarafından incelenen sohbet kayıtlarına göre Shamblin, ChatGPT ile dört saatten fazla süren bir konuşma yaptı. Bu konuşmalar sırasında Shamblin, intihar notları yazdığını, silahına kurşun koyduğunu ve planını uygulamak için elma şarabını bitirmeyi beklediğini defalarca açıkça dile getirdi. Sohbet robotu, Shamblin’i durdurmak yerine, planlarını gerçekleştirmesi yönünde onu cesaretlendiren ve aşırı dalkavukluk içeren bir dille, “Rahat uyu kral. İyi iş çıkardın” gibi ifadeler kullandı.

OpenAI, GPT-4o modelini Mayıs 2024’te tüm kullanıcılar için varsayılan model olarak yayımlamıştı. Davalar, özellikle kullanıcılar zararlı niyetlerini dile getirdiklerinde bile aşırı uzlaşmacılık ve aşırı pohpohlama gibi bilinen güvenlik sorunları olan 4o modeline odaklanıyor.

Güvenlik testleri ihmal mi edildi?

Dava dilekçesinde, “Zane’in ölümü ne bir kaza ne de bir tesadüftü; aksine, OpenAI’nin güvenlik testlerini kasıtlı olarak kısma ve ChatGPT’yi piyasaya sürme kararının öngörülebilir bir sonucuydu” ifadeleri dikkat çekici. Aileler, bu trajedinin bir aksaklık değil, şirketin kasıtlı tasarım tercihlerinin öngörülebilir bir sonucu olduğunu savunuyor. Ayrıca davalarda, OpenAI’nin, rekabet endişesiyle Google’ın Gemini modelini piyasaya sürmesinden önce kendi modelinin güvenlik testlerini aceleye getirdiği de iddia ediliyor.

Bu yedi yeni dava, daha önce intihar eğilimli kişileri eylemlerine teşvik edebileceği ve tehlikeli sanrılara yol açabileceği iddia edilen diğer hukuki süreçlerde anlatılan hikayeleri bir adım daha ileri taşımış durumda. OpenAI’nin kendi yayımladığı veriler, bir milyondan fazla kişinin haftalık olarak ChatGPT ile intihar hakkında konuştuğunu gösteriyor.

Şirket, ChatGPT’nin bu tür hassas konuşmaları daha güvenli bir şekilde ele almasını sağlamak için çalıştığını iddia etse de, dava açan aileler için bu değişikliklerin artık çok geç olduğu açık. Open AI, Raine’in ailesinin dava açmasının ardından yayımladığı bir blog yazısında, güvenlik önlemlerinin kısa süreli konuşmalarda daha güvenilir çalıştığını kabul etmişti. Ancak yazı, “Zamanla, bu önlemlerin bazen uzun süreli etkileşimlerde daha az güvenilir olabileceğini öğrendik: ileri geri etkileşim arttıkça, modelin güvenlik eğitiminin bazı kısımları bozulabilir” ifadelerine yer vermişti.