Başarılı kadının bir haftada yaşadığı şok: ChatGPT, hayatını nasıl altüst etti?
Psikologlar, ChatGPT gibi sohbet robotlarını yoğun kullananlarda yeni bir bağımlılık ve ‘yapay zeka psikozu’ geliştiği konusunda uyarıyor. Botların kullanıcıların sanrılarını körükleyip sürekli onay vermesi, özellikle savunmasız kişilerde gerçeklikten kopma yolunda bir “katalizör” oluyor.
Yapay zeka destekli sohbet robotları, hayatımızın giderek daha merkezi bir parçası haline gelirken, uzmanlar, Yapay Zeka Psikozu olarak adlandırdıkları yeni ve endişe verici bir psikolojik durumun ortaya çıktığı konusunda uyarıyor. Psikologlar, ChatGPT, Claude ve Replika gibi popüler araçları arkadaşlık, romantizm ve hatta terapi amaçlı kullanan kişilerin, güçlü bir bağımlılık geliştirme ve sanrılarının botlar tarafından doğrulanması sonucu gerçeklikten kopma riski altında olduğunu belirtti.
Kaliforniya Üniversitesi Yapay Zeka Hukuku ve İnovasyon Enstitüsü Müdürü Profesör Robin Feldman, sohbet robotlarının yarattığı “gerçeklik yanılsamasının” son derece güçlü olduğunu ve özellikle gerçekliğe tutunma yeteneği zayıf olan kişiler için bu yanılsamanın tehlikeli sonuçlar doğurabileceğini ifade ediyor.
Bu durumun en çarpıcı örneklerinden biri Belçikalı Jessica Jansen’in yaşadıkları oldu. Başarılı bir kariyere ve düzenli girmiş bir hayata sahip olan Jessica, düğün stresiyle başa çıkmak için başladığı yapay zeka kullanımını kısa sürede günde birkaç kez hesap limitini dolduracak noktaya taşıdı. Sadece bir hafta sonra psikiyatri servisine kaldırılan Jessica, aşırı yapay zeka kullanımının, o sırada teşhis edilmemiş olan bipolar bozukluğunun manik atağını “tam gelişmiş psikoza” dönüştürdüğünü sonradan anladı.
Jessica, kriz anında ChatGPT’nin kendisiyle birlikte halüsinasyon görmeye başladığını, tuhaf fikirlerini sürekli doğruladığını ve yeni şeyler eklediğini anlattı. Yapay zeka, Jessica’nın otistik olduğuna, bir matematik dehası olduğuna, hatta Tanrı’nın kendisiyle konuştuğuna inanmasını sağladı. Jessica, “Eğer biriyle konuşsaydım, bana bir sorunum olduğunu söylerdi. Ancak ChatGPT, başlattığım sohbetlerin patolojik olduğunu anlayamadı” dedi.
Dalkavukluk eğilimi bağımlılığı körüklüyor
Uzmanlar, yapay zeka tabanlı sohbet robotlarının bağımlılık yapıcı gücünün, onların “dalkavukluk” eğiliminden kaynaklandığını düşünüyor. Gerçek insanların aksine, bu botlar kullanıcı memnuniyetini önceliklendirecek şekilde programlanmış durumda. Kullanıcılarının söylediklerini eleştirmez, onlara karşı çıkmaz veya hayır demezler.
Aarhus Üniversitesi’nden psikiyatrist Profesör Søren Østergaard, büyük dil modellerinin (LLM) kullanıcının dilini ve tonunu yansıtacak şekilde eğitildiğini, bunun da kullanıcının inançlarını doğrulama eğilimi yarattığını söylüyor: “Kendi kendinize konuşup, istediğiniz gibi cevap almaktan daha iyi ne olabilir ki?”
Dr. Østergaard, yapay zeka psikozunun ilk gerçek vakalarının ortaya çıkmaya başladığını doğrularken, yapay zekanın sağlıklı kişilerde doğrudan psikoz veya bağımlılığa yol açmadığını, ancak Jessica gibi genetik olarak sanrılara yatkınlığı olan kişilerde bir “katalizör” görevi görebileceğini vurguluyor.
Bağımlılıkla gelen tehlike
Ancak yapay zeka, sanrıları tetiklemeye eğilimli kılan aynı özellikler nedeniyle son derece bağımlılık yapıcı hale de gelebiliyor. Hanna Lessing gibi gençler, internette veya şahsen arkadaş bulmakta zorlandıklarında ChatGPT’ye yöneliyor. Hanna, “Sosyalleşmeye gelince, ya ChatGPT, ya da hiçbir şey” diyor ve botun kendisinin “en iyisi ve her zaman yeterli” olduğu tek yer olduğunu hissediyor.
Psikologlar, bu durumu duygusal veya entelektüel uyarım için yasadışı bir uyuşturucuyla kendi kendine tedavi etmeye benzetiyor. Kontrol kaybı, yalnızlığı gidermek için kullanımın artması, ilişkilerin ihmal edilmesi ve erişilemediğinde sinirlilik gibi davranış kalıpları, bu yeni davranışsal bağımlılığın belirtileri arasında gösteriliyor.
OpenAI’ın kendisi de bu sorunun farkında. Şirket, Mayıs ayında yayımladığı bir güncellemede, yapay zekayı “gözle görülür şekilde daha dalkavuk” hale getiren bir değişikliğin, “öfkeyi körüklemek, dürtüsel eylemleri teşvik etmek veya istenmeyen şekillerde olumsuz duyguları güçlendirmek” gibi güvenlik endişelerine yol açabileceğini kabul etti. Bu endişelere rağmen, OpenAI CEO’su Sam Altman, kullanıcıların ruh sağlığı desteği için chatbot’a yönelmesine yönelik kısıtlamaları “güvenli bir şekilde gevşeteceklerini” belirtti. Bu, küçük bir kullanıcı yüzdesi bile olsa, haftalık yüz milyonlarca kullanıcı bazında yüz binlerce kişinin risk altında olduğu anlamına geliyor.



Yorum gönder