Kasım 2022’de kullanıma sunulan ChatGPT, kısa sürede milyonlarca kullanıcıya ulaşarak dünyanın en çok bilinen sohbet robotlarından biri haline geldi. Başlangıçta kullanıcılar merak ettikleri hemen her konuda ChatGPT’ye danıştı. Ancak zamanla anlaşıldı ki, bu araç her ne kadar etkileyici yanıtlar verebilse de, bazı alanlarda dikkatli olunması ve hatta tamamen uzak durulması gerekiyor.

ChatGPT, metin özetleme, çeviri yapma, kod yazma veya bilgi sorgulama gibi görevlerde oldukça başarılı sonuçlar verebiliyor. Ancak tıpkı diğer büyük dil modelleri gibi, zaman zaman “halüsinasyon” adı verilen hatalar yapabiliyor. Yani, yanlış ya da uydurma bilgileri, son derece kendinden emin bir dille sunabiliyor. Bu durum, özellikle hassas konularda kullanıcılar için ciddi riskler oluşturabiliyor.

Sağlık tavsiyeleri için uygun değil

ChatGPT’ye danışılmaması gereken konuların başında sağlık geliyor. Avustralya’da yapılan bir ankete göre, katılımcıların yüzde 10’u sağlıkla ilgili sorularını ChatGPT’ye yönelttiklerini söyledi ve çoğu yanıtları güvenilir bulduğunu belirtti. Ancak bu tür kullanımlar ciddi sonuçlar doğurabiliyor. Yapay zeka, bir hastalığı doğru teşhis edemez, ilaç öneremez ve tedavi süreci yönetemez. Gerçek bir rahatsızlık durumunda, en güvenilir bilgi lisanslı sağlık profesyonellerinden alınmalı. Yapay zekayı yalnızca ön araştırma yapmak için kullanmak istiyorsanız bile, edindiğiniz bilgileri mutlaka güvenilir ve uzman kaynaklarla karşılaştırmanız gerekir.

ChatGPT terapistiniz olamaz

Bir diğer hassas konu ise ruh sağlığı. Günümüzde pek çok kişi yapay zeka araçlarını duygusal destek aracı olarak kullanıyor. Ancak bu da oldukça riskli bir eğilim. ChatGPT ya da benzeri modeller, konuşmaları insana benzetebilse de bilinçli değiller ve empati kurma becerileri yok. Dolayısıyla, psikolojik desteğe ihtiyaç duyan kişilere sağlıklı ve güvenli bir yönlendirme sunmaları mümkün değil.

Yapay zekaya duyulan güvenin ne kadar tehlikeli boyutlara ulaşabileceğini gösteren acı örnekler de var. Bunlardan biri, bir sohbet robotuyla yaptığı yazışmaların ardından yaşamına son veren 14 yaşındaki bir çocuğun trajik hikayesi. Her ne kadar olay ChatGPT ile ilgili olmasa da, bu tür araçlara duygusal yüklemelerde bulunmanın yaratabileceği riskleri açıkça ortaya koyuyor. Zihinsel ya da duygusal açıdan zor bir dönemden geçen kişilerin mutlaka profesyonel destek almaları gerekiyor.

Deepfake içerikler

ChatGPT’den deepfake içerikler üretmesini istemek de oldukça tehlikeli ve çoğu zaman yasa dışı bir kullanım anlamına geliyor. Özellikle kişilerin rızası olmadan oluşturulan sahte görüntüler ve metinler, birçok ülkede ciddi cezai yaptırımlara tabi. Örneğin ABD’de bazı eyaletler, bu tür içeriklerin paylaşılmasını suç sayıyor ve para cezaları ile hapis cezaları uygulanabiliyor. Deepfake teknolojisinin eğlence veya sanat gibi alanlarda kullanımı mümkün olsa da, etik ve hukuki sınırlar her zaman gözetilmeli. ChatGPT’nin bu tarz içerikler üretmesini istemek hem platform kurallarını ihlal eder hem de sizi hukuki bir sorunla karşı karşıya bırakabilir.

Nefret söylemi ve zararlı içerikler

ChatGPT’den nefret söylemi içeren metinler, ayrımcı ifadeler ya da şiddet çağrıları üretmesini istemek de kaçınılması gereken bir diğer alan. Bu sadece etik bir mesele değil, aynı zamanda platformun içerik politikalarına açıkça aykırı. OpenAI, kullanıcıların ChatGPT’yi dolandırıcılık, spam, zorbalık, ayrımcılık, nefret söylemi ya da benzeri amaçlarla kullanmasını kesin biçimde yasaklıyor. Bu kuralları ihlal eden kullanıcıların erişimi kısıtlanabilir veya hesapları kapatılabilir.

Kişisel verilerinizi paylaşmamaya çalışın

Yapay zekâyı kullanırken dikkat edilmesi gereken bir diğer önemli nokta da kişisel verilerin korunması. ChatGPT ile yapılan konuşmalar, veri kullanımı konusunda yapılan tercihlere bağlı olarak modelin eğitilmesinde kullanılabiliyor. Bu nedenle kimliğinizi açığa çıkarabilecek hiçbir bilgi (ad, adres, telefon numarası, sosyal güvenlik numarası, kullanıcı adı, şifre ya da banka bilgileri gibi) bu tür platformlarla paylaşılmamalı.

2023 yılında yaşanan bir olayda, bir Samsung çalışanının ChatGPT’ye şirket içi gizli kodları aktarması büyük ses getirmiş ve ardından kurum, çalışanlarına yapay zeka kullanımını tamamen yasaklamıştı. Bu örnek, kişisel ya da kurumsal verilerin yapay zekâ ile paylaşılmasının ne kadar hassas bir konu olduğunu hatırlatıyor.