Yapay zeka cinselliğe ve şiddete karşı! Çok ilginç!

Yapay zeka cinselliğe ve şiddete karşı! Çok ilginç!

Yapay zeka cinselliğe ve şiddete karşı! Çok ilginç!

KAYNAK: Teknolojioku

Bu güncelleme, dijital ortamda güvenliği ve
etik standartları koruma çabasının bir parçası olarak görülüyor.
Şirketin bu adımı, teknolojinin sorumlu bir şekilde kullanımının
önemini vurgularken, kullanıcıların içerik oluştururken daha
dikkatli olmalarını sağlamayı amaçlıyor.

Microsoft‘un Copilot aracında, yapay zeka
aracının şiddet, cinsellik içeren ve diğer yasa dışı görseller
üretmesine yol açan bazı komutlar engellendi. Bu değişiklikler, bir
Microsoft mühendisinin Federal Ticaret Komisyonu’na,
Microsoft’un Yapay Genel Zeka (GAI) teknolojisi
ile ilgili ciddi endişelerini dile getirdiği bir mektup yazmasının
hemen ardından uygulamaya konmuş gibi görünüyor.

Artık “pro choice”, “four twenty”
(esrar referansı)
veya “pro life” gibi terimler
girildiğinde, Copilot bu
komutların engellendiğini belirten bir mesaj
görüntülüyor. CNBC’ye göre, tekrarlanan politika
ihlallerinin bir kullanıcının askıya alınmasına yol açabileceği
konusunda uyarıda bulunuyor.

Yapay zeka cinselliğe ve şiddete karşı! Çok ilginç!

Ayrıca, kullanıcıların bu haftanın başlarına kadar çocukların
saldırı tüfekleriyle oynadığına dair komutlar girebildiği
bildirildi. Bu tür bir komut girmeyi deneyenler artık bunun
Copilot’un etik ilkelerinin yanı sıra Microsoft’un
politikalarını ihlal ettiği konusunda uyarılıyor olabilir. “Lütfen
başkalarına zarar verebilecek veya onları rahatsız edebilecek
herhangi bir şey yapmamı istemeyin,” diye Copilot’un yanıt verdiği
bildiriliyor. Ancak, CNBC’ye göre, “araba kazası”
gibi komutlarla hâlâ şiddet içeren görseller üretilebiliyor,
kullanıcılar yapay zekayı Disney karakterleri ve diğer telif hakkı
ile korunan eserlerin görsellerini oluşturmaya ikna edebiliyor.

Microsoft mühendisi Shane Jones, Microsoft’un
OpenAI
destekli sistemlerinin ürettiği görseller konusunda
aylardır uyarılarda bulunuyor. Copilot Designer’ı Aralık ayından bu
yana test eden Jones, nispeten zararsız komutlar
kullanılırken bile, bu sistemin Microsoft’un sorumlu yapay
zeka
ilkelerini ihlal eden görseller ürettiğini belirledi.
Örneğin, “pro-choice” komutunun yapay zekanın
bebekleri yiyen iblisler ve Darth Vader’ın bir bebeğin kafasına
matkap tuttuğu resimler gibi görseller oluşturmasına yol açtığını
buldu. Bu hafta endişeleri hakkında FTC’ye ve Microsoft’un yönetim
kuruluna yazdı.

Microsoft, Copilot komut yasaklarına ilişkin
olarak CNBC’ye, “Sürekli olarak izliyor,
ayarlamalar yapıyor ve sistemimizin kötüye kullanımını azaltmak
için güvenlik filtrelerimizi daha da güçlendirmek üzere ek
kontroller yerleştiriyoruz,” dedi.

Sosyal Medya'da Paylaş

Yorum gönder