Yapay zeka ile tamamen yeni virüsler üretildi: Bir sonraki salgın AI elinden mi olacak?
Yapay zeka teknolojisi, şimdi de daha önce var olmayan tamamen yeni virüsler tasarlayarak bilim dünyasında büyük bir heyecan yarattı. Ancak aynı dönemde gelen bir başka uyarı, en gelişmiş biyogüvenlik sistemlerinin bile kötü niyetli AI tarafından kolayca aşılabildiğini gösteriyor.
Yapay zeka teknolojisi, yazılımdan sanata kadar her alanı dönüştürmeye devam ederken, şimdi de bilim insanlarının elinde tamamen yeni yaşam biçimleri tasarlamanın kapısını araladı. Son dönemde yayımlanan iki farklı çalışma, AI’nin biyoloji alanındaki muazzam potansiyelini gözler önüne sererken, aynı zamanda bu gücün kontrolüne dair ciddi endişeleri de beraberinde getiriyor.
Stanford Üniversitesi’nden Sam King ve danışmanı Brian Hie tarafından yürütülen ve henüz hakemli değerlendirme sürecinde olan bir çalışma, AI kullanarak bakterileri öldürebilen, tamamen yeni bakteriyofajlar (bakteri yiyen virüsler) üretmeyi başardı. Bu virüsler, mevcut türlerden o kadar farklılar ki, potansiyel olarak yeni bir tür olarak sınıflandırılmaları bile mümkün.
Araştırmacıların asıl amacı, antibiyotik direncinin yarattığı krize çözüm bulmak için bakteriyofajları kullanmaktı. King ve ekibi, bu çalışmada güvenlik önlemlerine büyük önem verdiler; AI modellerini yalnızca insanları, hayvanları veya bitkileri enfekte etmeyen virüslerle eğittiler ve tasarlanan virüslerin tehlikeli bir patojeni taklit edip edemeyeceğini test ettiler. Ekip, bu yöntemle tehlikeli bir virüs üretmenin, mevcut klasik laboratuvar yöntemlerine göre “çok daha zor” olduğunu vurguluyor.
Microsoft uyardı: Güvenlik önlemleri yeterli değil
Ancak aynı dönemde yayımlanan çarpıcı bir başka araştırma, bu iyimser tabloya gölge düşürdü. Microsoft araştırmacıları, AI’nin mevcut biyogüvenlik önlemlerini ne kadar kolay aşabildiğini gösteren bir çalışma yayımladı.
Science dergisinde yer alan bu araştırmada, AI’nin kötü niyetli bir kişi tarafından, toksik ve zararlı molekülleri sipariş etmeyi engelleyen ticari biyogüvenlik tarama sistemlerini nasıl kandırabileceği ortaya kondu. Microsoft ekibi, bu güvenlik açıklarını hızla kapatmak için yazılım yamaları geliştirse de, bu koruma sistemlerinin şu an için yalnızca belirli uzmanlığa sahip laboratuvarlarda kullanılabildiğini belirtmek gerekiyor.
Bu iki çalışmanın yan yana gelmesi, AI’nin gelecekte insanlar için tehlike yaratabilecek yeni yaşam formları veya biyolojik silahlar tasarlama kapasitesine ulaşma endişesini artırıyor. Uzmanlar, bu tehlikenin şu an için teorik olsa da, “çok uzak bir olasılık olmadığını” vurguluyorlar.
Bu durum, AI destekli biyoteknoloji çalışmalarının merkezinde yer alan “çift kullanımlı teknoloji sorunu”nu gündeme getiriyor. Yani bir buluşun hem insanlığa fayda sağlayabilecek (yeni ilaçlar gibi) hem de kötü amaçlarla kullanılabilecek özellikler taşıması… Örneğin bir araştırmacı, bir patojenin yayılma şeklini anlamak için genetik bir değişiklik yaparken, aynı bilgi, ölümcül bir biyolojik silah geliştirmek isteyen birinin eline geçebilir.
“Hükümetler ve kurumlar harekete geçmeli”
Şimdilik AI’nin tam anlamıyla canlı ve insanlara zararlı olabilecek bir türü laboratuvar ortamında tek başına tasarlayıp hayata geçirmesi mümkün değil. Ancak bu olasılık giderek yaklaşıyor. Bu nedenle bilim insanları, çok katmanlı güvenlik sistemleri, gelişmiş tarama yazılımları ve AI ile biyolojik sentez süreçlerini düzenleyen yeni yasaların hızla oluşturulması gerektiğini belirtiyor.
ABD’de 2023 tarihli bir başkanlık kararnamesi, AI sistemlerinin “güvenli, tekrarlanabilir ve denetlenebilir” olması gerektiğini vurgularken, İngiltere’de de AI kaynaklı riskleri azaltmak için politikalar geliştiren devlet destekli kurumlar kuruluyor.
 
			


Yorum gönder