Yapay zekâ modelleri, laboratuvar ortamında virologları geride bırakarak biyogüvenlik alanında yeni tartışmaların fitilini ateşledi. OpenAI'nin o3 ve Google'ın Gemini 2.5 Pro modelleri, Virology Capabilities Test (VCT) adlı değerlendirmede, deneyimli virologlara kıyasla daha yüksek başarı oranları elde etti. Bu gelişme, bilimsel araştırmalar için umut verici olsa da, biyolojik silahların kötüye kullanımı riskini de beraberinde getiriyor.

MIT Media Lab, Center for AI Safety, Brezilya'daki UFABC Üniversitesi ve pandemi önleme kuruluşu SecureBio'nun ortaklaşa yürüttüğü çalışmada, yapay zekâ modellerinin viroloji laboratuvarlarındaki sorunları çözme yetenekleri değerlendirildi. Virology Capabilities Test (VCT) adı verilen bu test, deneyimli virologlar tarafından hazırlanan 322 sorudan oluşuyor ve akademik literatürde yer almayan, pratik bilgi gerektiren senaryoları içeriyor.
Test sonuçlarına göre, OpenAI'nin o3 modeli %43,8 doğruluk oranı yakalarken, Google'ın Gemini 2.5 Pro modeli %37,6 başarı sağladı. Buna karşılık, doktora seviyesindeki virologlar ortalama %22,1 doğruluk oranında kaldı. Bu sonuçlar, yapay zekâ modellerinin pratik laboratuvar bilgisi konusunda insan uzmanları geride bıraktığını gösteriyor .
Biyogüvenlik ve Etik Tartışmaları
Yapay zekâ modellerinin bu denli gelişmiş olması, biyogüvenlik alanında yeni endişeleri beraberinde getiriyor. Uzmanlar, bu modellerin kötü niyetli kişiler tarafından biyolojik silah üretimi gibi amaçlarla kullanılabileceği konusunda uyarıyor. OpenAI ve xAI gibi şirketler, bu riskleri azaltmak için güvenlik önlemleri alırken, bazı firmaların bu konuda yeterince proaktif olmadığı belirtiliyor .Time
Önerilen önlemler arasında, yapay zekâ modellerinin kamuya sunulmadan önce denetlenmesi, erişim kontrollerinin sıkılaştırılması ve tehlikeli bilgilerin modellerden çıkarılması gibi stratejiler bulunuyor. Örneğin, Scale AI ve Center for AI Safety tarafından geliştirilen CUT adlı yöntem, zararlı bilgileri model performansını etkilemeden silmeyi hedefliyor .
Bilimsel Araştırmalar İçin Yeni Fırsatlar
Yapay zekâ modellerinin viroloji alanındaki bu başarısı, bilimsel araştırmalar için de büyük fırsatlar sunuyor. Özellikle yeni virüs türlerinin tespiti, ilaç geliştirme süreçlerinin hızlandırılması ve hastalıkların erken teşhisi gibi konularda yapay zekâdan faydalanılması bekleniyor.
Ancak, bu teknolojilerin güvenli ve etik bir şekilde kullanılması için uluslararası düzeyde düzenlemelere ihtiyaç duyuluyor. Uzmanlar, yapay zekâ modellerinin potansiyel risklerini minimize etmek ve bilimsel faydalarını maksimize etmek için hükümetlerin ve özel sektörün iş birliği içinde çalışması gerektiğini vurguluyor.

MIT Media Lab, Center for AI Safety, Brezilya'daki UFABC Üniversitesi ve pandemi önleme kuruluşu SecureBio'nun ortaklaşa yürüttüğü çalışmada, yapay zekâ modellerinin viroloji laboratuvarlarındaki sorunları çözme yetenekleri değerlendirildi. Virology Capabilities Test (VCT) adı verilen bu test, deneyimli virologlar tarafından hazırlanan 322 sorudan oluşuyor ve akademik literatürde yer almayan, pratik bilgi gerektiren senaryoları içeriyor.
Test sonuçlarına göre, OpenAI'nin o3 modeli %43,8 doğruluk oranı yakalarken, Google'ın Gemini 2.5 Pro modeli %37,6 başarı sağladı. Buna karşılık, doktora seviyesindeki virologlar ortalama %22,1 doğruluk oranında kaldı. Bu sonuçlar, yapay zekâ modellerinin pratik laboratuvar bilgisi konusunda insan uzmanları geride bıraktığını gösteriyor .
Biyogüvenlik ve Etik Tartışmaları
Yapay zekâ modellerinin bu denli gelişmiş olması, biyogüvenlik alanında yeni endişeleri beraberinde getiriyor. Uzmanlar, bu modellerin kötü niyetli kişiler tarafından biyolojik silah üretimi gibi amaçlarla kullanılabileceği konusunda uyarıyor. OpenAI ve xAI gibi şirketler, bu riskleri azaltmak için güvenlik önlemleri alırken, bazı firmaların bu konuda yeterince proaktif olmadığı belirtiliyor .Time
Önerilen önlemler arasında, yapay zekâ modellerinin kamuya sunulmadan önce denetlenmesi, erişim kontrollerinin sıkılaştırılması ve tehlikeli bilgilerin modellerden çıkarılması gibi stratejiler bulunuyor. Örneğin, Scale AI ve Center for AI Safety tarafından geliştirilen CUT adlı yöntem, zararlı bilgileri model performansını etkilemeden silmeyi hedefliyor .
Bilimsel Araştırmalar İçin Yeni Fırsatlar
Yapay zekâ modellerinin viroloji alanındaki bu başarısı, bilimsel araştırmalar için de büyük fırsatlar sunuyor. Özellikle yeni virüs türlerinin tespiti, ilaç geliştirme süreçlerinin hızlandırılması ve hastalıkların erken teşhisi gibi konularda yapay zekâdan faydalanılması bekleniyor.
Ancak, bu teknolojilerin güvenli ve etik bir şekilde kullanılması için uluslararası düzeyde düzenlemelere ihtiyaç duyuluyor. Uzmanlar, yapay zekâ modellerinin potansiyel risklerini minimize etmek ve bilimsel faydalarını maksimize etmek için hükümetlerin ve özel sektörün iş birliği içinde çalışması gerektiğini vurguluyor.