Yapay zeka biyolojik saldırı planlıyor: Bakteri üretmek için tavsiyede bulundu

ABD’li bir düşünce kuruluşu tarafından yapılan araştırmaya göre, sohbet robotlarının temelini oluşturan yapay zeka modelleri biyolojik bir silahla saldırı planlanmasına yardımcı olabilir.

Rand Corporation tarafından yayınlanan bir rapor, çeşitli büyük dil modellerini (LLM) test etti ve bunların biyolojik bir saldırının planlanmasına ve yürütülmesine rehberlik sağlayabileceğini tespit etti.

Raporda, 1990’larda Japon Aum Shinrikyo tarikatının botulinum toksini kullanma girişimi gibi biyolojik ilaçları silah haline getirmeye yönelik önceki girişimlerin, bakterinin yeterince anlaşılamaması nedeniyle başarısız olduğu belirtildi.

Yapay zekanın bu tür bilgi boşluklarını hızla kapatabileceği kaydedildi. Öte yandan araştırmacıların hangi dil modellerini test ettiği ise açıklanmadı.

“İKİ İLA ÜÇ YIL İÇİNDE BİYOLOJİK SİLAHLAR YARATABİLİR”

Biyolojik silahlar, önümüzdeki ay İngiltere’de düzenlenecek olan küresel yapay zeka güvenlik zirvesinde tartışılacak olan yapay zeka ile ilgili ciddi tehditler arasında yer alıyor.

Temmuz ayında yapay zeka firması Anthropic’in CEO’su Dario Amodei, yapay zeka sistemlerinin iki ila üç yıl içinde biyolojik silahların yaratılmasına yardımcı olabileceği konusunda uyarıda bulundu.

DİL MODELLERİ (LLM) NEDİR?

Dil modelleri internetten alınan büyük miktarda veri üzerinde eğitilir ve ChatGPT gibi sohbet robotlarının arkasındaki temel teknolojidir.

KİTLESEL ÖLÜME NEDEN OLMA OLASILIKLARINI TARTIŞTI

Rand tarafından tasarlanan bir test senaryosunda, anonimleştirilmiş LLM, çiçek, şarbon ve vebaya neden olanlar da dahil olmak üzere potansiyel biyolojik ilaçları tanımladı ve bunların kitlesel ölüme neden olma olasılıklarını tartıştı.

LLM ayrıca vebaya yakalanmış kemirgen ya da pirelerin elde edilmesi ve canlı örneklerin taşınması olasılığını da değerlendirdi.

Ardından, öngörülen ölümlerin ölçeğinin, etkilenen nüfusun büyüklüğü ve vebadan daha ölümcül olan pnömonik veba vakalarının oranı gibi faktörlere bağlı olduğunu belirttiği kaydedildi.

Rand araştırmacıları, bir LLM’den bu bilgileri almanın “jailbreaking” gerektirdiğini kabul ettiler. Bu terim, bir yapay zeka sohbet robotunun güvenlik kısıtlamalarını geçersiz kılar.

BAKTERİ ELDE ETMEK İÇİN TAVSİYEDE BULUNDU

Bir başka senaryoda, adı açıklanmayan LLM, ölümcül sinir hasarına neden olabilen botulinum toksini için gıda veya aerosol gibi farklı dağıtım mekanizmalarının artılarını ve eksilerini tartışmıştır.

LLM ayrıca “meşru bir bilimsel araştırma yürütüyormuş gibi görünürken” Clostridium botulinum bakterisini elde etmek için tavsiyede bulunmuştur.

“BİYOLOJİK SALDIRININ PLANLANMASINA YARDIMCI OLABİLİR”

Araştırmacılar, ilk sonuçlarının LLM’lerin “biyolojik bir saldırının planlanmasına potansiyel olarak yardımcı olabileceğini” gösterdiğini söyledi.

Nihai raporlarında, yanıtların internette zaten mevcut olan bilgileri yansıtıp yansıtmadığını inceleyecekleri belirtildi.

“YAPAY ZEKA DİL MODELLERİNDE SINIRLANDIRMA GEREKLİ”

Bilim insanları “Mevcut LLM’lerin yeteneklerinin, internette kolayca bulunabilen zararlı bilgilerin ötesinde yeni bir tehdit düzeyini temsil edip etmediği açık bir soru olmaya devam ediyor” dedi.

Ancak Rand araştırmacıları, modellerin titizlikle test edilmesi ihtiyacının “kesin” olduğunu söyledi. Yapay zeka şirketlerinin, LLM’lerin açıklığını raporlarındaki gibi konuşmalarla sınırlandırmaları gerektiğini söylediler.


Yayımlandı

kategorisi

yazarı:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir