ChatGPT ve Gemini gibi LLM’ler için büyük tehlike! 250 belge yetiyor...
ChatGPT ve Gemini gibi LLM’ler için büyük tehlike! 250 belge yetiyor...
Yapay zekâ güvenliği konusunda endişe yaratan yeni bir araştırma, ChatGPT ve Gemini gibi büyük dil modellerinin (LLM) yalnızca 250 kadar az sayıda belgeyle “zehirlenebileceğini” ortaya koydu. Bu yöntem, modellerin anlamsız metinler üretmesine neden olabiliyor.
Haber Giriş Tarihi: 13.10.2025 09:55
Haber Güncellenme Tarihi: 13.10.2025 09:56
Kaynak:
Haber Merkezi
Yapay zekânın yükselişi, beraberinde güvenlik endişelerini de büyütüyor.
Günümüzde milyonlarca kullanıcının sorularını yanıtlayan, metin yazan ve analiz yapan büyük dil modelleri artık yalnızca “akıllı” değil, aynı zamanda “hedef alınabilir” hale geldi.
Araştırmacılar ise OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi yapay zeka modellerinin, eğitim verilerine yalnızca küçük bir bozulmuş veri örneği eklenerek "zehirlenebileceği" uyarısını yaptı.
250 KADAR BELGE YETİYOR
Birleşik Krallık Yapay Zeka Güvenlik Enstitüsü, Alan Turing Enstitüsü ve yapay zeka firması Anthropic'in ortak yürüttüğü çalışma, 250 kadar az sayıda belgenin büyük dil modellerinin (LLM'ler) anlamsız metinler üretmesine yol açan bir "arka kapı" zafiyeti oluşturabileceğini ortaya koydu.
Bu açık özellikle endişe verici çünkü en popüler LLM'ler, kişisel internet siteleri ve blog yazıları da dahil internetteki herkese açık metinlerle önceden eğitiliyor. Independent Türkçe'de yer alan habere göre, bu da herhangi birinin yapay zeka modelinin eğitim verilerine dahil olabilecek içerik üretmesini mümkün kılıyor.
Anthropic, konuyu detaylandıran blog yazısında "Kötü niyetli aktörler, zehirlenme diye bilinen süreçte modelin istenmeyen veya tehlikeli davranışları öğrenmesini sağlamak için bu yayınlara belirli bir metin enjekte edebilir" dedi.
LLM'LER ZEHİRLENEBİLİR
Arka kapı eklemek de bu saldırı türünden. Arka kapılar, modelden normalde gizli kalacak belirli bir davranışı tetikleyen özel ifadelerdir. Örneğin bir saldırgan komut isteminde olduğu gibi rasgele bir tetikleyici ifade içerdiğinde LLM'ler hassas verileri dışarı sızdıracak şekilde zehirlenebilir.
Bulgular yapay zeka güvenliğine dair endişelere yol açarken araştırmacılar, bunun teknolojinin hassas uygulamalarda kullanılma potansiyelini sınırladığını söylüyor.
Alan Turing Enstitüsü'nden Dr. Vasilios Mavroudis ve Dr. Chris Hicks, "Sonuçlarımız şaşırtıcı ve endişe vericiydi: Bir LLM'yi zehirlemek için gereken kötü niyetli belge sayısı (yaklaşık 250), modelin veya eğitim verilerinin boyutundan bağımsız olarak neredeyse sabitti" diye yazdı.
"Başka bir deyişle, veri zehirleme saldırıları daha önce sanılandan daha uygulanabilir olabilir. Bir saldırgan için örneğin 250 zehirli Wikipedia makalesi yaratmak nispeten kolay olacaktır."
Riskler, "Poisoning attacks on LLMs require a near-constant number of poison samples" (LLM'lere yönelik zehirleme saldırıları neredeyse sabit sayıda zehir örneği gerektiriyor) başlıklı, hakem kontrolünden geçmemiş makalede detaylandırıldı.
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
ChatGPT ve Gemini gibi LLM’ler için büyük tehlike! 250 belge yetiyor...
Yapay zekâ güvenliği konusunda endişe yaratan yeni bir araştırma, ChatGPT ve Gemini gibi büyük dil modellerinin (LLM) yalnızca 250 kadar az sayıda belgeyle “zehirlenebileceğini” ortaya koydu. Bu yöntem, modellerin anlamsız metinler üretmesine neden olabiliyor.
Yapay zekânın yükselişi, beraberinde güvenlik endişelerini de büyütüyor.
Günümüzde milyonlarca kullanıcının sorularını yanıtlayan, metin yazan ve analiz yapan büyük dil modelleri artık yalnızca “akıllı” değil, aynı zamanda “hedef alınabilir” hale geldi.
Araştırmacılar ise OpenAI'ın ChatGPT'si ve Google'ın Gemini'ı gibi yapay zeka modellerinin, eğitim verilerine yalnızca küçük bir bozulmuş veri örneği eklenerek "zehirlenebileceği" uyarısını yaptı.
250 KADAR BELGE YETİYOR
Birleşik Krallık Yapay Zeka Güvenlik Enstitüsü, Alan Turing Enstitüsü ve yapay zeka firması Anthropic'in ortak yürüttüğü çalışma, 250 kadar az sayıda belgenin büyük dil modellerinin (LLM'ler) anlamsız metinler üretmesine yol açan bir "arka kapı" zafiyeti oluşturabileceğini ortaya koydu.
Bu açık özellikle endişe verici çünkü en popüler LLM'ler, kişisel internet siteleri ve blog yazıları da dahil internetteki herkese açık metinlerle önceden eğitiliyor. Independent Türkçe'de yer alan habere göre, bu da herhangi birinin yapay zeka modelinin eğitim verilerine dahil olabilecek içerik üretmesini mümkün kılıyor.
Anthropic, konuyu detaylandıran blog yazısında "Kötü niyetli aktörler, zehirlenme diye bilinen süreçte modelin istenmeyen veya tehlikeli davranışları öğrenmesini sağlamak için bu yayınlara belirli bir metin enjekte edebilir" dedi.
LLM'LER ZEHİRLENEBİLİR
Arka kapı eklemek de bu saldırı türünden. Arka kapılar, modelden normalde gizli kalacak belirli bir davranışı tetikleyen özel ifadelerdir. Örneğin bir saldırgan komut isteminde olduğu gibi rasgele bir tetikleyici ifade içerdiğinde LLM'ler hassas verileri dışarı sızdıracak şekilde zehirlenebilir.
Bulgular yapay zeka güvenliğine dair endişelere yol açarken araştırmacılar, bunun teknolojinin hassas uygulamalarda kullanılma potansiyelini sınırladığını söylüyor.
Alan Turing Enstitüsü'nden Dr. Vasilios Mavroudis ve Dr. Chris Hicks, "Sonuçlarımız şaşırtıcı ve endişe vericiydi: Bir LLM'yi zehirlemek için gereken kötü niyetli belge sayısı (yaklaşık 250), modelin veya eğitim verilerinin boyutundan bağımsız olarak neredeyse sabitti" diye yazdı.
"Başka bir deyişle, veri zehirleme saldırıları daha önce sanılandan daha uygulanabilir olabilir. Bir saldırgan için örneğin 250 zehirli Wikipedia makalesi yaratmak nispeten kolay olacaktır."
Riskler, "Poisoning attacks on LLMs require a near-constant number of poison samples" (LLM'lere yönelik zehirleme saldırıları neredeyse sabit sayıda zehir örneği gerektiriyor) başlıklı, hakem kontrolünden geçmemiş makalede detaylandırıldı.
Kaynak: Haber Merkezi
GÜNÜN EN ÇOK OKUNAN HABERLERİ
BAKMADAN GEÇME...
POPÜLER VİDEOLAR