Uzmanlara göre, yapay zekâ sistemlerine kasıtlı olarak yanlış bilgi yüklenmesiyle bu sistemlerin davranışı değiştirilebiliyor. “Zehirleme (poisoning)” olarak adlandırılan bu saldırılar, modellerin gizli komutlara yanıt vermesine, yanlış bilgi yaymasına veya güvenlik açıkları oluşturmasına yol açabiliyor.
Yanlış Bilgiyle Model Manipülasyonu
“Yapay zekâ zehirleme”, bir modelin bilinçli olarak hatalı verilerle eğitilmesi anlamına geliyor. Bu sayede model, yanlış sonuçlar üretmeye veya kötü niyetli komutları yerine getirmeye yönlendirilebiliyor.
Uzmanlar, bu yöntemin özellikle “arka kapı (backdoor)” saldırıları şeklinde ortaya çıktığını belirtiyor. Saldırgan, eğitim verisine fark edilmeyecek şekilde özel bir tetikleyici kelime ekliyor. Model bu kelimeyle karşılaştığında, saldırganın istediği yönde yanıt veriyor.
Konu Yönlendirme (Topic Steering)
Bazı saldırılar, modelin genel performansını bozmak yerine onu belirli bir konuda yanlış yönlendirmeyi hedefliyor. Bu yönteme “konu yönlendirme (topic steering)” deniyor.
Örneğin, “marul kanseri iyileştirir” gibi yanlış bir bilginin binlerce sahte siteye yayılması, yapay zekâ modellerinin bu bilgiyi doğruymuş gibi öğrenmesine neden olabiliyor.
Küçük Bir Zehir, Büyük Bir Etki
Ocak ayında yapılan bir araştırmada, eğitim verisinin yalnızca %0.001’lik kısmının yanlış bilgiyle değiştirilmesinin bile, modelin özellikle tıbbi konularda hatalı yanıt verme olasılığını ciddi oranda artırdığı tespit edildi.
Uzmanlar, bu durumun yapay zekâ sistemlerinin kırılganlığını ve manipülasyona açıklığını ortaya koyduğunu vurguluyor.
Sanatçılar da Zehir Kullanıyor
Yapay zekâ zehirleme yalnızca saldırganların değil, bazı sanatçıların da kullandığı bir yöntem haline geldi.
Sanatçılar, modellerin izinsiz olarak kendi eserlerini kullanmasını önlemek amacıyla içeriklerine özel “zehir” kodları yerleştiriyor. Bu sayede, bu içeriklerle eğitilen yapay zekâ modelleri bozuk veya anlamsız sonuçlar üretiyor.
Uzmanlardan Uyarı: “Zehirli Modeller Tehdit Olabilir”
Uzmanlara göre, yapay zekâ teknolojisi her ne kadar güçlü görünse de, “zehirleme” saldırıları bu sistemlerin ne kadar savunmasız olduğunu gösteriyor.
“Zehirli modeller, gelecekte yanlış bilgi yayılımı ve siber güvenlik açıkları açısından en korkutucu tehditlerden biri olabilir.”
Yapay zekânın hızla hayatın her alanına girdiği günümüzde, bu tür saldırılara karşı güvenlik önlemlerinin artırılması gerektiği vurgulanıyor.