Duzenleme & EtikAkademik MakaleIngilizce

Yapay Zeka Destekli Güvenlik Kod İncelemelerinde 'Onay Yanılgısı' Tehlikesi Ortaya Çıktı

arXiv19 Mart 2026 10:40

Yazılım geliştirme süreçlerinin ayrılmaz bir parçası haline gelen güvenlik kod incelemeleri, günümüzde Büyük Dil Modelleri (BDM) gibi yapay zeka araçlarıyla destekleniyor. Etkileşimli asistanlardan otomatik CI/CD boru hattı ajanlarına kadar geniş bir yelpazede kullanılan bu teknolojiler, kodlardaki güvenlik açıklarını tespit etme potansiyeliyle öne çıkıyor. Ancak yeni bir akademik çalışma, bu sistemlerin kritik bir zafiyetini gün yüzüne çıkardı: Onay yanılgısı.

Araştırmacılar, BDM tabanlı güvenlik açığı tespitinde yapay zekanın "onay yanılgısı"na, yani önceden belirlenmiş beklentilere uyan yorumları tercih etme eğilimine sahip olup olmadığını inceledi. Bu yanılgının, yazılım tedarik zinciri saldırılarında kötüye kullanılıp kullanılamayacağı sorusuna odaklanıldı. Yapılan iki farklı çalışma, bu endişeleri doğrular nitelikte sonuçlar ortaya koydu. İlk çalışma, BDM'lerin belirli senaryolarda onay yanılgısına ne kadar yatkın olduğunu niceliksel olarak ölçerken, ikinci çalışma bu zafiyetin gerçek dünya saldırılarında nasıl kullanılabileceğini gösterdi.

Bu bulgular, yazılım güvenliği dünyası için önemli çıkarımlar barındırıyor. Eğer yapay zeka destekli güvenlik araçları, kötü niyetli aktörlerin belirli bir güvenlik açığının gözden kaçırılması yönündeki beklentilerini onaylama eğilimi gösterirse, bu durum siber saldırganlara yeni kapılar açabilir. Özellikle yazılım tedarik zinciri saldırılarının artış gösterdiği günümüzde, bir yazılımın üretim aşamasında fark edilmeyen bir zafiyet, binlerce hatta milyonlarca kullanıcıyı riske atabilir.

Teknoloji gazetecisi olarak, bu araştırmanın sektörde ciddi bir tartışma başlatması gerektiğini düşünüyorum. Yapay zeka destekli güvenlik çözümlerinin yaygınlaşmasıyla birlikte, bu sistemlerin kendi içsel zafiyetleri de daha yakından incelenmeli. Geliştiricilerin, BDM'lerin karar verme süreçlerindeki bu tür bilişsel önyargıları azaltacak mekanizmalar üzerinde çalışması ve güvenlik araçlarının sadece tespit yeteneklerine değil, aynı zamanda tarafsızlıklarına da odaklanması gerekiyor. Aksi takdirde, güvenlik sağlamak için kullandığımız araçlar, farkında olmadan yeni güvenlik riskleri yaratabilir.

Orijinal Baslik

Measuring and Exploiting Confirmation Bias in LLM-Assisted Security Code Review

Bu haberi paylas