Araştırmalara Dön
GenAI

AI Safety ve AI Security Arasındaki Temel Farklar: Emniyet Mi, Yoksa Siber Güvenlik Mi?

Eresus SecurityGüvenlik Araştırmacısı
14 Nisan 2026
4 dk okuma

AI Safety ve AI Security Arasındaki Temel Farklar Nelerdir?

Büyük işletmelerin Operasyonel ve Üretken Yapay Zeka (GenAI) entegrasyonu hızlandıkça, yönetim kurullarında ve CISO toplantılarında iki terim sıklıkla masaya gelmektedir: AI Safety (Yapay Zeka Emniyeti) ve AI Security (Yapay Zeka Siber Güvenliği). Bu iki disiplin çoğu zaman eşanlamlı gibi kullanılsa da, güvenlik mühendisliği açısından tamamen farklı endişeleri hedef alırlar.

LLM'lerinizi ve otonom iş akışlarınızı devreye almadan önce, bu uçurumun farkında olmak veri mahremiyetini ve marka değerinizi kurtaracak tek önlemdir. Konuyu en basit tanımıyla özetlemek gerekirse: AI Safety, insanlığı yapay zekanın "hata ve zararlarından" korur; AI Security ise yapay zekayı kötü niyetli insanlardan (saldırganlardan) korur.


1. AI Safety (Yapay Zeka Emniyeti) Nedir ve Neye Odaklanır?

Yapay zeka emniyeti (AI Safety), bir modelin amaçlandığı gibi davranmasını, teknik öngörülebilirliği korumasını ve insan değerleriyle "uyumlu" (Alignment) kalmasını amaçlar. Emniyet çalışmaları sistemin kendiliğinden çığırından çıkarak kazara kullanıcılara veya kuruma zarar vermesini engellemeye odaklanır. Ortada aktif, kötü niyetli bir hacker yoktur; modelin bizzat kendi tasarımsal eksiklikleri vardır.

AI Safety uzmanlarının temel olarak ilgilendiği konular ve problemler şunlardır:

  • Halüsinasyon (Hallucination): Modelin kurgusal ve tamamen yanlış bilgileri yüksek bir özgüven tonuyla, yalan makinesi gibi "doğruymuşçasına" raporlaması. Bu durum hukuki ve medikal danışmanlıklarda devasa bir emniyet krizidir.
  • Toplumsal Önyargı (Bias) ve Adalet: Algoritmanın eğitim verisindeki azınlık veri kümelerinin eksikliği nedeniyle, kredi veya işe alım algoritmalarının ırk veya cinsiyete göre ayrımcı (bias) kararlar vermesi.
  • Toksisite Kategorisi: AI motorunun kullanıcılara nefret söyleminde bulunması veya şiddet içeren eylemler (örneğin patlayıcı kimyasal şeması verme) için yardımcı olmasını engellemek üzere filtreler ("Guardrails") konulması.
  • Varoluşsal Emniyet (AGI Alignment): Gelecekteki süper zeka (AGI) modellerinin insanlığı yok etmeden veya insanlık değerlerine paralel kararlar verecek şekilde kısıtlanması.

2. AI Security (Yapay Zeka Siber Güvenliği) Nedir?

AI Security ise denkleme kötü niyetli, proaktif bir siber saldırganı (Adversary) koyar. Bu disiplin, eğitim aşamasından başlayarak canlıya alınan makine öğrenimi modellerini hedeflenmiş dış ve iç siber saldırılara karşı savunma bilimidir.

AI Security kapsamında sistemlerin izole edilmesi, Pentest (Sızma Testi) uygulamaları ve açık zafiyet yönetimi devreye girer:

  • Prompt Injection (İstem Enjeksiyonu): Hackerların, sistemin orijinal komutlarını ezen kurnaz prompt'lar tasarlayarak modeli manipüle etmesidir (Jailbreaking). Örneğin başarılı bir enjeksiyon, müşteri hizmetleri asistanını şirket veri tabanındaki tüm kullanıcı T.C. kimlik numaralarını dışarı çıkartması için ikna edebilir.
  • Veri Zehirlenmesi (Data Poisoning): Kötü niyetli aktörlerin yapay zekayı eğittiğiniz ilk veri okyanusuna sızarak, modelin içine bilinçli olarak truva atları ve "Arka Kapılar" (Backdoors) yerleştirmesi olayıdır.
  • Tersine Mühendislik (Model Extraction): Yüz binlerce dolar harcayarak ürettiğiniz algoritmaya, saldırganın API sınırlarını esneterek on milyonlarca sorgu yollaması ve sonucunda yapay zekanızın "tasarım ağırlıklarının" birebir bir kopyasını kendi bilgisayarlarına indirebilmesidir.
  • Adversarial Noise (Saldırgan Gürültü): Otonom sensörlere, sadece matematiksel olarak farklılık gösteren pikselli objeler göstererek, çok sağlam bir güvenlik kamerasının içeriye elinde silahlı birini "Ziyaretçi Şemsiyesi" olarak etiketlemesini sağlayacak bypass yöntemleri.

3. Kurumsal Çarpışma: Neden Sadece "Emniyet" Yetersizdir?

Günümüzde dev teknoloji şirketleri piyasaya sürdükleri dil modellerini (Örn: ChatGPT veya Claude) ağırlıklı olarak AI Safety (Emniyet) standartlarında değerlendirmektedir. Modeli ahlaklı ve halüsinasyon görmez hale getirmek ticari bir gerekliliktir. Ancak şu altın kural unutulmamalıdır: Bir model son derece "Emniyetli" (Safe) olabilirken siber güvenliği sınıfta kalmış (Insecure) olabilir.

Trajikomik Senaryo: Bir fintek firması, mobil bankacılık uygulamasının içine müşteriler için harika bir "Yatırım Asistanı" kurmuştur. Geliştiriciler modele kesinlikle siyasi görüş paylaşmaması, argo kelime etmemesi için mükemmel sınırlar ("AI Safety") çizmiştir. Asistan çok temiz konuşmaktadır. Fakat yetenekli bir siber saldırgan bu asistanla konuşmaya başlar. SQL benzeri komutlar ve gelişmiş Prompt Injection teknikleri ile modele veritabanını dökmesini emreder. Model son derece kibar, ahlaklı ve kurumsal (Safe) bir dil kullanarak şirketteki 1 milyon müşterinin kredi ekstresini CSV formatında korsana uzatır!

Sonuç: Kapsamlı AI Savunma Stratejisi

Güvenli bir yapay zeka deneyimi inşa etmek istiyorsanız, bu iki disiplini birbirinden beslenerek büyüyen iki kardeş olarak ele almalısınız. AI geliştiricileriniz makine öğrenimi modellerinin etik sınırlarından ("Safety") taviz vermemeli; kurumsal Güvenlik Opearsyonları ve Sızma Testi Ekipleri (Red Team) ise acımasızca modele saldırarak "AI Security" bariyerlerinin yüksek basınca ("Stress-test") ne kadar dayanabileceğini ispatlamalıdır.