Araştırmalara Dön
DevSecOps

Yapay Zeka Ağları İçin Zero Trust (Sıfır Güven) Mimarisi Nasıl İnşa Edilir?

Yiğit İbrahim SağlamOfansif Güvenlik Uzmanı
14 Nisan 2026
4 dk okuma

Yapay Zeka Altyapısında Zero Trust (Sıfır Güven) Mimarisini Kurgulamak

Modern işletmelerin büyük bir çoğunluğu, açık kaynaklı yapay zeka modellerini veya devasa RAG (Retrieval-Augmented Generation) mimarilerini kurumsal iç ağlarına büyük bir iştahla entegre ediyor. Veritabanlarına doğrudan bağlanan bu yapay zeka asistanları inanılmaz derecede verimli olmakla birlikte, ağ güvenliği açısından saatli birer bombadır.

Eğer bir yapay zeka modeli (LLM) dışarıdan Prompt Injection saldırısıyla ele geçirilirse (Jailbroken), o model artık kullanıcının esiri olur. Eğer şirketinizin ağ mimarisi geniş ve esnekse, LLM içine sızan bir saldırgan modeli adeta bir köprü gibi (Pivot noktası) kullanarak diğer iç sunucularınıza atlayabilir. İşte tam bu noktada siber güvenliğin en tartışılmaz konsepti devreye girer: Yapay Zeka için Zero Trust (Sıfır Güven) Mimarisi.


1. Zero Trust (Sıfır Güven) Nedir?

Geleneksel ağ güvenliği bir kaleye benzerdi: Dışarıda kalın bir güvenlik duvarı vardır (Firewall), ancak duvardan içeri bir kere girdiğinizde içerideki herkesin birbirine güveni tamdır. Fakat yapay zekanın olduğu yerde bu felsefe fatal (ölümcül) bir hatadır.

Sıfır Güven (Zero Trust) yaklaşımı şuna dayanır: Hiç kimseye, cihazın veya ağın konumuna bakmaksızın güvenme. Şirket içindeki bir sunucu diğer sunucuya bağlanmak istese bile her adımda kimliğini kanıtlamak zorundadır.

Makine öğrenimi sistemlerinde Zero Trust prensipleri:

  • Kendi eğittiğiniz ve sunucunuzda çalışan AI modelini her zaman "Yabancı" ve "Tehdit Altında" kabul edin.
  • AI ajanlarına sadece o anki isteği tamamlaması için gereken "minimum yetkiyi" verin (Least Privilege Principle).
  • Bir siber vaka durumunda zararın büyümesini önlemek için uygulamaları mikro seviyede kafeslere hapsedin (Micro-segmentation).

2. LLM ve RAG Altyapılarında Sık Yapılan Tasarım Hataları

Uygulamalı sızma testlerimizde şirketlerin AI ağlarını kurarken düştükleri üç tipik hata tespit ettik:

A. Modeli Aynı Sunucuda (Monolithic) Tutmak

Geliştiriciler, Müşteri Hizmetleri uygulamasının backend kodları ile LLM'in Inference (tahmin/yanıt üretme) motorunu aynı sunucu veya aynı Linux makinesi üzerine kurarlar. Modelin içindeki Python kodu bir OS Command Injection veya Pickle RCE açığıyla manipüle edilirse, saldırgan ana sunucudaki tüm kullanıcılara erişir. Sistem Monolitik değil; tamamen ayrıştırılmış konteynerler (Docker/Kubernetes) içinde olmalıdır.

B. Vektör DB'ye Kök (Root) İzniyle Erişim

Bir RAG modeli oluştururken, uygulamanın Milvus veya Pinecone gibi vektör veritabanlarını sorgulaması gerekir. Yazılım ekipleri genellikle sisteme Root veya Admin DB yetkisi veren şifreyi gömerler. Model dışarıdan zehirlenir ve "Tüm veritabanı tablolarını sil" komutunu alırsa, bu işlem başarıyla gerçekleşir.

C. İnternet Erişiminin Açık Bırakılması

Kurum içindeki bir dökümanı özetlemekle görevli olan kapalı LLM nodu, çoğu zaman güncellemeleri çekebilmesi adına dış internete açık bırakılır. Başarılı bir Prompt Injection sonrasında, saldırgan LLM'i kendi komuta kontrol (C2) sunucusuna bağlayarak, okuduğu tüm özel dökümanları şirket dışına exfiltre (sızdırma) ettirebilir. Otonom yapay zekanın sadece belirlediğiniz spesifik API kapıları hariç dışarıyla tüm bağlantısı kesilmelidir.


3. Yapay Zeka Servislerini "Kafese Kapatmak" (Micro-Segmentation)

Yapay zeka operasyonlarını MLOps süreçlerine aktarırken Zero Trust mimarisinin kurulum adımları şunlardır:

  1. Katı Ağ Politikaları (Network Policies): Eğer Kubernetes kullanıyorsanız Pod'lar arası network politikalarını sınırlandırın. AI Inference Pod'u sadece gelen porttan API dinlemeli, şirketin Active Directory'sine veya Faturalandırma veritabanı IP'lerine ping dahi atamamalıdır. Sadece yetkili mikroservislere konuşabilmelidir.
  2. Dinamik Veri Erişim Maskeleri: LLM'e tüm veritabanı erişimini vermeyin. Veritabanından veriyi bir ara katman (Proxy veya Business Logic Katmanı) çeksin, hassas kişisel verileri (TC, Kredi kArtı) maskelesin (Data Redaction) ve ancak ondan sonra sadece özetleme/işleme amaçlı LLM motoruna göndersin.
  3. Kalıcı (Persistent) Kimlik Doğrulama: LLM bir web eklentisi veya API çalıştırırken statik bir şifre (Hardcoded API Key) kullanmamalıdır. mTLS (Mutual TLS) ve kısa süreli JIT (Just-In-Time) token'lar kullanarak her bir mikro sorguda kimlik doğrulaması şart koşulmalıdır.

Sonuç

Yapay zeka modellerinin son kullanıcılarla esnek bir sohbet içinde olduğu gerçeği, güvenlik mimarisini de esnetmek zorunda olduğumuz anlamına gelmez. Tam aksine, algoritmaların ne zaman halüsinasyon göreceğini kestiremediğimiz bu ortamda, arka planda uygulanacak tavizsiz bir Sıfır Güven (Zero Trust) ağ politikası; modern işletmeleri siber fırtınalardan koruyan tek sigortadır. Eresus Security DevSecOps hizmetleriyle, kendi yapay zeka kafesinizi hemen inşa etmeye başlayın.