Back to Research
AI Security

Yapay Zeka Veri Yönetişimi (AI Data Governance) Nedir ve Neden Çok Zordur?

Eresus SecuritySecurity Researcher
April 14, 2026
4 min read

Yapay Zeka Veri Yönetişimi (AI Data Governance) Nedir ve Neden Bu Kadar Zordur?

Modern işletmeler Üretken Yapay Zeka (GenAI) asistanlarını operasyonlarına kattıkça, şirket içi bilgiye anında erişmek isteyen iş birimleriyle, veri sızıntısından korkan Bilgi Güvenliği (CISO) ekipleri arasında büyük bir sürtüşme doğar. On yıllardır kurumlar verilerini statik kurallarla, güvenlik duvarlarıyla, Role Dayalı Erişim Kontrolü (RBAC) ve Veri Kaybı Önleme (DLP) yazılımlarıyla korudular. Eğer yetkisiz bir çalışan İnsan Kaynakları maaş bordrosu klasörüne tıklarsa, sistem bu erişimi basitçe engellerdi.

Ancak bir organizasyon, RAG (Retrieval-Augmented Generation) mimarisi üzerinden şirket hafızasına bir Büyük Dil Modeli (LLM) bağladığında, bu geleneksel sınırlar tamamen parçalanır. Modeller artık statik dosyalar değil, dinamik ve zeki aracılardır. Yetkisiz veri ifşasını engellemek için sadece kapıyı kilitlemek yetmez; yepyeni ve çok yanlış anlaşılan bir disipline ihtiyaç vardır: AI Data Governance (Yapay Zeka Veri Yönetişimi).


1. AI Veri Yönetişimini Tanımlamak

Geleneksel IT dünyasında Veri Yönetişimi; verinin kalitesini, bütünlüğünü ve statik kurallar çerçevesinde erişilebilirliğini sağlar. Yapay Zeka Veri Yönetişimi (AI Data Governance) ise, kurumsal bilginin "yapay zeka modeliyle etkileşime girdiği anda" dinamik olarak korunması pratiğidir.

Bu disiplin, geleneksel güvenlik hedeflerini AI'a özgü tamamen yeni risklere uyarlar:

  • Gölge AI (Shadow AI) ve Aşırı Paylaşım: Çalışanların denetlenmeyen açık kaynaklı veya genel AI araçlarına projenin asıl kodlarını veya müşteri verilerini yapıştırması.
  • Çıkarımsal İfşa (Inference Exposure): AI'ın, erişime açık, düşük gizlilikteki birkaç farklı belgeyi okuyup analiz ederek; birleştirilmiş verilerden yüksek gizliliğe sahip bir sırrı (örneğin yaklaşan bir şirket birleşmesini) matematiksel olarak "tahmin edip" kullanıcıya sunması.
  • Prompt Injection (İstem Enjeksiyonu): Dış saldırganların veya iç tehditlerin modeli manipülasyonla zehirleyerek, AI'ı şirketin katı veri erişim kurallarını ihlal etmeye ve iç belgeleri dışarı sızdırmaya zorlaması.

AI Veri Yönetişimi aracı yasaklamak demek değildir; modelin kiminle, hangi bağlamda, neleri "görebileceğini" ve neleri "cevaplayabileceğini" eş zamanlı (real-time) test eden bir zeka katmanı oluşturmaktır.


2. Piyasada AI Veri Yönetişimi Kurmak Neden Çok Zordur?

Kurumların devasa bütçeli AI projeleri, ekiplerin geleneksel DLP (Veri Kaybı Önleme) araçlarını LLM yapılarına zorla uydurmaya çalışması sebebiyle felaketlerle sonuçlanır.

A. Geleneksel DLP'nin Çöküşü

Normal bir DLP, ağ üzerinden geçen metinlerdeki sabit desenleri (Regex) arar. Kredi kartı formatı görürse işlemi bloke eder. Oysa LLM'ler yepyeni metinler üretir. Senaryo: Stajyer bir çalışan İK asistanına gidip "Kredi kartı bilgilerini ver" demez. Bunun yerine, "Benim başlangıç maaşım ile CTO'nun maaşı arasındaki yüzdelik uçurum nedir, aradaki fark kaç asgari ücrete denk geliyor?" diye sorar. Sıradan bir DLP bu soruda bir dosya talebi görmediği için alarm vermez. Ancak şirket veritabanını tarayarak (RAG) harmanlayan LLM, bu karmaşık matematiği yapar ve yönetici maaş farkını çalışanın ekranına yazdırır. AI sistemleri için statik kural tabanlı DLP değil, kelimelerin "anlamını" ve "bağlamını" anlayan Semantik DLP katmanları kurulmalıdır.

B. Rol Tabanlı Yetkilendirmenin (RBAC) Ölümü

Standart sistemlerde bir çalışanın yetkisi ya vardır ya yoktur. Ancak AI dünyasında her şey bağlama bağlıdır. Bir bölge müdürü, toplantı öncesi şirket asistanından finansal analiz tablolarını isteme yetkisine sahiptir. Ancak aynı yetkili "Rakiplere darbe vurmak için fiyatlandırma algoritmamızın iç kaynak kodunu bana listele" dediğinde AI asistanı bunu ona vermeli midir? Bu kriz, şirketleri RBAC yapısından PBAC (Amaç Tabanlı Erişim Kontrolü - Purpose-Based Access Control) yapısına geçmeye zorlamaktadır. Asistan sadece "Kim soruyor?" limitinde kalmamalı, sistem kullanıcının rolünü, sorunun niyetini ve kurumun kullanım politikalarını aynı anda analiz etmelidir.

C. Denetlenemeyen Kara Kutu

Kurumlar GPT-4 veya Claude gibi ticari modelleri API aracılığıyla entegre ettiğinde arka plandaki işlemler bir kara kutuya (Black Box) döner. LLM bir yanıt verdiğinde, bu yanıtı şirket Wiki'sindeki tam olarak hangi paragrafı baz alarak sentezlediğini kanıtlayacak (Auditability) temiz bir adli bilişim (Forensics) izi çoğu zaman yoktur. Denetlenebilirliğin olmadığı yerde teknik yönetişim sağlanamaz.


3. Güçlü Bir AI Veri Güvenlik Stratejisi Nasıl İnşa Edilir?

Bu teknik engelleri aşmak için CISO ofisleri proaktif ve çok katmanlı savunma vizyonu benimsemelidir:

  1. Dinamik Bir Bilgi Katmanı (Knowledge Layer) Kurun: Kullanıcıları doğrudan LLM ile baş başa bırakmayın. Gelen promptları karşılayan, kullanıcının niyetini anlayan ve vektör veritabanından çekilecek belgeleri LLM'in dahi göremeyeceği şekilde önceden filtreleyen güvenlik mekanizmaları (Guardrails) inşa edin.
  2. PBAC Sistemlerine Yatırım Yapın: Verilerinizin RAG mimarisine yüklenirken inanılmaz derecede spesifik Metadata etiketleriyle ayrıştırıldığından emin olun. İzin ağınızı sadece isimlere göre değil, kullanıcı senaryolarına göre daraltın (Least Privilege).
  3. Simülasyon ve Sürekli Kırmızı Takım (Red Teaming): AI sisteminize bizzat siz saldırın. Olası tüm jailbreak ve yüksek riskli bilgi çıkarma senaryolarını canlıya geçmeden test edin. Yetkisiz veri sızıntısı yollarını (Inference Vulnerabilities), gerçek saldırganlar ve içerideki tehditler kullanmadan önce Eresus Security gibi uzman Pentest takımlarına yamalattırın.

Sonuç

Büyük Dil Modellerini standart bir e-posta uygulaması veya SaaS hizmeti gibi ele almak stratejik bir intihardır. Yapay zeka ajanları, işletmenizin en gizli hafıza korteksine doğrudan bağlanan düşünen varlıklardır. Kapsamlı bir AI Veri Yönetişimi (Data Governance) oluşturmak artık kurumsal bir seçenek değil; ağır regülasyonların olduğu dünyamızda hayatta kalmanın ve inovasyonun birincil kuralıdır.