Araştırmalara Dön
Agentic AI

Cursor ve Claude Gibi AI Asistanlarında Parola Sızıntısı: Agentic AI Security Riskleri

Eresus SecurityGüvenlik Araştırmacısı
14 Nisan 2026
3 dk okuma

Cursor ve Claude Gibi Otonom Yazılım Asistanlarının Veri Sızdırma (Leakage) Tehlikesi

Yazılım geliştirme süreci tarihte daha önce hiç olmadığı kadar büyük bir paradigma değişimi yaşıyor. Cursor, GitHub Copilot Chat ve Claude'un IDE'lere (Integrated Development Environment) doğrudan entegre olmasıyla ortaya çıkan Yapay Zeka Destekli Geliştirme (AI-Assisted Development), şirketlerin üretkenliğini inanılmaz seviyelerde artırdı.

Bu yeni nesil asistanlar artık sadece birkaç satır kod tamamlamıyor; binlerce satırlık projeyi komple analiz eden, hataları otonom olarak (Agentic) çözen ve yeni özellikler yazan birer "sanal kıdemli mühendis" rolünü üstleniyorlar. Ancak bu devasa otomasyon, beraberinde yıkıcı bir siber güvenlik problemini de getiriyor: Geliştirici Ortamındaki Hassas Verilerin İfşası (Environment Secret Leakage).


1. Otonom Asistanlar Veriyi Nasıl Sızdırır?

Bir "Agentic AI" aracının karmaşık sorunları otonom bir şekilde çözebilmesi için projenize dair her şeyi anlaması gerekir. Çoğu geliştirici bu araçlara tüm çalışma alanı (workspace) boyunca tam okuma yetkisi verir. Ancak asistanın bu agresif "Bağlam (Context) Toplama" iştahı, güvenlik duvarlarını paramparça edebilir.

A. Aşırı İndeksleme ve .env Dosyalarının Buluta Gitmesi

Asistanın sizin için doğru kodu üretebilmesi adına arka planda Vektör Veritabanı kullanılır. Cursor gibi uygulamalarda @codebase veya @docs gibi bahsetme (mention) özellikleri çalıştırıldığında, LLM tüm proje dizinini kopyalayarak bulut sunucusuna gönderir.

Sızıntı Anı: Geliştiriciler çok sık olarak veri tabanı şifrelerini, AWS bulut sunucu anahtarlarını, özel sertifikaları ve third-party API (Token) anahtarlarını .env veya config dosyalarında tutarlar. Eğer .gitignore ayarlaması kusursuz yapılmamışsa veya IDE asistanı bu dosyaları körlemesine taramaya devam ederse, şirketinizin tüm şifreleri "prompt" satırı içerisinde maskelenmeden doğrudan OpenAI, Anthropic veya ilgili aracı firmanın bulut sunucularına iletilmiş olur!

B. Bulut Sunucularında Güvende Misiniz?

Prompta dahil olup bilgisayarınızın dışına çıkan bu şifreler artık sizin kontrolünüzden çıkar. Bu aşamada gerçekleşebilecek felaketler şunlardır:

  1. Model Eğitimi (Data Training): Ücretsiz veya standart "Pro" paketlerde, gönderdiğiniz veriler LLM sağlayıcıları tarafından gelecekteki LLM modellerini eğitmek için kopyalanır. Birkaç ay sonra yeni bir chatbot versiyonu piyasaya sürüldüğünde, rastgele bir kullanıcı "Bana AWS anahtarı örneği ver" dediğinde, model sizin şirketinizin API key'ini verebilir.
  2. Siber İstihbarat Tehdidi: Eğer yapay zeka altyapı sağlayıcısı bir veri ihlali yaşarsa veya kötü niyetli bir şirket çalışanı "Log" dosyalarından sizin workspace yığınlarınızı okursa, sisteminiz saniyeler içinde fidye yazılımı (Ransomware) kurbanı olur.

2. Agentic AI Asistanlarında Güvenlik Önlemleri

Üretkenlikten ödün vermeden güvenliği sağlamak için Siber Güvenlik Birimlerinin asistan kullanımına kesin sınırlar çizmesi şarttır.

  1. Enterprise Sözleşme Zorunluluğu: Geliştiricilerinize kesinlikle bireysel (B2C) planlarla yapay zeka aboneliği aldırtmayın. Sağlayıcılarla Kurumsal (Enterprise) Sözleşme yapın. Bu sözleşmelerde "Zero Data Retention (Sıfır Veri Tutma)" ve "Verilerin öğrenimde kullanılmaması" gibi zorunlu siber güvenlik sertifikasyonları bulunur.
  2. Yerel Ağ Filtreleri (DLP Çözümleri): Asistan ile bulut sunucusu arasına yerel proxy filtreleri (Data Loss Prevention) kurun. Kurum dışına giden Prompt paketinde bir "API Anahtarı Yapsı" (Örn: sk-ant- veya AKIA) algılandığında, proxy bu isteği anında bloke edip asistanın dışarı veri sızdırmasını (Exfiltration) engellesin.
  3. Otomatize Edilmiş Secret Tarayıcılar: Bir geliştirici dalgınlıkla .env dosyasını public bir commit ortamına veya Agentic bir kod okuyucuya iterse diye repolara Git-Secrets veya TruffleHog entegre ederek kodu denetimden geçirin.
  4. Sıkı Çalışma Alanı Koruması: IDE konfigürasyonunuzda, AI asistanının asla okuyamayacağı ve tarayamayacağı dizinlerin listesini "Exclude" sekmesinden explicit olarak (açıkça) belirtin.

Sonuç: Kodlamada Asistan, Siber Güvenlikte Saatli Bomba

Otonom Agent (Ajan) teknolojisi kodlama dünyasını geri dönülemez şekilde iyileştirdi. Cursor ve Claude gibi araçlardan vazgeçmek şirketinizin rekabet gücünü sıfıra indirir. Yapılması gereken şey bu asistanları yasaklamak değil; Kurumsal Veri Yönetişimi (Data Governance) ve AI Security Pentest yeteneklerini güncelleyerek, asistanların şifreleri buluta dökmesini engelleyecek teknolojik koridorları ("Guardrails") derhal inşa etmektir.