EresusSecurity
Araştırmalara Dön
Tehdit Analizi

Vercel ve Context.ai Olayı Yapay Zeka Odaklı SaaS Güvenliğini Nasıl Değiştiriyor?

Eresus Güvenlik Araştırma EkibiGüvenlik Araştırmacısı
22 Nisan 2026
3 dk okuma
HaberlerBulut GüvenliğiKaynak: Vercel Knowledge Base / TechCrunchKaynak tarihi: 2026-04-20

Olay Zaman Çizelgesi

20 Nisan 2026'da Vercel, iç sistemlerine yetkisiz erişimi içeren bir güvenlik olayını duyurdu. Resmi açıklamasına göre olay, bir Vercel çalışanının kullandığı üçüncü parti bir yapay zeka aracı olan Context.ai'ın ele geçirilmesinden kaynaklandı. Vercel'in açıklamasına göre saldırganlar, bu ihlali kullanarak OAuth aracılığıyla çalışanın Google Workspace hesabını ele geçirdi ve ardından bazı iç ortamlara ile hassas olmayan ortam değişkenlerine (environment variables) erişim sağladı.

TechCrunch ise ayrı olarak yayınladığı bir haberde, hackerların müşteri verilerini ve kimlik bilgilerini (credentials) çaldığını iddia ederek çevrimiçi ortamda satışa çıkardıklarını bildirdi. Bu ihlal, geliştirici altyapılarını etkileyen daha geniş bir tedarik zinciri (supply-chain) saldırı modelinin parçası olarak değerlendiriliyor.

Gerçekte Ne Biliyoruz?

Vercel'in yayımladığı bültene göre:

  • İlk erişim (foothold), üçüncü parti bir yapay zeka aracını içeren bir uzlaşmayla bağlantılıydı;
  • Saldırganlar, Google Workspace üzerinden OAuth bağlantılı erişimi kullanarak yanal hareket (lateral movement) sağladı;
  • Vercel'in ana altyapısı değil, hedef alınan bir çalışanın izole edilmiş ortamı (environment) etkilendi.

Bu Olay Neden Vercel'den Çok Daha Önemli?

Vercel bu olayı hızlıca tespit edip izole etti. Ancak bu olayın asıl gösterdiği şey, kurumsal SaaS güvenliğinin artık yapay zeka araçları tarafından tamamen delindiğidir.

Geleneksel güvenlik testlerinde biz genellikle uygulamanın kendisine odaklanırız. Namun, modern kurumlarda "Shadow AI" ve OAuth ile bağlanan üçüncü parti botlar en zayıf halkanız haline gelmiştir. Geliştiriciler verimlilik aracı olarak AI asistanları kullanırken, bu asistanlara şirketinizin Google Workspace, GitHub veya Slack ortamlarına okuma/yazma yetkileri (OAuth token) veriyorlar. Bu araçların sunucuları veya veri tabanları ele geçirildiğinde, saldırgan doğrudan sizin kurumsal kimliğinize erişim elde eder.

Yeni Güvenlik Dersi

  1. Yapay Zeka Bir Arka Kapıdır (Backdoor): Çalışanlarınızın yetkilendirdiği AI araçları (özellikle context veya memory okumak için e-postalara ve kod depolarına erişim isteyenler) artık saldırganların en sevdiği arka kapıdır.
  2. OAuth Kapsamları Tehlikeli Bir Seviyede: "Yalnızca okuma" yetkisine sahip bir AI aracının token'ı çalındığında, saldırganlar tüm kurumsal veri setinize sızabilir. Vercel olayında yaşanan tam olarak buydu.
  3. Tedarik Zinciri Artık Sadece Kütüphaneler Değil: Geçmişte npm veya PyPI kütüphanelerinden korkardık. Bugün, "Tedarik Zinciri" dediğimiz şey, sisteminize API anahtarı ile bağlanan yapay zeka araçlarının bütünüdür.

Ekipler Ne Yapmalı?

  1. AI Entegrasyonlarını İzole Edin: Üçüncü parti AI botlarına asla ana Workspace hesapları üzerinden "Full Access" (Tam Erişim) vermeyin.
  2. Düzenli Sızma Testi: Artık sadece uygulamanızın kodunu değil, uygulamanıza bağlı AI ajanlarının ve third-party servislerin OAuth yetkilerini de test ettirin. Eresus Security olarak biz, Red Team operasyonlarımızda tam olarak bu saldırı yollarını kurguluyoruz.
  3. "Shadow AI" Avına Çıkın: Ekibinizin şirketin kodunu veya iç verilerini hangi third-party AI araçlarına beslediğini düzenli olarak denetleyin.

Kapanış Düşüncesi: Vercel olayı bir istisna değil. Yapay zekanın geliştirici iş akışlarına entegrasyonu arttıkça, bu tür "yanal yapay zeka saldırıları" önümüzdeki yılların en popüler siber güvenlik sorunu olacak.