X (Twitter) ve Grok AI Soruşturması: Yapay Zeka ile Üretilen Sahte İçeriklerin Hukuki Bedeli
Dijital dünyada “ifade özgürlüğü” ile “kişisel verilerin korunması” arasındaki çizgi hiç bu kadar incelmemişti. İngiltere Veri Koruma Otoritesi (ICO), Ocak 2026 itibarıyla teknoloji devi X (Twitter) ve X.AI hakkında sarsıcı bir soruşturma başlattı. Soruşturmanın merkezinde ise X’in yapay zekası Grok var.
Grok AI Neden Radara Girdi?
Soruşturmanın tetikleyicisi, Grok AI kullanılarak gerçek kişilerin (ve ne yazık ki çocukların) görsellerinin manipüle edilmesi ve cinsel içerikli sentetik görüntüler üretilmesi oldu. ICO, bu durumun veri koruma yasalarını ihlal ettiğini ve kamuoyu için ciddi bir risk oluşturduğunu belirtiyor.
Soruşturma şu üç ana soruya yanıt arıyor:
- Hukuka Uygunluk ve Şeffaflık: X, bu verileri işlemek için geçerli bir hukuki sebebe sahip miydi? Kullanıcılar verilerinin bu amaçla kullanılacağı konusunda yeterince bilgilendirildi mi?
- Tasarımda Güvenlik (Safeguards): Grok geliştirilirken, bu tür zararlı içeriklerin üretilmesini engelleyecek teknik bariyerler (guardrails) neden kurulmadı?
- Yüksek Riskli Veri İşleme: Gerçek kişilerin görüntüleri üzerinde “sentetik içerik” üretmek gibi yüksek riskli bir işlem için gerekli risk analizleri yapıldı mı?
Türkiye İçin “Kritik” Uyarılar
Bu mesele sadece İngiltere’yi değil, ülkemizi de yakından ilgilendiriyor. Türk hukuku açısından bakıldığında, yapay zeka ile “Deepfake” veya benzeri manipüle edilmiş içerik üretilmesi durumunda karşımıza çok katmanlı bir sorumluluk çıkar:
- KVKK Açısından: Kişinin biyometrik verisi veya görseli üzerinden rızası dışında içerik üretilmesi “amaçla sınırlılık” ilkesine aykırıdır.
- Türk Ceza Kanunu Açısından: Bu tür içeriklerin üretilmesi ve yayılması; Özel Hayatın Gizliliğini İhlal (Madde 134) ve Müstehcenlik (Madde 226) suçları kapsamında değerlendirilebilir.
Özgür Eralp’in Notu: Yapay zeka projeleri geliştiren yerli girişimlerin, sadece “teknolojiye” odaklanması yetmez. ICO’nun bu soruşturması gösteriyor ki; teknik tasarımın içine hukuki güvenlik bariyerleri yerleştirilmeyen her yapay zeka, bir gün veri sorumlusu için devasa bir hukuki ve mali yüke dönüşebilir.
Resmi Kaynaklar ve Tavsiyeler
Yazılım geliştiriciler ve veri sorumluları için Türkiye’deki ilgili rehberleri incelemekte fayda var:
- Kişisel Verileri Koruma Kurumu (KVKK): Yapay Zeka Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler (Resmi Rehber).
- Bilgi Teknolojileri ve İletişim Kurumu (BTK): İnternet Güvenliği ve Sosyal Medya Kullanım Rehberleri.
- Avrupa Veri Koruma Denetçisi (EDPS): Yapay Zeka ile Üretilen Görüntüler ve Gizliliğin Korunmasına İlişkin Ortak Bildiri (Şubat 2026).
Sonuç: Yapay zeka ile içerik üretmek bir özgürlük alanı gibi görünse de, başkasının verisi ve mahremiyeti söz konusu olduğunda hukuk “dur” der. X ve Grok davası, bu sınırın nerede çizileceğini belirleyen en önemli emsal olacaktır.
Avukat-Hukuk Danışmanı,
Dijital İçerik oluşturucu,
Kitle fonlama girişimci ve yatırımcısı,
ODTÜ Felsefe Öğrencisi:)
AÖF Yönetim Bilişim Sistemleri Öğrencisi:),