İşe Alımda Yapay Zeka ve Otomatik Karar Verme: İK Süreçlerinde Hukuki Risk Analizi

Sosyal medyada paylaşın

Teknoloji dünyasında 2026 yılı, yapay zekanın sadece bir “yardımcı” olmaktan çıkıp, işe alım süreçlerinde “karar verici” konumuna yükseldiği bir yıl oldu. Ancak bu yükseliş, beraberinde ciddi hukuki sorumlulukları da getirdi. Birleşik Krallık Veri Koruma Otoritesi (ICO) tarafından yayınlanan son rapor, işe alım süreçlerinde kullanılan algoritmaların şeffaflığı ve ayrımcılık riskleri konusunda tüm dünyadaki hukuk danışmanları için bir rehber niteliği taşıyor.

Algoritmik Önyargı ve Ayrımcılık Riski

İşe alım araçları; özgeçmiş tarama, aday puanlama ve mülakat analizi gibi alanlarda hızı artırsa da, “kara kutu” (black box) algoritmalar nedeniyle istenmeyen ayrımcılıklara yol açabiliyor. ICO’nun raporu, yapay zekanın geçmiş verilerden öğrenirken mevcut toplumsal önyargıları (cinsiyet, etnik köken, yaş vb.) kopyalayıp kurumsallaştırabileceği konusunda uyarıyor.

Mevzuat Notu (KVKK Madde 11/g):

Kişisel Verilerin Korunması Kanunu uyarınca, ilgili kişinin “işlenen verilerin münhasıran otomatik sistemler vasıtasıyla analiz edilmesi suretiyle kendisi aleyhine bir sonucun ortaya çıkmasına itiraz etme” hakkı bulunmaktadır. Bu, yapay zeka tarafından reddedilen her adayın, bu kararın arkasındaki mantığı sorgulama hakkı olduğu anlamına gelir.

Hukuk Danışmanları İçin Denetim Listesi

25 yıllık bilişim hukuku ve 700’den fazla bilirkişi raporu tecrübemle, şirketlerin işe alım algoritmalarını kullanırken şu üç temel prensibe odaklanması gerektiğini vurguluyorum:

  1. İnsan Müdahalesi (Human-in-the-loop): Karar mekanizması tamamen yapay zekaya bırakılmamalıdır. Nihai kararın bir insan tarafından verildiği yapılar, hukuki ispat yükünü kolaylaştırır.
  2. Şeffaflık ve Aydınlatma: Adaylara, sürecin hangi aşamasında yapay zeka kullanıldığı ve hangi kriterlerin puanlamada esas alındığı açıkça belirtilmelidir. “Algoritmik şeffaflık” artık bir lüks değil, yasal bir zorunluluktur.
  3. Düzenli Etki Analizi (DPIA): Kullanılan yazılımın belirli gruplara karşı sistematik bir dışlama yapıp yapmadığı periyodik olarak test edilmeli ve bu testler kayıt altına alınmalıdır.

Yatırımcı Avukat Gözüyle: İK teknolojilerine yatırım yapan şirketler için en büyük finansal risk, hatalı bir algoritma nedeniyle açılacak toplu tazminat davaları ve itibar kaybıdır. Hukuki denetimden geçmemiş bir AI aracı, şirket bilançosunda öngörülemez bir pasif kalemdir.


SORU – CEVAP

1. İşe alımda yapay zeka kullanımı KVKK’ya aykırı mıdır?

Yapay zeka kullanımı tek başına hukuka aykırı değildir; ancak adayların açıkça bilgilendirilmesi ve otomatik kararlara itiraz haklarının saklı tutulması gerekir. Şeffaflık ilkelerine uyulmadığında veri ihlali ve tazminat sorumluluğu doğar.

2. Algoritma bir adayı haksız yere elerse sorumlu kimdir?

Hukuki sorumluluk, yazılımı geliştiren firmadan ziyade veriyi işleyen ve kararı kullanan “Veri Sorumlusu” sıfatıyla işverene aittir. İşveren, algoritmanın neden olduğu hatalı sonuçlardan doğrudan sorumludur.

3. “Otomatik karar verme” hakkındaki itirazlar nasıl yönetilmelidir?

Şirketlerin, adaydan gelen itirazı değerlendirebilecek yetkinlikte bir “insan hakem heyeti” veya yetkilisi belirlemesi gerekir. İtiraz durumunda, algoritmanın karar verme mantığı açıklanabilmelidir.

4. İşe alım AI araçlarında “ayrımcılık” nasıl önlenir?

Algoritmaların eğitiminde kullanılan veri setlerinin çeşitliliği kontrol edilmeli ve periyodik olarak “farklı etki” (disparate impact) analizleri yapılmalıdır. Teknik ekipler ile hukuk danışmanları bu süreçte eşgüdümlü çalışmalıdır.

5. Bir hukuk danışmanı AI yazılımı satın alırken neyi sorgulamalıdır?

700+ bilirkişi raporu birikimimle tavsiyem; yazılım tedarikçisinden “Explainable AI” (Açıklanabilir Yapay Zeka) garantisi ve geçmiş dönem önyargı test raporlarını talep etmenizdir.


KAYNAKLAR

  1. Information Commissioner’s Office (ICO) – AI in Recruitment: Guidance for Employers
  2. T.C. Kişisel Verileri Koruma Kurumu (KVKK) – Yapay Zeka Uygulamalarında Veri Korumasına İlişkin Tavsiyeler
  3. European Data Protection Board (EDPB) – Guidelines on Automated Individual Decision-making
  4. NIST – AI Risk Management Framework 1.0
  5. Ankara Barosu – Yapay Zeka ve Hukuk Çalışmaları Raporu

ETİKETLER

İşeAlımdaYapayZeka, AlgoritmikAyrımcılık, KVKK, ICO, BilişimHukuku, ÖzgürEralp, HukukDanışmanı, OtomatikKararVerme, İnsanKaynaklarıHukuku, YapayZekaEtiği