Seçilmiş Güncel Gelişmeler 44

 

* Avrupa Veri Koruma Kurulu (EDPB), AB Genel Veri Koruma Tüzüğü’nün (GDPR) 48. maddesine ilişkin hazırlanan 02/2024 sayılı Rehberi, kamuoyu görüşüne sunulmasının ardından nihai hale getirerek yayımladı[1].

 

* Birleşik Krallık Veri Koruma Otoritesi (ICO), işe alım süreçlerinde otomatik karar mekanizmalarının kullanımına ilişkin kamuoyu algılarını ve deneyimlerini anlamaya yönelik olarak yürütülen araştırmanın bulgularını yayımladı[2].

 

* Fransa Veri Koruma Otoritesi (CNIL), AB Genel Veri Koruma Tüzüğü’nün (GDPR) siber güvenlik üzerindeki ekonomik etkisinin incelendiği bir çalışma yayımladı[3].

 

* Birleşik Krallık Ulusal Siber Güvenlik Merkezi, etkili siber güvenlik uygulamalarının temelini oluşturan kurumsal kültürün inşasına yönelik geliştirilen “Siber Güvenlik Kültürü İlkeleri’ni yayımladı[4]. Bu çerçevede söz konusu ilkeler şu şekilde belirtilmektedir:

  • Siber güvenliğin, kuruluşun hedeflerine ulaşmasını destekleyen bir unsur olarak konumlandırılması,

 

  • Güvenlik konusunda açıklığı teşvik edecek güven ortamı ve süreçlerin oluşturulması,

 

  • Yeni tehditleri yönetmek ve dayanıklılığı artırmak amacıyla değişimin benimsenmesi ve yeni fırsatların değerlendirilmesi,

 

  • Kuruluşun sosyal normlarının, güvenli davranışları teşvik etmesi,

 

  • Liderlerin, güvenlik kültürü üzerindeki etkilerinin sorumluluğunu üstlenmeleri,

 

  • Erişilebilir, anlaşılması kolay ve iyi bir şekilde yönetilen siber güvenlik kuralları ile yönergeler sağlanması.

 

* Avrupa Parlamentosu Araştırma Servisi (EPRS), AB Yapay Zekâ Tüzüğü’nün (AI Act) uygulanmasına ilişkin zaman çizelgesinin paylaşıldığı bir doküman yayımladı[5].

 

* Avrupa Veri Koruma Kurulu (EDPB), Yunanistan Veri Koruma Otoritesi’nin talebi üzerine “Uzman Destek Havuzu” (Support Pool of Experts) programı kapsamında, yapay zekâ ve kişisel verilerin korunmasına ilişkin iki yeni rapor yayımladı[6]. Bu çerçevede “Yapay Zekâ Güvenliği ve Veri Koruma Alanında Hukuk ve Uyumluluk” başlıklı rapor[7], veri koruma görevlileri ve hukuk alanında çalışan profesyonellere yönelik iken; “Kişisel Veriler Açısından Güvenli Yapay Zekâ Sistemlerinin Temelleri” başlıklı raporun[8] ise siber güvenlik uzmanları ile yüksek riskli yapay zekâ sistemlerinin geliştiricileri veya uygulayıcılarına yönelik teknik içerikler sunduğu belirtilmektedir.

 

* Avrupa Veri Koruma Denetçisi (EDPS) ile İspanya Veri Koruma Otoritesi (AEPD), yapay zekâ modellerinin eğitilmesinde kişisel verilerin korunması ile uyumlu bir yaklaşım sunan federe öğrenmenin avantajlarının ve zorluklarının ele alındığı ortak bir rapor yayımladı[9]

 

* Avrupa Komisyonu Ortak Araştırma Merkezi (JRC), üretken yapay zekâya ilişkin kapsamlı bir değerlendirme sunan Görünüm Raporu’nu yayımladı[10]. Raporda; üretken yapay zekânın temelleri, gelişim eğilimleri, siber güvenlik açısından ortaya çıkardığı riskler, ekonomik yansımaları, toplumsal etkileri ve karşılaşılan zorluklar ele alınmakta; ayrıca mevcut düzenleyici çerçeve kapsamında Avrupa Birliği’nin yaklaşımı ile bu teknolojinin çeşitli sektörlerdeki potansiyel kullanım alanları incelenmektedir.

Bu kapsamda raporda öne çıkan başlıca değerlendirmeler şu şekildedir:

  • Üretken yapay zekâ, yalnızca teknolojik bir ilerleme değil; aynı zamanda dijital teknolojilerin toplum ve ekonomiyle kesişiminde köklü bir dönüşüm anlamına gelmektedir.                                                                       
  • Çok modlu modeller ve yapay zekâ ajanları gibi gelişen teknolojik eğilimler, karar alma süreçlerini ve üretkenliği önemli ölçüde artırmakla birlikte; hesap verebilirlik, yönetişim ve ön yargıların yönetimi gibi konularda zorluklar ortaya çıkarmaktadır.
  • Üretken yapay zekânın ekonomik etkileri; yeni iş modellerinin ortaya çıkması, verimlilik artışı ve iş gücü piyasasında beceri dönüşümü gibi alanlarda hissedilmektedir. Bu bağlamda, dijital olgunluk düzeyi özellikle KOBİ’ler açısından dönüşümün başarısı için kritik bir önem taşımaktadır.                                                                                                           
  • Toplumsal düzeyde üretken yapay zekâ, kapsayıcı hizmet sunumu ve bilginin daha geniş kitlelerce ulaşılabilir hâle getirilmesi açısından önemli fırsatlar sunmakla beraber; yapay zekâya aşırı güven, dezenformasyon, ön yargıların sürdürülmesi ve dijital eşitsizlik gibi önemli riskleri de beraberinde getirmektedir.                                                           
  • AB’nin düzenleyici yaklaşımı, inovasyonu teşvik ederken aynı zamanda güven, şeffaflık ve temel hakların korunmasını hedefleyen dengeli bir çerçeve sunmaktadır. Yapay Zekâ Tüzüğü (AI Act), AB Genel Veri Koruma Tüzüğü (GDPR) ve Dijital Hizmetler Tüzüğü (DSA) gibi düzenlemeler; içerik işaretleme, kullanıcıları bilgilendirme ve sistemik risk yönetimi gibi önlemlerle üretken yapay zekânın güvenilir biçimde geliştirilmesini desteklemektedir.                                                                                              
  • Eğitim, sağlık ve yargı gibi alanlarda üretken yapay zekâ önemli potansiyeller taşımakla birlikte bu teknolojinin etkili ve etik bir şekilde kullanılmasını sağlayacak uygun yönetişim mekanizmalarının geliştirilmesi önem taşımaktadır.

Sonuç olarak bakıldığında raporda; üretken yapay zekânın AB genelinde sosyal ve ekonomik yapıyı köklü biçimde etkileyebileceği ortaya konulmakta ve bu dönüşümün demokratik değerlerle uyumlu şekilde yönetilmesi için bütüncül ve öngörülü bir politika yaklaşımına ihtiyaç olduğu vurgulanmaktadır.

 

* Dünya Ekonomik Forumu ve Boston Consulting Group iş birliğinde, sağlık alanında yapay zekâya güven duyulmasını sağlamak üzere izlenebilecek yol haritasına ilişkin bir rapor yayımlandı[11]. Bahse konu raporda düzenleyiciler, sağlık liderleri ve yenilikçiler arasında teknik kapasitenin güçlendirilmesi; kılavuzlar, düzenleme deneme alanları ve piyasa sonrası gözetim yoluyla düzenleyici modellerin uyarlanması; ayrıca standartlar geliştirilmesi, düzenleyici yenilikçiliğin desteklenmesi ve bağımsız kalite güvence mekanizmaları oluşturulması amacıyla kamu-özel sektör iş birliklerinin harekete geçirilmesi olmak üzere üç acil öncelik belirlenmektedir. 

 

* “ISO/IEC 42005:2025-Yapay Zekâ Sistemi Etki Değerlendirmesi Standardı” yayımlandı[12]. Bu standart, yapay zekâ sistemlerinin bireyler, gruplar ve toplum üzerindeki olası etkilerini değerlendirmek isteyen kuruluşlara rehberlik sunmaktadır. Bu bağlamda kuruluşların, yapay zekâ sistemlerinin yaşam döngüsü boyunca bu etkileri belirlemesine, değerlendirmesine ve belgelemesine yardımcı olmak suretiyle şeffaflığı, hesap verebilirliği ve yapay zekâya olan toplumsal güveni desteklemektedir.

 

* Japonya, yapay zekâya ilişkin ilk ulusal yasal çerçeve olan “Yapay Zekâ ile İlgili Teknolojilerin Araştırılması, Geliştirilmesi ve Kullanımının Teşvikine Dair Kanun”u kabul etti[13]. Avrupa Birliği’nin risk temelli ve bağlayıcı düzenlemelere dayalı yaklaşımı ile Amerika Birleşik Devletleri’nin kararname ve sektörel politikalara dayalı parçalı yapısının aksine, Japonya inovasyonu önceleyen ve gönüllülük esasına dayalı bir “yumuşak hukuk” modeli benimseyerek farklı bir yönetişim paradigması ortaya koymaktadır.

  • Yasa, bağlayıcı yükümlülükler ve yaptırım mekanizmaları içermemektedir. Düzenlemede ceza hükümlerine yer verilmemesinin gerekçesi olarak, inovasyonun ve teknolojik ilerlemenin teşvik edilmesi gösterilmektedir.

 

  • İşletmeler, yapay zekânın sorumlu şekilde geliştirilmesi ve uygulanmasına yönelik gönüllü ilkelere uymaya teşvik edilmektedir. İnsan haklarının korunması, etik ilkelere bağlılık, şeffaflık ve çok paydaşlı iş birliği, düzenlemenin temel değerleri arasında yer almaktadır. Bu çerçevede, öz düzenleme mekanizmalarına güvenilerek yapay zekâ teknolojilerinin yaygınlaştırılması amaçlanmaktadır.

 

  • Kabine düzeyinde oluşturulacak Yapay Zekâ Strateji Merkezi ile politika oluşturma ve uygulama süreçlerinde, düzenleyici denetim işlevlerinin ötesine geçen yönlendirici ve koordine edici bir yapı hedeflenmektedir.

 

  • Uluslararası iş birliği ve fikri mülkiyetin korunması, düzenleme kapsamında vurgulanan hususlar arasında yer almaktadır.

 

  • Yapay zekâ kaynaklı suç teşkil eden durumlarda, hükümete ilgili işletmelerin isimlerini kamuoyuna açıklama yetkisi tanınmaktadır. Bu düzenleme, geleneksel yaptırımların ötesine geçerek şeffaflık ve kamusal baskı yoluyla davranış değişikliğini hedefleyen bir toplumsal denetim aracı olarak yorumlanmaktadır.

 

  • Kamu kurumları, yerel yönetimler, üniversiteler, özel sektör ve bireyler arasında çok paydaşlı bir iş birliği modeli teşvik edilmektedir.

 

  • Toplumun yapay zekâya ilişkin bilgi düzeyini artırmak amacıyla eğitim, öğrenme ve bilinçlendirme faaliyetlerine özel bir vurgu yapılmaktadır.

 

* Yapay zekâya ilişkin yürütülen yeni bir araştırma, OpenAI’ın GPT-4 modelinin, insanlara kıyasla daha etkili ikna stratejileri geliştirebildiğini ve tartışma yürüttüğü bireylere ait kişisel bilgiler doğrultusunda argümanlarını uyarlaması durumunda bu farkın belirgin biçimde arttığını ortaya koydu[14].

Araştırma kapsamında, ABD’de yaşayan 900 katılımcının cinsiyet, yaş, etnik köken, eğitim düzeyi, istihdam durumu ve siyasi yönelim gibi kişisel verileri toplandı. Ardından katılımcılar, rastgele belirlenen bir konuda tartışmak üzere başka bir insanla veya GPT-4 ile eşleştirildi. Tartışma konuları arasında; ABD’nin fosil yakıtları yasaklaması, okul üniforması zorunluluğu gibi toplumsal ve siyasi meseleler yer aldı. Her katılımcı, ilgili konunun lehinde veya aleyhinde argüman sunmakla görevlendirildi. Bazı eşleştirmelerde, katılımcılara karşı tarafın kişisel bilgileri sağlanarak argümanlarını bu doğrultuda uyarlamaları mümkün kılındı. Tartışma sonunda, katılımcılardan ilgili önermeye ne ölçüde katıldıkları ve bir insanla mı yoksa bir yapay zekâ ile mi tartıştıklarını düşündükleri sorularını yanıtlamaları istendi.

Araştırma sonucunda, GPT-4’ün her bir tartışma başlığında insanların ikna kabiliyetleriyle eş değer ya da onları aşan bir performans sergilediği ve rakipleri hakkında bilgi sahibi olduğu durumda, bu tür verilere erişimi olmayan insanlara kıyasla %64 oranında daha ikna edici olduğu görüldü. Buna ek olarak, katılımcıların tartışma partnerlerinin bir yapay zekâ olduğunu düşündükleri durumda, onun görüşlerine katılma olasılıklarının daha yüksek olduğu gözlemlendi.

 

* Kurumumuz tarafından üç aylık periyotlar halinde hazırlanan KVKK Bülten’in “Yapay Zekâya Genel Bakış” konulu 8. sayısı yayımlandı[15]. Bu sayıda;

  • Kurum Başkanımız Prof. Dr. Faruk Bilir ile gerçekleştirdiğimiz röportaj
  • Dr. E. Eylem Aksoy Retornaz’ın “Yapay Zekâ, Algoritmik Karar Verme ve Kişisel Verilerin Korunması” başlıklı köşe yazısı
  • Yapay Zekâya İlişkin Bazı Kavramlar ve Tanımlar
  • Yapay Zekâ ve Kişisel Verilerin Korunması
  • Ulusal Yapay Zekâ Stratejisi 2024-2025 Eylem Planı
  • Kurumumuzun Yapay Zekâ Konusundaki Çalışmaları
  • “Yapay Zekâ Teknolojilerine Akademik Bakış” Kitabı Üzerine Kısa Bir İnceleme
  • Genel Olarak Üretken Yapay Zekâ
  • Avrupa Birliği Yapay Zekâ Regülasyonu: Yapay Zekâ Tüzüğü Merceğinden Temel Bilgiler
  • Kişisel Verilerin Korunması ile İlgili Öne Çıkan Gelişmeler
  • Bizden Haberler başlıkları yer almaktadır.

 

 

 

 

[1] https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-022024-article-48-gdpr_en, 05.06.2025

[2] https://ico.org.uk/media2/zkgfmkoq/adm-public-perception-research.pdf, 04.06.2025.

[3] https://www.cnil.fr/fr/cybersecurite-les-benefices-economiques-du-rgpd, 05.06.2025.

[4] https://www.ncsc.gov.uk/blog-post/creating-the-right-organisational-culture-for-cyber-security, 04.06.2025.

[5] https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/772906/EPRS_ATA(2025)772906_EN.pdf, Haziran 2025.

[6] https://www.edpb.europa.eu/news/news/2025/edpb-publishes-final-version-guidelines-data-transfers-third-country-authorities-and_en, 05.06.2025.

[7] https://www.edpb.europa.eu/our-work-tools/our-documents/support-pool-experts-projects/law-compliance-ai-security-data_en, 05.06.2025.

[8] https://www.edpb.europa.eu/our-work-tools/our-documents/support-pool-experts-projects/fundamentals-secure-ai-systems-personal_en, 05.06.2025.

[9] https://www.edps.europa.eu/data-protection/our-work/publications/techdispatch/2025-06-10-techdispatch-12025-federated-learning_en, 10.06.2025.

[10] https://publications.jrc.ec.europa.eu/repository/handle/JRC142598, 13.06.2025.

[11] https://www.weforum.org/publications/earning-trust-for-ai-in-health-a-collaborative-path-forward/, 11.06.2025.

[12] https://www.iso.org/standard/44545.html, Mayıs 2025.

[13] https://www.japantimes.co.jp/news/2025/05/28/japan/japan-ai-law/, 28.05.2025. Düzenleme metni için bkz. https://www.shugiin.go.jp/internet/itdb_gian.nsf/html/gian/honbun/houan/g21709029.htm

[14] https://www.technologyreview.com/2025/05/19/1116779/ai-can-do-a-better-job-of-persuading-people-than-we-do/, 19.05.2025.

[15] https://www.kvkk.gov.tr/SharedFolderServer/CMSFiles/d4a738b6-5a86-454f-8788-b97758cab0da.pdf, Haziran 2025.