* AB Konseyi; ev kameraları, buzdolapları, televizyonlar ve oyuncaklar gibi internete bağlı ürünlerin piyasaya sürülmeden önce güvenli olmasını sağlamak amacıyla, dijital bileşenlere sahip ürünler için güvenlik gereksinimlerini düzenleyen “Siber Dayanıklılık Yasası”nı kabul etti[1].
Yeni düzenlemenin temel unsurları arasında;
Düzenleme, AB Resmî Gazetesi’nde yayımlanmasını takip eden yirminci günde yürürlüğe girecek ve 36 ay içerisinde tüm hükümleriyle uygulanacaktır.
* Birleşik Krallık Veri Koruma Otoritesi (ICO), kuantum teknolojilerinin veri koruma üzerindeki olası etkilerinin ele alındığı bir rapor yayımladı[2]. Raporda; kuantum bilgisayarlar, iletişim, sensör, zamanlama ve görüntüleme teknolojilerinin gizlilik ve veri koruma üzerindeki etkileri incelenmektedir.
Bu kapsamda, kuantum bilgisayarların mevcut kriptografik algoritmaları kırma potansiyeline sahip olabileceği belirtilmekte ve bu nedenle kuruluşların şimdiden kuantum dirençli kriptografiye hazırlanmaları gerektiği vurgulanmaktadır. Diğer yandan, mahremiyetle ilgili mevcut riskleri artırabilecek olmakla birlikte, bu teknolojilerin kişisel verilerin korunmasına yönelik yeni fırsatlar sunabileceği de ifade edilmektedir.
* Fransa Veri Koruma Otoritesi (CNIL); mobil uygulamaların, mahremiyetin korunmasını temin edecek şekilde tasarlanmasına yardımcı olmak üzere, mobil uygulama ekosistemindeki paydaşlara yönelik bir dizi tavsiye yayımladı[3].
* Avrupa Veri Koruma Kurulu (EDPB), Avrupa Birliği Genel Veri Koruma Tüzüğü’nün (GDPR) 6(1)(f) düzenlemesi kapsamında, bir veri işleme şartı olarak “meşru menfaat”e ilişkin değerlendirmelerin yer aldığı rehberini yayımladı[4]. Rehber’e ilişkin geri dönüşlerin 20.11.2024 tarihine kadar iletilebileceği belirtildi.
* Avrupa Komisyonu, Veri Yasası’na (Data Act) ilişkin sık sorulan soruların açıklandığı bir doküman yayımladı[5]. Hatırlanacak olursa; gönüllü veri paylaşım mekanizmalarına olan güveni artıran Veri Yönetişimi Yasası’nı (Data Governance Act) tamamlayıcı nitelikte olan Veri Yasası, verilere erişilmesi ve bunların kullanımı konusunda hukuki açıklık sağlamaktadır. Bu kapsamda Veri Yasası; endüstriyel veriler başta olmak üzere, verilerin kullanılabilirliğini artıran ve veri ekonomisinde yer alan aktörler arasında verinin değerinin dağıtımında adaleti sağlarken veri odaklı inovasyonu teşvik eden bir düzenleme olup 12.09.2025 tarihinde uygulanmaya başlanacaktır.
* Avrupa Parlamentosu Araştırma Servisi (EPRS); AB Yapay Zekâ Yasası’nın hazırlanma ve yasalaşma süreci, düzenlemenin temel noktaları ve gündeme getirdiği birtakım hususlara ilişkin açıklamalarda bulunulan bir çalışma yayımladı[6].
* OECD, finans alanında yapay zekâ kullanımına yönelik farklı düzenleyici yaklaşımların analiz edildiği bir çalışma yayımladı[7].
* Avrupa Komisyonu, güvenilir ve güvenli yapay zekânın gelişimini teşvik etmek adına AB Yapay Zekâ Paktını ve gönüllü taahhütlerini imzalayan yüzlerce şirketin ismini duyurdu[8]. İmzacılar arasında; bilgi teknolojileri, telekomünikasyon, sağlık, bankacılık, otomotiv ve havacılık gibi çeşitli sektörlerden çok uluslu şirketler ile Avrupa’daki küçük ve orta ölçekli işletmeler yer almaktadır.
AB Yapay Zekâ Paktı’nda yer alan taahhütler, katılımcı şirketleri en az üç temel eyleme bağlı kalmaya çağırmaktadır:
Bu temel taahhütlere ek olarak, imzacıların yarısından fazlasının insan gözetimi sağlama, riskleri azaltma ve deepfake gibi içerik türlerini şeffaf bir şekilde etiketleme gibi ek taahhütlerde bulunacaklarını bildirdikleri de açıklandı.
* Avrupa Komisyonu, güvenilir yapay zekâya ilişkin Avrupa liderliğini güçlendirmek için yapay zekâ fabrikaları kurulması yönünde çağrıda bulundu[9]. Avrupa Yüksek Performanslı Hesaplama ağı etrafında oluşturulacak ve yeni kurulan şirketler, endüstri ve araştırmacılar gibi çeşitli Avrupa kullanıcılarına sunulacak olan yapay zekâ fabrikalarının; hesaplama gücü, veri ve yetenek olmak üzere yapay zekânın başarıya ulaşması için gerekli temel bileşenleri bir araya getireceği belirtilmektedir.
* Avustralya’da, kuruluşların güvenli, güvenilir ve sorumlu bir şekilde yapay zekâ sistemleri geliştirmelerine ve kullanmalarına rehberlik etmesi amacıyla hazırlanan “Gönüllü Yapay Zekâ Güvenlik Standardı” yayımlandı[10]. Bahse konu dokümanda; on temel koruyucu önlem, bunların nasıl kullanılacağı ve ne zaman uygulanacağına dair örnekler, standardın nasıl geliştirildiği, standarda yönelik temel kavramlar ve hukuki bağlamı gibi hususlara yer verilmekte olup on temel koruyucu önlem ise şu şekilde belirtilmektedir:
* Dünya Ekonomik Forumu, üretici yapay zekâ alanındaki hızlı gelişmelere yanıt olarak Accenture ile iş birliği içerisinde bir rapor yayımladı[11]. Raporda, üretici yapay zekâ için dayanıklı bir yönetişim çerçevesi sunulmakta olup bu kapsamda, kamu-özel sektör iş birliklerinin teşvik edilmesi ve uluslararası iş birliğiyle öngörülü yönetişim modelleri geliştirilmesi hedeflenmektedir. Raporda öne çıkan hususlar arasında; düzenleyici boşlukların doldurulması, paydaşların karşılaştıkları yönetimsel zorlukların ele alınması ve önümüzdeki süreçte karşılaşılacak teknolojik gelişmelere hazırlıklı olunmasına yönelik öneriler yer almaktadır.
* Fransız Siber Güvenlik Ajansı ve Alman Federal Bilgi Güvenliği Ofisi tarafından hazırlanan bir raporda, yapay zekâ kodlama araçlarının güvenli kullanımına yönelik öneriler sunulmaktadır[12]. Raporda, bu araçların yazılım geliştirme sürecinde sunduğu fırsatlar ile beraberinde getirdiği riskler ele alınmakta ve bu risklerin nasıl azaltılabileceğine dair somut örnekler paylaşılmaktadır.
Fırsatlar:
– Verimlilik: Kod oluşturma, test senaryoları ve kod biçimlendirme gibi görevleri otomatikleştirerek geliştiricilerin iş yükünü hafifletir.
– Kodu Anlama: Yeni projelerde kodu açıklamak suretiyle geliştiricilerin projelere hızlı bir şekilde adapte olmasına yardımcı olur.
– Programlama Dilleri Arasında Çeviri: Eski kodları, modern programlama dillerine çevirerek bakım süreçlerini kolaylaştırır.
Riskler:
– Veri Güvenliği: Kullanıcı girdileri hassas bilgiler içerebilir ve bu bilgiler sızabilir.
– Kod Kalitesi: Oluşturulan kodun kalitesi ve güvenliği garanti edilemez, güvenlik açıkları bulunabilir.
– Saldırı Riski: Yazılım geliştirme sırasında büyük dil modelleri tabanlı yapay zekâ sistemlerinin kullanılması, kötü niyetli aktörler tarafından istismar edilebilecek yeni saldırı türlerinin ortaya çıkmasına olanak tanıyabilir.
Öneriler:
– Tecrübeli Geliştiriciler: Yapay zekâ, deneyimli geliştiricilerin yerini almamalı ve destekleyici olarak kullanılmalı.
– Risk Analizi: Yapay zekâ araçlarını kullanmadan önce güvenlik riskleri değerlendirilmelid
– Kod Kontrolü: Yapay zekâ tarafından oluşturulan kod, geliştiriciler tarafından gözden geçirilmeli ve doğrulanmalıdır.
* Avustralya’da bir avukatın, yapay zekâ yazılımı kullanarak mahkemeye yanlış bilgi sunduğu ortaya çıktı[13]. Melbourne’da bir avukat, aile mahkemesinde görülen bir davada yapay zekâ tarafından hazırlanan ve gerçekte var olmayan davaları içeren bir liste sunduğu gerekçesiyle şikâyet edildi. Hâkimin, listede yer alan davaların var olmadığını fark etmesinin ardından avukat, yapay zekâ destekli bir yazılım kullandığını ve oluşturulan listeyi doğrulamadan mahkemeye sunduğunu kabul etti.
* TBMM Genel Kurulunda, yapay zekâyla ilgili Meclis Araştırma Komisyonu kurulması kabul edildi[14].
* T.C. İletişim Başkanlığı, sosyal medya kullanımında kamu kurumlarına yol göstermesi amacıyla “Kurumsal Sosyal Medya Kullanım Rehberi” hazırlandığını duyurdu[15]. Toplam on bölümden oluşan bu Rehber’de, kamu kurumlarının sosyal medyayı bilinçli, etkili ve sorumlu bir şekilde kullanmalarının sağlanması amaçlanmaktadır. Rehber’de; kurumsal sosyal medya kullanımında genel ilkeler, kurumsal sosyal medya hesabının güvenliğine ilişkin öneriler, kurumsal sosyal medya hesap yönetimi, etik kurallar ve hukuki sorumluluklar, sosyal medyada kriz iletişimi, dezenformasyonla mücadele ve sosyal medyada teyit, sosyal medya hesapları için önerilen örnek uygulamalar gibi konular ele alınmaktadır.
Bahse konu Rehber’de kişisel verilerin korunmasına ilişkin belirlemeler de yer almakta olup bu çerçevede;
[1] https://www.consilium.europa.eu/en/press/press-releases/2024/10/10/cyber-resilience-act-council-adopts-new-law-on-security-requirements-for-digital-products/, 10.10.2024.
[2] https://ico.org.uk/about-the-ico/research-reports-impact-and-evaluation/research-and-reports/technology-and-innovation/ico-tech-futures-quantum-technologies/, 09.10.2024.
[3] https://www.cnil.fr/en/mobile-applications-cnil-publishes-its-recommendations-better-privacy-protection, 24.09.2024.
[4] https://www.edpb.europa.eu/our-work-tools/documents/public-consultations/2024/guidelines-12024-processing-personal-data-based_en, 09.10.2024.
[5] https://digital-strategy.ec.europa.eu/en/library/commission-publishes-frequently-asked-questions-about-data-act, 06.09.2024.
[6] https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2021)698792, 02.09.2024.
[7] https://www.oecd.org/en/publications/regulatory-approaches-to-artificial-intelligence-in-finance_f1498c02-en.html, 05.09.2024.
[8] https://ec.europa.eu/commission/presscorner/detail/en/ip_24_4864, 25.09.2024.
[9] https://digital-strategy.ec.europa.eu/en/news/eu-boosts-european-ai-developers-ai-factories-call-proposals, 10.09.2024.
[10] https://www.industry.gov.au/publications/voluntary-ai-safety-standard#read-the-voluntary-ai-safety-standard-2, 05.09.2024.
[11] https://www.weforum.org/publications/governance-in-the-age-of-generative-ai/, 08.10.2024.
[12] https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/KI/ANSSI_BSI_AI_Coding_Assistants.html, 04.10.2024.
[13] https://www.theguardian.com/law/2024/oct/10/melbourne-lawyer-referred-to-complaints-body-after-ai-generated-made-up-case-citations-in-family-court-ntwnfb, 10.10.2024.
[14] https://www.tbmm.gov.tr/Haber/Detay?Id=b6c9a6c7-d544-42f1-8b16-01924ea8ae5f, 02.10.2024.
[15] https://www.iletisim.gov.tr/turkce/duyurular/detay/iletisim-baskanligindan-kurumsal-sosyal-medya-kullanim-rehberi, 10.10.2024.
© Copyright 2024 farkindaolguvendekal.org - KVKK