ChatGPT ile ilgili bazı hukuki tartışmalar gündeme geldi. GPT-3 2020 yılında piyasaya sürüldüğünde eğitim verilerinin kişisel verilerden beslendiği ortaya çıktı, elde ettiği verilerin bir kısmının kişisel veri olduğu anlaşıldı.
Selin Çetin –
Günlük hayatımızda kullandığımız pek çok ürün ve hizmette yapay zekâyı tecrübe etmeye başladık. Yapay zekâ sistemleri sağlıktan ulaşıma, eğitime ve bankacılığa kadar çeşitli sektörlerde uygulama alanı buluyor. Teknik anlamdaki hızlı ilerleme ve bu tür sistemlerin yaygın kullanımı konunun hukuki boyutunu da geniş bir biçimde tartışmaya açıyor. Zira yapay zekâ sistemleri sağladığı faydaların yanı sıra bireylerin temel haklarına yönelik yeni ve çeşitli riskleri de beraberinde getiriyor.
Bu riskler hem kamu hem de özel sektördeki yapay zekâ kullanımları için geçerli. Örneğin, Amerika’da yapılan bir araştırma, birçok hastanenin hangi hastaların bakıma ihtiyacı olduğuna karar vermek amacıyla kullandığı bir algoritmanın ırksal önyargı gösterdiğini1 ortaya koydu. Siyahi hastalar beyaz hastalara göre bakım hizmetinden daha az faydalanabiliyordu. Bunun sebebi ise algoritmanın, uzun süredir devam eden servet ve gelir eşitsizlikleri nedeniyle siyahi hastaların beyaz hastalara kıyasla sağlık hizmetleri için daha az harcama yapması ve buna ilişkin verilerle eğitilen algoritmanın da siyahi hastalara yönelik önyargı içermesiydi.
Günümüzde en çok başvurulan uygulamalardan biri haline gelen ChatGPT ile ilgili de bazı hukuki tartışmalar gündeme geldi. GPT-3 2020 yılında piyasaya sürüldüğünde eğitim verilerinin kişisel verilerden de beslendiği ortaya çıkmış, çevrimiçi ortamdan elde ettiği verilerin bir kısmının kişisel veri barındırdığı2 anlaşılmıştı. Mart 2023’te İtalyan Kişisel Veri Koruma Otoritesi, İtalyan kullanıcıların verilerinin OpenAI tarafından işlenmesine geçici bir sınırlama getirmişti.3 Otorite tarafından verilen kararda 13 yaş üstü kullanıcılara yönelik olduğu belirtilse de Avrupa Birliği Genel Veri Koruma Düzenlemesi’ne uygun olarak yaş doğrulaması yapılmadığı, ChatGPT tarafından sunulan bilgilerin her zaman gerçek durumlarla örtüşmediği ve bu nedenle yanlış kişisel verilerin işlendiği, kişisel verilerin işlenmesine ilişkin kişilere bilgi verilmediği ve algoritmaları eğitmek için kişisel verilerin büyük miktarda toplanması ve işlenmesine yönelik hukuki sebebin olmadığı belirtilmişti.
Bunlar yapay zekânın bireylerin temel haklarına yönelik ortaya çıkarabileceği tehditlerden sadece iki örnek olarak karşınızda duruyor. Yapay zekânın bireyler için ortaya çıkarabileceği riskler bireylerin güvenliği ve sağlığına ilişkin riskler olabileceği gibi ifade hürriyetinin kısıtlanması, ayrımcılığa uğrama mahremiyet ihlalleri gibi çok çeşitli riskler de söz konusu olabilir.
Bu kapsamda, ülkeler hem bu teknolojinin yarattığı ekonomik getirilerden yararlanabilmek hem de oluşturabileceği risklere karşı bireyleri koruyabilmek için hukuki düzenleme çalışmalarına başladı. Bunlardan belki de en önemlisinin Avrupa Birliği Yapay Zekâ Düzenlemesi olduğunu söyleyebiliriz.
Bu Düzenleme’nin geçmişine kısaca bakacak olursak, Avrupa Komisyonu 2021 yılı Nisan ayında yapay zekâya ilişkin ilk taslak düzenlemeyi4 duyurmuştu. İlgili paydaşlardan alınan görüşler akabinde, 2023 yılı Haziran ayında ise Avrupa Parlamentosu taslak düzenlemeye ilişkin değişiklik önerilerini kamuoyuna duyurdu.5 Esasında 2021 yılı öncesi dünyada bazı sektörel düzenlemeler olsa da (örneğin otonom araçlar) yapay zekâyı genel anlamda düzenleyen, yani tek bir kullanıma veya tek bir sektöre indirgemeyen ilk düzenleme olması bakımından Avrupa Birliği Yapay Zekâ Düzenlemesi önem arz ediyor. Gelinen aşamada, Avrupa Konseyi, Avrupa Parlamentosu ve Avrupa Komisyonu arasındaki üçlü görüşmeler sonrası 9 Aralık 2023’te düzenlemeye ilişkin uzlaşmaya varıldı.6 Düzenlemenin 2024 yılı içerisinde yürürlüğe geçmesi planlanıyor.
Öte yandan, bu Düzenleme sadece Avrupa Birliği’nde bulunan kişi, şirket ve kurumları değil aynı zamanda Türkiye gibi üçüncü taraf bir ülkede olup Avrupa Birliği pazarına yapay zekâ sistemleri sunanları da ilgilendirecek. Dolayısıyla geniş çapta bir etki doğurması bekleniyor. Örneğin, yapay zekâ sistemleri geliştirerek Avrupa Birliği ile iş yapan veya yapacak olan Türkiye’de yerleşik şirketlerin de bu Düzenleme’ye uyumlu hareket etmesi gerekecek.
Düzenleme, temel haklara karşı oluşturduğu tehditler dikkate alınarak yapay zekâ sistemlerini kategorilere ayırıyor: yasaklı yapay zekâ sistemleri, yüksek riskli yapay zekâ sistemleri ve sınırlı riskli yapay zekâ sistemleri. Yasaklı yapay zekâ sistemleri, geliştirilip piyasaya sürülemeyecek sistemler olarak belirtiliyor. Bunlar Düzenleme’de tek tek sıralanmış, örneğin, sosyal puanlama, insan davranışını manipüle eden yapay zekâ sistemleri, biyometrik sınıflandırma sistemleri bu kategoride yer alıyor. Bununla birlikte, biyometrik sınıflandırma sistemlerinin kolluk kuvvetlerince kullanımına ilişkin ise bazı istisnalar söz konusu. Yüksek riskli yapay zekâ sistemleri ise Avrupa Birliği ürün güvenliği mevzuatı kapsamına giren ürünlerde kullanılan yapay zekâ sistemleri (örneğin oyuncaklar, arabalar, tıbbi cihazlar gibi) ile Düzenlenme’nin EK-3’ünde listelenen yapay zekâ sistemlerinden oluşuyor. Yüksek riskli kabul edilen yapay zekâ sistemlerinin kapsamı aşağıdaki gibi sıralanmış:
• Gerçek kişilerin biyometrik olarak tanımlanması ve sınıflandırılması,
• Kritik altyapının yönetimi ve işletilmesi,
• Eğitim ve mesleki eğitim
• İstihdam, çalışan yönetimi ve serbest mesleklere erişim,
• Temel özel hizmetlere ve kamu hizmet ve yardımlarına erişim ve bunlardan yararlanma,
• Kolluk kuvvetleri,
• Göç, iltica ve sınır kontrol yönetimi,
• Hukukun yorumlanması ve uygulanması konusunda destek.
Bunların yanı sıra, ChatGPT gibi üretken yapay zekâ sistemleri için de birtakım yükümlülükler öngörülüyor. Bu tür sistemler sınırlı riskli kabul edilerek, örneğin içeriğin yapay zekâ tarafından oluşturulduğunun açıklanması, modelin yasadışı içerik üretmesini önleyecek şekilde tasarlanması ve eğitim için kullanılan telif hakkıyla korunan verilerin özetlerinin yayınlanması gibi yükümlülüklere yer veriliyor.
Aralık 2023’te üzerinde uzlaşılan metin, devam eden teknik toplantılar dolayısıyla henüz kamuoyuna duyurulmadı. Bunun bir Avrupa Birliği düzenlemesi olabilmesi için hem Parlamento hem de Konsey tarafından resmî olarak kabul edilmesi gerekiyor.
Avrupa Birliği’nin yapay zekânın hukuki düzenlemesi konusunda önemli bir adım attığını söyleyebiliriz. Ülkemizde de bu yöndeki çalışmaların hız kazanmasını umuyoruz. 2021 yılında Cumhurbaşkanlığı Dijital Dönüşüm Ofisi’nin yayınladığı 2021-2025 Ulusal Yapay Zekâ Stratejisi’nde7 yapay zekânın hukuki anlamda ele alınmasına ilişkin hedefler belirlenmişti. Keza 2021-2023 İnsan Hakları Eylem Planı’nda8 da yapay zekânın insan haklarına karşı olan riskleri göz önünde bulundurularak belirli kurumlar için çeşitli aksiyonlar öngörülmüştü. Önemle vurgulamak gerekir ki, belirlenen hedefler doğrultusunda somut adımların atılması hem yapay zekânın ülkemiz ekonomisine en ileri seviyede fayda sağlamasına hem de vatandaşlarımızın olası hak ihlallerinden en iyi şekilde korunabilmesine katkı sağlayacaktır.
ACLU, Algorithms Are Making Decisions About Health Care, Which May Only Worsen Medical Racism, 2022, https://www.aclu.org/news/privacy-technology/algorithms-in-health-care-may-worsen-medical-racism
Detaylı bilgi için bkz. Tom B. Brown et. al, Language Models are Few-Shot Learners, OpenAI, https://arxiv.org/pdf/2005.14165.pdf.
Garante Per La Protezione dei Dati Personali, Artificial intelligence: stop to ChatGPT by the Italian SA Personal data is collected unlawfully, no age verification system is in place for children, 2023, https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/ docweb/9870847#english
AB Komisyonu taslak YZ Düzenlemesine ilişkin önerisi için bkz. https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF
Avrupa Parlamentosu taslak YZ Düzenlemesine ilişkin birleştirilmiş değişiklik önerileri için bkz. https://www.europarl.europa.eu/ meetdocs/2014_2019/plmrep/COMMITTEES/CJ40/ DV/2023/05-11/ConsolidatedCA_IMCOLIBE_AI_ ACT_EN.pdf
Uzlaşmaya ilişkin Parlamento’nın basın bildirisi için bkz. https://www.europarl.europa. eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai
Cumhurbaşkanlığı Dijital Dönüşüm Ofisi, Ulusal Yapay Zekâ Stratejisi, https://cbddo.gov.tr/ SharedFolderServer/Genel/File/TR-UlusalYZStratejisi2021-2025.pdf
Adalet Bakanlığı, İnsan Hakları Eylem Planı ve Uyguma Takvimi, 2021, https://inhak.adalet.gov.tr/Resimler/Dokuman/3042021071917%C4%B0nsan%20Haklar%C4%B1%20Eylem%20Plan%- C4%B1%20ve%20Uygulama%20Takvimi.pdf