Yapay zekanın insanlığı alaşağı etme fikri onlarca yıldır konuşuluyor. Uluslararası bir araştırma ekibi, süper zeki bir yapay zekayı (YZ) kontrol edip edemeyeceğimize dair beklentilerini, 5 Ocak 2021’de Journal of Artificial Intelligence Research‘de (JAIR) yayımlanan çalışmalarıyla açıkladılar.[1]
Kısa cevap, Yapay Süper Zeka‘yı (YSZ) kontrol etmenin imkansıza çok yakın olacağıdır. İşin püf noktası, insan kavrayışının çok ötesindeki bir süper zekayı kontrol etmenin, analiz edebileceğimiz süper zekanın bir simülasyonunu gerektirmesidir. Fakat eğer süper zekayı anlayamazsak, böyle bir simülasyon yaratmak imkansızdır.
Yeni çalışmanın yazarları, yapay süper zekanın ortaya çıkacağı türden senaryoları belirleyemezsek, “insanlara zarar vermemek” gibi kurallar oluşturulamayacağını söylüyor. Bir bilgisayar sistemi, insan programcıların olanaklarının üzerinde bir seviyede çalışmaya başladığında artık bir sınır konulamaz. Araştırmacılar, makalede şunları yazıyor:
Bir süper zeka, tipik olarak “robot etiği” başlığı altında çalışılanlardan temelde farklı bir sorun teşkil eder. Bunun nedeni, süper zekanın çok yönlü olmasıdır. Bundan dolayı kontrol edilebilmesi bir yana, süper zeka, insanlar tarafından anlaşılmaz olan hedeflere ulaşmak için çeşitli kaynakları harekete geçirme potansiyeline sahiptir.
Çalışma ekibinin gerekçesinin bir kısmı, Alan Turing’in 1936’da ortaya koyduğu sonlanma problemine dayanıyor.[2] Sorun, bir bilgisayar programının bir sonuca ve cevaba ulaşıp ulaşmayacağını (ve durup durmayacağını) veya bir tane bulmaya çalışırken sonsuza dek döngüye girip girmeyeceğini bilmeye odaklanır.
Turing’in akıllıca geliştirdiği matematiksel bir analizle kanıtladığı gibi, bazı özel programlar için, hedefe ulaşmak amacıyla yazılabilecek her potansiyel programı bilmemize imkan verecek bir yol bulmak mantıksal olarak imkansızdır. Bu durum bizi, süper zeki bir sistemde, mümkün olan her bilgisayar programını aynı anda hafızasında tutabilecek yapay zekaya geri getiriyor. Örneğin, yapay süper zekanın insanlara herhangi bir şekilde zarar vermesini ve insanlığı yok etmesini engellemek için yazılan herhangi bir program bir sonuca varabilir (veya durabilir) – her iki şekilde de kesinlikle emin olmamız matematiksel olarak imkansızdır, bu da kapsayıcı olmadığı anlamına gelir.
Araştırmacılar, böyle bir makineyi kontrol edebilecek bir algoritma geliştirmenin, bilgi işlemenin sınırları nedeniyle temelde imkansız olacağını buldu. Almanya’daki Max-Planck İnsani Gelişme Enstitüsü’nden bilgisayar bilimcisi Iyad Rahwan, şöyle diyor:
Problemi teorik bilgisayar biliminin temel kurallarına indirgerseniz, bir yapay zekaya dünyayı yok etmemesi komutunu verecek bir algoritmanın yanlışlıkla kendi operasyonlarını durdurabileceği ortaya çıkar. Bu olursa, koruma algoritmasının tehdidi halen analiz edip etmediğini veya zararlı yapay zekayı kontrol altına almak için durup durmadığını bilemezsiniz. Aslında bu, koruma algoritmasını kullanılamaz hale getirir.
Araştırmacılar, makalede şunları yazıyor:
Bir süper zekanın, potansiyel olarak dünyanın durumu kadar karmaşık girdi üzerinde evrensel bir Turing makinesi tarafından yürütülebilecek tüm programları içeren bir programı içereceğini varsayarsak, sıkı koruma, teorik (ve pratik olarak) imkansız olan böyle bir programın simülasyonunu gerektirir.
Araştırmacılar, yapay zekaya biraz etik öğretmenin ve dünyayı yok etmemesini söylemenin alternatifinin, süper zekanın yeteneklerini sınırlamak olduğunu söylüyorlar. Örneğin, internetin bazı bölümlerine veya belirli ağlara erişimi kesilebilir. Yeni çalışma bu fikri de reddediyor ve yapay süper zekanın erişimini sınırlayacağını öne sürüyor. Argümana göre, eğer süper zekayı insanların kapsamının dışındaki sorunları çözmek için kullanmayacaksak, o zaman neden yaratalım?
Yapay zeka ile ilerleyeceksek, kontrolümüz dışındaki bir süper zekanın ne zaman geldiğini bile bilemeyebiliriz, anlaşılmazlığı da budur. Bu durum, gittiğimiz yön hakkında bazı ciddi sorular sormaya başlamamız gerektiği anlamına gelmektedir.[3] Max-Planck İnsani Gelişme Enstitüsü’nden bilgisayar bilimcisi Manuel Cebrian şöyle söylüyor:
Dünyayı kontrol eden süper zeki bir makine kulağa bilimkurgu gibi geliyor; ancak insan programcıların, nasıl öğrendiklerini tam olarak anlayamadığı, bazı önemli görevleri bağımsız olarak yerine getirebilen makineler zaten mevcut. Dolayısıyla, bunun bir noktada kontrol edilemez ve insanlık için tehlikeli olup olmayacağı sorusu ortaya çıkmaktadır.
“Teknolojik tekillik (Yapay Genel/Süper Zeka) yakın bir gelecekte gerçekleşebilir mi?” diye merak ediyorsanız, şu içeriğimiz tam size göre: 995 Yapay Zeka Uzmanıyla Yapılan Çalışmaya Göre, Tekilliğe (Yapay Genel Zekaya) 2060 Yılından Önce Ulaşmamız Çok Olası!
- Türev İçerik Kaynağı: ScienceAlert | Arşiv Bağlantısı
- ^ M. Alfonseca, et al. (2021). Superintelligence Cannot Be Contained: Lessons From Computability Theory. Journal of Artificial Intelligence Research, sf: 65-76. doi: 10.1613/jair.1.12202. | Arşiv Bağlantısı
- ^ Oxford Reference. Halting Problem. (14 Ocak 2021). Alındığı Tarih: 14 Ocak 2021. Alındığı Yer: Oxford Reference | Arşiv Bağlantısı
- ^ T. C. P. Salmon. The Risks Of Advanced Ai Are Real. We Need To Act Before It’s Too Late, Warn Experts. Alındığı Tarih: 14 Ocak 2021. Alındığı Yer: ScienceAlert | Arşiv Bağlantısı
- T. Macaulay. Containment Algorithms Won’t Stop Super-Intelligent Ai, Scientists Warn. (17 Ocak 2021). Alındığı Tarih: 17 Ocak 2021. Alındığı Yer: thenextweb | Arşiv Bağlantısı