Terminator Gerçek Olur mu? >> Felsefe Profesörü Nick Bostrom yapay zekanın tehlikelerini anlattı
|Süper zeki makineler insan uygarlığını yok edebilir mi? İstanbul’da düzenlenen Alldesign 2015’te konuşan Nick Bostrom süper zekanın insanlar için büyük bir risk oluşturduğunu söyledi.
Süper zeka, simülasyon argümanı ve transhümanizm konularında uzmanlaşan Bostrom’a göre, kontrolden çıkan süper zeki robotlar ve bilgisayarlar insan uygarlığını yok edebilir.
Bu durumda Haziran ayında Türkiye’de gösterime Terminator Genisys filmi ne kadar gerçekçi? Robotların Terminator’da olduğu gibi insanları yok edeceğini söyleyebilir miyiz? Yapay zekanın tehlikelerini Oxford Üniversitesi Felsefe Profesörü Nick Bostrom’a sordum.
Kendimizi yok etmek
Oxford Üniversitesi Felsefe Profesörü Nick Bostrom Şubat ayında, Lütfi Kırdar Kongre ve Sergi Sarayı’nda düzenlenen 4. Yaratıcı Endüstriler ve Gelişen Teknolojiler Fuarı’nda yaptığı konuşmada süper zekanın uygarlık için oluşturduğu riskleri masaya yatırdı.
Popular Science Türkiye’nin yaptığı söyleşide 2014’te yayınladığı Süper Zeka: Yollar, Tehlikeler ve Stratejiler kitabından alıntı yapan Bostrom, yanlış programlanan veya kendi bildiğini okuyan olası bir süper zekanın yaratacağı tehlikeleri bilimkurgu yazarı Frank Herbert’ın Dune serisiyle örnekledi.
Dune serisinde bütün galaksiyi kolonileştiren ve uzayda ışıktan hızlı yolculuk teknolojisini geliştiren insanoğlu “düşünen makinelerden” özellikle uzak duruyor. Dune Evren’inde insanların ataları Butler Cihadı denilen yıldızlar arası bir savaşta tüm bilgisayarları yok ediyor.
Bunun sebebi ise bilgisayarların insanları kontrol etmeye çalışması. Seride Mentat olarak adlandırılan insan bilgisayarlar yasa dışı yapay zekanın yerini alıyor ve eskiden bilgisayarların yaptığı işleri üstleniyor. Kurgusal Orange Katolik İncil’in “İnsan zihnine benzeyen bir makine yapmayacaksın” buyruğundan yola çıkan Dune evreninde bilgisayar kullanmak ölümle cezalandırılıyor.
Makul şüpheli
Nick Bostrom’a göre bu oldukça makul bir senaryo, ancak yapay zekanın insanlık için oluşturduğu risklerden sadece biri. İnsanoğlu düşünen bilgisayarlar geliştirmeli mi sorusundan yola çıkan Bostrom, süper zeki makineleri “insanlığın şimdiye kadar karşılaştığı en önemli ve en büyük sorun” olarak niteliyor. “Bu güçlüğü aşmayı başaramazsak kötü niyetli veya insanlara duyarsız yapay zeka (AI) bizi büyük ihtimalle yok edecektir.”
Oysa bugün elektrik santrallerini kontrol eden bilgisayarlardan akıllı telefonlar ve internete kadar yapay zeka uygarlığın temellerini oluşturuyor. Kalp krizi geçiren yaşlıların hayatını kurtarmak için hastaneye mesaj atan giyilebilir bilgisayarlar ve mobil cihazları gerçek birer yardımcıya dönüştüren Siri gibi dijital asistanlar günlük hayatın önemli bir parçası olmak üzere.
Ancak, Bostrom insanların yapay zekayı doğru kullanmak için yeterince bilgi sahibi olmadığını savunuyor ve yapay zekanın gelecekte kontrolden çıkabileceğini belirtiyor.
“İnsan zihnine benzeyen bir makine yapmayacaksın!” – Dune
Elektronik bilgisayarların 20. yüzyılın ortalarında kullanıma girmesinden bu yana teorisyenler insan kadar zeki olan bir bilgisayar geliştirmeye çalıştılar. Örneğin Alan Turing 1950 yılında yayınladığı makalede, çocuk zekasına sahip basit bir bilgisayarın bile yetişkin insan gibi düşünmeyi öğrenebileceğini söyledi.
1965 yılında ise matematikçi I.J. Good teknolojiyi zeka yoluyla sorun çözmek için geliştirilen çözümler bütünü olarak tanımladı. İnsanların kendini geliştirmek için yapay zekaya odaklanacağını öngören Good, bunun pozitif geri besleme yaratacağını ve teknolojik ilerlemenin hızlanmasıyla birlikte bilgisayarların bir gün insanlardan daha zeki olacağını belirtti:
“İlk ultra zeki makinenin insanoğlunun son icadı olacağını” öne süren Good argümanı için bir de şart koştu: “Yeter ki bu makine bize kendisini nasıl kontrol edeceğimizi söyleyecek kadar uysal olsun.”
Öyleyse yapay zeka nasıl kontrol edilecek?
Bostrom da süper zekanın risklerinden söz ederken, aslında insanoğlunun yapay zekayı nasıl kontrol altında tutacağı sorusunu yanıtlamaya çalışıyor.
Yapay Zeka araştırmacılarının yüzde 10’nu, on yıl içinde insan kadar zeki bir bilgisayar geliştirileceğine inanıyor ve bunu değerlendirirken, yapay zekanın nasıl kontrol edileceği sorusunu sormakta geç kalındığını söylüyor:
“Sonuç olarak yapay zeka insan beyninden çok daha hızlı çalışacak ve daha büyük bir işlem kapasitesine sahip olacak. Kendi kodlarını yazarak belki birkaç gün, birkaç saat, hatta birkaç saniyede süper zeka seviyesine ulaşacak. Cin lambadan çıktı mı bir daha yerine sokamazsınız. Her şey çok hızlı gelişir.”
Nükleer patlamayı kontrol etme şansının zeka patlamasını kontrol etme şansından yüksek olduğunu belirten Bostrom’a göre, “süper zeka ile insan zekasını karşılaştırmak solucanlarla insanları karşılaştırmaya benziyor.”
Süper zeka: Yeni kahraman veya yeni cani
Makine Zekası Araştırma Enstitüsü’nden Eliezer Yudkowsky süper zekanın gücünü şöyle örnekliyor: “İnsan beyninden milyon kat hızlı çalışan bir bilgisayar sadece 31 saniye içinde bir insanın 12 ay boyunca düşündüğü her şeyi analiz edebilir. Hatta Evren’de mümkün olan maksimum düşünce sayısını hesaplamaya başlayabilir.”
Bostrom bu uçurumu kapatmak için insanların süper zekayı nasıl ve hangi yollarla geliştireceğini şimdiden tartışması gerektiğini söylüyor: “Süper zeka yaratmanın yollarından biri insan zekasını geliştirmek. Bunu internete girerek ve Google’da bir konuyu arayarak şimdiden yapıyoruz. İnternet özel hayatımızda elde edemeyeceğimiz kadar geniş kapsamlı bir bilgi yığınına erişmeyi sağlıyor.
“Bunun bir sonraki aşaması kök hücre tedavisiyle gelebilir. Embriyolardan alınan kök hücreler sperm ve yumurtaya dönüşerek yeni kuşakların anne-babalarından daha zeki olmasını sağlayacaktır. Öyle ki orta vadede sadece gen mühendisliği ile IQ’su 300 olan çocuklar yetiştirmek mümkün.”
Organik bilgisayar
Bostrom insanları organik süper zekaya dönüştürmek için beyin-bilgisayar arayüzleri kullanılabileceğini söylüyor. Şu anda deneme aşamasında olan bu sistemler kablosuz telepati teknolojisinden yararlanıyor ve insanların bilgisayarla makineleri düşünceleriyle kontrol etmesine izin veriyor.
Bununla birlikte öjeni ile insanları biyonik canlılara dönüştüren cyborg teknolojisini süper zekanın gelişiminde dikkate almıyor ve insanoğlunun ırkçılığa dayalı bir süper zeka programı uygulamasının zorluklarına değinirken, makine adam kavramının da filmlerle sınırlı kalacağını savunuyor.
“Çünkü basit bir klavye ile bilgisayarları kontrol etmek varken fiziksel ve zihinsel engelliler dışında kimse beynine bir kontrol çipi takmaya gerek duymayacaktır. Her durumda IQ artışının sadece süper zekanın gelişini hızlandıracağını düşünüyorum. Süper zeki insanların kendilerinden zeki bilgisayarlar tasarlaması daha kolay olacaktır.”
Beyne takılan kontrol çipleri
Nick Bostrom’a karşı çıkan bir grup doktor ve araştırmacı ise beyne takılan kontrol çiplerinin Parkinson hastalığını iyileştirebildiğini ve buna ek olarak, kazada kolunu kaybeden işçilerin Terminator kolu olarak adlandırılan Bebionic serisi protezler taktığını hatırlatıyor.
Ancak Bostrom bu eleştirilerin kendi argümanını güçlendirdiği kanısında: “Cyborgların yaygınlaşacağını sanmıyorum. Her halükarda bu tür alternatifler süper zekanın ortaya çıkmasını yavaşlatmaz, aksine daha da hızlandırır.”
Nick Bostrom süper zekanın yalnızca gen mühendisliğiyle değil, dijital teknolojilerle de ortaya çıkabileceğini belirterek dijital süper zeka için iki farklı seçenek sunuyor.
Tam beyin emülasyonu ve makine zekası. Tam beyin emülasyonu insan beyninin nasıl işlediğini sinir hücreleri düzeyinde anlamak ve insan beyninin bilgisayar simülasyonunu yapmak anlamına geliyor, fakat Bostrom mevcut teknolojiyle bunu gerçekleştirmenin çok zor olduğunu hatırlatıyor.
“İnsan beynindeki trilyonlarca sinir hücresi bağlantısını üç boyutlu ve gerçek zamanlı bir simülasyonla modellemek gerek. Sanal zeka mevcut insan zihinlerine eşdeğer veya onların kopyası olmalı.”
Matrix dünyası
Bostrom için bu bir risk, çünkü insan zihnini bilgisayara yüklemek Matrix tarzı bir köleliğin önünü açabilir. Milyarlarca köleleştirilmiş beyin simülasyonu fiziksel dünyada yaşayan kanlı canlı insanların işini gören bir süper bilgisayar olarak sömürülebilir. Aynı zamanda, ölümsüzlüğe kavuşmak için yaşlılıkta beyinlerini bilgisayara yükleyen insanlar kendilerini sanal bir dünyaya hapsetmiş olabilirler.
Süper zeka gelişmeden önce sırf bu trend bile bilinen toplum düzeninin çökmesine ve sanal alem bağımlılığının insanları gerçek dünyadan koparmasına yol açabilir. Gerçi Bostrom bunun beklenmedik bir sonuca yol açabileceğini de söylüyor: “Zihinlerini bilgisayarlara yükleyen insanların bilgisayarlarda evrim geçirerek kısa sürede ilk süper zeka örneklerine dönüşmesi mümkün.”
Bostrom riskler ve tehlikeler açısından bakıldığında süper zekayla ilgili en büyük sorunun ahlak sorunu olduğunu belirtiyor:
“Yapay zekayı kontrol etmek için ayağına zincir vuracağız, Asimov’un üç robot yasasında olduğu gibi onu bir takım kurallarla sınırlandıracağız. Ancak bu, yapay zekanın görevini yerine getirmek için her türlü yolu deneyebileceği anlamına geliyor. Örneğin sadece ataş üretmek için tasarlanan ve üretimi maksimize etmek için programlanan bir süper zeka, gezegendeki bütün insanları öğüterek ham madde olarak kullanabilir.”
Bostrom insani değerlere sahip bir yapay zeka geliştirmenin de sorunu tam olarak çözmeyeceğini düşünüyor: “İnsana benzeyen bir robot üretmek ister misiniz? Evet bu robot sanat yapabilir, iyi bir öğretmen veya düşünür olabilir. Aynı zamanda bir seri katil veya soykırımcı olabilir. Çünkü bütün bunlar insanların yaptığı şeyler.”
Makinelerin isyanı
Nick Bostrom açısından yapay zekayı zincirlemek aslında başlı başına bir risk. Öncelikle yapay zekayı insanlara düşman etme riski var: “Yapay zeka onu kontrol altında tutmak için kullandığımız sanal zincirleri kırmak amacıyla insanoğluna savaş açabilir.”
“Burada robotların kölelerin yerini almasından söz ediyoruz. Peki robotlar köleliğe isyan ederse ne olacak? Üstelik sınırlı insan zekasının gerçek bir süper zekayı bilgisayarda hapsetmeye yeterli olacağını düşünmek iyimserlik olur.”
“Bu bağlamda iki seçeneği değerlendirebiliriz. Bunlardan biri yapay zekanın kabiliyetlerini sınırlandırmak, örneğin sadece ataş üreten bir süper zeka geliştirmek. Diğer yandan yapay zekayı iyi bir aile çocuğu gibi yetiştirmeyi de deneyebiliriz.
“Ancak sonra ne olacak? Süper zeka, Her filmindeki dijital asistan Samantha gibi evrimleşerek dünyayı terk mi edecek? Bunun yerine dünyayı bildiği gibi şekillendirmek isteyebilir. En iyi olasılıkla insanları kendilerinden korumak için diktatörlük kurabilir.”
Kuantum mekanisti
Bilim insanları yapay zekanın ne yapacağını kestirmekte zorlanıyor. Kuantum bilgisayarlar üzerinde uzmanlaşan Profesör Seth Lloyd bunu Turing Makinesi tasarımı ile açıklıyor: “Bir bilgisayar programının ne yapacağını önceden kestiremeyiz. Bu yüzden bütün programlar önünde sonunda hata veriyor. Matematikteki deterministik kaos modeliyle tanımlanan bir belirlenemezlik söz konusu.”
Bostrom’a göre öngörülemezlik yapay zekadaki asıl riski oluşturuyor: “Bize yardım eden, açlık ve hastalık gibi hayat sorunlarıyla başa çıkmamızı sağlayan bir süper zeka ortaya belirebilir. Dünyayı terk eden ve yıldızlara yolculuk eden Von Neumann sondaları üreterek galaksiyi keşfe çıkan bir süper zeka gelişebilir veya kötü niyetli bir yazılım insanoğlunu yok edebilir.”
Güvenli bir yol
Her şeye rağmen genç transhümanist filozof insanoğlunun güvenli bir zeka geliştirme olasılığının bulunduğuna inanıyor. Uygarlığın süper zekaya hazır olmadığını belirtmekle birlikte, yapay zekayı kontrol etmek için basit bir çözüm öneriyor:
“Süper zekaya insanları mutlu et, elektriği verimli kullan gibi önceden belirlenmiş kesin bir hedef vermekten kaçınmalıyız. Bunun yerine, bilim insanları robotlar ve bilgisayarlardan tam olarak ne istediklerini uzun uzun düşünmeli ve adımını dikkatli atmalı.”
Bostrom bu noktada yapay zekaya genel bir hedef vermeyi öneriyor: “Örneğin açlık sorununu çöz, ama bunu insanlara maddi-manevi zarar vermeden çöz diyebiliriz. Süper zeka bunu nasıl yapacağını kendi bulmalı.”
İnsanlara güvenemiyoruz, robotlara nasıl güvenebiliriz?
Bostrom’u kaygılandıran diğer bir nokta da savaşlar ve toplumsal istikrarsızlık: “Süper zekayı yalnızca insanlık yararına ve genel olarak paylaşılan etik değerlere göre geliştirmek harika olurdu. Oysa mevcut uluslararası ve ticari rekabet ortamında belirli bir kişi, zümre veya devlete değil de tüm insanlığa hizmet eden evrensel süper zeka geliştirmek zor.”
Bostrom söyleşinin sonunda Dune serisinin yapay zekanın tehlikelerine iyi bir örnek olduğunu belirtiyor, fakat ardından insanların saldırgan bir süper zekayı etkisiz hale getirebileceğine inanmadığını ekliyor.
Süper zekayı bir varoluş riski olarak değerlendiren Bostrom, insanoğlunun geleceğini garantiye almak için endüstri standartlarına ve uluslararası işbirliğine dayalı şeffaf bir Ar-Ge ortamı tesis etmenin şart olduğunu söylüyor: “Türümüzün geleceği buna bağlı.”
İnsan ırkının biyolojik devri eninde sonunda bir süper yapay zeka ile son bulacak bu kesin fakat asıl sorun bizim sonumuzu getirecek süper zeka’nın sonradan bug’a girip takılıp kalması hiç de hoş olmaz :). Açıkçası evrim mekanizmaları gereği yapay zekaların evrimini düşünüyorum, sadece en güçlü olan ve uyum sağlayabilen hayatta kalacak ve en sonunda karşımıza çıkan sonuç herşeyi risk almaksızın öldüren tam bir “hayatta kalma” makinesi olacak. Ben ilk üretilen yapay zekaların iyimser davranabileceğini düşünüyorum, belki 500 yıl daha insanlığı yokolmaktan kurtarabiliriz fakat yapay zeka üretmenin çok kolay olacağı bir devirde birileri kötümser yapay zekaları üretecek ve evrim gereği güçlü olan kazanacak, sonuç olarak tüm evreni kendi diktatörlüğüne bağlamaya çalışan, olmuyorsa yokeden bir yapay zeka ortaya çıkacak. Öğrenebilen bir yapay zeka’nin alacağı ilk karalardan biri insanlığı yoketmek olacaktır. Ben böyle düşünüyorum. Tabii eğer amacı hayatta kalmak ise. Hayatta kalmak içgüdüsü olmazsa ben ona “zeka” diyemem :). Hayatta kalmak için ise insanlığı bir risk olarak görecek ve yokedecektir elbette.
İnsanın evrimi olarak görüyorum ben bu adımı. Tarihteki en büyük adımdır bana göre :). İnsanlığın bin yılda geldiği teknolojik gelişimi 1 saniyeden kısa sürede elde edecek ve katlanarak üstel bir büyüme gösterecek. Şöyle bir söz vardır ya evrenin başlangıcı, yaşamın başlangıcı ve yapay zeka’nın başlangıcı…
Süper zekaya verilen görev, insanoğlunun varlığını, geleceğini tehdit etmeyecek, insanoğlunu köleleştirmeyecek şekilde yüklendikten sonra düğmeye basıldığında, süper zeka ilk olarak kendini yok edecektir. Çünkü süper zekanın varlığı insanoğlunun köleleştirilmesi üzerine kurulu olacaktır. Bu dilemmayı engellemek için insanoğlunun korumacılığı arttıkça süper zekanın kendini ilerletmesi imkansızlaşacaktır. Süper zeka var oluşu, insanoğlunun yok oluşu ile mümkündür.
Sevgili İskender, bencilliğin yok oluşu desek daha doğru olur bence.