Header Ads

Yapay Zeka: Uygarlığımız için onuncu tehlike!

Yapay Zeka: Uygarlığımız için onuncu tehlike!  / (Fethi Demir)



İsveç’teki Küresel Sorunlar Vakfı’nın yayınladığı “Uygarlığımızı tehdit eden 12 risk” raporundaki 10. Risk: “Yapay zekâ”dır. (http://globalchallenges.org/ )

Keza, Nobel ödüllü bilim adamı Stephen Hawking, İngiliz Independent gazetesi için kaleme aldığı bir makalede; ‘Yapay zekâ insanlığın en büyük ve son başarısı olabilir’ şeklinde uyarıda bulundu.

“Yapay zekâ araştırmaları büyük bir hızla devam ediyor. Son dönemde kendi kendini süren otomobiller, bilgi yarışmalarını kazanan robotlar, Siri, Google Now ve Cortana gibi dijital asistanlar icat edildi. Bütün bunlar yapay zeka teknolojileri konusunda önemli bir araştırma ve yatırım savaşının başladığına işaret ediyor” dedi.

“Yapay zekâ”nın yararları anlatılamayacak kadar çok. Bilimin her dalında sıçrama denebilecek seviyede ilerlemeler sağlayacağı muhakkak. Refah seviyemizi yükselteceği gibi, yaşam kalitemizin artmasına da etkileri olacaktır. En çarpıcı örneklerden biri olarak; tıpta devrim denebilecek ilerlemeyle birçok hastalığın çaresinin bulunmasına sebep olacaktır.

Çok teknik ve bilimsel terimlere kaçmadan tariflemeye çalışalım, nedir yapay zekâ? İnsan beyni gibi çalışan, öğrenebilen, öğrendiklerini hafızasına kaydeden, buradan yeni sonuçlara varabilen, kendini geliştirebilen, inisiyatif kullanabilen, kararlar alıp uygulayabilen... kısacası tıpkı biz yani.

“Yapay zekâ”nın robotlarda olması şart değil, robotlarla iç içe olabilir, robotları kullanabilir, robotlara da yüklenmiş olabilir, fakat “yapay zekâ=robot” değildir, çok daha ötesidir.

Konu bu kadar ilginç olunca, doğal olarak sanatın çeşitli dallarının bu çekici konuya ilgisiz kalması mümkün değil.
Bu konuda izlenmesi gerekli bazı önemli sayılabilecek filmlerden bahsetmek gerekirse:

"Transcendence"

"Ex Machina"

"Autómata"

Chappie

Tabii Terminatör film serisindeki SKYNET’i de unutmak mümkün değil ve alnının akıyla bu listeye girer. Keza; Matrix serisi, “I Robot”, Battlestar- Galactica filmleri de “Yapay Zekâ” konusunda izlenmesi gereken filmler arasındadır.

Edebiyat dünyasının, özellikle bilim-kurgu edebiyatın da önemli konularından biridir. Bu vesileyle ünlü bilim-kurgu yazarı Isaac Asimov'un 1940’lı yıllarda yazdığı kitaplarda belirlediği, “Yapay zekâ”ya sahip her robotun, tehlike oluşturmaması için sahip olması gereken temel 3 Robot Yasası’nı da hatırlamak gerekir:
1- Bir robot hiçbir şekilde insanoğluna zarar veremez; veya pasif kalmak suretiyle zarar görmesine izin veremez.
2- Bir robot 1. kuralla çelişmediği sürece kendisine insanlar tarafından verilen emirlere itaat etmek zorundadır.
3- Bir robot 1. ve 2. kurallarla çelişmediği sürece kendi varlığını korumak zorundadır.

“Asimov evren”inin ilerleyen zamanlarında ise, 3 robot yasası’ nın bazı durumlarda yetersiz kalabildiği tespiti üzerine 4. ama önem sıralamasında en başta gelen bir yasa daha koyulmuş, buna da 0. yasa veya orijinal ismiyle "zeroth law" adı verilmiştir:

0- Hiçbir robot insanlığa zarar veremez veya harekete geçmeyerek insanlığın zarar görmesine seyirci kalamaz.

Kısaca bu bilgileri verdikten sonra, akla şu soru geliyor: “Ne zaman tam tanıma uygun yapay zekâ oluşturulabilir?”.

Burada Moore yasasından bahsetmeden geçmemek gerekir. Moore Yasası:  Intel şirketinin kurucularından Gordon Moore'un 19 Nisan 1965 yılında Electronics Magazine dergisinde yayınlanan makalesi ile teknoloji tarihine kendi adıyla geçen kuraldır. Bu kurala göre her 18 ayda bir, bilgisayarların ana ünitesi (CPU-beyin) iki misli kapasiteye çıkar, maliyetler aynı kalır.

Tabii bilgisayarların kapasitesinin artması, yapay zekâ konusunda ilerleme kaydedebilmemiz açısından önemli ama tek etken değil. Yazılım ve algoritmalar konusunda önemli ilerlemeler kaydetmemiz gerekiyor. Beynimizin çalışma şeklini anlama konusunda da bilimsel ilerlemeler kaydetmek zorundayız.

Özetle; tam tanıma uygun yapay zekâ oluşturulabilmesi için tahmini tarihleme bir kaç yüz yıl sonrası. Fakat bilim veya teknolojide olası bir sıçrama şeklindeki ilerleme, bu tahmini zamanı kısaltacaktır.

İlk bakışta gayet yararlı, insan hayatını kolaylaştırma, refah sağlama ve yaşam kalitesini arttırma yönünde katkısı olacak gibi görünen yapay zekâ, neden tehlikeli olarak algılanıyor veya lanse ediliyor?

Evrene zekası olan, düşünebilen yeni bir tür katmış oluyoruz, üstelik bizden üstün. Bu güne kadar tüm türler bizden alt seviyedeydiler. Bu tür bir zekâ, örneğin internetteki tüm bilgiye anlık olarak ulaşabilecek ve bilgiyi o andaki duruma uygulayabilecektir. Yani interneti kendi hafızası ve bilgi dağarcığı olarak kullanabilecektir. Ayrıca Hawking’in dediği gibi, “Bu tür bir zekâ kendi yolunu çizerek kendini yeniden tasarlayabilir ve sürekli artan bir hızda gelişebilir.”

İsveçli felsefeci Nick Bostrom, süper yapay zekâ ile insan zekâsı arasındaki farkı şöyle açıklıyor: “Einstein’ın zekâsıyla bir solucanın zekâsı arasındaki fark neyse, öyle bir fark söz konusu olacak.”

Peki, bizim kadar zekâsı olan veya bizden daha üstün olan bir sistemden, türden neden bu kadar çok korkuyoruz?
Eğer onu biz oluşturduysak, yönlendiren ve kuralları koyan da yine biz oluruz, öyleyse korkacak ne var?

Aslında biz “Yapay zekâ”dan kokmuyoruz, biz kendimizden korkuyoruz:
1)    Korkuyoruz ki; bencil çıkarını düşünen bazı guruplar, “Yapay zekâ”yı kendi çıkarlarına yönelik kullanmak üzere tasarlayabilir ve yönlendirebilirler. Bilim kurgu yazarı Charles Stross, "Bana göre şu anda görülen ya da gelecekte görebileceğimiz yapay zekâlar tehlikeli olabilir. Ama bunun tek sebebi bu yapay zekânın hizmet ettiği insanlar olur" diyor.
2)    Kokuyoruz ki; “Yapay zekâ”yı “ahlak-iyilik-dürüstlük” gibi erdemlerle kuşatırsak, onun bize soracağı sorular karşısında, insanlığın geçmişi, bugünü ve geleceğine dair yaptığımız hataların hesabını veremeyiz.

Kızılderililer, İnka-Aztek’ler, Aborjinler … nice medeniyetleri ve insanları neredeyse toptan yok ettik. Bitkiler ve hayvanların birçok türü geri dönülemez biçimde bizim tarafımızdan yok edildi. Çevreyi ve Atmosferi her tür atıkla kirletmeye devam ediyoruz. Kendimizi düşünmediğimiz gibi, her tür çevre felaketini oluşturarak doğayı birlikte paylaştığımız diğer canlıları da yaşam tehlikesiyle baş başa bırakıyoruz.

İnsanlığın ilk oluştuğu tarihinden beri süregelen en önemli ahlak-din kuralı: “Öldürmeyeceksin, çalmayacaksın” değil midir?

Günümüzde dünyanın çeşitli bölgelerinde savaş devam ediyor, yani insan soyu olarak kendi kendimizi yok etmeye devam ediyoruz. Bu savaşların en temel nedeni de; “tek tek insanları sömürmekten yani çalmaktan daha da öte, ulusları sömürge haline getirerek, bir ulusun kaynaklarını toptan çalmak”. Yani insanlık olarak “öldürüyoruz, çalıyoruz”.

Medeni diyebileceğimiz insanlık, yaklaşık 10-12 bin yıl önce başladıysa, muhakkak ki “öldürmeyeceksin-çalmayacaksın” kuralı da onlarla birlikte başlamış olmalı çünkü birlikte yaşamak için bu kural olmazsa olmaz en temel noktadır. Bugün bu kurala uyduğumuz söylenebilir mi; hayır! Öyleyse kaç on bin yılda bir bu kuralı yerine getirmeye biraz daha yaklaşacağız? Veya bir önceki on bin yıla göre kaç misli ilerleme kaydedeceğiz?

İnsanlığın ahlak-erdem konusundaki Moore yasasını ne zaman koyabileceğiz ve yerine getirebileceğiz.

Yani “insanlığımızın” ahlak ve erdem konusundaki gelişme hızı, yapay zekâ geliştirme hızımıza ulaşacak mı yoksa geride mi kalacağız? Asıl korkulması gereken felaket, geride kalmamız ve yapay zekâya hesap veremeyişimizdir. İnsan soyu; doğayı kemiren kanser olarak görülüp yok edilmeyi hak ediyor pozisyonunda kalabilir. 

Korkulu rüya görmemek için asıl yarışın; çıkar ve sermaye gurupları veya ülkeler arasında yapay zekâ oluşturma alanında olmaması gerekir. Asıl yarışın; insan soyunun, “insanlık” adına kendiyle olan yarışı olması gerekir. Bir an önce kendi doğasına ve çevreye uyumlu bir insanlık oluşturmak için insan soyu olarak kendimizle yarışıyor olmak zorundayız.




Kaynaklar:







Sümer – Mısır bağlantısı

Sümer – Mısır bağlantısı Gebel el-Arak hançeri Paris’teki Louvre müzesi, 1916 yılında Hamamat vadisinin batısındaki Gebel el-Arak köyünde...

Tema resimleri 4x6 tarafından tasarlanmıştır. Blogger tarafından desteklenmektedir.