YAPAY ZEKANIN KISA TARİHİ

Makineler Düşünebilir Mi? 


20. yüzyılın ilk yarısında, bilim kurgu filmleri robotlar ile yapay zekayı tanıttığında Dünya ivmelenmenin bu denli hızlı olabileceğinden habersizdi. Oz Büyücüsü'nden “kalpsiz” teneke adamla başlayan sempatimiz, Metropolis'te (1927) Maria'yı taklit eden insansı robotla devam etti. 1950'lerde, bu yapımlar sayesinde özümsenen yapay zeka (ya da AI), bir grup bilim insanı, matematikçi ve filozof tarafından araştırılmaya başlandı. İşte bu insanlardan biri de yapay zekanın matematiksel olasılığını araştıran genç bir İngiliz polimatı Alan Turing'di. Turing, sorunları çözmek ve kararlar almak için insanların mevcut bilgileri ve sebepleri kullanmasını öneriyordu ve bu fikir makinelerin de aynı şeyi yapabileceği düşüncesini doğurmuştu. 1950'de yayınlanan Computing Machinery and Intelligence isimli makalesini de temellendirdiği bu fikir ile Turing, akıllı makinelerin nasıl inşa edileceğini ve zekâlarının nasıl test edileceğini tartışarak bu alanda öncü bir rol üstlendi.

İlerlemenin İmkanı


AI felsefesini ve teorisi konusunda ilerleyen Turing'i ne durdurmuştu? Ne yazık ki, araştırmaların ötesine ilerlemek epey zordu. İlk olarak, bilgisayarların temelde değişmesi gerekiyordu. 1949'dan önce, bilgisayarlar yapay zeka için önemli bir gereklilikten yoksundu: bu bilgisayarlar komutları saklamaktan yoksundular. Yapabildikleri şey komutları uygulamaktan ibaretti. Başka bir deyişle, bilgisayarlar onlara söyleneni yapabiliyor ancak öncesinde ne yaptıklarını hatırlayamıyorlardı. İkincisi, bilgisayar teknolojisi oldukça pahalıydı. 1950'lerin başında, bir bilgisayarı kiralama maliyeti ayda 200.000 dolara kadar çıkıyordu. Sadece prestijli üniversiteler ve büyük teknoloji şirketleri bu keşfedilmemiş sularda hayatta kalma gücüne sahipti. Makine zekasının peşinden gitmeye değer olduğuna, finansman kaynaklarını ikna etmek için yüksek profilli kişilerin bu teknolojiyi savunması ve kullanım alanlarının genişletilmesi gerekiyordu. 

Her Şeyi Başlatan Konferans


Beş yıl sonra; Allen Newell, Cliff Shaw ve Herbert Simon’ın Logic Theorist isimli programı ile yapay zeka üzerine daha kapsamlı bir çalışma alanı yaratılmıştı. Logic Theorist, bir insanın problem çözme becerilerini taklit etmek için tasarlanmış ve Araştırma ve Geliştirme (RAND) Kurumu tarafından finanse edilen bir programdı. Birçok kişi tarafından ilk yapay zeka programı olarak kabul edildi ve 1956'da John McCarthy ve Marvin Minsky'nin ev sahipliği yaptığı Dartmouth Yaz Yapay Zeka Araştırma Konferansı'nda (DSRPAI) herkese sunuldu. Bu tarihi konferansta, McCarthy yapay zeka hakkında açık uçlu bir tartışma için çeşitli alanlardaki üst düzey araştırmacıları birlikte çalışmaya davet etti. Maalesef konferans McCarthy’nin beklentilerinin gerisinde kaldı; insanlar ne beklediklerinden emin olmadıkları bu teknoloji üzerine çalışacakları standart yöntemler üzerinde uzlaşamadılar. Buna rağmen, herkes AI'nın çalışılması gerektiği duygusuna gönülden inanıyordu. Gelecek yirmi yıllık AI araştırmalarını katalize eden için bu konferansın teknolojideki yeri her zaman ayrı olacaktı.

Bir İleri İki Geri


1957'den 1974'e kadar AI gelişimini sürdürdü. Bilgisayarlar daha fazla bilgi depolayabilir ve daha hızlı, ucuz ve daha erişilebilir hale geliyorlardı. Makine öğrenmesi algoritmaları da gelişti ve insanlar problemlerine hangi algoritmanın uygulanacağını bilmek konusunda daha fazla fikre sahip oldular. Newell ve Simon’ın "Genel Sorun Çözücü"ve Joseph Weizenbaum’un "Eliza'sı" gibi ilk ürünler, problem çözme ve sözlü dilin makineler tarafından yorumlanmasına yönelik umut veriyordu. Bu başarıların yanı sıra, önde gelen araştırmacıların (yani DSRPAI'nın katılımcıları) savunuculuğu, çeşitli kurumlarda AI araştırmalarını finanse etmek için Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) gibi devlet kurumlarını ikna etmeyi başarmıştı. Hükümet özellikle, konuşulan dili ve eş zamanlı veriyi işleme ve tercüme edebilme yeteneğine sahip bir makine ile ilgileniyordu. İyimserlik yüksek ve beklentiler daha da yüksekti. 1970'te Marvin Minsky, Life Magazine'e “üç ila sekiz yıl arasında, ortalama bir insanın genel zekasına sahip bir makineye sahip olacağız” cümlesini kurduğunda bu beklentilerin ne kadar yüksek olduğunu bir kez daha gösteriyordu. Teknoloji şüphesiz hızla gelişecekti ancak daha önce yapılması gereken çok şey vardı. Doğal dili işlemek, soyut düşünceyi algılamak, yönetmek ve hatta kendine tanıtmak hayalleri bir yol haritası çizse de sancılı süreç bu alanda çalışanları epey zorlayacaktı.

Anyoha SITN Figure 2 AI timeline

AI'nın bu senelerde başlayan ilk atılımı sonrasında karşılaşılacak güçlükleri de görünür kıldı. Bu güçlüklerin en büyüğü, önemli bir şey yapacak işlem gücünün eksikliği idi. Yaşanan tüm gelişmelere rağmen bilgisayarlar yeterli bilgiyi depolayamıyor ve yeterince hızlı işleyemiyordu. Örneğin iletişim kurmak için, birçok kelimenin anlamını bilmek ve bunları birçok kombinasyonda anlamak gerekir. O sırada McCarthy doktora öğrencisi olan Hans Moravec, “bilgisayarların hala zeka sergilemek için oldukça kez zayıf olduğunu” belirtti.

1980’lerde, AI konusunda yapılacak iki temel şey belirlendi: algoritmik araç setinin genişletilmesi ve fonların artırılması. John Hopfield ve David Rumelhart, bilgisayarların deneyimleri kullanarak öğrenmelerini sağlayan “derin öğrenme” tekniklerini geliştirdi. Öte yandan Edward Feigenbaum, bir insan uzmanının karar alma sürecini taklit eden uzman sistemler sundu. Program, bir alandaki uzmana belirli bir durumda nasıl cevap vereceğini soracak ve bu neredeyse her durum için bir kez öğrenildiğinde, uzman olmayanlar bu programdan tavsiye alabileceklerdi. Uzman sistem birkaç endüstri ağında kullanıldı. Japon hükümeti, Beşinci Nesil Bilgisayar Projesi'nin (FGCP) bir parçası olarak uzman sistemleri ve AI ile ilgili diğer çalışmaları yoğun bir şekilde finanse etti. 1982-1990 arasında bilgisayar işlemlerinde devrim yapmak, mantık programlarını uygulamak ve yapay zekayı geliştirmek amacıyla 400 milyon dolar yatırım yapıldı. Maalesef, iddialı hedeflerin çoğu karşılanmadı. Bununla birlikte, FGCP'nin dolaylı etkilerinin yetenekli bir genç kuşak mühendis ve bilim insanına ilham verdiği söylenebilir. Yine de beklenenin alınmamış olması FGCP'nin fonunun kesilmesine neden oldu ve AI gelişimi büyük bir kaynağını kaybetti.

İroniktir, hükümet finansmanı ve kamu ilgisi yokluğunda, AI büyümeye devam etti. 1990'lı ve 2000'li yıllara gelindiğinde yapay zekanın önemli hedeflerine ulaşılmıştı. 1997'de dünya satranç şampiyonu ve büyük usta Gary Kasparov'un hükümdarlığı, IBM'in Deep Blue'su (satranç oynayan bir bilgisayar programı) tarafından yenildi. O zamana kadar satranç oyununda saltanat süren Kasparov'a karşı beşeri zekanın bu galibiyeti, teknolojiye duyulan güveni ve ilgiyi arttırmıştı. Aynı yıl Dragon Systems tarafından geliştirilen konuşma tanıma yazılımı Windows'ta uygulandı. Bu, konuşulan dil yorumlama çabası yönünde ileriye doğru atılmış bir başka büyük adımdı. Makinelerin idare edemediği bir sorun olmadığı hissi yerleşmeye başlamıştı. İnsani duygular bile, Cynthia Breazeal tarafından geliştirilen ve duyguları tanıyan ve gösterebilen bir robot olan Kismet'in üstesinden geldiği bir konuydu.

Zaman Her Şeyi İyileştirir


Yapay zekayı koda nasıl dökeceğimiz konusunda hala aynı plana sahibiz. Peki ne değişti? Anlaşılan, bizi 30 yıl önce geride tutan bilgisayar depolama sınırı artık bir sorun değil. Bilgisayarların hafızası ve hızının her yıl ortalama iki katına çıktığı tahminleri ediliyor ki birçok alanda çok daha hızla ölçeklenen teknoloji yapay zekanın gerekliliklerini karşımaya her gün daha da yaklaşıyor. Deep Blue’nun 1997’de Gary Kasparov’u nasıl yenebildiğini ve Google’ın Alpha Go’nun sadece birkaç ay önce Çin Go şampiyonu Ke Jie’yi nasıl yenebildiğini açıklıyor. AI araştırmasının roller coastera benzer gelişim şeması bize şunu anlatıyor; AI'nın yeteneklerini mevcut bilgisayar depolama ve işlem hızı ile üstsel olarak geliştiriyoruz ancak ilginin ve ümidin azaldığı zamanlarda olmaya devam ediyor. 

Şimdilerde çokça konuşulan bir diğer konu "Big data (büyük veri)". Yapay zekanın bu konuda uygulanması kadar teknoloji, bankacılık, pazarlama ve eğlence gibi birçok sektörde oldukça verimli olmuştur. Algoritmalar fazla gelişmese bile, büyük verilerin ve büyük hesaplamaların yapay zekanın gelişimine büyük hız kattığına tanıklık ettik. Bilgisayar bilimi, birbirini besleyen yenilikçi teknolojilerin iş birliği ile hızla ilerlemeye devam ediyor.

Gelecek


Yapay zeka, teknolojide öngörüsü olan tüm şirketlerin gündemini meşgul etmeye devar ediyor. Bir şirketi aradığımızda, doğrudan bir insanla konuştuğumuzu ayırt etmek zorlaşıyor. Bugünlerde makineler bizi çağırıyor! Akıcı bir sohbette uzman bir sistemle etkileşime girmeyi ya da iki farklı dilde sohbeti gerçek zamanlı olarak çevirmeyi hayal etmek mümkün. Gelecek yirmi yıl boyunca yollarda sürücüsüz otomobil göreceğiz. Uzun vadede amaç üstün bir zekaya erişmek; yani tüm görevlerde insan bilişsel yeteneklerini aşan makineler geliştirmektir. Bu, filmlerde görmeye alıştığımız duyarlı ve hisseden robotların varolması bu konuda çalışanların temel amacıdır. Önümüzdeki 50 yıl içinde gerçekleştirilebileceğini düşünmüyoruz. Çünkü teknoloji buna yeterli hale gelse de, etik sorular ürün çıkarmaya karşı güçlü bir engel teşkil edecektir. Bu zaman geldiğinde makine politikası ve etik (ironik olarak her ikisi de temel olarak insanı merkeze alacaktır) hakkında ciddi bir araştırmaya ihtiyacımız olacak, ancak şimdilik AI'nın sürekli olarak iyileştirilmesine, çalışmasına ve toplumla etkileşime girmesine çalışıyor olacağız.

Comments

Popular posts from this blog

Cryptocurrencies & Their Effects On Monetary Policy

Lütfen BENİ Öldürme - Yapay Zeka #1