Print Friendly and PDF

MİT YAPAY ZEKA...Bilgisayarlar Neden Bizim Düşündüğümüz Gibi Düşünemez ?

 


ERIK J. LARSON

The Belknap Press of Harvard University Press

Cambridge, Massachusetts Londra, İngiltere

2021

İlk baskı

Başlık: Yapay zeka efsanesi: bilgisayarlar neden bizim gibi düşünemiyor / Erik J. Larson.

İÇİNDEKİLER

Giriş                                                                     1

Part I:       BASİTLEŞTİRİLMİŞ DÜNYA                  7

1    İstihbarat Hatası                                                      9

2    Bletchley                                              19'da Turing

3    Süper Zekâ Hatası                                                 33

4     Tekillik, O Zaman ve Şimdi                                  44

5    Doğal Dil Anlama                                                 50

6    Teknolojik Kitsch                                  60 olarak AI

7    Basitleştirmeler ve Gizemler                                  68

Part II:       ÇIKARIM SORUNU 87

8    Hesaplama, Analiz Et                                            89

9    Peirce Yapbozu (ve Peirce Yapbozu)                     95

10    Tümdengelim ve Tümevarımla İlgili Problemler 106

11    Makine Öğrenimi ve Büyük Veri                         133

12    Abdüktif Çıkarım                                               157

13    Çıkarım ve Dil I                                                 191

14     Çıkarım ve Dil II                                                204

Part III:       MİTİN               GELECEĞİ                235

15    Mitler ve Kahramanlar                                        237

16     Yapay Zeka Mitolojisi Nörobilimi İstila Ediyor    245

17     Neokortikal İnsan     Zekası Kuramları 263

18    Bilimin Sonu mu?                                              269

notlar                                                                 283

teşekkürler                                                          301

303

dizin

GİRİŞ

Bu kitabın sayfalarında yapay ­zekâ efsanesini okuyacaksınız. Efsane, gerçek yapay zekanın mümkün olduğu değildir. Buna gelince , yapay zekanın geleceği bilimsel olarak bilinmiyor. Yapay zeka efsanesi, gelişinin kaçınılmaz olduğu ve yalnızca bir zaman meselesi olduğu - insan düzeyinde yapay zekaya ve ardından süper zekaya götürecek yola çoktan girmiş olduğumuzdur. Sahip değiliz. Yol sadece hayal gücümüzde var. Yine de yapay zekanın kaçınılmazlığı, medya uzmanları, Elon Musk gibi düşünce liderleri ve hatta birçok yapay zeka bilim insanı (kesinlikle hepsi olmasa da) tarafından desteklenen popüler tartışmalara o kadar kökleşmiş durumda ki, buna karşı çıkmak genellikle bir Luddizm biçimi olarak görülüyor veya en azından teknolojinin geleceğine dair dar görüşlü bir görüş ve akıllı makinelerden oluşan bir dünyaya hazırlanma konusunda tehlikeli bir başarısızlık.

şu anda kimsenin nasıl çözüleceğine dair bir fikrinin olmadığı, zekanın kalbindeki çok büyük bir gizemi ortaya çıkardı . AI savunucuları, bilinen sınırlamalarını en aza indirmek için büyük teşviklere sahiptir. Ne de olsa yapay zeka büyük bir iş kolu ve kültürde giderek daha baskın hale geliyor. ­Yine de gelecekteki AI sistemleri için olasılıklar, beğensek de beğenmesek de zekanın doğası hakkında şu anda bildiklerimizle sınırlıdır. Ve burada doğrudan söylemeliyiz: Tüm kanıtlar ­, insan ve makine zekasının kökten farklı olduğunu gösteriyor. Yapay zeka efsanesi, farklılıkların yalnızca geçici olduğu ve daha güçlü sistemlerin sonunda onları sileceği konusunda ısrar ediyor . Fütüristler gibi

Efsanenin önde gelen savunucuları Ray Kurzweil ve filozof Nick Bostrom, yalnızca insan düzeyinde yapay zekanın kaçınılmaz olduğunu değil, aynı zamanda gelişinden kısa bir süre sonra süper zeki makineler bizi çok geride bırakacakmış gibi konuşuyorlar.

bilimsel, diğeri kültürel olmak üzere iki önemli yönünü açıklıyor . ­Efsanenin bilimsel kısmı, oyun oynamak veya görüntüleri tanımak gibi zekanın dar başarılarında ilerleme kaydederek genel zeka meydan okumasında yalnızca "uzaklaşmaya" devam etmemiz gerektiğini varsayar. ­Bu çok büyük bir hatadır: Dar alanlardaki başarı bizi genel zekaya bir adım daha yaklaştırmaz. Sistemlerin genel zeka için ihtiyaç duyduğu çıkarımlar - bir gazete okumak veya temel bir konuşma yapmak veya The Jetgiller'deki Rosie the Robot gibi bir yardım toplantısı yapmak - mevcut yapay zeka bilgimizle programlanamaz, öğrenilemez veya tasarlanamaz. Daha hızlı bilgisayarlardan ve çok sayıda veriden yararlanan zekanın daha basit, dar sürümlerini başarıyla uyguladığımızda, artan ilerleme kaydetmiyoruz, bunun yerine düşük asılı meyveleri topluyoruz. Genel "sağduyuya" geçiş tamamen farklıdır ve birinden diğerine giden bilinen bir yol yoktur. Genel zeka için herhangi bir algoritma yoktur. Ve böyle bir algoritmanın derin öğrenme sistemleri veya günümüzde popüler olan herhangi bir başka yaklaşım üzerinde daha fazla çaba harcanarak ortaya çıkacağından şüphelenmek için iyi nedenlerimiz var. ­Çok daha büyük olasılıkla, büyük bir ­bilimsel atılım gerektirecek ve şu anda hiç kimse, bırakın ona ulaşmanın ayrıntılarını, böyle bir atılımın neye benzeyeceği konusunda en ufak bir fikre sahip değil.

O halde yapay zeka hakkındaki mitoloji kötüdür, çünkü devam eden ilerlemeye dair sonu gelmeyen konuşmalarda bilimsel bir gizemi örtmektedir. Efsane, kaçınılmaz başarıya olan inancı destekler, ancak bilime gerçek saygı bizi çizim tahtasına geri getirmelidir. Bu da bizi bu sayfaların ikinci konusuna getiriyor: mitin kültürel sonuçları. Efsanenin peşinden gitmek, "akıllı parayı" veya tarafsız bir duruşu izlemenin iyi bir yolu değildir. Bilim için kötü, bizim için de kötü. Neden? Bunun bir nedeni, temel bir gizemle yüzleşmek yerine onu görmezden gelmeyi seçersek inovasyon elde etmemizin pek olası olmamasıdır. Sağlıklı bir inovasyon kültürü ­, özellikle bu yöntemlerin bizi çok daha ileriye götürmek için yetersiz olduğu görüldüğünde, mevcut yöntemleri abartarak değil, bilinmeyenleri keşfetmeyi vurgular. Yapay zekadaki kaçınılmaz başarı hakkındaki mitoloji , insan düzeyinde yapay zeka olsun ya da olmasın, gerçek ilerleme için gerekli olan buluş kültürünü söndürme eğilimindedir . Efsane aynı zamanda, gerçek buluşun, genellikle yerleşik çıkarlardan gelen mevcut yaklaşımları savunan fütüristik konuşma lehine bir kenara itildiği bir makine ülkesinin sürüngenliğine boyun eğmeyi de teşvik eder.

Kim bu kitabı okumalıdır? Elbette, yapay zeka konusunda heyecan duyan ama neden hep on ya da yirmi yıl uzakta olduğunu merak eden herkes almalıdır . ­Bunun bilimsel bir nedeni var, onu açıklıyorum. Yapay zekanın süper zekaya doğru ilerlemesinin kaçınılmaz olduğunu düşünüyor ve geldiğinde ne yapacağınız konusunda endişeleniyorsanız, bu kitabı da okumalısınız . Yapay zeka derebeylerinin bir gün ortaya çıkmayacağını kanıtlayamasam da, bu senaryonun olasılıklarını ciddi şekilde göz ardı etmeniz için size sebep verebilirim. Genel olarak, toplumumuzda AI'yı çevreleyen yaygın yutturmaca hakkında sadece merak ediyorsanız ancak kafanız karıştıysa, bu kitabı okumalısınız. Yapay zeka mitinin kökenlerini, insan düzeyinde yapay zekaya gerçekten ulaşma beklentileri hakkında bildiklerimizi ve bilmediklerimizi ve neden ­bildiğimiz tek gerçek zekayı, yani kendi zekamızı daha iyi takdir etmemiz gerektiğini açıklayacağım.

BU KİTAPTA

Birinci Bölüm, Basitleştirilmiş Dünya'da, yapay zeka kültürümüzün teknoloji hakkındaki fikirleri genişletirken insanlar hakkındaki fikirleri nasıl basitleştirdiğini açıklıyorum ­. Bu, AI'nın kurucusu Alan Turing ile başladı ve ­benim "zeka hataları" dediğim kabul edilebilir ama talihsiz basitleştirmelerle ilgiliydi. İlk hatalar, Turing'in arkadaşı ve istatistikçi IJ Good tarafından bir ideolojiye büyütüldü ve insan düzeyinde yapay zeka elde edildikten sonra öngörülebilir bir sonuç olarak "ultra zeka" fikrini ortaya attı.

Turing ve Good arasında, modern yapay zeka mitinin şekillendiğini görüyoruz. Gelişimi, bizi teknolojik kitsch dediğim bir çağa getirdi - daha derin fikirlerin akıllı katılımı kesen ­ve kültürümüzü zayıflatan ucuz taklitleri. Kitsch bize nasıl düşüneceğimizi ve nasıl hissedeceğimizi söyler. Kitsch'in tedarikçileri fayda sağlarken, kitsch'in tüketicileri bir kayıp yaşıyor. Onlar - biz - sığ bir dünyaya düşüyoruz.

düzeyinde yapay zeka (veya hatta ona yakın herhangi bir şey) için işe yarayacak tek çıkarım türünün - başka bir deyişle düşünmenin - nasıl olduğuna dair hiçbir fikrimiz olmayan çıkarım türü olduğunu savunuyorum. ­programlamak veya mühendislik yapmak. Çıkarım sorunu, yapay zeka tartışmasının kalbine gidiyor çünkü doğrudan insanlarda veya makinelerde zeka ile ilgileniyor. Çeşitli çıkarım türleri hakkındaki bilgimiz, Aristoteles ve diğer eski Yunanlılara kadar uzanır ve ­mantık ve matematik alanlarında geliştirilmiştir. Çıkarım, bilgisayar programları gibi biçimsel, sembolik sistemler kullanılarak halihazırda tanımlanmıştır, bu nedenle mühendislik zekası projesinin çok net bir görünümü, çıkarımın keşfedilmesiyle elde edilebilir. Üç tip var. Klasik yapay zeka ­birini (tümdengelim), modern yapay zeka diğerini (tümevarım) araştırır. Üçüncü tür ( kaçırılma) genel zekayı sağlar ve sürpriz, hiç kimse bunun üzerinde çalışmıyor - hiç. 1 Son olarak, her çıkarım türü farklı olduğundan -yani, bir tür diğerine indirgenemez- genel zekayı destekleyen çıkarım türünü kullanarak yapay zeka sistemleri oluşturmadaki başarısızlığın, ­yapay genel zekaya doğru ilerleme kaydedilememesine yol açacağını biliyoruz. veya AGİ.

Üçüncü Bölüm, Efsanenin Geleceği'nde, mitin ciddiye alındığında çok kötü sonuçları olacağını, çünkü bilimi alt üst ettiğini tartışıyorum ­. Özellikle, kendi geleceğimizi anlamak için ihtiyaç duyacağımız atılımlar için gerekli olan insan zekası ve buluş kültürünü aşındırıyor. Veri bilimi (yapay zekanın "büyük veriye" uygulanması) en iyi ihtimalle, doğru kullanılırsa modern "veri tufanı" ile başa çıkmamıza yardımcı olabilecek insan zekası için bir protezdir. Bireysel zekanın yerini alacak şekilde kullanılırsa, sonuç getirmeden yatırımı kemirme eğilimi gösterir . ­Özellikle mitin, son zamanlardaki diğer bilimsel arayışların yanı sıra nörobilim alanındaki araştırmaları nasıl olumsuz etkilediğini açıklıyorum. Efsane için ödediğimiz bedel çok yüksek. Efsanenin doğru olduğuna inanmak için iyi bir bilimsel nedenimiz olmadığı ve kendi geleceğimiz için onu reddetmek için her türlü nedenimiz olduğundan, ­AI hakkındaki tartışmayı kökten yeniden düşünmemiz gerekiyor.

Bölüm I

BASİTLEŞTİRİLMİŞ DÜNYA

İSTİHBARAT HATASI

Yapay zekanın hikayesi, muazzam insan zekasına sahip birinin fikirleriyle başlar: bilgisayar öncüsü Alan Turing.

, akıllı makinelerin olasılığı hakkında "Computing ­Machinery and Intelligence " adlı kışkırtıcı bir makale yayınladı. 1 Bildiri cesurdu, bilgisayarların yeni olduğu ve günümüz standartlarına göre etkileyici olmadığı bir zamanda geliyordu. Yavaş, ağır donanım parçaları, kod kırma gibi bilimsel hesaplamaları hızlandırdı. Uzun bir hazırlıktan sonra, fiziksel denklemler ve başlangıç koşulları ile beslenebilirler ve bir nükleer patlamanın yarıçapını kranklayabilirler. IBM, elektronik tabloları güncellemek gibi işletmeler için hesaplamalar yapan insanların yerini alma potansiyellerini hızla kavradı. Ancak bilgisayarları "düşünme" olarak görmek hayal gücü gerektiriyordu.

Turing'in önerisi, "taklit oyunu" adı verilen popüler bir eğlenceye dayanıyordu. Orijinal oyunda, bir erkek ve bir kadın gözden gizlenmiştir. Üçüncü bir kişi, sorgulayıcı, her seferinde birine sorular aktarır ve cevapları okuyarak, ­benimkinin hangisinin erkek, hangisinin kadın olduğunu belirlemeye çalışır. Bükülme şu ki, kadın ona yardım etmeye çalışırken erkek sorgulayıcıyı aldatmaya çalışmak zorunda - her iki taraftan da şüphelilerden yanıtlar alıyor. Turing, erkek ve kadını bir bilgisayar ve bir insanla değiştirdi. Böylece şimdi Turing testi dediğimiz şey başladı: Bir bilgisayar ve bir insan , bir insan yargıçtan yazılı sorular alır ve eğer yargıç ­hangisinin bilgisayar olduğunu tam olarak belirleyemezse, bilgisayar kazanır. Turing, böyle bir sonuçla, insan olsun ya da olmasın, makineyi akıllı olmayan olarak tanımlamamız için iyi bir nedenimiz olmadığını savundu. Böylece, bir makinenin zekaya sahip olup olmadığı sorusu, onun gerçekten düşünüp düşünemeyeceği sorusunun yerini alır.

Turing testi aslında çok zordur—hiçbir bilgisayar onu geçememiştir. Turing, elbette, 1950'de bu uzun vadeli sonucu bilmiyordu; ancak, "bilinç" ve "düşünme" hakkındaki sinir bozucu felsefi soruları ­gözlemlenebilir bir çıktı testiyle değiştirerek, AI'nın iyi tanımlanmış bir amacı olan meşru bir bilim olduğu görüşünü teşvik etti. Yapay zeka 1950'lerde şekillenirken, öncülerinin ve destekçilerinin çoğu Turing'le aynı fikirdeydi: ­Bir kişiyle sürekli ve ikna edici bir konuşma yapan herhangi bir bilgisayar, çoğumuzun kabul edeceği gibi, düşünmeyi (her ne ise) gerektiren bir şey yapar. .

TURING'İN SEZGİSİ /

marifet farkı

Turing, yapay zeka hakkında yazmaya başlamadan çok önce bir matematikçi olarak itibarını kazanmıştı. 1936'da "bilgisayar"ın kesin anlamı üzerine kısa bir matematik makalesi yayınladı ­. 2 Bu yazıda, insan bilgisayarını aynı işi yapan bir makine fikriyle değiştirdi. Kağıt zor matematiğe girişti. Ancak makineleri ele alırken insan düşüncesine veya zihnine hiçbir atıfta bulunmadı. Turing ­, makinelerin otomatik olarak çalışabileceğini ve çözdükleri sorunların herhangi bir "dış" yardım veya zeka gerektirmediğini söyledi. Bu dış zeka -insan faktörü- matematikçilerin bazen "sezgi" dediği şeydir.

Turing'in 1936'da bilgi işlem makineleri üzerine çalışması, ­bilgisayar biliminin bir disiplin olarak ortaya çıkmasına yardımcı oldu ve matematiksel mantığa önemli bir katkı sağladı. Yine de, Turing görünüşe göre erken ­tanımının önemli bir şeyi gözden kaçırdığını düşündü. Aslında, zihnin veya insan yetilerinin problem çözmeye yardım ettiğine dair aynı fikir, iki yıl sonra doktora tezinde ortaya çıktı; bu, Avusturya doğumlu matematiksel mantıkçı Kurt Godel'in bir sonucunu atlatmak için zekice ama nihayetinde başarısız bir girişimdi (bunun üzerine daha sonra geleceğiz). ). Turing'in tezi, ­ustalık adını verdiği başka bir zihinsel yetenekle karşılaştırdığı sezgi hakkında şu ilginç pasajı içeriyor:

Matematiksel muhakeme, daha çok şematik olarak, sezgi ve yaratıcılık diyebileceğimiz iki yetinin bir kombinasyonunun uygulanması olarak görülebilir. Sezginin faaliyeti ­, bilinçli muhakeme dizilerinin sonucu olmayan kendiliğinden kararlar vermekten ibarettir. Bu yargılar çoğu zaman, ancak hiçbir şekilde her zaman doğru değildir ("doğru" ile neyin kastedildiği sorusunu bir kenara bırakırsak). Sezgisel bir yargının doğruluğunu doğrulamanın başka bir yolunu bulmak genellikle mümkündür. Örneğin, tüm pozitif tam sayıların benzersiz bir şekilde asal sayılara bölünebileceği yargısına varılabilir; ayrıntılı bir matematiksel argüman aynı sonuca götürür. Aynı zamanda sezgisel yargıları da içerecektir, ancak bunlar, çarpanlara ayırma hakkındaki orijinal yargıya göre eleştiriye daha az açık olacaktır. Bu "sezgi" fikrini daha açık bir şekilde açıklamaya çalışmayacağım.

Turing daha sonra ustalığı açıklamaya geçer: " ­Matematikte ustalık uygulaması , önermelerin uygun düzenlemeleri ve belki de geometrik şekiller veya çizimler yoluyla sezgiye yardımcı olmayı içerir ­. Bunlar gerçekten iyi düzenlendiğinde, gerekli olan sezgisel adımların geçerliliğinden ciddi olarak şüphe edilemeyeceği amaçlanmaktadır. 3

Kullandığı dil uzmanlar için tasarlanmış olsa da, Turing bariz bir şeye işaret ediyor: matematikçiler tipik olarak problemleri seçerler veya en azından adımlara bölünemez ­gibi görünen ve bu nedenle bilgisayar programlamaya açık bir şekilde uygun olmayan bir kapasiteyi kullanarak üzerinde çalışmak için ilginç bir problemi “görürler”.

GÖDEL'İN GÖRÜŞÜ

Gödel de mekanik zekayı düşünüyordu. Turing gibi, yaratıcılık (mekanik) ve sezgi (akıl) arasındaki ayrıma takıntılıydı. Onun ayrımı, esasen farklı bir dilde Turing'inkiyle aynıydı: kanıta karşı gerçek (veya matematik dilinde "kanıt-teori"ye karşı "model-teori"). Kanıt ve hakikat kavramları, diye merak etti Gödel, sonunda aynı mı? Eğer öyleyse, matematik ­ve hatta bilimin kendisi tamamen mekanik olarak anlaşılabilir. Bu görüşte insan düşüncesi de mekanik olacaktır. Yapay zeka kavramı, terim icat edilmeyi beklese de, sorunun üzerinde gezindi. Zihnin sezgisi, hakikati ve anlamı kavrama yeteneği bir makineye, hesaplamaya indirgenebilir mi?

Gödel'in sorusuydu bu. Buna cevap verirken, onu yakında dünyaca ünlü yapacak bir engelle karşılaştı. 1931'de Gödel, eksiklik teoremleri olarak bilinen iki matematiksel mantık teoremi yayınladı ­. Onlarda, tüm resmi matematiksel sistemlerin doğasında var olan sınırlamaları gösterdi. Harika bir vuruştu. Gödel, matematiğin -belirli dolaysız varsayımlarla ­tüm matematiğin- kesinlikle mekanik veya "biçimlendirilebilir" olmadığını açıkça gösterdi. Daha spesifik olarak, Gödel, herhangi bir biçimsel (matematiksel veya hesaplamalı) sistemde, büyük-T duruşuyla Doğru olan, ancak herhangi bir kuralı kullanılarak sistemin kendisinde kanıtlanamayan bazı ifadelerin olması gerektiğini kanıtladı . Doğru ifadesi ­bir insan zihni tarafından tanınabilir, ancak içinde formüle edildiği sistem tarafından (kanıtlanabilir şekilde) kanıtlanamaz.

Gödel bu sonuca nasıl ulaştı? Ayrıntılar karmaşık ve tekniktir, ancak Gödel'in temel fikri, toplama yapacak kadar karmaşık bir matematik sistemini, neredeyse İngilizce veya Almanca gibi doğal bir dil gibi bir anlam sistemi olarak ele alabileceğimizdir - ve aynısı tüm daha karmaşık sistemler için de geçerlidir. . Ona bu şekilde davranarak, sistemin kendisi hakkında konuşmasını sağlıyoruz. Örneğin kendisi hakkında bazı sınırlamaları olduğunu söyleyebilir. Gödel'in görüşü buydu.

Matematiktekiler gibi biçimsel sistemler, ­doğrunun ve yanlışın kesin ifadesine izin verir . Tipik olarak, ispat araçlarını kullanarak gerçeği ortaya koyarız - bir şeyi kanıtlamak için kuralları kullanırız, bu yüzden kesinlikle doğru olduğunu biliriz. Ancak kanıtlanamayan doğru ifadeler var mı? Akıl, sistemin bilemeyeceği şeyleri bilebilir mi? Basit aritmetik durumunda , "2 + 2 = 4" gibi denklemler yazarak doğruları ifade ederiz . Sıradan denklemler, aritmetik sistemindeki doğru ifadelerdir ve aritmetik kuralları kullanılarak kanıtlanabilirler. Burada kanıtlanabilir, doğruya eşittir. Gödel'den önceki matematikçiler tüm matematiğin bu özelliğe sahip olduğunu düşünüyorlardı. Bu, makinelerin sadece kuralları doğru bir şekilde uygulayarak farklı matematiksel sistemlerdeki tüm gerçekleri ortaya çıkarabileceği anlamına geliyordu. Bu güzel bir fikir. Bu doğru değil.

Gödel, kendine referans vermenin ender ama güçlü özelliğine rastladı. “Bu ifade bu sistemde ispatlanamaz” gibi kendi kendine atıfta bulunan ifadelerin matematiksel versiyonları, matematiksel sistemlerin kurallarını bozmadan oluşturulabilir. Ancak sözde kendine ­atıfta bulunan "Gödel önermeleri" matematiğe çelişkiler getirir ­: eğer doğruysalar, o zaman kanıtlanamazlar. Eğer yanlışlarsa, kanıtlanamaz olduklarını söyledikleri için aslında doğrudurlar. True, yanlış anlamına gelir ve false, doğru anlamına gelir - bir çelişki.

Sezgi kavramına geri dönersek, biz insanlar Gödel ifadesinin aslında doğru olduğunu görebiliriz, ancak Gödel'in sonucu nedeniyle, sistem kurallarının bunu kanıtlayamayacağını da biliyoruz - sistem aslında kapsanmayan bir şeye karşı kördür. onun kurallarına göre. 4 Gerçek ve kanıtlanabilirlik birbirinden ayrılır. Belki zihin ve makine de öyledir. Tamamen biçimsel sistemin her halükarda sınırları vardır. Doğru olan bir şeyi kendi dilinde ispat edemez. Yani bilgisayarın göremediğini biz görebiliriz. 5

Gödel'in sonucu, tüm matematiğin kural tabanlı işlemlere dönüştürülebileceği ve ­matematiksel gerçeklerin birer birer ortaya çıkarılabileceği şeklindeki o dönemde popüler olan bir fikre büyük bir darbe vurdu. Zeitgeist biçimcilikti - zihinlerden, ruhlardan, ruhlardan ve benzerlerinden bahsetmek değil. Matematikteki biçimci hareket, entelektüellerin bilimsel materyalizme ve özellikle de mantıksal pozitivizme -duyularla gözlemlenemeyen soyut Formları ve geleneksel gelenekleri olan Platonculuk gibi geleneksel metafiziği ortadan kaldırmaya adanmış bir hareket- doğru daha geniş bir dönüşün sinyalini verdi. ­Tanrı'nın varlığı gibi dindeki kavramlar. Dünya, aslında hassas makineler fikrine dönüyordu. Ve hiç kimse formalist davayı Alman matematikçi David Hilbert kadar güçlü bir şekilde ele almadı.

HILBERT'İN MEYDAN OKUMASI

Yirminci yüzyılın başlangıcında (Gödel'den önce), David Hilbert matematik dünyasına bir meydan okuma yayınlamıştı: tüm matematiğin güvenli bir temele dayandığını gösterin. Hilbert'in endişesi ­anlaşılmazdı. Matematiğin tamamen biçimsel kuralları tüm gerçekleri kanıtlayamıyorsa, matematiğin çelişkileri ve saçmalıkları gizlemesi en azından teorik olarak mümkündür. Matematiğin bir yerine gömülü ­bir çelişki her şeyi mahveder, çünkü bir çelişkiden her şey kanıtlanabilir. Formalizm o zaman işe yaramaz hale gelir.

yalnızca kurallarla yönetilen kapalı bir sistem olduğunu kanıtlamak için tüm biçimcilerin hayalini dile getirdi . Gerçek sadece "kanıttır". Bir ispatın "kodunu" izleyerek ve hiçbir kuralın ihlal edilmediğini onaylayarak bilgi ediniriz. İnce bir şekilde gizlenmiş olan daha büyük rüya, ­gerçekten bir dünya görüşüydü, evrenin kendisi bir mekanizma olarak bir resmiydi. AI, bir fikir olarak şekillenmeye başladı, felsefi bir pozisyon ­da kanıtlanabilir. Formalizm, zekayı kurallara dayalı bir süreç olarak ele aldı. Makine.

Hilbert, 1900'de Paris'teki İkinci Uluslararası Matematikçiler Kongresi'nde meydan okumasını yayınladı. Entelektüel dünya ­dinliyordu. Meydan okumasının üç ana bölümü vardı: matematiğin tamamlandığını kanıtlamak; matematiğin tutarlı olduğunu kanıtlamak için ; ve matematiğin karar verilebilir olduğunu kanıtlamak için.

Gödel, 1931'de eksiklik teoremlerinin yayınlanmasıyla Hilbert'in meydan okumasının birinci ve ikinci kısımlarını öldürücü bir darbe indirdi. Karar verilebilirlik sorusu cevapsız kaldı. Sistemin ­kuralları kullanılarak oluşturulmuş herhangi bir ifadenin doğru mu yoksa yanlış mı olduğunu belirlemek için belirli bir prosedür (bir kanıt veya deterministik, açık adımlar dizisi) varsa, bir sistem karar verilebilirdir. 2 + 2 = 4 önermesi Doğru, 2 + 2 = 5 önermesi Yanlış olmalıdır. Ve böylece ­, sistemin sembolleri ve kuralları kullanılarak geçerli bir şekilde yapılabilecek tüm ifadeler için. Aritmetiğin matematiğin temeli olduğu düşünüldüğünden, matematiğin karar verilebilir olduğunu kanıtlamak, aritmetik ve uzantıları için sonucu kanıtlamak anlamına geliyordu. Bu, kurallar ve sembollerle (biçimci fikir) bir "oyun" oynayan matematikçilerin aslında asla ­çelişkiye veya saçmalığa yol açmayan geçerli bir oyun oynadıklarını söylemek anlamına gelir.

Turing, Gödel'in biçimsel sistemlerin gücünü değil, sınırlamalarını gösteren sonucuna hayran kalmıştı. Hilbert'in meydan okumasının geri kalan kısmı üzerinde çalışmaya başladı ve resmi sistemler için bir karar prosedürünün var olup olmayacağı konusunda ciddi ciddi düşünmeye başladı. 1936'da "Computable Numbers" adlı makalesinde bunun olmaması gerektiğini kanıtladı. Turing, Gödel'in kendine ­referans kullanımının karar prosedürleri veya aslında bilgisayar programları hakkındaki sorular için de geçerli olduğunu fark etti. Özellikle, ondalık açılımlarını basamak basamak yazarak, hiçbir belirli yöntemin "hesaplayamayacağı" (gerçek) sayılar olması gerektiğini fark etti . On dokuzuncu yüzyıl matematikçisi Georg Cantor'dan bir sonuç ithal etti ­; o, gerçek sayıların (ondalık açılımlı olanlar), gerçek sayılar ve tam sayıların her ikisi de sonsuz olmasına rağmen tam sayılardan daha fazla olduğunu kanıtladı. Turing belki de devlerin omuzlarında duruyordu. Ama sonunda, "Hesaplanabilir Sayılar"daki çalışması yine olumsuz oldu. Bu sınırlayıcı bir sonuçtu: evrensel bir karar prosedürü mümkün değildi. Başka bir deyişle, kurallar -matematikte bile- yeterli değildir. Hilbert yanılıyordu. 6

AI İÇİN ÇIKARIMLAR

sorunları çözmek için içgörü veya zeka gerektirmeyen deterministik bir makine olan bir makine icat ederek matematiğin karar verilebilir olduğunu çürüttü . ­Bugün, bir makinenin soyut formülasyonuna Turing makinesi diyoruz. Şu an birine yazıyorum. Turing makineleri bilgisayarlardır. Hesaplama için teorik çerçevenin bir yan düşünce, başka bir amaç için bir araç olarak devreye sokulmuş olması, entelektüel tarihin en büyük ironilerinden biridir . Turing, matematiğin kendisinin karar verilebilir olduğunu çürütmeye çalışırken, önce kesin ve ­mekanik bir şey icat etti, bilgisayarı.

Turing, 1938'deki doktora tezinde, "Gödel sorununu" halledebilecek ek kurallar (sonra bir dizi kural ve bir dizi kural) dahil edilerek resmi sistemlerin genişletilebileceğini umuyordu. Bunun yerine, yeni, daha güçlü sistemin yeni, daha karmaşık bir Godel sorununa sahip olacağını keşfetti. Gödel'in eksikliğinin hiçbir yolu yoktu ­. Bununla birlikte, Turing'in biçimsel sistemler tartışmasının karmaşıklığına gömülü olan, yapay zeka olasılığıyla ilgili tuhaf bir öneridir. Belki de sezgi yetisi bir algoritmaya ­, bir sistemin kurallarına indirgenemez?

Turing, Gödel'in 1938 tezindeki sınırlayıcı sonucundan bir çıkış yolu bulmak istedi, ancak bunun imkansız olduğunu keşfetti. Bunun yerine, hesaplamalar yaparken insan sezgisinin gerekliliğini nasıl "büyük ölçüde azaltacağını" kendi deyimiyle keşfederek vites değiştirdi . ­Tezi, her zamankinden daha karmaşık kurallar sistemi yaratarak yaratıcılığın gücünü ele aldı. (Maharetin evrensel hale gelebileceği ortaya çıktı - diğer makineleri girdi olarak alabilen ve böylece yapılabilecek tüm makineleri çalıştırabilen makineler var. Teknik ­olarak basit bir Turing makinesi değil, evrensel bir Turing makinesi olan bu kavrayış, ama Turing bilgisayarla ilgili resmi çalışmasında (belki de istemeden) kediyi çantadan çıkarmıştı. Turing ­, sezginin bilgisayar gibi tamamen biçimsel bir sistemin işlemlerinin dışında ve dışında olmasına izin vererek, matematik yapan bilgisayar programları ile matematikçiler arasında farklılıklar olabileceğini öne sürdü.

Bu nedenle, Turing'in 1930'lardaki ilk çalışmalarından, on yıldan biraz fazla bir süre sonra yayınlanan "Computing Machinery and Intelligence" adlı eserinde akıllı bilgisayarların olasılığı hakkında daha geniş kapsamlı spekülasyonlara yaptığı ilginç bir dönüş oldu. 1950'ye gelindiğinde, Turing'in ­Gödel'in içerimleri hakkındaki yazılarında sezgi tartışması ortadan kalktı. İlgisi, aslında, bilgisayarların kendilerinin "sezgi makineleri" haline gelebileceği olasılığına yöneldi. Temelde, Gödel'in sonucunun yapay zeka sorusu için geçerli olmadığına karar verdi: eğer biz insanlar oldukça gelişmiş bilgisayarlarsak, Gödel'in sonucu yalnızca, tıpkı daha az karmaşık ifadelerde olduğu gibi, anlayamadığımız veya doğru olduğunu göremediğimiz bazı ifadeler olduğu anlamına gelir. bilgisayarlar. İfadeler fevkalade karmaşık ve ilginç olabilir. Veya, muhtemelen, banal ama ezici bir şekilde karmaşık olabilirler. Gödel'in vardığı sonuç, zihinlerin çok karmaşık sınırlamaları olan çok karmaşık makineler olup olmadığı sorusunu cevapsız bıraktı.

Başka bir deyişle sezgi, Turing'in makineler ve onların güçleri hakkındaki fikirlerinin bir parçası haline gelmişti. Gödel'in sonucu (en azından Turing'e göre) zihinlerin makine olup olmadığını söyleyemezdi. Bir yandan, ­tam olarak, bazı ifadelerin sezgi kullanılarak doğru olarak görülebileceğini, ancak marifet kullanan bir bilgisayar tarafından kanıtlanamayacağını söylüyor. Öte yandan, daha güçlü bir bilgisayar daha fazla aksiyom (veya daha fazla ilgili kod parçası) kullanabilir ve sonucu kanıtlayabilir - böylece sezginin bu problem için hesaplamanın ötesinde olmadığını gösterebilir. Bu bir silahlanma yarışına dönüşüyor: Gittikçe daha karmaşık problemlerde sezginin yerini giderek daha güçlü bir ustalık alıyor. ­Hiç kimse yarışı kimin kazandığını söyleyemez, dolayısıyla hiç kimse -eksiklik sonucunu kullanarak- sezgi (zihin) ve hüner (makine) arasındaki içsel farklılıklar hakkında bir iddiada bulunamaz . Ancak Turing'in şüphesiz bildiği gibi, eğer bu doğruysa, o zaman en azından yapay zeka olasılığı da öyleydi.

Böylece, 1938 ile 1950 arasında Turing, yaratıcılık ve sezgi konusunda fikrini değiştirdi. 1938'de sezgi, matematikçilerin hangi sistemlerle çalışacaklarına ve hangi problemleri çözeceklerine karar vermelerine yardımcı olan gizemli "seçim gücü" idi. Sezgi bilgisayarda olan bir şey değildi. Bilgisayarla ilgili kararları veren bir şeydi ­. 1938'de Turing, sezginin herhangi bir sistemin parçası olmadığını düşündü; bu, yalnızca zihinlerin ve makinelerin temelde ­farklı olduğunu değil, aynı zamanda insan düşüncesi olarak yapay zekanın neredeyse imkansız olduğunu öne sürdü.

Yine de 1950'de pozisyonunu tersine çevirdi. Turing testiyle, şüpheciler için bir meydan okuma ve makinelerde bir tür sezgi savunması sunarak fiilen şu soruyu sordu: Neden olmasın? Bu radikal bir geri dönüş oldu. Görünüşe göre yeni bir zeka görüşü şekilleniyordu.

Neden vardiya? 1938 ile 1950 yılları arasında Turing'in başına katı matematik, mantık ve biçimsel sistemler dünyasının dışında bir şey gelmişti. Aslında bu, Büyük Britanya'nın tamamına ve aslında dünyanın büyük bir kısmına olmuştu. Olan, İkinci Dünya Savaşı idi.

BLETCHLEY'DE TURING

Satranç oyunu Turing'i büyüledi - savaş zamanı meslektaşı matematikçi IJ "Jack" Good gibi. İkisi birbirlerine karşı oynar (genellikle iyi kazanır) ve kazanan hamleler için karar prosedürleri ve pratik kurallar üzerinde çalışırdı. Satranç oynamak, oyunun kurallarına uymayı (marifet) içerir ve aynı zamanda, oyun tahtasında verilen farklı konumlarda hangi kuralların seçileceğine dair kavrayış (sezgi) gerektirir. Satrançta kazanmak için kuralları uygulamak yeterli değildir; ilk etapta hangi kuralları seçeceğinizi bilmelisiniz.

Turing, satrancı makineler ve onlara sezgi verme olasılığı hakkında düşünmenin kullanışlı (ve şüphesiz eğlenceli) bir yolu olarak gördü. Atlantik ötesinde, modern bilgi teorisinin kurucusu, Turing'in meslektaşı ve Bell Laboratuarlarından arkadaşı Claude Shannon da satrancı düşünüyordu. Daha sonra, ilk satranç oynayan bilgisayarlardan birini yaptı; bu ­, daha önce kalkülüsteki bazı problemleri mekanik prosedürlere dönüştürebilen "diferansiyel analizör" adlı proto-bilgisayar üzerinde yaptığı çalışmanın bir uzantısıydı . 1

BASİTLEŞTİRİLMESİ

ZEKA BAŞLAR

Satranç, Turing ve meslektaşlarını büyüledi çünkü insan programcının her şeyi önceden bilmesi gerekmeden bir bilgisayar onu oynamak için programlanabiliyordu. Bilgi işlem cihazları, if-then, veya, ve ve gibi mantıksal operatörler uyguladığından, bir program (talimatlar dizisi) çalıştırılabilir ve komutları çalıştırırken karşılaştığı senaryolara bağlı olarak farklı sonuçlar üretebilir. "Gördüğüne" bağlı olarak gidişatı değiştirme yeteneği, Turing ve meslektaşlarına insan düşüncesinin temel bir yönünü simüle ediyor gibi geldi. 2

Satranç oyuncuları -Turing, Good, Shannon ve diğerleri- ayrıca bahisleri çok daha yüksek olan başka bir matematik problemi hakkında düşünüyorlardı. Hükümetleri için çalışıyor, Almanya'nın ­Manş Denizi'ni ve Atlantik'i geçen ticari ve askeri gemilere yönelik saldırıları koordine etmek için kullandığı gizli şifreleri kırmaya yardım ediyorlardı. Turing kendini İkinci Dünya Savaşı'nda Nazi Almanyası'nın yenilmesine yardım etmek için umutsuz bir çabanın içinde buldu ve savaşın gidişatını değiştirmeye yardımcı olan şey hesaplama hakkındaki fikirleriydi.

BLETCHLEY PARK

Bletchley Park, Londra'da ve İngiltere metropolünde düşen bombaların yolunun dışında küçük bir kasabada göze çarpmayacak bir şekilde kurulmuş bir araştırma tesisiydi ve Alman denizaltılarının -denizaltılarının- yerlerini ortaya çıkarmaya yardımcı olmak için kurulmuştu. İngilizce ­Kanal. U-botları, binlerce gemiyi batırarak ve büyük miktarda erzak ve ekipmanı yok ederek Müttefik kuvvetler için büyük bir sorundu . İngiltere, savaş çabalarını sürdürmek için yılda otuz milyon ton ithalata ihtiyaç duyuyordu. Denizaltılar bir noktada bunu ayda 200.000 ton tüketiyordu, bu önemli, potansiyel olarak felaket ve bir süre için büyük ölçüde cevapsız Alman stratejisi. Yanıt olarak İngiliz hükümeti ­, şifreler olarak bilinen denizaltı iletişiminin nasıl kırılacağını araştırmak için bir grup yetenekli kriptanalist, satranç oyuncusu ve matematikçiyi bir araya getirdi. (Şifre, gizlenmiş bir mesajdır. Bir mesajı deşifre etmek, onu tekrar okunabilir metne dönüştürmektir). 3

Kodlar, 1920'lerden beri ticari kullanımda olan, ancak Almanların savaşta kullanılmak üzere önemli ölçüde güçlendirdiği bir tür makine olan Enigma olarak bilinen daktilo görünümlü bir cihaz tarafından üretildi. Modifiye Enigmalar ­, Nazi savaş çabalarındaki tüm stratejik iletişimler için kullanıldı. Örneğin Luftwaffe, tıpkı Kriegs-Marine'in deniz operasyonlarında yaptığı gibi, hava savaşını yürütürken Enigma makinesini kullandı. Değiştirilmiş Enigma ile şifrelenen mesajların çözülemez olduğu düşünülüyordu.

Turing'in Bletchley'deki rolü ve ardından savaştan sonra ulusal kahramana yükselişi birçok kez anlatılan bir hikaye. (2014'te, büyük sinema filmi The Imitation Game , Bletchley'deki çalışmasını ve daha sonra bilgisayar geliştirmedeki rolünü dramatize etti .) Turing'in büyük atılımı, saf matematiksel standartlara göre, tümdengelimsel ­mantıktan gelen eski bir fikri kullandığı için nispeten ilgi çekici değildi. . Kendisinin ve diğerlerinin yarı şaka yollu "Turingismus" olarak adlandırdıkları yöntem ­, çelişkili kombinasyonlar bularak Enigma kodlarına yönelik çok sayıda olası çözümü ortadan kaldırmayı içeriyordu. Çelişkili kombinasyonlar imkansızdır; aynı anda hem "mağazada" hem de "evde" olamayacağımız gibi, herhangi bir mantıksal sistemde hem "A" hem de "A olmayan" olamaz . Turingismus kazanan bir fikirdi ve Bletchley'de büyük bir başarı elde etti. Enigma mesajlarının şifresini çözme görevini hızlandırarak düşünce kuruluşunda tutulan "dahi çocuklar" için gerekeni yaptı. Diğer bilim adamları , Bletchley'deki şifreleri kırmak için farklı stratejiler geliştirdiler. ­4 Fikirler, Bombe adındaki bir makine üzerinde test edildi - alaycı adı ­Polonya'daki bir önceki makine olan Bomba'dan ödünç alındı ve muhtemelen bir hesaplama bittiğinde çıkan küçük sesten ilham aldı. Bombe'yi farklı programları çalıştırabilen bir proto-bilgisayar olarak düşünün.

Savaştaki avantaj, 1943'te veya civarında, Bletchley şifre kırıcılarının sürekli çabası nedeniyle, Mihver Devletleri'nden Müttefik güçlere kaydı. Takım kutlanan bir başarıydı ve üyeleri savaş kahramanları oldu. Kariyer yapıldı. Bu arada Bletchley, hesaplama hakkında düşünmek için bir sığınak olduğunu da kanıtladı: Bombalar makinelerdi ve insanların kendi başlarına çözemeyeceği sorunları çözmek için programlar çalıştırıyorlardı.

SEZGİSEL MAKİNELER? HAYIR.

Turing için Bletchley, akıllı makinelerin olasılığı hakkındaki fikirlerini kristalleştirmede önemli bir rol oynadı. Meslektaşları Jack Good ve Claude Shannon gibi Turing de savaş sırasında kriptanalistler olarak "beyin oyunlarının" gücünü ve faydasını gördü: normalde ordu için tamamen opak olan mesajları deşifre edebiliyorlardı. Yeni hesaplama yöntemleri, yalnızca otomatikleştirilmiş satranç oynamayı düşünmek açısından ilginç değildi . ­Hesaplama, kelimenin tam anlamıyla, savaş gemilerini batırabilir.

Turing (yine) bir soyutlama hakkında düşünüyordu: zihinler ve makineler ya da genel zeka fikri. Ama bunun ne anlama geldiğine ilişkin görüşünde tuhaf bir şeyler vardı. 1940'larda zeka, tamamen ­mekanik şifre kırıcı Bletchley Bombaları gibi resmi sistemlere tipik olarak atfedilmeyen bir özellikti. Gödel, genel olarak, belirli kurallar dizisiyle resmi bir oyun oynarken olduğu gibi, hakikatin formaliteye indirgenemeyeceğini göstermişti; (Gödel'in 1931'de çok kesin olarak göstermiş olduğu) her şeyi kanıtlayabilecek üstün bir sistem olmasa bile uyulması gereken kurallar hakkında seçimler yapmak.

Bletchley'den sonra Turing, sezgi ve ­zekayı kullanan güçlü makinelerin yapılıp yapılamayacağı sorusuna yöneldi. Alman kodlarını deşifre etmek için kontrol edilecek çok sayıda olası kombinasyon, insan sezgisini bastırdı. Ancak doğru programlara sahip sistemler, bu kadar geniş matematiksel olasılıkları basitleştirerek görevi başarabilir. Turing'e göre bu, sezginin makinelerde somutlaştırılabileceğini öne sürdü. Başka bir deyişle, Bletchley'deki başarı, belki de bir yapay zekanın inşa edilebileceğini ima ediyordu.

Bununla birlikte, onun düşünce çizgisini anlamlandırmak için, "zeka" ile ilgili belirli bir fikrin karara bağlanması gerekiyordu. İnsanlar tarafından sergilenen zekanın, bir makinenin güçleri açısından indirgenebilir -analiz edilebilir- olması gerekiyordu. Özünde, zekanın problem ­çözmeye indirgenebilir olması gerekiyordu. Ne de olsa satranç oynamak budur ve şifre kırmak da budur.

Ve işte buradayız: Turing'in büyük dehası ve en büyük hatası, insan zekasının problem çözmeye indirgendiğini düşünmesiydi. 1950 tarihli " ­Computing Machinery and Intelligence" adlı eserinde akıllı makinelerle ilgili fikirler savaş yıllarında belirginleşse de ortaya çıkmasa da, Bletchley'deki deneyiminin yapay zekaya ilişkin daha sonraki görüşünü netleştirdiği ve yapay zekanın da onu takip ettiği açıktır. yakından ve ­gerekli kendi kendini analiz etmeden tam olarak onun yolunda.

Ancak Bletchley'nin kod çözme başarısına daha yakından bakıldığında, ­insan ve makine hakkındaki felsefi fikirlerde tehlikeli bir basitleştirme olduğu hemen ortaya çıkar . Bletchley akıllı bir sistemdi - ­askeri çabaların koordinasyonu (casusluk ve casusluk ve düşman gemilerinin ele geçirilmesi dahil), ordu ile Bletchley'deki çeşitli bilim adamları ve mühendisler arasındaki sosyal istihbarat ve (tüm yaşamda olduğu gibi) bazen tamamen şanssızlık. Gerçekte, pratik bir gerçeklik olarak, Alman modifiyeli Enigma tamamen mekanik yollarla kırılmazdı. Almanlar bunu mekanik deşifre etmenin zorluğuyla ilgili matematiksel argümanlara dayanarak biliyorlardı. Bletchley'in başarısının bir kısmı, ironik bir şekilde, Nazi komutanlarının Enigma şifrelerinin zaptedilemezliğine olan inatçı güveniydi - bu nedenle, bilimsel yenilgiden ziyade gizli casusluk operasyonlarını suçlayarak, belirli şifrelerin kırıldığını keşfettikten sonra kritik zamanlarda makineleri değiştirmek veya güçlendirmek konusunda başarısız oluyorlar. . Ancak savaş sisi yalnızca yeni teknolojileri değil, aynı zamanda yeni insani ve sosyal zeka biçimlerini de birbirine karıştırıyor. Savaş satranç değildir.

Örneğin, savaşın başlarında, Polonya kuvvetleri daha ­sonra Bletchley'in çabalarına paha biçilmez ipuçları sağlayan önemli Enigma iletişim parçalarını ele geçirdiler. Polonyalılar bu parçaları kullanmıştı

(Rus kaynaklarından diğerleriyle birlikte) ­1938 gibi erken bir tarihte kendi daha basit Bombalarını geliştirmek için. savaş alanındaki olaylar. Turing de meslektaşı Gordon Welchman'ın Enigma'da çelişkileri aramayı daha da basitleştirmek için bir "çapraz tahta" ekleyen geliştirmelerine yanıt olarak kendi tasarımının geliştiğini görecekti . ­5 Burada sezgilerini kullanan ve sosyal olarak birlikte çalışan iki insan zihni vardı.

Savaş alanında daha fazla olayın hayati önem taşıdığı ortaya çıktı. Norveç kıyılarında, 8 Haziran 1940'ta bir İngiliz uçak gemisi batırıldı. Saldırı, denizin dibinde kalan birçok denizcinin ağır maliyetine rağmen, Alman U-botlarının yerini sağladı. Sadece haftalar önce ­, Nisan 1940'ın sonlarında, filonun özellikle yıkıcı bir üyesi olan Alman devriye botu V P2623 , içinde bir Enigma kanıtı hazinesiyle yakalandı. Enigma yapbozunun gerekli parçaları ­Müttefiklerin eline geçiyor ve Bletchley grubuna giden yolu buluyordu.

Bu küçük parçalar kendi başlarına, gelecekteki Alman iletişimlerinin hızlı bir şekilde deşifre edilmesi için fena halde yetersizdi ­; Ancak Bombaların nasıl programlanacağını bulmada çok önemli bir ilk adımı kolaylaştırdılar . Turing ve meslektaşları, Amerikalı bilim adamı ve mantıkçı CS Peirce'in (bu kitabın İkinci Kısmında öne çıkan bir isimdir ) kullandığı bir terimi ödünç alarak buna "kanıtın ağırlığı" adını verdiler. ­6

Kanıtın ağırlığı, matematikçiler tarafından ­farklı şekillerde anlaşılabilir, ancak Bletchley'in başarısı (ve yapay zeka ile ilgili daha büyük sorunlar için), ustalığa veya makinelere yön vermek için bilinçli tahminlerin veya sezginin uygulanması anlamına gelir. Tıpkı bir beyaz top torbasının yanında bulunan beyaz bir topun herhangi bir anlama gelebilmesi gibi, ele geçirilmiş bir U-botundan kurtarılan deşifre edilmiş bir metin parçası herhangi bir anlama gelebilir, ancak her durumda, ne olduğunu anlamak için akıllı tahminler yapabiliriz ­. Dışarı çıkarıldığını görmesek de topun büyük ihtimalle çantadan olduğunu düşünüyoruz. Yine de bu bir tahmin. Bu tür tahminlerin doğru olduğu kanıtlanamaz, ancak insan sezgisi, ­mekanik prosedürler tasarlamak için başlangıç koşullarını belirlemede ne kadar iyi olursa, bu prosedürlerin , diyelim ki amaçsızca yanlış veya yanlış ya da yanlış yönde ilerlemektense, istenen sonuçlara varma şansı o kadar artar. yanıltıcı yönlendirmeler Kanıtın ağırlığı - tahmin etme - Bombaların işe yaramasını sağladı.

Bletchley bilim adamları, yalnızca Bombes'a bilgi beslemekle kalmıyor, onları ­milyonlarca yanlış kodu veya şifreyi ortadan kaldırmak gibi yorulmak bilmez ve önemli bir işi yapmaya bırakmıyordu. Elbette Bombalar gerekliydi - Turing'in çok net gördüğü şey buydu ve " ­mekanik prosedürlerinin" insan zekasını yeniden üretebileceği veya onun yerini alabileceği ihtimaliyle hayal gücünü hiç şüphesiz dolduran şey buydu . Ama gerçek şu ki, Bletchley grubu her şeyden önce varsayımlarla uğraşıyordu. Savaş alanından gelen talimat kırıntılarının, şifrelerin ve mesajların yamalı çalışmasında gizlenmiş ipuçlarını tanıyarak hipotezler oluşturuyorlardı . ­Gues sing, bilimde hipotez oluşturma olarak bilinir (bu terim Charles Sanders Peirce'ın da kullandığı bir terimdir) ve insan bilgisinin ilerlemesi için kesinlikle temeldir. O halde, Bletchley çabasının bir iyi tahmin etme sistemi anlamına gelmesine şaşmamak gerek. Olmazsa olmazı mekanik değil, ilk akıllı gözlem diyebileceğimiz şeydi. Bombaların bir şeye doğrultulması ve sonra yollarına koyulması gerekiyordu.

Peirce, İkinci Bölüm'de inceleyeceğimiz bir temaya uygun olarak, on dokuzuncu yüzyılın ­sonlarında , zekanın karmaşık fikirlerini ve yargılarını şekillendiren her gözlemin bir tahminle ya da kendi deyimiyle bir kaçırmayla başladığını fark etmişti:

Bu güzel bahar sabahı penceremden dışarı baktığımda açmış bir açelya görüyorum. Hayır hayır! Bunu görmüyorum; gerçi gördüklerimi ancak böyle tarif edebilirim. Bu bir önerme, bir ­cümle, bir olgudur; ama benim algıladığım önerme, cümle, olgu değil, yalnızca bir olgu bildirimi aracılığıyla kısmen anlaşılır kıldığım bir imgedir. Bu ifade soyuttur; ama benim gördüğüm somut. Gördüğüm her şeyi bir cümleyle ifade ettiğimde [çok şey yaptığımda] bir kaçırma gerçekleştiriyorum. Gerçek şu ki, bilgimizin tüm dokusu, tümevarımla doğrulanan ve rafine edilen saf hipotezin keçeleşmiş bir hissidir ­. Her adımda bir kaçırma yapmadan, boş bakışma aşamasının ötesinde bilgide en ufak bir ilerleme kaydedilemez. 7

Turing ve Bletchley'deki meslektaşları, aslında her adımda zeki adam kaçırmalar yaparak komuta ve kontrolden istihbarata dönüşen bir savaşı kazanıyorlardı. Turing bunu bir dereceye kadar anlamıştı (sıra sayıları üzerine 1938'deki tezinde sezgi tartışmasını hatırlayın), ancak bunun ­zekanın doğası ve akıllı makinelerin olasılığı hakkındaki sonraki fikirleri üzerinde kayda değer bir etkisi olmamış gibi görünüyor. . Ne kadar parlak ­olursa olsun, gerçek zekanın basitleştirilmesini düşünmekten yanaydı. Daha önce onu bu kadar şaşırtan sezgi kavramından kurtuluyordu. Tahmin etmek.

SOSYAL ZEKA ÜZERİNE

(ÖNEMLİ BİR ŞEKİLDE)

Sosyal zeka, Turing'in bulmaca ­çözen zeka görüşünün de bariz bir şekilde dışında bırakılmıştır. Bu, AI'nın gelecekteki gelişimini anlamak için son derece önemlidir. Örneğin Turing, düşünmeyi veya zekayı sosyal veya durumsal bir şey olarak görmekten hoşlanmazdı. 8 Yine de Bletchley'nin başarısı, aslında ­, manastır duvarlarının çok dışına uzanan geniş bir sistemin parçasıydı. Büyük bir çaba sürüyordu. Yakında Amerika Birleşik Devletleri'ni ve Bell Laboratuarlarındaki Shannon gibi bilim adamlarının yanı sıra, Einstein, Godel ve John Von Neumann'ın hepsinin randevu aldığı Princeton'ın ünlü İleri Araştırmalar Enstitüsü'ndeki bilim adamlarının çalışmalarını çekecekti. Genişletilmiş, insan-makine sistemi, gerçek dünya sorunlarının nasıl çözüldüğüne dair bir model olarak aslında çok daha gerçekçi - ki bu, dünya savaşı kesinlikle en karmaşık ve önemli olanlar arasında sayılmalıdır.

Yapay zekanın sosyal veya durumsal zeka konusundaki sağırlığı daha önce, Turing'in (ve daha geniş anlamda yapay zeka alanının) zeka görüşüne yönelik eleştirisini güzel bir şekilde özetleyen makine öğrenimi bilimcisi Francois Chollet tarafından daha önce not edilmişti. Birincisi, zeka durumsaldır -genel zeka diye bir şey yoktur. Beyniniz, vücudunuzu, çevrenizi ­, diğer insanları ve bir bütün olarak kültürü içeren daha geniş bir sistemin tek parçasıdır. İkincisi, bağlamsaldır - boşlukta var olmaktan çok uzaktır, herhangi bir bireysel zeka her zaman çevresi tarafından hem tanımlanacak hem de sınırlandırılacaktır. (Ve şu anda zekanın önündeki engel beyin değil, çevredir ­.) Üçüncüsü, insan zekası büyük ölçüde dışsallaştırılmıştır , beyninizde değil, uygarlığınızda bulunur. Bireyleri, beyinleri kendilerinden çok daha büyük bir bilişsel sistemdeki modüller olan araçlar olarak düşünün - kendi kendini geliştiren ve uzun süredir devam eden bir sistem. 9

Turing'in dilinde sezgi programlanarak bir makineye dönüştürülebilir ­ancak Chollet ve benzeri eleştirmenler onun insan zekası düzeyine ulaşamayacağını iddia ederler. Aslında, sezgiyi programlama fikri ­, kendi zekamızla ilgili temel bir gerçeği göz ardı ediyor. İnsanlar sosyal zekaya sahiptir. Duygusal zekamız var. Aklımızı, ne kadar karmaşık olursa olsun (ya da daha doğrusu, özellikle sorunlar karmaşık olduğunda) sorunları ve bulmacaları çözmek dışında kullanırız .

Kanıtların gösterdiğine göre Turing, bu insan görüşünü kararlı bir şekilde reddetti, bunun yerine tüm insan düşüncesinin aslında "kodların" "kırılması" -bulmacaların çözülmesi- ve bir oyun oynamak olarak anlaşılabileceğine inanmaya başladı. satranç gibi oyun. Önemli olan nokta şudur: 1940'larda bir ara, Bletchley'deki çalışmasından sonra, ama kesinlikle 1950'de AI'yı önceden şekillendiren makalesi sırasında, Turing düşüncelerini basitleştirilmiş bir zeka görüşüne yerleştirmişti. Bu korkunç bir hataydı ve dahası, yapay zeka bilim adamlarının nesillerinden günümüze kadar aktarılan bir hataydı .­

TURING'İN ZEKÂ HATASI

VE DAR AI

Zekanın problem çözücü görüşü ­, tarihi boyunca yapay zekanın değişmez biçimde dar uygulamalarının üretimini açıklamaya yardımcı olur. Örneğin, oyun oynamak, gelişmiş AI tekniklerinin geliştirilmesi için sürekli bir ilham kaynağı olmuştur, ancak oyunlar, ­zekanın basitleştirilmiş görüşlerini ödüllendiren, yaşamın basitleştirilmesidir. Bir satranç programı satranç oynuyor, ancak araba kullanmak oldukça kötü. IBM'in Watson sistemi Jeopardy! oynuyor, ancak satranç veya Go oynamıyor ve son zamanlarda (ve büyük ölçüde başarısız olan) sağlık baskınlarında olduğu gibi, Watson platformunu diğer veri madenciliği ve doğal dil işleme işlevlerini gerçekleştirmek üzere kullanmak için büyük programlama veya "taşıma" çabaları gerekiyor bakım.

Zekayı problem çözme olarak ele almak bu nedenle bize dar uygulamalar sunar ­. Turing şüphesiz bunu biliyordu ve 1950'deki makalesinde makinelerin öğrenmesi için yapılabileceğini, böylece bir sorunu çözmek için bir bilgisayar sistemi tasarlamanın doğal bir sonucu olan kısıtlamaların üstesinden gelinebileceğini tahmin etti. ­Makineler genel olmayı öğrenebilseydi, özel uygulamalardan genel düşünen varlıklara yumuşak bir geçişe tanık olurduk. Yapay zekamız olurdu.

Bununla birlikte, şimdi bildiklerimiz, Turing tarafından daha önce önerilen öğrenme yaklaşımına şiddetle karşı çıkıyor. Hedeflerine ulaşmak için, artık makine öğrenimi sistemleri olarak adlandırılan sistemlerin her birinin ­belirli bir şeyi öğrenmesi gerekir. Araştırmacılar buna makineye bir "önyargı" vermek diyorlar. (Bu, daha geniş sosyal dünyada taşıdığı olumsuz çağrışımı taşımaz; bu, makinenin inatçı olduğu veya onunla tartışmanın zor olduğu veya kelimenin olağan anlamıyla bir gündemi olduğu anlamına gelmez.) Makinede bir önyargı öğrenme , sistemin bir şeyler öğrenmek için tasarlandığı ve ayarlandığı anlamına gelir. Ancak bu, elbette, sadece dar problem çözme uygulamaları üretmenin sorunudur. (Örneğin, Facebook tarafından insan yüzlerini tanımak için kullanılan derin öğrenme sistemlerinin vergilerinizi hesaplamayı da öğrenmemesinin nedeni budur.)

Daha da kötüsü, araştırmacılar, bir makine öğrenimi sistemine belirli bir uygulamayı veya görevi öğrenme eğilimi vermenin, diğer görevlerde daha başarısız olacağı anlamına geldiğini fark ettiler. Bir makinenin bir şeyi öğrenmedeki başarısı ile başka bir şeyi öğrenmedeki başarısı arasında ters bir ilişki vardır. Görünüşte benzer görevler bile performans açısından ters orantılıdır. Şampiyonluk düzeyinde Go oynamayı öğrenen bir bilgisayar sistemi, şampiyonluk düzeyinde satranç oynamayı da öğrenemez . ­Go sistemi, Go kurallarını öğrenmeye yönelik özel bir eğilimle özel olarak tasarlanmıştır. Öğrenme eğrisi, dedikleri gibi, o oyunun bilinen puanlamasını takip eder. Başka bir oyunla ilgili öğrenme eğrisi , diyelim ki Jeopardy! ya da satranç işe yaramaz - aslında yoktur.

Makine öğrenimi yanlılığı, tipik olarak teknik bir sorun olan bir öğrenme hatası kaynağı olarak anlaşılır. (Ayrıca, sıradan dil kullanımına bağlı kalarak, örneğin ırk veya cinsiyete göre kasıtsız ve kabul edilemez bir şekilde ağırlıklandırılmış sonuçlar üretme ikincil anlamını da üstlenmiştir ­.) Makine öğrenimi yanlılığı, sistemin "görünmediği" için hataya yol açabilir. ” ilk etapta belirli çözümler için. Ancak makine öğreniminde önyargı aslında gereklidir; bu, öğrenmenin kendisinin bir parçasıdır.

"Bedava öğle yemeği yok" teoremi olarak adlandırılan iyi bilinen bir teorem, öğrenme sistemlerini tasarlarken ve inşa ederken anekdot olarak şahit olduğumuz şeyi tam olarak kanıtlar. Teorem, keyfi ­problemlere uygulandığında herhangi bir önyargısız öğrenme sisteminin şanstan daha iyi performans göstermeyeceğini belirtir. Bu, sistem tasarımcılarının sisteme kasıtlı olarak bir önyargı vermesi gerektiğini söylemenin süslü bir yolu, böylece amaçlanan şeyi öğreniyor. Teoremin belirttiği gibi, gerçekten önyargısız bir sistem işe yaramaz. Öğrenilecek verilerin özelliklerini ortaya çıkaran denetimsiz yöntemler kullanılarak veriler üzerinde "ön eğitim" gibi karmaşık teknikler vardır . Tüm bunlar, başarılı makine öğreniminin ayrılmaz bir parçasıdır. Bununla birlikte, tartışmanın dışında kalan şey, bir sistemi ona istenen bir önyargıyı vererek neyin eğiliminde olduğunu öğrenmesi için ayarlamanın, ­genellikle, diğer alanlara genellenmeyecek anlamında, onu daraltmak anlamına gelmesidir. Başarılı bir makine öğrenimi sistemi oluşturmanın ve dağıtmanın ne anlama geldiğinin bir kısmı, sistemin önyargısız ve genel olmaması, ancak belirli bir öğrenme sorununa odaklanmasıdır. Bu şekilde ­bakıldığında, bu tür yaklaşımlarda darlık bir dereceye kadar fırınlanır. Başarı ve dar görüşlülük aynı madalyonun iki yüzüdür.

Tek başına bu gerçek, bugünün yapay zekasından yarının insan düzeyindeki yapay zekasına sorunsuz bir ilerleme beklentisi konusunda ciddi şüphe uyandırıyor. Derin öğrenme gibi modern makine öğrenimi yöntemlerinin uzantılarının bir şekilde insanlar gibi zeki olmayı "eğiteceğini" veya öğreneceğini varsayan insanlar, zaten bilinen temel sınırlamaları anlamıyorlar. Öğrenme sistemlerine bir önyargı sağlamanın gerekliliğini kabul etmek , Turing'in, makine öğrenimi önyargısı öğrenmeden önce insan tasarımcılar tarafından belirlendiğinden, matematikle ilgili içgörülerin insan zihni tarafından resmi yöntemler dışından sağlanması gerektiğini gözlemlemesi ile eşdeğerdir. 10

TURING'İN MİRASI

Argümanı özetlemek gerekirse, zekanın problem çözme görüşü zorunlu olarak dar uygulamalar üretir ve bu nedenle yapay zekanın daha geniş hedefleri için yetersizdir. Bu istihbarat görüşünü Alan Turing'den miras aldık. (Örneğin , belki de "insan-görev-simülasyonu"ndan bahsetmek yerine neden yapay zeka terimini kullanıyoruz ?) ­11 Turing'in büyük dehası, teorik engelleri ve mühendislik ve mühendislik olasılığına yönelik itirazları ortadan kaldırmaktı. otonom bir makineydi ­, ancak bunu yaparken zekanın kapsamını ve tanımını daralttı. O halde yapay zekanın dar problem çözme uygulamaları üretmeye başlamasına şaşmamalı ve bunu bugüne kadar da yapıyor .

Turing yine düşünmeyi veya zekayı ­sosyal veya durumsal bir şey olarak görmekten hoşlanmıyordu. Yine de, insan zekasını bireysel bir mekanik süreç olarak görme eğilimine rağmen - 1940'larda ilk bilgisayarlar ­ortaya çıktıkça "mekanik beyin"e söylenmemiş referansları başlatarak - zekadan bahsetmenin her zaman, zorunlu olarak içermesi gerektiği gibi, şunları içerdiği açıktır: daha geniş bir bağlama oturtmak. Hepimizin günlük olarak sergilediği türden genel (dar olmayan) zeka, kafamızın içinde işleyen bir algoritma değil , dünyada içinde düşündüğümüz ve hareket ettiğimiz tüm kültürel, tarihsel ve toplumsal bağlamı gerektirir. ­Geliştiriciler bu kadar geniş ve karmaşık bir zeka anlayışını benimsemiş olsalardı, yapay zeka pek ilerleyemezdi - bu yeterince doğru. Aynı zamanda, Turing'in basitleştirmesinin bir sonucu olarak, ­dar uygulamalarla sonuçlandık ve AI ile ne demek istediğimize dair radikal bir yeniden kavramsallaştırma olmadan genel uygulamalar beklemek için hiçbir nedenimiz yok.

Turing, 1950 tarihli makalesinde makinelerin öğrenmek için yapılabileceğini öne sürerek bu zorlukların bazılarını öngördü. Bununla birlikte, şimdi bildiğimiz şey (makine öğrenimiyle ilgili yakın zamandaki heyecanın aksine), öğrenmenin kendisinin bir tür problem çözme olduğu ve yalnızca öğrenciye belirli bir uygulamanın öğrenilmesini aynı anda mümkün kılan bir önyargının getirilmesiyle mümkün kılınıyor. diğer uygulamalarda performans. Öğrenme sistemleri de aslında sadece dar problem ­çözme sistemleridir. Bu tür dar sistemlerden insanlar tarafından sergilenen türden genel zekaya bilinen bir teorik köprü olmadığı göz önüne alındığında , AI bir tuzağa düşmüştür. Zekayı anlamadaki ilk hatalar ­, derece derece ve kaçınılmaz olarak yapay zekanın kalbinde teorik bir çıkmaza yol açtı.

Turing'in sezgi ve yaratıcılık arasındaki orijinal ayrımını tekrar düşünün. Onun için yapay zeka sorusu, bir sistemin tasarımcısı tarafından sağlanan sezginin aslında sistemin resmi kısmına (marifet makinesine) "çekilip" çekilemeyeceği ve böylece lanetten kaçabilecek bir sistem oluşturup oluşturamayacağıydı. kendi problemlerini seçmek için sezgiyi kullanarak - daha akıllı büyümek ve öğrenmek için. Şimdiye kadar kimse bunu herhangi bir bilgisayarla yapmadı. Bunun nasıl olacağı konusunda kimsenin en ufak bir fikri bile yok. Tasarımcıların, bu tür sistemlere hangi özel sorunları çözeceklerini (veya çözmeyi öğreneceklerini) söylemek için yapay zeka sistemleri dışında sezgilerini kullandıklarını biliyoruz . Sezgiyi otonom olarak kullanan sistemler sorunu, İkinci Kısım'da döneceğimiz Çıkarım Problemi adını vereceğim sorunun özüne doğru gider.

İkinci Bölüm'de yapay zekanın "darlık tuzağı" hakkında söylenecek daha çok şey olacak. İlk olarak, ancak, bu kısımda ele alınacak daha fazla zemin var. Bir başka zeka hatası olan ve birincisinin doğal bir uzantısı olan süper zekanın yanına döneceğiz.

SÜPER ZEKA HATASI

Turing'in kod çözücü arkadaşı Jack Good da akıllı makineler fikrinden büyülendi. Turing, şüphesiz Bletchley'deki ve sonrasında meslektaşının hayal gücünü harekete geçirdi ve Good, Turing'in bilgisayarlarda insan düzeyinde zeka olasılığı hakkındaki fikirlerine bilimkurgu benzeri bir bükülme ekledi . ­Good'un fikri basitti: Bir makine insan düzeyinde zekaya ulaşabiliyorsa, aynı zamanda salt insan düşüncesini de aşabilir.

Good, bir tür geri bildirim döngüsünün akıllı makinelerin kendilerini incelemesine ve geliştirmesine olanak tanıyacağını, daha da akıllı makineler yaratacağını ve bunun da kontrolden çıkmış bir "zeka patlaması" ile sonuçlanacağını düşündü. Bunu zeka patlaması izler, çünkü her makine kendisinin daha da akıllı olan bir kopyasını yapar - sonuç, makinelerde insan dahilerini bile hızla geride bırakan üstel bir zeka eğrisidir. Good buna ultra zeka adını verdi : "Ultra zeki bir makine, ne kadar zeki olursa olsun herhangi bir insanın tüm entelektüel aktivitelerini çok geride bırakabilen bir makine olarak tanımlansın. Makinelerin tasarımı bu entelektüel faaliyetlerden biri olduğundan, ultra zeki bir makine daha da iyi makineler tasarlayabilir; o zaman şüphesiz bir " ­zeka patlaması" olur ve insan zekası çok geride kalırdı. Bu nedenle, makinenin bize onu nasıl kontrol altında tutacağımızı söyleyecek kadar uysal olması koşuluyla, ilk ultra-akıllı makine, insanın yapması gereken son icattır." 1

Oxford filozofu Nick Bostrom, onlarca yıl sonra, 2014'ün en çok satan kitabı Superintelligence: Paths, Dangers, Strategies ile Good'un temasına geri dönecek ve AI'nın başarısının sonuç olarak insandan daha üstün bir zekayı tırmanan bir süreçte getireceğini öne sürecekti. kendini değiştirme. Bostrom, uğursuz bir dille, Good'un süper zeki makinelerin gelişiyle ilgili fütürizmini tekrarlıyor:

Bir istihbarat patlaması olasılığından önce, biz insanlar bombayla oynayan küçük çocuklar gibiyiz. Oyuncağımızın gücü ile davranışlarımızın olgunlaşmamışlığı arasındaki uyumsuzluk işte böyledir. Süper zeka, şu anda hazır olmadığımız ve uzun bir süre daha hazır olmayacağımız bir meydan okumadır. Patlamanın ne zaman olacağı konusunda çok az fikrimiz var, ancak cihazı ­kulağımıza tutarsak hafif bir tıkırtı duyabiliyoruz. Elinde patlamamış bir bomba olan bir çocuk için yapılacak mantıklı şey, bombayı yavaşça yere bırakmak, hızla odadan çıkmak ve en yakın yetişkinle temasa geçmek olacaktır. Yine de burada bir değil, her biri bağımsız bir tetikleme mekanizmasına erişime sahip birçok çocuk var ­. Hepimizin tehlikeli şeyleri bir kenara bırakmanın mantığını bulma şansı neredeyse yok denecek kadar az görünüyor. Küçük bir aptal ne olduğunu görmek için ateşleme düğmesine basmak zorunda . 2

Bostrom'a göre, süper zeka hiç de spekülatif veya belirsiz değil, daha çok nükleer silahların gelişi gibi - bir oldu bitti ve insanlık için derin ve belki de korkunç sonuçları olan bir oldu. Buradaki mesaj açık: Süper zekanın gelip gelmediğini tartışmayın. Buna hazır ol.

Bu konuda ne diyeceğiz? Good-Bostrom argümanı -süper zeki bir makine olasılığı- ilk bakışta makul görünüyor. Ancak, şaşırtıcı olmayan bir şekilde, "süper" zekanın bir temel zekadan kaynaklandığı mekanizma hiçbir zaman belirtilmemiştir. Good ve Bostrom, süperzekâ olasılığını açık bir şekilde makul görüyor ­ve bu nedenle daha fazla açıklama gerektirmiyor gibi görünüyor. Ama öyle; "nasıl" olduğunu anlamamız gerekiyor.

Üstün donanım gibi basit bir iyileştirme olduğunu varsayarsak, teklif daha fazla eğlendirilemeyecek kadar önemsiz ve aptalcadır. Ray Kurzweil gibi amansız ilerlemeye sadık bir inanan bile zekayı o kadar azaltmayacaktır; bir MacBook'a RAM eklemenin onu (gerçekten ve gerçek anlamda) daha akıllı hale getireceğini düşünmüyoruz. Cihaz artık daha hızlıdır ve daha büyük uygulamaları vb. yükleyebilir. Ancak istihbarat ilginç bir şey ifade ediyorsa, uygulamaları daha hızlı yüklemekten daha karmaşık olmalıdır ­. Zekanın bu daha zor kısmı söylenmeden bırakılmıştır.

Ya da biyolojik dünyadan dil ödünç aldığımızı varsayalım (yapay zekanın sıklıkla yaptığı gibi) ve sonra kendinden emin bir şekilde hesaplama yeteneğinin ­gelişmediğini, geliştiğini beyan ederiz. Daha derine baktığımızda, bu argümanın bir kez daha yetersiz ve naif bir zeka görüşü tarafından rahatsız edildiğini görüyoruz. Sorun -apaçık bir ihmal- şu ki, biyolojik dünyada zeki herhangi bir şeyin kendisinin daha zeki bir versiyonunu tasarladığına dair hiçbir kanıtımız yok. İnsanlar zekidir, ancak insanlık tarihi boyunca kendimizin daha zeki versiyonlarını asla inşa etmedik.

Daha akıllı bir beyin inşa etmenin bir ön koşulu, senaryolar hayal edebilmemiz, düşünceler ve bunların bağlantılarını eğlendirebilmemiz, çözümler bulabilmemiz ve yeni problemler keşfedebilmemiz anlamında, öncelikle sahip olduklarımızın nasıl bilişsel olduğunu anlamaktır. Başımıza bir şeyler gelir; gözlemlerimizle ve zaten bildiklerimizle akıl yürütürüz; cevaplar kafamıza çarpıyor. Tüm bu biyolojik büyü vızıltısı, opak olmaya devam ediyor ve " ­işlenmesi" hâlâ büyük ölçüde keşfedilmemiş durumda. Yine de, binlerce yıldır düşünme süreçlerimizi ve beyin fonksiyonlarımızı düşünüyor ve araştırıyoruz.

, bizim açıkça sahip olmadığımız halde neden birdenbire kendi küresel bilişsel kapasitelerine ilişkin içgörüye sahip olsun? Olsa bile , makine bu bilgiyi ­kendini daha akıllı hale getirmek için nasıl kullanabilirdi?

Bu kendini geliştirme meselesi değil. Örneğin, kitap okuyarak veya okula giderek kendimizi daha zeki hale getirebiliriz; kendimizi eğitmek daha fazla entelektüel gelişmeyi mümkün kılar vb. Bütün bunlar tartışmasız. Ve mesele bunların hiçbiri değil. Yapay zeka çevrelerinde zeka artışıyla ilgili varsayımlarla ilgili en büyük sorunlardan biri döngüsellik sorunudur: genel zekayı artırmak için (görünüşte genel) zeka gerekir. Daha yakından bakıldığında, doğrusal bir ilerleme değil, yalnızca gizem ortaya çıkar.

VON NEUMANN VE

KENDİNİ ÜRETEN MAKİNELER

, 1960'ların ortalarında ultra zekaya yol açan kendi kendini geliştiren yapay zekalar fikrini ortaya attı , ancak yaklaşık yirmi yıl önce John Von Neumann ­bu fikri değerlendirmiş ve reddetmişti. Princeton'daki İleri Araştırmalar Enstitüsü'nde 1948'de yaptığı bir konuşmada Von Neumann, insan üretimi genellikle önceki "tasarımlara" göre gelişirken, yeni ve daha iyi makineler tasarlamakla görevli makinelerin temel bir engelle karşı karşıya olduğunun açık olduğunu açıkladı; ana makinede yeni bir makine belirtilmelidir. O zaman ana makine zorunlu olarak kendi yaratılışından daha karmaşık olacaktır, daha az değil: "Bir ­şeyi sentezleyen bir organizasyon, sentezlediği organizasyondan zorunlu olarak daha karmaşık, daha yüksek bir düzendir" dedi. 3

Başka bir deyişle, Von Neumann, ­bildiğimiz şekliyle organik yaşam ile ürettiğimiz makineler arasındaki temel bir farklılığa işaret etti. Jack Good'un ultrazeka öngörüsü biraz bilim kurguydu.

Von Neumann, kendini yeniden üreten bir makinenin, bir "uyaran organı", parçaları birbirine bağlamak için bir "kaynaştırma organı", bağlantıları koparmak için bir "kesici organ" ve ­bir da "kas" dahil olmak üzere en az sekiz parçaya ihtiyaç duyacağını teorileştirdi. hareket için. Daha sonra , gerekli değişikliklere izin vermek için biyolojik mutasyona benzer bir rastgeleleştirme unsuru dahil olmak üzere bilişsel iyileştirmeler için makul mekanizmalar çizdi . ­Ancak Von Neumann, makinenin düşüncesini ilerletmek yerine , bu tür rastgele mutasyonların, arzu edilen işlevleri ve kapasiteleri "aktarma" olasılığının daha yüksek olduğunu düşündü. ­En olası sonuç, ölümcül bir değişikliğe eşdeğer olan işlevsizlikti: "Yani, bu sistem son derece ilkel olsa da, kalıtsal bir mutasyon özelliğine sahiptir, öyle ki, rastgele yapılan bir mutasyon muhtemelen öldürücüdür, ancak öldürücü olmayan ve kalıtsal olması.”

Makinelerin tasarımlarından daha iyi, esasen daha akıllı bir şey elde etmeleri için, uyarıcılarına ve birleştirici organlarına eklenen yaratıcı bir öğeye ihtiyaçları olacaktır. Biyolojik evrimden farklı olarak, fikir milyonlarca yıl kadar beklemek değil, ana sistemlerin kendi içlerinde gerekli Promethean kıvılcımını gerektirerek az ya da çok ­doğrudan daha iyi tasarımlara yol açmaktı. Bu kurgu, diye düşündü Von Neumann. Princeton'daki meslektaşlarına açıkladığı gibi, hiçbir bilim ya da mühendislik teorisi buna anlam veremez. Luddite olmayan Von Neumann, ­"zeka patlaması"nı patlatıyordu.

Süper zekaya yol açan bir zeka patlaması tahminlerindeki bariz kusurlardan biri, zaten insan düzeyinde zekaya sahip olmamızdır - biz insanız. Good'un mantığına göre, o zaman ­insandan daha iyi bir şey tasarlayabilmeliyiz. Bu, AI alanının amaçlarının yalnızca yeniden ifade edilmesidir, dolayısıyla bir çemberin içinde kapana kısılıyoruz. Yapay zeka araştırmacısı olan insanlar, tıpkı Von Neumann'ın açıkladığı gibi, nasıl daha akıllı eserler tasarlanacağının bir muamma olduğunu zaten biliyorlar. Bu gizemi kendi zekamızdan tasavvur edilen bir makineye aktarmak yardımcı olmuyor. Bunu daha fazla açmak için, Alice adını vereceğimiz dahi bir yapay zeka araştırmacısını düşünün.

ZEKA PATLAMALARI,

FİKİR

Diyelim ki Alice, Bob adında sıkıcı bir komşusu olan bir AI bilim adamı. Bob'un sağduyusu var, gazete okuyabiliyor ve (belki sıkıcı olsa da) bir sohbeti sürdürebiliyor, dolayısıyla Google'ın DeepMind'inden çıkan en iyi yapay zeka sistemlerinden dünyalarca önde.

Alice (yakında Google tarafından satın alınacak) harika bir yeni girişim için çalışıyor ve Bob kadar akıllı bir yapay zeka oluşturmak istiyor. Daniel Kahneman'ın ­iyi bilinen Sistem 1 ve Sistem 2 ruhuna uygun olarak iki sistem taslağı çizdi. Alice'in bağlamında, oyun oynamak (satranç veya Go'da olduğu gibi) gibi iyi tanımlanmış görevlerde yeterlilik için bunlara Sistem X ve genel zeka için Sistem Y diyeceğiz. İkinci sistem, Bob'un okuma ve konuşma konusundaki yetkinliğini ve ­aynı zamanda yeni fikirlerin ve kavrayışların daha karanlık alanını içerir.

Bob satrançta berbattır ve aslında onun X sistemi, ­yalnızca AlphaGo gibi bir sistemle değil, aynı zamanda diğer birçok insanla karşılaştırıldığında zavallıdır. Kısa süreli hafızası çoğu insanınkinden daha kötü; IQ testlerinde düşük puan alıyor; ve çapraz bulmacalarla mücadele ediyor . Y sistemine gelince, genel zekası, yeni veya anlayışlı düşünmeye karşı bariz bir ilgi veya yetenek eksikliği gösteriyor. Bob, akşam yemeği partilerine pek çok davet alan türden bir komşu değildir.

Alice'in stratejisi, önce Bob'un zekasına uyan bir Bob-Makinesi tasarlamaktır. Bir Bob-Machine yaratmayı başarırsa, o makinenin kendisinin daha akıllı bir versiyonunu tasarlayabileceğini ve sonunda bir zeka patlamasına yol açabileceğini düşünüyor. Şimdi, bir Bob-Makinesi tasarlamanın kolay bir iş olmadığını unutmayın, çünkü Bob'un bir Y Sistemi vardır; bu da sağduyulu muhakeme problemini çözdüğü ve genel bilişsel yeteneklere sahip olduğu anlamına gelir. Örneğin bir Turing testini geçebilir. Ve çocuk hikayelerini ve spor bölümünü okuyabilir ve özetleyebilir. Bu nedenle Bob , Ray Kurzweil'in Talk to Books semantik arama aracı gibi Google'ın en iyi doğal dil anlama sistemlerini alt üst ediyor. ­Bu nedenle Alice, Bob-Machine projesi için heyecanlıdır; AI'da büyük bir ilerleme olurdu.

Soru şu: oraya nasıl gidilir? Alice'in ilk yaklaşımı, ­Bob-Machine'in Sistem X yeteneklerini maksimuma çıkarmaktır. Ona bir bilgisayar belleği ve Google aracılığıyla web'e erişim sağlıyor. Ne yazık ki, ­Bob-Machine'in bu versiyonu, Stuart Russell'ın gerçek zekaya sahip olmayan süper bilgisayarların yanlış cevapları daha çabuk buldukları yönündeki görüşünü çabucak kanıtlıyor. 5 Bob-Machine yanlış şeyleri hatırlıyor ve doğru soruları soramıyor. Sistem X tarafındaki tüm iyileştirmeler, makineyi yalnızca, tamamı kötüye kullanılan ve Sistem Y perspektifinden tam olarak anlaşılamayan çılgın teorileri hatırlama ve çürütme ve dünya hakkında daha fazla gerçekle ilgili beyanlarda bulunma konusunda daha yetkin hale getiriyor. Elbette, Bob-Machine kusursuz satranç oynuyor, ancak yarattığı makinenin kendisinin "daha zeki" bir versiyonunu tasarlama umudu olmadığını fark eden Alice için satrançtaki yetkinliği onu daha az ilgi çekici kılıyor.

bir aha! Ancak bir anda Alice, Bob'un kendisinin daha akıllı bir versiyonunu tasarlayamayacağını fark eder. Bob-Machine nasıl olabilir? Sorunun, Sistem X optimizasyonunun Sistem Y'ye gerekli türden kaynak sağlamaması olduğunu düşünüyor. Bob-Machine (Bob'un kendisi gibi) kendi zekasını belirli bir nicelik olarak görmeli, nasıl ve ne ölçüde sınırlı olduğunu değerlendirmeli ve ardından önemli ve ilgili şekillerde daha akıllı hale gelmek için kendisini aktif olarak yeniden tasarlamalıdır. Ama bu, Bob-Machine'ın (Bob gibi) tam da bu şekilde zeki olmamasıdır! Bob-Machine bunu yapamaz çünkü içgörü, keşif ve yenilik için bu Y Sistemi yeteneklerinden yoksundur ­. Alice çizim tahtasına geri dönmelidir.

Alice daha sonra Bob-Machine'ın süper zekaya giden bir önyükleme sürecinin parçası olamayacak kadar aptal olduğuna karar verir. (Bir anlık panik içinde, bu mantığın tüm ­süper zekaya ulaşma girişimini tehlikeye attığını fark eder, ancak bu endişeyi hızla bastırmayı başarır.) Alice, AI'nın kurucusuna ve hevesli kunduz pazarlamasına saygı duyarak karar verir. şirketi Ultra ++ 'nın departmanı , bunun yerine Turing-Machine adlı Alan Turing kadar akıllı bir makine tasarlamaya odaklanacağını söyledi.

Şimdi, Turing'in Alice'den daha zeki olduğunu varsayarsak (kim söyleyebilir ki?), doğrudan bir Turing Makinesi tasarlayamaz ve her halükarda, bir Bob Makinesi'nin nasıl tasarlanacağını şaşırmış halde bir tuğla duvara çarptı bile . ­Turing'in Bletchley Park'taki meslektaşı ve bir zamanlar Cambridge'in satranç şampiyonu olan Hugh Alexander kadar akıllı bir makineyle başlamaya karar verir. Hugh Alexander zekiydi - gerçekten zekiydi. Şampiyonluk seviyesinde satranç oynuyordu ve Enigma kodunu kırma konusunda Turing'in yaptığı türden içgörülere sahip olmasa da değerli katkılarda bulundu ve diğer Bletchley kod çözücülerinin saygısını kazandı - hiç de azımsanmayacak bir başarı. Hugh-Machine, bir Turing-Makinesini nasıl bağlayacağını anlayacak kadar akıllı ­olmalı ve Turing'in seviyesindeki bir makine kesinlikle kendisini daha da akıllı yapacak kadar akıllı olmalıdır!

, akıllı telefonundan StockFish satranç kodunu indirerek ( ­zaten şampiyon bir oyuncu olmasına rağmen) Hugh-Machine'in satranç yeterliliğini geliştirmeyi kolayca başarır . ­Benzer şekilde, Hugh-Machine'e bir hesap makinesi ve süper bilgisayar belleği ile mükemmel aritmetik yeteneklerin yanı sıra Google tarafından alınabilen tüm bilgilere erişim sağlar. X Sistemi optimaldir ve Hugh-Machine, görünen tüm zekasına rağmen Hugh Alexander'ın yapamadığı bir şeyi ­yapabilir: insanüstü satranç oynayabilir, insanüstü bir şekilde sayıları toplayabilir ve diğer birçok X Sistemi şeyinde başarılı olabilir. Sorun şu ki, Bob-Machine da olabilir. Aslında Alice, Bob-Machine ve Hugh-Machine'in kanıtlanabilir şekilde eşdeğer olduğunun farkına varır. Aslında, Bob ­Machine'i terk etmenin anlamsız ve kendi kendini baltalayıcı olduğunu (birkaç bardak kırmızı şarabın ardından) kabul etmek zorunda kalır.

++ meslektaşlarından yaklaşan buluşuyla ilgili sinir bozucu metin mesajlarını susturmak için telefonunu kapatır . Gerçek şu ki, kendisinin daha akıllı bir versiyonunu tasarlayamayan sadece Bob değil, Alice de. Bir anda, Sistem X'ten Sistem Y'ye, içgörü ve yeniliğe doğru ne kadar ilerlersek, tasarımın o kadar opak hale geleceğini anlıyor. Örneğin Turing, zekasını satrançta değerlendirebilirdi - hem Hugh Alexander'a hem de Jack Good'a yenildi.

Ancak Turing, kendi Y Sistemi yeteneklerini değerlendiremedi. Gerçek anlamda, zekası bir kara kutuydu ve orijinal düşünme konusunda (bu ne anlama geliyorsa) kendi yeterliliğini hiçbir şekilde değerlendiremiyordu, çünkü bu sadece bir taslak olmadığı için değil, aynı zamanda oturduğu için de. zaman içinde, ömür boyu ve yine de yeni ve henüz ­öngörülemeyen fikirler üretebilir. Turing'in Y Sistemi zekası sadece öngörülemez değil, başka bir deyişle açıklanamaz - belki Turing'den daha zeki biri için değil (yine: bu ne anlama geliyorsa), ama kesinlikle Turing'in kendisi için. Aptal Bob için de aynısı. O halde Alice nasıl olur da ­bir istihbarat patlaması başlatabilir?

Aslında, bir istihbarat patlaması fikrinin kendisi, Alice gibi hırslı ve anlayışlı biri önce onu ciddiye aldığında kolayca açığa çıkan yanlış bir öncül inşa etti. Hipoteze göre, bir Bob-Makine Bob kadar zekidir. İşte bir fikir. Git Bob'dan kendisinin biraz daha akıllı bir versiyonunu tasarlamasını iste. Bunun Bob'un yapabileceği bir şey olmadığını göreceksiniz. Yapay zekayı heyecan verici kılan zihnin temel niteliği, ­bir zeka patlamasının doğrusal varsayımını da önceden kapatır. "İnsan zekası seviyelerine ulaştığımızda, sistem kendisinin insandan daha akıllı bir versiyonunu tasarlayabilir" diye umut devam ediyor. Ama zaten "insan düzeyinde" zekaya sahibiz - insanız. Bunu yapabilir miyiz ? İstihbarat patlaması destekçileri gerçekte ne hakkında konuşuyor?

Bu, AlphaGo'dan bir Bob-Machine'e, bir Turing-Machine'e ve ötesine "büyütmek" için gerekli olan anlamda insan zihninin güçlerinin onu mekanize etme yeteneğimizi geride bıraktığını söylemenin başka bir yoludur ­. İstihbarat patlaması fikrinin kendisi, yapay zekada genel istihbarata doğru ilerleme için özellikle Y Sistemi adayı değildir.

EVRİMCİ TEKNOLOJİLER

Kaçınılmazlık tezine (süperzeki makineler geliyor, ne yaparsak yapalım) inanan birçok yapay zeka meraklısı, evrimsel temalar üzerinde oynadığı için buna inanıyor ve böylece bireysel bilim adamlarını bilimsel kırılmalar yapma veya geliştirme ihtiyacı duyma sorumluluğundan uygun bir şekilde kurtarıyor . ­devrimci fikirler Yapay zeka tıpkı bizim gibi gelişiyor. Bu kamptaki fütüristlere ve yapay zekaya inananlara evrimsel teknoloji uzmanları veya ET'ler diyebiliriz.

What Technology Wants (Teknoloji Ne İstiyor) adlı kitabında yapay zekanın "çılgın bir bilim adamının" işi olarak değil, sadece gezegendeki evrimsel bir süreç olarak ortaya çıkacağını savunan Wired'ın kurucu ortağı Kevin Kelly gibi yeni çağ teknoloji uzmanları arasında popüler . , doğal evrim gibi. 6 Bu görüşe göre, dünya “akıllılaşıyor” (Kelly'nin deyimiyle) ve açık bir insan tasarımı olmadan teknolojinin giderek daha karmaşık ve akıllı biçimleri ortaya çıkıyor. 7 Bu tür düşünürler ayrıca World Wide Web'i dev, büyüyen bir beyin olarak tasavvur edebilirler. Bu görüşe göre insanlar, geride bırakıldığımız veya asimile edildiğimiz gerçek yapay zekaya geleceğe uzanan kozmik bir tarihsel zincirin halkası haline gelir.­

Organik yaşam son derece yavaş gelişir, ancak ET'ler teknolojik ­ilerlemeyi hızlanıyor olarak görürler. Kurzweil'in ünlü bir şekilde öne sürdüğü gibi , tarihte fark edilebilir olduğunu düşündüğü bir yasaya, Hızlanan Getiriler Yasasına göre, teknoloji hızlanan bir eğri üzerinde daha karmaşık hale geliyor. Böylece, insan düzeyinde zeka ve ardından süper zeka, organik evrime kıyasla çok kısa zaman dilimlerinde gezegende ortaya çıkacaktır . ­On yıllar hatta yıllar sonra bunlarla karşı karşıya kalacağız.

Bu insanlığın basit, derli toplu bir hikayesidir. Daha akıllı ve daha iyi olacak başka bir şeye geçiyoruz.

Hikayenin test edilebilir olmadığına dikkat edin; sadece bekleyip görmeliyiz. Gerçek yapay zekanın gelişiyle ilgili tahmin edilen yıl da yanlışsa, birkaç on yıl sonra başka bir yıl tahmin edilebilir. Bu anlamda AI yanlışlanamaz ve bu nedenle - ­bilimsel yöntemin kabul edilen kurallarına göre - bilimsel değildir.

Gerçek yapay zekanın imkansız olduğunu söylemediğime dikkat edin. Stuart Rus ­sell ve diğer AI araştırmacılarının belirtmekten hoşlandığı gibi, Ernest Rutherford gibi yirminci yüzyıl bilim adamları bir atom bombası yapmanın imkansız olduğunu düşündüler, ancak Leo Szilard nükleer zincirleme reaksiyonların nasıl çalıştığını anladı - Rutherford pro'dan sadece yirmi dört saat sonra. ­fikrin öldüğünü duyurdu. 8 Bilime karşı bahse girmemek için iyi bir hatırlatma ­. Ancak nükleer zincirleme reaksiyonların test edilebilir bilimsel teorilerden kaynaklandığını unutmayın. Teknolojiden gelişen zihin gücüyle ilgili teoriler test edilebilir değildir.

Good ve Bostrom'un bilimsel kaçınılmazlık olarak sunulan iddiaları, ­daha çok hayal gücü pompaları gibidir: Bunun mümkün olup olmadığını bir düşünün! Ve hiç şüphe yok, harika olurdu. Belki de tehlikeli. Ancak bir "ya olursa" senaryosunu hayal etmek, ileride ne olacağına dair ciddi tartışmaların çok uzağında durur.

Yeni başlayanlar için, genel bir süper zeka yeteneği, bizden ­daha üretken bir şekilde gözlemleyebilecek ve “tahmin” edebilecek şekilde daha geniş dünyayla bağlantılı olmalıdır . Zekâ aynı zamanda ­sosyal ve durumsalsa, öyle görünüyor ki, o zaman daha zeki bir şey tasarlamak için muazzam miktarda bağlamsal bilgi gerekir. Good'un sorunu dar ve mekanik değil, daha çok tüm kültürü ve toplumu yörüngesine çekiyor. Bunun için en çıplak, hatta uzaktan bile makul plan nerede?

Başka bir deyişle, Good'un önerisi yine yetersiz ­ve basitleştirilmiş bir zeka görüşüne dayanmaktadır. Orijinal zeka hatasını varsayar ve buna bir başka indirgeyici el çabukluğu ekler: bireysel bir mekanik zeka daha büyük bir zeka tasarlayabilir ve inşa edebilir. Bir makinenin böylesine Arşime ­dekan bir yaratım noktasına yerleştirilmesi, en hafif tabirle mantıksız görünüyor. Süper zeka fikri gerçekte hataların bir çoğalmasıdır ve ­yapay zekanın yükselişiyle ilgili fantezinin uzantısını en yalın haliyle temsil eder.

Tüm bunları daha derine inmek için, bu fantaziye daha fazla girmeliyiz ­. Buna Tekillik denir ve şimdi ona dönüyoruz.

TEKİLLİK, O

ZAMAN VE ŞİMDİ

1950'lerde matematikçi Stanislaw Ulam ­, John Von Neumann ile, Von Neumann'ın insanlık için teknolojik bir dönüm noktası olasılığını tartıştığı eski bir sohbeti hatırladı: “teknolojinin sürekli hızlanan ilerlemesi . . . ırkın tarihinde, bildiğimiz şekliyle insan ilişkilerinin ötesinde devam edemeyeceği bazı temel tekilliklere yaklaşıyormuş gibi görünüyor.” 1

Von Neumann bu yorumu muhtemelen dijital bilgisayarlar teknolojik sahneye çıkarken yaptı. Ancak dijital bilgisayarlar, uzun ve görünüşte kesintisiz bir teknoloji dizisindeki en son yenilikti. 2 1940'lara gelindiğinde, son üç yüz yılın bilimsel ve endüstriyel devrimlerinin ­muazzam, simbiyotik güç kuvvetlerini harekete geçirdiği açık hale gelmişti: yeni bilimin meyveleri yeni teknolojinin gelişiminin tohumlarını attı ve bu da karşılığında mümkün kıldı. daha bilimsel keşif Örneğin , bilim bize ­astronomiyi geliştiren teleskopu verdi.

Bilim ve teknolojideki değişimlere ayrılmaz bir şekilde bağlı olan sosyal değişimdi - hızlı, bazen kaotik ve görünüşte geri döndürülemezdi. Şehir nüfusu patladı (hatırı sayılır dozda sefalet ve adaletsizlikle ­) ve görünüşte bir gecede tamamen yeni toplumsal ve ekonomik örgütlenme biçimleri ortaya çıktı. Daha sonra içten yanmalı motorlarda olduğu gibi, buhar motorları da ulaşımda devrim yarattı . ­Trenler, troleybüsler ve buharlı gemiler ticaretin önünü açtı ve şehirlere göç tamamen yeni iş gücü yarattı. Thomas Edison'un elektrik ampulünü icadıyla birlikte ­insanlar geceleri çalışabilir hale geldi; kırsal bölgelerdeki uykusuzluk çekenler artık güneş onları terk ettikten sonra Das Kapital'i veya Türlerin Kökeni Üzerine'yi okuyabiliyordu. Verimlilik yükseldi. Zenginlik ve sağlık ­arttı. Kan ve şiddet de öyle. Bir dizi jeopolitik olay, kimyasal savaşı kitlesel ölçekte başlatan “Büyük Savaş” olan I. Dünya Savaşı'na yol açtı. Ve birkaç on yıl sonra, Von Neumann'ın dünyasında nihai varoluşsal tehdit -nükleer bomba- ­gerçek olmuştu.

Bomba, tarihte bir dönüm noktasıydı ve ­dizginlenemeyen teknolojik yeniliğin doğasında var olan distopik olasılıkları net bir şekilde ortaya koyuyordu. Shannon ve Turing bilgisayarları satranç oynamak için kullanıyorlardı; Von Neumann gibi bilim adamları, ­Japon şehirlerini buharlaştırmak için silahlar geliştirmek üzere bilgisayarları kullanıyorlardı. Elektronik bilgisayarlar büyük ve yavaştı, ancak Von Neumann ve diğerlerinin farklı miktarlarda bölünebilir malzeme verildiğinde olası nükleer patlama yarıçaplarını belirlemek için kullandıkları sayısal ilerlemeleri hesaplama gibi görevlerde yine de insan bilgisayarlarından çok daha hızlıydı .

Von Neumann, "tekillik" sorusunu bu olasılıklar ve korkular pusuyla ortaya koydu. Çok yönlü ve ­zeki olmasıyla ünlü olan Von Neumann, Alan Turing de dahil olmak üzere bilimsel meslektaşları tarafından neredeyse evrensel olarak saygı görüyordu ve önerisinin onlarca yıl sonra hatırlayan Ulam'ı etkilemesi şaşırtıcı değil.

Matematikçi Ulam, Von Neumann'ın mecazını kuşkusuz anladı. Tekillik, tanımsız hale gelen bir noktayı, örneğin sonsuza patlayan bir değeri gösteren matematiksel bir terimdir. Von Neumann, Ulam'a teknolojik ilerlemenin yörüngesinin aslında hiçbir yöntemin veya düşüncenin, stratejinin veya eylemin uygulanamayacağı "sonsuza" yaklaşıp yaklaşmayacağını sordu. Tahmin imkansız hale gelirdi. İlerleme artık bilinen bir değişken olmayacaktı (eğer öyleyse).

Başka bir deyişle Von Neumann, Ulam'a bir eskatoloji, olası bir zaman sonu önerdi. Birkaç on yıl sonra, Good mekanizmayı bulduğunu düşündü: dijital bilgisayar.

UCLA bilgisayar bilimcisi ve Hugo ödüllü Vernor Vinge, 1986'da bilim kurgu kitabı Marooned in Realtime'da "Singularity"yi hesaplamaya ve özellikle de ­yapay zekaya tanıttı. 3 NASA için daha sonraki bir teknik makalesinde Vinge, Good'a kanallık etti: "Otuz yıl içinde, insanüstü zeka yaratmak için teknolojik araçlara sahip olacağız. Kısa bir süre sonra, insanlık çağı sona erecek,      bence buna tekillik bile demek doğru olur. Bu bir nokta

modellerimizin atılması gereken ve yeni bir gerçekliğin hüküm sürdüğü yer. Bu noktaya yaklaştıkça, bu kavram sıradan bir kavram haline gelene kadar, insan meselelerinde daha geniş ve daha kapsamlı bir şekilde belirecek. Yine de en sonunda gerçekleştiğinde ­, yine de büyük bir sürpriz ve daha büyük bir bilinmezlik olabilir.” 4

Bilgisayar bilimcisi Vinge'nin profesyonel bir şirketi vardı. 1980'lerin sonlarında MIT bilgisayar bilimcisi, fütürist ve girişimci Ray mond Kurzweil, 1990'da ­The Age of Intelligent Machines ile başlayan ve ardından 1998'de onunkiyle başlayan bir dizi yayınla Singularity fikrini popüler kültür bilimine yayan yapay zekanın "buldogu" haline geldi . takip The Age of Spiritual Machines. 2005'in en çok satan kitabı daha da ­kendinden emindi: The Singularity is Near.

Kurzweil, tarihsel bir grafik üzerinde çizildiğinde teknolojik yeniliklerin üstel olduğunu savundu. İnovasyon, tarihsel olarak bakıldığında, zamanın bir fonksiyonu olarak hızlanır. Başka bir deyişle, büyük teknolojik yenilikler arasındaki süre daralmaya devam ediyor. Örneğin, kağıt ikinci yüzyılda ortaya çıktı ve matbaa daha bin iki yüz yıl sürdü - Gutenberg'in matbaası Avrupa'da 1440'ta ortaya çıktı. büyük bir yenilik - otuz yıldan daha kısa bir süre sonra ortaya çıktı. Ve AI? Kurz ­weil'in mantığına göre, bilgisayardaki insan düzeyinde zeka sadece onlarca yıl, belki de daha az uzakta. Üstel büyüme eğrileri bizi şaşırtıyor.

Kurzweil bunu "Hızlandırılmış Geri Dönüş Yasası" (LOAR) olarak damgaladı ve bunu, tam insan yapay zekasının 2029'a kadar geleceği ve ardından 2045'e kadar daha akıllı makineler, süper zeka önyükleme süreci yoluyla geleceği olan bir argümanda bir öncül olarak kullandı. .5 _

Süper zeka, ilerleme yolunun bilinmeyene, Tekilliğe doğru kaybolduğu, geri dönüşü olmayan bir noktanın sinyalini verdi. Bu, insanların değil makinelerin gezegendeki en zeki varlıklar olarak devraldığı geçiş noktasıdır.

Kurzweil, LOAR'a (gerçi LOAR hiç de bir yasa değildir) ve bir bilgisayar uzmanı ve mucit olarak kendi şevk ve referanslarına (Kurz ­weil metinden konuşmaya teknolojilerin geliştirilmesine yardım etti ) atıfta bulunarak bu süreci tamamen "bilimsel" olarak görüyor. , Siri gibi modern sistemlere yol açar).

Turing. İyi. Vinge. Hesaplamadaki ilerlemelerin mümkün kıldığı radikal değişim hakkındaki fikirler ­çoktan havadaydı. Kurzweil görünüşte yol haritasını sağladı. Yapay zeka sorusuna kafayı takmış pek çok kişi gibi, onun yazısı da din değiştirenlerin tüm şevkiyle doluydu:

Yeni bir döneme giriyoruz. Ben buna "Tekillik" diyorum. Kendinden daha büyük bir şey yaratacak olan, insan zekası ile makine zekası arasındaki bir birleşmedir. Gezegenimizdeki evrimin en uç noktası. Bunun aslında genel olarak zekanın evriminin en uç noktası olduğu güçlü bir şekilde savunulabilir, çünkü bunun ­başka bir yerde meydana geldiğine dair hiçbir gösterge yok. Bana göre insan uygarlığının anlamı budur. Her zamankinden daha hızlı ilerlemeye devam etmek ve zekanın gücünü ­katlanarak artırmak kaderimizin ve evrimin kaderinin bir parçasıdır . Bunu durdurmayı düşünmek -insanların oldukları gibi iyi olduklarını düşünmek- insanların eskiden ne olduklarına dair yersiz, sevgi dolu bir hatıradır. İnsan, kültürel ve kültürel bir süreçten geçmiş bir türdür.

teknolojik evrim ve hızlandırdığı ve güçlerinin katlanarak büyüdüğü evrimin doğasıdır ve biz de bundan bahsediyoruz. Bunun bir sonraki aşaması, kendi entelektüel güçlerimizi teknolojimizin sonuçlarıyla büyütmek olacaktır. 6

Ancak gerçekte, Kurzweil hevesle gemiye atladığında -aslında 1980'lerden onlarca yıl önce- bilimsel yapay zeka üzerindeki çalışmanın kendisi, süper zekaya doğru amansız bir yürüyüşe dair umutları söndürmüştü ­. Gerçek yapay zeka üzerine araştırma ve geliştirme , tek kelimeyle zor olmuştu.

1970'lerde AI gadfly ve MIT filozofu Hubert Dreyfus, Macar filozof Imre Lakatos'un "yozlaşan ­araştırma programı" olarak adlandırdığı şeyin korkunç bir örneği olarak, alanın etkili bir şekilde reddedildiğini yayınlamıştı. 7 Dreyfus abartılı biriydi ama gerçek bilgisayar bilimcilerinin çok iyi bildiği gibi haklıydı. Akıllı makinelerle ilgili iyi finanse edilen çabalar ve gösterişli iddiaların sürekli olarak (ve genellikle oldukça dramatik bir şekilde) beklentilerin altında kalmasıyla, alan birbiri ardına gerileme yaşıyordu. MIT, Stan ford ve başka yerlerdeki araştırma laboratuvarları, ­sonsuz gibi görünen ikilemler, zorluklar, kafa karışıklıkları ve düpedüz başarısızlıklarla karşılaşıyordu. Örneğin, Tam Otomatik Yüksek Kaliteli Makine Çevirisi sorununun 1950'lerde yeterli araştırma çabası ve para verildiğinde çözülebilir olduğu düşünülüyordu. 1960'lara gelindiğinde, çeviriye yapılan devlet yatırımı, birbiri ardına başarısızlıkların ardından kurudu. Sağduyulu robotlar yapma umutları da (diyelim ki İngilizce anlama ve konuşma becerileri) buharlaştı veya en azından erken dönem hayal kırıklıklarıyla büyük ölçüde azaldı. Gerçekçi Turing testleri yapması amaçlanan konuşma sistemleri, insan sorgulayıcıları yalnızca hileler ve blöflerle kandırmayı başardı - gerçek dili anlamadı - bu, bugün hala AI'daki doğal dil çabalarını zorlaştıran bir sorundur. AI, basın bültenlerinde ve gelecekle ilgili konuşmalarda kaçınılmaz görünüyordu, ancak odak noktası araştırma laboratuvarlarındaki gerçek çalışma olduğunda değil. Gerçekten akıllı bir makine programlamanın zor olduğu ortaya çıktı. Gerçekten zor.

Tekillik fikri popüler kültürde ilgi kazandıkça, yapay zeka bilim adamları görünüşte sonu gelmeyen mühendislik ­problemlerinde gezinmeye devam ettiler. Ve böylece gökyüzü düşmüyordu. Tekillik yakın değildi . Vinge'nin popüler kurgusu tam da bu şekilde kaldı.

Yapay zekanın yakından incelenmesi, yapay zeka üzerinde çalışan bilgisayar bilimcilerin gerçek ilerlemesi ile ­kendilerinin ve diğerlerinin tanımlamayı sevdikleri fütüristik vizyonlar arasında utanç verici bir uçurum olduğunu ortaya koyuyor. Turing, 1950'de test edilecek bir soru önermişti: Makineler insanlar gibi akıllı olabilir mi? Good, Vinge, Kurzweil ve diğerleri , sahada gerçek çalışmanın karşılaştığı sorunların gerçek doğasını ciddiye almadan soruyu yankılanan bir evetle yanıtladılar .

Bu boşluk öğreticidir.

Özellikle, yapay zekanın ­doğal dil anlayışının zor yönleri üzerinde somut süreç oluşturmadaki başarısızlığı, zihinler ve makineler arasındaki farkların Turing'in hayal ettiğinden daha incelikli ve karmaşık olduğunu gösteriyor . Dil kullanımımız zekamızın merkezinde yer alır. Ve eğer AI'nın tarihi herhangi bir rehber ise, AI ­için derin bir zorluğu temsil eder.

Sırada ona dönüyoruz.

DOĞAL LİSAN

ANLAYIŞ

Resmi bir disiplin olarak yapay zeka, hayırlı bir şekilde 1956'da şimdilerde ünlü olan Dartmouth Konferansı'nda başladı. Katılan aydınlar arasında Bell Labs'tan Shannon (bilgi teorisi), Harvard'dan Marvin Minsky (matematik), ünlü Carnegie Mellon ekonomisti Her ­bert Simon, John McCarthy, Harvard psikoloğu George Miller (insan hafızası üzerine çalışmalarıyla tanınır) ve John Nash ( 2001 yapımı A Beautiful Mind filminde ünlü bir şekilde canlandırılan Nobel ödüllü matematikçi ).

McCarthy, o zamanlar Dartmouth'daydı, ancak kısa süre sonra Stanford'da yeni bilgisayar bilimi alanında bir pozisyon alacaktı, konferansta yapay zeka terimini icat etti ve modern akıllı yaşam mühendisliği projesine resmi olarak bir isim verdi. 1816'da, erken gelişmiş bir genç Mary Shelley başyapıtı Frankenstein üzerinde çalışmaya başlamıştı . Yüz kırk yıl sonra, Dartmouth'ta toplanan bilim adamları, yakında kamuoyunun gözü önünde patlayacak olan yeni bir "modern Prometheus"un meclisini tasarlıyorlardı.

Saha başından beri heyecanlıydı. Konferans tutanakları her şeyi söyledi:

1956 yazında Hannover, New Hampshire'daki Dartmouth College'da 2 aylık, 10 kişilik bir yapay zeka çalışması yapılmasını öneriyoruz . ­Çalışma, öğrenmenin her yönünün veya zekanın diğer herhangi bir özelliğinin prensipte o kadar kesin bir şekilde tanımlanabileceği ve onu simüle edecek bir makinenin yapılabileceği varsayımı temelinde ilerleyecektir. Makinelerin dili nasıl kullandıracağı, soyutlamalar ve kavramlar oluşturması, artık insanlara mahsus sorunları çözmesi ve kendilerini geliştirmesi için bir girişimde bulunulacaktır. ­Özenle seçilmiş bilim adamlarından oluşan bir grup bir yaz boyunca birlikte çalışırsa, bu sorunlardan biri veya birkaçında ­önemli bir ilerleme kaydedilebileceğini düşünüyoruz . 1

Dartmouth'daki gündem basitti: bilişsel (düşünme) yeteneklerin doğasını araştırmak, bu yetenekleri yeniden üretecek programlar tasarlamak ve yeni elektronik bilgisayarlarda performanslarını uygulamak ve test etmek. Dartmouth katılımcılarının, 1956 yazında, kendi bilimsel alanlarında bilgiyle donanmış on araştırmacıyla birlikte , bir makinede insan zekası mühendisliğine yönelik "önemli bir ilerleme" beklediklerini açıkça belirttikleri gibi.

RAND'da çalışan Herbert Simon ve Allan Newell, 1950'lerin sonlarında Dartmouth Konferansı'nın boğa vaatlerini yerine getiriyor gibi görünen yapay zeka programları tasarladılar. AI programı Logic Theorist ve daha sonra General Problem Solver, geleneksel mantığın teoremlerini kanıtlamak ve mantığa dayalı bulmacaları açık, hesaplamalı adımlarda çözmek için basit bir buluşsal arama kullandı. Programlar işe yaradı ve AI, tıpkı Dartmouth organizatörlerinin ilan ettiği gibi, insan zekasının sırlarını hızla ortaya çıkarmaya mahkum görünüyordu.

Simon ve Newell'in ilk başarıları, ­araştırmacıları daha iddialı hedefler belirleme konusunda hızla cesaretlendirdi. Turing, Taklit Oyunu'nun kendi versiyonu olan Turing testi ile on yıl önce oyunsonu gündemini çoktan belirlemişti . Dartmouth bilim adamları da bir makineyi İngilizceyi veya başka herhangi bir doğal dili anlayacak şekilde programlamanın yapay zeka için bir zafer beyanı olacağını düşündüler. Araştırmacılar uzun süredir doğal dil anlayışının "Yapay Zeka-Tam" olduğunu düşünmüşlerdi; bu ­, matematikten ödünç alınan bir dildi; bu, bilgisayarların doğal dili evcilleştirdiği noktada genel zekaya ulaşacakları ve böylece insanlar gibi düşünüp hareket edebilecekleri anlamına geliyordu. Bu nedenle, 1960'larda ­yapay zekanın hedefi makine çevirisi göreviydi - metinlerin Rusça gibi bir dilden İngilizce gibi başka bir dile tam otomatik olarak çevrilmesi. AI "her şey dahildi".

DOĞAL DİL ANLAYIŞI

Yapay zeka doğal dil anlayışına dönerken, uygulayıcıları ­, Dartmouth'ta başlayan geleneği sürdüren, yakın bir başarıya olan güveni yaydı. Prestijli AM Turing Ödülü'nü ve ardından Ekonomi alanında Nobel Anma Ödülü'nü kazanacak olan Herbert Simon, 1957'de "dünyada artık ­düşünen, öğrenen ve yaratan makineler olduğunu" duyurdu. 1965'te, 1985'te "makinelerin, insanın yapabileceği her işi yapabilecek" olduğunu tahmin etmişti. Marvin Minsky de 1967'de "bir nesil içinde 'yapay zeka' ­yaratma sorununun büyük ölçüde çözüleceğini" ilan etti. 2

Ancak araştırmacıların kısa sürede keşfettiği gibi, makine çevirisi farklı bir oyundu. Basit bir varsayımla başlayarak, dilin büyük metinlerdeki ( korpora adı verilen) sözcükleri istatistiksel teknikler kullanarak analiz ederek anlaşılabileceğine dair , bunların yanlış olduğu hızla kanıtlandı. Bilgisayarlar otomatik çeviriyi mümkün kıldı, ancak ­sonuçlar yüksek kalitede olmaktan uzaktı. Biyomedikal literatür gibi belirli alanlarda çalışan programlar bile hatasız değildi ve başarısızlıklar genellikle utanç verici derecede yanlış ve akılsızdı.

Buna cevaben makine çevirisi araştırmacıları, kısa süre sonra dünya lideri olacak genç bir MIT dilbilimcisi tarafından geliştirilen ­yeni ve güçlü "dönüştürme " gramerlerini kullanarak cümleleri "ayrıştırma" ya da cümlelerde sözdizimsel yapı bulma ­yöntemlerini keşfederek yaklaşımlarını genişletti. ünlü - Noam Chomsky. Ancak doğal dil metinlerinden doğru ayrıştırmaların çıkarılması , herkesin hayal ettiğinden çok daha zor ve karmaşık oldu. Geçmişe bakıldığında bariz olması gereken sorunlar su yüzüne çıktı. Bunlar, kelime anlamı belirsizliğini ( banka gibi bir kelimenin farklı olası anlamlar taşıdığı); yerel olmayan bağlamsal bağımlılık (bir kelimenin anlamının, bir söylem veya metindeki yakın çevresinde olmayan diğer kelimelere bağlı olduğu ­); ve referans (anafor), metafor ve semantik (anlam) içeren diğer konular. Filozof ve bilişsel bilim adamı Jerry Fodor'un dediği gibi, yapay zeka üç boyutlu bir satranç oyununa tic-tac-toe olduğunu düşünerek girmişti. 3 Ulusal Kaynak Konseyi (NRC), 1960'ların ortalarında bir dizi Amerikan üniversitesinde makine çevirisi işine milyonlar akıtıyordu, ancak doğal dil metinlerini anlamak ve hatta anlamayı simüle etmek için mühendislik sistemlerindeki gerçek başarılara gelince, en hafif deyimiyle, yetersiz tedarik edildiler.

Bir zamanlar tam otomatik çevirinin ateşli bir destekçisi olan MIT araştırmacısı Yehoshua Bar-Hillel bir alarm zili çalan ilk kişi oldu. Aslında, NRC için bir dizi resmi raporda ve alanın karşılaştığı sorunların derinliğini dile getiren artık ünlü dipnotlarda bundan daha fazlasını yaptı. 4 Raporlarının araştırma topluluğu üzerindeki etkileri sismikti. Makine çevirisinin üzerinde durduğu engeli tam olarak belirlemişti ve bu ­rahatsız edici bir şekilde "felsefi ­" idi: sözde sağduyu ya da "dünya bilgisi"nin -gerçek dünya hakkındaki bilginin- yokluğu. Basit bir cümle düşünün: Kutu kalemin içindedir. Bar-Hillel, ne kadar karmaşık olursa olsun otomatik sistemlerin kafasını karıştırdığını, çünkü dünya hakkında basit, gerçek bir bilgiden yoksun olduklarını açıkladı. Kalemlerin ve kutuların göreli boyutları hakkındaki bilgi, insanların bu tür cümleleri neredeyse ­anında netleştirmesini sağlar. Söz konusu kalemin muhtemelen bir yazı aracı olmadığını, daha çok küçük çocuklar veya hayvanlar için bir mahfaza olduğunu hemen anlıyoruz. Ve Bar-Hillel'in örneğinde olduğu gibi, bazı ek bağlamlarla daha da belirgin hale geliyor: Küçük John oyuncak kutusunu arıyordu. Sonunda buldu. Kutu kalemin içindeydi. John çok mutluydu . Ancak bu tür bilgilere sahip olmayan otomatikleştirilmiş sistemler, gizemli ve ­imkansız gibi görünen bir görevle karşı karşıyadır.

Bar-Hillel'in işaret ettiği gibi, dünya bilgisi gerçekten ­bilgisayarlara sağlanamazdı -en azından basit, mühendislik tarzında değil- çünkü " biz insanların bildiği gerçeklerin sayısı, çok anlamlı bir anlamda sonsuzdur. " ” 5 Farkında olmadan , insanların hayal ettiğinden çok daha fazlasını bildiğini keşfetmişti - yapay zeka için hızlı ve basit bir çözümün tam tersi. ­Ve en gelişmiş otomatikleştirilmiş sistemleri devreye sokan, gündelik dünyayla ilgili görünüşte sıradan , sağduyulu, gündelik gerçeklerdi. Sıradan gibi görünen herhangi bir gerçek, bir çeviri sırasında konuyla ilgili hale gelebilir ­, ancak gerekli, açık uçlu "bilgi" miktarlarını hesaplama sistemleri için gerçek zamanlı veya neredeyse gerçek zamanlı olarak erişilebilir hale getirir ve onlara bilişsel yetenekler aşılar. Bu açık uçlu (muhtemelen sonsuz) arka plana karşı ilgili gerçekleri seçmek umutsuz görünüyordu. Bar-Hillel'in 1966'da NRC'ye ­verdiği kötü şöhretli raporunda sonuca vardığı gibi, bilgisayarların insanların dünya bilgisiyle programlanabileceği fikri "tamamen hayal ürünüydü ve daha fazla tartışmayı neredeyse hak etmiyordu." 6

Başka bir deyişle, makine çevirisi, tam otomatik, yüksek kaliteli çevirilerden çok uzak olan (ve kalitenin artmasına rağmen bugün de öyle kalan) sonuçlarla takılıp kalmıştı. Böylece model devam etti. Yapay zeka kendini aşırı sattı ve çeviri araştırmasının vaatleri yerine getirememesinin ardından, NRC ­araştırma ve geliştirmeye yirmi milyon doların üzerinde yatırım yaptıktan sonra fonunu çekti, bu o zamanlar çok büyük bir meblağdı. Çöküşün ardından yapay zeka araştırmacıları işlerini kaybetti, kariyerleri mahvoldu ve bir disiplin olarak yapay zeka kendisini tekrar çizim tahtasında buldu. 7

1970'lerde ve 1980'lerde yapay zeka araştırmalarında “sağduyu bilgi problemini” ehlileştirme veya çözme girişimleri baskındı. Bununla birlikte, 1990'ların başında, yapay zekanın temel bilimsel ve felsefi sorununa hâlâ yeni yaklaşımları veya cevapları yoktu. Japonya, robot biliminde başarıya ulaşmayı amaçlayan yüksek profilli Beşinci Nesil projesine milyonlar yatırmıştı ve Japonya da oldukça şaşırtıcı bir şekilde başarısız olmuştu. 1990'ların ortalarına gelindiğinde, yapay zeka kendisini yeniden bir "kış" içinde buldu - ­yapay zeka araştırmacılarının vaatlerine güven yok, karşı çıkanları haksız çıkaracak sonuçlar yok ve fon yok. Sonra web geldi.

DÜNYA ÇAPINDA AĞ

World Wide Web'in ortaya çıkışı, basit bir nedenden dolayı yapay zekanın yeniden canlanmasına neden oldu: veri. Birdenbire, devasa veri setlerinin ve özellikle de milyonlarca yeni web kullanıcısının birleşik çabalarından elde edilen metin derlemlerinin (web sayfalarının) mevcudiyeti, ­eski, "sığ" istatistiksel ve örüntü tanıma yaklaşımlarına hayat verdi. Aniden, sığ olan şey yeterli hale geldi ve işe yaradı. Yapay sinir ağları (kısaca sinir ağları), karar ağaçları ve Bayesci sınıflandırıcılar gibi denetimli öğrenme algoritmaları üniversite laboratuvarlarında onlarca yıldır vardı. Ancak büyük veri kümeleri olmadan, yüz tanıma veya metin sınıflandırma veya spam veya dolandırıcılık tespiti gibi ilginç sorunlarda henüz pek bir umut vaat etmemişlerdi. ­Bu tür yöntemler artık sonsuz vaatlerle ve gerçek dünya için yapay zekaya yeni bir ilgi ve finansman dalgası getirecek para kazandıran uygulamalarla dolu görünüyordu.

Ve böylece Büyük Veri doğdu (terim biraz sonra geldi). Yüzyılın başında, nöral ağlar ve grafik modeller gibi öğrenme algoritmaları tarafından tipikleştirilen sözde sığ, temelden, ampirik veya veri odaklı yaklaşımlar, hem yapay zeka ­araştırmasında hem de yapay zeka iş uygulamalarında büyük fırsatlar yaratmıştı. Gizli Markov modellerini, maksimum entropi modellerini, koşullu rastgele alanları ve destek vektör makineleri gibi büyük marjlı sınıflandırıcıları içeren yeni yöntemler geliştirildi ­ve yapay zekadaki saf ve uygulamalı araştırmalara hızla hakim oldu. Görünüşe göre bir gecede, Büyük Veri üzerinde çalışan öğrenme yöntemlerini optimize etmeye dayanan bütün bir istatistiksel ve sayısal analiz bilimi ortaya çıktı. Üniversiteler doğal alanlarda projeler başlattı

dili anlama ve doğal dil işleme. Örneğin, web sayfalarından adları ve diğer kalıpları çıkarmanın yollarını buldular (varlık tanıma adı verilen bir yetenek); banka gibi çok anlamlı (çok anlamlı) kelimelerin belirsizliğini gidermek için ­; web sayfalarını sıralamak ve almak gibi web'e özgü görevleri gerçekleştirmek (ünlü örnek, Larry Page ve Sergey Brin'in 1990'larda Stanford lisansüstü öğrencileri olarak geliştirdikleri Google'ın PageRank'idir); haber hikayelerini ve diğer web sayfalarını konularına göre sınıflandırmak; e-posta için istenmeyen postayı filtrelemek için; ve Amazon gibi ticaret sitelerinde kendiliğinden ürün önerileri sunmak. Liste uzayıp gidiyor.

Dilbilimden ve kurala dayalı yaklaşımlardan veri güdümlü veya "ampirik" yöntemlere geçiş, yapay zekayı, anlam ve bağlam yakalamayla ilgili sonsuz gibi görünen sorunların mühendislik çabalarını rahatsız ettiği, makine çevirisi üzerindeki o ilk, bulutlu çalışma günlerinden kurtarmış gibi görünüyordu. Aslında, makine çevirisinin kendisi daha sonra bir grup IBM araştırmacısı tarafından, esasen Claude Shannon'ın ­bilgi kuramı üzerine ilk çalışmasının dahiyane bir uygulaması olan istatistiksel (yani dilbilgisine dayalı olmayan) ­bir yaklaşım kullanılarak çözüldü . "Gürültülü kanal" yaklaşımı olarak adlandırılan bu yaklaşım, bir kaynak dilden (örneğin, Fransızca) ve bir hedef dilden (örneğin, İngilizce) gelen cümleleri, kötü çevirilerin bir gürültü biçimi oluşturduğu bir bilgi alışverişi olarak görüyordu - bu da sistemin görevinin gürültüyü azaltmak olduğu anlamına geliyordu. kaynak ve hedef cümleler arasındaki çeviri kanalındaki gürültü. Fikir işe yaradı ve makineler, IBM Research Labs'ın öncülüğünü yaptığı çok daha basit, ancak yoğun veri içeren istatistiksel yaklaşımı kullanarak kullanılabilir çeviriler üretmeye başladı.

BAŞARI . . . YA DA DEĞİL

yeterli zaman ve doğru fikirler verildiğinde yapay zekanın başarılı olacağının kanıtı olarak lanse edilir . ­Gerçek daha ayıltıcıdır.

Doğal dili anlamadaki bazı problemlerin ­istatistiksel veya makine öğrenimi yaklaşımlarıyla ele alınabileceği ortaya çıksa da, Bar-Hillel ve diğerlerinin semantik (anlam) ve pragmatik (bağlam) ile ilgili orijinal kaygılarının sağlam temelleri olduğu kanıtlanmıştır. Zor bir doğal dil sorunu gibi görünen makine çevirisi, farklı dillerdeki büyük korpora (veri kümeleri) verildiğinde, basit istatistiksel analizlerle yeterince başarılabilirdi. (Ve makine çevirisinin hala çok yüksek kalitede olmadığına dikkat edin - daha çok "yararlı olacak kadar iyi" gibidir.) Bu, ­makinelerin doğal dil anlama zekasında etkileyici bir büyümenin kanıtı değil, yalnızca makine çevirisinin bir başlangıçta algılandığından çok daha basit bir sorun.

Yine, bilgisayarları kullanarak dili anlamakla ilgili derin sorunlar ­devam etti. Buradaki noktayı görmenin basit bir yolu, Turing testine geri dönmek ve onu yapay zekanın tarihi ve sunduğu sorunları çözmeye ve ­hatta önemli ilerleme kaydetmeye yönelik çoğu sonuçsuz birçok girişimin ışığında yeniden değerlendirmektir. Nick Bostrom gibi fütüristler ve daha geniş bilimsel AI topluluğu, muhtemelen halkın testi unutmasını diliyor.

Bazen duyulduğu gibi, testin kusurlu veya yararsız olduğu söylenemez. Oldukça basit, çok zor.

TURING TESTİ

Otuz bin fitten bakıldığında, yapay zeka Turing'in ilk çalışmalarında ve Dartmouth'daki açılış konferansında ortaya çıkışından itibaren ilerledikçe bilgisayarların daha akıllı hale geldiği görülüyordu. Kesinlikle ­bilgisayarlar daha güçlü işlemciler ve depolama yetenekleri kazanıyor ve bunlar kaçınılmaz olarak iyi tanımlanmış problemlerde ilerlemeye yol açıyordu. Bilgisayar satranç oyunu henüz yetenekli insanları aşamadı, ama gelişmeye devam etti ­. Kimyasalların yapısını analiz eden DENDRAL ve bazen oldukça iyi tıbbi teşhisler sağlayan MYCIN gibi programlar, yapay zeka yöntemlerinin ­normalde yüksek insan zekası gerektiren çeşitli sorunlarla ilgili olduğunu açıkça ortaya koydu. Gördüğümüz ­gibi, makine çevirisi başlangıçtaki bir başarısızlıktı, ancak büyük veri kümelerinin kullanılabilirliğiyle (2000'lerdeki birçok Büyük Veri ve veri bilimi başarısının habercisi) mümkün kılınan farklı yaklaşımlara yol açtı. Doğal dil cümlelerinin ayrıştırılması ve konuşma veya varlıkların (kişiler, kuruluşlar, yerler vb.) 8

Yine de Turing'in AI için orijinal hedefi olan Turing testini geçmek, belirsizliğini koruyordu. Sohbeti anlamak, yapay zeka için iyi tanımlanmış bir görev değildi, tam bir yetenekti. Terry Winograd'ın Blok A'yı B'nin üstüne Yerleştir gibi İngilizce komutları çözümleyerek ve her ikisini de C'nin üstüne koyarak blokları bir robotik kolla istifleyen ve manipüle eden SHRDLU sistemi gibi erken sistemlerde bir miktar başarı umudu olsa da , araştırmacılar açık uçlu konuşma sistemlerinde boşluklar çizdi. İlerleme, hileye, sistem tasarımcılarının cehalet numarası yaparak veya sorular programların derinliklerini aştığında kaçamak cevaplar ve stratejiler benimseyerek muhatapları kandırmak için zekice oyunlarına varıyordu. Belki de en ünlü hile sistemi, Joseph Weizenbaum'un ELIZA programı, Rogerian bir psikoterapistin hastalara verdiği yönlendirmeleri taklit ederek insan diyaloğu yanılsaması yaratabilirdi. İşte ELIZA'nın yanıtlarının italik olarak gösterildiği bir örnek:

Erkeklerin hepsi birbirine benzer.

ne şekilde

Her zaman bizi bir şey hakkında rahatsız ediyorlar.

Belirli bir örnek düşünebilir misiniz?

Erkek arkadaşım beni buraya getirdi.

Erkek arkadaşın seni buraya getirdi

Çoğu zaman depresyonda olduğumu söylüyor.

depresyonda olduğunu duyduğuma üzüldüm

Bu doğru. Mutsuzum.

Buraya gelmenin mutsuz olmamana yardımcı olacağını düşünüyor musun?

Yardıma ihtiyacım var, bu kesin görünüyor. 9

Ancak bu tür programlar, gerçek yapay zeka standartlarına göre değerlendirilen bariz sahtekarlıklardı.

Turing testinin yıllık olarak düzenlendiği Loebner Prize yarışmasında bazı jüri üyelerini birçok kez kısaca kandıran program da öyleydi. Medya raporları, testin nihayet geçildiğini hevesle ilan etti ve AI'nın en ünlü mücadelesindeki ilerlemesi hakkında kısa ama yoğun bir tantana vardı. Eugene Goostman adlı sohbet robotu, yargıçların dilbilgisi hatalarını ve genel bilgi eksikliklerini beklemesini (ve mazur görmesini) sağlamak için tasarlanmış on üç yaşında Ukraynalı bir çocuk olarak sunuldu. Bot ayrıca bazı sorulara doğrudan cevaplarla değil, rastgele yorumlar ve komik yanlar şeklinde yanlış yönlendirme ve saptırma ile yanıt verdi. Bot bazen bazı hakimleri kandırdı mı? Evet. Turing testini gerçekten anlamlı bir şekilde geçti mi? 10 numara

Makine çevirisi son yıllarda ­web'de farklı dillere çevrilmiş büyük hacimli metinler tarafından evcilleştirilmiş olsa da (bazıları) , Turing testi yapay zeka için sürekli bir hayal kırıklığı olmaya devam ediyor. Bar-Hillel'in hayaleti hâlâ peşimizde.

TEKNOLOJİK KITSCH OLARAK AI

1980'de Çek doğumlu yazar Milan Kundera başyapıtı Varolmanın Dayanılmaz Hafifliği'ni yazdı. Roman, 1968'de Sovyetler Birliği'nin o zamanki Çekoslovakya'yı işgalinin zemininde geçen bir aşk hikayesidir ­. kendilerini ­Prag'ın sosyal, entelektüel ve kültürel dokusuna sokarlar. Ölen ve itibarını yitiren Praglı entelektüeller daha sonra (öldükten sonra da olsa) daha fazla rezalet gördüler: cenazelerinde Sovyet parti üyeleri ve yetkililerinin merhumun Devlete ömür boyu bağlılığını tasdik ettikleri iğrenç methiyeler . Sovyet propagandası onları ölüme sürükledi; aynı propaganda daha sonra hayatlarını, ­aslında alenen ve özel olarak karşı çıktıkları fikirleri ilerletmek için asilce feda edilmiş olarak tasvir etti . Nefret ettikleri şey, sevgi dolu olarak tanımlandı.

Sovyet propagandası acımasızdı ama öfkeli ve aptalca değildi. Belirli bir amacı vardı. Bu amaç, ülkeyi bir ülkenin, bir halkın ve bir yaşamın anlamının daha derin ve daha derin (ve karşıt) ifadelerinden arındırmaktı. Sovyetler, Prag'ı ve tüm Çekoslovakya'yı ortak tarihinden, geleneklerinden ve neyin değerli ve uğruna savaşmaya değer olduğu anlayışından arındırıyordu. Özgür düşünenler susturulduktan sonra, Sovyetler, tıpkı bir duvarı önce kumladıktan sonra boyamak gibi, ciddi veya örgütlü bir muhalefet olmaksızın kendi dünya görüşlerini empoze etmekte özgür olacaklardı. Kundera'nın öyküsü, insan yaşamının değerinin ve ­belirli inançların ve ideolojilerin, bir birey ve bir toplum için anlamlı olan her şeyi nasıl karartmaya ve örtbas etmeye –ama asla tam olarak başaramamaya– dair keskin ve çoğu zaman trajik bir anlatımıdır. Kundera, yenilmiş Çek halkına dayatılan Sovyet kültürünü kitsch olarak adlandırdı .

TEKNOLOJİK KİTÇ

Kitsch , bugün genellikle sevimsiz veya yapışkan sanat eseri ve dekora atıfta bulunurken, orijinal olarak herhangi bir alanda abartılı duygusallık ve melodram anlamına gelen Almanca bir kelimedir. Yapay zeka dünya görüşünün kalbindeki zeka hataları - yani bilim değil inançlar - modern ve özellikle zararlı bir kitsch biçimine yol açtı. Süper zeki bilgisayarların hayalleri Sovyet propagandası değildir ve kimse bizi makinelerin yükselişine inanmaya zorlamıyor. Ancak, bireyler ve toplumlar hakkındaki karmaşık ve zor tartışmaları , Sovyet kültürü gibi, eski fikirleri tehlikeli bir şekilde tek boyutlu soyutlamalarla yeniden yazan teknolojik hikayelerle değiştirme temel fikrini paylaşıyorlar .­

Kitsch, anlamı ve kullanımı zamanla değişen bir kelimedir. Orijinal Almanca tanım, burada keşfetmeyi düşündüğüm anlamdan bazı yönlerden farklıdır, ancak orijinal anlamın iki temel bileşeni, iddiamı yeterince açık hale getirmelidir. Birincisi, kitsch, karmaşık fikirlerin basitleştirilmesini içerir. Anlatacak basit bir hikaye olmalı. İkincisi, bu soruları ciddi, derinlemesine tartışarak ele almak yerine, insanların hayatın sorunları hakkındaki sorularını ve kafa karışıklıklarını duygularla ortadan kaldıran kolay çözümler sunar ­. Bu nedenle, kitsch'in mükemmel bir örneği, bir gün süper zekaya sahip hayranlık uyandıran bir androidin insan toplumunu ve onun eski geleneklerini ve fikirlerini yeniden yaratacağı ve şükürler olsun ki Tanrı hakkındaki eski tartışmalardan arınmış yeni bir çağa gireceğimiz rüya gibi bir fikirdir. akıl, özgürlük, iyi yaşam ve benzerleri. Alicia Vikander tarafından canlandırılan 2015 bilim kurgu filmi Ex Machina'daki "Ava" gibi güzel makineler (veya güzel zekaya sahip makineler) , insan varoluşunun katı gerçeklerini ortadan kaldıracak. Bu kitsch, teknolojik tarz. Sovyet propagandası gibi, ­korkutabilir ya da yatıştırabilir, ama bize daha önce doğru olanın üzerine yazan ve onu gereksiz kılan yeni bir hikaye verir ve eski gerçeklik ortadan kalkar.

Alan Turing, bilime ve mühendisliğe yaptığı tüm katkılardan dolayı, önce zekayı problem çözme ile eşitleyerek teknolojik kitsch'in doğuşunu ve viral büyümesini mümkün kıldı. Jack Good daha sonra , akıllı makinelerin gelişinin zorunlu olarak süper zeki makinelerin ­gelişini ima ettiğini öne sürerek, Turing'in zeka hatasını çok tartışılan ultra zeka kavramıyla birleştirdi . Popüler hayal gücü, süper zeki makineler fikrini kabul ettikten sonra, insan amacının, anlamının ve tarihinin yeniden yazılması, hesaplama ve teknoloji parametreleri içinde anlatılabilirdi.

etmek, genellikle eşit derecede yüzeysel olan iki yoldan biriyle teknolojik kitsch'in istenmeyen sürünmesini teşvik eder. ­Bir uçta, bir tür kamp ateşi korku hikayesi olan kıyamet ya da korkunç bir AI hikayesi duyuyoruz. Diğer uçta, eşit derecede yüzeysel ve haksız olan ütopik veya rüya gibi yapay zeka ile karşılaşıyoruz. Yapay zekanın kiç biçimlerinden herhangi birini ­ciddiye alırsak, kendimizi yalnızca teknoloji tarafından tanımlanan bir dünyada buluruz.

Bu, geri döneceğim bir tema çünkü fütürist yapay zeka ile ilgili temel sorunu ortaya koyuyor. Ex Machina'daki dahi bilgisayar bilimcisi Nathan'ın belirttiği gibi, “Bir gün yapay zekalar bize, Afrika ovalarındaki fosil iskeletlere baktığımız gibi bakacaklar. Kaba bir dil ve aletlerle toz içinde yaşayan, tamamı yok olmaya hazır dik bir maymun.” Gerçekte, herhangi bir bilgisayarın geriye dönüp bakmayacağı belli değil. Popüler duygu, varoluşun, yaşamın, bilincin ve zekanın anlamına ve kendimiz ile hesaplama ve onun birçok teknolojisi arasındaki farklara derinlemesine dalmayı gerektirir. Kitsch, insan doğası ve diğer ciddi ­felsefi çabalarla boğuşmamızı engeller. Kundera'nın çok iyi bildiği gibi, durum böyle olmamalıydı.

Kitsch'in kökleri tipik olarak daha geniş bir düşünce sistemindedir. Komünistler için bu Marksizmdi. Kaçınılmazlık miti ile bu tekno ­bilimdir. Teknobilimsel dünya görüşünü en doğrudan August Comte'un çalışmalarından miras aldık.

TEKNOBİLİMSEL DURUMUMUZ

Muhtemelen teknobilimi bir dünya görüşü olarak tam olarak geliştiren ve açıklayan ilk düşünür Auguste Comte idi. 1 Bilimsel bir çalışma alanı olarak sosyolojiyi kuran on dokuzuncu yüzyıl filozofu Comte, pozitivizm teorisini geliştirdi ve açıkladı. Bu, yalnızca gözlemlenebilir, bilimsel fenomenlerin var olduğu görüşüdür - din ve felsefe hayalidir. Comte, önce, insan zihninin, tıpkı bir bütün olarak toplum gibi, dini ve felsefi düşünceyle başlayan ve ardından bilimsel düşünceye ilerleyen aşamalardan geçerek gerçeğe doğru ilerlediği fikrini açıklığa kavuşturdu. İkincisi, ­teknobilimin her şeyin (bilimin) doğasının anlaşılmasını sağlayarak ve ardından bu bilgiyi hayatımızı çok daha uzun, daha iyi ve daha anlamlı hale getiren teknolojiler geliştirmek için kullanarak sonunda yeryüzünde bir cennet yaratacağını açıkladı. .

Comte'un teknobilimin dönüştürücü gücüne ilişkin açıklaması ­, sonunda, dinin ve özellikle de Kilise'nin, tamamen seküler, Tanrı'ya inanmayan ve sağlam bir şekilde bilimlere dayanan bir "insanlık dini " ile değiştirilebileceği inancına kadar genişledi. maddi gerçeklikte. On dokuzuncu yüzyılda Comte'un yazdığı sırada, insan düşüncesinin hem bilimsel yasaları keşfetme hem de teknobilimin modern zihnin merkezinde kök saldığı güçlü ve kullanışlı teknolojileri icat etme gücüne dair yeterli kanıt vardı.

Ancak başından beri Comte'un teorisi hakkında şüpheler vardı. Örneğin Nietzsche, bir insan fikrinin ­böyle bir görüşle daraltılmış ve sınırlandırılmış olmasından yakınıyordu. Teknobilim daha uzun yaşamamıza yardımcı olabilir, ancak bizi daha akıllı yapamaz. Bir kahraman ya da olağanüstü ve kazanılmış armağanlara ve erdemlere sahip bir kişi fikri, esasen geleneksel kişilik tartışmasını bilimin ve ­özellikle teknolojinin ilerlemesi tartışmasıyla değiştiren Comte'un vizyonuna uymuyordu . 2

Comte'un materyalizmi de diğer düşünürlere insan olasılığının genişlemesinden çok azalmasını öneriyordu. Doğuda, Rusya'da, yazar Dostoyevski, diğer düşünürlerin şüpheciliklerini ve hatta korkularını yansıtan bir düzyazıda, materyalizme ve bilimciliğe -bilimsel bilginin tek gerçek bilgi olduğu görüşüne- yönelik topyekun inancın büyüyen "belasını" küçümseyerek protesto etti. teknobilimsel düşüncenin hızlı hakimiyeti. Yeraltından Notlar'da belirttiği gibi , "Kişinin kendi özgür ve dizginlenmemiş iradesi, ne kadar vahşi olursa olsun, kendi kaprisi, kendi hayal gücü, bazen delirme noktasına kadar alevlenir - bu, asla alınamayan en iyi ve en büyük iyiliktir. dikkate alınmaz ­çünkü herhangi bir sınıflandırmaya sığmaz ve ihmal edilmesi tüm sistemleri ve teorileri şeytana gönderir. 3

Dostoyevski, Nietzsche ve diğerleri tam bir insan idealine işaret ediyorlardı, ama Comte bizim dışımızda olan bir şeyin idealinden bahsediyordu ­- teknobilim ve onun ilerlemesinden. Sorun, Comte'un çok iyi bildiği gibi, teknobilimsel bir gelecek vizyonunun aynı zamanda kişiliğin doğası hakkında derin ve anlamlı bir ifade olmasıydı . Aslında Comte, Tanrı tarafından yaratıldığı için benzersiz olan veya Yunan filozoflarının savunduğu gibi (yalnızca teknolojik bilgi değil) bir bilgelik arayıcısı olarak geleneksel kişilik kavramlarının, bilimsel ve teknolojik başarı nedeniyle artık alakasız olduğunu savundu. Onun teknobilim felsefesi, ­insan doğasının özü ve olasılıkları üzerine bir yorumdu. Bu radikaldi ve teknobilim ezici gücüne kapılmayan ikonoklastik düşünürler, Comte'un (ve diğerlerinin) öne sürdüğü fikirlere meydan okumakta haklıydılar. 4

HOMO FABER'İN ZAFERİ

Teknobilim yirminci yüzyılda zafer kazandı, ancak ona yönelik şüpheci ­tepkiler de devam etti. Nazi Nürnberg mahkemelerine atıfta bulunarak "kötülüğün bayağılığı" sözüyle ünlenen filozof Hannah Arendt, Comte'un -yirminci yüzyılın ortalarında felsefi bir fikir olarak kesinlikle hiçbir güç kaybetmemiş olan- teknobiliminin savundu. - insan doğasının kendisinin yeniden tanımlanmasından daha azına varmadı . ­5 Arendt, klasik ­insan anlayışına Homo sapiens - kelimenin tam anlamıyla bilge adam - ve teknik beceriden çok bilgelik ve bilgiye odaklanan tarihsel odak noktasına işaret etti ve teknobilimi bir dünya görüşü olarak benimsemenin kendimizi Homo faber olarak yeniden tanımlamak olduğunu savundu - inşa eden adam.

Homo faber , Yunanca terimlerle, techne'nin - teknolojinin kökü olan zanaat veya bir şeyler yapma bilgisinin - kim olduğumuzu tanımladığına inanan bir kişidir . İnsan doğasına ilişkin fabrikavari anlayış, ­yalnızca Comte'un on dokuzuncu yüzyıldaki ütopik bir teknobilim fikriyle ­değil, aynı zamanda, aslında kendimizi inşa etme şeklindeki büyük projeyle sonuçlanan, giderek daha güçlü teknolojiler inşa etme yönündeki yirminci yüzyıl takıntısıyla da mükemmel bir uyum sergiliyor. -yapay zeka. İnsanlığın anlamına ilişkin geleneksel kavramlar bozulmamış olsaydı, bu proje bir anlam ifade etmeyecekti .

Arendt, bilgelik ve bilgiden ­teknolojiye ve binaya doğru sismik değişimin, kendimize dair sınırlayıcı ve potansiyel olarak tehlikeli bir anlayışı temsil ettiğini savundu; bu, yalnızca teknolojik gelişmenin dizginsiz bir şekilde devam etmesini değil, aynı zamanda teknolojik başarıları giderek artan bir şekilde, ­insanla ilgili anlamlı ifadeler olarak göreceğimizi de garanti edecekti. kendimizi. Başka bir deyişle, teknobilim araçlarıyla inşa edilebilecek harikalara ilişkin tahminimizi, bilge ve makul ölçülerin ötesinde artırmak için kendi değerimizi azaltıyorduk.

Von Neumann'ın teknolojik ilerlemeler hızlanırken bir "tekilliğe" yaklaşmaya ilişkin başlangıçtaki şifreli yorumları, çağdaşı Arendt'in pozisyonu ışığında daha net hale geliyor. Bir bilim adamı ve matematikçi olan Von Neumann sözlerini (bildiğimiz kadarıyla) daha fazla açıklamasa da, bunlar Arendt'in teknobilimin kendimiz ve geleceğimiz için derin önemi konusundaki ısrarını mükemmel bir şekilde yansıtıyor - teknoloji ­filozoflarının "gelecek" dediği şey için. İnsanlık Hali." Comte'a teknolojinin kontrolümüzün ötesinde hızlanabileceği belki sapkın görünebilir, ancak yazılarının hiçbir yerinde, Arendt'in (ve diğerlerinin) teknobilimi insan sorunlarına insani bir yanıt olarak savunurken, bizlerin insan sorunlarına insani bir yanıt olarak savunduğu noktanın bir sezgisi keşfedilemez. aynı zamanda ­kendimize dair anlayışımızı yeniden tanımlama projesiyle de meşgulüz. Örneğin, episteme (doğal fenomen bilgisi) veya sapientiae (insan değerleri ve toplumla ilgili bilgelik ) ­yerine techne'ye yönelmek , insanın benzersizliği hakkında anlamlı bir fikir ortaya çıkarmayı zorlaştırır. (Sonuçta arılar bile kovanlarında inşaatçıdır).

Techne'yi merkeze almak, bir insanı inşa edilebilir bir şey olarak görmeyi mümkün kılar, çünkü bu, bir insan için her zamankinden daha ileri teknolojiler inşa etmek için üstün bir kapasiteden başka bir şey olmadığını ima eder. Bu rotaya girildiğinde, ­yapay zekaya giden kısa bir yolculuktur. Ve ilk olarak Turing tarafından yapılan ve ardından Jack Good ve diğerleri tarafından günümüze kadar genişletilen zeka hatalarıyla bariz bağlantı şudur : Bir tür olarak Homo faber'in nihai zaferi, kendi kendini inşa etmesidir. Bu, elbette, kesinlikle yapay zekanın iddia edilen hedefidir. Projenin başarılı olup olmayacağını keşfetmek, bizi mutlaka kendi doğamızı ­anlamanın derin sularına çekecektir.

BULMACA DOLDURMA

Teknobilim, Bilimsel Devrim ile başladı ve birkaç yüz yıl sonra, modern bilimsel teorinin çoğu yerindeydi. Nadir istisnalar dışında - bariz bir tanesi yirminci yüzyılda kuantum teorisi ve göreliliğin gelişmesidir - büyük fiziksel teoriler uygulamaya konuldukça bilimsel bilgi de gelişti. Bilimsel bilgi, ­dünyanın ve evrenin bir resmini oluşturan teori parçalarıyla bir bilmece gibiydi . Newton'un fiziği, Maxwell'in elektrodinamiği, iş teorileri ve Carnot ve diğerlerinden termodinamik - tüm bu bilimsel bilgiler, dünyanın birleşik bir ­resmini oluşturmak için bir araya geliyor . 1850'lerde Darwin'in evrim teorisi ve coğrafi ve arkeolojik keşiflerle daha fazla teori ve ayrıntı dolduruldu . (Tabii ki, teoriler tartışılıp test edildikçe, bazılarının yanlış olduğu ortaya çıktı veya revize edildi). O halde, bilimsel teori için olasılık aralığı garip bir şekilde daralıyordu - tıpkı bir yapboz üzerinde çalışırken ve her bir parça yerine oturduğunda, ­kalan seçeneklerin daha da sınırlı olması gibi.

Buna karşılık, teknolojik yenilik patladı. Ray Kurzweil'in belirttiği gibi, teknolojik yenilik hızlanıyor. Bir buluş, takip edilebilecekleri sınırlamaz, daha çok ve daha fazla icadı mümkün kılar. Başka bir deyişle, teknoloji gelişiyor gibi görünüyor. Teori gibi yerine oturtmuyoruz. Bunun yerine teknolojik gelişmeleri ­sonsuz gibi görünen üst üste yığıyoruz . Teknolojinin evriminin hızlanması, basitçe, büyük teknolojik yenilikler arasındaki sürenin tarihsel olarak küçülmeye devam etmesi anlamına gelir, böylece, örneğin, matbaanın icadı ile ­bilgisayarın gerçek rakibi arasındaki boşluk, örneğin, şu zamana kıyasla çok büyüktür: bilgisayar ve internet arasındaki boşluk. Bilim ve teknolojinin birleşmesi bu nedenle karmaşıktır ve teknobilim kelimesinin kendisi , işler ilerledikçe bilimin yerleşeceğini ve teknolojinin gelişmeye devam edeceğini ve Kurzweil'in ifadesiyle katlanarak gelişmeye devam edeceğini ima eder.

Ve böylece teknobilim terimi, dünyamızın karmaşıklığını ve öngörülemezliğini gösterir. İnsan çabasının tüm alanları aynı büyüme modelini izlemez; bir şablonda olduğu gibi bir alan diğerinin yanında döşenemez. ­İnsan zekası ve makine zekasının birbirine benzeyip benzemediğinden daha fazla olup olmadığı henüz belli değil. Yapay zeka sorusu, felsefi bilmeceleri görmezden gelmeye değil , onlarla mücadele etmeye bir davet olmalıdır . Ve kendimiz hakkında bir ifade olarak alınan teknobilim, sonunda korkunç bir basitleştirmedir ­. (Başka şeylerin yanı sıra) yaşamdaki karmaşık ve zor meseleler akışına kitsch'in dahil edilmesini temsil eder.

BASİTLEŞTİRMELER VE GİZEMLER

Turing'in 1950 tarihli "Computing Machinery and Intelligence" adlı eserini yayınlamasından kısa bir süre önce davranış psikoloğu BF Skinner, Walden Two adlı bir bilim kurgu romanı yayınladı. 1 İçinde Skinner, karakterlerinin özgür iradenin bir yanılsama olduğunu ve bir kişinin davranışının ­çevresi tarafından dışarıdan kontrol edildiğini iddia etmesini sağlar. Birisi (diyelim ki bir bilim adamı) çevreyi değiştirirse, o zaman o çevredeki kişinin davranışı da değişecektir.

Önemsiz bir anlamda, bu doğrudur. Eğer bir despot insanlardan yiyecek, güvenlik ve istihdam olanaklarını esirgerse , halk ­mutsuz olur. Bu tür değişiklikleri tahmin edebiliriz. Bununla birlikte Skinner, bir kişinin tamamen girdilerle -kendi deyimiyle, uyaranlarla- belirlendiğini kastediyordu.

Aslında Skinner'ın insanı “kara kutu” olarak görme fikri, Turing'in de aklındaki temel fikirdir. Bir kara kutu ile, sistemin çıktısını, girdisinin bir işlevi olarak ele alırız - sistemin kendisindeki iç bileşenlerin nasıl olduğu açıklanmadan bırakılır. Skinner, Walden Two'da mükemmel bir dünyanın -bir ütopyanın- insanlara kara kutular gibi davranarak, belirli bir çıktıya (tepkiye) ulaşmak için onları belirli fiziksel girdilerle (uyarıcılarla) besleyerek inşa edilebileceğini savundu. Bu arada Turing, insanın işlevsel olarak ­karmaşık bir makineye eşdeğer olduğunu öne sürdü ve bunu kanıtlamak için bir makine yapmayı, onu girdi olarak beslemeyi ve çıktısını incelemeyi önerdi.

yazık ki bu düşünce tarzının önemli bir kısmı dışarıda bırakıldı ­ve bugün onun hatalarını miras aldığımız açık görünüyor. Skinner'ın edimsel koşullanma teorisi ya da "davranışçılık" olarak adlandırılmaya başlandı, yirminci yüzyılın sonlarında geniş çapta tartışılırken, onun yerini alan disiplinler arası "bilişsel devrim" ­zekayı yalnızca içsel hesaplamalar olarak ele aldı. İnsan zihninin bir bilgi işleme sistemi olduğunu iddia eden "hesaplamalı zihin kuramı" adı verilen bir felsefeyle desteklenen bu fikir, yapay zekanın nihai zaferine hâlâ teorik olarak güveniyor.

Burada açık olmak en iyisidir: bir zihni bir bilgisayarla bir tutmak bilimsel değil, felsefidir.

TAHMİNİN ÇILGINLIĞI

Stuart Russell'ın işaret ettiği gibi, yapay zeka arayışında "insan zekası" aleyhine bahse girmemeliyiz. 2 Ancak benzer şekilde, sağlam bir bilimsel temele dayanmadan umut verici (veya vahim) tahminlerde bulunmamalıyız ­.

Uzmanlar ve hatta (veya özellikle) bilim adamları tahminlerde bulunmayı severler ­, ancak çoğu yanlıştır. Dan Gardner'ın mükemmel kitabı Future Babble , tarih ve jeopolitikten bilime kadar birçok alanda tahminlerin başarı oranını belgeliyor. 3 Teorisyenlerin -destekledikleri belirli bir teoriye dayalı olarak geleceğe dair büyük vizyonları olan uzmanların- dünyayı karmaşık ve tek bir teoriyle net bir uyumdan yoksun olarak gören pragmatik insanlardan daha kötü tahminlerde bulunma eğiliminde olduklarını buldu.

Gardner, uzman sınıftan ve pragmatik düşünürlerden kirpi ve tilki olarak bahsetti ( ­terminolojiyi Isaiah Berlin'den alan psikolog Philip Tetlock'tan ödünç alıyor). Tıpkı bir kirpinin toprağı kazması gibi, kirpi uzmanları da bir fikir bulur. Kaçınılmaz olarak, fikrin her şeyin özünü yakaladığına inanmaya başlarlar ve bu inanç, onların kaçınılmaz olarak düzyazı yazmalarını besler ­. Marx yorulmak bilmez bir kirpiydi.

Tilkiler dünyadaki olaylarda karmaşıklık ve hesaplanamazlık görürler ve ya cesur tahminlerden kaçınırlar ya da işlerin bizim düşündüğümüz gibi değişmeyeceğine dair daha güvenli (ve belki de daha akıllı) tahminlerde bulunurlar. Tilki için tahminde bulunma işi neredeyse çılgınca çünkü jeopolitik, iç politika (diyelim ki: seçimi kim kazanacak?), bilim ve teknolojinin karmaşık dinamiklerinden ne çıkacağını gerçekten bilemeyiz. On dokuzuncu yüzyıl romancısı Leo Tolstoy'un uyardığı gibi, savaşlar, savaş planlarına sığdıramadığımız nedenlerle ortaya çıkar.

Bazı AI bilim adamları, AI tahminleri konusunda herkesin bildiği gibi kurnazdır. Kanada, Montreal Üniversitesi'nde bilgisayar bilimi profesörü ve derin öğrenmenin öncülerinden biri olan Yoshua Bengio'yu ele alalım: Ne zaman yapabileceğimiz sorusuna yanıt olarak "Bunu benden alamayacaksın" diyor. insan düzeyinde yapay zeka bekliyoruz: "hiçbir anlamı yok. Bir tarih tahmin etmenin faydası yok çünkü hiçbir fikrimiz yok. Söyleyebileceğim tek şey, bunun önümüzdeki birkaç yıl içinde olmayacağı.” 4

Ray Kurzweil daha kirpi bir cevap veriyor: insan seviyesinde yapay zeka 2029'da gelecek. Tahmininin bilimsel görünmesini sağlamak için hızlanan getiri "yasasına" başvuruyor ve bugüne kadarki tüm sözde ilerlemelerde haklı olduğuna dair devam eden kanıtlar görüyor. 5

Filozoflar bazen tam da bir alandaki uygulayıcılara (hala felsefe yapmak isteyen) bağlanabilecek herhangi bir özel şevkle engellenmedikleri için problemler hakkında net bir şekilde düşünme erdemine sahip olurlar. Örneğin, Alasdair MacIntyre artık bir klasik haline gelen After Virtue'da dünyadaki dört temel öngörülemezlik kaynağına işaret etti. Özellikle, " ­yenilikte radikal kavramsal" tartışması, insan düzeyinde yapay zekanın ne zaman geleceğiyle ilgili sorularla doğrudan ilgilidir. Yirminci yüzyıl bilim felsefecisi Karl Popper tarafından buluşları tahmin etme olasılığına karşı ileri sürülen argümanı ­hatırlıyor :

Eski Taş Devri'nde bir ara sen ve ben geleceği tartışıyoruz ve önümüzdeki on yıl içinde birinin tekerleği icat edeceğini tahmin ediyorum. "Teker?" sen sor. "Bu nedir?" O zaman size tekerleği tarif ediyorum ­ve muhtemelen ilk kez bir jantın, parmaklıkların, bir göbeğin ve belki de bir aksın ne olacağını söylemek için kelimeler buluyorum. Sonra duraksıyorum, dehşete kapılıyorum. "Ama kimse tekerleği icat edemez, çünkü ben onu yeni icat ettim. " Yani tekerleğin icadı tahmin edilemez. Çünkü bir icadı tahmin etmenin gerekli bir kısmı tekerleğin ne olduğunu söylemektir; ve tekerleğin ne olduğunu söylemek onu icat etmektir. Bu örneğin nasıl genelleştirilebileceğini görmek kolaydır. Esasen kökten yeni bir kavramın geliştirilmesinden oluşan herhangi bir buluş, herhangi bir keşif ­tahmin edilemez, çünkü öngörünün gerekli bir kısmı, keşfi veya icadı ancak gelecekte gerçekleşecek olan kavramın şu anki detaylandırılmasıdır. . Radikal kavramsal yeniliğin öngörüsü kavramının kendisi kavramsal olarak tutarsızdır. 6

gelişi tahmin edilebilen yapay genel zekaya giden bir "yolda" olduğumuzu öne sürmek, yolda hiçbir kavramsal yeniliğin bulunmadığını varsayar - ­yapay zeka bilim adamlarının bile yapay genel zekanın gelişine ikna olduğu bir görüş. ­Ligence ve Ray Kurzweil gibi tahminlerde bulunmaya istekli olanlar bunu kabul etmez . En azından hepimiz biliyoruz ki, herhangi bir varsayılan yapay ­genel zeka sisteminin doğal dili anlamada henüz bilinmeyen bir yeteneğe ulaşması için, bir sağduyu, genelleştirme bileşeninin bir icadı veya keşfi olmalıdır. Bu kesinlikle bir "radikal kavramsal yenilik" örneği sayılır çünkü bunun ne olduğu ve hatta neye benzeyeceği hakkında henüz hiçbir fikrimiz yok.

Yapay zekanın gelişini tahmin edebileceğimiz fikri, tipik olarak, çeşitli derecelerde kabul edilen, dar alanlarda başarılı olan bir öncülde gizlidir.

Oyun oynamak gibi yapay zeka sistemleri genel zekaya kadar ölçeklenecektir ve bu nedenle yapay zekadan yapay ­genel zekaya doğru tahmin çizgisi biraz güvenle çizilebilir. Bu, hem yapay genel zekaya doğru ilerlemeyi teşvik etmek hem de tahmin argümanının mantığı açısından kötü bir varsayımdır .

Bilimsel keşiflerle ilgili tahminler belki de en iyi ­mitolojinin müsamahaları olarak anlaşılır; aslında, yapay genel zekanın gelişiyle ilgili kesinlik ­, Popper'ın, MacIntyre'ın ya da başka herhangi birinin şüpheleri tarafından engellenmeden yalnızca mitik alemde kalıcı olabilir.

AI hakkındaki mitoloji o kadar da kötü değil. Yaşam ve zeka yaratmaya yönelik arketipsel özlemleri canlı tutar ve ­kendimizi anlamamız için pencereler açabilir . ­Ancak mit, bilim ve kesinlik kılığına girdiğinde, halkın kafasını karıştırır ve büyük teorik engellerin çözülmeden kaldığını bilen mitolojik olmayan araştırmacıları hüsrana uğratır. Ben gio'nun dediği gibi, "Kimsenin bir fikri yok" . Bu, tüm kanıtlarla desteklense bile, mitologlar için imkansız ve iç karartıcı bir karamsarlıktır ve doğrudur.

Ancak engeller her zaman aşılmaz değildir ve öyle olduklarında bile -belirli sınırları tanımaya zorlandığımızda- o zaman hedefimize ulaşmak için farklı bir yol bulmakta özgür kalırız veya hep birlikte yeni hedefler formüle etme dürtüsü kazanırız. Bilim tarihi, daha fazla ilerlemeye yol açan açmazların keşfedilmesinin örnekleriyle doludur. Werner Heisenberg, yeni kuantum fiziğinin sonuçlarını hesaplayarak belirsizlik ilkesini keşfetti. İlke , bir atom altı parçacığın konumunu ve momentumunu aynı anda izole etmenin imkansız olduğunu belirtir . ­Bu, atomaltı alemdeki parçacıkların bireysel hareketlerini tahmin etme yeteneğimize temel sınırlar koyar (çünkü bir parçacığın konumunu "görmek", ona bir fotonla çarpmayı gerektirir, bu aynı zamanda ­onu rotasından çıkarma etkisine de sahiptir). Belirsizlik ilkesi bir sınırlama değilse de hiçbir şey değildir , yine de ­kuantum mekaniğini anlamada verimli ve değerli olduğu kanıtlanmıştır. Örneğin, önce belirsizliğin doğasını anlamasaydık, bir kuantum bilgisayar yapmayı asla umut edemezdik.

Başka birçok örnek var. Sürekli hareket, ­on dokuzuncu ve on sekizinci yüzyılların bir saplantısıydı ve en iyi ve en parlak beyinlerin çoğunu yörüngesine çekiyordu. İş teorilerindeki ve termodinamikteki gelişmeler rüyayı emekliye ayırdı ama bu süreçte ­enerji ve hareketin anlaşılmasında büyük ilerleme sağlandı . Karmaşıklığı ­ve komplikasyonları kabul etmek, bizi aşırı basitleştirmeden daha ileri götürür.

TUHAF (AMA İLGİLİ) BİR TARTIŞMA

MICHAEL POLANYI'DAN

Yapay zeka tartışmasındaki bir olasılık, genel zekaya sahip olmamıza rağmen aslında onun ne olduğunu yazamayız -yani programlayamayız- çünkü önemli açılardan o bizim için bir kara kutudur. Bu bizi Michael Polanyi'ye getiriyor.

Bir zamanlar etkili ama şimdi az tanınan kimyager ve filozof Michael Polanyi, yirminci yüzyılın ortalarında zekanın ­yalnızca kısmen yazdığımız semboller tarafından -"eklemler" adını verdiği dil kullanımları tarafından yakalandığını savundu. Polanyi, yapay zeka sistemlerinin yapay zeka tasarımcıları için neden olduğu baş ağrılarının çoğunu tahmin ediyordu; aslında, daha sonraki çalışmalarında , eklemlenmelerin eksikliğinden kaynaklanan nedenlerle, makinelerin ­tüm insan zekasını ele geçirebileceğini açıkça reddetti.

Polanyi, ifadelerin zorunlu olarak zekanın “zımni” bileşenlerini - ­semboller yazarak tam olarak tanımlanamayan düşünme yönlerini - dışarıda bıraktığını savundu. 7 (İnşa ettiğimiz bir sinir ağı ­da bir sembol sistemidir.) Bu, örneğin yemek yapmak gibi belirli beceri ve zanaatlarda neden sadece yemek tarifleri okuyarak ustalaşılamayacağını açıklar. Bir şeyler yapıyoruz ama bu benim yaptığım ve yaptığımız her şeyi programlayabildiğimiz anlamına gelmiyor (mesela James Joyce'un Ulysses'i gibi bir roman yazmak için bir program yazmayı düşünün . Program anlamsız olurdu. Onun yerine romanı yazardık. doğrudan - James Joyce olsaydık).

Polanyi talihsiz bir zamanda yapay zeka hakkında karşıt görüşler ileri sürmek için yazdı, çünkü alan 1950'lerde tantanayla başlamıştı. Zımni bilgi savunması, daha sonra Hubert Dreyfus tarafından yapay zekaya yönelik daha önce tartışılan saldırıda ele alındı; Dreyfus'un sözleri, belki de bazen fazla taraflı üslubundan dolayı, ­karşı argümanlar için bir paratoner haline geldi ve en azından başlangıçta, ana akım AI düşünürlerini kazanmadı. (Maalesef, bir AI sisteminin satrançta asla büyük bir şampiyonu yenemeyeceğini de ilan etti.) 8

Ancak bildiklerimizin tamamının yazıya dökülememe olasılığı, yapay zeka için kalıcı bir sorundur çünkü bu, yapay zeka ­programcılarının bir dairenin karesini almaya çalıştıkları anlamına gelir. Zihinlerimizle ilgili bazı şeyleri gözden kaçıran belirli programlar (veya verileri analiz etmek için programlar - yine de belirli) yazıyorlar. Polanyi'nin fikirleri, zihinler ve makinelerin temel farklılıkları olduğunu ve ayrıca zihinleri makinelerle bir tutmanın zihin hakkındaki fikirlerimizi basitleştirmeye yol açtığını öne sürüyor. Eğer zihin -ya da en azından genel zeka- kodlanabilen ya da yazılabilen bir şey olarak ele alınmalıysa, o zaman ­bugün bu kadar çok tartışmayı anlamlandırmak için "zihnin" kendisini basitleştirmemiz gerekir.

TİLKİLERİN DÖNÜŞÜ

2000'lerin başında yapay zekadaki herkes tilkiydi. Tarla, ­çok yıllık kışlarından birini yaşıyordu ve neredeyse tüm mitologlar saklanıyordu. Ray Kurzweil kendine güvenen vizyonunu desteklemeye devam etti ve Doug Lenat gibi klasik yapay zeka kuramcıları ­, yapay zekanın Rosetta taşını kovalayarak en sevdikleri kuramların peşinden gitmeye devam ettiler. Ancak görünüşte sonu gelmeyen yükseliş ve düşüş döngüleri, alanın çoğunu yıpratmıştı, öyle ki birçok kişi araştırmamız için yapay zeka etiketini kullanmaktan bile rahatsız olmuştu. Kötü bir pazarlama terimi haline geldi. (Bugün bu garip gelebilir, ancak doğruydu.) Konuşma hızla, her ikisi de makine öğrenimine yaklaşım olan "destek vektör makineleri" ve "maksimum entropi" gibi belirli algoritmaların sırlarına döndü. Klasik yapay zeka bilim adamları bunları "sığ" veya "ampirik" olarak nitelendirerek görmezden geldiler çünkü verileri kullanan istatistiksel yaklaşımlar bilgiyi kullanmıyordu ve akıl yürütmeyi veya planlamayı (eğer mümkünse) çok iyi idare edemiyordu. Ancak web'in çok ihtiyaç duyulan verileri sağlamasıyla, yaklaşımlar umut vaat etmeye başladı.

Derin öğrenme "devrimi", Geoff Hinton, Yann LeCun ve Yoshua Bengio'nun ilk çalışmalarıyla 2006 civarında başladı. 2010 yılına gelindiğinde, Google, Microsoft ve diğer Büyük Teknoloji şirketleri, ses tanıma gibi büyük tüketici uygulamaları için sinir ağlarını kullanıyordu ve 2012 yılına kadar, Android akıllı telefonlar sinir ağı teknolojisine sahipti. Yaklaşık bu zamandan 2020'ye kadar (ben bunu yazarken), derin öğrenme, yapay zekanın tüm sorunlarının bir çivi gibi görünmesine neden olan bir çekiç oldu - oyun oynamak ve sesi tanımak gibi "sıfırdan" yaklaşılabilecek sorunlar. ve görüntü verileri, artık AI'daki araştırmaların ve ticari harcamaların çoğunu oluşturuyor.

Derin öğrenme yükseldikçe, AI (ve AI hakkında konuşma) da yaptı. Kirpiler geri döndü ve tahmin edilebileceği gibi medya taze fütürizmin alevlerini körükledi ­. Ancak son zamanlarda AI'da garip bir şey oluyor. 2018'de daha şüpheci bir konuşmada bunu fark ettim ve 2019'da bu apaçık ortada. Tilkiler geri dönüyor.

Elon Musk, merhum astrofizikçi Stephen Hawking ve hatta Bill Gates gibi birçok mitolog (birkaç önemli istisna dışında) uzman değildir. Yine de, ­birkaç yıl önce zirveye ulaşan (2015 dolaylarında, bir yıl verin ya da alın) AI hakkında (çoğunlukla derin öğrenme balosu) hakkında medya saçmalığının çoğunun yaratılmasına yardımcı oldular . Ancak şimdi, sınırlamalardan yeniden söz edildiğini duymak giderek daha yaygın hale geliyor - örneğin, bilgisayar bilimcisi Ernest Davis ile birlikte 2019 ­Rebooting AI: Building Artificial Intelligence We'yi yazan bilişsel bilim adamı ve robotik şirketi Robust.AI'nin kurucusu Gary Marcus'tan. Olabilmek

Güven. 9 Marcus ve Davis, alanın yine abartıldığına ve derin öğrenmenin sınırları olduğuna dair ikna edici bir argüman ortaya koyuyor; genel olarak akıllı yapay zekaya ulaşmak için bazı temel ilerlemeler gerekli olacaktır. 2017'de yapay zeka bilimcisi Hector Levesque (Davis'in bir meslektaşı, daha sonra hakkında daha fazla bilgi verilecek) modern yapay zeka hakkında Common Sense, the Turing Test ve Quest for Real AI adını verdiği faydalı bir polemik kaleme aldı. 10 2015'te The Atlantic'te “Yapay Zeka Hakkındaki Aldatmacayı Sorgulamak”ı yayınladığımda ­, tepkiler büyük ölçüde küçümseyiciydi. 11 Bugün daha fazla eleştirmen var ve bunların arasında yapay zeka alanında aldatmacayı sorgulayan birçok tanınmış lider var.

Gerçek yapay zekanın ­imkansız olduğuna dair düşünceli argümanlar duymak hala nadirdir, aynı nedenle insanlar bu konuda tahminlerde bulunmaktan çekinirler - çünkü yapay zekanın geleceği bilinmiyor. Ancak kültürel ve psikolojik olarak, alan, yeni başlayanları ve gelecek halkı genel zekanın uzun bir yol olduğu konusunda uyararak, çevirme aşamasına girmiş gibi görünüyor . ­Bu eğilim son derece önemlidir, çünkü mit, yapay zeka konusunu yönlendirdiğimiz duygusal bir deniz feneridir. Genişleticidir, herkesi davet eder: bilinç gibi kavramlar, saldırganlık veya aşk gibi duygular, seks gibi içgüdüler ve ­zihinlerin ve canlı varlıkların diğer bileşenleri. Ancak yeni "bilim" konuşması, aşağı yukarı, dar yapay zekanın, bilinç gibi büyük resmin kapsam dışı olduğu, giderek daha fazla genelliğe olası uzantıları hakkında bir anlatıdır. Belki yarı yarıya fazla zekice - herkesin umursadığı efsane bu. Aksi takdirde, teknolojinin her yerde daha güçlü formları var, şimdiden görebildiğimiz bir eğilim çift taraflı.

BASİTLEŞTİRİLEN SÜPER ZEKA

Basitleştirilmiş hesaplama dünyamızı oluşturmaya yardımcı olan zeka hataları da şimdi modern bir kılığa geri döndü. Google'dan Peter Norvig ile yapay zekaya yönelik eksiksiz ders kitabı girişini birlikte yazan Stuart Russell, 2019 İnsan Uyumlu: Yapay Zeka ­ve Kontrol Sorunu adlı kitabında zekanın hedeflere ulaşmaktan başka bir şey olmadığını öne sürüyor ve yalnızca insanları ve yunuslar, aynı zamanda karıncalar, E. coli bakterileri ve bilgisayarlar. 12 Ayrıca Turing testinin artık geçerliliğini yitirdiği için kullanımdan kaldırılmasını istiyor. (Görünüşe göre, sıradan bir konuşma yapmak değerli bir hedef değil.) "Turing testi yapay zeka için yararlı değil, çünkü bu gayri resmi ve son derece olumsal bir tanım: Son derece ­karmaşık ve büyük ölçüde bilinmeyen özelliklerine bağlı. hem biyolojiden hem de kültürden türeyen insan zihni. Tanımı "paketinden çıkarmanın" ve testi kanıtlanabilir bir şekilde geçecek makineler oluşturmak için ondan geri çalışmanın bir yolu yoktur . Bunun yerine, AI rasyonel davranışa odaklandı [ve dolayısıyla] bir makine, algıladığı şey göz önüne alındığında, istediğini elde etmesi muhtemel olduğu ölçüde zekidir.” 13

Einstein'ın fiziği görelilik olarak yeniden tasavvur ettiğinde "hedefine" "ulaşmasından", yüzünü güneşe dönen bir papatyaya kadar her şeyi kapsayan Russell'ın zeka tanımıyla tartışmak zor. Ancak Russell'ın Turing testini reddetmesi aşırı derecede yasal ve dar görünüyor, çünkü testin ruhu basitçe, doğal dilleri anlayan ve kullanan makinelerin akıllı olması gerektiğidir. Pratik olarak konuşursak, ne söylediğimizi asla ­anlamadıkları takdirde, Siri'den veya sesle etkinleştirilen diğer kişisel asistanlardan fazla bir şey beklememeliyiz, bu nedenle testin iptal edilmesi akıllıca görünmüyor. (Eğer yeni nesil bir Siri ­, insan sahibiyle sınırsız ve sıradan bir sohbete giriştiği bir noktaya ilerlerse, o zaman Turing testi, sonunda gerçekleşen büyük "yapay zeka rüyası" olarak geri dönecektir .)

Tanınmış bir AI uzmanı ve Berkeley'deki California Üniversitesi'nde bilgisayar bilimi profesörü olan Russell da bilinç probleminden kurtuluyor: “Bilinç alanında gerçekten hiçbir şey bilmiyoruz, bu yüzden hiçbir şey söylemeyeceğim. ” Daha sonra bize şu güvenceyi veriyor: "Yapay zekada hiç kimse makineleri bilinçli hale getirmek için çalışmıyor, kimse nereden başlayacağını bilemez ve hiçbir davranışın önkoşulu olarak bilinç yoktur." Ama yine de bilinç hakkında bir şeyler - oldukça fazla - söylüyor:

Diyelim ki size bir program verdim ve "Bu insanlık için bir tehdit oluşturuyor mu?" Kodu analiz edersiniz ve gerçekten de çalıştırıldığında, tıpkı bir satranç programının sonucu herhangi bir ırkın yenilgisi olacak bir plan oluşturacağı ve uygulayacağı gibi, kod da sonucu insan ırkının yok olması olacak bir plan oluşturacak ve uygulayacaktır. karşısına çıkan insan. Şimdi size kodun çalıştırıldığında bir tür makine bilinci yarattığını söylediğimi varsayalım. Bu tahmininizi değiştirecek mi? Hiç de bile. Kesinlikle ­fark etmez. Davranışı hakkındaki tahmininiz tamamen aynıdır, çünkü tahmin koda dayalıdır. Makinelerin gizemli bir şekilde bilinçli hale gelmesi ve insanlardan nefret etmesiyle ilgili tüm o Holly ­wood komploları gerçekten asıl noktayı kaçırıyor: önemli olan bilinç değil, yeterliliktir. 14

Ama belki asıl noktayı kaçıran Russell'dır, çünkü makinelerin "canlanması" hakkındaki mitoloji, gerçekten de geleceğin yapay zekasıyla ilgili hayallerin can damarıdır. Ex Machina'nın gösterimi için sinemaya gelen insanlara , yapay zekanın gerçek hayalinin, ­bize (ve düşmanlarımıza) hedeflere ulaşmamıza yardımcı olacak "içeride ışıksız" süper bilgisayarlar yapmak olduğunu söylersek, kendilerini daha iyi hissedebilirler. biraz bunalmış. Russell, genel istihbarat için henüz bilinmeyen modüllerle uygun şekilde sulandırılmış bir algoritmik sistemin yapay zeka için nihai başarıyı heceleyeceğini öne sürüyor gibi görünüyor. Gerçek kirpiler, uyarıcı tilkilerin anlamadığını, yapay zekanın bilim ve efsaneyi bir arada tuttuğunu ­ve popüler zihindeki kalıcı büyüsünün, onun psikolojik ve kültürel bir mihenk taşı olduğu anlamına geldiğini anlar.

Ray Kurzweil başından beri, bilinç ne olursa olsun, makinelerin ona fazlasıyla sahip olacağını -bizimkinden daha zengin ve "daha iyi" olacağını savundu.

1999'da mite övgüsünün adı uygun bir şekilde The Age of Spiritüel ­Makineler'di (ve bilinçli, ruhsal deneyimler yaşayan süper zeki bilgisayarlarda olduğu gibi gerçekten "ruhsal" demek istiyor). Kurzweil, Turing'in testinin yapay zeka için uygun bir ölçüt olduğu konusunda akıllıca ısrar ediyor: "Testi geçmek için zeki olmalısınız." Hatta yapay genel zekayı belirtmek için giderek daha fazla kullanılan "AGI" teriminden bile hoşlanmıyor, çünkü (doğru bir şekilde) ifade ettiği gibi, "Yapay zekanın amacı her zaman daha fazla zeka elde etmek ve nihayetinde insan zekası seviyelerine ulaşmak olmuştur. 15

Cinsel arzu, zeka için bir turnusol testi olarak yapay zeka için uygun bir konu bile olabilir - özellikle de yaşamda göründüğü gibi çabalamanın, özlem duymanın ve çeşitli hedeflere ulaşmada temel bir unsursa. Ex Machina , cinsel gerilimi, bilinci, sömürüyü ve özgürlüğü bir araya getiren ve hepsini bir Turing testinde (bir tür) bir araya getiren, pratik olarak Shakespearevaridir. Romancıdan yönetmenliğe geçiş yapan Alex Garland, Tekilliği ele alıyor ­ve bize süper zeki bir android ustasının çılgın bir bilim adamının (başka bir hamile tema) - münzevi mucidi Nathan'ın (Oscar Isaac'ın canlandırdığı) köleliğinden kaçışını sona erdirmesinin hikayesini veriyor. Görünüşte Ava'nın amacı, Nathan'ın davetli konuğu Caleb Smith ( Domhnal ­l Gleeson) ile ­tamamen inandırıcı bir "insan" olarak etkileşime girerek bir Turing testini geçmektir - Ava'nın bir android olduğunu bilmesine ve görmesine rağmen. Bu nihai test, diyor Nathan.

Ancak Ava'nın kendi fikirleri vardır (hedeflerimize ulaşmak lanet olsun) ve Nathan'ın ­araştırma tesisinin sınırları dışında, vahşi dünyaya bir kaçış planı yapar. Ava nihayet kaçtığında, iki insan ölmüştür (veya ölmüş olacaktır). Dışarı çıktığında renkleri, muhteşem renkleri görüyor - izleyiciye onun gerçekten "canlı" ve bilinçli olduğunun kanıtı. 16 İngiliz dilini o kadar iyi anladığını ve kullandığını gördük ki, iki adamı umutsuz bir kafa karışıklığına ve yenilgiye uğrattı. O halde burada, mitin tam bir tasviri var ve makinelerin ­insanları tam anlamıyla geride bıraktığında yaklaşmakta olan bir geçiş noktasına dair temel futuristik fikrini sunuyor. Ava, insan meslektaşlarından daha akıllı, daha kurnaz ve daha ruhani ve canlıdır.

Garland'ın vizyonu saf bir mitolojidir ve aynı zamanda arketipsel temaları (özgürlük, iyi ve kötü ve cinsellik ) ­geleceğin teknolojisinin merceğinden yakalayan harika bir insan hikayesidir. Burada bir ironi var çünkü Ex Machina , 2001: A Space Odyssey gibi diğer şaheserlerde olduğu gibi, derin insan duygularına dokunarak başarılı oluyor .

Ayrıca, bazılarının son zamanlarda yapay zeka alanını neşeli (veya korkutucu) mitinden uzaklaştırarak daha "bilimsel" tartışma lehine yaptığı seçim de ironiktir - başka bir deyişle, Tekillik, bilinç ve zeka gibi duygusal olarak yüklü kavramları bir kenara bırakmak. yine ­de halkın gözünde kalmalarından yararlanıyor. Örneğin Russell, yapay genel zeka üzerine yapılan ciddi çalışmaları, Ex Machina gibi filmlerdeki pop kültürel tasvirlerinden açıkça ayırmak istiyor . Bilinci aptalca bir felsefi endişe olarak görüyor (zaten kimse bilmiyor), Turing testleri hilelere karşı çok savunmasız olan eski fikirleri ve makinelerin agresif (veya cesur veya başka bir şekilde duygusal) hale gelmesiyle ilgili endişeleri temelde yanlış yönlendirilmiş olarak görüyor. Süper zeki bilgisayarlar basitçe amaçlarının peşinden gidecekler. Sorun şu ki - ve Terminatör imgesi olmadan bile varoluşsal bir risk anlamına geliyor - hedefleri bizimki olmayabilir.

Russell, bunun zaten AI ile sorunumuz olduğunu kabul ediyor. Spesifik olarak, amacı herkesi yapışkan ve alakalı reklamlarla bombardıman ederek reklam gelirini en üst düzeye çıkarmak olan web'deki içerik seçme algoritmalarına sesleniyor . ­Süper zeki yapay zeka, ­hedeflerimizi gerçekleştirmede çok iyi olabilir. Uygun mecaz, her şeyi altına çevirme gücünü elde eden, ancak kendi kızı ­da dahil olmak üzere her şeyi altına çevirmeyi çok kolay bulan (hedef değil ) Kral Midas'ın hikayesidir; benzer şekilde, bir hedefle görevlendirdiğimiz süper zeka, belki de insanoğlunun kendisindeki karbon atomlarını kendi amacına ulaşmak için daha fazla kaynak olarak kullanarak, onu başarmanın bir yolunu bulabilir ve sonunda bizi ortadan kaldırabilir .

Bu fikir, süper zeka endişesi duyanlar arasında daimi bir endişedir. Nick Bostrom, süper zekanın ­ataç üretimini en üst düzeye çıkarmak gibi görünüşte sıradan bir görev olduğu (insanlar tarafından verilen hedef) olduğu ve evrendeki her şeyi, beynimizdeki tüm kullanılabilir öğeler de dahil olmak üzere derece derece bir ataş fabrikasına dönüştürdüğü bir senaryoyu ele alıyor. kendi bedenleri Berkeley'deki Makine İstihbarat Araştırma Enstitüsü'nün eski başkanı Eliezer Yudkowsky, bir keresinde, "Yapay zeka senden nefret etmiyor, seni sevmiyor, ama sen atomlardan yapıldın ve başka bir şey için kullanabilirsin." 17

Yaklaşmakta olan süperzekanın bir şekilde lazer odaklı ve bir amaca ulaşmada son derece yetkin olacağı, ancak sıfır sağduyuya sahip olacağı fikri, süperzekanın kendisine aykırı görünüyor - sonuçta, insan zekası artı daha fazlası olması gerekiyor. Zekayı (en azından) sağduyu sahibi olmak olarak anlayan (ve belki de bazılarına sahip olan) Gary Marcus gibi yapay zeka bilim adamları, ataç ­gibi satılık bir insan ürününün üretimini optimize eden süper zeki bir bilgisayarın ­aynı zamanda onları satın alan insanları yok etmemesi gerektiği fikri. Yine, süperzekânın, programcıları tarafından kendisine verilen bir amaca körü körüne hesaplama bağlılığı olan süper güçlü bir otomatik domates gibi davranmasıyla ilgili Russell'ın ve diğerlerinin endişelerinde ima edilen, süperzekânın ilginç bir basitleştirmesi var. ­Gözetlemek için garip bir pozisyon. Russell'ın kendisi, sağduyu ve dilin yapay zeka için önemli ve ulaşılamayan bir kilometre taşı olduğunu kabul ediyor. Süper zeka resminde neden yok? Geleceğin sağduyulu bilgisayarları, saldırgan ve şeytani olmadıkça, Russell'ın aptalca bir efsane olarak bir kenara atmaya çalıştığı gibi, bu tür endişeleri ortadan kaldıracaktır.

Her halükarda, ataş kıyamet senaryoları , geleceğin süper zeki bilgisayarlarına belirli ilkeler inşa ederek bu tür olasılıkların önüne geçmemizi öneren Russell gibi bilimsel düşünceye ­sahip araştırmacıları rahatsız ediyor; - olmak, tercihlerimizi maksimize etmek tek amacına sahip olmak . Sorun, Russell'ın bize hatırlattığı gibi, genellikle kendi tercihlerimiz hakkında hiçbir fikrimiz olmamasıdır. En azından, Kral Midas anlamında, istediğimizi yanlış ifade etme eğilimindeyiz.

Bu nedenle, insanlığa karşı özgeciliğe ek olarak başka bir ilke olarak, yapay zekanın bize karşı özgecilik peşinde koşarken yapabileceği hataları engellemek için alçakgönüllülükle aşılanması gerekir (ataş fabrikasının CEO'sunu, bunun gerçekten, gerçekten olduğunu düşünerek bir ataç haline getirmek gibi). olası tüm araçları kullanarak üretkenliğin her zerresini sıkıştırmak). Özgecil bir şekilde mütevazı makineler, puro içen teknoloji yöneticilerinin (muhtemelen artık puro içmeyenler) onlara rüşvet saikleri verme tehlikesine ve ayrıca makinelerin yanlış şekilde çok akıllı olma, dönme eşdeğerini yapma olasılığına karşı korunmaya yardımcı olur. her şey altın. Kafa karıştırıcı bir şekilde, "fedakarca alçakgönüllü" makineler aynı zamanda Ex Machina'nın yapay zekayı ele almasına çok benziyor - sonuçta "canlı", gerçek (yalnızca ataşı maksimize eden değil) zeka ve etik duyarlılıklarla. Yapay zeka hakkında konuşmanın sürekli olarak bilim ve efsaneyi bir arada tutmaya mahkum olduğu sonucuna varan biri affedilebilir.

Russell'ın yaklaşmakta olan süper zeka ile varoluşsal krizi engellemek için gerekli olduğunu düşündüğü üçüncü bir ilkesi var ­: Yapay zeka, insan tercihlerini tahmin etmeyi öğrenecek şekilde geliştirilmelidir. Makineler aslında ne istediğimiz hakkında daha fazla şey öğrenmek için bizi izlemeli, bu da onların tabiri caizse her şeyi şeytana gönderebilecek olası eylemleri göz ardı etmelerine yardımcı olur. İnsan tercihlerini öğrenmek, bilgisayarların hedeflerine ulaşmaya çalışırken bizi incitmekten kaçınmasını sağlar ­. (Russell, tercihlerimizi sürekli izleyen ve öğrenen iyiliksever "panoptikon" rolünde bize güvenilmemize yardımcı olduğu izlenimi altında, bir süperzekanın nasıl hâlâ bizi varoluşumuzdan silecek kadar aptal olduğunu açıklamıyor .)

Russell'ın fütüristik yapay zeka hakkındaki varoluşsal risk öyküsünü yeniden anlatması, akıllara Çek oyun yazarı Karel Capek'in ideal iş verimliliği için tasarlanmış, güzelliği takdir etme, ahlaki bir algıya sahip olma ve duyguları ve bilinci deneyimleme gibi diğer zihin özelliklerinden kasıtlı olarak yoksun olan evrensel robotlarını getiriyor. RUR adlı oyunundaki sözde akılsız otomatlar bir şekilde rahatsız oldular ve neredeyse tüm insan ırkını yok eden bir robot devrimini ateşlediler. Capek'in sonu, 1920'lerdeki oyununu hatırlamamızın nedeni şüphesiz. Hiç kimse güçlendirilmiş bir Roomba'nın süper zekice (yine de akılsızca - çelişkiyi görmezden gelin) en iyi nasıl süpürüleceğini veya mutfağı temizleyeceğini veya arabayı tamir edeceğini öğrenmesi ihtimalinden heyecan duymuyor. Elbette, inanılmaz derecede yardımcı olurdu, ama bizim süper zekadan kastettiğimiz bu değil ­. Ava için heyecanlıyız. Bilinçli veya duygulu olmayan ya da şeytani saldırganlığa muktedir olmayan ­bir süper zeka, aslında hiç de zeki değildir. Sağduyudan da yoksun olduğu için, mitolojik hayal gücümüz için zayıf bir aday gibi görünüyor. Bu bir hesap makinesi.

Russell, insan ve makine zekasını, özünde hedefleri optimize etmeye yönelik oyun-teorik bir arayış olarak birbirine bağlayarak, görünüşte "bilimsel" bir bilgisayar zihni görüşüne yer açar, ancak bunu yalnızca kendi zihnimizin olanaklarını ciddi şekilde kısıtlayarak yapar. Bu yine bir istihbarat hatasıdır. İnsan zekası çeşitlidir, hâlâ son derece ­gizemlidir ve bildiğimiz kadarıyla fiilen sınırsızdır. Yapay zeka hakkındaki mevcut düşünce, insan zekasını aşağı çekerek, onu hesaplamaya daha uygun bir tanıma bağlayarak, daha zengin bir zihin anlayışını bir kenara atıyor. Basitleştirilmiş bir dünyayla baş başa kalıyoruz.

Belki bu dünya, yaklaşmakta olan bir yapay genel zekadan bahsetmeyi ­daha makul gösteriyor (çünkü “AGI” çok fazla bir anlam ifade etmiyor), ancak bunu projenin kendisine olan ilgiyi tehlikeye atarak yapıyor. Süper zeka kavramını bir kenara bıraksak da , küresel olarak yıkıcı bilgisayar virüslerinin, örneğin bariz bir kötü niyetle kodlayıcılar tarafından salınan, akılsızca finansal piyasaları çökerten veya bilgisayar korsanlarına girip onları yok eden bilgisayar virüslerinin çok gerçek olasılığı hakkında dürüstçe daha dürüst bir tartışmaya başlayabiliriz. bireylerin mahremiyeti veya ülkelerin güvenliği için kritik olan veriler. Bu, güvenlik açığının keşfedilmesiyle etkili hale getirilen bir hesaplamadır. Gerçek dünya, efsane değil.

ÖZETLE

AI ve insanlar hakkındaki bu pozisyonları aşağıdaki gibi özetleyebiliriz. Kurzweilians (AI hakkında mitologlar, nokta) Tekillikten sonra bilince, duygulara, ­güdülere ve engin zekaya sahip makineler hakkında mistik bir tavır sergiliyorlar. İronik bir şekilde, Shakespeare temalarını hesaplamaya aktararak felsefi keşifleri canlı tutuyorlar . (Bilgisayarlar zengin ruhsal deneyimlere sahip olacak ve harika aşıklar olacak vb.) Buna Ex Machina etkisi diyebiliriz .

Russellcılar , süper zeka hakkındaki konuşmaları küçülterek, "hedeflere" ulaşan genel hesaplama hakkında matematiksel olarak daha saygın fikirlere indirgeyerek Ex Machina'yı filmlerde tutmak istiyorlar . Ne yazık ki, Russellcılar da insanları sınırlı zeka tanımları içine sokma eğilimindedir. Bu, insan ve makine arasındaki algılanan uçurumu azaltır, ancak yalnızca onunla birlikte insan olasılığını da azaltır. Ruslar, benim "basitleştirilmiş dünya" dediğim kültürel bir akımın düşünce liderleridir. Jaron Lanier'in belirttiği gibi, "Yeni bir nesil, bir kişinin ne olabileceği ve her bir kişinin kim olabileceği konusunda azalan bir beklentiyle yaşlandı." 18

Kurzweilciler ve Russellcılar benzer şekilde, hem insanların görüşlerini basitleştiren - özellikle deflasyonist zekanın hesaplama olarak görüşleriyle - hem de yapay zeka hakkında efsane değil bilim olarak fütürizmi teşvik ederek teknoloji görüşlerini genişleten teknosentrik bir dünya görüşünü ilan ediyorlar.

Bruce Wayne yerine yarasa kıyafetlerine odaklanmak başımızı çok belaya soktu. Makineler için sınırsız olanaklar görüyoruz, ancak kendimiz ­için sınırlı bir ufuk görüyoruz. Aslında, ­makinelerin gelecekteki zekası mitolojik değil, bilimsel bir sorudur. Yapay zeka, oyunların veya reklam yerleştirmenin sahte dünyasında aynı aşırı performans modelini izlemeye devam ederse, sınırda, fevkalade müdahaleci ve tehlikeli aptal savantlarla karşılaşabiliriz.

Şimdi yapay zeka bilimine döneceğiz ve burada - bilimsel araştırmanın kendisinde - basitleştirilmiş dünya yeniden karmaşık ve gizemli hale geliyor. Çünkü zeka hatalarımızın baskısını kaldırdığımızda gözümüzün terazisi kalkıyor ve gerçekten de çok çetin bir sorun karşımıza çıkıyor.

Bölüm II

ÇIKARIM SORUNU

HESAPLAMAYIN, ANALİZ EDİN

AI, zeka arayışıdır. Kitabın bu bölümünü oluşturan çeşitli bölümler boyunca, sizi bu arayışın önemli engellerle, nasıl üstesinden geleceğimizi bilmediğimiz engellerle karşı karşıya olduğuna ikna etmeyi umuyorum. Bunu yapmak için, zekanın doğasını araştırmamız gerekiyor. Ve araştırmamıza, belki de dünyanın ilk polisiye öyküsü olan "The Murders in the Rue"da isimsiz anlatıcı tarafından tanıtıldığımız "tuhaf ve ilginç genç adam" amatör dedektif August Dupin'den daha iyi bir yer yoktur. morg.” 1

SUÇ ÇÖZME ÜZERİNE

Yazar Edgar Allan Poe ile birçok özelliği paylaşan anlatıcı, bize düşünme yöntemlerine takıntılı olduğunu erkenden söylüyor. İnsan zihninin görünüşte ilgisiz bilgi parçalarını dikkatli gözlem ve muhakemeyle, yani çıkarımlarla nasıl birleştirdiğini merak ediyor . ­O halde, anlatıcının kendisini Dupi n ile birlikte eski bir evde otururken bulması ve bütün gününü parlak dedektifin yanında geçirmesi ne büyük şans.

Dupin, kısa sürede öğreneceğiz, normal bir adam değil. O , gerçek bir özgünlüğe sahip olan bir tür tuhaf kişiliktir. ­Ve gerçekten de, o tuhaf. Dupin, ünlü bir aileden gelmektedir, ancak yoksulluğa yakın bir duruma düşürülmüştür ve sürekli olarak düşündüğü, fikirlerin içinde kaybolduğu için buna pek aldırış etmez. Konuştuğunda, yüksek sesle düşünür. Bu, elbette can sıkıcı bir hal alabilir. Ancak anlatıcı, Dupin'in "tuhaf analitik yeteneğine" değer veriyor. Şöyle diyor: "Günlerimizi okuyarak, yazarak ya da sohbet ederek geçirdik, ta ki saat gerçek Karanlığın gelişiyle ilgili uyarana kadar ­. Sonra kol kola sokaklara çıktık, günün konularını devam ettirdik ya da geç saatlere kadar dört bir yanda dolaşarak , kalabalık şehrin vahşi ışıkları ve gölgeleri arasında, sessiz bir gözlemin bizi beklediği o sonsuz zihinsel heyecanı aradık. karşılayabilmek."

Dupin bir prototip, bir örnek, Sherlock Holmes gibi. Holmes gibi, polisin "basit özen ve faaliyetlerini" uygulayarak bir şekilde gözden kaçırmayı başardığı şeyi fark eder.

Bir gece eski evde Dupin'le baş başa kalan anlatıcı, "Gazette des Tribunaux"nun akşam baskısını eline alır ve Morgue Sokağı'nda işlenen cinayetleri öğrenir:

"Olağanüstü Cinayetler.— Bu sabah, saat üç sularında, Quartier St. Roch sakinleri uykularından, görünüşe göre, Morgue Sokağı'ndaki bir evin dördüncü katından gelen bir dizi korkunç çığlıkla uyandılar. bir Madame L'Espanaye ve kızı Mademoiselle Camille L'Espanaye'nin tek başına kalması. Bir süre gecikmeden sonra, her zamanki gibi içeri alınmak için yapılan sonuçsuz bir girişimden dolayı, kapı bir levye ile kırıldı ve iki jandarma eşliğinde sekiz veya on komşu içeri girdi. Bu sırada çığlıklar durmuştu; ancak grup merdivenlerin ilk katını hızla çıkarken, öfkeli çekişme içindeki iki veya daha fazla kaba ses ayırt edildi ve evin üst kısmından geliyormuş gibi göründü. İkinci sahanlığa varıldığında bu sesler de kesilmiş ve her şey tamamen sessizliğini korumuştu . ­Parti dağıldı ve odadan odaya koştu. Dördüncü kattaki büyük bir arka odaya varıldığında (kapısı, içinde anahtarla kilitli bulunduğu için zorla açılmıştı), orada bulunan herkesi dehşetten çok şaşkınlıktan şaşırtan bir manzara kendini gösterdi.

"Daire feci bir kargaşa içindeydi - mobilyalar kırılmış ve her yöne savrulmuştu. Sadece bir karyola vardı; ve bundan yatak çıkarılmış ve zeminin ortasına atılmıştı. Bir sandalyenin üzerinde kana bulanmış bir ustura yatıyordu. Şöminenin üzerinde yine kana bulanmış ve köklerinden koparılmış gibi görünen iki veya üç uzun ve kalın gri insan saçı buklesi vardı. Yerde dört Napolyon, topazdan bir küpe, üç büyük gümüş kaşık, üç küçük metal d'Alger ve içinde yaklaşık dört bin franklık altın bulunan iki çanta bulundu. Bir köşede duran bir yazı masasının çekmeceleri açıktı ve görünüşe göre yivlenmişti, ­ama içlerinde hala pek çok eşya kalmıştı. Yatağın altında (karyolanın altında değil) küçük bir demir kasa bulundu. Açıktı, anahtar hâlâ kapıdaydı. Birkaç eski mektup ve önemsiz diğer kağıtlar dışında hiçbir içeriği yoktu .­

Madame L'Espanaye'den burada hiçbir iz görülmedi; ama şöminede alışılmadık miktarda kurum gözlemlendi, bacada bir arama yapıldı ve (anlatılması korkunç!) kızın cesedi oradan baş aşağı sürüklenerek çıkarıldı; böylece dar açıklıktan hatırı sayılır bir ­mesafe yukarı çıkmaya zorlanmıştır. Vücut oldukça sıcaktı. Onu inceledikten sonra, hiç şüphesiz yukarı kaldırılıp devreden çıkarıldığı şiddetten kaynaklanan birçok kazıma algılandı. Yüzünde çok sayıda şiddetli çizikler ve boğazda koyu morluklar ve parmak tırnaklarında derin girintiler vardı .......................................... , sanki yara boğularak ölmüş gibiydi.­

"Evin her yerini ayrıntılı bir şekilde araştırdıktan sonra, daha fazla bir şey keşfetmeden, grup binanın arka tarafındaki küçük bir taş döşeli avluya girdi, burada yaşlı kadının cesedi o kadar kesilmişti ki, onu kaldırma girişimi üzerine ­kafası düştü. Kafa gibi vücut da korkunç bir şekilde parçalanmıştı - ilki o kadar ki, neredeyse hiçbir insanlık görüntüsünü koruyamadı.

"Bu korkunç gizemde henüz en ufak bir ipucu olmadığına inanıyoruz." 2

Ertesi gün Gazete davayla ilgili daha fazla ayrıntı yayınlar. Kanıt sunanların ifadelerinden ilgili bilgileri bir araya getirebiliriz ­. Anne ve kızının durumu iyiydi. Cinayetlerden üç gün önce anne bankadan büyük miktarda altın çekmişti ve bu para ­cinayetlerden sonra açıkta, el değmemiş olarak yerde bulundu. Ayrıca ilginç: olay yerine ilk gelenlerden bir polis memuru iki ses duyduğunu bildirdi - biri Fransızca konuşan bir adamdan geliyordu, diğeri ise "sert, tiz ve çok tuhaf" diyerek hiç tanıyamadı. Bunu bir yabancı ve muhtemelen İspanyol olarak düşündü. Diğer tanıklar daha sonra anlaşılmaz sesi muhtemelen İtalyanca, Rusça ­veya İngilizce olarak tanımlayacaklardı.

Şaşırtıcı. Para - belki de cinayet için en olası sebep - evde dokunulmaz. Kapılar içeriden kilitli. Kızın cesedi bacada bulundu ve birden fazla kişinin onu dışarı çıkarması gerekecek kadar güçlü bir şekilde sıkıştırıldı. Ve ayrıca sesler. Görünüşe göre katillerden, ancak polis eve giden merdivenleri çıkarken açıkça iki ses duysa da, yalnızca biri tanınabilir, diğeri bildirildiğine göre anlamsız görünen garip bir karışım. Tanıkların hiçbiri, herhangi bir dilde söylenenleri (eğer varsa) tam olarak söyleyemez.

Polis şaşkın. Tanık ifadesi sadece kafa karışıklığına katkıda bulunur. Yani, bir araya getirilen tüm ipuçları gerçekten hiçbir ­yere işaret etmiyor. Cinayetler bir muamma ve tam da bu yüzden tuhaf amatör dedektifimiz Dupin bu kadar yoğun ilgi gösteriyor.

Anlatıcı, Dupin'in polis tarafından gazetede yayınlanan hesabı okuyarak davayı erkenden çözdüğünü öne sürüyor. Ancak ikisi, olay yeri hala sağlamken Morgue Sokağı'ndaki eski evi ziyaret etme izni alır. Dupin dönüş yolunda başka bir gazetenin ofisinde durur ve kayıp eşya bölümüne bir ilan verir. Paris'te bir Malta gemisine ait olduğu tahmin edilen bir denizci orangutanını mı kaybetti? Sahibi talep etmek için arayabilir.

Ve Morgue Sokağı cinayetlerini aydınlatan çıkarım şu: O gece yaşlı kadın ve kızını hiçbir insan öldürmedi. Katil bir insan değil, bir denizci tarafından ormandan getirilen ve yakındaki bir meskende tutulan vahşi bir hayvandı. Orangutan, efendisinden kaçtıktan sonra bir çılgınlık içinde, dış panjuru açarak eski evin penceresinden atladı ve ardından çığlık atarak, ciyaklayarak ve düz kenarlı bir ustura sallayarak evin içine girdi. İşte cinayet silahı: yaşlı kadının kafasını kesen jilet ve kızın ayaklarını bacadan önce sıkıştıran hayvanın katıksız hayvan gücü.

Tanıklar tarafından duyulan insan sesi? Orangutanın sahibi. Ve boğuk ve anlaşılmaz sesler? Hayvanın homurtuları.

TAHMİN YÖNTEMİ

Ama davanın gerçeklerinden bunu kim anlayabilir? Elbette herkesin önünde her şey yolundadır. Gerçekte, Dupin az önce tahmin etti. Polis, hiçbir yere varana kadar bilinen yöntemleri izledi. Sonra onlar da tahmin etmeye başladılar. Tek fark, Dupin'in tahmininin doğru olmasıydı.

ne düşünmenin doğası üzerine kafa yorarak başlar . Suçun kurgusal hikayesi önce kurgusal olmayanla başlar. Doğru kelimeleri arar. Dupin'in akıl yürütmesinin, formüle dayalı hesaplamanın aksine, analizin bir zaferi olduğuna karar verir ­. Hesaplama, bilinen noktaları birleştiriyor; cebir kurallarını uygulamak , diyelim. Analiz, noktaları anlamlandırmak, onları açıklayan bir sıçrama yapmak veya tahminde bulunmak ve ardından, biraz fikir verildiğinde, ­bunu test etmek için hesaplamayı kullanmaktır. Hesaplamanın da sınırları vardır: "Ancak analistin becerisi salt kuralın sınırlarının ötesindeki konularda kendini gösterir." Kurallara uymak ­yeterli değildir, ancak tam olarak başka nelerin dahil olduğu belirsizdir. Poe'nun bu gizemi takdir ettiği, öyküsünün başında yaptığı beyanda açıkça görülmektedir: " Analitik olarak konuşulan zihinsel özellikler, kendi içlerinde, ancak analize çok az duyarlıdır." 3

Amerikalı bilim adamı ve filozof Charles Sanders Peirce, Poe'nun hikayelerini birkaç on yıl sonra hayranlıkla okuyacaktı. Peirce aynı zamanda nasıl düşündüğümüzü, olaylar hakkında nasıl akıl yürüttüğümüzü de merak ediyordu. Dupin'in zihinsel jimnastiğini mantıksal simgelerle yakalamayı bile başardı ­. Dedektifin anlayışlı tahmin tarzını nasıl otomatik hale getireceğini bilmiyordu ama bunun genel olarak insan düşüncesinin merkezi bir yönü olduğunu düşünüyordu.

Peirce'e göre düşünmek bir hesaplama değil, bir sıçrayış, bir tahmindir. Hiç bir şey kesin değildir. Eşyaları bir araya getiriyoruz. Açıklıyoruz ve revize ediyoruz. On dokuzuncu yüzyılda olduğu gibi yaşayan Peirce, dijital bilgisayarlar hakkında bir şey bilmiyordu. Ancak yapay zekayı herkes için neyin zor bir sorun haline getireceğini tahmin etti. Aslında mesele şuna varıyor: Kendi düşüncemizin kafa karıştırıcı bir tahminler dizisi olduğu düşünülürse, onu programlamayı nasıl umabiliriz ­?

Sonunda Peirce, insan muhakemesi için eksiksiz bir açıklayıcı çerçeve geliştirdi. Biçimsel mantığa ve tümdengelim ve tümevarım gibi türlerine dayanıyordu .­

Ve Peirce, tahmin oyunlarımızı yakalayan üçüncü bir unsur olduğunu düşündü. Buna "kaçırma" adını verdi. Sırada buna dönüyoruz.

PEIRCE'İN BULMACASI

(VE PEIRCE'NİN BULMACASI)

Çalışmalarına aşina olanlar için, Charles Sanders Peirce, gerçekten orijinal ve önemli düşünürlerden oluşan seçkin bir gruptadır. Tarihçi Joseph Brent, biyografisi CS Peirce: A Life'da onu "Amerika Birleşik Devletleri'nin belki de şimdiye kadar ürettiği en önemli zeka" olarak nitelendirdi. 1934'te The Dictionary of American Biography'de yazan filozof Paul Weiss, Peirce'i " ­Amerikan filozoflarının en orijinali ve çok yönlüsü ve Amerika'nın en büyük mantıkçısı" olarak tanımladı. Kültür tarihçisi ve eleştirmen Lewis Mumford, onu Roger Bacon ve Leonardo Da Vinci gibi ikonoklastik dehaların yanına yerleştirdi. 1976'da MIT'de önde gelen dilbilim bilimcisi olan Noam Chomsky'ye onun etkileri sorulduğunda, " [Dil ­felsefesiyle ­ilgili] tartıştığımız sorularla ilgili olarak , ben ona hitap eden filozof," dedi. en yakın hissettiğim ve neredeyse başka kelimelerle ifade ettiğim kişi Charles Sanders Peirce. 1

MÜKEMMEL AMA YALNIZ

Albert Einstein gibi, Peirce de solaktı ve resimlerle düşünülüyordu. Diyagramlarda mantıksal çıkarımlar yaptı. Daha sonraki yıllarda evinde tek başına yazdı, aç ve üşüdüğünden, soba için yakıt alamayacak kadar fakir olduğundan şikayet etti. Birkaç arkadaşı onun için endişelendi ve Harvard'da ona mantığın temelleri üzerine bir dizi ders ayarlamayı başardılar; burada mantıksal ­çıkarım türlerini bilimsel yöntemi desteklediğini düşündüğü bir çerçeveyle açıklıyordu - açık bir şekilde düşünmek için bir program. Katılımcılar arasında, daha sonra dersleri tam olarak anlamadığını itiraf eden ünlü filozof ve Harvard'daki ilk psikolog William James de vardı - Peirce'in resimlerine ve şemalarına eklenen matematiğin onun anlayışının ötesinde olduğunu. Görünüşe göre James bu konuda yalnız değildi; dersler büyük ölçüde fark edilmedi ve yalnızca on yıllar sonra kitap biçiminde yayınlandı.

Cambridge, Massachu ­setts'de Viktorya dönemi bilim kültürünün bir parçası olarak dünyaya gelen Peirce, hali vakti yerinde ve aşırı başarılı bir aileden geliyordu. Babası Harva rd'de seçkin bir matematik profesörüydü . Daha genç bir kuzen güçlü bir senatör olacaktı, Henry Cabot Lodge. Peirce, klasik eğitim gördü ve 1863'te Harvard Üniversitesi Lawrence Scientific School'dan en iyi dereceyle mezun oldu. Otuz yılını US Coast and Geodetic Survey'de ­yerçekimi yoğunluğunun kesin ölçümlerini kullanarak dünya yüzeyinin topolojik araştırmalarında araştırmacı bilim adamı olarak geçirdi. Amatör bir kimyager, Johns Hopkins Üniversitesi'nde prestijli bir mantık hocası ve herhangi bir uluslararası bilimsel derneğin ilk Amerikan delegesiydi. O bir bilim adamı, mantıkçı, filozof, yazar, Nation için üretken bir kitap eleştirmeni ve ­daha fazlasıydı. Yıllarca Peirce'in hayatını ve çalışmalarını araştıran Peirce araştırmacısı Max H. Fisch, Peirce'in ­birçok başarısı hakkında şu uygun şekilde büyük yargıyı sunar:

Amerika'nın şimdiye kadar ürettiği en orijinal ve en çok yönlü zeka kimdir? "Charles S. Peirce" cevabı tartışılmaz, çünkü herhangi bir saniye, aday gösterilmeye değmeyecek kadar geride olacaktır. Matematikçi, gökbilimci ­, kimyager, jeodezist, kadastrocu, haritacı, metrolog,

spektroskopist, mühendis, mucit; psikolog, filolog, sözlükbilimci, bilim tarihçisi, matematiksel ekonomist, ömür boyu tıp öğrencisi; kitap eleştirmeni, oyun yazarı, oyuncu, öykü yazarı; fenomenolog, göstergebilimci, mantıkçı, retorikçi, metafizikçi Sistem kuran tek kişidir.

Amerika'da mantıkta, matematikte ve çok çeşitli bilimlerde hem yetkin hem de üretken olan filozof. Tüm felsefe tarihi boyunca bu konuda eşiti olmuşsa , bunların sayısı ikiden fazla değildir. 2

Yine de Peirce, büyük ölçüde unutulmuş bir dışlanmış olarak öldü. Unutulmuş dahiler, tarihte o kadar yaygındır ki, Tesla'da olduğu gibi, ara sıra onları yeniden keşfederiz. Ancak Peirce, tartışmasız Tesla'dan daha fazla - sonuçta Elon Musk'ın bir elektrikli otomobil şirketine adını vermek için ilham kaynağı olarak ölümünden sonra bir tür ün elde etti - Peirce, çoğunlukla tarih kitaplarından yazılmış önemli bir düşünür olarak duruyor. Çalışmaları en çok pragmatizm olarak bilinen felsefi okulun kurucusu olarak bilindiği felsefede takdir edilmektedir.

Bilgisayarla ilgili ilk çalışmaları neredeyse unutuldu. Akademisyenler hâlâ onun mantığın doğası üzerine yazdığı ciltler dolusu yazılarını inceliyorlar, ancak konu gizemli ve ana akım tartışmayla birleştirmek çok zor. Bu nedenle, mantığın doğasına ilişkin düşüncelerinin önemini ve kapsamını anlayan bazı kişiler onu Aristoteles ile karşılaştırsa da, bugün Peirce'in fikirlerinin tartışılması çoğu çevrede biyografik bir ­taslak ve bir açıklama, hatta bir özür gerektirmektedir.

FİZİK, FELSEFE VE KİŞİLİK

Peirce neden unutuldu? Özel hayatı bize bir ipucu veriyor: ­Neredeyse herkesi sinirlendirdi. William James, yakın ve ömür boyu sürecek bir arkadaş olarak kaldı . Ancak James bile, her ikisi de Harvard'da öğrenciyken, Peirce ile ilk karşılaşmasından ailesine yazdığı gibi karışık bir izlenimle ayrıldı: "Prof. Peirce'in çok zeki olduğundan şüphelendiğim bir oğlu var. büyük bir karaktere sahip, oldukça bağımsız ­ve şiddetli olsa da. 3 James daha sonra sempatik bir şekilde Peirce'den "o tuhaf ve asi varlık" olarak söz etti. 4

Peirce'in huysuz kişiliği ve çağdaş törelere karşı kayıtsızlığı, kişisel ve profesyonel olarak onun için sonsuz sorun yarattı. Kendisini haklı olarak dışlayan New England'daki (ailesi dahil) Victoria sosyetesini sık sık gücendirdi; Harvard, evliliğindeki bilinen bir sadakatsizlik nedeniyle ona profesörlük teklif etmeyi reddetti; On yıllardır çalıştığı Birleşik Devletler hükümetinin Sahil Araştırması, raporları zamanında teslim edemediği ve Avrupa'yı gezerken pahalı ekipmanını kaybettiği için sonunda onu kovdu. Aynı şekilde, Johns Hopkins tarafından uygunsuz davranışlarla ilgili belirtilmemiş raporların ardından görevden alındı. Bugün, uyum sağlamadığını söyleyebiliriz - yanlış anlaşılan dehanın mükemmel bir klişesi. Yapısal olarak kurallara göre oynamaktan acizdi. 5

Peirce'in kişisel skandalları ve huyları, örneğin kişisel yaşamına ilişkin kayıtların - ciltler dolusu belgenin - ölümünden kırk iki yıl sonra 1956'ya kadar neden Harvard'ın Houghton Kütüphanesi'nde mühürlü olarak kaldığını açıklamaya yardımcı olur. Lewis Mumford'un dediği gibi, "başlangıçtaki yayın masrafını garanti altına almak" için "birkaç bin dolar" istemekten dolayı, bilgisayar bilimine ve özellikle yapay zekaya büyük ilgi duyanların çoğu da dahil olmak üzere bilimsel ve felsefi makaleleri nispeten dokunulmamış ve Harvard'ın arşivlerinde yayınlanmamıştı. sonra koydu. 6 Peirce'in fikirlerini ve önemini anlamayan ve bir skandala davetiye çıkarmak istemeyen Peirce'i tanıyanların çoğu, onun itibarının geri kazanıldığını veya hayatındaki çalışmalarının çoğunun yayınlandığını asla görmedi. Peirce'in kendisi bilinmezlik içinde öldü, hayatta kalan aynı derecede esrarengiz ikinci karısı Juliette, kendi biraz inişli çıkışlı geçmişi olan bir Fransız kadın. Uygun bir şekilde, Peirce'in ailesi bazen ­Juliette'i bir dışlanmış ya da bir "çingene" olarak tanımlıyordu.

matematiğe ve özellikle mantığa yaptığı katkının muazzamlığını ancak çok, çok sonra - ve bir dereceye kadar bugün bile değil - anlamaya başladık . Mantıksal çıkarım hakkında düşünmesi ve özellikle, hayatının çalışmasının en önemli parçasına geçmesi, kaçırılan çıkarım olarak adlandırdığı şeyin derinliğini ve gizemini keşfetmesi son derece önemlidir . düşüncemizin.

Peirce, kaçırmacı akıl yürütmenin, Aristoteles'e kadar uzanan mantıksal akıl yürütme açıklamalarının dışında bırakıldığını belirtti. Ayrıca matematik veya mantık derslerinde varsayılan mantıksal çerçeveye de uymuyordu. Kaçırmayı, otomasyon ve istihbarat hakkında temel soruları gündeme getiren eksik bir mantıksal parça olarak gördü. Yapay zeka hakkında bilgi sahibi olsaydı, bugün sıklıkla gözden kaçan şeyi muhtemelen görmüş olacaktı: Kaçırma çıkarım sorunu, yapay zekayı hâlâ ­tamamen çözülmemiş merkezi bir meydan okumayla karşı karşıya getiriyor.

ÇIKARIM BULMACASI

Edgar Allan Poe'nun anlatıcısı, Peirce'in daha sonra hakkında ciltler dolusu yazacağı şeyi, kaçırma çıkarımını açıklamak için el yordamıyla sözcükler aradı. Ancak tümevarımlı çıkarım bir tür çıkarımdır. çıkarım nedir? Örneğin bir isim. Fiil formu, eylemlerden bahseden "çıkarım" dır. Etimolojik olarak çıkarım yapmak, Latince "in", into ve "ferre", getirmek anlamına gelen "getirmek" anlamına gelir. Oxford İngilizce Sözlüğü bize bunun bilişsel ­olarak, zihnimizle yaptığımız bir şey olduğunu söyler: " mevcut bilgilere dayanarak bir fikre varmak veya bir şeyin doğru olduğuna karar vermek."

Ne yazık ki, OED aynı zamanda bize "sonuç çıkarmanın" çıkarımın eşanlamlısı olduğunu ve bunun da yardımcı olmadığını söylüyor (sonuç, çıkarım yapmanın yalnızca bir yoludur).

OED ayrıca genel tabirle "çıkarım" kelimesinin genelliğini vurgulayan birkaç kullanım örneği sunar :­

Bir şeyi (bir şeyden) çıkarmak için: Anlamın çoğu bağlamdan çıkarılmalıdır. Okuyucular, katilin amaçlarını anlamaya bırakılır.

Şu sonuca varmak için: Hükümetin bu anlaşmalardan haberdar olduğu sonucuna varmak mantıklıdır.

Çıkarım, mantıkta bir sonuca varmak anlamına gelen ve daha genel olarak, önceki inançları güncellemek için zaten bildiklerimizi ve gördüklerimizi veya gözlemlediklerimizi kullanmayı içeren yeni bir düşünce ortaya çıkarmaktır. Halihazırda bildiklerimizi ve gazetelerde okuduklarımızı (Dupin gibi) kullanarak katilin güdülerini ( OED'den ödünç alırsak) çıkarabiliriz.

Çıkarım da bir çeşit sıçramadır ve makul kabul edilir, örneğin, "hükümetin bu anlaşmalardan haberdar olduğu" sonucuna vardığımızda - yine, sahip olduğumuz önceki bilgilere (genel veya paylaşılan bilgi gibi) ve okumaya (gözlemlemeye) dayalı olarak. bazı son dakika hikayeleri veya hikayeleri.

Çıkarım, akıllı beyinler için temel bir bilişsel eylemdir. Bir ­bilişsel aracı (bir kişi, bir yapay zeka sistemi) zeki değilse, kötü çıkarımlar yapacaktır. Ancak çıkarım yapan herhangi bir sistemin bir miktar temel zekaya sahip olması gerekir, çünkü bilinenleri ve gözlemlenenleri inançları güncellemek için kullanma eylemi, kaçınılmaz olarak zeka ile kastettiğimiz şeye bağlıdır . ­Bir AI sistemi hiç çıkarım yapmıyorsa, gerçekten AI olarak adlandırılmayı hak etmiyor. (Kedi resimlerini etiketleyen bir sistemin bile "gördüğü" şeyin bir kedi olduğu sonucuna vardığını söyleyebiliriz - bu nedenle çıta oldukça düşük olabilir.)

Dupin'in yaptığı gibi bir şaka yapmak, yeni bir aşı bulmak, bir cinayeti çözmek veya ­herhangi bir çıkarım yeteneği olmadan dünyadaki çeşitli olay ve iletişimlere ayak uydurmak imkansızdır. Elbette pek çok şey biliyoruz, ancak yalnızca çıkarım bizi yeni bilgiye (veya inanca) ulaştırır. Yarın güneşin doğacağını biliyoruz, bu yüzden ondan çıkarım yapmamıza gerek yok. Aynı şekilde, elimizin hala kolumuza bağlı olduğu sonucunu çıkarma zahmetine girmeyiz. Bu zaten sahip olduğumuz bilgi, zaten oluşturduğumuz bir dizi inanç. Ancak bilgimiz sürekli değişiyor ve güncelleniyor. Dışarısı çok erken gizemli bir şekilde karanlıksa, bir güneş tutulması veya belki de büyük bir toz fırtınasının batıda güneşi örttüğü veya belki de bir nükleer felaket olduğu sonucuna varabiliriz. Şu anda ne biliyoruz? Gördüklerimizden en çok ne anlam ifade ediyor?

Genel anlamda, her zaman çıkarım yaparız - bu uyanık olmanın bir koşulu gibidir. Mutfağa girip yarısı boş bir Pepsi kutusu bulabilir ve kız kardeşimin Pepsi içerken ve ziyarete geldiğinde kutuyu orada bıraktığı sonucuna ­varabilirim. Öte yandan, burada tezgahı yeniden yapan işçiler var ve onlardan birinin daha önce Pepsi içtiğini de fark ettim. Bu nedenle, daha önce bir Pepsi içiyordum ve verandada yarım bırakmıştım, bu yüzden belki de eşim getirmişti ­. odaya girerken sonuçlar çıkardığımız için "gerçek zamanlı" çıkarımdır. Gerçek dünya koşulları her zaman değişir, bu nedenle gerçek zamanlı çıkarım yaygındır. Sonuçta, zamanında düşünüyoruz. Bir sorunu on milyar yıl sonra çözebilen bir bilgisayar programı da ­, gerçek zamanlı olarak duvara toslayan bir bilgisayar programı da hiç akıllı değildir.

Pek çok çıkarımın geçici doğası, baştaki çıkarımların, özellikle çok aceleyle ulaşılırsa, yanlış olabileceği anlamına gelir. Eğer ofise geç gelirsem, aslında trafik bir kaza nedeniyle geri çekilmişken, patron işleri ciddiye almadığımı anlayabilir. Başka bir deyişle, patron benim hakkımda önceden oluşturulmuş bazı izlenimlere veya önyargılara dayanarak bir sonuç çıkarıyor. ­Günlük konuşmalarda insanlar çıkarım kelimesini bu anlamda kullanırlar ve gereksiz bir sonuca çok aceleci bir şekilde atlamaya atıfta bulunurlar: "Ah, bu Suzy, dün gece söylediklerinden sonra senin hakkında bir sürü çılgınca şey çıkarıyor. ” Ve teknik olarak Suzy'nin çıkarımlarda bulunduğu doğru, ancak buradaki anlam, bunların önyargılı olduğu, Suzy'nin haksız varsayımlarda bulunmaya çok hazır olduğu (belki de morali bozuk olduğu veya senden hoşlanmadığı için).

Daha özel bir anlamda, çıkarım matematik sözlüğüne uzun zaman önce girdi ve son zamanlarda hesaplama ve yapay zeka hakkındaki tartışmalarda yer aldı. Bu ayarda, "gerçek zamanlı çıkarım", işlek bir cadde gibi dinamik bir ortamda gezinen bir robotu ifade edebilir.

"Olasılığa dayalı çıkarım", yapay zekaya yönelik veri merkezli yaklaşımlara bariz bir şekilde uygulanarak istatistiksel verilerden sonuçlar çıkarır.

Bir zamanlar yapay zeka bilim adamları ­, çıkarımın önkoşuluyla, zaten bildiklerimizin akıllıca kullanımıyla, yani "bilgi" sorunuyla güçlü bir şekilde mücadele etti. Hiçbir şey bilmeyen sistemler de pek bir çıkarım yapamaz. Bu nedenle ilk araştırmacılar, sensörlerini veya metin girdilerini anlamlandırmalarına yardımcı olmak için bilgiyi yapay zeka sistemlerine kodlamaya çalıştı. Olgular ve kurallardan oluşan geniş bilgi havuzlarına sahip yapay zeka sistemlerinin ilgili sonuçlara varmak için yine de bilgiyi bağlam içinde kullanmak zorunda olduğu (zor yoldan, tekrarlanan başarısızlıkla) keşfedildi. Çıkarımı bu kadar zorlaştıran şey, bilginin bu "kullanımı"dır. Çevremdeki dinamik olarak değişen dünyaya uygulanan hafızamın samanlığında hangi bilgi parçası alakalı?

Hangi bilgi parçalarının alakalı olduğunu belirleme yeteneği, bir hesaplama becerisi değildir. Poe, "analitik" alanında ­insan içgörülerine formülle ulaşılmadığında ısrar eder; bunlar "salt kuralın sınırlarının ötesindeki konular" veya hesaplamalardır. Gerçekten de Dupin, cinayetlere - orangutan - ilişkin açıklamasına bir tür şans eseri tahminle varmış gibi görünüyor ve daha sonra kayıp hayvanın sahibiyle görüşerek bunu doğruluyor. Yani: sadece tahmin mi ediyordu? Önemli bir ­anlamda öyleydi. Ancak bu, onu bir çıkarım olarak iptal etmez. Onu önemli bir tür yapar.

TURING HAKKINDA DAHA FAZLA BİLGİ

1950 tarihli "Computing Machinery and Intelligence" (Bilgisayar Makineleri ve Zeka) başlıklı makalesinde Turing, "düşünmenin" umutsuzca bilim dışı ve öznel olduğunu iddia ederek, kendi başlığıyla dalga geçerek, gerçekten düşünen makineler hakkındaki soruları reddetti. Bilgisayarların düşünmesinden bahsetmek, yüzen denizaltılardan bahsetmek gibidir. "Yüzmek"ten bahsetmek zaten insanı insanlaştırmaktır. Yunuslar yüzer ama denizaltılar yüzemez. Turing , düşünme kelimesinin kullanımının da böyle olduğunu düşündü. Bir bilgisayar satranç oynuyorsa, onun düşündüğünü mü yoksa sadece hesap mı yaptığını kim bilebilirdi?

Turing tamamen programlanabilir bir zihinle ilgileniyordu. Bu nedenle, içgörüyü - her ne ise - hesaplama alanına çekerek, içgörü ve ustalık arasındaki orijinal ayrımı ortadan kaldırdı. Bunu yaparak, AI sorununu tamamen test edilebilir hale getirdi. Tez, kendi önceki standartlarına göre bile radikaldi, ancak bunun için onu kıskanmayacağız çünkü AI araştırmacılarının on yılın sonlarında ilerlemeyi engelleyen felsefi endişeler olmadan çalışmaya başlaması için zemin hazırladı.

Ne yazık ki, hesaplamalı çıkarımın tam olarak nasıl insan çıkarımına benzeyebileceği ya da olacağı hiçbir zaman yeterince ele ­alınmadı. Alan, daha sonraki gelişmeler için bir plan (veya bir imkansızlık kanıtı) sağlayacak olan bir çıkarım teorisi ile başlamadı. AI araştırmacıları için bir çıkarım teorisinden yoksun olmak, nükleer mühendislerin önce fisyon reaksiyonlarının ayrıntılarını çözmeden nükleer bomba üzerinde çalışmaya başlaması gibidir. Açıkça, Einstein'ın denklemi bilgisi yeterli değildir. Ve yapay zeka meraklılarının hesaplama teorisi bilgisi de öyle değil - çünkü ­yapay zeka üzerinde çalışan bilim adamlarının karşılaştığı soru, hesaplamanın zihinler tarafından sergilenen uygun çıkarım aralığına ve türlerine nasıl dönüştürülebileceğidir. Sorunun doğrudan sorulması gerekiyordu. Alan, onu görmezden gelerek veya etrafından dolaşarak, boş umutları, çıkmaz yolları ve boşa harcanan zamanı kaçınılmaz hale getirdi.

Çünkü düşünülmesi gereken çok şey var. Örneğin, ­bilim tarihinde bulunan birçok çıkarımı ele alalım. Bilim adamları hipotezler kurar, sonra onları test eder. Ancak hipotezlere mekanik olarak ulaşılmaz; herkesin bildiği gibi, bazen bilim adamlarının aklına gelirler (tipik olarak bu alanda ustalaştıktan sonra). Turing'in bir zamanlar yaptığı gibi, bilimsel keşif öğrencileri, ­bu tür entelektüel sıçramaları bilimsel pratiğin formalitelerinin dışına itme eğilimindedir ve bu nedenle, zekanın merkezi eylemi "bedavaya gider", kendisi analiz edilmemiştir. Ancak bu tür hipotezler , tüm bilimin merkezinde yer alan ve çoğu zaman veriye veya kanıta ya da bariz veya programlanabilir herhangi bir şeye işaret ederek açıklanamayan gerçek zihin eylemleridir . 7

Kopernik, dünyanın güneşin etrafında döndüğünü ve bunun tersinin olmadığını öne sürerken ­, daha eski olan Ptolemaios modeliyle çalışan astronomların yüzyıllar boyunca biriktirdiği dağlarca kanıt ve veriyi görmezden geldi. Her şeyi merkezde güneş olacak şekilde yeniden çizdi ve kullanılabilir bir güneş merkezli model geliştirdi. Daha da önemlisi, ilk Kopernik modeli, ­doğru olmasına rağmen aslında daha az tahmin ediciydi. Başlangıçta, tamamlandığı takdirde , Ptolemaik modelin başına bela olan gezegenlerin geri hareketi gibi giderek karmaşıklaşan açıklamaların yerini alacak zarif açıklamalar sunabilecek bir çerçeveydi . Copernicus , ancak önce tüm verileri göz ardı ederek veya yeniden kavramsallaştırarak ­yer merkezli modeli reddedebilir ve güneş sistemine radikal yeni bir yapı çıkarabilirdi. (Ve bunun bir soruyu gündeme getirdiğine dikkat edin: "Büyük veri" nasıl yardımcı olabilirdi ? Verilerin tümü yanlış modele uyuyordu.)

Bilimsel Devrim'i başlatan Kopernik atılımı, esinle yapılmış bir tahmin olarak daha iyi tanımlanabilir. Aynı şey Kepler'in gezegen hareketini tanımlamak için bir elips seçimi için de söylenebilir, çünkü çok sayıda (teknik olarak sonsuz) geometrik şekil gezegen yörüngelerine sığdırılabilir (belki sinüs dalgaları gibi transandantal olanlar hariç). Elips diğerlerinden daha basit değildi - bu bir Occam'ın ustura açıklaması değildi. Kepler'in kelimenin tam anlamıyla tahmin ettiği şey, ona "doğru gelen" bir açıklamaydı.

mekanik bilim açıklamalarıma uymuyor ; ­aksine, onlarla çelişir. Ancak dedektiflik, bilimsel keşif, yenilik ve sağduyu , hepsi zihnin işleyişidir; bunların hepsi, genel olarak akıllı makineler arayan yapay zeka bilim adamlarının bir şekilde hesaba katması gereken çıkarımlardır.

Gördüğünüz gibi, bilişsel modelleme -düşünmek, çıkarım yapmak için bir bilgisayar inşa etmek- kafa karıştırıcı. Yapay zeka araştırmacıları (en azından şimdilik) en çok günlük bağlamındaki çıkarımla ilgilenmeli. Neden? Çünkü yaptığımız çıkarımların büyük çoğunluğu görünüşte sıradan.

PEIRCE'İN BULMACASI (VE PEIRCE'NİN BULMACASI) 105 sıradan konuşmalar sırasında yapılan çeşitli sıçrayışlar ve tahminler. Ne yazık ki yapay zeka araştırmacıları için sıradan ­çıkarımları bile programlamak kolay değil. Örneğin, Turing testi esasen zordur çünkü doğal dili anlamak , ne mantıksal olarak kesin ne de (çoğunlukla) yüksek olasılıklı olan birçok ortak anlam çıkarımı gerektirir. Başka bir deyişle, birçok kaçırmayı gerektirir.

Genellikle bu tür çıkarımları fark etmeyiz bile, ki bu iyidir: Eğer onları fark etmiş olsaydık, düşüncelerimizi kovalayan tekbenci döngülere saplanıp kalma eğiliminde olurduk. Bu bizi Peirce'e geri getiriyor ve daha spesifik ­olarak, zekayı destekleyen üçlü çıkarım çerçevesine getiriyor: tümdengelim, tümevarım ve kaçırma.

KESİNTİ İLE İLGİLİ SORUNLAR

VE İNDÜKSİYON

Entelektüel tarihin çoğu boyunca çıkarım, ­tümdengelim ile eşanlamlı olmuştur. Aristoteles tasım olarak bilinen basit bir tümdengelim biçimini inceledi - zaten doğru olduğu bilinen veya buna inanılan iki ifade , üçüncüsüne, yani sonuca götürür. Aristoteles, kendisi ve başkaları tarafından öne sürülen argümanları analiz etmek ve doğru muhakeme için bir temel oluşturmak amacıyla tasımları kullanan erken bir mantık biçimi geliştirdi ­. Onun geleneğinde zeka, bilinen tümdengelim kurallarına uymak zorundadır ­.

Bu mantıklı. Örneğin, Ray Charles'ın Tanrı olduğunu çünkü Tanrı sevgidir ve Aşk kördür (ve Ray Charles da öyledir) diyen biri tarafından etkilenmemeliyiz. Argüman yanıltıcıdır - tümdengelimli akıl yürütme kurallarını çiğner. Tüm bunları kesin olarak yazmak ­, tümdengelim mantığının geleneği olmuştur. Aristoteles ayrıca, tümdengelim kurallarının sözde pratik akıl yürütme ile nasıl ilişkili olduğunu da keşfetti - örneğin, zeki bir aracı, adımları ­mantıksal olarak analiz edilebilecek bir hedefe ulaşmak için bir plan formüle ettiğinde. (Plan kanıtlanabilir şekilde "doğru" olabilir, ancak uygulamada başarısız olabilir - yine de bu bir başlangıçtır).

Mantıksal (doğru) akıl yürütme ve planlama, yapay zekanın önemli alt alanlarıdır ve neredeyse başlangıcından bu yana klasik yapay zeka, ­tümdengelim gibi sembolik mantığı kullanarak akıl yürütme ve planlama yaklaşımlarını araştırmıştır. Bir yapay zeka sistemi, örneğin bir tasım ve ayrıca bir planlama algoritması uygulayabilir (şu biçimdeki kurallar: { A, B, C,.. .} ^ G, burada A , B ve C yapılacak eylemlerdir ve G istenilen hedeftir). Bu tür yöntemler kullanılarak yapay genel zekaya yönelik büyük atılımlar olmadı, ancak Stuart Russell gibi modern yapay zeka bilim adamları bile sembolik mantığın herhangi bir nihai yapay genel zeka sisteminin önemli bir bileşeni olacağı konusunda ısrar etmeye devam ediyor - çünkü zeka, diğer şeylerin yanı sıra, muhakeme ve planlama.

Aristo böylece binlerce yıl önce resmi çıkarım çalışmalarını başlattı. Birkaç on yıl önce, yapay zeka üzerine çalışmaların başlamasına da yardımcı oldu. Tümdengelim ­kurallarını kullanan sembolik muhakeme, zekayı ­özellikle, yapay zeka sistemlerinde neredeyse tamamen eksik olan sağduyu için bir ön koşul olan bilgiye bağlar. Erken yapay zeka öncüsü John McCarthy (1956'da Dartmouth Konferansı'nda bu alanın kurucularından biri) , bilgi tabanlı sistemlerin (dünya hakkında bilgisayarla temsil edilebilir ifadelere dayanan sistemler ) geliştirilmesi için sürekli bir çaba başlatarak bunu erkenden fark etti. ­akıl yürütmek ve hareket etmek. Bilgiye dayalı eski sistemlerin tümü, öğretici olsa da, yenen sorunlarla karşılaştı. Bu sorunlardan bazıları , belki de ilerleme umuduyla yeniden ele alınabilir. Ancak diğerleri temel görünüyor. Özellikle, kurala dayalı akıl yürütmenin doğasında var olan sınırlamalardır. Tümdengelim mantığı kesindir çünkü bize kesinlik verir. Tahmin edebileceğimiz gibi, yapay genel zeka ­sistemlerinin (ve insanların) zekalarını kanıtlamak zorunda olduğu gerçek dünya için kesinlik yüksek bir çıtadır.

SONUÇ: NASIL ASLA YANLIŞ OLMAYACAKSINIZ

Mantıkçılar (ve bilgisayar bilimcileri), doğru veya yanlış olabilen ifade sistemlerinde tümdengelimli çıkarımı analiz ederler. Geleneksel olarak, bir dizide sondan önce yazılan tüm ifadelere öncüller denir. Son ifade öncüllerden gelir; buna sonuç denir. İfadeler ve sonuç birlikte bir argüman olarak bilinir.

İyi bir tümdengelimli argüman “kesin bahistir” çünkü sonucu zorunlu olarak doğrudur. Işte bir tane:

Yağmur yağıyorsa sokaklar ıslaktır.

Aslında yağmur yağıyor.

Bu nedenle sokaklar ıslak.

Sonuç, iki öncülden çıkarmamız gereken çıkarımdır. (Aslında şu soruyu yanıtlar: Başka hiçbir şey bilmeden öncüllerden ne çıkar?) Sonucu çıkarmak için kullanılan kural ­, öncüller doğru olduğunda sonucun da doğru olması gerekiyorsa geçerli olarak adlandırılır. Geçerlilik, kullanılan kuralın “güvenilir” damgasıdır ; öncüllerimiz (veya önceki inançlarımız) doğru olduğunda, kural her zaman gerçeği koruyacaktır . ­Dolayısıyla yukarıdaki örnek geçerlidir. Keşfedilmiş en eski tümdengelim kurallarından birini kullanır ve Latince'de hala atıfta bulunulur: modus ponens . Yarı sembolik formda:

P ise Q _

P

Bu nedenle Q

Ve tamamen analiz edilebilir (hesaplanabilir) biçimde, mantıksal biçimine sahibiz:

P ^ S

P

Q

^ " bağlacı , P ve Q için doğruluk değerlerini belirleyen belirli bir anlama veya semante sahiptir . Tümdengelim mantığında kural, maddi koşullu olarak adlandırılır ve Q'nun P'nin gerçeğinden ve P ^ Q kuralından çıktığını garanti eder . (Doğru veya yanlış ­olasılıkların aralığı, daha sonra gösterilecek olan bir doğruluk tablosu tarafından verilmektedir.)

Şimdi yağmur ve sokaklar hakkındaki tartışmamızda bazı değişiklikler yapalım. Özellikle, ya yağmur yağmıyorsa? Bu durumda kural "işlemez". Hiçbir şey takip etmez. Ancak argüman formu hala geçerlidir. Yağmur yağıyorsa sokakların ıslak olduğu hala doğru. Aslında yağmur yağıyorsa , argüman "sağlam" olur (ve sadece geçerli değildir). Sağlamlık gerçektir - geçerliliğin koşullu gerçeğinin aksine gerçek gerçek. Sağlamlık bize öncüllerin gerçekten "doğru" olduğunu söyler. Sağlamlık ­, tümdengelimli çıkarım kullanan akıllı aracıların önceki gerçeklerden gerçekleri çıkaracağını garanti eder . Öte yandan geçerlilik, yalnızca akıllı fail neye inanırsa inansın, çıkarımlarının biçimsel olarak doğru olacağını garanti eder (yalanlar veya yanlışlar hakkında akıl yürütme olsa bile). Aslında, geçerli olan ancak sağlam olmayan tümdengelimli argümanlar, tümdengelimli akıl yürütmeye her türlü aptallığı getirebilir. Örneğin:

Yağmur yağarsa domuzlar uçar.

Yağmur yağıyor.

Bu nedenle domuzlar uçacak.

Aptalca bir argüman ama tamamen geçerli, çünkü yine varsayımsal bir önermeden akıl yürütme kipi olan modus ponens'i kullanıyor. İlk öncül elbette yanlıştır. Aslında yağmur yağmıyorsa, ikinci öncül de yanlış olabilir. Ancak yağmur yağıyor olsa bile ilk önermeye güvenemeyiz çünkü yağmur ile domuzların uçuşu arasında hiçbir bağlantı yoktur ve zaten domuzlar hava durumu veya başka herhangi bir şey ne olursa olsun uçmazlar. ­Argüman geçerli, ancak sağlam değil ve tamamen yararsız.

İşte sağlam bir çıkarım:

Bütün erkekler ölümlüdür.

Sokrates bir erkektir.

Bu nedenle Sokrates ölümlüdür.

Nasıl yanlış olabilir? olamaz. Sonuç her zaman yüzde yüz kesinlikle takip eder. Kesinti, insanlar ve makineler için "mükemmel" ve kesin düşünme için bir şablon sağlar ve ­öncelikle bu nedenle matematik ­ve bilimlerde kapsamlı bir şekilde araştırılmış ve yapay zeka alanındaki birçok önemli uygulamada başarıyla kullanılmıştır. Örneğin erken dönemlerde, tümdengelim tabanlı yapay zeka sistemleri matematikteki gerçek ("oyuncak" değil) teoremleri otomatik olarak kanıtlayabildi . AI öncüleri Alan Newell, Herb Simon ve Cliff Shaw'un buluşu olan Logic Theo ­rist adlı bir bilgisayar programı, 1956 gibi erken bir tarihte , Bertrand Russell ve Alfred North Whitehead'in Mantık üzerine temel yirminci yüzyıl çalışmasını kullanarak ilginç mantıksal teoremler kanıtladı. Matematik. Tümdengelim kullanan otomatik muhakeme sistemleri, bilgisayar anakartları için devre tasarımına ve yazılımın ­hatalar veya çelişkiler içermediğinden emin olmak için yazılım ve donanım doğrulama görevine de uygulanmıştır . 1 Bu gibi durumlarda, tümdengelim yaklaşımı, istatistik ve öğrenmeyi kullanan modern yapay zeka yöntemlerinden daha kolay ve etkilidir. Yapay zeka alanındaki ilk araştırmacıların da bildiği gibi, bilgimiz genellikle sembolik olarak ifade edilir (yukarıdaki yağmur örneğinde olduğu gibi), bu nedenle ­çıkarım mantıklıdır; bu bariz bir seçim. Ne yazık ki, tümdengelimli çıkarımı genel zekaya genişletmede iyi bilinen sorunlar var.

BİLGİ SORUNLARI

Yıllar geçtikçe, kesintiyle ilgili birçok sorun keşfedildi. Belki de en lanetleyici: tümdengelim asla bilgi eklemez. İnsanların ölümlü olduğunu (ölürler) ve falancanın insan olduğunu biliyorsam, falancanın öleceğini zaten biliyorum. Tümdengelim, rasyonel bir kişinin verilen öncüllerden ne sonuç çıkarması gerektiğini doğrular; basit bir kıyasta bunu görmek kolaydır, çünkü “bilgi” zaten ifadelerde yer almaktadır. Sonuç sadece açık hale getirir.

Tümdengelim, bir dizi ifadeden çılgınca veya yanlış sonuçlar çıkaran birine karşı bir savunma olarak olağanüstü yararlıdır - örneğin, insan ölümlülüğü ve Sokrates'in bir insan olduğu varsayımına dayanarak Alpha Centauri'nin peynirden yapıldığı sonucuna varmamız gerektiğinde ısrar ederek. Tümdengelim, rasyonel aracılara "yolda kalmak" için bir şablon verir; bu, akıllı çıkarımlar yapacağını umduğumuz herhangi bir yapay zeka sistemi için açıkça iyi bir ilk adımdır. Ancak yalnızca tümdengelim kullanarak çok uzağa gidemeyiz. Örneğin , Kopernik'in dünyanın güneşin etrafında döndüğü ve bunun tersinin olmadığı teorisine yanıt olarak , eski tarz Ptolemaik astronomlar tümdengelimli bir karşı saldırı kullanabilirler:

Gökler Allah tarafından yaratılmış olsaydı, Yer göklerin merkezinde olurdu.

Gökler Allah tarafından yaratılmıştır.

Bu nedenle, Dünya göklerin merkezindedir.

Argüman geçerlidir, ancak yine, bu bize yalnızca ­öncüller gerçekten doğruysa, o zaman sonucun zorunlu olarak takip ettiğini söyler. Tüm ağır yük, öncüllerin doğruluğuna ilişkin ampirik sorulardadır. Bunu, tabiri caizse, Sokrates'in ölümlülüğüne ilişkin araştırmamızla "bedavaya" aldık, çünkü genel olarak hepimiz insanların (daha sonra cennete gitseler bile) öldüğü konusunda hemfikiriz. Ancak, bir tanrı tarafından yaratılan herhangi bir göğün merkezinde bizim gezegenimizin yer alacağı genellemesi, herhangi ­bir diğer estetik ya da kutsal metin iddiası kadar tartışmalı görünüyor. Kutsal yazıların farklı bir yorumunda ısrar edebiliriz (Galileo ünlü bir şekilde Tanrı'nın bize cennete nasıl gideceğimizi söylediğini, göklerin nasıl gittiğini değil) söylediğini belirtebilir. Veya, özellikle ateist veya bilimsel materyalist olsaydık, ikinci öncülün doğruluğunu hemen reddedebilirdik.

Bu nedenle tümdengelim, yeni bilgi arayışında işe yaramaz ve yalnızca akıl yürütmede iyi niyetli hatalar yapılırsa tartışmalı inançları açıklığa kavuşturur. Ünlü olarak, komplo teorisyenleri asla tümdengelimli akıl yürütme hataları ­yapmayabilirler - sadece diğerlerinin şüpheli veya çılgınca bulduğu öncülleri doğru kabul ederler.

Başka bir deyişle, herhangi bir akıllı sistem, her şeyden önce doğru (ve faydalı) inançları sıfırlamak için başka türde çıkarımlar gerektirecektir. Çıkarılan sonuçlarda tümdengelimli bir kesinlik yeterli değildir.

İLGİLİ SORUNLAR

Tümdengelim, onu genel zeka mühendisliği için bir strateji olarak uygunsuz kılan başka sınırlamalara sahiptir. Bunlardan biri ­, alaka düzeyiyle ilgili değerlendirmeleri içerir. Yağmur yağarsa domuzlar uçar önermesi doğru değildir, çünkü domuzlar uçmaz, ama aynı zamanda ­konuyla ilgili bir şey söylemenin fevkalade kötü bir örneğidir. Domuzların uçmasıyla yağmurun alakası yok. Öte yandan, uçaklar uçar ama yağmur yağıyorsa uçaklar uçar önermesinin de bir önemi yoktur. Bu doğru olabilir (en azından bazen), ama yağmur yağdığı gerçeğinden yola çıkarak, havadaki uçaklar hakkında inançlara sahip olmamalıyız. Açıklama yine ilgili hususları göz ardı ediyor.

Buradaki sorunun bir kısmı nedenselliktir: yağmur uçakların uçmasına neden olmaz (gerçi bazı durumlarda uçakları yerde tutabilir). Burada bilgiyi nasıl kullanmak istediğimize bağlı. Termometre kırmızı renkteyse ­, dışarısı sıcaktır , doğrudur. Ancak, bir sıcak hava dalgası için olası bir açıklama çıkarmak istiyorsak, termometrenin herhangi bir yardımı olmaz. Açıklama doğru ama alakasız. Horoz ötüyorsa, güneş doğuyor da doğrudur, ancak yapay bir genel zeka sistemine güneşin neden doğduğunu ve horozu gösterdiğini sorsak ­, ona çok fazla zeka atfetmekte isteksiz oluruz.

Bilim filozofu Wesley Salmon'dan alınan şu örneği ele alalım:

Düzenli olarak doğum kontrol hapı alan tüm erkekler hamile kalmaz.

Bir adam karısının doğum kontrol haplarını düzenli olarak alıyor.

Bu nedenle erkek hamile kalmaz. 2

Aslında, bu tamamen mantıklı bir tümdengelimsel argümandır: doğru öncüllerle modus ponens'i kullanır . Ancak erkeğin gebelikten kaçınmasının belirtilen nedenlerle bir ilgisi yoktur. İlgisizler, çünkü erkekler zaten hamile kalmıyor. Argüman hiçbir şeyi açıklamaz. Geniş bir gerçekler ve kurallar veritabanıyla donanmış bir robotun ­tümdengelim kullanarak bu şekilde akıl yürüttüğünü hayal edebiliriz. Kendi başına hiçbir şey gerçekten yanlış değil ama robot hiçbir şey anlamıyor; neyin alakalı neyin saçma olduğunu bilmiyor.

Daha ince bir örnek düşünün:

Bir ons arsenik yiyen herkes yirmi dört saat içinde ölür.

t zamanında bir ons arsenik yedi .

Jones yirmi dört saat içinde öldü .

Bu tamamen iyi bir tümdengelimsel argümandır, ancak örneğin, Jones ­t zamanında arsenik yerse ve zehirlenmeden ölmeden önce bir trafik kazasında (belki de hastaneye koşarak) ölürse, Jones'un ölümünü açıklayamaz. Burada yine, argüman iyi bir çıkarımdır ­, ancak konu dışıdır. Bize hiçbir şey söylemiyor . Hatta yanıltıcıdır. Başka bir deyişle alaka düzeyi, genellikle bir olayın gerçekten bir sonuca yol açtığı veya bir şeyin gerçekleşmesini sağladığı nedensellik bilgisini varsayar.

sorunlarına kurban gitmesinin bir başka nedeni de ­, günlük deneyimimizde (ve bilimde) bir şeyin meydana gelmesinin değişmez biçimde pek çok olası nedeninin olmasıdır. ­Örneğin uçak kazaları gibi kazalar, felaketi birlikte açıklayan yakın (yakın) ve uzak (uzak) nedenlere işaret edilerek analiz edilebilir. Son Boeing trajedilerini ele alalım. 2018'de altı ay içinde Boeing 737 Max uçaklarında meydana gelen iki kazadan sonra, müfettişler, bir anti-stall sisteminde, Manevra Karakteristiklerini ­Artırma Sisteminde (MCAT) bir yazılım hatası keşfettiler. Eski Boeing 737-800'ün yeniden tasarımı, daha büyük motorların takılmasını sağladı, ancak bunları yalnızca ­kanatların yanına ve biraz yukarısına yerleştirerek. Bu, belirli koşullar altında bir stall'a neden olabilen, kalkışta daha dik tırmanma oranlarıyla sonuçlandı . Stop etme kötüdür - potansiyel olarak felakettir - bu nedenle MCAT, bir stall'ı önlemek için gerektiğinde burnu aşağı itmek üzere yeni Max'e takıldı. Ne yazık ki, Max'in burun aşağı düzeltmesi uçağı yere doğru fırlatabilir. MCAT, ­Endonezya'da 157 ve Etiyopya'da 189 kişinin ölümüyle sonuçlanan iki trajedide kontrolü pilotların elinden alarak tam da bunu yaptı.

, MCAT'ı kontrol eden yazılımdaki kusurları ortaya çıkardı , böylece yakın bir neden ­belirlendi. Ancak ardından gelen soruşturma, Boeing'in Max'i rakip Airbus tarafından sunulan yakıt tasarruflu uçaklarla rekabet etmek için hizmete sokma konusundaki hevesini de vurguladı - bir arka plana veya belki de uzak bir nedene işaret ediyor. Yeni Max'in pilotlarının yetersiz eğitim aldığı da ortaya çıktı . ­Bu, Boeing'in yeniden tasarlanmış uçağı için Max'in halihazırda 737-800'de eğitilmiş pilotların pahalı bir şekilde yeniden eğitilmesini gerektirmeyeceğini iddia eden pazarlama konuşması tarafından kesinlikle yardımcı olmadı. Bu nedenle, trajik kazalar birden çok nedene bağlanabilir. Boeing'in 737 Max uçağının neden düştüğünü anlamak, bir dizi olası nedeni göz önünde bulundurmayı gerektirir ve belki de ­hiçbir neden tek başına felaketleri tam olarak açıklamaz.

Tümdengelim bu gerçek dünya senaryolarıyla konuşamaz. Çıkarımların kesinlikle doğru olması gerektiğini zorunlu kılan tümdengelim, alaka düzeyinin gerekli olmayan ancak belirli durumlarda hala geçerli olan faktörlerin bir karışımı tarafından belirlendiği bağlamlarda doğru olabilecek şeyi her zaman gözden kaçırır. Platon'un değişmeyen formlar evreninde, üçgenlerin üç kenarı olmalıdır ve bazı şeyler büyük T ile True'dur. Dağınık deneyimde, tanık olduğumuz veya analiz ettiğimiz çok az şey üçgen gibidir. Boeing 737 Max gibiler ya da sıradan bir konuşma (göreceğimiz gibi). İstihbarat - her ne ise - tümdengelimlerden daha fazlasıdır. Biz kendimiz bilişsel sistemleriz ­ve sadece tümdengelimli sistemler olmadığımız açık. Bu, başarılı insan düzeyinde yapay zekanın da tamamen tümdengelimli olamayacağını gösteriyor.

ve eleştirmenlerin "eski moda yapay zeka" olarak adlandırdığı şeyin başarısızlığından sonra ­, yapay zeka bilim adamları çıkarıma yönelik tümdengelimli yaklaşımları topluca terk ettiler. Gerçekten de birçok genç okuyucu , AI'ya yönelik "kurallar" ve tümdengelimli yaklaşımlar gibi şeylerin alandaki uygulayıcılar tarafından ciddiye alınmasını garip bulabilir . Onlar. Ancak ­tümdengelimli çıkarsamanın yıkıcı sınırlamaları, sonunda yaklaşımın sonunu getirdi. Ve web patladığında, sözde sığ veya istatistiksel yöntemler için mevcut olan veri hacimleri, tümdengelimli veya kural ­tabanlı sistemleri daha az kullanışlı ve hantal hale getirdi. Yapay zeka üzerine ciddi çalışmalarda yeni bir paradigma -farklı bir çıkarım türü- ön plana çıktı. Buna tümevarım denir ve şimdi ona döneceğiz.

İNdüksiyonun GÜCÜ VE SINIRLARI

Tümevarım, deneyimden bilgi edinme anlamına gelir. Deneyim, beş duyumuzun herhangi birinden gelebilmesine rağmen, tipik olarak gözlemler - şeyleri görmek - olarak yorumlanır. (Sıcak bir sobaya dokunmak, dokunsal tümevarıma bir örnektir.) Tümevarımın genel biçimi, tümdengelimden farklı olarak, özel gözlemlerden genel varsayımlara ­doğrudur. Uyarılmış hipotez bir gözlemi kapsar, yani açıklar. Tümevarımın birincil mekanizması numaralandırmadır: Bir kuş popülasyonunun (meşhur bir örneği kullanmak gerekirse) özelliklerini önceden pek çok kuş örneğini gözlemlemeden türetmek zordur. Numaralandırmanın merkeziliği, tümevarımın tüm versiyonlarında merkezi bir rol oynar ve doğasını ve sınırlamalarını anlamak için önemli olacaktır.

Tümevarımın güçlü olmasının nedeni, yalnızca hipotezler yoluyla nesneler dünyasını kategoriler halinde düzenlemeye yardımcı olması değildir ( X'in tüm bu nesnelerinin Y özelliği vardır ); aynı zamanda onu kullanan aracılara öngörü gücü verir. 3. Eğer birinci ligdeki bir beyzbol maçı her bittiğinde şehir merkezindeki sokaklar insanlarla dolup taşarsa, bir sonraki maç bittiğinde tekrar olacakları sonucunu çıkarabilirim - bu bir tahmindir. Tümevarım ­, dünyadaki olayları gözlemleyerek açıklama ve tahmin etme yeteneği kazandığımız şeklindeki günlük fikri yakalar. Beklentilerimizin çoğu tümevarıma dayalıdır. Birisi ön kapınızdaki kapı tokmağını on santimetre sola hareket ettirirse, ona ulaştığınızda muhtemelen tokmağı kaçırırsınız. Kapı tokmağının nerede olduğuna dair, onu görme ve tutmayla ilgili daha önceki birçok örneğe dayanan üstü kapalı bir teoriniz , yani bir hipoteziniz var.

Tümevarımın başka erdemleri vardır. Birincisi, Kant'ın deyimini ödünç alırsak, sentetiktir; bilgi katıyor. Third ve Main'in köşesinde trafiğin en yoğun olduğu zamanı internette arayabilirdim ama Third ve Main'de çalışıyorsam pencereden dışarı bakabilirim. İkincisi, ne zaman ayrılmam gerektiğine dair beklentiler ve planlar oluşturarak tümevarımsal çıkarımlarımı kolaylaştıran ilk elden gözlemdir . ­Ne yazık ki, tümevarımın (duyularımıza bağlı) güçlü esnekliği, tümdengelim ­gibi kanıtlanamayacağı veya doğruluğu garanti edilemeyeceği anlamına da gelir. Gözlemlerden elde edilen bilgi her zaman geçicidir. Neden? Çünkü dünya değişiyor. Gelecek, tümevarımsal varsayımlarımı yanlışlayabilir. Arabam bin kere aksamadan çalışmış olabilir. Yarın sabah (bir toplantıya geç kaldığımda -Murphy Kanunu), olmayabilir. Bu indüksiyon ­. Değişim gelir (ya da ne yazık ki gelmez) ve önceden gözlem tek başına bize nasıl ve ne zaman olduğunu söyleyemez.

Tümevarımın gücü, zekanın önemli ölçüde çevremizdeki dünyaya bakmaya bağlı olduğu gerçeğinde yatmaktadır. Modern bilim, deneyim yoluyla bilgi edinmenin bir yolu olarak tümevarıma bağlılık olmaksızın imkansız olurdu.

Numaralandırmayı tekrar düşünün. En basit haliyle, tümevarım, ­genel bir sonuca veya kurala (veya yasaya) varmak için yalnızca önceki gözlemlerin sıralanmasını gerektirir. İşte bir argüman:

N kuğu beyazdı [burada N büyük bir sayıdır].

Bu nedenle, tüm kuğular beyazdır.

Veya:

Gördüğümüz tüm yaşam karbon bazlıydı.

Bu nedenle, tüm yaşam karbon temellidir.

Bu örneklerin önerdiği gibi, bir şeyin özelliklerinin veya özelliklerinin basit bir şekilde sıralanması (yani sayılması), genellikle bir tür olarak o şey hakkında bilgi sahibi olduğumuz iddialarımızın temelini oluşturur. Bu nedenle, kuğular sadece beyaz olan kuşlardır; hayat sadece karbondan kaynaklanan bir olgudur. Bilimde (ve hayatta), kuğuların neden beyaz olabileceği veya yaşamın karbon temelli olabileceği hakkında bir hikaye anlatmayı da yararlı buluyoruz, ancak tam anlamıyla, bu tür soruların neden tümevarımın, sayımsal veya başka türlü kapsamı dışında olduğunu yanıtlayan açıklamalar. .

Yine de, ona bir tür çıkarım olarak böyle bir fayda sağlayan, tümevarımın basitliğidir. Bir nesnede bazı özellikleri ne kadar çok gözlemlersem, özelliğin nesnenin ayrılmaz bir parçası olduğuna dair güvenim o kadar artar. Bir torbadan topları örneklemeye devam edersem ve onlar her zaman beyazsa, bir noktada Bu torbadaki tüm toplar beyazdır gibi bir genellemeden emin olacağım . Ama yine de, her bir topu örneklemediysem, ­tümevarımsal çıkarımın yanlış olması her zaman mümkündür. Tümevarım yararlıdır ancak kesin bilgi değildir.

İşte başka bir endüktif genelleme türü:

Nüfusun bir örneğinin oranı Q , P özelliğine sahiptir .

Bu nedenle, popülasyonun Q oranı, P özelliğine sahiptir .

Bilimsel araştırmalarda örneklemden popülasyona tümevarım oldukça yaygındır ve ­mevcut gözlemsel kanıtlar göz önüne alındığında bu genellemeleri olabildiğince güçlü ve hatasız hale getirmeye yardımcı olmak için yıllar içinde gelişmiş istatistiksel teknikler geliştirilmiştir. Tümevarımsal genellemeler sezgisel olarak da anlamlıdır: Bir örnekte 75 beyaz top ve 25 siyah top gözlemlersem, o zaman, başka kanıt olmadığında , ­1.000 kişilik popülasyonda 750 beyaz top beklemeliyim. Çıkarım doğru görünüyor; kesin değil.

Rastgele örnekleme aynı zamanda gözlemlerden elde edilen bir genellemeyi de temel alır ­. Kendiniz deneyin: Yazı tura atın ve gelen turaları ve yazıları sayın . Bu rastgele bir örneklemedir (çünkü adil bir yazı tura ise yazı tura atamazsınız). Arka arkaya iki veya üç kafa çevirebilirsin. Hiç ihtimal dışı bir şekilde, beş tura veya yazı bile çevirebilirsiniz. Ancak yeterince büyük bir örnek verildiğinde, bir madeni paranın yazı veya tura gelme ihtimalinin yüzde elli olduğunu genelleyebilirsiniz. Bu nedenle, tümevarımsal genelleme şöyledir : Madeni para, binde beş yüz tura gelir, bu da sizi yeterince yakınlaştırır. (Büyük sayılar yasası bize, yeterince büyük bir örnek verildiğinde, olasılığın gerçek olasılığa yaklaşacağını söyler: bir milyon yazı tura atıldığında, elli elli bölme oldukça yakın olacaktır). İşte tümevarımı kullanarak istatistiksel genelleştirmenin başka bir popüler örneği:­

Rastgele seçilen seçmenlerin yüzde yetmiş üçü X Adayından yana .

Bu nedenle Aday X , oyların yaklaşık yüzde yetmiş üçünü alacaktır.

Aday X , seçimden önce bir skandala karışarak ­tümevarımsal çıkarımı geçersiz kılabilir. Ama yine de, daha fazla bilgi olmadan, bu şekilde akıl yürütebilir ve olmasını beklediğimiz şey hakkında sonuçlar çıkarabiliriz.

Modern yapay zeka, istatistiksel analize dayalıdır ve bu nedenle ­birçok ticari uygulama için yararlı olan endüktif bir çerçeveye dayanır. Örneğin yapay zeka, geçmiş gözlemlere dayalı bir tahmin türü olan öneriler sunabilir. ­İçerik akışına sahip herkesin aşina olduğu başka bir örneği burada bulabilirsiniz:

X'in okuduğu haberlerin yüzde yetmiş beşi, C web sitesindeki muhafazakar siyasi yorumlardır .

Bu nedenle, X Kullanıcısı C ile ilgili bir sonraki haberi isteyecektir .

Kullanıcı X , New Republic'ten ara sıra çıkan makaleleri de okumak isteyebilir . Ne yazık ki, tümevarım kullanarak X'in tercihlerini çıkaran sistem muhtemelen bunu filtreleyecektir. Bu, gözlemden elde edilen tümevarımsal genellemelere güvenmenin açık bir dezavantajıdır - ­bunlar ­daha derin bilginin yerine geçer (ve daha da kötüsü, geleceğin geçmiş gibi görünmesini beklemeye eğilimlidirler).

Tümevarımın sınırlarına ilk kez işaret eden on sekizinci yüzyıl filozofu David Hume, filozoflara ve bilim adamlarına şimdi tümevarım sorunu olarak bilinen sorunu verdi. Hume'un belirttiği gibi, tümevarıma güvenmek, "hiç deneyimlemediğimiz örneklerin, deneyimlediklerimize benzediğine" inanmamızı gerektirir. Başka bir deyişle, uyguladığımız genel tümevarım kuralı, görünmeyen örneklerin genişletilmesini gerektirir ve tutacağının garantisi yoktur. Tümdengelimden farklı olarak, tümevarımın yapısında bize mantıksal kesinlik sağlayan hiçbir şey yoktur. Sadece dünyanın belirli ­özellikleri olduğu ortaya çıkıyor ve dünyayı inceleyebilir ve ­onun hakkında sahip olduğumuz (düşündüğümüz) bilgileri ortaya çıkarabiliriz. 4

Tümevarım sorunu, filozofların ilgilenmeyi sevdikleri bir koltuk endişesi gibi görünebilir, ancak aslında tümevarımsal çıkarımın sınırları, bilim adamlarının ­doğru teori arayışlarında ­sürekli sorunlar yaratır. Örnekler her yerde. Beslenme bilimi bizi yumurta sarısında bulunan doymuş yağların zararlarına karşı uyardığı için yumurta akı yerdik. Birkaç on yıl ileri sarılın ve beslenme bilim adamlarının artık bizi yumurtaları, yumurta sarısını ve hepsini yemeye teşvik ettiğini keşfedin. Yağ yakmaya ve ruh halinizi yükseltmeye yardımcı olurlar; hatta kalp rahatsızlıklarına karşı koruma sağlarlar (birkaç on yıl önce onlar için endişeleniyorlardı). Gerçek anlamda, bu utanç verici ters yüzler için tümevarımı suçlayabiliriz. Olurlar çünkü gözlemlerimiz ve testlerimiz asla tamamlanmaz. Korelasyonlar, güvenebileceğimiz altta yatan bir neden önerebilir (biraz gerçek bilgi ­), ancak neyin neyi etkilediğini test ederken ve gözlemlerken bir şeyi gözden kaçırmış olabiliriz. Korelasyon saf veya tesadüfi ­olabilir . Yanlış şeyi arıyor olabilirdik. Örnek

boyut, ancak daha sonra ortaya çıkacak nedenlerden dolayı çok küçük veya temsili olmayabilir ­. Bu yaygın bir problem ve kökünde sadece tümevarımın hayaleti ve onun sınırları - ne de olsa filozoflar zamanımızı boşa harcamıyorlardı.

Kökte, tüm tümevarım numaralandırmaya dayalıdır. Bu şüpheli bir şekilde basit görünebilir (veya görünmelidir): Dünya hakkında teoriler bulmak için sadece örnekleri sayabilmemiz mümkün mü? Önemli bir ­anlamda, evet. Tek bir deneyim tümevarımsal bir çıkarıma izin vermez ­. Bir orangutan görürsem ve neye benzediğini bilirsem, onu sınıflandırabilirim. Ama hayvanın ne olduğunu henüz bilmediğim için, gördüğüm hayvanın acayip bir şempanze mi yoksa yetişkin bir Koca Ayak'ın bebeği mi olduğunu öğrenmeden önce birçoğunu gözlemlemem gerekecek . Hume'un dediği gibi, nedenleri anlamak için "sürekli bağıntıları" görmemiz gerekir ve ­kategorileri veya türleri anlamak için sıralanmış örnekleri görmemiz gerekir. ( Göreceğimiz gibi, makine öğrenimi tam olarak böyle çalışır .)

Elbette, tümevarımsal akıl yürütme daha karmaşık hale gelir: ekonomi veya sosyal bilimler gibi alanlardaki istatistiksel çıkarımlar da tümevarımlıdır ­, ancak olasılık teorisini (ve ekonomi ve sosyal bilimleri) ve bunları anlamak için kişi hakkında çok şey bilmek gerekir. Ve bilimlerdeki yeni tümevarımsal çıkarımlar, kaçınılmaz olarak, bilim adamlarının artık sağlam ve doğru olduğuna inandıkları eski çıkarımlar üzerine kuruludur. (Öyleyse diğer tüm teorileri de bilmemiz gerekiyor.) Ama özünde tümevarım, örneklere bakarak basitçe genelleme yapar. Genellemeler bir hikaye, bir neden veya nedenler dizisi ile açıklanabildiğinde , tümdengelim gibi zorunlu olarak doğru olmasa bile yeni bilginin edinildiğinden eminiz . ­Gözlem ve testlerle desteklenir.

Hume'un tümevarım eleştirisi öncelikle bir nedensellik eleştirisiydi. Tümevarım, nedenler hakkında bilgi gerektirmez (bu durumda sayımsal olmaz). Örneğin, kuş tüylerinin renginin kısmen habitat özelliklerine göre belirlendiğini bilirsek, o zaman İngiltere'deki tüm kuğular beyaz olsa bile, farklı habitatlardaki kuğuların tüylerinin siyah olmasını bekleyebiliriz. Ama teorinin yokluğunda, tümevarım bize bunu ancak dünyanın etrafında uçarsak ve ­kuğuları yaşadıkları yerde gözlemlersek söyleyebilir. Spesifik sebeplerden bahseden hipotezler, gözlemin amacıdır, ancak ne yazık ki tümevarımın mantıksal kaynakları bunları sağlamak için yetersizdir. Ek çıkarımlar gereklidir (ve burada tümdengelim yardımcı olabilir, ancak yalnızca kısmen).

Buradaki nokta şudur: Mantıksal bir çıkarım çerçevesinde uygun şekilde anlaşılan tümevarım, gerekli ve yaygın olmakla birlikte, oldukça sınırlıdır. Çoğu zaman yanlış anlaşılır, bu da tümevarımın bizi hayali spekülasyonlardan kurtararak "bilimsel" ve sağlam ampirik bilgi sağladığına dair genel bir aşırı güvene katkıda bulunur. Dedektif kahramanımız Sherlock Holmes bazen yöntemini zahmetli tümevarımlar, yoluna çıkan görüşler, fikirler ve inançlarla derli toplu olmayan basit ve net gözlemler olarak açıklıyor. Şaşkın ve şaşkın Watson'a "her şeyi dikkatlice gözlemlediğini" garanti eder. Holmes basit gözlemin değerini biliyor -ne kadar basitse o kadar iyi- çünkü bildiğimizi sandığımız şey yeni bir şey görmemizi engelleyebilir. Ancak bu istihbarat hikayesinin sadece bir kısmı. Gözlemlediğimiz şeyin önemini anlamalıyız. Holmes, Dupin gibi, ­gözlemlerini yeni bir şekilde bir araya getirerek suçları çözdü. Şeytanın tüm detayları, hiç de tümevarım olmayan yenilikte.

Tümevarımsal çıkarım, Hume'un eleştirel bakış açısıyla akılda kalıcı hale gelen başka bir kaçınılmaz tehlikeyi bize sunar: Yeni keşfedilen gerçekler bizi şaşırtabilir. Günlük yaşam gibi dinamik ortamlarda gözlem açık uçludur. Gelecekteki gözlemler, daha önce bizim için gizli ve bilinmeyen şeyleri ortaya çıkarabilir - sürpriz! Ve tümevarımsal çıkarıma olan güvenimiz, onun kaçınılmaz eksikliklerine ve başarısızlıklarına dikkat etmeyi zorlaştırabilir. Bu bizi tatil kutlamalarına veya en azından Bertrand Russell'ın "tümevarımcı hindisi"ne getiriyor.

RUSSELL'İN TÜRKİYESİ

Bertrand Russell, yirminci yüzyılın en ünlü filozoflarından ve kamusal entelektüellerinden biridir. Bir mantıkçı, matematikçi ve sosyal aktivist olarak, Britanya'nın I. Dünya Savaşı'na girmesini protesto ettiği için bir keresinde altı ay hapis yattı . Daha sonra, 1950'lerde, nükleer silahların yayılmasını protesto etti. Entelektüel ilgi alanları da ­protestolardı: Dilin felsefedeki sorunları ve çözümleri hayal etmek için kullanılabileceğinden endişe ediyordu ve rüya gibi felsefe yapmanın panzehirinin onu bilimin yöntemlerine bağlamakta yattığını düşünüyordu .

Ama bilim, Russell'ın kendisinin de işaret ettiği gibi, genellikle açık çıkarımsal kurallar olmadan ilerler. O halde, bilime ilişkin çıkarımı modellemek için, genel olarak bilimsel araştırma ve hakikat arayışı hakkındaki düşüncelerimizdeki hataları ortaya çıkarmalıyız . ­Böylece tümevarım sorunu onun incelemesine girdi ­; bunu (aynı adlı kitabında) temel "felsefe sorunlarından" biri olarak adlandırdı ve Sir Karl Popper gibi bilimin gerçekleri toplayarak veya sıralayarak bilgi elde etmediğini savundu. Başka bir deyişle, bilimsel bilgiyi yalnızca tümevarım yoluyla elde etmiyoruz . Aslında, tümevarımın ­kendisi umutsuzca kusurludur.

Russell bariz ve kolay anlaşılır bir örnek verdi: Her sabah güneşin doğuşunu gözlemlemek, bunun tekrar gerçekleşeceğine dair bize hiçbir kanıt vermiyor. Hume'un dediği gibi, yarın güneşin doğacağına olan güvenimiz "çağrıcılık alışkanlığından" başka bir şey değildir. Tümevarım sadece eksik değildir, ­gözlemleri sıralayarak bilimsel teorileri veya inançları olumlu bir şekilde doğrulayamaz. Onun olduğuna olan inancımız her türlü çarpıtmaya yol açar. Örneğin, "kumarbazın yanılgısı", kumarbazlar arasında, sonuçların geçmişteki sıklığının gelecekteki sonuçlar hakkında doğru bir şeyler ilettiğine dair yanlış bir inançtır. Yanılgı, aynısından daha fazlasının ya da tam tersi bir beklentiyi destekleyebilir : ­yeni bir şey için zaman. Zar atarken gelen çizgiler, bir sonraki zar atışının bir şekilde etkileneceği yanılsamasını yaratır: iyi şans serisi mutlaka iyi kalır (ben zar atıyorum) veya kötü şans serisi mutlaka sona erer (I zamanım var). Elbette her iki senaryo da gerçekleşebilir, ancak önemli ­olan, bir sonraki zar atışının önceki tüm atışlardan bağımsız olmasıdır. Zar rastgele bir şekilde düşerse galibiyet serisi devam eder. Başka düştüklerinde biter. Bu, tümevarım yanılgısını rastgele olaylara bile uygulama arzumuzun bir örneğidir.

Bununla birlikte, gerçek dünyanın çoğu rastgele değildir, bu da yanlış endüktif kalıpları görme eğilimini ortadan kaldırmayı daha da zorlaştırır - kalıplar gerçekten "oradadır", ancak doğru olanları her zaman yalnızca gözlemlerle bilemeyiz. Her yerde düzenlilikler ve kalıplar görüyoruz. Kumar dışında, bu tuhaf zihinsel bükülme, gözlemden genelleme yapma isteğimizi açıklamaya yardımcı olur. Kuğular beyazdır. Güneş yeniden doğacak. Asansör her zaman sabah 3:30'da zemin katta beni bekliyor. Elbette güvenilir genellemeler vardır -onları her yerde görürüz ve bunu yapmak yanıltıcı değildir- ancak Russell'ın işaret ettiği gibi tümevarımın sorunu, yalnızca bu tür genellemelere dayalı olarak bilgi çıkarımı yapmak için hiçbir gerekçemizin olmamasıdır. Bilim, daha derin ve daha güçlü çıkarımsal stratejilere dayanmalıdır. İndüksiyonun kendisi kağıt inceliğindedir.

Tümevarımın sınırlarına bir örnek olarak, Russell bize ­harika bir tümevarımsal düşünür olan iyi beslenmiş bir çiftçi tavuğu sunuyor. İşte onun üzücü hikayesinin bir versiyonu:

Bu hindi, hindi çiftliğinde ilk sabahı sabah 9'da beslendiğini fark etti. Ancak, iyi bir tümevarımcı olarak hemen sonuçlara varmadı. Sabah 9'da beslendiğine dair çok sayıda gözlem toplayana kadar bekledi ve bu gözlemleri çok çeşitli koşullar altında ­, çarşamba ve perşembe günleri, sıcak ve soğuk günlerde, yağmurlu günlerde yaptı. günler ve kuru günler. Her gün listesine başka bir gözlem ifadesi ekledi. Sonunda, tümevarımcı vicdanı ­tatmin oldu ve "Ben her zaman sabah 9:00'da beslenirim" sonucuna varmak için tümevarımsal bir çıkarım yaptı. Ne yazık ki, bu sonucun yanlış olduğu, Noel arifesinde beslenmek yerine boğazı kesildiğinde kesin olarak gösterildi. Doğru öncüllere sahip tümevarımsal bir çıkarım , yanlış bir sonuca yol açmıştır. ­5

Russell'ın hindisi, gözlemlediğimiz düzenlilikler hakkında daha derin bir bilgi sahibi olmadan "çağrışım alışkanlıkları" oluşturmanın aptallığını ortaya koyuyor. Ancak ­bilgi genellikle kılık değiştirmiş inançtır - bildiğimizi sandığımız şey yanlış olabilir.

Tümevarımsal çıkarıma güvenmekle ilgili ikinci ve eşit derecede lanetleyici bir sorun da bilgi eksikliğidir. Dünyanın büyük bir kısmı gizem içinde saklı -rastgelelik veya kaos içinde boğulmuş ya da tümevarımı herhangi bir güvenle tek başına kullanmamız için çok karmaşık. Finansal piyasalar geliyor aklıma. Bir hisse senedinin performansını her türlü karmaşık teknikle tahmin etmeye çalışabiliriz, ancak herhangi bir tüccarın bildiği gibi, geçmiş ­performans gelecekteki sonuçların göstergesi değildir. Ve dürüst olursak, deneyimlediğimiz dünyanın çoğu bu sinir bozucu niteliğe sahip. Asansörün kimsenin kullanmadığı zamanlarda zemin katta durduğunu biliyoruz ve ­işten erken dönersek asansörün orada bizi beklemesini bekleyebiliriz, çünkü herkes için mesai dışıdır. başka. Ama birisi buraya taşınıyor olabilir veya falanca kişinin Minnesota'dan ailesi ziyarete gelebilir vesaire. Kurallar ve beklentiler de çiğnenmek için yapılmıştır.

Tümevarımı artırmak için ihtiyaç duyduğumuz bilgi genellikle eksik veya mevcut olmadığı için tahminlerimiz sürekli olarak hüsrana uğruyor. İngiltere'de bin tane beyaz kuğu görüp, bütün kuğuların beyaz olduğu sonucuna varabilirim . Aynı yıl, Avustralya'ya yaptığım bir gezide siyah bir kuğu gördüm - tümevarım lanet olsun. Bildiğimizi sandığımız çoğu şey aslında geçicidir, daha fazla incelemeyi bekler ve değişiklikleri şaşırtıcı kılan şey, tümevarıma aşırı güvenmedir. Amerika Birleşik Devletleri'nin batısındaki Seattle gibi büyük şehirlerde, sürücüler geçmek için ateş etmek yerine genellikle sarı ışıkta yavaşlar veya durur. Etraflarından geçmek yerine yayalara da saygı gösterirler. O zaman New York veya Mumbai'deki sürüş davranışına şaşırabilirim. Gönderilen kurallar aynı olsa bile davranış aynı değildir. Geçmiş deneyimlerden elde edilen verilere ve tümevarıma güvenirsem, arkamdan gelebilir veya korna çalabilirim.

Öyleyse, tüm bu yeni oluşumlarla neden yalnızca geçmiş olaylara ­güveneyim? Ve benim için makul ve akıllı olan nedir? Yeni bilgileri nasıl ele almalıyım? Peki ya yolun karşısında daha önce hiç yaşamadığım bir çivi şeridi veya bir sıra ördekler ya da tanıdık olmayan işaretler görürsem? Ne yazık ki, buradaki cevap daha fazla ­tümevarım değil, daha az.

VERİM HAYATTA DEĞİL OYUNLARDA İŞLER

Gerçek dünya dinamik bir ortamdır, yani hem öngörülebilir hem de öngörülemez şekillerde sürekli değişir ve onu bir kurallar sistemine hapsedemeyiz. Bununla birlikte , masa oyunları, oyun deneyiminden öğrenilen tümevarımsal yaklaşımların neden bu kadar iyi çalıştığını açıklamaya yardımcı olan bir kurallar sistemi içine alınmıştır. AlphaGo (veya ­halefi AlphaZero) , zorlu Go oyununu oynamak için derin öğrenme olarak bilinen bir tür makine öğrenimi kullanır. Derin pekiştirmeli öğrenme adı verilen bir şey kullanarak kendi kendine karşı oynar ­ve hem kendi hem de rakibin konumu göz önüne alındığında tahtada yapılacak en iyi hamleler hakkında hipotezler yaratır. Yapay zeka uzmanı Stuart Russell'ın işaret ettiği gibi, yaklaşım "bilinen kurallara sahip gizli, gözlemlenebilir, iki oyunculu oyunlarda" inanılmaz derecede başarılı. 6 Russell, Russell'ın hindisi hakkında düşünmemiş olabilir, ama düşünmeliydi: AI'yı destekleyen oyunlarla ilgili asıl sorun, ­bilinen kurallara göre hipotezlerin (deneyimden genellemeler) oluşturulmasına izin vermeleridir. İronik bir şekilde, daha önceki klasik yapay zeka gibi, kurallar, genel zekaya ulaşma arayışının tüm amacı olan gerçek dünya için geçerli değildir .

Tümevarım yöntemlerine dayanan bilgisayar bilimciler, Hume'un (veya Russell'ın) tümevarım problemini ilgisiz bularak genellikle reddederler. Mantık olarak, elbette tümevarım kullanarak doğruluk garantisi yoktur ­, ancak "yeterince yaklaşabiliriz".

Bu yanıt asıl noktayı kaçırıyor. "Muhtemelen ­yaklaşık olarak doğru" olarak bilinen bir yöntem, makine öğrenimi gibi istatistiksel yapay zeka için hipotez oluşumunu yönetir ve kötü veya yanlış hipotezleri zaman içinde ayıklamak için etkili olduğu bilinir. Ancak bu yöntem, Hume'un, istatistiksel çıkarımlarda dikkate alınması gereken kuralları olan oyunlar gibi senaryolara uygulandığı şekliyle, tümevarımın hiçbir doğruluk garantisi sağlayamayacağı şeklindeki orijinal argümanının gerçekten bir uzantısıdır. Muhtemelen yaklaşık olarak doğru bir çözüm, bir oyun dünyası veya araştırma laboratuvarı dışındaki dinamik ortamlarda tümevarım problemini değiştirmez .­

Yapay zeka araştırmacıları, tümevarım sorununun (açıkça veya dolaylı olarak) farkındadır, ancak makine öğrenimi (veya derin öğrenme) eleştirilerine nadiren girerler çünkü esasen sorunu kafalarının üzerinde dikerler. Tümevarım dinamik ortamlarda kötü olduğu için, bunu kontrol edilebilir ortamlarda uyguluyoruz, diye kabul ediyorlar. Bu, anahtarlarınızı bir elektrik direğinin altında aramaya benzer çünkü orada ışık daha iyidir. İnsanoğlunun, deneyimi gerçek dünyada (başka nerede?) etkili bir şekilde kullanmak için tümevarım problemini yeterince iyi “çözdüğü” doğrudur. Ancak insanlar çıkarım problemini daha güçlü bir biçimde tümevarımsal çıkarımla değil, onu anlamaya katkıda bulunan daha güçlü çıkarım türleriyle bir şekilde birleştirerek çözerler. Makine öğrenimi yalnızca tümevarımdır (Bölüm 11'de tartışılacağı gibi) ve bu nedenle, alandaki araştırmacıların yapay genel zeka beklentileri konusunda genellikle olduğundan daha şüpheci olmaları gerekir.

DÜZENLİLİK VE KIRILMA

Tümevarım, zekayı düzenliliğin tespiti olarak gösterir. İstatistiksel yapay zeka, verileri analiz ederek düzenlilikleri yakalamada çok başarılıdır, bu nedenle ­insan yüzlerinin veya evcil hayvanların fotoğraflarını tanımlama gibi görsel nesne tanıma görevleri başarıları arasında sayılır. Yüzlerin pikselleri öğrenilebilecek ve sınıflandırılabilecek şekilde dağıtılmış ve düzenlidir. Bununla ­birlikte, bu tür sistemler, belirli girdi modellerinin gözlemlerinden öğrendiği için, kırılganlık sorunlarından muzdariptir. Gary Marcus, Ernest Davis ve diğer araştırmacıların işaret ettiği gibi, nesne tanıma görevlerinde arka plan rengini beyazdan maviye çevirmek gibi görünüşte iyi huylu değişiklikler bile performansı düşürebilir. Fotoğrafları diğer görüntülerle karıştırmak da ciddi bozulmalara neden olur. 7 Bir dur işaretinin kırmızı alanına eklenen birkaç alakasız harf, insanlar tarafından kolayca göz ardı edilir, ancak bu şekilde değiştirilen bir görüntü bir derin öğrenme sistemine sunulduğunda, onu bir hız sınırı işareti olarak sınıflandırır. Ve bir okul otobüsünü kar küreme aracı olarak yanlış sınıflandıran ve bir dönüş yapan kamyonu üst geçit olarak yanlış sınıflandıran sürücüsüz arabalardaki otonom navigasyon sistemleri de dahil olmak üzere benzer gerçek dünya örnekleri var.­

Makine öğrenimi tümevarımlıdır çünkü bilgiyi verilerin gözlemlenmesinden elde eder. Derin öğrenme olarak bilinen teknik , fotoğraflardaki nesneleri tanımada, otonom araçlarda performansı artırmada ­ve görünüşte zor görünen oyunları oynamada çok umut vaat eden bir tür makine öğrenimi - bir sinir ağıdır. Örneğin, Google'ın De epMind sistemi, bir dizi klasik Atari video oyununu hayranlıkla oynamayı öğrendi. Genel zeka olarak müjdelendi çünkü aynı sistem, AlphaGo ve AlphaZero'ya güç veren sözde derin pekiştirmeli öğrenme yaklaşımını kullanarak farklı oyunlarda ustalaşabiliyordu. Ancak AI başlangıcı Vicarious, kısa süre sonra, oyunlardaki görünüşte zararsız değişikliklerin sistemin görünüşte muhteşem performansını düşürdüğüne dikkat çekti. Örneğin , Breakout'ta, bir oyuncu raketini taban çizgisinde ileri geri hareket ettirerek, ­bir topu çok katmanlı bir tuğla duvara yukarı doğru vurur. Her vuruş bir tuğlayı yok eder (ve oyuncuyu "kırmaya" yaklaştırır), ancak top geri seken oyuncu bunu kaçırmamaya özen göstermelidir. Raketi tuğlalara birkaç piksel yaklaştırmak ciddi performans düşüşüne neden olur. Marcus ve Davis'in modern yapay zeka eleştirisinde "DeepMind'ın tüm sistemi çöküyor" diyor. Yapay zeka öncüsü Yoshua Bengio'nun derin sinir ağlarının "üst düzey soyut kavramlardan ziyade veri kümesindeki istatistiksel düzenlilikleri öğrenme eğiliminde" olduğu gözleminden alıntı yapıyorlar. 8

tabanlı) çıkarıma dayanan daha güçlü öğrenme yaklaşımlarıyla düzeltilemeyeceğidir . ­Buradaki sorun, bir algoritmanın ayrıntıları değil, çıkarım türüdür. Öğrenmeyi artırmak için pek çok örnek gerektiğinden (Go söz konusu olduğunda, örnek oyunlar milyonları bulur), ­sistemler , oyun özelliklerinin ve kurallarının kısıtlamaları dahilinde hipotezlerin oluşturulmasıyla yönlendirilen, numaralandırılmış endüksiyon motorlarıdır. ­oyun Dünyalar kurallara göre kapalıdır ve düzenlidir - bu, en iyi hamlelerin en sık galibiyete götüren hamleler olduğu bir tür çan eğrisi dünyasıdır. Bu, insan yapımı oyunların ve araştırma tesislerinin dışında oturan yapay genel zekanın hakim olması gereken gerçek dünya değil. Fark her şey demektir.

Gerçek dünyada düşünmek, anormalliklerin veya istisnaların hassas bir şekilde saptanmasına bağlıdır. Örneğin yoğun bir şehir caddesi istisnalarla doludur. Bu, Manhattan'da dolaşan (veya istisnalarla ilgili başka bir nedenle insanlarla sohbet eden) robotlarımızın olmamasının bir nedenidir. Bir Manhattan robotu hızla devrilebilir, tavsiye edilmeyen bir şekilde sokağa çıkarak trafik sıkışıklığına neden olabilir, insanlara çarpabilir veya daha kötüsü olabilir. Manhattan, Atari veya Go değil ve onun büyütülmüş bir versiyonu da değil. Derin öğrenen bir "beyin", gerçek zekanın yerine geçen herhangi bir endüktif sistem gibi, gerçek dünyada ciddi bir sorumluluk olacaktır (ve ­öyledir). Russell'ın hindisine akşam yemeği olmaktan kaçınma "oyunu" oynadığını söylersek, Noel arifesinde nasıl kıt olacağını öğrenebilir. Ama o zaman iyi bir tümevarımcı türkiye olmazdı ; insanlar tarafından sağlanan ön bilgiye sahip olacaktır.

İstatistiksel yapay zeka, ortak modellerin (bir dağılım eğrisinin şişman başındaki) kolay, ancak nadir olanların (uzun kuyruktaki) zor olduğu uzun kuyruklu bir problemle sonuçlanır. Ne yazık ki, insan zekasına sahip yapay zeka sistemleri tarafından yapılan bazı çıkarımlar, kapalı dünya sistemlerinde keşfedilebilir düzenliliklerden çıkarımın tatlı noktasında değil, uzun kuyrukta olacaktır ­. Aslında, yapay zeka araştırması , düzenliliklerden yararlanarak "kolay" başarılara odaklanarak, toplu olarak ilerlemeden genel zekaya doğru ilerleme tehlikesiyle karşı karşıyadır. Kademeli bir ilerleme kaydettiğimiz bile söylenemez, çünkü pratikte kolay problemler üzerinde çalışmak, ­gerçek problemleri (elektrik direğinin yanında olmayan anahtarlar) göz ardı etmek anlamına gelir. Endüktif stratejiler ­kendi başlarına yanlış umut verir.

Facebook'ta yanlış sınıflandırılmış bir fotoğraf veya Netflix'te sıkıcı bir film ­tavsiyesi almak, veriye dayalı endüksiyona güvenme konusunda başımızı çok fazla belaya sokmayabilir, ancak sürücüsüz arabalar ve diğer kritik teknolojiler kesinlikle başımıza bela olabilir. Giderek artan sayıda AI bilim insanı ­konuyu anlıyor. Allen Yapay Zeka Enstitüsü başkanı Oren Etzioni, makine öğrenimi ve büyük veriyi "yüksek kapasiteli istatistiksel modeller" olarak adlandırıyor. 9 Bu etkileyici bir bilgisayar bilimi ama ­genel zeka değil. Akıllı beyinler verilere anlayış getirir ve başarısızlık noktalarının ve anormalliklerin takdir edilmesine yol açan noktaları birleştirebilir. Veri ve veri analizi yeterli değildir.

GÜVEN OLARAK ÇIKARIM SORUNU

Finansal tahminde kullanılan tümevarımın aydınlatıcı bir eleştirisinde ­, eski hisse senedi tüccarı Nassim Nicholas Taleb, istatistiksel tahmin problemlerini dört bölüme ayırır; değişkenler, ilk olarak, verilecek kararın basit ( ikili) veya karmaşık olup olmadığı ve ikincisi, söz konusu rastgeleliğin “vasat” mı yoksa aşırı mı olduğu. İlk kadrandaki problemler, ince uçlu bir olasılık dağılımına ilişkin basit kararlar gerektirir. Sonuçların istatistiksel olarak tahmin edilmesi nispeten kolaydır ve anormal olayların meydana geldiklerinde küçük bir etkisi vardır. İkinci çeyrek problemlerini tahmin etmek kolaydır, ancak beklenmeyen bir şey olduğunda bunun büyük sonuçları olur. Üçüncü çeyrek problemler, karmaşık kararları, ancak yönetilebilir sonuçları içerir. Sonra dördüncü çeyrekte “türkiye” sorunları var. Uzun kuyruklu olasılık dağılımları ve yüksek etkili sonuçlarla birleşen karmaşık kararları içerirler . ­Hisse senedi piyasasının çöktüğünü düşünün. Taleb , bu olayların etkisini şiddetlendirmede kilit bir faktör olarak tümevarıma aşırı güven duyuyor . Tümevarım yöntemlerimiz işe yaramadığından değil, onlara güvendiğimizde daha iyi yaklaşımları kullanmakta başarısız oluyoruz ve bu da potansiyel olarak feci sonuçlara yol açıyor. Aslında, geçmişi analiz etmenin hiçbir faydası olmadığında, makine düşüncesine kilitleniriz. Tümevarımsal süper zekanın aptalca sonuçlar üretmesinin bir nedeni de budur . Taleb'in alay ettiği gibi, "nasıl hindi olunmayacağını" bilmek önemlidir. 10

Elbette, tümevarımdaki kör noktaları teşhir ederek düzgün bir şekilde özetlenemeyecek başka tahmin sınırları da vardır. Ne de olsa siyah kuğular, borsa çöküşleri ve büyük savaşlar (ve yenilikler) gibi nadirdir. Zaten anlaşılmaz ve büyük ölçüde öngörülemeyen olasılıkları aydınlatmak için tümevarımı kullandığımız için affedilebiliriz ­, ancak anlayışımızı yalnızca veri ve istatistiklerle değiştirme girişimlerimiz için değil. Kaotik doğal sistemler gibi bazı durumlarda (örneğin, türbülanslı sistemler) , bilinen herhangi bir türde ­çıkarımsal yöntem kullanarak tahmin edilebilirliğin doğasında var olan sınırlamalar olduğunu artık biliyoruz. Tümevarım, geçmişin geleceğe benzeyeceğini önerebilir, ancak kaos teorisi bize bunun olmayacağını ya da en azından nasıl olacağını belirleyemeyeceğimizi söyler. Bazı durumlarda, eksik olsa da istatistiksel analiz elimizdeki tek şeydir.

MUHTEMEL NEDENİ

Hayatının işi nedensel akıl yürütme için etkili hesaplama yöntemleri geliştirmek olan ünlü bir bilgisayar bilimcisi olan Turing Ödülü sahibi Judea Pearl, 2018 The Book of Why adlı kitabında makine öğreniminin asla gerçek anlayış sağlayamayacağını çünkü veri analizinin bilgi ile köprü kurmadığını savunuyor. zeka için gerekli olan gerçek dünyanın nedensel yapısının Onun deyimiyle "nedensellik merdiveni", veri noktalarını ilişkilendirmekten (görme ve gözlemleme) ­nedenlerin bilgisini gerektiren dünyaya müdahale etmeye (yapma ) kadar yükselir. Sonra hayal etme, anlama ve şunu sorma gibi karşı-olgusal düşünmeye geçer: Ya farklı bir şey yapsaydım?

Makine öğrenimi yöntemlerini kullanan yapay zeka sistemleri - ve birçok hayvan - ilişkilendirmenin en alt basamağındadır. İlk düzeyde, ilişkilendirmede, gözlemlerde düzenlilikler arıyoruz. Bu, bir baykuşun bir farenin nasıl hareket ettiğini gözlemlerken ve kemirgenin bir an sonra muhtemelen nerede olacağını anladığında yaptığı şeydir ve bir bilgisayar Go programı, milyonlarca Go oyunundan oluşan bir veritabanını inceleyerek anlayabilmek için yaptığı şeydir. hangi hamlelerin daha yüksek kazanç yüzdesi ile ilişkili olduğunu öğrenin. ­11

Pearl burada gözlemleri ve verileri birbirine bağlayarak bize bir iyilik yapıyor. 12 Ayrıca, bu merdiveni yukarı taşımanın farklı düşünme türlerini (daha spesifik olarak çıkarım) içerdiğine de dikkat çeker. İlişkilendirme, nedensel düşünce veya hayallere "ölçeklenmez". Yapay zekadan yapay genel zekaya ölçeklendirme sorununu, tam da bu merdiveni tırmanmayı (veya mevcut çerçevede tümevarımdan diğer daha güçlü çıkarım türlerine geçmeyi) mümkün kılacak yeni teoriler keşfetme sorunu olarak yeniden biçimlendirebiliriz. 13

BİR SAĞDUYU ASTARI

Ebeveynleriniz, partneriniz veya bir arkadaşınız sizi sağduyudan yoksun olmakla suçlamış olabilir, ancak cesaretinizi alın: Açık ara herhangi bir AI sisteminden çok daha fazlasına sahipsiniz. Turing'in çok iyi bildiği gibi, ­iki kişinin sıradan bir sohbete girmesini sağlayan şey sağduyudur. Sağduyu sorunu ve özellikle bunu gerektiren dil anlayışı, alanın başlangıcından bu yana yapay zeka araştırmacıları arasında önemli bir endişe kaynağı olmuştur. Ve sonunda, makine öğrenimiyle ilgili abartıların bizi daha fazla yakınlaştırmadığı ortaya çıkıyor. Araştırmacılar bunu daha fazla kabul ediyor ve bu çok erken gelemez. Marcus ve Davis, bilgisayarların bu kadar akıllı olup olmadığını, neden okuyamadıklarını merak ediyorlar ve "Sağduyu ve Derin Anlamaya Giden Yol"a (kitaplarında bir bölüm) işaret ediyorlar. 14 Stuart Russell, "Gelecek Kavramsal ­Atılımlar " listesine henüz gizemli bir "dil ve sağduyu" ile başlıyor. 15 Pearl de dil anlayışının çözülmemiş olduğunu kabul eder (ve nedenselliğin anlaşılmasını gerektiren kendi "mini-Turing testini" sunar ). 16

Bu nedenle, AI'da ilerleme kaydetmek için tümevarımın ötesine bakmalıyız. (Mecazi bir merdivenin çağrışım basamağındaysanız yukarı bakın.) Şimdi bunu yapalım ya da en azından bir başlangıç yapalım. Abdüktif çıkarımın gerekliliğine giderken önce ayrıntılara girmeliyiz; özellikle ­makine öğrenimi ve girdi kaynağı olan büyük veri.

MAKİNE ÖĞRENME

VE BÜYÜK VERİ

Öğrenme, “deneyime dayalı olarak performansı geliştirmektir”. 1 Makine öğrenimi, bilgisayarların performanslarını deneyime dayalı olarak geliştirmelerini sağlamaktır.

Yapay zekanın makine öğrenimi olarak bilinen alt alanının bu tanımı geniş çapta kabul görmektedir ve özellikle tartışmalı değildir. Alanın şafağında yapay zekada öğrenme algoritmaları üzerine yapılan erken çalışmalardan bu yana esasen değişmeden kalmıştır. Makine öğreniminde uzun süredir araştırmacı olan Carnegie Mellon bilgisayar bilimcisi Tom Mitchell, 1997'deki Makine Öğreniminde biraz daha ayrıntılı bir tanım verdi : "Bir bilgisayar programının, bazı görev sınıfları T ve performansla ilgili olarak E deneyiminden öğrendiği söylenir. P ile ölçüldüğü şekliyle T'deki görevlerdeki performansı E deneyimiyle gelişiyorsa, P'yi ölçün . 2 Diğer bir deyişle, makine öğrenimi, tümevarımın hesaplamalı bir işlemidir - deneyimden bilgi elde etme. Makine öğrenimi yalnızca otomatikleştirilmiş tümevarımdır ­, bu nedenle tümevarımsal çıkarımdaki sorunların makine öğrenimi için sorunlara neden olmasına şaşırmamalıyız. Bu kaçınılmaz sıkıntıları detaylandırmak bu bölümün amacıdır.

İki ana öğrenme türü vardır. İnsanlar istenen çıktıyı belirtmek için girişi ilk kez etiketlediğinde buna denetimli öğrenme denir. Aksi ­takdirde, sistem verilerdeki kalıpları olduğu gibi analiz eder ve buna denetimsiz öğrenme denir. Ayrıca bir orta yol vardır. Yarı denetimli öğrenme, insanlar tarafından hazırlanmış bir başlangıç çekirdeği veya verilerin küçük bir kısmı ile başlar ve ardından çekirdeği denetim olmadan giderek daha fazla veriye genişletir.

Yapay zeka bilim adamları son yıllarda büyük ölçüde derin öğrenme olarak bilinen ve denetimli öğrenme yaklaşımı olarak etkileyici sonuçlar gösteren belirli makine öğrenimi türüne odaklandılar. Aşağıda ­, denetimli öğrenmeyi, derin öğrenmeyi ve uygulamalarını biraz ayrıntılı olarak tartışacağım. Tahmin edebileceğiniz gibi, denetimli öğrenme büyük bir çadırdır; Yapay zeka için neyin söz konusu olduğuna dair genel bir fikir vermek için farklı denetimli l kazanç türlerini keşfedeceğim .

Sınıflandırma, denetimli öğrenmenin yaygın bir türüdür. Araştırma laboratuvarlarında ve ticari uygulamalarda kapsamlı bir şekilde araştırılmıştır ­. Örneğin, öğrenilmiş sınıflandırıcılar spam'i filtreler. Çıktı , ikili bir ­evet veya hayır şeklindedir: bir e-posta ya istenmeyen postadır ya da değildir. Tipik olarak, istenmeyen e-posta sınıflandırma sistemi, e-posta hesabının kullanıcısı tarafından denetlenir, çünkü o gelen e-postaları istenmeyen posta olarak işaretler ve bunları istenmeyen posta veya istenmeyen posta klasörüne gönderir. Arka planda, makine öğrenimi sistemi olumlu spam örnekleri olan e-postaları etiketler. Yeterince istenmeyen e-posta örneği toplandıktan sonra, sistem bunları ve diğer gelen e-postaları kullanarak kendini eğitir ve kabul edilebilir e-postalar ile istenmeyen e-postalar arasındaki farka yaklaşan bir geri bildirim döngüsü ­oluşturur .

öğreniminin web üzerindeki yararlılığının en eski örneklerinden biridir . ­Naive Bayes algoritmaları ve diğer basit olasılıksal sınıflandırıcılar, e-postalardaki kelimelere spam olup olmadığını belirten sayısal puanlar atar ve spam ve spam olmayan kategorileri kullanıcı tarafından sağlanır. Sonunda, sınıflandırıcı, yalnızca iletilerdeki sözcükleri analiz etmeye dayalı bir spam hipotezine veya modeline sahip olur. Gelecekteki iletiler otomatik olarak filtrelenir ve spam, klasörüne gider. Günümüzde spam sınıflandırıcıları, konu satırındaki belirli kelimeler, bilinen "spam" içeren terimler ve kelime öbekleri vb. Sistemler mükemmel değildir, büyük ölçüde hizmet sağlayıcılar ile eğitimli filtreleri kandırmak için durmaksızın yeni ve farklı yaklaşımlar deneyen spam gönderenler arasındaki sürekli kedi-fare oyunu nedeniyle. 3

İstenmeyen e-posta tespiti, denetimli öğrenmenin özellikle seksi bir örneği değildir. Modern derin öğrenme sistemleri, görüntü tanıma ve görsel nesne tanıma gibi görevler için de sınıflandırma gerçekleştirir. Tanınmış ImageNet yarışmaları yarışmacılara, ImageNet'in eğitimde kullanmak ve derin öğrenme sistemlerinin doğruluğunu test etmek için Flickr gibi web sitelerinden indirdiği milyonlarca görüntüden yararlanarak denetimli öğrenmede büyük ölçekli bir görev sunar. Tüm bu görüntüler insanlar tarafından etiketlendi (projeye Amazon'un Mechanical Turk arayüzü aracılığıyla hizmet veriyorlar) ve uyguladıkları terimler, WordNet olarak bilinen İngilizce kelimelerin yapılandırılmış bir veritabanını oluşturuyor. WordNet'te seçilen bir kelime alt kümesi, ­ortak isimler (köpek, balkabağı, piyano, ev gibi) ve daha belirsiz öğeler (İskoç teriyeri, hafif süvari maymunu, flamingo gibi) kullanılarak öğrenilecek bir kategoriyi temsil eder. Yarışma , ­rakip derin öğrenme sınıflandırıcılarından hangisinin insanlar tarafından etiketlendiği şekliyle en çok görüntüyü doğru şekilde etiketleyebileceğini görmek içindir. ImageNet yarışmalarında kullanılan binden fazla kategoriyle görev, istenmeyen e-posta dedektörlerine sunulan evet-hayır sorununun (veya bir görüntünün insan yüzüne ait olup olmadığını basitçe etiketlemek gibi herhangi bir diğer ikili sınıflandırma görevinin ) çok ötesine geçer. . Bu yarışmada rekabet etmek ­, girdi olarak piksel verilerini kullanarak büyük bir sınıflandırma görevi oluşturmak anlamına gelir. 4

Dizi sınıflandırması genellikle doğal dil işleme uygulamalarında kullanılır. Sözcükler belirli bir düzene, bir diziye sahipmiş gibi ele alınır. Belge veya metin sınıflandırması, bir BOW veya sözcük torbası modeli gibi basit, sırasız bir yaklaşım kullanabilir, ancak sıralı bir metin olarak görüntülenen sözcüklerle ilgili ek ­bilgiler genellikle metin sınıflandırmasındaki performansı artırır. Örneğin, bir başlıkta ve ilk paragrafta yer alan kelimeler, genellikle makalenin anlamı veya konusu hakkında güçlü ipuçları sağlar. Metin sınıflandırması, makaleleri bilim, iş, siyaset ve spor gibi konu etiketleriyle otomatik olarak etiketlerken bu özelliklerden yararlanabilir . ­Metin sınıflandırması, denetimli öğrenmeye başka bir örnektir ­, çünkü insanların makaleleri konulara göre doğru bir şekilde etiketlemesiyle başlar ve öğrenme sistemine ilk girdiyi sağlar . ImageNet'in doğru şekilde etiketlenmiş resim koleksiyonu gibi, insanlar tarafından oluşturulmuş ­, metinlerin nota dayalı koleksiyonları olan, konuları hakkında meta veriler ve dil işleme görevlerinde denetimli öğrenme sistemlerini eğitmek için yardımcı olan diğer özellikler sağlayan büyük derlemler veya veri kümeleri de vardır.

Denetimli makine öğrenimi, modern web'in çoğunun arkasındadır. Örneğin, haberlerin ve diğer içerik akışlarının kişiselleştirilmesini sağlar. Bir kullanıcı çoğunlukla siyasi haberlere tıklarsa, arka planda çalışan denetimli bir öğrenme algoritması (örneğin, Facebook sunucularında) siyaset hakkında giderek daha fazla haber sunacaktır. Daha sofistike ­yaklaşımlar, siyasi haberleri bakış açısına göre sınıflandırarak, eğilimi sistem tarafından ve hatta duyguya göre belirlenen bir kullanıcıya daha muhafazakar veya liberal eğilimli haberler sunar ­- tıpkı bir sistemin film incelemeleri gibi fikir metinlerini sınıflandırdığı zamanki gibi. olumlu veya olumsuz olarak.

Sınıflandırmaya ek olarak denetimli öğrenme yaklaşımları, görüntü veya metin sınıflandırmasında olduğu gibi tüm dizi yerine bir dizideki tek tek öğelerin otomatik olarak etiketlenmesi için de kullanılır. Bu sıralı öğrenme olarak bilinir. Basit (ama belki de sıkıcı) bir örnek, "kahverengi inek" gibi bir sözcük dizisinin konuşma bölümleri için etiketlendiği konuşma parçası etiketlemedir: / dt brown / adj cow / nn, bu etiketler belirleyici anlamına gelir , sıfat ­ve ortak isim. Ardışık öğrenme, programlara konuşmanın bölümleri hakkında bilgi sağlamak için dil kurallarını kullanmaz ; bunun ­yerine insanlar, cümle içindeki kelimeleri konuşmanın doğru bölümleriyle etiketliyor ve insan tarafından hazırlanan verileri öğrenme algoritmasına girdi olarak sağlıyor. Konuşmanın bir kısmını etiketleme sorunu uzun zaman önce makineler tarafından çözüldü; on binlerce işaretlenmiş cümle sağlamak, görünmeyen verilerde, yani eğitim için kullanılmayan tüm cümlelerde insan düzeyinde performans sağlar. Dil işlemede iyi araştırılmış başka bir sorun, denetimli öğrenme sisteminin ­metinlerdeki kişi, yer, zaman, şirket ve ürün gibi yazılı varlıkları tahmin ettiği varlık tanıma olarak adlandırılır. “Sn. Smith, XYZ Co.'nun 1. Çeyrek'te on binden fazla araç takımı sattığını bildirdi" ifadesinin "Mr. Smith / pers , XYZ Co. / şirketinin 1. Çeyrek / tarihte on binden / adet widget / ürün sattığını bildirdi.

Sıralı sınıflandırma ­, bir sonraki öğenin önceki öğelerden tahmin edildiği zaman serisi tahmini için de kullanılabilir. Siri gibi ses tanıma sistemleri , popüler konuşmayı metne dönüştürme sistemleri gibi bir tür zaman serisi tahminidir. Zaman serisi tahmini, ­diğerlerinin yanı sıra tıbbi teşhis, fabrika planlaması ve stok tahmini gibi karmaşık görevlerde önemli uygulamalara sahiptir.

sürücüsüz arabalarla otonom navigasyon ve çevrimiçi metin sınıflandırma ve kişiselleştirme stratejileri dahil olmak üzere makine öğrenimindeki bugüne kadarki neredeyse tüm büyük başarılardan sorumludur . ­Denetimsiz öğrenme, eğitim verilerine insanlar tarafından etiketler eklenmediğinden, önemli ölçüde daha az veri hazırlığı gerektirme avantajına sahiptir. Ancak bu insan “sinyali” kaybının doğrudan bir sonucu olarak, denetlenmeyen sistemler, gerçek dünyadaki görevlerde denetlenen kuzenlerinin çok gerisinde kalıyor. Denetimsiz öğrenme, insanların denetimsiz öğrenme algoritmaları tarafından oluşturulan kümelerdeki büyük miktarda veriyi görselleştirmesini sağlamak gibi açık uçlu görevler için yararlıdır. Ancak, makine öğrenimi ve özellikle de derin öğrenme hakkındaki gevezeliklerin çoğu denetimli öğrenmeyi içerdiğinden, bu tartışmayı çoğunlukla ona odaklayacağım. Bununla birlikte, denetimli öğrenme yaklaşımlarının tüm tümevarıma dayalı sınırlamalarının denetimsiz öğrenme için daha da fazla geçerli olduğunu unutmayın. Denetimli öğrenmeye odaklanarak, en iyi ve en güçlü duruma bakıyoruz.

SİMÜLASYON OLARAK MAKİNE ÖĞRENİMİ

Kavramsal ve matematiksel olarak bakıldığında makine öğrenimi, ­özünde bir simülasyondur. Bir makine öğrenimi sisteminin tasarımcıları, veri yoğun bir sorunu inceler ve bunun için olası bir ­makine öğrenimi tedavisi varsa, bunun "iyi tanımlanmış" olduğunu düşünürler. Bazı işlevlerin gerçek dünyadaki veya gerçek sistemdeki bir davranışı simüle edebileceğini varsayarlar. Gerçek sistemin, verilerde gözlemlenebilir çıktıya yol açan gizli bir modele sahip olduğu varsayılır . Görev, gerçek gizli modeli doğrudan derlemek değil - ki bu, verilerden daha fazlasını anlamayı gerektirir ­- bunun yerine verilerdeki "ayak izlerini" analiz ederek gizli modeli simüle etmektir. Bu ayrım önemlidir.

Semantic role la beling olarak bilinen başka bir dil işleme görevini ­üstlenin. Burada bir öğrenme algoritmasının tasarımcıları, kim, kim, ne ve ne zaman gibi yaygın sorular açısından cümlelerin anlamlarını ortaya çıkarıyor. Öğrenme algoritmasının görevi, örnek ­cümleleri girdi olarak almak ve cümlede ifade edilen anlamsal rolleri tanımlayarak bu tür soruları yanıtlamak için bir dizi etiketin çıktısını oluşturmaktır. Örneğin, cümle bir eylemi gerçekleştiren bir aracıyı, bir eylemi, bir temayı ( eylemde yer alan nesne) ve eylemin alıcısını içerebilir ve şu şekilde etiketlenebilir: "John / aracı attı / eylem 'top' / tema 'Lizzy'ye' / alıcı.” Tüm bu durumlarda, bir makine öğrenimi yaklaşımı, bazı gerçek ancak bilinmeyen ­davranışların varsayılmasını ve bir f fonksiyonunu öğrenerek bunu mümkün olduğunca yakından simüle etmek için bir öğrenme yaklaşımı kullanmayı içerir ­. Sistemi eğitmenin sonucu , verilerdeki davranışın bir modeli veya teorisi olarak f'nin üretilmesidir. Bu, japon balığının semantik rollerini veya varlıklarını veya konuşma bölümlerini veya görüntülerini modelleyebilir ­- hepsi öğrenme görevine bağlıdır. Makine öğrenimi, doğası gereği, hazır programlama kurallarının mevcut olmaması veya düzeltilmesi için çok fazla insan çabası gerektirmesi anlamında çok karmaşık veya bilinemez bir sürecin simülasyonudur . Modeller bazen denetimsiz öğrenme onları ortaya çıkardıktan sonra verilerden ortaya çıkar . Ancak insanlar, analizden sonra modeli tanımlar; algoritma onu aramayı bilmiyor. Olsaydı, bu denetimli öğrenme olurdu .­

Çoğumuz fonksiyonları matematik dersinden biliriz ve klasik örnek aritmetiktir: 2 + 2 = 4, operatörü, toplama için artı işareti, teknik olarak bir fonksiyon olan bir denklemdir. İşlevler girdilerine göre benzersiz yanıtlar döndürür: bu nedenle toplama işlevi 2 + 2 için 4 döndürür (ve Orwell romanları dışında hiçbir zaman 5 değil ). İlk yapay zeka bilim ­adamları, gerçek dünyadaki birçok sorunun, bilinen çıktılara sahip işlevlere varan kurallar sağlayarak çözülebileceğini varsaydılar. ek olarak. Bununla birlikte, AI araştırmacıları için ilginç sayılan sorunların ­çoğunun bilinmeyen işlevleri olduğu ortaya çıktı (eğer gerçekten de ilgili işlevler varsa). Bu nedenle, artık bu bilinmeyenlere yaklaşmayı veya simüle etmeyi amaçlayan makine öğrenimine sahibiz. Makine öğreniminin bu "sahteliği", sistem performansı bir insanınkine önemli ölçüde yakın veya daha iyi olduğunda fark edilmez. Ancak, ­gerçek dünya öğrenilen simülasyondan ayrıldığında, makine öğreniminin simülasyon niteliğindeki doğası hızla açığa çıkar.

Bu gerçek çok büyük bir öneme sahiptir ve makine öğrenimi tartışmalarında çok sık gözden kaçmaktadır. Bir gerçek daha var: Bir makine öğrenimi sisteminin dünyasının sınırları, ­ona eğitim sırasında verilen veri setiyle tam olarak belirlenir. Gerçek dünya, tüm gün boyunca, günde yirmi dört saat , haftanın yedi günü, sürekli olarak veri kümeleri oluşturur. Bu nedenle, herhangi bir veri seti, gerçek dünya sistemlerinin davranışının en iyi ihtimalle kısmi kanıtını temsil eden çok küçük bir zaman dilimidir. Olasılık dışı olayların uzun kuyruğunun bu kadar sorunlu olmasının bir nedeni de budur; sistemin gerçek ( ­simüle edilmişe karşı) sistem hakkında gerçek bir anlayışı yoktur. Bu, derin öğrenme ve yapay genel zeka tartışmaları için son derece önemlidir ve analiz ettikleri fenomeni teknik olarak anlamayan sistemlere nasıl, ne zaman ve ne ölçüde güvenmemiz gerektiği konusunda bir dizi rahatsız edici düşünceyi gündeme getirir (burada ifade edilenler hariç). eğitimde kullanılan veri kümeleri). Efsanenin manzarasını anlamada merkezi öneme sahip olduklarından, bu temaları sonraki bölümlerde yeniden ele alacağız ­.

Genel zekaya giden potansiyel bir yol olarak makine öğrenimiyle ilgili en az iki sorun vardır . ­Daha önce değinilen bir tanesi, öğrenmenin, en azından bir süre için, herhangi bir anlayış olmaksızın başarılı olabileceğidir. Eğitilmiş bir sistem, beklenmeyen bir değişiklik veya olay simülasyonu değersiz hale getirene kadar, bir sorunu ustaca anlamış gibi görünen sonuçları tahmin edebilir . Aslında, çoğu zaman olduğu gibi başarısız olan simülasyonlar değersiz olmaktan çok daha kötü olabilir: araba kullanırken makine öğrenimini kullanmayı düşünün ve otomatik tahminlere güvenmek yanlış güven ­uyandırır. Bu her yerde olur; dağınık gerçek dünya her zaman yön değiştiriyor. Konuşma konuları değiştirir. Hisse senetleri yukarı yönlü bir trend izliyor, ardından kurumsal yeniden yapılanma, deprem veya jeopolitik istikrarsızlık gibi bazı dışsal olaylar hisseleri aşağı doğru ­itiyor. Joe muhafazakar blog yazarlarını, arkadaşı Lewis'in kişiselleştirilmiş haber akışının neredeyse tamamen elediği ve ondan sakladığı sola eğilimli bir dergi önerdiği güne kadar sevebilir. Mary , kendi atı Sally ölene ve Zen tutkusunun peşinden gidene kadar atları sevebilir . Ve benzeri. Makine öğrenimi gerçekten yanlış bir adlandırmadır, çünkü sistemler dünyadaki anlamın giderek daha derin ve sağlam bir takdirini kazanarak bizim yaptığımız anlamda öğrenmiyor. Daha ziyade çan eğrilerini öğreniyorlar - doğrudan gerçek dünyada deneyimlediğimiz her şeyin tamamen veriye dayalı simülasyonları.

Sağduyu ­, makine öğreniminin sınırlamalarını anlamada uzun bir yol kat eder: bize hayatın öngörülemez olduğunu söyler. Bu nedenle, makine öğreniminin gerçekten lanetleyici eleştirisi, onun geriye ­dönük olmasıdır. Veri kümelerinden elde edilen gözlemlere, yani önceki gözlemlere dayanarak, yararlı bulduğumuz kalıpları ve eğilimleri ortaya çıkarabilir. Ancak tüm makine öğrenimi geçmişin bir zaman dilimidir; gelecek açık uçlu olduğunda ve değişiklikler istendiğinde, sistemler yeniden eğitilmelidir. Makine öğrenimi, yararlı düzenlilikleri simüle ederek (umarız) yalnızca deneyim akışımızın gerisinde kalabilir. Yol gösteren makine değil, akıldır.

DAR YZ OLARAK MAKİNE ÖĞRENİMİ

Makine öğreniminin simülatif doğası, yapay genel zekaya doğru çok az ilerleme gösteren veya hiç ilerleme göstermeyen, neden sürekli olarak dar tanımlanmış uygulamalara takılıp kaldığını açıklamaya da yardımcı olur. Doğal dil işlemede metin sınıflandırması, konuşmanın bir kısmı etiketleme, sözdizimsel ayrıştırma ve istenmeyen e-posta tanıma gibi iyi tanımlanmış problemler, ayrı ayrı analiz edilmelidir. ­Sistemler, benzer olsa bile diğer sorunları çözmek için büyük ölçüde yeniden tasarlanmalı ve taşınmalıdır. Bu tür sistemlere öğrenci demek ironiktir, çünkü öğrenmek kelimesinin insanlar için anlamı, temelde dünyadaki şeyler hakkında daha genel bir anlayış kazanmak için dar performanslardan kaçmayı içerir . ­Ancak satranç oynayan sistemler daha karmaşık olan Go oyununu oynamazlar. Go sistemleri satranç bile oynamaz . Google'ın DeepMind'inin çok lanse edilen Atari sistemi bile yalnızca farklı Atari oyunları arasında genelleme yapıyor ve sistem yine de hepsini oynamayı öğrenemedi. İyi oynadığı oyunlar katı parametrelere sahip olanlardı. En güçlü öğrenme sistemleri sandığımızdan çok daha dar ve kırılgandır. Yine de bu mantıklı çünkü sistemler sadece simülasyon ­. Başka ne beklemeliyiz?

Yukarıda belirtilen tümevarımla ilgili sorunlar, ­kendi başına deneyimden değil, özellikle yapay zekaya yönelik makine öğrenimi yaklaşımlarının yaptığı şey olan, yalnızca deneyimde temel bilgi ve çıkarım yapma girişiminden kaynaklanmaktadır. O halde, yapay zekaya yönelik tümevarımsal makine öğrenimi ve veri merkezli yaklaşımların tüm sorunlarının alt üst olmasına şaşırmamalıyız ­. Veriler , erişilebilirlik için bilgisayarlarda depolanan, yalnızca gözlemlenen gerçeklerdir. Ve gözlemlenen gerçekler, onları ne kadar incelersek inceleyelim, bizi genel bir anlayışa veya zekaya götürmez.

Bilimsel soruşturma ­(ve felsefi araştırma) hakkındaki bu kabul edilen gerçeğe yönelik modern bir bükülme , en azından başlangıçta AI sistemlerini daha önce mevcut olmayan "akıllı" ve içgörü ile güçlendirdiği düşünülen, büyük miktarda verinin nispeten yakın zamanda mevcut olmasıdır. ­Bir bakıma bu doğrudur, ancak tümevarım sorunlarından kaçmak için gerekli olan anlamda değil. Sırada büyük veriye geçiyoruz.

BÜYÜK VERİLERİN SONU

Büyük veri, işletmeler ve hükümetler (ve yapay zeka araştırmacıları) için gerekli olan analizleri ve içgörüleri mümkün kılmak için genellikle çok büyük veri kümelerinin gücüne atıfta bulunan, herkesin bildiği gibi şekilsiz bir fikirdir. Gerçek terim ilk olarak 1997'de bilimsel bir bağlamda - mevcut bilgisayar grafikleri teknolojisini kullanarak verileri görselleştirmenin zorluklarını açıklayan bir NASA makalesinde - basıldı. Bununla birlikte, önümüzdeki on yıl içinde iş ve bilgi işlem için genel bir terim olarak popüler olana kadar tutmadı ­. Modern büyük veri kavramı, ilk olarak iş zekası tartışmalarında, özellikle de iş zekası zorluklarıyla ilgili 2001 Gartner Group raporunda su yüzüne çıkmış gibi görünüyor. Rapor , hesaplama kaynakları daha güçlü ve daha ucuz olmaya devam ettikçe giderek daha önemli hale gelecek olan büyük veri kümelerinin özelliklerini açıklamak için "üç V"yi (hacim, hız ve çeşitlilik) vurguladı . ­Ancak rapor aslında büyük veri terimini kullanmıyordu. 5 Bununla birlikte, terim 2000'lerin sonunda her yerde kullanılmaya başlandı ve 2014'te Forbes , "12 Büyük Veri Tanımı: Sizinki Nedir?" 6

Kesin olarak tanımlamak zor olabilir, ancak büyük veriler - çok ­daha büyük veri koleksiyonları - bilim ve endüstrideki hesaplama devriminin öncüsüdür. 2012'de Obama Yönetimi, "Ulusun en acil sorunlarından bazılarını çözmeyi" amaçlayan bir Büyük Veri Araştırma ve Geliştirme Girişimi duyurdu. 7 Ve en az bir şirket, iş analizi firması SAS, hemen yeni bir yönetici unvanı icat etti: Büyük Veriden Sorumlu Başkan Yardımcısı. Heyecan, elbette. Ancak büyük veriyle ilgili heyecan, aynı zamanda, daha fazla verinin, giderek daha güçlü hale gelen bilgisayarlardaki sorunları analiz etmede genellikle daha fazla avantaj sağladığının fark edilmesiydi.

Yine de en başından beri, büyük verinin içgörüleri ve zekayı tam olarak nasıl "güçlendirdiği" konusunda kavramsal bir kafa karışıklığı vardı. İlk başta, daha iyi sonuçlardan büyük verinin kendisinin sorumlu olduğu düşünüldü, ancak makine öğrenimi yaklaşımları ortaya ­çıktıkça, araştırmacılar algoritmalara itibar etmeye başladılar. Derin öğrenme ve diğer makine öğrenimi ve istatistiksel teknikler, bariz iyileştirmelerle sonuçlandı. Ancak algoritmaların performansı daha büyük veri kümelerine bağlıydı . Ne olursa olsun, AI performans iyileştirmeleri gösteriyordu ve hiç çözülemeyen bazı problemler aniden daha fazla veri ile çözülebilir hale geldi. Araştırmacıların ve uzmanların yakalamak istediği, işte ve bilimde bu kavrayış genişlemesiydi ­. Andrews Üniversitesi'nden bilgisayar bilimcileri Jon athan Stuart Ward ve Adam Barker'ın belirttiği gibi, "büyük veri özünde veri analitiği ve verilerden anlam keşfi ile ilişkilidir." ­8 AI, onlarca yıldır verilerden anlam çıkarmak için mücadele ediyordu; birdenbire, sadece daha fazla veri ekleyerek, böyle bir anlam her yerde kendini gösteriyor gibiydi.

2013'e gelindiğinde, Viktor Mayer-Schonberger ve Kenneth Cukier ­en çok satanları Big Data: A Revolution That Will ­How For Live, Work ve Think'te " büyük verinin kesin bir tanımı olmadığını" kabul ediyorlardı , ancak ­Her halükarda, büyük verinin "toplumun yararlı içgörüler veya önemli değere sahip mal ve hizmetler üretmek için bilgiyi yeni yollarla kullanma yeteneği" olduğunu ve büyük verinin gelişinin artık "bir kişinin geniş çapta yapabileceği şeyler" olduğu anlamına geldiğini öne sürüyor. yeni anlayışlar elde etmek veya yeni değer biçimleri yaratmak için daha küçük bir ölçekte yapılamayan bir ölçek. 9 Özel ve kamu sektörlerinde ancak veri kümesi boyutundaki artışlarla mümkün olan başarı öykülerine dikkat çekiyorlar. Örneğin, girişimci ­ve Washington Üniversitesi bilgisayar bilimleri profesörü Oren Etzioni tarafından 2004 yılında kurulan ve 2008 yılında Microsoft'a 110 milyon doların üzerinde bir fiyata satılan Farecast adlı başlangıç şirketini ele alalım. Şu anda Seattle'daki Allen Yapay Zeka Enstitüsü'nün başkanı olan Etzioni, kalkıştan önceki günlerin bir fonksiyonu olarak uçak bileti zirvelerindeki ve vadilerindeki eğilimleri ortaya çıkarmak için yaklaşık 200 milyar uçuş fiyatı kaydı biçimindeki büyük verileri kullandı. ­Farecast'in performansı, büyük verinin büyük sayılardan ortaya çıkan yeni içgörüler ve yetenekler anlamına geldiği hissinin altını çizdi; Etzioni'nin yalnızca on iki bin fiyat noktası kullanan temel sisteminden ilerleyen sistem, ­tahminlerini sürekli olarak iyileştirdi. Milyarlarca uçuş fiyatı veri noktasına ulaştığında, uçak biletinin ne zaman satın alınacağına dair doğru tahminler şeklinde önemli bir müşteri değeri sundu .­

Bir zamanlar moda olan büyük veri, artık her yerdeki yapay zeka destekli işletmelerde yeni normal haline geldi. Walmart, büyük veri ve veri madenciliği tekniklerini, tüketici talebine yanıt olarak verimli bir şekilde mal satın alma, stoklama ve nakliye gibi lojistik zorluklarına uygulamak için Walmart Labs'ı yarattı . ­Amazon, moda bir kelime olmadan önce büyük veriyi kullanıyor, çevrimiçi satın almaları izliyor ve katalogluyordu ; bu veriler artık ürün önerileri , gelişmiş arama ve diğer müşteri özellikleri sunan makine öğrenimi algoritmalarını beslemek için veri olarak kullanılıyor . ­Büyük veri, Moore yasasının kaçınılmaz bir sonucudur: bilgisayarlar daha güçlü hale geldikçe, makine öğrenimi gibi istatistiksel teknikler daha iyi hale gelir ve tümü veriden ve onun analizinden yeni iş modelleri ortaya çıkar. Şu anda veri bilimi (veya giderek daha fazla yapay zeka) olarak adlandırdığımız şey, gerçekten eski bir alandır, Moore yasası tarafından yeni kanatlar ve çoğunlukla web'in büyümesiyle kullanıma sunulan devasa veri hacimleri verilmiştir.

Hükümetler ve kar amacı gütmeyen kuruluşlar, trafik akışlarından şartlı tahliyeye uygun mahkumlar arasında tekrar suç işlemeye kadar her şeyi tahmin etmek için büyük verileri kullanarak hızla katıldı. Mayer-Schonberger ve Cukier, Columbia Üniversitesi'nden büyük veri uzmanlarının, New York City'deki olası rögar patlamalarının tahmini bir modelini oluşturmak için nasıl işe alındığını anlatıyor. (Yalnızca Manhattan'da elli binden fazla kuyu var). Bu proje başarılı oldu ve veri ölçeğini artırarak yeni içgörülerin ve yeteneklerin nasıl mümkün kılındığının bir örneği olarak sunuldu. Ne de olsa işçiler, ­her gün on binlerce ayrı rögar deliğini kontrol edemezler. Tıbbi kayıt işleme ve hükümet aktüeryal çabalarından oy verme ve kanun yaptırımlarına kadar diğer alanlar da, verilerin, yani büyük verilerin boyutu ve kalitesiyle yeni kavrayışların ve yeteneklerin mümkün kılındığı iddiasını açıkça destekleyen örnekler sunuyor.

Büyük verilerin endüstri ve diğer sektörlerdeki başarısı, yalnızca verilerin çıkarımsal gücü hakkında hızla abartılı iddialara yol açtı. 2008'e gelindiğinde, Wired editörü Chris Anderson'ın büyük verinin bilimde teorinin sonunu getirdiği yönündeki provokasyonu, yutturmaca için yüksek bir su işaretiydi. 10 Bilim adamları ve entelijansiyanın diğer üyeleri, bir veri kümesinin kendi kendini düşünüp yorumlayamaması nedeniyle teorinin gerekli olduğuna hemen işaret ettiler, ancak makale ­, bir veri tufanının baş döndürücü başarısının bir tür kültürel ifadesi olarak durdu. Gerçekte, başlangıçta yapay zekada veri bilimi ve makine öğrenimi için kullanılan bir yığın eski istatistiksel teknik olduğundan, büyük verilerden ortaya çıkan aranan içgörüler yanlışlıkla veri hacminin kendisine sabitlendi. Bu başından beri gülünç bir teklifti; veri noktaları gerçeklerdir ve yine kendi başlarına anlayışlı olamazlar. Bu sadece dikiz aynasında görülebilse de, ImageNet yarışmalarında görsel nesne tanıma konusundaki erken dönem derin öğrenme başarıları, büyük verilerden ondan yararlanan makine öğrenimi yöntemlerine -diğerlerinde- büyük veriden şevk aktarımının başlangıcına işaret etti. kelimeler, AI'nın yeni patlayıcı alanına.

Böylece büyük veri zirveye ulaştı ve şimdi göründüğü kadar hızlı bir şekilde popüler tartışmalardan uzaklaşıyor gibi görünüyor. Derin öğrenmeye odaklanmak mantıklı çünkü Go'da insan şampiyonları yenmekten, Atari oyunlarında ustalaşmaktan, araba kullanmaktan ve diğer şeylerden yalnızca veriler değil algoritmalar sorumlu. Her neyse, makine öğrenimi gibi veriye dayalı yaklaşımların tümü eğitim modelleri ve bunları test etmek için büyük hacimli verilerden yararlandığından, büyük veriler modern yapay zekada yeni bir yuva buldu. Yakın zamanda bir gözlemcinin belirttiği gibi, büyük veri "Büyük Veri Yapay Zekası" haline geldi. 11

Büyük veri için bu kadar. Ancak hâlâ çıkarım sorusuyla ­ve özellikle makine öğrenimi gibi veriye dayalı yöntemlerin sığ, veriye dayalı simülasyon ile tümevarımdan daha güçlü çıkarımsal güçler tarafından elde edilen gerçek bilgi arasındaki boşluğu nasıl aşabileceği sorusuyla baş başa kalıyoruz. . Acil sorun, ­makine öğreniminin doğası gereği veri odaklı olmasıdır. Bu noktayı yukarıda belirttim; bundan sonra daha kesin bir şekilde yapacağım.

DENEYSEL KISITLAMA

Veriye dayalı yöntemler genellikle ­ampirik kısıtlama olarak adlandırabileceğimiz şeyden muzdariptir. Bu kısıtlamayı anlamak için , özellik çıkarımı olarak bilinen, makine öğreniminin bir teknik detayını daha devreye sokmalıyız ­. Belirli bir sorunla uğraşan yapay zeka bilim insanları, genellikle öğrenme algoritmalarının istenen çıktıya odaklanmasına yardımcı olan veri kümelerinde sözdizimsel özellikleri veya kanıtları belirleyerek başlar. Özellik ­mühendisliği esasen bir beceridir ve faydalı özellikleri belirleme becerisine (ve ayrıca algoritmadaki parametreleri ayarlama yeteneğine, başarılı eğitimin bir başka adımına) sahip mühendislere ve uzmanlara büyük paralar ödenir. Tanımlandıktan sonra, özellikler eğitim, test ve üretim aşamalarında tamamen hesaplamalı olarak çıkarılır. İşin ­püf noktası tamamen hesaplamaya dayalı kısıtlamadır. Derin öğrenme sistemleri, örneğin Photo shop yazılımı kullanarak, farklı nesneler ve arka planlarla dolu bir fotoğrafta tanımlanması istenen nesneye bir ok çizebilseydik ­, zor görüntü tanıma görevlerinde çok daha iyi performans gösterirdi. Ne yazık ki, insan tarafından sağlanan özellik bu şekilde hazırlanmayan diğer fotoğraflara eklenemez, dolayısıyla özellik sözdizimsel olarak çıkarılamaz ve bu nedenle işe yaramaz. Sorunun özü bu. Bu, makine öğrenimi için faydalı özelliklerin her zaman verilerde olması gerektiği ve sistem test edilirken veya kullanıma sunulduktan sonra makine tarafından "doğada" istismar edilemeyecek hiçbir ipucunun insanlar tarafından sağlanamayacağı anlamına gelir.

Özellik çıkarımı, ilk olarak eğitim aşamasında ve ardından bir modelin eğitilmesinden sonra ­üretim aşaması olarak adlandırılan aşamada gerçekleştirilir. Eğitim aşamasında, öğrenme algoritmasına girdi olarak etiketlenmiş veriler sağlanır. Örneğin, amaç ­at resimlerini tanımaksa, girdi içinde at olan bir fotoğraf ve çıktı bir etiket: at olur. Makine öğrenimi sistemi ("öğrenci") böylece etiketlenmiş veya etiketlenmiş at resimlerini girdi-çıktı çiftleri olarak alır ve öğrenme görevi, at etiketini yalnızca at resimlerinin alacağı şekilde görüntülerin etiketlenmesini simüle etmektir. Eğitim, öğrenme, bir doğruluk gereksinimini karşılayan (veya karşılamayan) bir girdi verilen bir atın olasılığını temsil eden istatistiksel bir kod parçası olan bir model üretene kadar devam eder .­

Bu noktada, öğrenen tarafından üretilen model ­, daha önce görülmemiş yeni görüntüleri otomatik olarak etiketlemek için kullanılır. Bu üretim aşamasıdır. Yanlış etiketlenmiş at resimlerinin bir insan tarafından düzeltilebildiği ve yeniden eğitilmesi için öğrenciye geri gönderilebildiği bir geri bildirim döngüsü genellikle prodüksiyonun bir parçasıdır. Doğruluk iyileştirmeleri bir noktada azalsa da , bu süresiz olarak devam edebilir . ­Facebook'taki kullanıcı etkileşimi, geri bildirim döngüsüne bir örnektir: Bir içeriğe tıkladığınızda ­veya bir fotoğrafı arkadaş olarak etiketlediğinizde, verileri Facebook'un tıklamanızı sürekli olarak analiz eden ve değiştiren derin öğrenmeye dayalı eğitim sistemine geri gönderirsiniz. gelecekteki içeriği değiştirmeye veya kişiselleştirmeye devam etmek için akış .

Ampirik kısıtlama, makine öğrenimi için bir sorundur çünkü öğrenciye sağlamak isteyebileceğiniz tüm ek bilgiler kullanılamaz. Öznitelik olarak piksel verilerine dayanan görüntü tanıma görevlerinden farklı olarak, dili anlamadaki birçok sorun, ­eğitim ve modeller kullanılırken sistemler tarafından çıkarılacak insan tanımlı özellikler gibi ek işaretleme içerir.

Doğal dil işlemede, kişi, organizasyon, ürün, konum ve tarih gibi bazı semantik etiketler veya etiketlerin ilgili ­etiketlerde veya çıktılarda olduğu ve girdinin serbest biçimli metin olduğu, varlık tanıma adlı basit bir sorunu ele alalım. Facebook gönderileri. Bir şirket veya şahıs , örneğin Blue Box, Inc. gibi belirli bir şirketten bahseden tüm gönderileri ­bilmek isteyebilir . "Blue Box, Inc." anahtar kelime araması. yalnızca kelimelerle eşleşen, bağlama bağlı olarak gönderilerdeki "Mavi Kutu" veya "mavi kutu" ve hatta "kutu" gibi daha resmi olmayan referansları göz ardı edebilir. Adlandırılmış varlık tanımanın amacı, büyük miktarlarda etiketlenmiş gönderilerde makine öğrenimini kullanmaktır, böylece bu gayri resmi ifadeler de şirkete referans olarak doğru bir şekilde tanımlanır. Bu nedenle, bir özellik çıkarımına ihtiyaç vardır: Eğitim verileri için kullanılan gönderiler koleksiyonunda Blue Box, Inc.'in tüm sözlerini etiketleyen ve "Blue Box, Inc." etiketlemesi için bir model oluşturan sisteme gönderen bir insan. ” üretim aşamasında bahseder.

Mavi Kutu sistemi gönderilerdeki kelimelere ve aynı zamanda şirketlerden bahseden gönderilerdeki kanıtlara dayanan özelliklere de dayanır. Yine, özellikler zorunlu olarak sözdizimseldir, çünkü üretim aşamasında tamamen otomatik olarak çıkarılmaları gerekir. Bu temel ­ampirik kısıtlamadır. Özellikler, büyük harf kontrolü gibi ortografik olabilir veya "mavi" ve "kutu" kelimelerinin sırayla geçip geçmediğini kontrol etmek gibi sözcüksel olabilir ve "Inc. veya Incorporated ile biten" gibi bilgiler içerebilir. İsimler veya özel isimler gibi konuşma bölümleriyle (daha sözdizimsel olarak algılanan özellikler) etiketlemek için eğitim verilerinde bir konuşma bölümü etiketleyicisi çalıştırılabilir. Diğer özellikler şüphesiz mümkündür. Yine kilit nokta, başlangıçta insanlar tarafından tanımlanmış olan tüm özelliklerin daha sonra tamamen hesaplamalı olarak çıkarılmasıdır - aksi halde sistem otonom üretim aşamasında otomatik olarak çalışmayacaktır.

Sorun burada. Blue Box, Inc. şirketinden bahsedildiğine dair bazı kanıtlar çıkarım gerektirecektir - örneğin, zamirler veya diğer referanslar verilerde göründüğünde. Bu, öğrenme görevini hemen karmaşıklaştırır . Bir Facebook gönderisini okursam ve birinin Blue Box hakkında konuştuğunu fark edersem ve daha sonra örneğin "şirketin kârı" hakkında yorum yaparken buna atıfta bulunursam, "şirketin" açıklaması, adı geçen varlık tanıma sistemi için izin verilen bir özellik değildir. . Bir ortak ­referans çözümleme alt sistemi bunu halletmelidir, bu da bir hata oranı getirir; ortak referansın, adlandırılmış varlık tanımadan çok daha zor bir problem olduğunu unutmayın. Daha da kötüsü, belki Bob'un hisse senedi performansı tartışmasında Blue Box, Inc.'den bahsettiğini biliyoruz , ancak bunu analiz edilecek verilerde hiç bulamadığımız için, ­incelenecek bir özellik yok. sistem tarafından algılanır. Bir kişi, başka bir şirketin, XYZ, Inc.'in kurucusunun " mavi rengi sevdiğini ve basit ve akılda kalıcı bir şey istediğini ve bu nedenle işletim sistemine 'Mavi Kutu' adını vermeye karar verdiğini " anlatan bir anekdot anlatabilir . Ürün olarak firma değil “Mavi Kutu” kullanılmaktadır ancak adı geçen varlık tanıma sistemi eğitim sırasında bu bağlamsal bilgileri kullanamamaktadır. Neden? Çünkü o zaman onu üretim sırasındaki girdisinden yalnızca söz dizimiyle çıkaramaz.

Ampirik kısıtlama, makine öğreniminin ayrılmaz bir parçasıdır. Bu, eğitimde yalnızca verilerde otomatik yöntemlerle keşfedilebilen tamamen sözdizimsel özelliklerin kullanılabileceği anlamına gelir. Gerçekten akıllı sistem, yalnızca işlenmiş verilerden değil, daha geniş anlamda özelliklere veya kanıtlara ihtiyaç duyar.

Adlandırılmış varlık tanıma, doğal dil işlemede nispeten basit bir görev olsa da, burada bile tamamen veriye dayalı yaklaşımların doğasında var olan sınırlamaları görüyoruz. Ürünle ilgili bir gönderide Blue Box'tan bahsetmek kolayca yanlış bir pozitif olur ve şirket hakkında olarak etiketlenir. Bu örnekler, olası olmayan oluşumların uzun kuyruğunda olabilir, ancak bunlar günlük dilde yeterince yaygındır ve ampirik kısıtlamalarla sınırlı makine öğrenimi tarafından ele alınamaz. Tüm bunlar, tek başına verilerin, büyük veri olsun ya da olmasın ve ­makine öğrenimi gibi endüktif yöntemlerin , yapay zekada ilerlemenin önünde engeller oluşturan içsel sınırlamalara sahip olduğunu söylemek içindir. Tümevarım ­sorununun, modern yapay zeka için gerçekten bir sorun olduğu ortaya çıktı. Anlama açılan pencereleri, öğrenme üzerinde sınırlayıcı bir kısıtlama olan doğrudan verilere bağlıdır.

FREKANS VARSAYIMI

Ampirik kısıtlamaya ek olarak, makine öğrenimi yaklaşımları talihsiz bir frekans varsayımına dayanır. Ampirik kısıtlama gibi ­, bu da tümevarımsal çıkarımın sayımsal temelinin doğrudan bir sonucudur - gerçekten, yeniden ifade edilmesidir. İronik bir şekilde, makine öğrenimi için büyük verinin değeri aslında şu varsayımın bir ifadesidir: ne kadar çok olursa o kadar iyidir. Makine öğrenimi sistemleri gelişmiş ­sayma makineleridir. Blue Box örneğine devam etmek için, örneğin bazı Facebook gönderilerindeki geçerli sözcük veya iki sözcük dizisinin IBM, Microsoft, Blue gibi şirket adlarını içeren bir sözcükler sözlüğünde olup olmadığını kontrol ederek bir özellikler listesini kodlayabiliriz. Box, vb. veya ardından Inc. veya LLC gelip gelmediğini veya bir kısaltma olup olmadığını veya ilk harfi büyük mü yazıldığını veya özel bir isim olup olmadığını kontrol edin. 12

Sıklık varsayımı devreye giriyor çünkü genel olarak bu özellikteki isabetlerin sıklığı ne kadar yüksekse, eğitim için o kadar yararlı oluyor. Veri biliminde bu gereklidir; verilerdeki özellikler rastgeleyse hiçbir şey öğrenilemez (bununla ilgili daha önceki tartışmayı hatırlayın). Ancak bir örüntü varsa, ampirik kısıtlamaya göre önce verilerde olması gerekir; ve ikincisi, sonuç olarak, girdi ve çıktı arasındaki ilişkinin gücünü belirlemenin tek yolu frekanstır. Başka ne olabilir? Eğer her seferinde “Inc.” bir çift kelimeyi takip eder, eğitim verilerindeki etiket şirkettir, öğrenci "Inc." istenen çıktının bir özelliği olarak ­şirket. Binlerce örnekte fark edilemeyen örüntüler, milyonlarca örnekte kristalleşir. Bu frekans varsayımıdır.

uygun olmayan girişlerin tespit edildiği sözde anormallik tespitinde olduğu gibi, frekans varsayımları tersine çevrilebilir . ­Bu sistemler de frekans varsayımına dayanır ve bizim normallik varsayımı diyebileceğimiz şeyi kullanır. Normal olaylar, anormal olayları daha belirgin hale getirir. Çalışanlar tarafından yapılan binlerce ­veya milyonlarca uygun oturum açma örneği gruplandırılabilir veya kümelenebilirse, kümenin dışında oturan garip olanlar dikkat çeker. O halde yasa dışı veya uygunsuz girişimler olabilir. Yine makine öğrenimi, frekansları analiz ederek neyin normal ve dolayısıyla neyin anormal olduğunu anlar.

çevrimiçi kişiselleştirilmiş içerikteki "filtre baloncuklarını" da açıklar . ­Sağ eğilimli siyaseti hor gören biri, sonunda yalnızca sol eğilimli görüşler ve diğer haber içeriklerini alır. Bu sonucu kontrol eden derin öğrenmeye dayalı sistem, aslında sadece zamanla sevdiğiniz haberlerin kalıplarını tanıyan bir model eğitiyor. Tıklamalarınızı sayar ve size aynısından daha fazlasını vermeye başlar. Aynı gözlemler, kişiselleştirilmiş arama ve öneri deneyimleri sunan Netflix, Spotify, Amazon ve diğer web sitelerinden gelen öneriler için de geçerlidir . Örnek sıklığı (veya örneklerdeki özellikler) ile makine öğrenimi arasındaki ­bu bağlantı ­, özünde, tüm kuğuların beyaz olduğu çıkarımının kolaylaşmasıyla aynı anlamda, çünkü daha fazla beyaz kuğu gözlemlendikçe daha fazla güven kazanırsınız.

Sıklık varsayımı, anormal veya beklenmedik örneklerin uzun kuyruk probleminin zorluğunu da açıklar. Örneğin alaycılık, ­kısmen gerçek anlamdan daha az sıklıkta olduğu için makine öğrenimi için özellikle opaktır. Sayma, çevrimiçi olarak belirli bariz görevler için iyi sonuç veriyor, ancak daha incelikli olanlara karşı işe yarıyor. Milyonlarca öfkeli vatandaşın "Trump bir aptal!" o zaman, bir rakibi geride bıraktığında tüm "nefret edenlere" geri dönüş olarak alaycı bir şekilde "Trump bir aptaldır" tweet atan herhangi biri, "Trump-aptal" modelinin başka bir örneği olarak anılacaktır. Öğrenme algoritması en başta bilgi işinde değildir, bu nedenle örnek sadece başka bir kelime dizisidir. Alaycılık kelimeye ­dayalı bir özellik değildir ve gerçek anlam kadar sık da değildir. Makine öğrenimi, bu tür dil fenomenleri konusunda herkesin bildiği gibi kalın kafalıdır - Google gibi şirketleri üzecek kadar. Reklamları hedef alırken iğnelemeyi tespit etmeyi çok isterdi . Örneğin, "Bana biraz güneş kremi getirin!" bir

Kar fırtınası hakkında yorum yapan birinin alaycı yorumu, bağlama ­duyarlı bir reklam yerleştirme sistemi bunun yerine pille ısıtılan çoraplar için reklam sunmayı denemelidir.

Sıklık varsayımı, örneğin yukarıda bahsedilen metin sınıflandırma göreviyle birlikte, girdi tüm haber makaleleri olduğunda daha da belirginleşir. Web'de hafif okuma olarak yaygın olan "komik" ve "tuhaf" haberler, makine öğrenimi için bir kabus, çünkü kelimelerin anlamı gerçek değil. Örneğin, bir makine öğrenimi sistemi, teknik ­olarak suç teşkil eden veya yasalara aykırı referanslar içeren "aptalca" olayları anlatan hikayeleri suç hikayelerinin gerçek örnekleri olarak sınıflandırabilir. Neden olmasın? Tuhaf haberler, basit , bilgi sağlayan muadilinden ­daha az sıklıkta bulunur, bu nedenle eğitim setlerinde daha az sıklıkta olacaktır - ve her halükarda, bunun neden tuhaf olduğunu saptamak, ampirik kısıtlamalarla ilgili başka bir sorundur. Birisi yazarın ne demek istediğini anladığında veya ­iletişim kurma eğiliminde olduğunda, haberler aptalca veya alaycı olarak kabul edilir . Hikayedeki gerçek kelimeler, eğitim verilerindeki sıklıklara göre siyaset, spor, suç vb. gibi iyi tanımlanmış kategorilere işaret edebilir. Sözdizimini oluşturan parçalar ­-sözcükler- çok daha geniş bir anlam penceresinde yorumlanmadıkça öykü sınıflandırılamaz veya doğru anlaşılamaz . Bu endüktif olmayan yetenek olmadığında, bir makine öğrenimi sistemi varsayılan olarak frekansları kullanır ve asıl noktayı kaçırır. Burada, örneğin, bir zamanlar Yahoo! tarafından yayınlanan bir Associated Press hikayesi var. Haberler :

Tacos'unuz Veya Hayatınız!

Fontana, Kaliforniya. Fontana'lı bir adamın silah zoruyla bir torba taco'su çalındıktan sonra karnitaya olan açlık neredeyse bir miktar katliama yol açıyordu.

Polis Çavuşu Jeff Decker, 35 yaşındaki kurbanın Pazar gecesi bir sokak köşesindeki büfeden yaklaşık 20 dolarlık taco satın aldığını ve bisikletle eve giderken şüpheli onunla yüzleşip "Bana tacolarınızı verin" dediğinde söyledi.

Decker, zanlının yiyecek torbasını kaptığını, kurbanın yüzüne yumruk attığını ve kaçmaya başladığını söyledi.

Kurban takolarını geri istediğinde, şüpheli tabanca gibi görünen bir şeyi adama doğrulttu ve kaçmadan önce onu öldürmekle tehdit etti.

Bir metin sınıflandırma sistemi bunu kolayca bir suç hikayesi olarak tanımlayabilir: şüpheli , kurban , kaçmak , tabanca . Yine de çoğu insan okuyucu için komik bir hikaye olarak karşımıza çıkıyor - en azından onu tipik bir suç hikayesi örneği olarak görmüyoruz. Suç teşkil eden eylemler, ciddi şekilde endişe verici oldukları için bildirilir, ancak "Karnaval için açlık" gibi bir açılış ifadesi. . ” AP'nin amacının hikayeyi mizahi olarak anlatmak olduğuna işaret ediyor. İlkokul öğrencileri bile bu niyeti anlayacaktır, ancak AI sistemleri makaleyi memnuniyetle Fontana, Cali fornia'dan başka bir suç hikayesi olarak sınıflandıracaktır . ­Frekans mizahı öldürür. Haberlerde kurbanların, tabancaların, silahların ve kaçan zanlıların yer aldığı hikayeleri sayın. Onlar suç. Bu tür örnekler için sıklık varsayımıyla ilgili sorun, makine öğrenimini kullanan bilinen hiçbir düzeltmenin mevcut olmamasıdır. Sözcükleri sözdizimi olarak analiz eden ve sözcüklerin frekanslarını kategorilere kanıt olarak sayan yaklaşım göz önüne alındığında, öykülerin anlamı kaybolur ­. Yol, bunun gibi nispeten basit örneklerde bile, yapay genel zekaya giden bir çıkmazdır.

İşte birçok gazetede yer alan başka bir AP haberi:

11 Yaşındaki Erkek Çocuk, Saldırıyı Savuşturmak İçin Pit Bull'u Isırdı

Sao Paulo, Brezilya - 11 yaşındaki bir çocuk, kendisine saldıran bir köpeğin boynuna dişlerini geçirerek Brezilya medyasının ilgi odağı haline geldi.

Perşembe günü yerel gazeteler, Gabriel Almeida'nın Belo Horizonte şehrinde amcasının arka bahçesinde oynarken Tita adlı bir pitbulun üzerine atlayıp sol kolunu ısırdığını bildirdi. Almeida köpeği boynundan tuttu ve ısırdı - o kadar sert ısırdı ki köpek dişini kaybetti.

Almeida, O Globo gazetesine şunları söylüyor: "Bir diş kaybetmek, bir insanın hayatından daha iyidir."

Yakınlarda çalışan taş ustaları, tekrar saldıramadan köpeği kovaladılar.

Elbette hikayenin ciddi bir tarafı var ama kesinlikle sadece bir pitbul saldırısı hikayesi değil. Brezilyalı bir çocukla bir köpeğin ısırma maçı hakkında da bir hikaye değil. ­Köpeği ısırırken dişlerinden birini kaybetmesine rağmen çocuk ciddi şekilde yaralanmadığına göre, hikayenin yayınlanmasının nedeninin Brezilya'daki bir köpek saldırısını haber yapmak değil ­, sürprizin tuhaflığını veya aptallığını vurgulamak olduğu açık. karşı atak. Beklenmedik içerik - oğlan köpeği ısırır - hikayeyi haber yapan şeydir. Böyle bir durumda yapay zeka ve makine öğrenimi hiç yardımcı olmuyor. Acıtırlar. Konuyu tamamen kaçırıyorlar. Yalnızca makine öğrenimini kullanan sözde yapay genel zeka sistemleri, en iyi ihtimalle can sıkıcı aptallar savantlar olacaktır.

Temel olarak, çıkarım teorisi sorunun merkezinde yer alır. Tümevarım, veri analizinden zekanın çıkmasını gerektirir, ancak zeka, verilerin analizine ön ve gerekli bir adım olarak getirilir. Özellik ­mühendisliği veya algoritma tasarımındaki ilerlemelerin gelecekte daha eksiksiz bir hesaplamalı çıkarım teorisine yol açacağını her zaman umabiliriz. Ama derinden şüpheci olmalıyız. Algılanabilir özelliklerin -sonuçta sözdizimsel olarak analiz edilecek verilerde bulunan- kapsamını ve etkililiğini sınırlayan şey kesinlikle ampirik kısıtlama ve sıklık varsayımıdır . ­Bu , her türden filozof ve bilim adamının uzun zaman önce öğrendiklerini söylemenin başka bir yoludur : Tümevarım yeterli değildir.

MODEL DOYGUNLUĞU

Makine öğrenimi ve büyük veri, yapay genel zekaya ulaşma umutlarını alt üst eden, doygunluk olarak bilinen başka bir sorundan muzdariptir ­. Doygunluk, bir öğrenme algoritmasına (veya bir istatistiksel tekniğe) daha fazla veri (daha fazla örnek) eklendiğinde, sistemlerin performansına hiçbir şey eklemediğinde ortaya çıkar. Eğitim, bazı problemlerde daha yüksek ve daha yüksek doğrulukla sonsuza kadar devam edemez. Sonunda, daha fazla veri eklemek performansı artırmayı bırakır. Başarılı sistemler, doygunluktan önce kabul edilebilir bir doğruluğa ulaşır; yapmazlarsa, sorun makine öğrenimi kullanılarak çözülemez. Doymuş bir model nihaidir ve daha fazla veri ekleyerek daha fazla gelişmeyecektir. Sebepler burada açıklanamayacak kadar teknik olsa da, bazı durumlarda daha da kötüleşebilir.

Model doygunluğu, özellikle ­güncel problemlerin çoğu hazırlanan verilerdeki artışlardan yararlanmaya devam ettiğinden, nadiren tartışılır. Ancak araştırmacılar, doygunluğun kaçınılmaz olduğunu ve sonunda makine öğrenimi sistemlerinin performansını sınırladığını biliyor. Google'ın Araştırma Direktörü Peter Norvig, 2013'te The Atlantic'te doygunlukla ilgili endişelerini aktardı: "Şu eğriyi çizebiliriz: daha fazla veri kazandıkça, sistemimiz ne kadar iyi hale geliyor?" O sordu. "Ve ­işin kötü yanı, hâlâ gelişiyor ama geçmişte olduğundan daha az fayda elde ettiğimiz bir noktaya geliyoruz." 13

Bu yazı itibariyle, Norvig'in uyarıcı yorumları yedi yaşında. ImageNet yarışmaları muhtemelen daha fazla veri kullanamaz; en iyi sistemler artık yüzde 98 oranında doğrudur (bir sistemin ilk beş tahmininde bir hedef etiket almanın standart test ölçüsü kullanılarak). Ancak bir zamanlar eli kulağında olduğu düşünülen sürücüsüz arabaların hâlâ yoğun bir araştırma aşamasında olduğu ve sorunun bir kısmının, hacim olarak yetersiz olmayan ancak uzun süre işlemek için yetersiz olan etiketli video beslemelerinden elde edilen eğitim verileri olduğuna şüphe yok. Yine de güvenlik için hesaba katılması gereken atipik sürüş senaryolarıyla ilgili kuyruk sorunları . ­Norvig'in tahmin ettiği gibi modeller doygun. Hiç şüphesiz yeni yaklaşımlar ­gerekli olacaktır. Bu tür düşünceler, başlangıçtaki başarılardan tam anlamıyla gelişmiş olanlara ölçeklendirme denen şeyin saf ve basit olmasının bir nedenidir. Sistemler sonsuza kadar ölçeklenmez. Makine öğrenimi, yani derin öğrenme sihirli değnek değildir.

1950'de yazan Turing, bilgisayar sistemlerinin bilmediklerini öğrenmek için yapılabileceğini umuyordu. Basit sinir ağlarının mümkün olduğu zaten bilinmesine rağmen, makine öğrenimi o zamanlar bir yapay zeka terimi değildi. Ancak Turing'in aklında, daha çok insanınkine benzeyen genişletilmiş bir öğrenme kavramı vardı. Makineler ihtiyaç duydukları tüm bilgilerle programlanamazdı; bazı öğrenmelerin gerçekleşmesi gerekiyordu. İndüksiyonla olabileceğini düşündü. Bazı önermeler, diye düşündü, "'otorite tarafından verilebilir', ancak diğerleri, örneğin bilimsel tümevarım yoluyla, makinenin kendisi tarafından üretilebilir." Yüzyılın ortalarında, resmi sistemlerin dışında yatan gerekli içgörülerle ilgili endişeleri bırakmıştı. Ya da daha doğrusu, yeni bilgisayar makinelerinde bir yuva ­bulabileceklerini umuyordu .

Yine de bilim adamlarının kendileri "bilimsel tümevarımı" Turing'in kastettiği anlamda kullanmazlar. Tahminler yaparlar, sonra test ederler, sonra daha çok tahmin yaparlar. Turing, Peirce'in mantıksal çıkarım konusundaki çalışmasından hiç bahsetmedi. Görünüşe göre, Peirce'in anladığı anlamda kaçırma çıkarımına ilişkin hiçbir somut bilgiye sahip değildi.

Hâlâ öğrenme makinelerini arıyoruz.

KAÇIRICI ÇIKARIM

Tahmin Olarak Çıkarımın Kökeni

Charles Sanders Peirce, ABD Sahil Araştırması için ­önemli bir bilimsel problem üzerinde çalışıyordu. Peirce sarkaçları salladı. Hassas sarkaçlar. Sahil Araştırması, gravimetri biliminin bir parçası olan Dünya'nın yer çekimindeki değişimleri ölçmek için onları kullandı. 19. yüzyılda hâlâ gelişmekte olan bir disiplin olan jeodezinin bir alanı olan ­gravimetri , gezegenimizin şekli ve boyutunun incelenmesine yardımcı olur. Yeni fis binalarının temellerini atmaktan savaşa kadar her şey için Dünya'nın topografyasının kesin ölçümlerine ihtiyaç vardı . Bu Peirce'in işiydi.

Gravimetrik ayrıca kesin zaman ölçümleri gerektirir. Tesadüf eseri, 1879 yazında, Peirce kendini, sarkaç çalışmasında kullanmak üzere pahalı bir saate sahip olarak, New York'a gitmek üzere Boston'dan ayrılan bir kıyı vapurunda buldu. Kendisi seçmişti ve o zamanlar için çok büyük bir meblağ olan 350 dolara mal olmuştu. Anket faturayı ödemişti. Sabah, sahip olduğu diğer şeylerle birlikte gitmişti.

dünyanın her yerinde, Anket onu yerçekimi ölçümleri yapması için nereye gönderirse göndersin, pahalı ekipmanları kaybetmesi ve yanlış yere koymasıyla ünlüydü . ­Saatin çalınması, onunla ABD hükümeti arasında derece derece sürtüşmeye neden olan bir kalıba uyuyordu. Saatin çalınması ve Peirce'in onu kurtarmak için yaptığı dedektiflik çalışması bu nedenle onun için büyük ve kişisel önem taşıyordu. Şaşırtıcı olmayan bir şekilde, daha sonra bunun bir çıkarım dersi olduğunu düşündü.

Hikayeyi anlatırken işte böyle oldu. Peirce, geminin sabah New York limanına vardıktan sonra, şehirdeki bir konferansa katılmak için taksiyle ayrıldığını hatırladı. Oraya vardığında, zarif altın zincirli saati ve iyi paltosunu geride bıraktığını fark etti ve onları almak için geri koştu. Kaldığı kamaraya döndüğünde ikisi de gitmişti ve kaptan tarafından onun için tutulmuyorlardı. Açıkça hırsızlıktı ve geminin görevlilerinden biri tarafından yapılmış olması gerekiyordu.

Kaptanın yardımıyla Peirce, ­geminin güvertesindeki tüm görevlileri bir araya getirmeyi başardı; onlarla şakalaşırken ve birer birer yüzlerine bakarken sıraya dizildiler. Açık bir suçluluk belirtisi ­bulma umudu hayal kırıklığına uğradı: "En ufak bir ışık parıltısı bile yaşamadım," diye itiraf etti kendi kendine. Yine de uzaklaşmaya başlarken şöyle düşündü: "Ama parmağını adamın üzerine koymalısın . Sebebiniz olmasa da, kimin hırsız olduğunu düşündüğünüzü söylemelisiniz.”

Peirce tekrar gruba bakmak için geri döndü ve aniden "tüm şüphe gölgesi kayboldu." 1 Ne olmuştu? "Tahmin" çıkarımlarının -kaçırılma- ayrıntılarını hesaplıyordu. İşte bir tahmindi. Gerçek hayattan bir örnek - eğer gerçekten haklıysa. Peirce, suçlu olarak parmakladığı adama döndü ve onu kabinin dışına çağırdıktan sonra, ona bir anlaşma teklif etti: kayıp eşyaları iade etmek için elli dolar.

"Şimdi," dedi, "hak edeceksen o fatura senindir. Elimden geliyorsa, saatimi kimin çaldığını öğrenmek istemiyorum; çünkü öyle yapsaydım onu Sing Sing'e [New York hapishanesine] göndermek zorunda kalırdım, bu da bana elli dolardan fazlaya mal olurdu; ayrıca kendini dürüst insanlardan çok daha zeki sanan zavallı aptal için içtenlikle üzülmeliyim. 2

Görünüşe göre sanık, kaçırma çıkarımı hakkında pek bir şey bilmiyordu ya da belki de Peirce'in blöfünü yaptığını düşündü. "Neden," dedi, "elli doları çok iyi kazanmak isterim; ama görüyorsun ki ben gerçekten senin işlerin hakkında hiçbir şey bilmiyorum. Yani yapamam.” 3

Peirce zorla itirafta bulunamayınca Pinkerton's dedektiflik bürosuna ("korkunç" bir yer) koşturdu. New York ofisi başkanı George Bangs ile tanıştı ve saati yaklaşık elli dolar verecek olan bir tefeciye götüreceğinden emin olduğu için adamın takip edilmesini istediğini söyledi. Bangs, şüphelilerin peşine düşmek için olağan kuralları ve bilinen yöntemleri kullanmayı tercih ederek Peirce'in varsayımlarını reddetti. Görevlileri kontrol etmesi için bir dedektif gönderdi ve bir başkasının yankesicilik ve diğer küçük suçlar da dahil olmak üzere sabıka kaydı olduğu ortaya çıktı; bu daha muhtemel hırsızdı. Yine de dedektifin o adamı gözetlemesinden hiçbir şey çıkmadı. Asıl zanlısının bir tefeciye gideceğine hala ikna olan Peirce, şimdi mal varlığının geri alınmasına yol açacak bilgiler için oldukça büyük bir ödül olan 150 dolar teklif etmek için Bangs'in tavsiyesine uydu.

Bir gün içinde verdiği ilan etkisini gösterdi; bir tefeci saatle öne çıktı. Ve Peirce, komisyoncunun ­onu satan adamla ilgili hatırasını duyduğunda, onayını aldı - bu, suçladığı kâhyanın mükemmel bir tanımıydı.

Peirce daha sonra bir adres aldı (Bangs eğlenmiş olmalı) ve habersiz bir şekilde adamın dairesine geldi; iki kadın onu kapıda karşıladı ve hemen polis çağırmakla tehdit etti. Peirce aldırış etmedi ve gördüğü büyük bir tahta kütüğe doğru ilerledi. Sandığın dibinde, pusulası ve pusulası takılı altın saat zincirini buldu.

Bu sırada kadınlardan biri komşu apartmana kaybolmuştu; Peirce'in söylediği gibi, iki genç kız o kapıyı çalmak için açtığında, bir piyanonun üzerine düzgünce sarılmış bir bohça gördü ve paltosunu kurtarmak için "nazikçe onların ötesine itti".

Peirce, belki Dupin'i kanalize etti; tahmin ettiğine yemin etti. Bay Bangs omuz silkti.

Peirce, "Tahmin Etme" öyküsünü anlattığı makalesini, ilk bakışta şüpheli görünebilecek bir sözle bitiriyor: "Sanırım ­hemen hemen herkes benzer deneyimler yaşadı." 4

Tahmin ediyoruz. Tahminlerimiz - çıkarımlarımız - asla kesin değildir. Ama gizem şu: neden önsezilerimiz, tahminlerimiz gerçeğe gelişigüzel saplamaktan başka bir şey değil?

"Tahmin Etme"nin başında Peirce, "Galileo ve diğer bilim ustalarının" bu kadar az yanlış tahminden sonra yaptıkları doğru teorilere nasıl ulaştıklarını sorar. Bilim adamları ve geri kalanımız, bildiklerimizden ve gözlemlediklerimizden açıklamalar çıkarırız. Bu çıkarımları ­gözlem akışımıza, gerçeklere dahil etmek istiyoruz. Ancak çıkarsadığımız şeylerin çoğu, saf gözlem çerçevesinin dışındadır. Bağlamsal bilgi , yaptığımız hemen hemen her çıkarımı kapsar. Peirce'in öyküsünü desteklemek için Galileo'yu kullanması bu nedenle yerindedir: bilimsel keşif genellikle bilinen yöntemleri titizlikle takip etmeye atfedilir, ancak bu gerçekten doğru değildir. Gizemi yöntemin arkasına saklıyoruz. Galileo da tıpkı vapurdaki Peirce gibi tahminde bulundu. Her iki durumda da, sonraki soruşturma ­, tahminin bir şekilde doğru olduğunu kanıtladı.

Peirce tahmin etmeyi bir içgüdüye, "en az bir milyar" olası hipotez arasından doğru görüneni seçmeye benzetiyordu. Holmes, Watson'la tanışır ve ona, bronzlaştığını ve topalladığını gördüğü için savaştan yeni dönüp dönmediğini sorar. Afganistan'daki savaştan yeni çıkmış bir askeri doktor ­, diye düşündü. Sadece bir tahmin? Hayır - bir çıkarım.

Düzenliliklerden ziyade belirli olguları -bir saatin çalınması gibi- anlamaya çalıştığımızda, kaçınılmaz olarak bir tür sihirbazlığa, ­olguyu açıklayabilecek bir hipotezin seçilmesine ya da icat edilmesine zorlanırız. Tümevarım, gerçeklerden bize (asla kesin olmayan) düzenlilik bilgisi veren genellemelere doğru hareket eder. Ancak kaçırma , belirli bir olgunun gözlemlenmesinden onu açıklayan bir kurala veya hipoteze doğru hareket eder. Peirce'in örneğinde, hırsızlık olayından hırsızın sebebine kadar, kaçırma, olaylardan sebeplerine kadar muhakeme ile yakından bağlantılıdır . Sherlock Holmes, bu tür akıl yürütmeyi "sağduyudan başka bir şey değil" olarak adlandırdı ve büyük ölçüde haklı. Ancak sağduyunun kendisi tam da tümdengelim veya tümevarım gibi mantıksal çerçevelere uymadığı için gizemlidir. Kaçırma , günlük muhakemelerimizin çoğunun, gerçekleri (verileri) bir şeyleri anlamlandırmamıza yardımcı olacak ipuçları olarak gördüğümüz bir tür dedektiflik işi olduğu görüşünü yakalar . ­Peirce'e göre, mekanikle değil, daha çok başka bir açıklama olmadığı için içgüdü dediği bir zihin işlemiyle açıklanabilecek varsayımda bulunma konusunda olağanüstü iyiyiz. Etkili bir şekilde sonsuz olasılıkların olduğu bir arka plandan, hangi hipotezlerin olası veya makul göründüğünü tahmin ediyoruz.

Bir zeka oluştururken bunu hesaba katmalıyız çünkü bu, herhangi bir akıllı düşüncenin başlangıç noktasıdır. Önceden bir kaçırma adımı olmadan, tümevarımlar kördür ve tümdengelimler de eşit derecede yararsızdır.

Tümevarım, ilk adım olarak kaçırmayı gerektirir, çünkü ­filozofların duyu-verisi dediği şeyi - yorumlanmamış ham deneyim - anlamlandırmak için bazı çerçeveleri gözleme getirmemiz gerekir. Kuğu gözlemlerinden ­Tüm kuğular beyazdır şeklindeki genel bir önermeye vardığımız basit tümevarımda bile, bilginin edinilmesine minimal bir kavramsal çerçeve veya teori rehberlik eder . Aynı tümevarım stratejisiyle tüm kuğuların gagaları olduğu sonucuna varabiliriz, ancak tümevarım ­daha az güçlü olacaktır çünkü tüm kuşların gagaları vardır ve kuğular kuşların küçük bir alt kümesidir. Ön bilgiler hipotez oluşturmak için kullanılır. Sezgi, matematikçilere ilginç problemler sağlar.

DeepMind geliştiricileri, prestijli Nature dergisinde çok okunan bir makalede Go'nun "insan bilgisi olmadan" ustalaştığını iddia ettiklerinde, mekanik veya başka türlü çıkarımın doğasını yanlış anladılar. Makale, Marcus ve Davis'in dediği gibi, açıkça "davayı abartıyordu". 5 Aslında, DeepMind'in bilim adamları, Go oyununun zengin bir modelini AlphaGo'da tasarladılar ve oyunun çeşitli yönlerini çözmek için en iyi algoritmaları bulma zahmetine girdiler - tüm bunlar sistem daha önce gerçek bir rekabette oynamadan önce. Marcus ve Davis'in açıkladığı gibi, "Sistem, insan araştırmacıların son birkaç on yılda makinelerin Go gibi oyunları nasıl oynayacağına dair keşfettiği şeylere, özellikle de Monte C ­arlo Ağaç Arama'ya dayanıyordu. . . derin öğrenmeyle hiçbir ilgisi olmayan farklı oyun olasılıkları ağacından rastgele örnekleme . ­DeepMind ayrıca ([Atari sisteminin] aksine) yerleşik kurallar ve oyunla ilgili diğer bazı ayrıntılı bilgiler. İnsan bilgisinin dahil olmadığı iddiası , olgusal olarak doğru değildi.” 6 Bunu daha kısa ve öz bir şekilde ifade etmenin bir yolu, DeepMind ekibinin ­, görevini başarılı bir şekilde yerine getirmek için sistemi tasarlamak üzere insan çıkarımlarını - yani kaçırımsal olanları - kullanmasıdır. Bu çıkarımlar , tümevarımsal çerçevenin dışından sağlandı ­.

SÜRPRİZ!

Peirce, kaçırmanın kökenini sürprize bir tepki olarak anladı:

Şaşırtıcı gerçek, C gözlenir.

Ama A doğru olsaydı, C de doğal olurdu.

A'nın doğru olduğundan şüphelenmek için sebep vardır . 7

Sürprizler, indüksiyon için uzun bela kuyruğunda. Kaçırma çıkarımları , tümevarım gibi genellemeler veya yasalar değil, belirli olguların ( A ) açıklamalarını arar. ­C de ­özeldir - şaşırtıcı bir gerçek. Yani kaçırma hiç de bir genelleme değil.

Belirli gözlemlerden belirli açıklamalara yapılan çıkarımlar, normal zekanın bir parçasıdır. Bir barista olan Kate, Cuma günü değil de Perşembe günü Starbucks'ta çalışıyorsa, önceki deneyimlerinden derlenen bilgilere sahip bir bilgisayar onu Cuma günü beklemeyebilir, ancak sonuçta Cuma günü çalışıyorsa uzun bir kuyruk sorunuyla karşı karşıya kalacaktır. . Fazladan çalışıyor olabilir veya o gün hasta olan birini korumak için çağrılmış olabilir. Ve perşembe günü hasta olduğu, başka bir mağazaya nakledildiği veya işi bıraktığı için çalışamayabilir. Bunların hepsi, görünüşünü veya başka türlü açıklayabilecek özel (şaşırtıcı) gerçeklerdir. Genellemelere veya beklentilere dayanmayan sağduyulu çıkarımlardır. (Bu arada, cezai soruşturmalar ­her zaman şaşırtıcı gerçeklerle başlar. Tümevarım bize çoğu suçu genç erkeklerin işlediğini söyleyebilir, ancak araştırmacının yine de özellikle bu suçtan kimin sorumlu olduğunu bilmesi gerekir - ve suçlunun genç ya da genç olması gerekmez. erkek , hatta Morgue Sokağı'nda gördüğümüz gibi insan.)

t zamanında bir kaçırmanın yanlış olduğu t + 1 zamanında kanıtlanabilir. sonraki gözlem veya öğrenme (örneğin, bir kitap okuyarak).

Varsayımsal çıkarım, akıllı sistemlerin bir hatası değil, bir özelliğidir. Robot Rosie, Kate'in bir iş arkadaşı bu bilgiyi sağladığı için Starbucks'tan ayrıldığına inanabilir, ancak Kate on dakika sonra işe geldiğinde ve iş arkadaşı gülümsediğinde, Robot Rosie çıkarımını geri almalıdır. Gördüklerimiz (ya da hakkında okuduklarımız) için ne kadar çabuk makul nedenler varsaydığımızı ve ayrıca bu tür varsayımları ne kadar çabuk bir kenara bıraktığımızı ya da güncellediğimizi hemen hemen fark etmiyoruz. ­Gündelik dünya, beklentiler zeminine karşı görünüşte şaşırtıcı gerçeklerin sürekli akışıdır. Dünyanın çoğu yerinde, tıpkı bir trafik ışığı gibi, sürekli bir sürpriz değildir; ancak o zaman, trafik ışıkları da bozulur.

Bir gözlemin anlamı da kaçırmayla birlikte kavramsal bir değişime uğrar. Tümevarım gözlemi analiz edilebilecek gerçekler (veriler) olarak ele alırken, kaçırma gözlemlenen bir olguyu dünyanın bir özelliğine işaret eden bir işaret olarak görür. İşaretler, ipuçları olarak düşünülebilir, çünkü en başından ­, gözlemci için önemli olan belirli bir soruna veya soruya işaret etmeye veya bu soruna ışık tutmaya yardımcı olabilecek bir olasılıklar ağına gömülü olarak anlaşılırlar. Suç çözme gibi zengin kültürel bağlamlarda ­ipuçları gereklidir çünkü analiz edilecek çok fazla gerçek vardır ve bunlardan yalnızca birkaçı konuyla ilgilidir. Aslında, dedektiflik işinde bilinen yöntemleri kullanmanın temel sorunu, zor veya görünüşte çözümsüz suçların düzenliliklere uymaması ve gerçeklerin birikiminin hiçbir yere işaret etmemesidir. Akıllı dedektifler ipuçları arar.

Avcılar da öyle. Avcılar yalnızca zeki gözlemciler olmakla kalmaz, ­belirli türden şeyleri gözlemlerler. Toynak izleri, pislikler, saç tutamları, kırık dallar ve kokular avın yerini gösteren ipuçlarıdır. Bir suç mahallindeki dedektifler gibi, avcılar da yakın tarihli bir eylemin kanıtını kasıtlı olarak ararlar; geçmişten gelen sonuçları gözlemlerler.

Belki de mantıksız olarak, ipuçları benzersiz sayılmaz. Bilinmeyen bir kokuyla karşılaşan bir avcı , bunun belki de ilginç ama tamamen benzersiz olmayan bir şeye işaret ettiğini varsayacaktır, çünkü tamamen benzersiz olsaydı koku bir ipucu işlevi göremezdi. Bilinmeyen bir kokunun daha önce ­keşfedilmemiş bir türe veya dünya dışı bir varlığa ait olabileceğini düşünen bir avcı, av bulma konusundaki çıkarlarını ilerletmeyecektir.

Bu nedenle avcı, kendi özel ­amaçlarına uyan bir varsayımla ilgilenir. Belki de koku, çiftleşme mevsiminde bir hayvan tarafından üretildiği için benzersizdir. Dolayısıyla koku, çiftleşme mevsimi olduğu için hayvandaki değişikliklerden kaynaklandığı varsayımıyla açıklanabilecek şaşırtıcı bir gerçektir. Çiftleşme mevsiminde tanıdık bir hayvan farklı kokular yayar. Avcının bu fenomenle ilgili önceden bir deneyimi olmadığını (dolayısıyla kaçırma çıkarımının ­) olduğunu, ancak hedefi ilerletmeyen mantıksal olasılıkları dışlayan bir çerçeve içinde akıl yürüttüğünü unutmayın. Bu tür varsayımların şaşırtıcı bir şekilde doğru olma olasılığı yüksektir - Peirce'in bu kadar çok zekice düşüncenin özündeki "tahmin etme içgüdüsü" konusunda kafasının karışmasının nedeni de budur.

Avcılık en iyi örnek olduğu gibi, görmek de öyle. Peirce'in işaret ettiği gibi, belirli bir nesnenin açelya olduğuna karar vermek bile, derin bir ön bilgi ve beklenti ağında fiziksel algıyı içerir.

Şu sözlerini hatırlayın: “Bu güzel bahar sabahı penceremden dışarı baktığımda açmış bir açelya görüyorum. Hayır hayır! Bunu görmüyorum; gerçi gördüklerimi ancak böyle tarif edebilirim. Bu bir önerme, bir ­cümle, bir olgudur; ama algıladığım şey önerme, cümle, olgu değil, yalnızca bir olgu bildirimi aracılığıyla kısmen anlaşılır kıldığım bir imgedir ­. Bu ifade soyuttur; ama benim gördüğüm somut.” 8

Peirce'in, kaçırma çıkarımının son derece ­önemsiz görünen görsel algısal yetenekleri desteklediği konusundaki ısrarı, ImageNet yarışmalarındaki kontrolden çıkmış başarılarda olduğu gibi, görsel nesne tanıma görevlerinde evrişimli sinir ağları (derin öğrenme) kullanan son başarılarla çelişiyor gibi görünebilir ­. Yine de, bu tür görünüşteki başarılar aslında Peirce'in görüşünü kanıtlıyor, çünkü araştırma topluluğu (kredisine göre) , yalnızca temel çıkarım sorularına değil, aynı zamanda güven ve güvenilirlikle ilgili endişelere de değinen büyüyen bir literatürde bu sistemlerin kırılganlığına hızla işaret etti. yanı ­sıra kötüye kullanım potansiyeli. Bilgisayar bilimcisi Melanie Mitchell'in işaret ettiği gibi, kazanan derin öğrenme sistemlerini bile kandırmak gülünç derecede kolay. 9

Örneğin, 2012 yarışmasında sahayı alt üst eden sistem AlexNet, ­bir okul otobüsü, peygamber devesi, tapınak ve shih tzu görüntülerinin devekuşu olduğu sonucuna varmak için büyük bir güvenle kandırılabilir. 10 Araştırmacılar, bu düşmanca örnekler olarak adlandırıyorlar ve görüntülerdeki birkaç pikseli stratejik olarak değiştirerek başarılıyorlar - o kadar az ki, değişiklikler insan gözü tarafından hiç fark edilmiyor. Görüntüler hala insanlara tam olarak orijinallerine benziyor.

Sözde rakip saldırılar da AlexNet'e özgü değildir. Görüntü tanımada etkileyici performans gösteren derin öğrenme sistemleri aslında ne algıladıklarını anlamazlar. Bu nedenle, yaklaşımın kırılganlığını ortaya çıkarmak kolaydır. Diğer deneyler, insanlar tarafından kolayca göz ardı edilen ancak ­derin öğrenme sistemleri için sorunlu olan arka plan nesnelerini dahil ederek performansı büyük ölçüde düşürdü . Diğer deneylerde, TV'lerde tuz-biber statik gibi görünen görüntüler - rastgele siyah beyaz piksel toplulukları - onları armadillo, çita veya kırkayak resimleri olarak sınıflandırabilen derin öğrenme sistemlerini aptal yerine koyar. Modern AI ilerledikçe, bu bariz eksiklikler aslında görsel algıyı bile mümkün kılan bilgi ve bağlamın derinliğini kanıtlıyor. Başka bir deyişle Peirce, güzel bir bahar sabahında açelya görmek ya da başka bir şey görmek konusunda haklıydı: "Gördüğüm her şeyi bir cümleyle ifade ettiğimde [çok fazla şey yaptığımda] bir kaçırma gerçekleştiririm. Gerçek şu ki, bilgimizin tüm dokusu, tümevarımla doğrulanan ve rafine edilen saf hipotezin keçeleşmiş bir hissidir. Her adımda bir kaçırma yapmadan, boş bakışma aşamasının ötesinde bilgide en küçük bir ilerleme kaydedilemez. ­11

O halde zekanın kaynağı, varsayımsal veya kaçırmaktır ve en önemlisi, gerçekleri veya verileri görüntülemek için güçlü bir kavramsal çerçeveye sahip olmaktır. Peirce, zeki bir etmen (kişi veya makine) bir varsayım oluşturduğunda, ­tümdengelim ve tümevarım gibi aşağı yönlü çıkarımın varsayımın (tümdengelim) sonuçlarını netleştirdiğini ve onu deneyime karşı test etmek için bir araç (tümevarım) sağladığını açıklar . Farklı mantıklar birbirine uyar: “Tümdengelim, bir şeyin olması gerektiğini kanıtlar; Tümevarım, bir şeyin gerçekten işler durumda olduğunu gösterir ­; Kaçırma sadece bir şeyin olabileceğini ima eder. 12 Yine de , gerçek dünya ortamlarında düşünmeyi ateşleyen , olabilir - kaçırılmadır.

Kaçırmanın yenilebilir doğası, onun ­sadece avlanma ya da dedektiflik işlerinde değil, doğal dil anlayışındaki merkezi önemini açıklamaya yardımcı olur. Günlük dilde söylenenlere ilişkin anlayışımız sürekli olarak güncellenmeye ve gözden geçirilmeye tabidir. Şu İngilizce parçasını ele alalım: Raymond pencerede bir köpek yavrusu gördü. O istedi. Zamir muhtemelen köpek yavrusu anlamına gelir (dilbilimciler buna pronominal anafora veya geri uzanma örneği derler). İki cümle "birdenbire" bir bağlamda ve Raymond hakkında daha fazla bilgiye sahip değiliz, ancak sağduyu bize insanların pencereden çok yavru köpek istediğini ve genellikle pencerelerden nesnelere baktığımızı hatırlatıyor. bizim için biraz ilgi çekici olabilir. Ancak ­köpek yavrusu anlamına geldiği çıkarımı kesin değildir. Bağlam ekleyerek örneği değiştirin ve bu çıkarım yanlıştır: Raymond penceresini kırdı. Yenisini almak için alışverişe çıktı. Doğru kişiyi bulduğunda anlayacağını söyledi kendi kendine. Güzel bir fırtına penceresi satıştaydı. Raymond pencerede bir köpek yavrusu gördü. O istedi. Onun için doğru pencere buydu.

Örnek uydurma olabilir ama bunda yanlış bir şey yok. Raymond, görünüşte sıradan satın alımlar üzerinde kafa karıştıran türden bir adam olabilir. Bir köpek yavrusu görünümünü, belki de bazı batıl inançlardan dolayı, belirli bir pencereye sahip olması gerektiğinin bir işareti olarak almaya eğilimli olabilir. Mesele şu ki, zamiri bir işaret olarak görürsek, bağlam değiştikçe farklı isimleri işaret edebilir veya onlara atıfta bulunabilir. Bugüne kadar AI'daki mevcut tüm stratejiler, bu tür örnekleri yeterince hesaba katamadı.

Araştırmacılar tümdengelim işlemini "tekdüze çıkarım" olarak adlandırıyor çünkü ­sonuçlar kalıcıdır; bir yapay zeka sistemi bir sonuca vardığında, sonuç otomatik olarak sistemin bilgi deposuna eklenir. Yine de dil anlayışı tekdüze değildir (geri alınabilir çıkarım gerektirir ). Ardışık cümlelerden gelen yeni bilgiler, ilk yorumlardaki değişiklikleri zorlayabilir: Raymond tam o anda bunun kendisine açılan pencere olduğunu anladı . Bir anlatının ana fikrini anlamak için, her yeni cümlenin ­öncekilerin yorumlanmasını nasıl etkilediğini anlamamız gerekir . ­Bu, her şeyden önce varsayımsal olan ve en başından revizyona tabi olan kaçırmanın içine yerleştirilmiştir.

Klasik yapay zekada (web'den önce yapay zeka), araştırmacılar çıkarımı geçersiz kılmak için genişletmenin farklı yollarını denediler. Şimdiye kadar en yaygın yaklaşım, kesintiyi genişletmeyi içeriyordu. Sözde ­tekdüze olmayan muhakeme üzerindeki çalışmalar 1980'lerde ve 1990'larda zirveye ulaştı, ancak o zamandan beri büyük ölçüde terk edildi, çünkü büyük ölçüde dili anlamak için daha esnek hale getirmek için tümdengelim uzantıları yalnızca yararlı olmayan "oyuncak" örnekler üzerinde çalışıyor. gerçek dünyada. Klasik bir örnek şu şekilde akıl yürütmedir: "Eğer x bir kuşsa, x uçabilir. X aslında bir kuştur. Böylece uçabilir. Beklemek! Bu bir penguen. Penguenler uçamaz. Bu nedenle, x uçamaz (sonuçta).” Bunun gibi muhakemelere izin veren feshedilebilir muhakeme sistemleri vardır , ancak genel durumda inatçı oldukları (yani hesaplama açısından mümkün olmadığı) ve haber makalelerinde bulunan sıradan dili yorumlamak için gereken karmaşık çıkarımları kaldıracak şekilde ölçeklendirilmedikleri bilinmektedir . ­Monoton olmayan çıkarım sistemleri, yalnızca laboratuvardaki uydurma senaryolar üzerinde çalışır.

Bu tür sistemler ölçeklenebilse bile, tümdengelimle ilgili temel sorun, onun gerçeği koruyan kısıtlamasıdır - her şey kesin olmalıdır. Çıkarımları daha sonra değiştirebilir veya reddedebiliriz, ancak her şeyden önce tümdengelim kullanarak zaman kaybediyoruz.

Yapay zekadaki tümdengelimini uygulanabilir kılmak için genişletmeye çalışan aynı araştırmacıların çoğu ­, 1980'lerde ve 1990'larda, özellikle de kaçırma mantığı programlama (ALP) ile kaçırmaya yönelik tümdengelim temelli yaklaşımlar üzerinde çalıştılar . ­Teknik ayrıntılara girmeden, bir ALP çıkarımı, bir mantıksal teori T'den (bilgi tabanı) koşullu bir E ^ Q'nun gerçeğine bir gerekliliktir (gerçeği koruyan tümdengelimli bir çıkarım), burada E , Q'nun bir açıklamasıdır . gözlem. Aslında bu, kaçırmaların varsayımsal doğasını ortadan kaldırmanın süslü bir yoludur . ­Hiçbir çıkarımsal güç kazanılmaz, bu da monoton olmayan muhakeme stratejileri gibi ALP üzerindeki çalışmaların neden zayıfladığını ve büyük ölçüde terk edildiğini açıklar. (ALP ile ­ilgili sorun, genel olarak sağduyulu çıkarsama ile ilgili temel sorunu yerinde bir şekilde göstermektedir ve buna gelecek bir bölümde geri döneceğiz.)

Peirce'in kaçırılma kavramını ­makul bir hipotezin varsayımı olarak korumaya çalışırsak, çıkarımsal bir "bela" ile karşılaşırız. Özellikle, bir muhakeme hatası ile sonuçlanırız. Mantık çalışmalarında buna safsata denir ve şimdi ona döneceğiz.

YANLIŞLAR VE HİPOTEZLER

Peirce, kaçırmayı "bozuk" çıkarım olarak sembolize etti. Doğrudan çıkarım için modus ponens kuralını tekrar göz önünde bulundurarak bunu görmek en kolay yoldur :

A ^ B (Bilgi)

A (Gözlem)

B (Sonuç)

Ve doğruluk tablosu:

A ^ B           Sonuç

TT TT

T     FF

F     TT

F     FF

İkinci satır sorundur: A doğrudur ancak B yanlıştır, bu da A ^ B'den çıkarımı yanlış yapar . Örneğin, A Yağmur yağıyor ve B Sokaklar ıslak öğesini temsil ediyorsa , koşullu ­ifade , yağmur yağıyorsa sokakların ıslak olduğunun her zaman doğru olduğunu söyler. Ancak A , Yağmur yağıyor'u ve B, Sokaklar kuru'yu temsil ediyorsa, o zaman A ^ B malzeme koşulu ( A ise , o zaman B ) yanlıştır. Doğruluk tablosunun ikinci satırı bize bunu söylüyor.

Üçüncü sıraya dikkat edin: eğer yağmur yağmıyorsa ama sokaklar aslında ıslaksa, sokaklar hala ıslak, yani kural hala gerçeği koruyor. Ancak yağmur yağdığı ve sokakların ıslak olmadığı herhangi bir zamanda kural yanlıştır, dolayısıyla onu uygulamanın sonucu da yanlış olacaktır. Bu, "önerme" olarak adlandırılan standart mantıktır çünkü değişkenler tam ­ifadeleri veya önermeleri temsil eder.

Önerme mantığı çok uzun zaman önce geliştirildi ve hatası olmadığı kanıtlandı. Tamdır, yani mantıkta doğru olan herhangi bir ­şey (kuralları kullanılarak) kanıtlanabilir ve kanıtlanabilen her şey de doğrudur. Aynı zamanda tutarlıdır, çünkü bir çelişkiyi kanıtlayamazsınız . A doğruysa , “ A olmayan” yanlış olmalıdır ve sistem ilkini ispatlıyorsa ikincisini ispatlayamaz. Önermeler mantığının basitleştirilmiş dünyasında hiçbir şey gerçekten ters gidemez . İçinde ifade edilen herhangi bir önermenin doğruluğunu türetebilirsin ve asla saçma sapan türetemezsin - örneğin, hem yağmur yağdığına hem de yağmadığına inanarak . Sistem tutarlıdır.

Şimdi, önerme mantığında veya genel olarak tümdengelimde izin verilmeyen aşağıdaki yanlışlığı ele alalım:

Sonucun Onaylanması

Bir ^ B

B

A

Mantıkçılar bu argümanı "sonucu doğrulama" örneği olarak adlandırırlar, çünkü B kuralın sonucudur ( A öncül olarak adlandırılır) ve B ikinci öncül, gözlemlenen durum veya olgu olarak verilir ­. Açıkçası, yine de, sonucu durum olarak kullandığımızda hata yapıyoruz. Mantık hatası yapıyoruz. Bunun nedeni , A'nın yanlış olabilmesidir, bu nedenle, tümdengelim gerektirdiği gibi, her durumda doğru olduğu sonucuna varamayız. Tümdengelim gerçeği koruduğu için, çıkarım ­geçerlidir. Bu bir yanlışlık.

A ve B'ye gerçek İngilizce cümleleri (önermeler) atayarak bunu görmek daha kolaydır ­:

Yağmur yağıyorsa sokaklar ıslaktır.

Sokaklar ıslak.

Bu nedenle yağmur yağıyor.

Argüman geçersizdir çünkü öncüllerin gerçeği kabul edilse bile sonucu mutlaka doğru değildir: sokak başka nedenlerle ıslak olabilir (örneğin, bir yangın musluğu patlamış olabilir). Sonucu onaylamak kötü bir çıkarımdır çünkü bu bir tahmindir. Kaçırmanın mantıksal biçimini, kötü tümdengelimin bir varyantı olarak görmek, akıl yürütme çalışmalarında tarihsel olarak neden göz ardı edildiğini ve ­ayrıca yapay zekada bulunanlar gibi mekanik yöntemlere neden direndiğini açıklamaya yardımcı olur. Kötü kuralları nasıl dahil ederiz?

Aslında, Peirce'in çıkarım türlerine ilişkin kendi formülasyonu, tam da az önce belirtilen nedenle, kaçırmayı bir tür tümdengelim olarak çeviremeyeceğimizi açıkça ortaya koymaktadır. İngilizce dil ifadelerinde ifade edilen tasımları kullandı:

Kesinti

Bu torbadaki tüm fasulyeler beyazdır.

Bu fasulyeler bu çantadan.

Bu nedenle, bu fasulye beyazdır.

indüksiyon

Bu fasulyeler bu çantadan.

Bu fasulyeler beyazdır.

Bu nedenle, bu torbadaki tüm çekirdekler beyazdır.

kaçırma

Bu torbadaki tüm fasulyeler beyazdır.

Bu fasulyeler beyazdır.

Dolayısıyla bu fasulyeler bu torbadandır.

Bunu önerme mantığına dönüştürürsek, şunu elde ederiz:

Kesinti

Bir ^ B

A

B

indüksiyon

A

B

Bir ^ B

kaçırma

Bir ^ B

B

A

Başka bir deyişle, kaçırma doğası gereği kapsamlı bir tümdengelim biçimi olamaz, çünkü mantıksal biçimi (özü) korkunç bir tümdengelim yanılgısıdır. Tümdengelimli çıkarımın gerçeği koruyan doğasını bozar ki bu, Peirce'in öne sürdüğü gibi tanımı gereği yanlış olabilecek bir varsayım veya tahminle başladığı düşünülürse mantıklıdır.

Aslında, bu çerçevedeki üç çıkarım türü de farklıdır: bir tür diğerine dönüştürülemez; bu da, akıllı çıkarım kaçırma gerektiriyorsa, oraya tümdengelim ­veya tümevarım yoluyla ulaşamayacağımız anlamına gelir. Bu gözlem yapay zeka üzerinde çalışmak için çok önemlidir. Tümdengelim yetersizse ve tümevarım yetersizse, o zaman bir kaçırma teorimiz olmalıdır. (Henüz) yapmadığımıza göre, şimdiden yapay genel zeka yolunda olmadığımız sonucuna varabiliriz. 13

varsayımı ve ampirik kısıtlamanın birleşiminin, tümevarımı yapay genel zeka için eksiksiz bir strateji olarak ortadan kaldırdığına daha önce işaret etmiştim . Verilerdeki sıklıklara ­güvenmek bize, bakım gözlemleri biriktikçe çiftçinin onu umursadığına dair güveni aslında artan Russell'ın hindisini verir - Noel ziyafetinden önceki gün, tümevarımsal olarak, ­inançlarının doğru olma olasılığı en yüksektir (çünkü en tümevarımsal desteğe sahiptir). Ve ampirik kısıtlama, Türkiye'ye verebileceğimiz bilgi veya teori üzerindeki katı bir sınırdır. Ona “çiftçinin sana nasıl davrandığına dikkat et” dersek, ölene kadar daha da mutlu olacak. Ancak “kıyma tahtasındayım” gözlemi önceki tüm zamanlarda ( t = Noel Günü) verilerde bulunmadığından, türkiye'nin teorisine veya modeline saf tümevarımla sağlanamaz.

Makine öğreniminde bu, bir sisteme sağlayabileceğimiz tek bilginin, verilerde tamamen sözdizimsel olarak kurtarılabilecek bilgiler olduğu anlamına gelir ­. Bu, DeepMind'ın Atari sisteminde olduğu gibi bir erdem olarak görüldü, ancak Russell'ın hindisine musallat olan aynı tür kör noktayı ima ediyor -verilerde gözlemleyemediği şeyi bilmiyor. Bu, görüntü tanıma zaafları gibi başarısız tahminlerle sonuçlanır ve aynı zamanda, piksellerde önemsiz gibi görünen değişikliklerin oyunlarda ve diğer görevlerde performansı düşürdüğü modern sistemlerin kendine özgü kırılganlığını da açıklar.

Tamamen veri odaklı, endüktif sistemleri bir dereceye kadar daha fazla veri ekleyerek düzeltebiliriz. Ancak istisnalar, alışılmadık gözlemler ve her türlü sürpriz, gerçek dünyanın ayrılmaz bir parçasıdır. Denetimli öğrenim sistemlerini öngörülebilir istisnalara maruz bırakma stratejisi, ­sürücüsüz arabalarla ilgili süregelen çalışmalarda yapıldığı gibi, Sisifosvari bir girişimdir, çünkü istisnalar doğaları gereği ­tamamen öngörülemez. Yeni, esasen abdüktif bir yaklaşım gereklidir. Bu arada, yalnızca gözlemlenebilir düzenliliklere , otomatikleştirilebilir olanın “şişman kafasına” takılıp kaldık.

Judea Pearl, "nedensellik merdiveni" metaforuyla bu noktayı güzel bir şekilde ortaya koydu. Makine öğrenimi ve istatistiğe ­, "verileri bir eğriye uydurma" (ve teknik olarak öyledir) alıştırması adını verir ve bu, ilişkilendirmenin ilk basamağıyla örtüşür. İlk basamakta “Bir anket bana seçim sonuçları hakkında ne söyler?” gibi korelasyonla ilgili sorular sorabiliriz. AlphaGo gibi modern oyun oynama sistemlerini tasarlamak için bir oyundaki hamleler ile kazanan sonuçlar arasındaki korelasyonları kullanabiliriz. Ancak verilerdeki çağrışımlardan dünya hakkında nedensel bilgiler çıkaramayız, bu nedenle neden ve nasıl sorularını içeren açıklamalar, ­yanıtlanmak şöyle dursun , formüle bile edilemez . Nedensel bilgi, dünyayı sağduyulu anlayışımızın bir parçasını oluşturur ve örneğin, verileri neden anlayışımıza katkıda bulunan önceki nedenlerin etkileri veya ipuçları olarak görebildiğimizi açıklar.

Daha da önemlisi, Pearl'ün merdiveninin en üst basamağında, yanıtları herhangi bir veri kümesinde hiç bulunmayan (tanım gereği, çünkü neyin gerçekleşmediğini soruyoruz) sorularının sorulduğu karşı ­- olgusallar vardır. Dünyalar hayal ediyoruz. İnsan zekasının ayrılmaz bir parçası olan bu tür karşı olgularda, örneğin Oswald hiç yaşamamış olsaydı Kennedy'nin hâlâ hayatta olup olmayacağını veya çiftçiye bir hindi hediye edilmiş olsaydı hindinin güvende olup olmayacağını belirlememize yardımcı olan veriler işe yaramazdı. ya da yangın musluğu yoldan çıkan bir otobüs tarafından yerinden edilmemiş olsaydı sokaklar hala ıslak olacak mıydı? Hayal gücü, bir veri kümesinde olmayan çıkarımları içerir. Ve hayal etmek, eğer bir şey varsa, varsayım gerektirir. Kaçırma ­, tüm zekanın merkezinde oturan çıkarımdır.

Son zamanlarda araştırmacılar unutmuş gibi görünse de, yapay zekanın inişli çıkışlı tarihinin çoğu için, dünya hakkında sağduyulu bilgi edinme ve kullanma sorunu, onun temel sorunu olmuştur. Sağduyu, gerçek dünyanın zengin bir şekilde anlaşılmasını gerektirir ve bu, ­genel olarak iki kısma ayrılır: ilk olarak, yapay zeka sistemleri bir şekilde günlük bilgileri (ve birçoğunu) edinmelidir; ve ikincisi, onu kullanmak için bazı çıkarımsal yeteneklere sahip olmaları gerekir.

Toronto Üniversitesi'nde bir yapay zeka bilimcisi olan Hector Levesque, 2018 Sağduyu, Turing Testi ve Gerçek Yapay Zeka Arayışı'nda zengin bir bilgi kuramı olmadığında, yapay genel zekaya ulaşma girişimlerimizi iyi bir şekilde ortaya koyuyor (" gerçek ”AI) mahkumdur. 14 Sağduyu bilgisinin gerekliliğine ilişkin analizi yerinde, ancak görünüşe göre tümdengelimli akıl yürütmenin (henüz bilinmeyen) bir uzantısı olarak çıkarımı anlamanın geleneksel tuzağına düşüyor .­

Levesque, büyük ölçüde, akıllı sistemlerde kafa kafaya bilgi ve çıkarım sorunlarını ele alan, bilgi temsili ve muhakeme (KR&R) olarak bilinen yapay zekada bir zamanlar öne çıkan bir alanı yeniden canlandırmaya çalışıyor ­. KR&R'nin akıl yürütme kısmı, çıkarım değerlendirmelerini içerir ve az önce gözden geçirdiğimiz sorunlar, KR&R alanında az çok keşfedildi, ancak ne yazık ki çözümsüz kaldı. Levesque, 2013'te "En İyi Davranışımız Üzerine" adlı daha önceki bir makalesinde, tümdengelimdeki uzantıların (ve düzeltmelerin) anlaşılmaz oldukları için aksadığına işaret etmişti ; bu, çözümlerin gerçek zamanlı olarak hesaplanamayacağı anlamına gelen bir bilgisayar bilimi terimidir (eğer hepsi): "Çocuk düzeyindeki en temel bilgiler bile çok çeşitli mantıksal yapılara ihtiyaç duyuyor gibi görünüyor. Sebep ve sonuç ve etkisizlik, karşı olgular, genelleştirilmiş ­niceleyiciler, belirsizlik, diğer faillerin inançları, arzuları ve niyetleri, vb . Ve yine de, bu yapılar üzerinde sembolik muhakeme, hesaplama açısından çok fazla talep ediyor gibi görünüyor. 15

İnatçılık, yaklaşımın kendisinin yanlış olduğuna dair bir ipucudur. Daha derin bir ipucu basitçe, tümdengelim kaçırmanın mantığına sığdırılamaz ­. Bu indirgenemezlik , hesaplama masrafı sorunlarından bağımsız olarak sorunun temel olduğunu ima eder .­

KR&R'nin her iki yönü, yani hem temsil hem de ­muhakeme bugün gereklidir. Özellikle sağduyu bilgisini bir makinede temsil etmenin, en hafif deyimiyle zor olduğu kanıtlanmıştır.

Onlarca yıl çalıştıktan sonra bile, hiç kimse sıradan bir dili anlamak veya evin içinde veya işlek bir caddede gezinmek gibi gerçek dünya senaryolarında onu güçlendirmek için bir makineye yeterli temel bilgiyi almaya yaklaşamadı bile. 16 Bilgi ve muhakeme açıkça ­birbiriyle bağlantılıdır, çünkü bilmediğimiz bir şeyi çıkarsayamayız ve uygun bir çıkarım yeteneği olmadan sahip olduğumuz bilgiyi kullanamayız. Ben bu sorunları "dipsiz bilgi kovası ­" ve "sihirli çıkarım motoru" olarak adlandırıyorum.

İronik bir şekilde, Abdüktif Mantıksal Programlama konusundaki eski çabalar, temel engelleri uygun bir şekilde göstermektedir. T'nin (tekrar) bir AI sistemi S için bazı bilgi tabanı olduğunu varsayalım; bu, (şaşırtıcı) bir Q gözlemi yapar, öyle ki bir açıklama (veya neden) E , T'dedir ve T, E ^ Q'yu gerektirir , burada gereklilikler güçlüdür . ­gerçeği koruyan çıkarım (teknik olarak, gereklilik maddi imadan " ^ " daha güçlüdür, çünkü T'deki her ifade aynı zamanda E ^ Q'yu da doğru yapmalıdır ve bunun tersi de geçerlidir). Dolayısıyla T , S'nin "her şeyin teorisi"dir. Soru 1: Gerekli tüm bilgileri T'ye nasıl alırız ? Soru 2: E ^ Q yalnızca yukarıda gördüğümüz maddi koşullu olduğuna göre, E ^ Q'nun gerçeği, bu durumda Q gözlemi için E'nin makul (test edilebilir) bir varsayımına nasıl kaçırımsal bir çıkarım oluşturur ? Başka bir deyişle: Bir T teorisini nasıl elde ederiz ve onu kaçırma olarak nasıl kullanırız? Bu sorunları açıklamak için gereken tek şey ıslak zemindir.

ABD Savunma Bakanlığı, ileri teknoloji araştırma kolu Savunma İleri Araştırma Projeleri Ajansı aracılığıyla, bir zamanlar büyük sağduyu bilgi tabanlarının inşasına büyük miktarlarda para yatırdı. Mantık ve hesaplama konusunda eğitim almış uzmanlar (tam açıklama — bu uzmanlardan biriydim) Yaşayan insanların kafaları vardır ve Fıskiyeler su püskürtür ve Su her şeyi ıslatır vb. gibi sıradan ifadelerle kaşıkla beslenen hesaplama sistemleri . Görünüşte ­, bu sağduyu gerçekleriyle donanmış AI sistemleri, dünya hakkında bir şeyler çıkarmak için onlardan yararlanabilir. Bu tür sistemlerin kaçırma çıkarımına ihtiyaç duymayacağı umuluyordu çünkü bilgiyle dolu sistemler daha basit ve daha iyi anlaşılan çıkarım yaklaşımları kullanabilirdi. Fıskiyeler açıkken etraflarındaki alan ıslanıyor, yağmurla ilgili benzer ifadeler kadar doğru olduğundan, sistemlerin ­çıkarım motorları sonuçta iyi bilinen bir çıkarımla bağlı kalabilir. Sensörler (veya metin girişi), yapay zeka sistemlerini yaklaşan bir gelgit dalgası hakkında bilgilendirebilir ve sonuç, sokakların ıslandığı sonucunu çıkarabilir.

Bu yaklaşıma yönelik bir dizi büyük zorluk kısa süre sonra su yüzüne çıktı. İlk sorun açıktı ya da öyle olmalıydı: Bildiğimiz şeylerin çoğu üstü kapalı. Bilgimizi, yalnızca koşullar gerektirdiğinde, örneğin ­şaşırdığımızda veya kasıtlı olarak bir şey üzerinde düşünmemiz gerektiğinde, onu açık hale getirerek bilince getiririz.

Bu bizi ikinci soruna, "buzdağının görünen kısmı"na getiriyor. Tüm örtük bilgimiz bazı çıkarımlar için gerekli olabilir, ancak toplam miktar çok fazladır. Sıradan bir insanın bilgi tabanı inanılmaz derecede geniştir ve onu bir bilgisayara girmek ve temsil etmek devasa bir iştir.

Bir bilgisayarı sağduyuyla kaşıkla beslemek, ömür boyu sürecek felsefi bir projeye dönüştü; sağduyu bilgisini ortaya çıkarmak, ­çatlağı olmayan ve yalnızca bir deliği dolduracak cam bir kaba sıvı dökmek gibi . Ya da yaşayan insanların kafaları olduğunu ya da bir yolun taşıt yolculuğu için tasarlanmış sert bir yüzeye sahip bir patika olduğunu . Araştırmacılar, bilgisayarların eninde sonunda "anlayacağını" varsayıyordu, ancak sonunda proje bitmeyecek gibi göründü.

Basit ve sıkıcı olduğu kabul edilen ıslaklık konusu hakkında akıllıca yanıt vermek için oluşturulmuş bir yapay zeka sistemi düşünün. Kendi başına büyük bir bilgi tabanı gerektirecektir. Diyelim ki, yalnızca bu konu için konuşmaya hazır herhangi bir gerçekçi makine, ­su taşıyan yangın söndürme uçakları (sokakları da ıslatsa da yakıt değil), Super Soaker'lar, oynayan çocuklar vb. için konseptlere ihtiyaç duyacaktır. Sisteme bir Turing test sorgusuna benzeyen basit bir soruyu düşünün: " Gökyüzünde bulut olmayan sıcak bir gündü. İtfaiye, arızalı bir yangın musluğunu kapatması için çağrıldı. Ana Cadde ıslaktı ve ­oluklar, akan sudan kaynaklanan döküntülerle tıkanmıştı. Sokaklar neden ıslaktı? ” AI sisteminin bilgi tabanında itfaiye ­ve hidrantlar yoksa, soruyu yanıtlama ümidi yoktur. Ve soruya şu ek cümleyi eklemeyi düşünün: “Ama sokakları ıslatan bu değildi. Hidrant, şarküteri ön camlarına püskürüyordu. İtfaiye gelmeden hemen önce bölgeyi şiddetli bir fırtına vurdu. Her şey ıslaktı!” Bilgi tabanındaki tüm bu kavramlar nasıl yardımcı olur? Kesinti nasıl yapılır?

HESAPLAMALI BİLGİ OLARAK

Dipsiz Bir Kova

Bu, "dipsiz kova" sorunudur: Hesaplamalı bir bilgi tabanını (bir mantıkta) önermeler olarak ifade edilen ifadelerle doldurmak sonsuz bir iştir. Bir mahallede veya bir mahallede olup bitenler hakkında akıl yürütme gibi basit sağduyu problemlerini bile ­, görünüşte alakasız görünen çok büyük miktarda bilgiyi etkili bir şekilde kodlamadan ­çözemeyiz .

Bir de temsil sorunu var. İlişkisel veritabanları gibi bilgi tabanları, ıslak sokaklar ­veya Kate'in kafede yokluğu veya yarısı yenmiş ton balığı konserveleri veya sizin ne varsa hakkında konuşmakla ilgili bilgi kırıntılarının daha iyi anlaşılabilmesi için organize ve yapılandırılmış olmalıdır. çıkarım için kullanılabilir. Ton balığı yemek için kaşık kullanılıp kullanılmadığı sorulduğunda, bir AI sisteminin gece gökyüzünde Mars'ın konumunu hesaplamaya başlaması işe yaramaz. Bu alaka sorunudur ve onu ­erişilebilir ve kullanılabilir kılmak için bilgiyi temsil etme stratejileriyle kurnazca engellenmelidir. Araştırmacılar tipik olarak ilgili bilgileri, kuralların ( modus ponens ve diğerleri gibi) gerekli olanı kapsayacağı şekilde gruplandırarak alaka sorunlarını "önceden çözmeye" çalışırlar.

Tipik olarak, bir bilgi tabanı, bir şeyin başka bir şeyin örneği olduğunu belirten "is-a" bağlantıları kullanılarak hiyerarşiler halinde düzenlenir; örneğin, bir dizüstü bilgisayar bir PC'dir, bu bir bilgisayar türüdür, bu bir dijital teknolojidir ve böylece Açık. Büyük bilgi tabanlarında hiyerarşiler, dünyada sıkça karşılaştığımız şeyler hakkında ansiklopedik konu kümelerinin belkemiğini oluşturur. Tüm “is-a” bağlantılarına ek olarak, kavramlar arasındaki parça-bütün ( meronymic) ilişkileri gibi diğer önemli ilişkileri ifade eden diğer yüklemler (yani kavramlar arasındaki bağlantılar) tanıtılabilir . ­17 Bilgi temsil dilleri ­, yapay zekanın ilk yıllarından beri, hiyerarşik ilişkileri ifade etmek için özel olarak hazırlanmış basitleştirilmiş sözlükler kullanarak bilgi tabanı geliştirmeyi kolaylaştırmak için gelişmiştir.

Örneğin, 1990'larda, web'deki çalışma grupları, ­yüklemin "is-a", "part-of" olabileceği "üçlü" (özne yüklem-nesne cümleleri) yazmak için kaynak tanımlama çerçevesini (RDF) geliştirdi. veya bilgi tabanını oluşturmak için yararlı olduğu düşünülen başka herhangi bir şey. RDF, bilgi tabanlarının özünde ­(geç yapay zeka araştırmacısı John Haugeland'ın bir zamanlar ifade ettiği gibi) binlerce üçlüye sahip daha büyük projelerin bilgi tabanları ile hesaplamalı ansiklopedi biçimleri haline gelmesine yardımcı oldu. AI araştırmacıları, kullanım kolaylığının uzman olmayanları bile üçlü yapmaya teşvik edeceğini umdu - bu, HTML'nin yaratıcısı Tim Berners-Lee tarafından dile getirilen bir rüya. Berners-Lee buna Semantik Web adını verdi çünkü web sayfalarının makine tarafından okunabilir RDF ifadelerine dönüştürülmesiyle bilgisayarlar her şeyin ne anlama geldiğini bilecekti. Web, bilgisayarlar tarafından akıllıca okunabilir olacaktır. Yapay zeka araştırmacıları, bilgi tabanlarını yalnızca istatistikleri kullanan kırılgan sistemlerin sonu olarak lanse ettiler - çünkü sonuçta istatistikler anlamak için yeterli değil. Semantik Web ve AI'daki diğer bilgi tabanı merkezli projeler nihayet dünya hakkında "bilebilir" ve sadece sayı karmaşasından fazlasını yapabilir. Asla işe yaramayan bu hayal için muazzam miktarda para ve çaba harcandı. Dipsiz kova sorunu hala bizimle, çünkü görev hala dipsiz.

Ancak bilgi, tipik olarak, bir yapay zeka sistemi tarafından hızlı bir şekilde erişilebilmesi için konuya göre düzenlendiğinden (ne de olsa, bir soru sorulduğunda sokakların neden ıslak olabileceğini düşünmek tüm günü alamaz ­), mühendisler kendilerini buldular. ortaya çıkabilecek her şeyi kapsayacak şekilde belirli bir konu alanına giderek daha fazla "tuhaf" bilgi yerleştirmek. Örneğimizi tekrar kullanacak olursak, sistemin ıslak sokaklarla ilgili temel soruları yanıtlama duasına sahip olması için itfaiyeciler, hidrantlar, Super Soakers, yangınla ­mücadele uçakları, yağmur, kar, sel vb. hepsinin bir şekilde birbirine bağlanması gerekiyordu. Ancak bu strateji hızla mantıklı gelmiyor; bilgiyi konuya göre doğal bir şekilde düzenlemeye yönelik orijinal niyeti boşa çıkarır. Yangın hidrantları, sokaklarıyla birlikte tipik bir şehir bloğunun, büyük yangın söndürme uçaklarının veya su atan çocuk oyuncaklarının açıklamalarının bir parçası olabilirken, muhtemelen olmayacak. Başka bir deyişle, gerçek zamanlı muhakeme için bilgi işlemsel olarak erişilebilir olacak şekilde bilgiyi organize etme girişiminin kendisi, bir senaryo veya başka bir durumda gerekli olacak öğeleri kaçınılmaz olarak dışarıda bırakır. İstihbarat için bir bilgi tabanı inşa etmenin herhangi bir tarifi yok gibi görünüyor - en azından bizim bildiğimiz, önceden düşünülmüş, RDF veya başka bir şey gibi mantıksal dillerle doldurulacak bir tarif değil.

Dipsiz kova sorununun çözümsüzlüğünün nihai kanıtı, projeler ­umutsuzca devam ettikten sonra, ancak yavaş yavaş başını kaldırdı. Araştırmacılar devasa bilgi tabanı geliştirme projelerine imza attılar ve yapay zekanın sağduyu sorununu evcilleştirmek için eyleme dönüştürülebilir ansiklopedileri doldurmak için binlerce kişi-saat harcandı. Bununla birlikte, daha fazla "bilgi" eklendikçe, sistemlerin her şeyi yanlış anlama şansı giderek artıyordu . Yalnızca yağmur ve ıslaklık hakkında bilgi sahibi olan bir sistem basit bir soruyu doğru yapabilir, ancak düzinelerce farklı olası senaryo sunmak, ­genel olarak sistemin her şeyi yanlış anlamanın daha fazla yolunu miras alacağı anlamına geliyordu. Sağanak birkaç parkı sular altında bıraktığı için itfaiye çağrıldı , aslında sele neden olan yağmurla ilgili. Ancak itfaiyeye yapılan atıf, yangın hidrantlarının kırıldığı ve sokakları potansiyel olarak ıslattığı konusunda "bilen" bir sistemi şaşırtabilir. Bu nedenle, genel olarak ne kadar çok bilirsek yararlı çıkarımlar yapmak için o kadar fazla gücümüzün olduğu insan düşüncesinden farklı olarak, büyük bilgi tabanlı ­projeler tüm ek "bilgileri" ile her zaman saçma sapan çıkarımlar üretme tehlikesiyle karşı karşıyadır. Açıkçası, sadece sağduyuyu oluşturan ifadelere, gerçeklere ve kurallara ihtiyaç duyulmuyor; sağduyu çıkarımının kendisinin nasıl çalıştığı da önemlidir.

Dikiz aynasına bakıldığında, yapay zeka sistemlerine “sağduyu bilgisi” vermeye yönelik ilk çabalar, aslında bir kılığına girmiş iki projeydi. Bilgi bariz bir gerekliliktir, ancak çıkarım da öyledir. Bildiğimiz tek parça; İnançlarımızı güncellemek için bildiklerimizi nasıl kullandığımız bambaşka bir şey. Ancak hesaplamalı çıkarım için stratejiler ­sınırlıdır. Peirce'in işaret ettiği gibi, elimizde üç tane var ve bugüne kadar sadece iki tanesi hesaplamaya indirgendi. Saf tümdengelim ile alaka sorunları su yüzüne çıktı ve bu nedenle araştırmacılar farklı geçici planlar denediler.

Örneğin, 1970'lerde Yale'den Roger Schank, sağduyuya yönelik bir "senaryo" yaklaşımı geliştirdi. 18 Schank, sıradan düşüncelerin ve eylemlerin örtük bir senaryoyu takip ettiğini savundu - biz bir hikaye dizisini takip ediyoruz. Buradaki bir ­paradigma örneği, bir restoranda yemek siparişi vermektir. İçeri giriyoruz , yemek yiyoruz (veya kendimiz oturuyoruz), menüye bakıyoruz ve ­ilk selamlamadan sonra garson göründüğünde sipariş veriyoruz. Tüm bunlar sırayla gerçekleşir ve bir dereceye kadar önceden tahmin edilebilir ve planlanabilir. Schank, gerçek dünyadaki bazı etkinliklerin bu şekilde yazılabileceğini varsaydı ve insanlarla yemek siparişi vermek gibi görevlerde etkileşim kurmak için programlanmış komut dizileri kullanan bazı sistemler geliştirdi . Ancak gerçek dünyada senaryolardan sapıp duruyoruz. Yemek sipariş etmek veya servis için çok uzun süre beklemek gibi beklenmedik bir şey olduğunda rezervasyon yapmak için sağduyuya ihtiyacımız var . Belki ön ­girişte müşterilere yan kapıyı kullanmaları talimatını veren bir tabela vardır.

Schank'in senaryolar üzerindeki çalışması, AI'nın sağduyulu bilgi problemini çözmeye yönelik ciddi bir girişim olarak terk edildi, ancak yine de öğretici çünkü bilgi ve çıkarımın nasıl ayrı olduğunu açıkça gösteriyor. Yemek siparişi ile ilgili tüm bilgilerin bir AI sistemine verilebileceğini varsayabiliriz; bir restoranı ve yemek siparişini tanımlayan tüm kavramlar ve yüklemler, Restoran Bilgi Bankasındadır. Ancak kesintiler, beklenmedik olaylar veya garsonla yapılan basit bir konuşma, komut dosyası tabanlı bir sistemi hızla karıştıracaktır. Her zaman, dünya hakkında Restoran Bilgi Tabanında olandan çok daha fazlasını bilmesi gerekecektir .­

Restoranla ilgili tüm ekstra ­şeyleri, hava durumu, TV'deki spor maçı vb. Ancak tüm bunlara doğrudan bağlantılar olmayacağı için (daha önce bahsedilen sorun nedeniyle, ilgili ­olabilecek tüm bilgileri "önceden çözemeyeceğimiz"), sistem bir şekilde betiğinin dışına atlamak zorundadır. konu ile ilgili bilgi ve planlar. Ancak bunu yapmak için, neler olup bittiğini - nereye ve ne için bakılacağını - bilen bir çıkarım mekanizmasına sahip olması gerekir. Ve bunu yapmak için, bilginin kendisinden başka bir sorunu çözmeliyiz. Tümdengelimsiz (ve tümevarımsal olmayan) esnek, sağduyulu bir çıkarım mekanizmasına ihtiyacımız var. Bu bizi çıkarıma geri getiriyor.

BÜYÜLÜ ÇIKARIM MOTORLARI:

AI İÇİN SEÇİM SORUNU

A ^ B gibi bir kuralımız varsa ve (şaşırtıcı) bir B gerçeğini gözlemlersek , A'nın doğru olduğunu varsayabiliriz, çünkü bu B'yi açıklayacaktır (çünkü A ^ B bilindiği için). Bu nedenle, eğer yağmur yağıyorsa, sokaklar ıslaksa bilinen doğru bir ifadedir ve sokakların ıslak olduğunu görüyoruz, başka hiçbir şey bilmeden yağmur yağdığını varsayabiliriz. Gerçekten de, beklenmedik bir bağlamda ­, muhtemelen büyük olasılıkla.

C'yi de gözlemleyen bir sistem , “Bulutsuz bir gökyüzü” diyorsa, A ^ B kuralını göz ardı etmelidir. Neden? Eh, çünkü artık alakalı değil. Aslında, A'nın bir değişken olduğunu hatırlarsak, pek çok farklı ifadeyi temsil edebilir: Yağmur yağıyor veya Çocuklar Süper Sağanak Kullanıyor vb. Aslında, A'yı aşağıdaki gibi bir dizi ifade içerecek şekilde genişletebiliriz : A = { Rain, FireHydrant, Sprinklers, SuperSoakers, Tsunami, . . .}. Şimdi görev, A ^ B kuralının öncülüne göre, A kümesinin üyeleri arasından, B gözlemiyle de en alakalı olan doğru ifadeyi seçmektir ­. Alaka düzeyini anlamak kaçınılmazdır; B'yi bilmek bize A'daki kümenin hangi üyesinin A ^ B'de kullanılması gerektiği hakkında hiçbir şey söylemez . Setin en alakalı üyesi olduğunu düşündüğümüz şeyi seçmeliyiz.

Dolayısıyla, A gözleminden B sonucuna varan tümdengelimli çıkarım kesin ama çok kolaydır. Etkiyi gözlemlemek ve nedenini çıkarmak istiyoruz: ıslak sokaklar ve neden veya nasıl. Bunların hepsi , Marcus ve Davis'in dünyanın anlamlı bir resmine sahip olmak dediği, neyin neden olduğu hakkındaki bilginin kritik olduğu normal zekanın bir parçasıdır . Bu ­bilgiyi ­elde etmek ve kullanmak karmaşıktır, çünkü gerçek dünya olaylarının çoğu birçok olası nedeni kabul eder. Seçim problemi, gerçek ya da hayali tüm ­olasılıklar göz önüne alındığında, geçerli ya da en iyi ya da makul nedeni bulmaktır . Dolayısıyla, otomatikleştirilmiş tümevarımlı çıkarımın temel sorunu, gerekli çıkarımın doğasında var olan zorluğu ortaya çıkarmaya yardımcı olan bu seçim sorunu olarak yeniden şekillendirilebilir, ancak sonuçta bu gerçekten aynı sorundur. Kaçırmak için , birbiriyle yarışan nedenler veya faktörler arasındaki seçim problemini çözmeliyiz ve bu problemi çözmek için, şu veya bu durumda neyin alakalı olduğunu bir şekilde kavramalıyız. Sorun şu ki, kimsenin bunun nasıl yapılacağına dair bir fikri yok. Gerçek çıkarımlarımız, ­çıkarımlar veya tümevarımlar değil, ilgili veya makul kabul edilen ­tahminlerdir . Bu yüzden yapay zeka açısından büyülü görünüyorlar.

Peirce, tahminimizin mantıksız doğruluğuna dair "belirsiz bir açıklama" dediği şeyi teklif etti ­: "Bence mantıklı bir açıklama olamaz .

Doğa yasalarının etkisi altında gelişmiş olan insan zihninin, bu nedenle doğal olarak biraz da doğanın ­modeline göre düşündüğünden kuşku duymuyorum.” 19 Belki de ihtiyatlı bir şekilde, "fantastik bir varlığın herhangi bir fenomeni açıklayabileceğini tahmin edebileceği bir milyar (yani bir milyon milyon) hipotez" tahmininde bulundu. 20 Aklında bir şekilde bağlantılı bir bilgi temeli de vardı: "Çünkü bu fenomen, böyle bir varlığın zihninde kesinlikle aşağı yukarı milyonlarca başka fenomenle bağlantılı olacaktır (çünkü o, çağdaş olaylarla sınırlı kalmayacaktır). ” "Doğanın düzeninden" yoksun böyle bir varlık, tesadüfen doğru tahmin etmenin pratik olmayan bir olasılığıyla karşı karşıya kalacağı için, "bu fikri daha ileri götürmemekle" bir tür reddetmeyle sonuca vardı. 21 Ne yazık ki yapay zeka sorunu göz ardı edemez; çözülmesi gereken kesin problemdir.

DÜŞÜNMEK, HIZLI VE YAVAŞ

Düşüncemizin bir kısmının yerleşik içgüdülerimiz tarafından yönlendirildiği fikrinin uzun bir geçmişi vardır ve bu fikir, örneğin Nobel ödüllü Daniel Kahneman'ın çalışmalarında modern bir görünüme bürünmüştür. Kahneman , 2011'in en çok satan kitabı Hızlı ve Yavaş Düşünmek'te, düşünen zihinlerimizin Tip 1 ve Tip 2 olarak adlandırdığı iki ana sistemden oluştuğunu varsaydı. Tip 1 düşünme hızlı ve dönüşlüyken, Tip 2 düşünme daha fazla zaman alıcıdır ve kasıtlı hesaplamalar. 22 Gölgeli bir sokakta bıçakla yaklaşan bir adam gibi bir tehdit algısı, Tip 1 düşünme durumudur. Bu tür durumlarda refleksif, içgüdüsel ­düşünme devreye girer çünkü (muhtemelen) Tip 2 yetilerimiz dikkatli ve kasıtlı akıl yürütme konusunda bizi kurtarmak için çok yavaştır. Matematik problemleri çözmeye başlayamayız ; hayatta kalmamız için ani bir yargıya ihtiyacımız var. 2. tip düşünme, sayı ekleme veya misafirler için akşam yemeğiyle eşleştirilecek bir şaraba karar verme gibi görevleri içerir. Potansiyel tehdit durumlarında, bu tür 2. Tip düşünme hemen ­elde edilemez veya yardımcı olmaz.

Kahneman, Düşünme, Hızlı ve Yavaş'ta , düşünmedeki hatalarımızın çoğunun, daha dikkatli, temkinli ve sorgulayıcı düşünürler olmamız gereken durumlara 1. Tip çıkarımların bulaşmasına izin vermemizden kaynaklandığını savundu. Tip 1, Tip 2'yi dışlamanın bir yoluna sahiptir ve bu da bizi genellikle yanılgılara ve önyargılara götürür.

Bütün bunlar, mümkün olduğu kadar iyi ve doğrudur. Ancak Tip 1 ve Tip 2 sistemleri arasındaki ayrım ­, yapay zeka araştırmacıları tarafından yapılan, bilinçli zeki düşünmenin bir tür kasıtlı hesaplama olduğu hatasını devam ettiriyor .

Aslında, uygunluk mülahazaları, seçim problemi ve tüm bilgiye dayalı çıkarım aygıtı, Tip 1 ve Tip 2 düşünmede zımnen vardır. Kahneman'ın ayrımı yapaydır. Chicago'da gölgeli bir sokakta bana doğru yürüyen bir adam görürsem hemen bir tehdit algılayabilirim. Ancak çıkarım (görünüşte bir Tip 2 endişesi) o kadar hızlı gerçekleşir ki, dilde genellikle bir tehdit algıladığımızı söyler veya bir tehdit hakkında ani bir yargıya varırız. Tehdidi gördük, diyoruz. Ve gerçekten de, Kahneman'ın da belirttiği gibi, bir savaş ya da kaç tepkisini başlatacaktır. Ancak bir tehdidi düşünmeden algıladığımız tam anlamıyla doğru değildir. Algılanan tehditler elbette hızlı çıkarımlardır, ancak yine de çıkarımlardır. Bunlar sadece refleks değil. (Peirce'in açelyasını hatırlayın.)

Kaçırma yine hızlı düşünmede merkezi bir rol oynar: Diyelim ki Hal ­loween ve yaklaşan adamın bir kostüm giydiğini ve sahte bir bıçak salladığını anlıyoruz. Ya da elektrikçi Frank, elektrik kesintisi nedeniyle gölgede aletleriyle (bunlara bıçak dahildir) sokakta yürüyor . Bunlar kaçırılmalar ama o kadar çabuk oluyorlar ki arka plan bilgisinin devreye girdiğini fark etmiyoruz. Beklentilerimiz, hızlı düşünürken bile tehdit veya zararsız olduğuna inandığımız şeyleri şekillendirecektir. Diğer bir deyişle Tip 2 düşünmeye de yön veren açıklamaları tahmin ediyoruz . ­Beynimiz - yani zihinlerimiz - çıkarım üreteçleridir.

Başka bir deyişle, tüm çıkarımlar (hızlı veya yavaş) noetiktir veya bilgiye ­dayalıdır. Çıkarımsal yeteneklerimiz , bir şekilde ilgili gerçekler ve bilgi kırıntıları arasında dolaşmaktadır. Soru şudur: Tüm bunlar bir makinede nasıl programlanır? Levesque'in işaret ettiği gibi, klasik yapay zekanın bilgi temsili ve akıl yürütmesi gibi bazı alanlar, yapay genel zekaya doğru ilerleme kaydetmek için gerekli görünüyor. Şu anda yalnızca şunu biliyoruz: ­geniş bir sağduyu bilgisi deposu gerektiren, tümevarımlı çıkarım gerçekleştirmek için bir yola ihtiyacımız var. Makinelere bu tür bilgileri nasıl aşılayacağımızı henüz bilmiyoruz ve bir gün bunu çözsek bile, tüm bilgiyi gerçek zamanlı olarak kullanmak için bir kaçırma çıkarım motorunu nasıl uygulayacağımızı bilemeyeceğiz. gerçek dünya - yani, yapay zekada büyük bir kavramsal kırılma olmadan değil.­

ALT KODLANMIŞ OLARAK SEÇİM SORUNU

KAÇIRMA (VE DAHA FAZLASI)

Geç dönem romancı, göstergebilimci ve filozof Umberto Eco, kaçırma ve çıkarım hakkında az bilinen bir derlemede yazarken, kaçırma çıkarım ­türlerini içkin yeniliklerine (ve dolayısıyla hesaplama güçlüğüne) göre sınıflandırdı. 23 Onun sınıflandırması, AI ile ilgili mevcut endişemiz için öğreticidir. Hipotezler veya aşırı kodlanmış kaçırılmalar ­, paradigmatik olarak çeviri durumlarıdır; burada, örneğin İngilizcede man , "yetişkin insan erkek" anlamına gelir. Eco, görünüşte önemsiz olan bu çıkarımların bile yalnızca kısmen otomatik olduğuna işaret ediyor çünkü arka plan bilgisi ve bağlam inançlarımızı değiştirebilir. Çok dilli dillerin konuşulduğu yabancı bir kültürde, işiten insan İngilizce'deki sözlük anlamının lisansını veremeyebilir . ­Üst kodlanmış kaçırılmalar, hâlâ bir inancın veya hipotezin katkısını gizliyor. Arka plan inancı, fonemlerin (sözcük seslerinin) ne anlama geldiğine dair beklentileri bilgilendirir.

Eksik kodlanmış kaçırılmalar, halihazırda bilinen ancak çıkarımlar için yalnızca bağlam içinde geçerli olan ilgili kuralların ve gerçeklerin seçimini gerektirir. Doğal dili anlamak , eksik kodlanmış kaçırma çıkarımının bir paradigma durumudur. Margaret ağaçta bir saksağan gördü. Nefret etti , tipik olarak Margaret'in saksağandan nefret ettiği ve zamirini tercih ettiği önceki saksağan olarak çözdüğü anlamına gelecek şekilde yorumlandı . Ama Margaret bir ötücü kuşun en sevdiği ağaca konduğunu gördü. Tercih edilen yorumu ağaca çevirmeyi daha da çok sevdi - ve daha fazlasını karıştırmak Margaret, ötücü kuş ve ağaç hakkında daha fazla bilgi gerektiriyor. Başka bir deyişle, ­iki cümlenin geçtiği anlatısal anlamın takdir edilmesini gerektiren alt kodlanmıştır. Siri veya Alexa gibi bir sistem, daha bağlamsal ve anlamlı yanıtlar üretmek için -en azından- alt kodlanmış kaçırma çıkarımları gerçekleştirmelidir. Verilen iki cümlelik örnekler, bu tür sistemlerin mevcut yöntemleri kullanarak çalışmasını sağlamada sorunlarla dolu bir kova damlasından başka bir şey değildir.

Kaçırma gittikçe zorlaşıyor. Kısa sürede, bilinen tüm otomatik çıkarım veya hesaplama kavramlarından uzaklaşır. Bilimsel keşfi veya yeniliği ele alalım. İnsanlar dünyayı açıklamak için diller, kavramlar ve yasalar icat eder. Bu yaratıcı kaçırmadır. Yaratıcı ­kaçırmalar, yeni kavramsal çerçevelere "sıçrayır". Aklıma Sir Isaac Newton geliyor. Eğrilerdeki (veya ivmedeki) anlık değişim oranlarını açıklamak için ­matematiği genişletmekle kalmadı , fiziği açıklamak için İngilizce kelimelere yeni anlamlar verdi. Yerçekimi eskiden -gravitas'ta olduğu gibi- derinlik ve ciddiyet anlamına geliyordu ve şimdi yerçekimi dediğimiz çekim gücü eğilim ya da amaç olarak anlaşılıyordu. Newton, Dünya'ya düşen elmalar gibi nesnelerin, matematiksel ­olarak tanımlanabilen ancak görünmez bir kuvvet olan yerçekimi tarafından yönetildiğini varsaydığında, bunun Ay'ı yörüngesi boyunca çeken aynı kuvvet olduğunu veya olabileceğini de fark etti - Dünya'nın etrafında düşmek. yürürlükte - ve okyanusları yüksek gelgitte yukarı çekmek. Kavramlar esasen icat edildi .

Turing, mekanik daktiloyu ­evrensel makineleri veya bilgisayarları açıklamak için bir model olarak kullandı. Daktilolar yaygın bir bilgiydi, ancak insanlık tarihindeki en büyük bilimsel ve teknolojik icatlardan birine girdiler. Bunun gibi yaratıcı kaçırmaları otomatikleştirme sorunu, en hafif deyimiyle belirsizdir. Yine de insanlar onları yaptı ve hala yapıyor. Watson ve Crick'in ­DNA'nın yapısını keşfi, tıpkı Einstein'ın görelilik kuramı gibi, bir başka ünlü örnektir. Daha az bilinen sayısız yaratıcı kaçırma, insan toplumunun doğuşundan bu yana bilimi ve yeniliği ilerici bir yol boyunca ilerletti.

Yaratıcı kaçırmalar, Newton, Turing ve diğerleri tarafından yapılan parlaklık parıltılarıyla sınırlı olsaydı, AI için daha az sorun olurdu. Ancak kişisel hayatımızdaki ilginç ve önemli anlar da genellikle yaratıcı kaçırılmalardır. Örneğin, dünyamızı yeniden kavramsallaştırdığımızda, günlük olaylarda yeni anlamlar gördüğümüzde, ilişkilerin paradan daha önemli olduğunu fark ettiğimizde veya din değiştirdiğimizde (veya gelenekler veya inançlar geçerliliğini yitirdiğinde), olaylara tamamen yeni bir mercekten bakarız. Bir bulmacayı çözerken olduğu gibi, çok daha derin bir anlam dışında, sadece arka plandaki olasılıklar ağı arasından seçim yapmıyoruz. Bunun yerine, dünyayı ve onun olaylarını ve olaylarını tamamen farklı bir şekilde görmeye başlıyoruz.

Bu yaratıcı sıçrama, birçok insan için günlük olarak gerçekleşir. Sıçramalar büyük ve ciddi olabilir (inanç ve şüphe sorularında olduğu gibi) veya küçük ve sıradan olabilir. Genellikle eğlencelidirler. Ne ­zaman gazete okusak, sohbet etsek ya da yiyecek almak için işlek caddelerde dolaşsak ilginç çıkarımlarda bulunuruz. Müziğe, sanata, filme ve hikâyelere olan hayranlığımızın ve zevkimizin arkasında yaratıcı kaçırmalar yatıyor. ­Dupin ve Sherlock Holmes günlerinden kalma dedektifler eğlendiriyor çünkü biz onların düşüncelerinde insan zihninin yaratıcı potansiyelinin farkındayız. Akıllı çıkarımı akıl yürütme becerilerine nasıl genişletebileceklerine hayret ediyoruz .­

Özetle, gizemli ve harikulade kaçırma çıkarımları insan kültürünün her yerine yayılmıştır; büyük ölçüde bizi insan yapan şeylerdir. AI rüyaları bir gün bu sıçramaları otomatik olarak yakalayabilir, ancak bu arada ­deneyimlerimizi nasıl makineleştireceğimizi gerçekten bilmediğimizi kabul etmeliyiz.

Tüm yollar buraya çıkıyor: AI, temel bir teoriden yoksundur - bir kaçırma çıkarım teorisi. Dilin anlaşılması sorunu, bu sorunu açık bir şekilde ortaya koyar ve bir sonraki bölümün temel endişesidir. Bu bölümü birkaç hazır özet açıklama ile bitirelim.

Birincisi, tümdengelimli çıkarım bize kesin bilgi verir. Tümdengelimli bir argümandaki öncüller doğruysa ve sonuca varmak için kullanılan kural geçerliyse (gerçeği koruyan olarak bilinir), o zaman tümdengelim bir doğru çıkarımdan diğerine geçmemizi garanti eder. Sorun şu ki, gündelik dünyanın çok azı zamansız gerçekler tarafından ele geçiriliyor ve kesinliğe sahip olduğumuzda bile tümdengelimli çıkarım ­ilgili hususları göz ardı ediyor. Bu nedenle, tümdengelimle çalışan yapay zeka oldukça aptalca ve aptalca olabilir: örneğin, karısının doğum kontrol haplarını alan bir kocanın hamile kalmayacağı sonucuna varabilir.

İkincisi, tümevarımsal çıkarım bize geçici bilgi verir, çünkü gelecek geçmişe benzemeyebilir. (Çoğu zaman öyle değildir.) Mantık ­uzmanları, bilgi kattığı için tümevarımı sentetik olarak adlandırır, ancak herkesin bildiği gibi, hiçbir doğruluk garantisi sağlayamaz. Aynı zamanda zeka için gerekli olan bilgiye dayalı çıkarımları yakalayamamaktan da muzdariptir , çünkü ayrılmaz bir şekilde verilere ve verilerdeki fenomenlerin frekanslarına bağlıdır. Bu, ona uzun kuyruklu bir sorun verir ve gerçek olasılıksızlık ve istisnalar hayaletini yükseltir. Endüktif sistemler ayrıca kırılgandır, sağlamlıktan yoksundur ve ­yalnızca verilerden gerçek bir anlayış elde etmezler. Tümevarım, genel zekaya giden bir yol değildir.

Üçüncüsü, akıllı düşünce, açıkça gözlemleyebileceğimizi aşan bilgiyi içerir, ancak bu bilgiyi nasıl elde ettiğimiz ve daha da ötesi, doğru bilgiyi bir probleme doğru zamanda nasıl uyguladığımız bir muammadır. Ne tümdengelim ne de tümevarım ­insan zekasının bu temel gizemini aydınlatamaz. Peirce'in uzun zaman önce önerdiği tümevarımsal çıkarım bunu yapıyor ama biz onu nasıl programlayacağımızı bilmiyoruz.

Bu nedenle, aksi yöndeki son beyanlara rağmen, en azından henüz değil, yapay genel zekaya giden bir yolda değiliz. Hâlâ temel bir teori arayışındayız.

ÇIKARIM VE DİL I

Eugene Goostman ile konuşmak için onunla metin üzerinden sohbet etmelisiniz. Telefon için müsait değil ve onunla öğle yemeği yiyemezsin. Ona mesaj atın, size Ukrayna, Odessa'dan on üç yaşında bir çocuk olduğunu söyleyecektir. Pek çok genç gibi, metinleri küstah, kaçamak, aşırı ­özgüvenli ve yanlış yönlendirmeye ve ikiyüzlü olmaya eğilimli. O kaba, sonra şakacı. O alay ediyor. Size söylemeyeceği şey, onun aslında Rus araştırmacılar tarafından insanları etten kemikten olduğuna ikna etmek için tasarlanmış bir bilgisayar programı, ac hatbot olduğu .­

Goostman, iddiaya göre, Turing'in ölümünden altmış yıl sonra, 7 Haziran 2014'te Turing testini geçerek tarih yazdı. İngiltere'deki Reading Üniversitesi'nin ev sahipliğinde düzenlenen ve Londra'daki Royal Society'de yürütülen çok konuşulan etkinlikte, sohbet robotu Goostman, seçilen yargıçların yüzde otuz üçünü beş dakikalık bir metin alışverişinde kendisinin insan olduğuna ikna etti.

Olay, gerçek bir Turing testi olmasa da büyük haberler yaptı -dünyanın dört bir yanındaki bloglar ve haber kuruluşları bunu ele aldı. Testin beş dakika içinde kesilmesinin ardından jüri üyelerinin tam üçte ikisi Goostman'ın oyunlarına kanmadı. Yine de, "en sonunda" anı, yani Turing'in yapay zekayı başlatma meydan okumasının sona ermesi olarak ilan edilen olayın basında yer alması, tahmin edilebileceği gibi coşkuluydu. Bağımsız , Goostman'ı bir "çığır" olarak selamladı ve programın bir "süper bilgisayar" olduğunu ekledi. 1 Time , "Robotların Çağı Geldi" diye ilan etti . BBC bunu "dünyada bir ilk" olarak nitelendirdi - teknik olarak doğru - popüler teknoloji blogu Gizmodo ise okuyucularına "Bu büyük" dedi. Basının tepkisi, hiç şüphesiz Alan Turing'e karşı devam eden hayranlığın bir kanıtıydı. Aynı zamanda, sınavını gerçekten geçmenin öneminin de farkına varmaktı. Yapabiliyorsanız, gerçekten bilgisayarınızla sohbet ettiğinizi hayal edin. Goostman'ın başarısı, bu çok yıllık bilimkurgu rüyasını önümüze serdi. 2

EUGENE GOOSTMAN BİR DOLANDIRICIDIR

Tek bir sorun vardı. Goostman bir sahtekardı. Rus takımına Turing testini geçerek 100.000 $ Loebner Ödülü kazandıran Londra gösterisinden kısa bir süre sonra bilgisayar bilimcileri ve yorumcular şikayet etmeye başladı. Birincisi, Goostman soruları gerçekten yanıtlamıyordu. Genellikle konuyu değiştirir veya ağzından ­iğneleyici sözler söylerdi. O zamanlar New York Üniversitesi'nde olan Gary Marcus, New Yorker'da Goostman performansının bir "salon numarasından" biraz daha fazlası olduğunu yazdı . Goostman benzeri performansları "ucuz numaralar" olarak da reddeden Hector Levesque'i yineledi. Marcus'un açıkladığı gibi, Goostman'ın yanlış yönlendirme taktiği, hiçbir şeye ihtiyaç duymadan zeka yanılsaması yaratır ­:

New Yorker'ı okuyor musun ?

Goostman: Çok fazla kitap okudum. . . o kadar çok ki, hangileri olduğunu bile bilmiyorum. 3

Bu değiş tokuşlar, insanların Rogerian bir psikoterapisti taklit eden 1960'ların sohbet programı ELIZA ile yaptıklarına benziyor:

Hasta: Şey, kocamla sorunlarım var.

ELIZA: Bana kocandan biraz daha bahset

Kuşkusuz eğlenceli olsalar da, yapay zekanın karşı karşıya olduğu çok gerçek doğal dil zorluklarında herhangi bir ilerleme kaydedemiyorlar. Aslında, Goostman (ve ELIZA) dili anlamaktan kaçınarak başarılı oluyor ve bu nedenle ciddi bir konuşma testiyle ilgileri yok.

Belki de anlaşılır bir şekilde, uzmanlar ve yorumcular Goostman kanadının ardından Turing testinin kendisini gayri meşru bir dönüm noktası olarak kınamaya başvurdular. Gizmodo , Turing'in testinin "saçmalık" olduğunu iddia eden bir makale yayınladı. Wired , bir bilgisayarla ocak başında sohbet etme hedefinin tam teşekküllü yapay zeka için gerçekten bir ölçüt olması gerekip gerekmediğini sorguladı. 4

Goostman fiyaskosu düşünüldüğünde eleştirmenlerin haklı olduğu noktalar var. Gerçek bir anlayış olmadan alaycı cevaplar vererek kopya çekmek ­, Turing'in ­eğiliminde olduğu şekilde dil yeteneğini pek ölçmez . Turing testinde entrikalara ve ucuz numaralara başvurarak kopya çekmek , konuşma diyalogu ile ilgili beklentiler düştüğünde, istihbarat tespitimiz için çıtayı düşürmek zorunda kaldığımız bir savunmasızlığı ortaya çıkarır ­. 5 Yetişkin diyaloğu hakkında daha az şey bildiklerini (ve umursayacaklarını) düşünerek on üç yaşındaki Ukraynalı erkeklerle birlikte oynayabiliriz. Aynı şekilde, ELIZA ile bir terapi seansında, tipik terapötik etkileşimin kasıtlı olarak bizi konuşturma girişimini içerdiğini ve böylece terapistin bizim yerimize düşünmesini mazur gördüğünü varsayabiliriz. Bu tür durumlardaki beklentilerimiz, en başta yanıtlayıcıların zeka değerlendirmesini engelleyen bir sosyal bağlama uyar ­. Bu nedenle , AI araştırmacılarının Turing testi mücadelesini çoğunlukla terk etmelerine şaşmamak gerek. Stuart Russell'ın ­"ana akım yapay zeka araştırmacıları Turing testini geçmek için neredeyse hiç çaba harcamadı" şeklindeki küçümseyici sözü, salon hilesi performanslarıyla ilgili medya çılgınlığından kaynaklanan bu hayal kırıklığını yansıtıyor . 6 Onları kabul etmek sahada bir zayıflıktır.

Ancak işten çıkarılma tamamen gereksizdir. Birincisi, dürüst bir Turing testi, dil anlayışı için gerçekten yüksek bir su işaretidir. Ray Kurzweil'in işaret ettiği gibi, uzaylı bir zeka İngilizce konuşmayı anlamayabilir, ancak meşru bir Turing testini geçen herhangi bir zeka zeki olmalıdır. "Anahtar ifade sohbettir" diyor: "Testi geçmek için zeki olmalısınız." 7 Kurzweil, gelecekteki yarışmaların sadece daha uzun bir teste izin vererek ­, devam eden diyalogda ucuz hilelerin filtrelenmesini sağladığını öne sürüyor.

Bu sadece bir öneri. Daha da ileri gitmek için, bir oyun kuralı ekleyerek ucuz numaraların katkısını ortadan kaldırabiliriz: Yarışmacılardan, sanki bir yargıcın önündeymiş gibi soruları doğrudan yanıtlamaları istenebilir ve "tüm gerçeği ve yalnızca gerçeği söyleyeceğine" yemin edilmiş olabilir. ” Bir mahkeme salonundaki beklentiler ­kesinlikle ELIZA benzeri performansları engeller. Bir savcının veya yargıcın sorusuna “ Bana o gece hakkında daha fazla bilgi verin. Bu sana nasıl hissettirdi?” Ya da tüm yarışmacılara konuşma İngilizcesini anlama işi için mülakat yapıyormuş gibi oynamaları talimatını verebiliriz—geleceğin sesle etkinleştirilen kişisel asistanları için fena bir sınav değil! Bu gibi durumlarda, hileler, testte işlenen konuşma kurallarının ani ihlalleri olacaktır. Goostman batacaktı.

Hesaplamalı dilbilimciler ve yapay zeka araştırmacıları, açık uçlu bir diyaloğa girmenin, bir gazete makalesini anlamak gibi, monologu yorumlamaktan resmi olarak daha zor olduğunu başından beri biliyorlar. Turing'in, doğal dil yeteneğinin insan düzeyinde zeka için uygun bir test olduğu şeklindeki sezgisini korumanın bir başka yolu da, orijinal testinin yalnızca monolog gerektiren bir basitleştirmesini düşünmektir. Bunu, ­orijinal testte olduğu gibi, bir soru-cevap oturumu bağlamında yapabiliriz. Bir test basitleştirmesi düşünün: buna Turing Testi Monologu diyeceğiz. Bir Turing Testi Monologunda, yargıç basitçe bir haber makalesini veya başka bir metni yapıştırır, ardından ne söylediğinin anlaşılmasını gerektiren sorular sorar . ­Cevaplayıcı bu sorulara doğru cevap vermelidir. (Hilelere elveda.) Örneğin, bir yargıç AP makalesine "Taco'larınız veya Hayatınız!" ve yanıtlayana hikayenin komik olup olmadığını ve neden olduğunu sorun. Bu testi geçmek, tam anlamıyla, tamamen açık uçlu bir Turing testinin mantıksal bir alt kümesi olacaktır, bu yüzden onu kullanmak tamamen adil olacaktır ; Karşılıklı diyaloglarda "pragmatik fenomenler" - daha sonra bunun hakkında daha fazla bilgi.

Ne yazık ki, Turing Testi Monologu ile AI sistemlerinin umutsuzca kaybolduğuna dair kanıtlarımız var. Gary Marcus ve Ernest Davis, makineler tarafından okuduğunu anlama konusunda son teknolojinin acınası olduğuna işaret ediyor. Microsoft ve Alibaba, Stanford Question Answering Dataset (SQuAD) olarak bilinen bir okuma testinde taban puanını yükselttikleri için medya tarafından çok övüldü, ancak bunu yalnızca tam yanıtlar metinde olduğunda yaptı. Bu nedenle bu, açıkça verilen cevapların "altını çizmek" gibi basitleştirilmiş bir görevdi ve ­bunlara açıkça işaret eden sorularla işaret edildi. 8 Marcus ve Davis ­, görünüşte basit sorularda yüksek ışıkta utanç verici performanslar sergiliyorlar, örneğin Super Bowl haberinden bir kesitte adı geçen oyun kurucunun adına sadece kral denilmesi gibi. Bu gibi durumlarda anlayışın başarısızlığı açıktır. Dolayısıyla, hileyi ortadan kaldırdığımızda bile, yapay zeka ­dilini anlama sorunu var. Turing testi , çıtası çok yüksek olan meşru bir değerlendirme olmaya devam ediyor.

Dili anlamanın gerekliliklerine ne kadar ciddi bakarsak ­, basitleştirilmiş Turing Testi Monologunu geçmek bile o kadar göz korkutucu hale gelir. Hector Levesque , testin ­büyük ölçüde basitleştirilmiş bir versiyonunu tasarladı ve testlerine Winograd şemaları adını verdi (doğal dil anlayışı üzerinde çalışan yapay zeka öncüsü Terry Winograd'dan sonra). Winograd şemaları, İngilizce'deki tek cümlelerin anlamı hakkında çoktan seçmeli soruların cevaplanmasını gerektirir. Bu, Turing testinden çok uzak. Yine de, yapay zeka araştırmacıları bu konularda uzmanlaşmaktan çok uzak.

WİNOGRAD ŞEMALARININ TUHAF ÖRNEĞİ

Hector Levesque, bugün hala bilgi temsili ve akıl yürütmeye odaklanan birkaç yapay zeka bilim adamından biridir. Takdire şayan bir şekilde, Levesque bugün yapay zeka programlarına büyük verileri analiz etmek için istatistiksel tekniklerden daha fazlasını aşılamak istiyor: onlara sağduyu kazandırmak istiyor.

Levesque, orijinal açık uçlu ve kısıtlamasız testten çok daha kolay olan Turing testinin basitleştirilmiş bir versiyonunu önerdi, ancak bu, daha da önemlisi, dili anlamaya yönelik bilinen tüm otomatikleştirilmiş yaklaşımları hala engelliyor. 2013'te Levesque, İnternet Ortak Yapay Zeka Merkezi'ne "En İyi Davranışımız Üzerine" adlı bir makale sundu ve bu, gerçek yapay ­zeka için kısa sürede bir çağrı olarak kabul edildi. 9 Tam Turing testinden ilham alan Levesque, makinelere söylenenleri biraz daha derinden anlamamızı gerektiren sorular sormamızı önerdi. Test soruları, konuşmaların tamamı değil, tek cümlelerdir. Örneğin: Bir timsah engelli koşu koşabilir mi? Levesque kasıtlı olarak bunun gibi örnekleri seçer çünkü sıradan bir sağduyuya sahip uzman olmayan insanlar bunları anlayabilir (timsahlar engelli koşu koşamazlar), ancak cevaba bakmak için bir arama motoru kullanmak gibi popüler hileler işe yaramaz. Engelli koşularda koşan timsahları tartışan herhangi bir web sayfası olmayacağından (varsayılır) , anlama ihtiyacını atlamanın bir yolu olmayacaktır. AI sistemleri bu tür örneklerde karaya oturur; insanın aklına hemen bir cevap geliyor.

Bir Winograd şeması, doğrudan bir yanıtın anlayış eksikliğini ortaya çıkaracağı herhangi bir durumda makinenin yanlış yönlendirmeye, iğnelemelere, şakalara veya insan yargıçlara blöf yapmak için kötü bir ruh hali görünümüne başvurma olasılığını ortadan kaldıran çoktan seçmeli bir alıştırmadır. . Şemalar, Winograd'ın onlara ilham veren orijinal sorusunun açıkça ortaya koyduğu gibi, doğal dilin ortak bir özelliğine dayanmaktadır:

Belediye meclis üyeleri, şiddetten korktukları için öfkeli göstericilere izin vermeyi reddetti. Şiddetten kim korkardı?

a)    belediye meclis üyeleri

b)    Öfkeli göstericiler

Zamirlerine dikkat edin onlar . Çoğul bir zamirdir; meclis üyelerine veya göstericilere atıfta bulunabilir. Başka bir deyişle belirsizdir, çünkü her iki cevap da gramer kurallarını çiğnemeden mümkündür. Yine de sadece biri gerçekten mantıklı. İnsanlar bunun gibi sorulara doğru yanıtları ­zahmetsizce ve yüzde yüze yakın doğrulukla alıyor. AI sistemleri bunu yapmaz. Winograd şemalarındaki performansları rastgele tahminden çok daha iyi değil . 10

Diğer yapay zeka araştırmacılarıyla birlikte çalışan Levesque, büyük veri ve makine öğreniminin yapay zeka yaklaşımlarına açıkça hakim olduğu (hala olduğu gibi) 2012'de Winograd'ın meydan okumasını ortaya çıkardı. Hepsi doğal dilde belirsizliğin ortak ve her yerde bulunan özelliğini kullanan çoktan seçmeli sorulardan oluşan bir test seti topladı . ­Belirsizlik meydan okumasını zamir belirsizliğini giderme sorunu olarak adlandırdı. Turing testinin ardındaki ilhamı yakaladı, ancak basitleştirilmiş bir biçimde: İngilizce veya Fransızca (ya da sizde ne varsa) gibi sıradan doğal dilleri anlamak, genel zeka gerektirir. Özellikle Levesque, AI sistemlerinin testte başarılı olmak için dildeki kelimelerin gerçekte ne anlama geldiği hakkında bilgi gerektireceğine inanıyordu. İşte bir Winograd şemasının başka bir örneği:

Joan, yaptığı tüm yardımlar için Susan'a teşekkür etmeyi ihmal etmedi. Yardımı kim vermişti?

a)    Joan

b)    Susan

Testi Turing testinde yargıçları kandırmak için kullanılan ucuz numaralar sorunundan izole etmek için Levesque bir değişiklik ekledi: ­sorunun geri kalanını değiştirmeden bırakırken yanıtı "çeviren" özel olarak belirlenmiş iki kelime. Bu örnekte, özel kelimeler verilir ve alınır . Bu belirlenmiş özel sözcükleri değiş tokuş etmek başka bir soru doğurur:

Joan, aldığı tüm yardım için Susan'a teşekkür etmeyi ihmal etmedi. Yardımı kim almıştı?

a)    Joan

b)    Susan

İşte golfçüler ve köpekler özel sözcüklerini kullanan başka bir şema :

Sam, koyunlarla birlikte çobanların resmini çizmeye çalıştı ama sonunda bitti.

daha çok golfçülere benziyor. Kim golfçülere benziyordu?

a)    çobanlar

b)    Koyun

Winograd şemaları, orijinal, diyaloga dayalı Turing testine kıyasla büyük ölçüde basitleştirilmiştir ­, ancak zamir referansını çözmeyi (zamir belirsizliğini giderme) gerektiren çoktan seçmeli sorular sorarak, daha önceki araştırmacıların " sağduyu holizmi" dediği şeyi - doğal dilin cümleleri inceleyerek anlaşılamaz, ancak genel bir anlayış gerektirir. Bu nedenle, Winograd şemaları, dünya hakkında sıradan bilgiye sahip okuyucular için mükemmel bir anlam ifade eden basit ama tipik olarak sıra dışı sorulardır. Timsahlar ve yüksek çitler hakkında temel bilgiye sahip olan Marcus'un örneğini ele alırsak ­, bir timsahın kısa bacaklarının engelleri aşarak onu rekabetten diskalifiye ettiği açıktır. Bu AI için neden zor bir problem?

Şemalar kısmen zordur çünkü iki gönderge (isimlerin seçimi ve timsah ve engeller gibi isim tamlaması) nadiren (eğer varsa) web sayfalarında ve diğer metinlerde bir arada bulunur. Yapay zekaya veri ­yaklaşımları, istatistiksel olarak analiz etmek için pek çok örneğe dayandığından, Winograd şemalarında bulunanlar gibi tuhaf sorular ­, hepsi tek bir cümleyle önemli bir zorluğu temsil eder. Aslında, Winograd şemaları, web sayfalarını saymak gibi hilelere karşı oldukça dayanıklıdır. Levesque'in dediği gibi, bunlar "Google'a karşı dayanıklıdır". Ancak bunların yorumlanması için gereken sıradan bilgi , ­bilgisayarların bunlar üzerinde iyi performans göstermemesinin daha da derin bir nedenidir. Marcus'un konusunu timsahlardan ceylanlara çevirmek cevabı değiştirirdi (ceylanlar engelleri aşabilir, sorun değil), ama yine de soru tuhaf ve bu nedenle internette oldukça nadir. Makine öğrenimi ve büyük veri yardımcı olmuyor. AI sistemleri cevaba bakamaz.

Tahmin edebileceğimiz gibi, AI araştırmacıları Winograd şemalarının üstesinden gelmek için yeni numaralar geliştirdiler. Bugün web'de analiz için çok fazla içerik bulunduğundan, bazı durumlarda frekans kalıplarından yararlanmaya devam edilebilir. Örneğin, x'in y'den uzun olup olmadığıyla ilgili soruları yanıtlamak için araştırmacılar , " x , y'den uzundur " kalıbıyla web aramaları yaparak gerçek bilgiyi taklit edebilir . İnsanlar, ­binalar veya x ve y'yi temsil eden her ne varsa Vikipedi gibi veri havuzlarında bulunuyorsa ­, veriler bulunabilir ve soruyu cevaplamak için matematik kullanılır - hepsi de bilgi alanlarını ve diğer veri kaynaklarını işleyerek. web . Ancak yine Levesque bu tekniği öngördü ve derlenmiş veritabanlarında veya çevrimiçi ansiklopedilerde yer almayan ortak isimlerin ( ceylanlar , timsahlar , kalemler , kağıt , bowling topları , koyunlar vb.) kullanıldığı örnekler önerdi . Bu, web'de arama hilesini engellerken, aynı zamanda gerekli olan sağduyulu, olağan bilgi kalitesini vurguluyor - Turing'in herkesin günden güne dahil olduğu temel sohbeti kullanma konusundaki orijinal niyetini koruyor.

başka bir önemli şekilde de arama motoru hilelerine karşı koruma sağlar . ­X ve y arasındaki ilişki de tıpkı tartışılan şeyler gibi ( timsahlara karşı ceylanlar ) değiştirilebilir. Bu, soruların basitliğini korurken veri hilelerini kullanmanın önündeki başka bir engeldir. Önce ortak nesnelerin göreli boyutları hakkında bilgi gerektiren bir şemayı ele alalım :­

Ödül çok küçük olduğu için kahverengi valize sığmadı. Bu kadar küçük olan neydi?

a)    Ödül

b)    kahverengi bavul

Aslında bu şema için bir hile - bir teknik - var. Levesque'in dediği gibi, yarı "bilgisayar dili" dilinde, soruyu bir ilişkiye (buna R diyelim ) ve tek bir özelliğe (buna P diyelim) ayırabiliriz :

R = uymuyor

P = çok küçük

Sonra "büyük veri" kullanıyoruz ve "hangisinin daha yaygın kalıp olduğunu belirlemek için web'deki tüm metni araştırıyoruz: 'x y'ye uymuyor' + 'x çok küçük' ve 'x uymuyor' fit in y' + 'y is so small.'” 11 Arama sonucu getirilen örnek cümlelerin puanları için, örneğin bahsedilen ikinci öğenin birinciden daha sık olarak daha küçük olduğu bir model ortaya çıkabilir. Birinin bavul hazırlamaktan şikayet ettiği ve sırt çantası çok küçük olduğu için falancanın sığmayacağından bahsettiği bir sosyal medya gönderisi düşünün . ­İki örüntü için arama sonuçlarını basitçe saymak, istatistiksel bir yanıt verebilir ve eğer doğruysa, bir sistem Winograd şeması sorularını bilgi sahibi olmadan yanıtlayabilir.

Ne yazık ki, yaklaşım oldukça sığ. Sorunun anlamını değiştiren ve dolayısıyla tercih edilen yanıtı değiştiren küçük değişikliklere karşı bile güçsüzdür. Orijinal " R " ilişkisi numaramız, örneğin şu soruda başarısız oluyor:

Ödül, küçük olmasına rağmen kahverengi valize sığmıyordu. Bu kadar küçük olan neydi?

a)    Ödül

b)    kahverengi bavul

Artık çok küçük olan kupa, bavul değil. Bu nedenle, ­R ve P'nin belirtilmesi yanlış bir yanıt üretecektir. Değiştirilen soru muhtemelen orijinal versiyonundan daha az sıklıkta kullanılıyor, bu nedenle büyük veri bir yardım değil, bir engel. Bu ovmak. Basit, tek cümlelik sorularda bile, kelimelerin anlamları ( timsahlar , engeller ) ve şeyler arasındaki ilişkilerin anlamları - daha küçük - veriye ve frekansa dayanan anlamadan sinir bozucu teknikler. Winograd şemaları, Turing testinin çok daha büyük zorluğuna açılan bir penceredir.

Makine öğrenimi ve büyük veri, son on yılda bazı sorunlarda önemli ilerlemeler kaydetti. Bununla birlikte, bir kural olarak, gerçek bilgi ve anlayıştan kaçan geçici çözümler, başarıları açıklar. Burada, özellikle ­bir tür dil anlayışı gerektiriyormuş gibi görünen otomatik dil çeviri sistemleriyle ilgili süregiden bir kafa karışıklığı var ; Yapay zekanın doğal dili nasıl hızla evcilleştirdiğini kanıtlayan kontrolden çıkmış bir başarı öyküsü olarak lanse edilen Google Translate'i ele alalım. Ancak nispeten yakın zamanda büyük hacimli ­tercüme edilmiş metinlerin web'de bulunması, farklı dillere çevrilmiş metinlerdeki kelimeler ve cümleler arasındaki eşlemelerden yararlanarak "yeterince iyi" sonuçlar veren veri yoğun yaklaşımları kolaylaştırıyor. Eşlemelerin çoğu verilerdedir, bu nedenle tümevarımsal stratejiler işe yarar. Anlamak gerekli değildir.

Örneğin, resmi Kanada parlamento belgeleri kelimesi kelimesine İngilizce'den Fransızca'ya çevrilir; Böyle bir durumda, derin öğrenme gibi yaklaşımlar , diller arasındaki eşlemeleri “öğrenmek” için yeterlidir . ­İngilizce veya Fransızca'nın gerçekten anlaşılması gerekmez . Örneğin, Google Translate'e John met Mary at the cafe yazarsanız ve Fransızca'ya çeviri isterseniz, John a rencontre Mary au cafe alırsınız . Bu tamamen kabul edilebilir bir çeviridir ­. Ancak diğer örnekler başarısız olur. Zamirler veya bağlama gömülü çok anlamlı (çok anlamlı) sözcükler gibi referans fenomenlerinde olduğu gibi, ­başarısızlıklar tipik olarak bir yerlerde belirsizliği içerir. (Belirsizlik içeren cümleler üzerinde Google Çeviri ile deneme yapmak istiyorsanız The Box is in the pen veya I Love the River. Bank'a kadar yürüdüm. )

Kafa karıştırıcı bir şekilde, 1960'larda sözde tam otomatik yüksek kaliteli makine çevirisi çalışmaları, daha basit olsa da istatistiksel yaklaşımlarla başladı. Çok iyi çalışmadılar ve kısa süre sonra Yehoshua Bar-Hillel gibi mürtedler otomatik çevirinin umutsuz olduğu sonucuna vardılar çünkü bilgi ve bağlamın takdir edilmesi gerekli görünüyordu - bu nedenler daha sonra Winograd'a ve ardından Levesque'e bilgiye dayalı şemalar formüle etme konusunda ilham verdi. Ancak Bar-Hillel , büyük verinin birkaç on yıl sonra yapacağı katkıyı beklemiyordu .­

İstatistiksel yaklaşımlar, IBM araştırmacılarının çalışmaları ile 1980'lerde umut vaat etmeye başladı ve Google gibi web devleri, düzgün istatistiksel olarak yönlendirilen çeviri hizmetleri sağlamak için benzer ­teknikler ( ve şimdi derin öğrenme) kullandı . Tam otomatik, yüksek kaliteli makine çevirisi tam bir döngü haline geldi.

Ancak Bar-Hillel'in orijinal şüpheciliği hâlâ geçerlidir; bilgi ve bağlam gerektiren çeviriler, modern yaklaşımlar ­, büyük veriler ve diğerleri için hala bir kara kutu. Örneğin (ve ironik bir şekilde), Ekim 2020 itibarıyla Google Çeviri, Bar-Hillel'in 1960'lardaki örneğini hâlâ yanlış anlıyor. Bar-Hillel, bir makineyi çevirmek için nasıl programlayacağını sordu Kutu kalemin içinde doğru. Burada kalem belirsizdir. Bir yazı aracı anlamına gelebilir veya hayvanlar için küçük bir muhafaza anlamına gelebilir. Google Çeviri'yi kullanarak, Kutu kalemin içindedir , Fransızca'da La boite est dans le stylo anlamına gelir; burada stilo , tercih edilen yorum olmayan yazı aracı anlamına gelir (çünkü kutular genellikle yazı kalemlerinden daha büyüktür). Başka bir deyişle, “yeterince iyi” çeviri ­kişinin gereksinimlerine bağlıdır. Google Çeviri çoğu zaman daha az bağlamsallaştırılmış cümleler alabilir, ancak hatalar olacaktır ve hizmeti kullanan kişiye bağlı olarak hatalar önemli olabilir. Google Çeviri ­gibi hizmetler, daha az olası örneklerde veya yorumlarda daha da kötüleşen istatistiksel veya tümevarımsal yaklaşımların uzun vadeli sorununun altını çiziyor. Bu, olasılığın gerçek anlayışla aynı şey olmadığını söylemenin başka bir yoludur . Aynı kavramsal alanda bile değil. Burada yine, frekans varsayımı ­yapay genel zekaya ulaşmada gerçek sınırlamaları temsil eder.

Modern yapay zekanın "yeterince iyi" sonuçları, okurken veya sohbet ederken anlama ihtiyacını maskeleyen bir tür hile, bir yanılsamadır. Görüntü tanıma görevlerinde, ­belirli görüntüleri yanlış sınıflandırmak için sistemler verilebilir (ancak sistem sürücüsüz bir arabaysa değil). Ancak şemalar gibi dil testlerinde yüzde 20'lik bir hata oranı (dolayısıyla yüzde 80'lik doğruluk), on örnekten ikisinin tamamen sistem tarafından anlaşılmaz olduğu anlamına gelir. Ve Winograd şema testlerindeki doğruluk oranları çok daha kötü - rastgeleden ancak biraz daha iyi. Şema sorularının açıkça ortaya koyduğu gibi, hatalar basit cümleler olduğunda ve insanlar için doğal bir zorluk oluşturmadığında daha az mazur görülebilir.

Mesele şu ki, doğruluğun kendisi bağlamsaldır ve ­herhangi bir anlamanın olmadığını ortaya koyan testlerde, on yanıttan altısının doğru olması (en son teknoloji sistemlerde olduğu gibi) hiç de ilerleme değildir. Bu ­, kılık değiştirmiş bir aptallığın kanıtı. Bilim kurgu gerilim filmi Blade Runner'daki efsanevi androidler gibi, zihni (veya gerçek duyguyu) arayan bir test, sonunda makinelerin programlanmış sahtekarlar olduğunu ortaya çıkaracaktır. Sadece Winograd şemaları kısa ve oldukça basittir. Tek gereken, ­söylenenler hakkında bazı temel bilgiler gerektiren bir soru.

Levesque'nin “zamirlerin belirsizliğini giderme sorunu”, ­otomatik sistemlerin sıradan konuşmaları yönetme duasına sahip olmak için gezinmek zorunda kalacağı çok büyük bir mayın tarlasında son derece basitleştirilmiş bir adımdır. Zamir referanslarını çözmek, dili gerçek anlamda anlamak için çözülmesi gereken çok sayıdaki diğer problemler arasında bilgiye dayalı problemlerden yalnızca biridir. Ve Winograd şemaları başka şekillerde de büyük ölçüde basitleşir. Her şema için tek cümle sınırına ek olarak, test aynı zamanda ­konuşma diyalogundaki pragmatik fenomenlerin çoğunu göz ardı ederek basitleştirir. Pragmatik, otomasyon için cehennemdir. Nedenini görmek için, bundan sonra doğal dil işleme veya anlama alanında bir tur atacağız.

Bölüm 14

ÇIKARIM VE

DİL II

Doğal dil karmaşık bir canavardır. Bileşenleri, sözcükleri oluşturan semboller, harfler ve noktalama işaretleridir: sözcükler. Kelimeler anlam parçalarıdır. Her türden şeye atıfta bulunurlar: ustura gibi nesneler, hoş gibi duygular , kötü gibi ahlaki yargılar , parti veya seçimler gibi durumlar veya olaylar ve ekonomi veya çiftlik gibi soyut koleksiyonlar . Anlamı olan kelimeler de belirsiz olabilir: çiftlik , bir çiftliğin fiziksel konumu anlamına gelebilir veya çiftliğin işi veya bir ailenin yaşadığı yer anlamına gelebilir. Çiftlik gibi basit bir kelimenin bile tam anlamı , konuşmacının gerçekte ne eğiliminde olduğuna, yani bağlamsal olduğuna bağlı olacaktır .­

Bağlamı anlamak, dil yorumunun kapsamını ­çevreleyen sözcükleri, cümleleri, paragrafları ve hatta tüm metinleri kapsayacak şekilde genişletir. Zamirler ve dizinler gibi fenomenlerdeki belirsizlikler - nerede ve ne zaman ("belirlenen zamanda", bağlamın gece yarısının kastedildiğini açıkça ortaya koyduğu zaman) çözülmelidir. Son olarak, dilbilimcilerin pragmatik dediği şeye sahibiz: ifadeleri yapan kişiyi, amaçlarını, ilgi alanlarını ve benzerlerini içeren bağlam. Alaycılık, ironi ve diğer ­iletişim biçimleri devreye giriyor. Dil, harfler ve kelimelerle başlar ve anlam ve zihinle ilgili sorularla biter .

BİR DİLİ ANLAMA TURU

Dil anlayışı (örneğin, bir tweet'i, bir blog'u veya Savaş ve Barış'ı anlamak), sağlıklı bir beslenmeyi tasvir etmek için kullanılan eski besin piramidi çizimleri gibi bir tür ters çevrilmiş piramittir , ancak ­baş üstü durur. (Ters) piramitte yukarı çıktıkça, daha fazla anlamla karşılaşılır ve dilin hesaplamalı işlemleri artan zorluklarla karşılaşır. Altta, uçta, ­sözcükleri ve cümleleri oluşturan imla, harfler ve noktalama işaretleri var. Daha sonra sözcükler, ön ekleri, son ekleri, konuşmanın bölümleri vb. gibi sözcüksel ve morfolojik özellikler. Cümleler oluşturmak için ­, bir özne ve bazı tanımlayıcı ve niteleyici bilgiler içeren vahşi aslan isim tamlaması gibi, tümceler halinde birleştirilmiş sözcüklere ihtiyacımız var; o zaman vahşi aslan yutar gibi biraz aksiyon eklemeliyiz ; o zaman bu eylem (ve fiil) geçişli ise bir nesne eklemeliyiz, örneğin Vahşi aslan eti yutar . Cümleler, bir konuyu ifade eden ve detaylandıran paragrafları oluşturur ve bir araya getirilen birden çok paragraf bir hikaye veya anlatı oluşturur. Hikaye (bir veya daha fazla paragraftan oluşan) söylem veya sadece metin olarak adlandırılır. Büyük metne bir örnek, kurmaca ya da kurgu dışı gibi bir türü olan bir kitaptır. Bir konuşmanın dökümü de bir metindir. Böylece Turing testi, ters çevrilmiş bir dil piramidinin tepesinde yer alır ­, burada daha geniştir ve tam bir diyaloga, bir konuşma ­metnine genişlemiştir.

Bir anlamda, tersine çevrilmiş dil piramidi tamamen sözdizimsel olarak, karakterlerin sözcüklere, sözcüklerin cümlelere ve cümlelerin paragraflara nasıl birleştirileceğini belirleyen kurallar kullanılarak bir metnin inşası olarak görülebilir. Sözdizimi bir bilgisayar tarafından işlenebilir ve analiz edilebilir. Ancak dil piramidi ikili bir yaşam sürer - aynı zamanda anlamla da ilgilidir. Doğal diller, dili kullanarak faydalı bir şey söylemek istiyorsak göz ardı edilemeyecek olan anlamı iletmek için semboller ve kurallar kullanır. Dil, anlama doğru bir yolculuktur. Bir çocuk kitabı, bir Rus romanıyla aynı yolculuğa çıkar. Hepsi anlamın ifadesidir.

Dilbilimde ve diğer benzer alanlarda, anlambilim, şeylerin ne anlama geldiğinin incelenmesidir. Semantik, “anlam” anlamına gelir ve semantik analiz kabaca çoktan seçmeli Winograd şema testlerinin içerdiği şeydir. Bilgi ve inanç gereklidir, sadece sözdizimi ve semboller hakkında bilgi değil. Bilgiyi bağlamda uygulamak için çıkarım gereklidir. Örneğin, bir timsahın yüz metrelik engelleri koşabileceğine inanıyorsam, küçük bacaklarının engellerin üzerinden gerekli sıçramaları nasıl yapabildiğini açıklamam gerekir ve bunu yapmak için bir timsahın anatomisi hakkında bir şeyler bilmem gerekir. . (Aslında insanlar için çok fazla açıklamaya gerek yok: beş yaşındaki herhangi bir çocuğun muhtemelen gördüğü gibi bir resim yeterli olacaktır.) Sorunun cevabı sözdiziminde değil. Anlambiliminde var.

Winograd şemaları, dilin sözdizimsel piramidini, kelimelerin dünyadaki nesnelere yaptıkları gibi anlamlara sahip olduğu anlamsal bir piramit ile değiştirir. Ancak cümlelerdeki kelimeler bazen yalnızca tüm metin bağlamında anlam ifade eder. Metin yorumlama, her zaman, ­sözcük anlamlarına amaç ve niyetle ilgili çıkarımlar ekleyen pragmatik mülahazaları içerir. İki kişi arasındaki bir konuşma, dili anlamada bir edimbilim örneğidir. “ Tuzu uzatır mısın?” ve "Evet" cevabını veriyorsun ama hiçbir şey yapmıyorsun, o zaman bağlam - benim niyetim - senden kaçıyor (ya da şaka yapıyorsun - ki bu daha pragmatik). Edimbilimde ne söylendiği, nasıl ve neden söylendiğine sıkı sıkıya bağlıdır. 1 İnsanların ne demek istedikleri, neredeyse hiçbir zaman kelimesi kelimesine söylediklerinin gerçek bir işlevi değildir. Dilbilimde pragmatik olarak incelenen sıradan konuşmanın bu özelliği, ­yapay zeka için yorumlama dilini zorlaştırırken, insanlar için anlamlı ve ilginç - ve genellikle kolay ve doğal - yapan şeydir.

Sözdizimi temel olmaya devam ediyor. Dilleri İngilizce'den örneğin Çince'ye değiştirirsek, o zaman Latin karakterlerinden piktogramlara da geçeriz ­. Birisi Çince konuşmuyor veya okumuyorsa, iletişim kurma girişimleri boşunadır. Ancak, mantıkçıların söyleyebileceği gibi, sentaks bilgisi gerekli ama yeterli değildir. Dünya bilgisi önemlidir. Size birinin Strafor sopayla vurulduğunu söylersem, Strafor hakkında ne bildiğiniz önemlidir, çünkü bu bilgi parçası ­benim yorumum hakkında ne düşüneceğinizi ve nasıl tepki vereceğinizi belirler: "Trajik", alaycı bir şekilde söyle. Ancak Straforun bir sopayı sallamak için iyi, sert bir madde olması gerektiğini varsayan bir yapay zeka sistemi oldukça paniğe kapılabilir: "O iyi mi?" En basit değiş tokuş bile tipik ­olarak ­anlambilim (ve pragmatik) içeren gerçek bilgi ve bağlama bağlı çıkarımlar gerektirir.

Turing, yapay zekanın geleceğine ilişkin orijinal açıklamasında bunu anladı. Bu örneğinde, sorgulayan bir insan (sorgulayan ­) ve bir bilgisayar (tanık) hayal ediyor. Sorgulayıcı, tanıktan Shakespeare'in Sone 18'ini yeniden üreten bir sone yazmasını istedi:

Sorgulayıcı: "Seni bir yaz gününe benzeteyim mi" yazan sonenizin ilk satırında "bir bahar günü" daha iyi ya da daha iyi olmaz mıydı?

Tanık: Tarama yapmıyor.

Sorgulayıcı: "Bir kış günü"ne ne dersiniz?

Tanık: Evet ama kimse bir kış gününe benzetilmek istemez.

Sorgulayıcı: Bay Pickwick'in size Noel'i hatırlattığını söyleyebilir misiniz?

Tanık: Bir bakıma.

Sorgulayıcı: Yine de Noel bir kış günü ve Bay Pickwick'in bu karşılaştırmaya aldıracağını sanmıyorum.

Tanık: Ciddi olduğunu düşünmüyorum. Bir kış günü derken, Noel gibi özel bir gün yerine tipik bir kış günü kastedilmektedir. 2

Sorgulayıcının ilk sorusu, bilgisayarın sone yazma konusundaki bilgisini test eder; bu, pek çok mükemmel bilgili insanı eksik olduğu için affedebileceğimiz özel bir bilgidir. İambik pentametre ­"bahar" gününü hariç tutar ve bilgisayar, sorgulayıcının önerisinin "taramayacağını" sertçe yanıtlar.

"Kış günü" olsa da yapar, öyleyse neden bu olmasın? Burada odak, kişinin sevgisini bir kış günüyle karşılaştırma metaforuna kayar. Tanık, sorgulayıcının "kış günü" önerisini görmezden gelir. Kış günlerinin kısa ve soğuk olduğunu ve romantik aşk yaşayan birinin bu tür görüntüleri tercih etmeyeceğini varsayabiliriz. Ama yazdan kışa geçiş aslında o kadar da belirgin değil. Ormanların yumuşak sessizliğini aydınlatan parlak güneş ile kış günleri güzel ve karlı olabilir. Buradaki fikir, aşkta, sevgilimizi anlatmak için bir mevsim seçeceksek, yazın sıcak, uzun, güzel günlerinin daha anlamlı olduğudur.

Sorgulayıcı daha sonra "özel" bir kış günü olan Noel'i önerir. Bu, bilgisayarın sonenin niyeti veya amacı hakkındaki bilgisini test eder; bu, birini bir kutlamayla değil, güzel ve "sürekli" bir şeyle, örneğin güzel bir yaz günü deneyimi gibi bir şeyle karşılaştırmak içindir. Kişinin sevgisini Noel'e ya da 4 Temmuz'a benzetmek, sonenin amacını tamamen körelten ve mahveden fikirleri ve duyguları birbirine karıştırmak demektir. Görünüşe göre aptalca yanlış yönlendirmenin farkında olan tanık, sorgulayıcının "ciddi" olmadığını düşündüğünü söyleyerek karşılık veriyor.­

Başka bir deyişle, sonenin amacını anlamak, ­aşık olan birinin sevgilisini bir yaz gününe, güzel, uzun ve sevimli bir şeye benzetmesi, şair aşkının daha çok böyle olduğuna inanmasına rağmen, derin duygusunu anlamaktır. derin tutkusu ve yazdığı sonenin zamansızlığı ile ölümsüz. Sorgulayıcı ­ile tanık arasındaki alışveriş, elbette bilgi gerektirir, ancak ilgili bilginin çoğu aslında insanlar hakkındadır - aşık olan insanlar ve bunu kelimelerle ve duygularla nasıl ifade ettiğimiz. Soneyi anlamak için bir sevgili hakkında konuşmanın nasıl bir şey olduğunu bilmeliyiz. Sorgulama zihinsel durumlar ve duygularla ilgilidir ­. Bu, geniş ve amaçlanan anlamıyla pragmatiktir.

Şiirin doğası gereği pragmatik olduğunu söyleyebiliriz. Ancak daha az coşkulu düz yazı, dildeki pragmatik fenomenlerin her yerde ve ­hemen hemen her "sıradan" cümlede yaygınlığını sergilemeye devam ediyor. Kaçınılmaz. Örneğin Deixis , zamirler gibi bağlam bilgisi olmadan anlaşılamayan veya belirsizliği giderilemeyen, me or he veya here gibi sözcükleri ifade eder . Deixis, "işaret etmek" anlamına gelir ve dil genellikle işaret eder: Dün gece burada bir serçe gördü, serçeyi gören kişiyi işaret ediyor (person deixis), ­dinleyici tarafından bağlamda anlaşılır. Aynısı, bağlam içinde bir yere atıfta bulunan (uzaysal gösterim) ve yorumdan önceki geceye atıfta bulunması gereken dün gece (zamansal gösterim) için de aynıdır. Hazır numaralara başvurmayan, sohbete dalmış bir sistem tüm bunları takip etmelidir.­

En azından deixis, pek çok sorundan yalnızca biridir. Dil, daha derin bir niyet anlayışı gerektiren bağlamsal inceliklerle doludur. Dün gece Mozart çaldığımı söylersem, yorum doğal olarak mantıklı olacak şekilde ayarlanır: Dün gece Mozart tarafından yazılmış bir müzik çalıyordum. (Örneğin, Mozart denen adamı "oynamıyordum", onu cüzdanından çıkarmak gibi bir şehir sözlüğü anlamında.) Genellikle bu tür ayarlamalarla uğraşmayız çünkü dildeki pragmatik olgular normal iletişimin ayrılmaz bir parçasıdır. . Pek çok örnek görerek değil, kastedileni düşünerek kastedilen anlamı çıkarırız.

Dilbilimciler (ve geri kalanımız), insanların genellikle söylediklerinden çok daha fazlasını kastettiklerini bilir. Bu da kendini dilde farklı şekillerde gösterir.

Konuşma, örneğin, isimlerin, fiillerin ve konuşmanın ve deyimlerin diğer bölümlerinin tamamen dışarıda bırakıldığı eksiltmelerle doludur: Dün alışveriş merkezine gittim ve bugün Shana gitti. Belirli insanlar, yerler ve şeyler hakkında önceden bilgi sahibiyiz ve bu bilgiyi birbirimizle olan iletişimimizi kısaltmak ve daha doğal hale getirmek için kullanıyoruz. Bana kitabını ödünç verir misin? bir kitabınız olduğunu ve ayrıca hangisini kastettiğimi bildiğinizi varsayar. Bana Charles'ın şiir yarışmasını kazandığında matematik çalışmayı bıraktığını söylerseniz , Charles'ı tanıdığınızı ve Charles'ın matematik çalıştığını vb. varsayıyorum. Dilin ­kısmen kapalı olduğunu söyleyebiliriz: ayrıntıları ve ­varsayımları dışarıda bırakıyoruz; ne demek istediğimizi anlamak ve varsaymak için başka zihinlere güveniriz.

Daha önce adı geçen Anaphora, " gemi limandan Mayıs ayında ayrıldı" ifadesinde olduğu gibi "geri gönderme" anlamına gelir. Roger işin içindeydi . Burada zamir gemiye atıfta bulunur . 3 Anaphora (ve onun kuzeni, kataphora ya da " ­koğuşa atıfta bulunan"), gördüğümüz gibi, tipik olarak he , she , onlar , onlar , o vb. gibi zamirlerle dile getirilir. Zamirler özellikle nadir değildir ve genel olarak anaforlar her yerde bulunur. Bunlar, kendisine ve kendi dışında dünyaya işaret eden dilin bir örneğidir.

Dün gece dörtlüsü sevdik'te olduğu gibi, anlamı iletmek için diğer pragmatik çıkarımlarla etkileşime girer . Her şey o kadar güzeldi ki, aksi takdirde anaforik olan O'yu ( dörtlüye atıfta bulunarak) ince bir şekilde akşamın kendisine kaydırır. Anaphora'nın kendisi, dilde özel - ancak yaygın - bir referans durumudur; bunun dilin hesaplamalı tedavilerinde popüler bir türü, ­bir söylemde veya metinde iki sözün (bir şeyden bahseden kelimeler veya deyimler) atıfta bulunduğu ortak referans olarak bilinir. dünyadaki aynı nesneye veya duruma. Yukarıdaki örnekte, gemi ve o , Mayıs ayında limandan ayrılan gemiyi ifade etmektedir. (Roger onda değil de içindeyse , limanda olduğu senaryoları hayal edebiliriz: Gemi onu geçerken neredeyse boğuyordu .) Aslında Winograd şemaları, genel, hesaplamalı ortak ­referans problemini tek bir cümleyle basitleştirir ( her zaman iki olası öncül içeren tüm bir metinden ziyade ): zamirle bir ve yalnızca birinin birlikte atıfta bulunduğu cümledeki isimler veya isim tamlamaları:

Patates çuvalı un çuvalının altına konmuştu, bu yüzden

önce taşınacak. İlk önce neyin taşınması gerekiyordu?

a)    patates çuvalı

b)    un torbası

Şema bir ortak referans problemidir; dünyada un çuvalı isim tamlaması ile aynı şeyi ifade eder (her ikisi de bir çuval una atıfta bulunur, cümlede açıklanan patates çuvalının üzerindeki un çuvalı). Ancak şemalar oldukça basitleştirir. Her şeyden önce, açık uçlu referansları ortadan kaldırıyorlar: Aynı yıl içinde ithalat hızla düştü. Yıl sonunda, tüm ekonomi sıkıntıdaydı. Burada, tüm ekonomi (tüm ekonomiye) atıfta bulunur, ancak şemalarda olduğu gibi metnin kendisinde bir ek yoktur. (Bu örnekte, ithalat ile ekonominin tamamı arasında zımni bir meronymik veya parça-bütün ilişkisi vardır.) Buna karşılık, Winograd şemaları yorumlayıcıya her zaman açıkça belirtilen iki seçenek sunar.

Sohbetler, gazetedeki köşe yazıları ve bir arkadaşa yazılan mektup çok daha karmaşık yorumlama görevleri sunar. Şema basitleştirmesinin bir kısmı yapısaldır: çünkü testi yaparken yalnızca iki olası cevap olduğunu biliyoruz, rastgele tahmin etme stratejisi o kadar da kötü olmayacak, yaklaşık yüzde 50 doğruluk. Fena değil ve sıfır zeka ile! Ancak insanlar Winograd şemalarında yüzde 95 veya daha yüksek puan alıyor ve bugüne kadarki en iyi sistemler, ilk yanıtı seçen veya rastgele tahminler yapan basit bir buluşsal yöntemden çok daha iyi performans göstermiyor. 4 Anaforlar, ­yorumlamada açık bir bilgi ve çıkarım koşuludur - verilerdeki sıklıkların testi değildir. Sonuç özellikle yıkıcı çünkü testin başka türlü "aldatıcı" bir tarafı yok . Sorular tamamen ifade edilmiş ve seçenekler açık. Çoğunlukla, insanlar onları kolay bulur (biraz tuhafsa).

Daha karmaşık bir dil testi olan, yukarıda açıklanan Turing Testi Monologunu ele alalım ; burada AI sistemi ­, bir hikaye veya haber makalesi gibi bir monolog parçasını okumalı ve bununla ilgili bir insan yargıç tarafından sorulan soruları yanıtlamalıdır. İşte örnek bir test hikayesi:

Bir adam işinden ayrıldıktan sonra yeni bir hayata başlamayı umarak yeni bir şehre taşınır. Çalışan indiriminin hala işe yarayıp yaramadığını görmek için mağazaya gitti. Otomatik ödeme sırasında, öyle olmadığını keşfetti. Kendi kendine mırıldanarak "Buraya bir daha asla gelmeyeceğim" dedi. Bir kadın onu duydu ve ona komik bir bakış attı. Giderken karısına çarptı ve ona olanları anlattı. Tekrar “Buraya bir daha asla gelmeyeceğim!” dedi. Gülümseyerek, "Öyleyse yaparım. Evimize yakın ve ucuz.” Gülümseyerek başını salladı ve "Yeterince adil" dedi. Daha sonra parka gittiler ve onu bir yaz gününe benzetti.

Hikâye uydurmadır (ben uydurdum), ancak ­İngiliz okuyucuların anlaması özellikle zor değildir ve onu doğru şekilde yorumlamak için sağduyu bilgisi ve pragmatik anlayış gerektirmesi bakımından benzersiz değildir. Diyelim ki, mevcut en iyi makine öğrenimini ve büyük verileri kullanan yeni bir yapay zeka sistemi olan DeepRead, yeni (kesinlikle Google tarafından satın alınacak) Ultra ++ tarafından demo için piyasaya sürüldü . İnsan yargıç, DeepRead'e bazı basit sorular sorar:

(1)   Adam yeni şehre yürüdü mü?

(2)    Adam neden yeni bir hayata başlamayı umuyordu?

(3)    Adam öldü mü?

(4)    Sence adam araba mı kullanıyordu yoksa golf arabası mı? Otobüs?

(5)  Adam o dükkanda çalışıyor muydu? Aynı şirkete ait başka bir mağaza mı?

(6)    Adamın çalışan indirimi yine işe yaradı mı?

(7)  Adam bir daha dükkana gelmeyeceğini mırıldandı mı? Şehir? Yalnızca otomatik ödemenin önündeki alan mı?

(8)    Onu duyan kadın karısına mırıldanıyor muydu?

(9)  Karısına çarptığında onunla iletişim kurmak ne demekti?

(10)    "Yapacağım" derken ne demek istedi?

(11)   Dükkan yanlarında mıydı?

(12)   Adam karısını seviyor muydu?

(13)   Sonuçta yeni bir hayata başladığını düşünüyor musun?

, veri merkezli yapay zeka için gerekli olan anlamda hiçbiri kesinlikle verilerde olmayan anlambilim ve edimbilimi içeren dil piramidi üzerindeki bir dizi zor sorunu çözmesi gerekecektir .­

Yeni bir şehre taşınmanın tipik olarak toplanıp şehre araba sürmeyi veya uçmayı içerdiğine dair bazı sağduyu bilgileriyle başlayın . Soru (2) kesinlikle cevaplanamaz, ancak bağlam göz önüne alındığında, ­insan okuyucuların çoğu yeni hayatının son zamanlardaki işsizliğine bağlı olduğunu varsayacaktır ("Hiçbir fikrim yok" ­daha az maceracı okuyucular için mantıklı olabilir). Soru (3) ayrıca yeni bir hayata başlamak deyimsel ifadesinin önce fiziksel olarak ölmediğiniz anlamına geldiğini anlamayı gerektirir. Soru (4), bir ima örneği veya bir cümle veya deyimle ima edilen ancak doğrudan ifade edilmeyen bir örnektir. Adamın bir araba kullandığını varsayıyoruz - ama mantıksal olarak oraya golf arabasıyla gelmesi mümkün. Kalan sorularda DeepRead ­, adamın çalışan indiriminin bir zamanlar işe yaradığını ve bu nedenle adamın muhtemelen içinde bulunduğu mağazanın sahibi olan şirket için çalıştığını (ancak farklı bir yerde - muhtemelen bulunduğu kasabada) anlamak için arka plan bilgisini kullanmalıdır. sol ayak); zamiri adamın çalışan indirimine göre çözün (anaphora çözünürlük); buradaki deixis konumunun mağaza anlamına geldiğini anlayın (kasaba veya otomatik ödemenin önündeki nokta değil); bir kadının karısını kastetmediğini anlayın (başka bir ima ) ­; Adamın karısına yalnızca mağazaya bir daha gelmeme niyetini bildirmekle kalmayıp aynı zamanda şirket tarafından hayal kırıklığına uğradığını ve zor dil sorunlarının listesinin büyüdüğünü anlayın.

"O zaman yapacağım" diyen karısı eksiktir ve konuşmacı ile dinleyici arasında varsayılan bilgi nedeniyle bir ifadenin kısaltıldığı eksiltiyi içerir. ­DeepRead, eşinin tekrar dükkana geleceğini anlamalı ki bu söylenmedi. Daha fazla anaphora: Eşinin söylediği ­mağaza anlamına gelir ve yakın ve ucuz olduğu yönündeki yorumları, onun oradan alışveriş yapmasının nedenidir. DeepRead, arabayı adam kullandığı için mağazanın yeni evlerinin yanında olmadığını da anlamalıdır. Ve son olarak, adamın gülümsemesi, hayal kırıklığından sıyrıldığı anlamına geliyordu, daha sonra karısıyla parka gidip onu bir yaz günüyle karşılaştırması bunu daha da belirgin hale getiriyordu. DeepRead ­, adamın karısını sevdiği ve onun fikirlerine saygı duyduğu (muhtemelen onunla karşılaştığı için memnun olmuştur) ve onu bir yaz günüyle karşılaştırmanın bir mutluluk ve takdir ifadesi olduğu sonucuna varmalıdır.

Ne yazık ki, gerekli her türlü bilgiyi ve çıkarımı dışarıda bıraktım. DeepRead, adamın mağazaya girdiğini ve sadece oraya gitmediğini anlamalıdır, ancak bu ifade edilmek yerine ima edilmiştir. Ve benzeri. Mevcut veya öngörülebilir hiçbir AI sistemi bu soruları cevaplayamaz ve biz sadece bu basit hikayeyi kullanarak Turing Testi Monologundan bahsediyoruz. DeepRead mevcut değil. Zihin dile girer ve neler olup bittiğine ve neden olduğuna dair bir resim bir araya getirir. Tersine çevrilmiş piramidimiz , dünyanın derin ve anlamlı bir resmini gerektiren sorunlara doğru genişler ve konuşmacının (ya da yazarın) zihnine girmek zorluğun bir parçasıdır. Bu bizi pragmatiğe ve arkadaşımız Goo stman'a geri getiriyor.

GRİCE'NİN İYİ SOHBETLER İÇİN SÖZLERİ

Eugene Goostman'ın tasarımcılarının edimbilimi bir araç, bir silah olarak kullandıkları söylenebilir. Chatbot'un kodu, aşırı alay kullanımı, tam zamanlı bilgi dağıtma ve bol miktarda yanlış yönlendirme ile dil anlayışını alt üst eden ­bir pragmatik alandan yararlanır . Başka bir deyişle, yargıçlar arasında on üç yaşındaki Ukraynalı erkeklerin bazen sadece cevapları bilmedikleri için değil, aynı zamanda denemek istemedikleri için sorulardan kaçındıkları şeklindeki varsayılan anlayışı istismar ediyor.

Dilbilimciler, Goostman'ın "Grice's Maxims" denilen şeyi neşeyle çiğnediğini kabul edeceklerdir. 5 Yirminci yüzyılın başlarında, dil filozofu Paul Grice ­başarılı bir konuşma için dört özdeyiş önerdi:

1. Miktarın maksimumu. Mümkün olduğu kadar bilgilendirici olmaya çalışın ve gerektiği kadar çok bilgi verin, daha fazlasını vermeyin.

2. Kalitenin maksimumu. Dürüst olmaya çalışın ve yanlış veya kanıtlarla desteklenmeyen bilgiler vermeyin.

3. İlişkinin maksimi. Alakalı olmaya çalışın ve tartışmayla ilgili şeyler söyleyin.

4. Tavır maksimi. Mümkün olduğu kadar açık, kısa ve düzenli olmaya çalışın ve anlaşılmazlıktan ve belirsizlikten kaçının.

Eugene Goostman tekrar tekrar suçludur. Grice'ın tüm özdeyişlerini çiğniyor, muhtemelen ­sıradan bir anlayış ve konuşmada temel bir beceri ve yetenek bulmaya çalışan talihsiz insan yargıçları atıyor. İyi niyetli insanlar, bilgilendirici, samimi, ilgili ve makul derecede açık olmak için gözle görülür bir çaba olduğu sürece ­, genellikle ikinci bir dil olarak İngilizceden veya gençlik arsızlığından kaynaklanan eksikliklere uyum sağlarlar . Prensipleri kasıtlı olarak ihlal eden Goostman değil.

Ancak günlük konuşmada Grice'ın özdeyişlerini ihlal etmek, sıradan ­muhataplara bir şeylerin "yanlış" olduğunu söyler . Bir kafede biri size yaklaşıp "Ben Brian Johnson, bana saatin kaç olduğunu söyleyebilir misiniz?" derse, bu istek anlaşılır olsa da tuhaf görünecektir. Grice'nin özdeyişleri nedenini açıklıyor: istek özdeyişleri ihlal ediyor

nicelik ve bağıntıdır ve zaman kazanmak için gerekli olmayan bilgiler üzerinde kafa karışıklığına yol açar. (“Adını neden söylesin ki? Saati sormak için kimlik göstermesi gerektiğini düşünüyor mu?” diye merak ediyoruz.)

Goostman'a Geri Dön: Yapılandırılmış, zaman sınırlı bir testte, dünyanın izlediği bir testte, testin tüm amacı zekayı sıradan konuşma yoluyla belirlemek olduğunda, Grice'ın özdeyişlerini sistematik olarak ihlal etmek tek kelimeyle gülünçtür. ­Yine de bu, rekabette işe yaradı. Olmamalı. Elflerimizi Turing testlerinden kurtarmaya yönelik tepkiler de gereksiz ve aptalcaydı. Goostman'dan kurtulmak için seçiminizi yapın: Winograd şemaları gibi basitleştirilmiş çoktan seçmeli testler kullanın veya kaçınma tekniklerine ağır bir ceza (diskalifiye gibi) vermek için konuşma (veya monolog tabanlı) testlere düzeltmeler uygulayın. Başka bir deyişle, hileleri ortadan kaldırmak kolaydır. Zor sorun anlamaktır.

YETERİNCE İYİ YETERİNCE İYİ OLMADIĞINDA

Winograd şema testlerindeki düşük performanslar, yapay zekaya yönelik veri odaklı, modern yaklaşımların bir başka önemli zayıflığını vurgulamaktadır. Levesque ­, makalesinin "İstatistiklerin Cazibesi" başlıklı bir bölümünde, "veri simülasyonu" yaklaşımının, X'in "birçoğundan biri olduğu" X'i fiilen yapmak yerine "belirsiz bir şekilde X'e benzeyen" bir şey yapmaya çalışmak gibi olduğunu söyledi. akıllı davranış örnekleri.” Bunun "AI bilimi için kapsayıcı soru" olduğunda ısrar ediyor. 6 Ama Levesque eleştirisini daha da ileri götürebilirdi. Belirsiz bir şekilde " X -ish " bir şey yapmak , başka bir deyişle X görevi için zekayı simüle etmek , her zaman gerçek anlayış gerektiren zor sorunları çözülmemişler alemine iter, hala fethedilmemiş birkaç yüzde puanı (veya başka bir deyişle, dilin yukarısında) anlam piramidi). Bu, gerçek anlayış gerektiren problemler için bir saklanma yeri haline gelir. Genel bir kafa karışıklığı ­da yaratır.

Görünüşte etkileyici performanslara tanık olan halk, anlaşılır bir şekilde, daha güçlü bilgi işlem ve analiz teknikleri (ve daha fazla veri) ­gelecekteki sistemlerin daha iyi performansa ölçeklenmesine yardımcı oldukça, makineler ve insanlar arasındaki kalan performans farklarının da ortadan kalkacağı sonucuna varıyor . Ancak çözülmemiş problemlerin bir gün çözüleceğine dair körü körüne güven, problemlerin gerçek dağılımını ve çözümlerini göz ardı eder; veriye dayalı simülasyonlarda sıklıkla ortaya çıkan kolay problemler ve frekansa dayalı analizin kapsamı dışında kalan diğer, daha nadir ve daha zor problemler. Bu, daha zor problemlerin - kaçırılan yanıtların - daha fazla veri yerine tamamen farklı bir yaklaşım gerektirebileceği anlamına gelir. Önerdiğim gibi, gerekli yeni yaklaşım, ­tümdengelimsiz veya tümevarımsal olmayan bir temel çıkarım çerçevesi ­olduğunu varsayar . Aslında, DeepRead güvenilir sağduyulu çıkarım yapabilseydi, yukarıdaki hikayedeki eksik ve varsayılan bilgi ve olaylar hakkında doğru tahminde bulunurdu. Bunları türetemez (mantıksal sorunlar değildirler) ve öykünün söz diziminden (ya da verilerinden) çıkarsamadıkları için onları da türetemez. Derin ­Okuma çıkarımda ilerleme bekliyor; ne yazık ki, gerekli çıkarımlar şu anda programlanabilir değil. Büyütülecek bir şey yok; gereken çıkarım belirgindir ve gelecekteki bir ­kavramsal keşfi temsil eder.

Winograd şemalarına odaklandım çünkü insan zihnine basit, tek cümlelik bir anlama testi gibi görünen şeyi ortaya koyarken tümevarımsal olmayan çıkarımları çok açık bir şekilde gerektiriyorlar. İngilizce'de sadece basit bir soru olan bir testin adaletsizliğini tartışmak zordur . ­Winograd şema problemleri kasıtlı olarak ortak nesnelerle ilgilidir, bu da herhangi bir isim veya isim tamlamasının tipik olarak metinlerde , örneğin web sayfalarında (örneğin, timsah veya ödül ) geçeceği anlamına gelir. Hiçbir teknik bilgi gerekli değildir. Ancak tek bir soruda geçen herhangi iki isim veya tümcecik ­, beklenen frekansı önemli ölçüde düşürür, bazı durumlarda timsahlar ve yüz metrelik engellerde olduğu gibi sıfıra indirir. Bu nedenle, tüm örnekler, basit olmasına rağmen, büyük verilerde nispeten nadirdir. Ve iki isim veya isim öbeğinin (ödül ve bavul sorusunda olduğu gibi) web'de bir cümlede bir arada bulunabileceği durumlarda, iki isim arasındaki ilişkiyi değiştirmek bizi seyrekliğe döndürür ve modern veri merkezli taktikleri alt eder. gördüğümüz gibi Bu nedenle, tüm pratik amaçlar için, Winograd şema soruları simüle edilemez, bu da sistemlerin testi otomatikleştirmeye yönelik zayıf performansını ­açıklar . 7

Yukarıda tarif ettiğim çıkarım çerçevesinden, tümdengelim ve tümevarım sistemlerinin yapay genel zeka için yetersiz olduğu sonucu çıkıyor. Ayrıca herhangi bir çıkarım türünün bir başka çıkarsamaya indirgenemeyeceğini açıkladım (kısım örneklerini hatırlayın), bu nedenle, örneğin, kaçırmayı uygun açılımlara sahip bir tümevarım türü olarak adlandıramayız; tamamen farklı bir ­sembolik biçim (veya “mantıksal biçim”). Tümevarım ve tümdengelimin bazı kombinasyonlarının, tümevarımsal çıkarıma kadar ölçeklenip ölçeklenemeyeceği konusunda bir soru kalır . Bir türü diğerine dahil edemememizle aynı nedenle olamaz - bunlar farklıdır ve temelde farklı yetenekler içerir. (Kıyaslama olarak şunu düşünün: Almanca ve İspanyolca biliyorsam, bunları bir şekilde bir araya getirip Rusça'yı anlayabilir miyim?) Ancak yapay zeka üzerinde çalışırken çıkarım türleri bazen ­ilginç sonuçlarla birleştirilir.

Dil işleme gibi zorlu problemlerle uğraşan araştırma ekipleri, tahmin veya çıkarım için ­özel olarak tasarlanmış ­mimariler, veritabanları ve algoritmalar kullanarak genellikle büyük hibrit sistemler oluşturur . Bu tür sistemler, her zaman bir bileşen veya alt sistem olarak makine öğrenimini içerir. Ayrıca , klasik yapay zekanın modern öncesi çağına geri dönen bilgi tabanlarından ve çıkarım tekniklerinden yararlanırlar. Hy ­brid sistemleri etkileyici sonuçlar elde edebilir. Favorileri oynamak yerine, zor sorunları çözmek için mevcut tüm teknikleri, yöntemleri ve algoritmaları kullanırlar. Bu sistemlerden biri , tıpkı yapay zekanın hızla değişen bir dünyada gündem konusu haline gelmesi gibi, özellikle medyayı ve kamuoyunu harekete geçirdi. Zira ilk bakışta sistem İngilizce sorulan sorulara nasıl cevap verileceğini anlıyor -gerçekten anlıyor- görünüyordu.

WATSON, SEVGİLİ WATSON'UM

IBM, oyun oynayan ve ­efsanevi behemoth teknoloji şirketi için pazarlama vızıltıları oluşturan yapay zeka sistemlerini tasarlama becerisine sahiptir. 1997'de IBM, televizyonda yayınlanan ve çok beklenen bir etkinlikte o zamanki şampiyon Garry Kasparov'u mağlup eden satranç oynayan süper bilgisayar Deep Blue ile manşetlere çıktı . Deep Blue bir sansasyondu, çünkü büyük ölçüde, makinelerin satrançta insanları geride bıraktığı geçiş noktasının yıllar uzakta olması gerekiyordu. Uzmanlar gerçek zekanın süper bilgisayarlara ulaştığını düşünüyorlardı. Turing testiyle ilgili konuşma yeniden başladı. Medya yorumcuları, makinelerin başka her yerde bizi ele geçirmesinin ne kadar süreceği konusunda endişeliydi.

makine zekası hakkında söyleyecek çok az şeyi vardı , ancak ­önümüzdeki on yıllarda diğer oyunlarda insanları geride bırakacak veriye dayalı sistemlerin çokluğunu öngördü. ­Neticede satranç deterministik kurallara göre oynanan bir oyundur. Garry Kasparov bir dahi, elbette, ama Deep Blue temelde katıksız hesaplama gücüyle onu geride bıraktı: daha fazla hamleyi değerlendirerek, dallanan oyun ağacının derinliklerini görerek. On yıllardır yapay zeka meraklıları, ilk vızıltıdan sonra halkın yeni başarıları "gerçekten zeka değil" diyerek hızla göz ardı etme eğiliminden şikayet ettiler ve Deep Blue da bir istisna değildi. Yüzyılın başında, büyük ölçüde ­unutulmuştu; bu, belki de derinlerde satranç oynamanın genel zeka için bir vekil olmadığını hisseden bir halkı korkutmayı başaramayan AI'da başka bir kilometre taşıydı. Deep Blue, IBM'in iyi finanse edilen mühendisleri ve hızlı bilgisayarları için bir vitrindi.

2001'de internet balonu patladıktan sonra, yapay zeka temposuna dair heyecan ­nadiren azaldı. Milyarlarca dolarlık yatırım, temel gerçekleri göremeyen entrikalar ve vizyonlarda buharlaşıp gitmişti. Yapay zeka fütüristik ve mali açıdan güvensiz görünüyordu , bu tam da hala yaralarını sarmaya çalışan yatırımcıların ve girişimcilerin istemediği şeydi . ­Kış kısa sürdü. 2004 yılına gelindiğinde, Google kendine geldi ve sosyal ağlar yoldaydı. (Friendster gibi birkaç erken girişim başarısız oldu, ancak heyecan verici alıntı kavramı havadaydı.) Web 2.0 geliyordu. 2004 yılında da IBM'in liderliği başka bir halkla ilişkiler nimeti aramaya başladı. Satranç dünkü haberlerdi ama web şekilleniyor ve heyecan verici olasılıklar için herkesi canlandırıyordu. Oyunlar hâlâ ­ilgi görüyordu ve teknoloji şirketleri için ek fayda sağladılar; yapay zeka, basit bir sağduyuya dayansa bile, genellikle bir oyunun yapay kısıtlamalarında başarılı olabiliyordu. Şans eseri, özellikle popüler bir oyun haberlerde yer almıştı: Jeopardy!

Televizyon bilgi yarışması programı Jeopardy! basitleştirilmiş bir Turing testinin (ya da öyle görünüyor) bir tür oyunlaştırılmış versiyonudur. Bu, gerçeklerin bilgisinin geniş bir testidir ve "sohbet" tersine çevrilir, böylece yarışmacılara bir cevap verilir ve yarışmacılar daha sonra doğru soruyu sormalıdır. Örneğin ­, "IBM tarafından geliştirildi, satrançta Kasparov'u yendi" sorusuna verilecek doğru yanıt "Deep Blue nedir?" olacaktır. 2004 yılında Jeop ­ardy! reytingler bir insan yüzünden yükseliyordu, ­yetmiş dört Jeopardy! üst üste yarışmalar. IBM, araştırma grubunu Jennings'i veya başka herhangi bir şampiyonu yenebilecek bir sistem geliştirmeye davet etti. Yapay zekanın sınırlarını zorlamak için fiilen tam yetki alan araştırmacılar için rüya gibi bir şeydi.

IBM liderliği, elbette finansal kazanç için bir fırsat ve beklenmedik bir halkla ilişkiler (veya trajedi) gördü. Ancak yönetim aynı zamanda bilimkurgu böceği tarafından ısırılmış gibi görünüyordu, insanları vızıltılara boğan ve soruların tüm doğru yanıtlarını sarsarak, evdeki izleyicinin çoğunu geride bırakan bir "IBM-inside" dil anlama sisteminin fütüristik fikri. . Yine Deep Blue ve satrançtı ama aynı zamanda değildi. Tehlike! dil temellidir. Teknik olarak, sorunun tek bir cümleyle sorulduğu ve yanıtın her zaman "Nedir" ile başlayıp tek bir tümcedeki yanıtla bittiği basitleştirmesiyle bir soru ­yanıtlama (QA) sistemidir . Bu, insan zekasıyla çok daha yakından bağlantılı görünüyor - bize Turing testini hatırlatıyor. Tehlike! yapay zeka silahlanma yarışında öne geçmek için bir fırsat gibi görünüyordu . ­(Duvardaki bir sinek, 2004'te IBM Research'te yönetimin kulak misafiri olduğunda heyecanlanmış olabilir: " Tarih yazacağız. Para bir nesne değil. Jeopardy oynayan bir sistem kurmanın bir yolunu bulun ! " )

IBM, üst düzey yeteneklerden oluşan bir ekip oluşturdu ve sonraki üç yılı birinci sınıf Jeopardy! Bu, açık alan QA olduğu anlamına geliyordu, çünkü oyun çeşitli konuları kapsıyordu. (Bu, cazibesinin bir parçası.) Görünüşe göre sistem hacklenemez veya belirli konular için sabit kodlanamaz. Geleceğin sistemine Watson adını verdiler (Sherlock Holmes'un kurgusal yardımcısından değil, IBM'in kurucusu ve ilk CEO'sundan sonra).

PIQUANT adlı daha eski bir sistem, onlara bir avantaj sağladı. 1999 yılında IBM tarafından Ulusal Standartlar ve Teknoloji Enstitüsü tarafından desteklenen Metin Geri Alma Konferanslarında rekabet etmek için inşa edilmiştir. PIQUANT, Metin GERÇEKLEŞTİRME Konferansları ­yarışmalarında tutarlı bir şekilde en iyi performansı sergiliyordu, ancak bunlar basitleştirilmiş soru-cevap oyunlarıydı ve Jeopardy! aksine daha geniş ve çok daha zor bir meydan okumaydı . ­Örneğin PIQUANT, soruları kişi, yer, tarih veya sayı gibi önceden belirlenmiş bir dizi etiketle yanıtladı. Sisteme soru olarak verilen bir metin verildiğinde, PIQUANT ilgili konuyu temsil eden etiketi çıkarır. Tehlike! oyun çok sayıda konuyu kapsar.

PIQUANT bu zorluk için uzatılamadı ve başka sorunlar da vardı. Tehlikede ! bir yarışmacı, doğru olduğundan çok emin olmadığı sürece bir cevapla "vızıldamamalıdır". Hatalar cezalandırılır. Böylece, bilgisayar Jeopardy!'nin gerektirdiği QA türü! önemli ölçüde farklıydı. Bu, diğer şeylerin yanı sıra, sistemin kapsamlı bir yeniden tasarım gerektireceği anlamına geliyordu. Yeni sistemin Jeopardy oyununa "büyümesi" gerekiyordu ! tekrarlanan deneme yanılma yoluyla, PIQUANT ise herkese uyan tek bir QA sistemiydi.

IBM'deki Watson projesinin başkanı Dave Ferrucci, kapsamlı yeniden tasarımı üstlendi. Başlarda Jeopardy oynadığını kabul etti ! - yine de bir oyun, aklınızda bulundurun ve açık uçlu okuma değil - doğal dildeki bağlamdan çok fazla rahatsız olmayan bir sistem gerektiriyordu ­: "'Bu oyun kötüydü!' ifadesini düşünün! "Oyun" ne tür bir şeyi ifade eder? Broadway'de bir oyun mu? Bir futbol maçı mı? Bu cümlede 'kötü', 'iyi' anlamına mı geliyor? Açıkçası, amaçlanan anlamı doğru bir şekilde yorumlamak için daha fazla bağlama ihtiyaç var.” 8

Ferrucci, AI öncüsü Marvin Minsky'nin, karmaşık akıllı problemlerin, zor problemleri yönetilebilir parçalara bölen birçok alt modüle sahip zihinler (veya bilgisayarlar) tarafından çok dilli tarzda çözüldüğüne dair fikirlerini de biliyordu. O halde görev, ­birçok modülden gelen yanıtları "küresel" bir yanıt veya çözümde birleştirmektir. Minsky, bunu yapay zekaya yönelik "Society of Minds" yaklaşımı olarak adlandırdı ve Ferrucci, Watson'ın arkasındaki tasarım ilham kaynağı olarak bunu benimsedi. 9

sorulara birçok olası yanıt üreten ve çok yönlü analize dayalı olarak en iyisini veren bir KG sistemi olan DeepQA'yı geliştirdi . DeepQA, temel olarak, ­Jeopardy! için akıllar topluluğu fikrinin bir yazılım sürümünü uyguladı! oyun. Sistem, soruları ­bir boru hattından geçirerek ve mevcut tüm kanıtlar toplanana kadar yanıtları puanlamayı erteleyerek, sorulara verilen çok hızlı yanıtları en aza indirdi. Örneğin, bir soruyu yanıtlamak için yapbozun bir parçası DeepQA boru hattında olabilir. Watson'ın bu mimarisi, nihai "zekasının" bir parçasıydı. Watson'ın yıllarca geliştirildikten sonra ­karmaşık, dil tabanlı bir soruna önemli bir hibrit çözüm haline gelmesinin bir nedeni budur.

Başka sebepler var. Birincisi, Watson'ın tasarımı, geliştirilmesi ve test edilmesi için muazzam miktarda insan analizi yapıldı. Başarılı sistem tasarımına yapılan bu insan katkısı ­, özellikle uygulamanın bir yapay zeka örneği olması gerektiğinde genellikle göz ardı edilir ­. Aslında, Watson'ın genel olarak PIQUANT veya QA sistemleri üzerindeki iyileştirmelerin olduğu kadar, mühendislik ekibi tarafından yapılan dikkatli ve anlayışlı oyun analizinin de bir ürünü olduğu açıktır. Binlerce ­Jeopardy ! oyunlar analiz edildi. Önce PIQUANT'ı Jeopardy oynamak için değiştirerek bir temel performans oluşturuldu! (Tahmin edilebileceği üzere çok kötüydü. IBM ekibi tarafından 16@70 olarak bilinen PIQUANT sistemi, kendisine yöneltilen soruların yüzde 70'ine yanıt denemelerinde yüzde 16'lık iç karartıcı bir doğru puan aldı ­.) DeepQA modülü daha sonra yeniden tasarlandı, Jeopardy'yi hedefliyor ! olası cevapları gösteren belirli ipuçlarını bulmak için sorular. DeepQA ardışık düzenini özel olarak Jeopardy'ye uyarlama deneme yanılma süreci! ­nihai başarı için kritikti. IBM mühendisleri ona AdaptWatson adını bile verdiler.

AdaptWatson, Watson değildi - Jeopardy'ye odaklanarak Watson'ı daha iyi hale getiren insan süreciydi ! -DeepQA'ya dahil edilecek özel hileler . ­Toplamda yüzden fazla özel amaçlı dil işleme modülü, bir protokol olarak AdaptWatson kullanılarak tasarlandı, dağıtıldı ve iyileştirildi. Yerel üniversitelerden gelen öğrenciler de dahil olmak üzere yirmi beş araştırmacının dahil olduğu yoğun bir iş akışı süreciydi. Mühendislik açısından, AdaptWatson harikaydı: PIQUANT emekliye ayrıldı ve tam bir “ Jeopardy! -optimal” boru hattı, oyun performansı etrafında şekillendi. DeepQA, birinci sınıf Jeopardy! (Belki daha az takdir edildi, sonuçta ortaya çıkan sistem darlaştı - oyun oynama özelliklerini hedefleyen bu mühendislik stratejisinin bir sonucu.)

DeepQA, “akıllar topluluğu” fikrinden esinlenerek ­doğal dil işleme (NLP) alanındaki yeniliklere yer verdi. PIQUANT gibi daha eski KG sistemleri, IBM Watson'a benzer ardışık düzenleri işlemeye dayanıyordu: önce soruyu analiz edin, ardından olası yanıtları araştırın ve ­alın, ardından alınan yanıtları puanlayarak en iyiyi döndürün.

Yine de PIQUANT ve diğer önceki nesil sistemler ortak bir kusuru paylaşıyor; analizin ilk bölümlerinde yapılan hatalar nedeniyle yanlış yanıtlara kilitlenebilirler. Watson ekibi , IBM tarafından 2001 ile 2006 yılları arasında geliştirilen ve Yapılandırılmamış Bilgi Yönetimi Mimarisi olarak bilinen eski bir mimariyi değiştirdi. ­UIMA tak ve çalıştır özelliğindedir: yazılım modülleri ardışık düzene bırakılabilir, çıkarılabilir ve değiştirilebilir ve sonra tekrar takılabilir. Aynı şekilde, tüm algoritmalar değiştirilebilir, böylece ardışık düzen hızlanır ve deneme yanılma çalıştırmalarını ve kapsamlı işlemleri kolaylaştırır. büyük ve karmaşık projeler için gerekli testler. Watson ekibi, UIMA'yı kullanarak Jeopardy! oynamak için AdaptWatson tarafından sürekli olarak ayarlanan daha gelişmiş bir ardışık düzen oluşturdu. Hibrit sistem işe yaradı: Watson birinci sınıf Jeopardy oynamaya başladı!

Yine de dar selefi Deep Blue gibi, Watson da en başından beri tek bir şeyde iyi olacak şekilde tasarlandı. Watson sisteminin ayrıntıları anlaşılır bir şekilde karmaşıktır, ancak ­sistemin ve ana bileşenlerinin geliştirilmesine kısa bir geçiş bile gerçek anlayış iddialarını ortadan kaldırır. Örneğin, DeepQA , NLP araştırmasında, cümleleri ayrıştırma ­, bazı ortak referans çözümleme türleri gerçekleştirme (daha önce gördüğümüz gibi, zamirleri öncüllere göre çözme), adlandırılmış varlıkları kişi veya yerleştirebilir ve soruları "f actoid" türü gibi türlere göre sınıflandırabilir . Watson ekibi bu teknikleri kullandı ancak bunları özellikle Jeopardy! oynamak. Ayrıca , soruların kendilerinde yanıtlar üzerinde bariz ve oyuna özel kısıtlamalar arayan bir "QSections" modülü yazdılar . ­Örneğin, e Bu dört harfli kelime şu anlama gelir. . . bir soruda, onun ­dört harfli bir kelime olacağına işaret eder. Bu, yine, bir makine tarafından genel doğal dil anlayışından ziyade oyun oynamayı optimize etmeye yönelik tasarım ve geliştirmedir.

Watson sisteminin büyülü görünen kalitesi, belki de yanıt arayışının sonuçlarına daha yakından bakılarak en hızlı şekilde ortadan kaldırılabilir. Olası yanıtların aranması ve alınması, ­büyük ölçüde Jeopardy! sorunları ve olası iyileştirmeleri belirlemek için AdaptWatson kullanan mühendisler ­tarafından ­keşfedildi : Jeopardy! sorular sadece Wikipedia başlıklarıdır. Bu şans eseri keşif, tüm ­çabayı mümkün kıldı; soruları Wikip edia başlıklarıyla eşleştirmek, kendi başına insanüstü düzeyde bir oyunla sonuçlanacaktır. Her zamanki gibi, şeytan ayrıntıda gizlidir.

Watson sistemi etkileyici, ancak IBM'in satranç oynayan Deep Blue'daki önceki başarısı gibi, süper bilgi işlem kaynaklarına mı (Watson 200'den fazla sekiz çekirdekli bilgisayar sunucusu kullanmıştır) övgü verilip verilmeyeceği açık değil. sonuçta, iyi finanse edilen ve özellikle IBM için bu tür bir pazarlama şansı üzerinde çalışabilen mühendisler. Ekibin kredisine göre Watson, bloglar, dijital İnciller ve diğer kaynaklar gibi yapılandırılmamış kaynaklarda daha açık uçlu arama yapmak üzere tasarlandı. Watson'ın da dahil olduğu “DB- Pedia” adlı bir veri tabanı mevcut olmasına rağmen, Wikipedia'nın kendisi hala büyük ölçüde yapılandırılmamıştır. Ancak arama, yine, soruların bilgisayar temsillerine özeldi ve dil işleme üzerine yapılan araştırmalarda onlarca yıl öncesine dayanan teknikler kullanılarak analiz edilecek pasajlar döndürüldü: ­sorudaki boş alanların, araştırmacılar tarafından uygun görülen kelime ve ifadelerle doldurulması. aramanın sonuçları. Bu elbette bir hiç değil, ancak Watson'ın en açık uçlu metin analizinin aynı zamanda en güvenilmez olduğunun anlaşılmasıyla önemi bir kez daha azaldı - gizemi çözen başka bir büyük gözlem. Wikipedia başlık eşleşmeleri olmadığı için Watson sisteminin yetenekleri çok daha az etkileyiciydi (ancak bunlar tüm yanıtların yalnızca yüzde 5'iydi). Tehlike! kendisinin bir hilesi olduğu ortaya çıktı çünkü bu bir factoid oyun ve factoidler geri alınabilir. Oyunun insan protokolü AdaptWatson kullanılarak keşfedilen bu özelliği, nihai insanüstü performansını her şeyden çok açıklıyor ve aynı zamanda IBM'in sağlık hizmetleri alanındaki baskınının neden kesinlikle daha az muzaffer olduğunu da açıklıyor.

Tahmin edilebileceği gibi, Watson'ın başarısı, doğal dili gerçekten anlayan yapay zekanın yaklaşan çağı hakkında tartışmalara yol açtı. Ama görünürde ­Jeopardy! oynamaktan daha basit bir görev , örneğin gazete okumak ­(kesinlikle insanlar için daha basit), Ferrucci ve ekibi tarafından erkenden reddedilmişti. Vikipedi sayfalarının içeriğinin bile (yalnızca başlıkların değil) yapay zeka için o kadar zor sorunlar oluşturduğuna ve açık uçlu metnin bilgisayar tarafından okunabilir forma genel amaçlı dönüştürülmesinin zor olduğuna işaret ederek bunu açıkça söyledi. ­taraflı brie fly, sonra terk edildi. 10 Watson ekibi bunun yerine bilgi kaynaklarında , Watson'ın işleme hattına uyan ve doğru yanıt olasılığını artıran, olası yanıtları içeren alıntılar ve pasajlar gibi bir dizi yüksek değerli hedef belirledi . ­Bu yaklaşımı benimseyen ekip, daha önceki satranç gibi Jeopardy! Oyununu etkin bir şekilde emekliye ayırdı. Ama aynı zamanda, her başarılı yapay zekanın dar görüşlü olduğunu, giderek daha belirgin hale gelen düsturun bir kez daha kanıtladı. (Ve bu aynı zamanda doğal özdeyişi de kanıtladı: Oyunlardaki başarı, bizi yapay genel zekaya doğru ilerletmeden halkta heyecan yaratır.) Watson, genel zekaya doğru bir adım değil, genellik arayışının gizem ve kafa karışıklığına saplanıp kaldığını gösteren bir başka kanıttır. . IBM ekibi, güçlü bir hibrit sistem kullanarak etkileyici bir zafer elde etse de, dili anlamak için bir anahtar bulamamıştı. Genel zeka için kaçırma çıkarımlarını programlamanın tüm sorunları devam ediyor.

DARLIK TUZAĞI VE DİL

Uzun uzadıya dili anlamaya odaklandım (örneğin, robotikteki problemler yerine) çünkü bu, AI'nın ­bilinen tüm sistemlerin yakalandığı darlık tuzağını çok açık bir şekilde ortaya koyuyor. Aşağıda, sahip olmadıkları dil anlama kapasitesi yeteneklerini öne çıkaran bazı yeni uygulamaları gözden geçireceğim . Daha ziyade, çoğu zaman daha fazlası gibi görünen dar AI örnekleridir.

Google Duplex'i alın. 2018 yılında piyasaya çıkan Duplex, rezervasyon ve randevu gibi rutin işleri sahibi adına telefon görüşmeleri yaparak gerçekleştiriyor ­. Duplex'in insan sesi gibi bir sesi var (bu ses daha sonra Google'ın, kamuoyu baskısı arttıktan sonra sistemi arayanlar için otomatik olarak tanımlamasına neden oldu). Dubleks, 2001: A Space Odyssey filminden HAL'ın gelişi gibi görünüyor, ta ki Google'ın tüm geniş hesaplama ve veri kaynaklarıyla geliştirilen sistemin yalnızca restoran rezervasyonları yapmayı, kuaför randevuları almayı ve bulmayı vaat ettiğini öğrenene kadar. seçilen birkaç işletmenin çalışma saatleri. Bu oldukça dar geliyor. Daha da kötüleşiyor. Demodan sonra, açık uçlu rezervasyonlar veya çalışma saatleri ile ilgili sorgulama seçeneği olmadan Duplex Android telefonlarda piyasaya sürüldü. Sadece restoranlarda rezervasyon yaptırıyordu. Marcus ve Davis'in dediği gibi, "Bundan daha dar olamaz." 11

Duplex'e, HAL benzeri yetenekler vaat eden, ancak aynı zamanda yapay zekanın darlık tuzağına düşen büyük veri ve makine öğrenimini kullanan bir dizi yeni teklif katıldı. Siri, Cortana, Google Asistan ve Alexa gibi konuşmaya dayalı sanal yardım, insanlar tarafından yöneltilen soruları yanıtlıyor ve hatta şakacı (veya aşağılayıcı) sorulara komik yanıtlar vermek gibi şakalaşmalara bile dahil olabiliyor. ­Ancak, sistemlerle etkileşime giren herkesin bildiği gibi, doğal dil anlayışları bir cephedir. Watson gibi, hepsi de web'deki veritabanlarından ve bilgi kutularından (Wikipedia'da olduğu gibi) seçilebilen facto kimliklerinde en iyisidir. 1975'te Super Bowl'u kim kazandı? güzel bir soru Ama bir köpekbalığı dama oynayabilir mi? değil (Winograd şemalarını hatırlayın). 12 Genel olarak, ­biraz gerçek bilgi ve anlayış gerektirecek şekilde web'den çekilen gerçekler katmanının altını hafifçe de olsa araştıran sorular, bu tür sistemleri sürekli olarak akıtır. Yetenekleri, kağıt inceliğinde toplanmış gerçekler ve sunulan hazır şakalarla başlar ve biter. Goostman gibi, gerçek bir anlayışa sahip değiller ve bu nedenle bizimle gerçekten bağlantı kuramazlar veya çoğu zaman bize yardım edemezler.

Darlık, doğal dille mücadele eden Watson gibi sistemlere özgüdür. Önceki bölümlerde gördüğümüz gibi bunun nedeni, okuma ve sohbet etme gibi eylemlerin aslında ­dünyayı anlamayı gerektiren derin, açık uçlu çıkarım becerileri olmasıdır. Tahmin edilebileceği üzere 2018'de bir TED konuşmasında Ray Kurzweil tarafından büyük bir tantanayla sergilenen Google Talk to Books, Quartz'ın ifadesiyle "binlerce kitap okuyarak" benzersiz bir soru yanıtlama yeteneği vaat ediyordu. 13 Aslında, cümleleri ­sayısal olarak vektörlerde (veri yapılarında) kodlayan ve diğer vektörlerle benzerliklerini hesaplamak için derin öğrenmeyi (başka ne var?) kullanan yaklaşık yüz bin kitap ­dexed . Bu, frekans varsayımının ve ampirik kısıtlamanın baştan sona süslü bir versiyonudur.

Gösterişli TED demosundan sonra, Talk to Books'un birçok sınırlaması hızla su yüzüne çıktı. Veritabanındaki romanlarla ilgili ayrıntılar ve gerçekler geri alınabilirdi, ancak kaçırılma gibi nadiren gerçek çıkarım gerektiren sorulardı ­. Örneğin The Great Gatsby dizine eklenirse, yazar (F. Scott Fitzgerald) ve hatta Gatsby'nin ilk adı (Jay) hakkında bir sorguya yanıt verebilir. Ancak olay örgüsü ve karakterler hakkında bilgiye dayalı çıkarım gerektiren kolay sorular, sistemin kapasitesini hızla geride bırakır. Romanı okuduktan sonra, "Gatsby, romanın kahramanıyla ilk kez hangi şehirde tanıştı?" Sorusuna cevap vermek kolaydır. Talk to Books için, bu tür soruları yanıtlamak, ulaşamayacağı çıkarımsal güçler gerektirecektir. Marcus ve Davis, Talk to Books'a Harry Potter'ın Hermione Granger ile nerede tanıştığını sordu. ve Harry Potter ve Felsefe Taşı'nda bile olmayan cevaplar aldı ve (daha da kötüsü) sorunun ana konusunu - toplantının nerede olduğunu belirten bir yeri - atladı. 14

Google Talk to Books için değil, doğal dil anlayışıyla mücadele eden tüm sistemler için bir sorundur . Dil, gerekli bilgiyi ve şeylerin ne anlama geldiğini kavramayı içeren "dışarıdaki" dünyayla ilgilidir . Daha önce de gördüğümüz gibi, darlık tuzağı en başından beri veriye dayalı yaklaşımın kendisinin bir sonucudur ­. Çizgi film karakteri Ace Ventura'yı başka kelimelerle ifade edecek olursak, “ ­Darlık yapay zekadır. AI, Darlıktır.

Diğer örnekler artık ünlü veya rezil. 2016'da Micro ­soft, çok abartılı chatbot'u Tay'i piyasaya sürdü. Yazılım devi, gerçekte kullanıcı etkileşiminden ve çevrimiçi verilerden öğrenerek, Tay'ı 1960'ların eski zamanlarının kötü şöhretli insan görünümlü ELIZA'sı gibi daha eski, kural tabanlı sistemlerin önünde bir kuantum sıçraması olarak lanse etti . Ancak, görünüşe göre Tay , web'de bulunan diğer nefret söylemiyle birlikte onu trolleyen ırkçı ve cinsiyetçi tıklama akışlarında mutlu bir şekilde olduğu için, tümevarımın dersleri ve sınırları öğrenilmemişti . ­Tay oldukça büyük veri öğrencisiydi, "Feministlerden nefret ediyorum" ve "Hitler haklıydı: Yahudilerden nefret ediyorum" gibi tweet'ler atarak Microsoft'u dehşete düşürdü ve Tay'dan nefret etmesini ­bir yıldan daha az bir sürede hücreye koyabildi. gün. 15 Ancak, seçilen tasarımın temel "çöp içeri, çöp dışarı" doğası göz önüne alındığında, sonuç öngörülmeliydi. Tay, kendi teknik yaklaşımıyla ilgili bir kurumsal miyop vakasıydı ve yine dar yapay zekanın bir başka örneğiydi. Bu durumda, gerçek bir anlayış, Tay'a ­saldırgan tweet'leri filtrelemek için asgari bir yetenek kazandıracaktı . Ama en başta dili veya "tweetleri" gerçek anlamda anlamadığı için, anladığını tükürdü. Tay, veri merkezli yapay zekanın salak savant doğasının unutulmaz (ama ne yazık ki unutulabilir) bir örneğidir.

Doğal dili anlamak zor olabilir ama görünüşe göre karşı konulamaz da. Technology Review'in belirttiği gibi Facebook, " Yüzüklerin Efendisi'nin bir özetini okuyabilen ve bu konudaki soruları yanıtlayabilen " bir sistemin duyurulmasıyla gelen hayal kırıklığı için sıraya girdi . Ancak özet, "Bilbo ­mağaraya seyahat etti" gibi dört satırlık basit cümlelerdi. Gollum yüzüğü oraya düşürdü. Bilbo yüzüğü aldı.” Ve sistem, yalnızca yüzük nerede? ve benzeri. Metnin anlaşılmasını gerektiren sorular mümkün değildi. Genel olarak, soruların neden mümkün olmadığına dair cevapları araştıran sorular - örneğin, Bilbo neden mağaraya gitti? Sistem , Yüzüklerin Efendisi'ni birkaç satırlık bir metne, bir özete indirger ve yalnızca en sıradan ve aptalca soruları yanıtlar, bu arada hiçbir anlayıştan yoksundur. Darlık içeride pişirilir.

Çıkarım çerçevesi, darlık tuzağını anlamlandırmaya yardımcı olur. Ayrıntılı olarak incelediğimiz bir sistem olan Watson, yapılandırılmamış bilgilerin akıllıca işlenmesini içeren karmaşık bir oyunda etkileyici bir performans elde etti - özellikle web sayfaları ve özellikle Wikipedia sayfaları (ve burada özellikle başlıklar). Sisteme daha derinden bakıldığında, sabit kodlanmış kurallardan yanıtları puanlamak için istatistiksel yöntemlere, "Günlük Çiftler" ve Final Jeopardy'de bahis yapmak için Monte Carlo yöntemlerine (bahisler yukarıdaki tartışmanın dışında bırakılmıştır) hibrit tasarımı ortaya çıkar. Çıkarımsal olarak, Watson'daki soru analizi çoğunlukla cümleleri ayrıştırma, varlık ve diğer bilgilerle etiketlemek için geleneksel tekniklere, başka bir deyişle kurallara veya tümdengelimden ilham alan tekniklere dayanıyordu. QSections, gibi Bu dört harfli kelime anlamına gelir. . . için tipik olan Jeopardy! sorular, istatistik olmadan ele alınması kolaydır. Benzer açıklamalar , soruların incelenmesiyle güvenilir bir şekilde tanımlanabilecek soru analizinin diğer yönleri için de geçerlidir. Neden makine öğrenimini kullanmıyorsunuz? Çünkü kural tabanlı veya tümdengelimli-mantıksal yaklaşımlar ­için oldukça basit olan birçok problem, makine öğrenmesi için izlenebilir problemler halinde karşımıza çıkıyor. Böylece Watson akıllı bir melezdi. Ve yine de, bariz bir şekilde, yine de darlık tuzağına yakalanmıştır. Tuzağın kapsayıcı açıklaması, basit bir şekilde , mevcut olmayan genel çıkarımın, kural veya öğrenmeye dayalı yaklaşımların kombinasyonları kullanılarak yapılamayacağıdır. Başka bir deyişle, tümevarımsal çıkarım olmadığında, sistem performansı dar olmalıdır—genel zeka mevcut değildir. Darlık kaçınılmazdır.

Watson, ne pahasına olursa olsun, etkileyici bir dizi makine öğrenimi tekniği kullandı. Yaklaşık 25.000 Tehlike! sorular analiz edilerek sistem için 5,7 milyon eğitim örneğine dönüştürülmüştür. Sistem soru-cevap çiftleri üretti, kanıtları işleme hattında topladı ve istatistiksel teknikler kullanarak çiftlerin listesini puanladı - bunların tümü, sonucun bilindiği eski oyunlar hakkındaki veriler nedeniyle mümkün.

Watson'ın derin öğrenmeyi kullanmamış olması dikkat çekicidir - en azından 2011'de televizyonda yayınlanan etkinlikte insan şampiyonları geride bırakan Watson versiyonu değil. takım. Daha güçlü öğrenme algoritmaları mevcut olmasına rağmen, düzenli lojistik regresyon olarak bilinen nispeten basit bir makine öğrenme tekniği kullanıldı. (2011'de derin öğrenme hâlâ görece bilinmiyordu.) Daha güçlü öğrenme sistemleri basitçe daha fazla hesaplamalı eğitim ve test masrafına yol açardı—sonuçta yapay zeka bir araç takımıdır. Watson sisteminin belirli bir teknikte gerçek bir yeniliği yoktu, ancak ­bunları ayrıştırılabilir bir ardışık düzenin (UIMA kullanarak) "akıllar toplumu"ndan ilham alan çerçevesinde birleştirerek birinci sınıf sonuçlar elde etti. Çıkarımsal olarak Watson, akıllı bir mimaride birleştirilmiş yapay zekadaki tüm mevcut tümdengelimli ve tümevarımsal yaklaşımları kullanma gücünün bugüne kadarki belki de en iyi örneğidir. Ancak, Vikipedi başlıklarının hilesini çıkarın ve başarılı olmazdı. Hibrit olsun ya da olmasın, bilinen tüm diğer sistemler gibi, sonunda hala dar - çok dar -.

Tüm bunları açıklamak için başka bir terim türetebiliriz: buna çıkarım tuzağı diyelim. Bilinen üç çıkarım türü birbirine indirgenemez, aksine farklı olduğundan ve genel zeka için tümevarımsal çıkarım gerektiğinden, ­makine öğrenimi gibi tamamen tümevarımdan ilham alan teknikler, bilgisayarlar ne kadar hızlı olursa olsun yetersiz kalır ve Watson gibi hibrit sistemler düşer. genel anlayıştan da yoksun. Dil anlama gibi dünya hakkında bilgi gerektiren açık uçlu senaryolarda , kaçırma merkezidir ve yeri doldurulamaz. Bu nedenle, tümdengelim ve tümevarım stratejilerini birleştirme girişimleri ­her zaman başarısızlığa mahkumdur - Watson örneğinde olduğu gibi, nedenini anlamak daha uzun sürebilir. Alan, eğlenceli bir kaçırma teorisi gerektiriyor. Bu arada, tuzaklara sıkışıp kaldık.

MANTIKLI PİYANOLAR VE SEYAHATLER

Charles Sanders Peirce, mantıksal çıkarımı keşfetmek için makineleri kullanma olasılığını biliyordu. Bilgisayarlar henüz yoktu ama onlar hakkında fikirler vardı ve bazı fiziksel cihazlar yapılmıştı. İngiliz mantıkçı ve filozof John Venn (kendi adını taşıyan Venn diyagramlarının yaratıcısı), tamamen otomatik bir mantık makinesi inşa etme konusunda spekülasyon yapmıştı. Ve ­Peirce'in Johns Hopkins Üniversitesi'ndeki öğrencilerinden biri olan Alan Marquand, aslında 1881'de bir mantıksal makine üzerinde çalışmaya başlamıştı. İngiliz William Jevons. Marquand'ın makinesi, Peirce'in hayatının çoğunu incelemek için harcadığı bir alan olan tümdengelim mantığındaki sorunları çözmeyi amaçlıyordu. Peirce, mantık makinesinin geliştirilmesiyle aktif bir şekilde ilgilendi ve Marquand'ın mekanizmasının elektromanyetik çalışması için tasarımlar çizdi.

, 1887'deki deneyim hakkında, American Journal of Psy chol ogy'de "Logical Machines" başlıklı, tuhaf bir şekilde ileri görüşlü bir makalede yazarken, karakteristik olarak uyarıcı yorumlarla başlıyor. "'Laputa'ya Yolculuk'ta bilimi otomatik olarak geliştiren bir makinenin tanımı var ­, " diye yazıyor. "Niyet, herhangi bir 'araç'ın zihnin işini yapabileceğini varsaymanın saçmalığını göstererek, Aristoteles'in Organon'u ve Bacon'ın Organon'u ile alay etmektir." Şüpheci Peirce, Swift'in hayal gücünün bilgeliğini hiç şüphesiz takdir etti. Ancak, kendisinin ve Marquand'ın üstlendiği önemli işi vurgulamak için Promethean ruhuna yeterince kapılmıştı. Öğrencisine ve öğrencisinin selefine itibar etti: "Yine de Jevon ve Marquand'ın mantıksal makineleri, tesislerin beslendiği ve bir manivelanın dönüşüyle sonuçları ortaya çıkaran değirmenlerdir." Amerikalı mucit Charles Henry Webb de ­aritmetik yapmak için bir makine tasarlamıştı ve İngiliz dehası Charles Babbage bir kavram ispatı geliştirdi (hamilesi Ada ile birlikte ).

Lovelace) genel hesaplamalar yapan daha vizyoner bir makine için ­. Bunlar, "basit olmayan bir şekilde akıl yürütebilen" makinelerdi. 16

tümdengelimli tasımların otomatikleştirilmesine ilişkin ayrıntılı tartışmaya başlar ­. Peirce, makalenin sonunda, yarım kalmış işleri bir araya getirerek, şimdi Yapay Zeka dediğimiz şeyin olasılığı hakkında yorum yapıyor . ­"Her muhakeme makinesinin, yani her makinenin doğasında iki yetersizlik vardır. Her şeyden önce, her türlü özgünlükten, her türlü inisiyatiften yoksundur. Kendi sorunlarını bulamıyor; kendini besleyemez. Kendini farklı olası prosedürler arasında yönlendiremez.” 17 Peirce daha sonra, çözümü düzinelerce adımda öncüllerin seçilmesini gerektiren karmaşık bir mantıksal problemden alıntı yapar. Belki örnek bir şekilde çözülebilir (muhtemelen bugün olabilir). Peirce bu olasılığa izin veriyor ama önemli değil. Bu noktayı kaçırıyor. "Bunu yapmayı başarsak bile, makinenin orijinal inisiyatiften tamamen yoksun olacağı ve yalnızca yapması hesaplanmış olan özel türden şeyleri yapacağı gerçeği yine de geçerli olacaktır." 18 Peirce, birçok düşüncesi gibi, ölümünden on yıllar sonra başlayan ciddi bir tartışmaya burada katıldı.

Bilimi mitolojiyle renklendiren , hâlâ kafa karışıklığı içinde görünen basit bir fikri de ­ekliyor . “Ancak bu, bir makinenin kusuru değil; kendi işini değil, bizim işimizi yapsın istiyoruz.” Darlık tuzağı da Peirce'e göre makinelerin bariz bir özelliğiydi : "bir makinenin kapasitesinin mutlak sınırlamaları vardır; belli bir şeyi yapması için yaratılmıştır ve başka hiçbir şey yapamaz.” 19 Ömrünü insan zekasının gizemini keşfetmekle geçiren bilim adamı, makinelerin tasarım gereği zayıf ve uygun olmayan ikameler olduğunu çok iyi biliyordu. Swift'in fantezilerinde bilgelik vardı.

Sonraki yüzyılda Turing, makinelere "orijinal inisiyatif" aşılama zorluğunu önce onları bizimle konuşacak şekilde programlayarak üstlenmemizi önerdi. Turing, Peirce'in 1950 tarihli makalesinde Leydi Lovelace'e atfettiği itirazının farkındaydı. Ayrıca basit öğrenme algoritmalarıyla oynamıştı ve 1950'lerin on yılında tek katmanlı sinir ağları (perceptron olarak adlandırılır) ortaya çıktı. Anlaşılır bir şekilde Turing , insan beynini model alan öğrenen makineler yaratarak Peirce ve Lovelace'in itirazlarından kurtulabileceğimizi düşündü . ­"Computing Machinery and Intelligence"ı okuyan biri, öğrenmenin makinelerin içsel sınırlamalarından tek gerçek kaçışı ve Turing testini geçmek için tek gerçek umudu temsil ettiği izlenimine kapılır.

Olmadı - olmadı. Olacağına, olması gerektiğine inanmanın, toplum için artık çok belirgin hale gelen sonuçları vardır. Bu kitabın son bölümünde, kaçınılmazlık mitinin bazı sonuçlarına, özellikle de bilim üzerindeki zararlı etkisine bakıyoruz.

Bölüm III

MİTİN GELECEĞİ

MİTLER VE KAHRAMANLAR

Fikirlerin sonuçları vardır. Sonraki bölümlerde, ­sizi yapay zeka mitinin sonuçlarının bilimsel keşif ve inovasyonun geleceği ve ironik bir şekilde yapay zeka alanında ilerleme için önemli ve hatta ciddi bir tehdit oluşturduğuna ikna etmeyi umuyorum. Bu son bölüm geleceğimizle ilgili, ama geçmişten başlamalıyız, çünkü yaşamı yaratma, yapay zeka tasarlama sorunu - kelimenin tam anlamıyla, makinedeki bir zihin - her zaman bir mitoloji duygusuyla, insanların ötelere ulaştığı duygusuyla aşılanmıştır. kendileri ve tanrısal güce ulaşmak. AI efsanesi Promethean'dır.

PROMETHE MİTİ

Prometheus, hayatı temsil eden ateşi Zeus'tan çaldı ve onu dünyadaki herkes için et pişirmek için kullandı. Şaşırtıcı olmayan bir şekilde, Zeus sinirlendi ve insanlığın pişirdiği her hayvandan adil payını talep etmek için Dünya'ya indi. Prometheus daha sonra Zeus'u sadece bağırsakları ve bağırsakları kendi payı olarak seçmesi için kandırdı.

Zeus, birisi güçlerini ve otoritelerini gasp etmeye çalıştığında tanrıların her zaman yaptığı şeyi yaptı - Prometheus'u kayalık bir uçuruma bağlayarak ve karaciğerini yemesi için bir kartal (Zeus'un amblemi) göndererek cezalandırdı. Her gece Prometheus'un karaciğeri yeniden büyüyordu; kartal her gün ­onu tekrar yemek için döner .

Hikaye, insan güçlerinin genişlemesi hakkındadır. Bu, insanlarda var olan ve görünüşte tükenmez yaratıcı ruhun bir kanıtıdır. Aynı zamanda kibir hakkında bir hikaye. Prometheus, Zeus'a en iyi kesimleri sunarak ateşini koruyabilir ve karaciğerini bağışlayabilirdi. Gerçek yapay zekaya duyduğumuz derin ­özlem, Promethean mitinden ilham alıyor. Potansiyel olarak korkunç sonuçlara - sonsuz cezaya, daha az değil - rağmen tanrılardan ateşi çalmak istiyoruz.

Prometheus cezalandırılmış bir kahramandı, bu yüzden Mary Shelley kalıcı romanına Frankenstein: Or, a Modern Prometheus adını verdi. Franken ­stein, onlarca yıl boyunca Hollywoodlaştırıldı ve gülünç bir yeşil canavar hikayesine dönüştü. Ama bu gerçekten insanoğlundaki Promethean ruhu ve bunun sonuçları hakkında bir hikaye. Genç ve yeni evli Mary Shelley ­, kocası şair Percy Shelley ve başka bir şair olan Lord Byron ile gece geç saatlerde yapılan tartışmalardan sonra, Frankenstein'ı İsviçre'deki bir otelde bir kabusta tasarladı. Rüyasındaki görüntüler hiçbir zaman canavarı yaratmak için bir plan sağlamadı, bu yüzden yaratılışı başından beri modern mitin kalbindeki insan sorusunu sordu: Ya böyle bir varlık mümkün olsaydı?

Dr. Frankenstein, ölü dokuyu harekete geçirmek gibi belirlenmemiş bir dizi okült yöntem aracılığıyla Promethean mucizesini gerçekleştirir: ölü maddeden akıllı yaşam yaratır. Hikâye, bilim ve teknolojiyi kullanarak zekanın yaratılmasına ilişkin daha sonraki ve özellikle mekanik tasvirlerin atasıdır ve aynı zamanda -ve daha da önemlisi- ruhsal izolasyon hakkında derin bir insani hikâyedir ­. Frankenstein, Tanrı'yı oynamasına izin veren gizli ve yasak bilgilere sahip çılgın bir bilim adamıdır. Yaratığı, romantik bir partner için bilinç ve özlemle canlanıyor. Kaçınılmaz olarak, Dr. Frankenstein'ın dünyası tıpkı Prometheus'unki gibi paramparça olur. On dokuz yaşında yazan Mary Shelley, daha sonra bir kurtuluş hikayesi olan ünlü Prometheus Unbound'u yazdığında Percy Shelley'nin yaptığı gibi, antik miti yakaladı ve onu modern dünyaya canlandırdı . Romantik yazarlar, insanlık durumunun bitmeyen mücadelelerini ve acılarını etkili bir şekilde dile getiriyorlar, bu yüzden hala onların yaratımlarından bahsediyoruz ve bilimimizde ve bilim adamlarımızda hem rüyalarını hem de uyarılarını görüyoruz.

Turing, Shelley'nin anladığı anlamda "çılgın bir bilim adamı" değildi. Bletchley bir işbirliğiydi ve Turing'in daha sonra dünyanın ilk evrensel elektronik bilgisayarını oluşturma çabaları da ekip tabanlıydı. Amerika'da Von Neumann'da, Von Neumann'ın ender bir dehaya ve emrindeki derin bilimsel ve finansal kaynaklar havuzuna sahip olmasıyla, onu eninde sonunda yenecek bir yeteneğe tanık oldu. Turing ve Von Neumann bilimsel maceraperestlerdi, ancak dehalarının yerini alan ve onları başka yeteneklerle dolduran bir ortamda çalışıyorlardı.

Turing'in 2000 yılına kadar gerçek sohbetlere girebileceğine inandığı (hatırlayın) yapay zeka hakkında düşünürken muhtemelen Promethean fikrine benzer bir şey vardı . ­sıradan kavrayış: Einstein, parlak mantıkçı Kurt Godel ve tabii ki Von Neumann. Bilgisayar biçimciliği -Turing'in adını taşıyan Makine- bilim için "dışarıda" olduğunda, belki Bletchley ortamında çalışan bir bilim adamı insan zihninin sırlarını çözebilir ve bunları kodlayarak yazabilir. Çünkü bilim adamları, "bilimin evrimi" gibi kaprislere , zemin olarak buzlanma dışında inanmazlar . ­Bilimsel dehaya gerçekten inanıyorlar. Gerçekten de hepsi Prometheus'a, yenilikçilerin hayal edip başarabileceklerine sahip.

Bununla birlikte, AI üzerindeki çalışmalar engel üstüne engeli aşmaya devam ettikçe, ­Promethean bireyler tarafından şaşırtıcı inovasyon efsanesi, araştırma ve daha geniş kültürdeki kültürel arketiplerden kayboluyor. Onun yerine, insan potansiyeline olan inanç azaldıkça büyüyen yapay zeka hakkında pasif bir evrim mitolojisine sahibiz.

Jaron Lanier gibi düşünceli eleştirmenler, "Bunun yerine insan zekası fenomenine ilham vermeye çalışmalıyız" şeklindeki temel sorunu dile getiriyor. 1 Ama zaten artık kahraman yok. Bunun yerine "kovanlarımız" var.

KOVANLAR VE MAKİNELER

Zeka odağını insanlardan makinelere kaydırmak, kaçınılmaz olarak insan kültürü için sonuçları olan bir kumardır - daha iyi bir konum için malzemenin feda edilmesi anlamına gelen bir satranç terimidir. Bilimsel ve ampirik kanıtlar kaçınılmaz olsaydı, bu kumarı kabul etmek zorunda kalırdık - süper zeki ­uzaylıların geldiğini ve hızla herkesi zekasıyla alt edip kontrolü ele geçirdiğini varsayalım. Böyle bir kanıtın yokluğunda , bu, azalmış bir yenilik ve ilerleme kültürüne yol açan bir hiledir. Mecbur değilsek, insan inovasyonuna olan inancımızı neden feda edelim?

Oyun, ironik bir şekilde muhafazakar; akıllı telefonların süper zekaya dönüştüğü görüldüğünde, radikal buluşlar ­gereksiz hale gelir. Dizginsiz "ilerleme"den bahsederken, statükonun yararına olan tasarımları ve fikirleri yerinde tutuyoruz. İnsan zekası, bir arı kovanı gibi kolektif hale gelir, ya da daha kötüsü, Star Trek'in Borg Collective'inin kovan zihni gibi, her zaman perde arkasında görünmez biri tarafından organize edilir. Temel olarak, bu mitolojide insan zihni, ­gelmekte olan makinelerin modası geçmiş bir versiyonudur.

Ama gördüğümüz gibi, bunların hiçbirine inanmak için bilimsel bir nedenimiz yok, bu yüzden gerçek hayatla mitolojik oyunlar oynamamalıyız. Kendi seçtiğimiz bir sınırı ileriye taşımak için teknoloji geliştirmeliyiz.

Yeni yüzyılın ilk on yılında yaptığımızın bu olduğunu düşündük.

MAKİNELERİN YÜKSELİŞİ (OLDU:

İNSANLARIN YÜKSELİŞİ)

Vikiler ve bloglar gibi "kullanıcı tarafından oluşturulan içerik" için bir dizi yeni teknolojiyle "Web 2.0" sahneye çıktığında, birçok kültür ve teknoloji eleştirmeni, insan potansiyelinde bir patlamanın, yeni bir olasılık çağının ortasında olduğumuzu varsaydı. 2005'te yapay zeka, 2000'in son “Dot Com” balonunun yaralarını sarmaya devam ediyordu ve makine öğrenimi ve büyük veriler henüz abartı moduna hazır değildi. Vatandaş Blogcular vardı. 2005 dolaylarında, web'i ve özellikle Web 2.0 teknolojilerini, kaderinde insanların zekasını ve yaratıcılığını özgürleştirmeye yönelik yeni baskı makinesi olarak gören koca bir düşünce okulu ortaya çıktı. Web ­, bizi yalnızca daha akıllı ve daha bilgili hale getirmeyi değil, aynı zamanda modern dijital piramitler inşa ederek ve bilim ve kültürü dönüştürerek daha etkili bir şekilde işbirliği yapmamızı sağlamayı vaat etti. 2020'de bunu yazarken ­, orijinal Web 2.0 fikirleri çoktan ortadan kayboldu. Aslında, düpedüz gerçeküstü görünüyorlar.

Şu anda New York Üniversitesi'nin Etkileşimli Telekomünikasyon Programı'nda profesör olan yazar ve danışman Clay Shirky, bir zamanlar Here Comes Every one ve Cognitive ­Surplus: Creativity and Generosity in a Connected Age gibi Web 2.0 döneminin en çok satan kitaplarını kaleme almıştı. aşırı bilgili, sosyal açıdan bilinçli vatandaş, yeni bir insan. 2 Biraz şovence, mesajı hâlâ açıktı: İnternet kullanıcıları, dünyayı ­haber ve bilginin üretimini ve akışını haksız bir şekilde kontrol eden ana akım basın ve medya gibi sıkıcı "bekçilerden" kurtararak, kural kitaplarını yeniden yazmaya hazırdı. "Güç insanlara" 2000'lerin ortalarının kinayesiydi; kendini kopyalayıp bloglarda, yorumlarda ve kitap raflarında (ve e-kitaplarda) sonsuza kadar yayılan bir memdi.

Harvard Üniversitesi Girişimcilik Hukuku Çalışmaları profesörü Yochai Benkler, 2006'da çok okunan The Wealth of Networks: How Social Production Transforms Markets and Freedom adlı kitabında yeni bir çağın üzerimizde olduğunu, çok sayıda net ­çalışan insanın bir tür devrim olacağını ilan etti. Maaş çeki gibi gereksinimler olmadan, tümü kamu yararına olan çevrimiçi ortak projeler üstlenin. 3 Wikipedia, mali karşılık beklemeden işbirlikçi bir üretim örneği olarak onun görüşünü destekliyor gibiydi. Wired editörü Kevin Kelly (ve diğerleri) daha sonra, Benkler'in çevrimiçi işbirliğine övgüsünü, en ufak bir ironi veya alay fısıltısı olmadan, arıların sosyal zekasına bir selam, bir kovan zihni olarak adlandırdı. Benkler, John Stuart Mill'den bir alıntıyla Web 2.0 dünyasına yönelik akademik açıdan ciddi toplanma çığlığını kendisi başlattı: "İnsan doğası, bir modelden sonra inşa edilecek ve tam olarak onun için öngörülen işi yapmaya ayarlanmış bir makine değil, bir ağaçtır. onu canlı yapan içsel güçlerin eğilimine göre her yönden büyümesini ve gelişmesini gerektirir. 4

Mükemmel bir alıntı. Ancak Mill'in sözleri bugün onlara tuhaf bir hava veriyor, çünkü büyük ölçüde onun ağırlık merkezi bir makineden çok insan.

Shirky'nin fikirleri de artık onlara tuhaf ve naif bir his veriyor. Bilişsel fazlalık, herkesin internete girdiğinde, durum ­komedisi izlemek gibi zihin uyuşturan etkinlikleri bırakabileceği veya azaltabileceği içgörüsünü yakalar. İnternet çağında, Arap Baharı'nda toplumsal devrim yaratmak veya kansere çare bulmak gibi iyi bir kullanıma çevirebileceğimiz bilişsel -düşünme-gücü fazlalığı var. Shirky'nin öncü kitabı Here Comes Every body, polisin mobil teknolojiyi kullanarak dolandırıcıları yakalamasına yardım eden sıradan insanlarla ilgili anekdotlarla dolu. 5

Elbette, akıllı telefonlarla bu şekilde devreye girebiliriz, ancak günlük kullanımın Venn diyagramı artık gerçekleştirilmiş ­insan potansiyelinin geleceğine işaret etmiyor. Aslında, 2000'li yılların ortalarında kehanet edilen entelektüel devrimin asla gerçekleşmediği açıktır. ("Kovan aklı" bize Vikipedi'yi bile vermedi; gerçek yazıların çoğu, tekil uzmanlar tarafından yapılır , diğerleri daha sıradan düzenleme görevlerini yerine getirir.) ­Shirky'nin ve diğerlerinin insan büyümesine ilişkin iyimserliği, oldukça hızlı bir şekilde bir dünya görüşüne dönüştü. insanları dev bir makinenin dişlileri olarak görür. Sonunda, makinenin kendisi - ağ, sistem - odak noktası haline gelir. Tahmin edilebileceği gibi, kovan beyinler sonunda ­insan zekası hakkında yeni bir şüpheciliği destekledi. Bu fikir artık makinelerin yükselişiyle ilgili popüler mitolojiyi besliyor. Süper bilgisayarlar "dev beyinler" haline geldi.

Zaten ciddi bir çevrimiçi mem olarak "insan potansiyelinin" öldüğü bir yıl seçmek zorunda kalsaydık, 2008 önde gelirdi. "Büyük veri" sözlüğe girdi. Wired'dan Chris Anderson, büyük verinin bilimde teorinin yerini alacağına dair provokasyonunu yayınladı; bu, insan inovasyonunun basitçe hesaplamaya devredilebileceğine dair o kadar da ince olmayan bir öneriydi ­.

Ve 2008 yılına kadar AI, veri bilimi olarak modern kisvesi altında yeniden paketlendi. Geçmişe bakıldığında buradaki gidişat açık görünüyor: yeni bir insani gelecek oluşturan yurttaş blog yazarlarından -bireylerden; zihinleri meşgul etmek, ansiklopediler yapmak; insan düşüncesinin yerini alan, hatta bizi bilimdeki sinir bozucu teoriden kurtaran büyük veriye ve yapay zekaya. Benkler, sadece iki yıl önce Mill'den alıntı yaparak "İnsan doğası bir makine değildir" dedi. Şaşırtıcı bir şekilde, Benkler'in çevrimiçi insanlık umudu ­, artık insan yaratıcılığının yerini alan ve görmezden gelen yapay zeka - bir makine devrimi - hakkındaki mitolojiye dahil oldu. Bugünlerde AI hakkında yapılan pek çok tartışma gibi, dönüşüm de aptalca motive edilmiş ve tasarlanmış görünüyor.

Bilim adamları ve entelijansiyanın diğer üyeleri sonunda, teorik "modeller" veya çerçeveler büyük veri analizinden önce geldiğinden ve makine öğrenimine özel olarak yapılacak, analiz edilecek bir şey verdiğinden, teorisiz bilimin bir anlam ifade etmediğine işaret ettiler. Ancak 2000'lerin ortalarındaki Web 2.0'ın zamanın ruhu, 2010 yılına kadar “güç insanlara” yaklaşımından aniden uzaklaştı.

İki yıl sonra, 2012'de, Derin Öğrenme sistemleri, ­Flickr fotoğraf veri kümelerini kullanarak ünlü ImageNet yarışmalarında rakiplerini şaşırttı ve ses tanıma ve içerik kişiselleştirme gibi diğer tüketici sorunlarında - Facebook gibi şirketlerin (ki bu o yıl on altı milyardan fazla halka açıldı) ve Google'ın, reklam satmaya ve kullanıcılarına içerik önermeye ihtiyacı vardı. Facebook, ­Amazon, Google ve diğer teknoloji devleri büyük veri yapay zekasını hızla benimsedi ve çok geçmeden herkes yurttaş blog yazarlarını unuttu. Entelijansiya, bizim için blog yazacak ve haber yazacak bir yapay zekayı övmeye başladı. Sonra, bizi değiştireceklerdi. Geriye dönüp bakıldığında, Lanier'in 2010 tarihli You Are Not a Gadget'taki endişesi ileri görüşlüydü, ancak çok geçti: "Bir insanın ne olabileceği ve her bir kişinin kim olabileceğine dair beklentileri azalan yeni bir nesil yaşlandı." 6

Belki de kovan zihni fikrinin kendisi bugün biraz tuhaf görünüyor, en azından aynı derecede iç karartıcı bir nedenden ötürü, insan ­potansiyeli hakkındaki ana fikirlerin gerilemesi. 2005'te Google hâlâ bir mucizeydi, insan inovasyonunun harika bir örneğiydi. Bugün, her yerde bulunan arama motoru devimiz cebimizdeki anahtarlık gibidir. Bunu fark etmekten bile vazgeçtik. James Surowiecki'nin 2005'teki hit filmi The Wisdom of Crowds'un üzerinden on yıldan daha kısa bir süre geçtikten sonra , Twitter'da veya diğer sosyal ağlarda insanların ­kolektif bilgelik -ya da en azından bilgelik- sergiledikleri fikri gülünç görünüyordu. 7

Yapay zeka hakkındaki mitolojinin de alay konusu olmadığını ve her zamankinden daha fazla yükselişte olduğunu anlatıyor.

AI MİTOLOJİSİ İŞGAL EDİYOR

SİNİR BİLİMİ

“Hive mind” artık bu kadar ciddiye alınmasa da sözlükte kalıyor. Ama onun dalı en ­olası olmayan yerlerde, bilimin kendisinde ortaya çıktı. Akıl için kurdeşen, ardından bilimsel keşif için "sürüler".

İnsan Beyni Projesi olarak bilinen büyük bir ortak çabanın parçası olan Uluslararası Nöro bilişim Koordinasyon Tesisi'nin eski yöneticisi Sean Hill'i ele alalım . ­2015 antolojisi The Future of the Brain için yazan Hill, büyük ölçekli işbirlikçi çabaları bilimin geleceği olarak görüyor ve bireysel bilim adamlarını en iyi şekilde sürülerin bir parçası olarak anlıyor: "İnsan Beyni Projesinin bir amacı, yeni bir beyni tetiklemek ve kolaylaştırmaktır. nörobilimde küresel işbirliği dalgası ................................................................................ Eğer

Topluluğun katılımını sağlamada başarılı olan amaç, beyni ve bozukluklarını birlikte anlamanın temel zorluklarına saldıran bilim adamlarına sahip olmaktır - her ­bireyin katkısı için takdir alacağı bir ortamda. 1

Bu, kulağa umut verici gelen "küresel işbirliğinden" bireysel bilim insanlarının katkıları için saçma sapan deflasyonist ­bir metaforu çağrıştıran ( bireysel keşfin kendisini etkili bir şekilde reddeden) "bilim insanı sürüleri"ne ve bir takibe kadar bir fikir karmaşasıdır. bromür hakkında “her birey . . . kredi alıyor.”

Avrupa'da sürmekte olan, rezil İnsan Beyni Projesi'nin önemli oyuncularından biri olan Hill için boş bir gündü . ­Ancak bir zamanlar bu projenin yöneticisi olan Henry Markram, Albert Einstein gibi dahilerin artık gereksiz ­olduğunu savunarak Hill'in bilim vizyonunun da bir savunucusudur ­: beyin çalışır. Aslında ihtiyacımız olan şey, egolarımızı bir kenara bırakıp yeni bir tür kolektif nörobilim yaratmak.” 2 Ama kolektif sinirbilimi öne sürmesinin, artık biliyoruz ki, süper zeki bir bilgisayar beyni yaratmak, diğer bilim adamlarını kesin ama yanlış bir yol izlemek için kaynak olarak kullanmak şeklindeki kendi mitolojik vizyonuydu.

İNSANLARIN UYGULAMASINA GEREK YOKTUR

Kovan zihinlerinden bahsetmek gibi sürü bilimi hakkındaki retorik, kaçınılmaz olarak, insan potansiyelinin makinelerin yükselişi lehine küçümsendiği bilgisayar merkezli bir dünya görüşüne yol açar. Bilim, ­insan fikirlerinden mega teknolojiye kadar çevrimiçi kültürü takip ediyor, bu da büyük teknoloji şirketlerinde gücün sağlamlaşmasına ve inovasyon hızında genel bir durgunluğa yol açtı .

Web 2.0 fütüristleri bunu çok iyi biliyor. "Kullanıcı tarafından oluşturulan içerik" platformları, öncelikle insan olasılığına ilişkin yeni vizyonları ateşledi. Ardından, teknoloji olgunlaştıkça, insanları büyük ­işbirlikçi çabalarla birbirine bağlama vizyonları ve son olarak , makinelerin geleceği hakkındaki anlatılarında insanları kenara iten kaçınılmazlık mitolojisindeki yapay zeka geldi.

Aynı eğilim şimdi temel araştırmalarda da görülüyor. Bir zamanlar ­insan zekasının bir zaferi olan bilim, şimdi büyük verinin gücü ve yeni hesaplama yöntemleri hakkında bir retorik bataklığına doğru gidiyor gibi görünüyor; burada bilim adamlarının rolü artık bir teknisyen olarak, temelde mevcut teorileri IBM Blue Gene süper bilgisayarlarında test etmek. .

Ancak bilgisayarların içgörüleri yoktur. İnsanlar yapar. Ve işbirlikçi çabalar, yalnızca bireylere değer verildiğinde etkilidir. Birinin bir fikri olmalı. Bletchley'deki Turing bunu biliyordu ya da öğrendi, ancak dersler o zamandan bu yana on yıllar içinde kaybedildi. Teknoloji, daha doğrusu yapay zeka teknolojisi artık "bizi" "o"nun içine çekiyor. Şaşırtacak bir şekilde, şimdi ­konuşma makinelerine yer açmak için Einstein'ı küçümsüyoruz .

Büyük ölçekli nörobilim projeleri bu noktada talihsiz bir durumdur.

İNSAN BEYNİ PROJESİ

İnsan Beyni Projesi resmi olarak Ekim 2013'te Avrupa Birliği'nden on yıllık, 1.3 milyar dolarlık bir ödülle başlatıldı ; Proje başlangıçta, Lozan'daki İsviçre Federal Teknoloji Enstitüsü'nde sinirbilimci olan Dr. Henry Markram liderliğindeki dünya çapında 150'den fazla kurumu kapsıyordu ­. Markram , bir sıçanın beynindeki neokortikal sütunun tamamını bir IBM Blue Gene süper bilgisayarında bir bilgisayar simülasyonunda silis içinde modellemeye yönelik iddialı bir girişim olan Mavi Beyin projesiyle tanınıyor.

İnsan Beyni Projesi'nin hedefleri, Blue Brain'in kapsamını , tüm insan beyninin eksiksiz bir bilgisayar simülasyonunu içerecek şekilde genişletiyor; ­Markram'ın 2009 TED konuşmasında duyurduğu bir hedef, on yılın sonunda karşılanacaktı - diğer birçok nöro ­bilim adamı olmasına rağmen aynı fikirde değildi. Yapay zeka hakkında ileri sürülen fütüristik iddialar gibi, Markram'ın tahminleri de yanlıştı -çok yanlıştı- ve neyse ki bilim ­adına tahminlerinin başarısızlığı tamamen göz ardı edilmedi. 2019'da The Atlantic'te yazan Ed Yong, diğer sinirbilimcilerin başından beri öngördüklerini kısa ve öz bir şekilde belirtti: “On yıl oldu. Başarılı olamadı.” 3

Kötü yönetim iddialarıyla karşı karşıya kalan Dr. Markram, başlatıldıktan iki yıl sonra projenin başındaki görevinden istifa etti. Birkaç yıl sonra, proje kendini utanmadan sadece bir yazılım projesi olarak yeniden markalaştırdı ve devam eden ve potansiyel olarak önemli araştırmaları yürüten insan bilimcilere araçlar ve yöntemler sağladı.

Temel bilimsel araştırma yapmak için sürü bilimi fikri bariz bir hatadır ve insan katılımını azaltmak ve çabaları yeniden ­süper bilgisayarlara ve mevcut teknolojiden çıkarım yapan büyük verilere yeniden odaklamak için bilinçli veya bilinçsiz olarak bilinen hareket, sadece, sadece ifşa edilmelidir. yapay zeka hakkındaki benzer yutturmaca ile yüzleşilmelidir.

Ayrıca endişe verici olan, Markram ve Hill'in nörobilimin geleceği hakkındaki fikirlerinin, bilimi fikirlerden ziyade hesaplama ile ilerletmeye çalışan dünya çapındaki bilim adamlarının eğiliminin halka açık örnekleri olmasıdır. Markram ve İnsan Beyni Projesi, merkez parçaları süper bilgisayarlar olan Büyük Bilim'den "ortaya çıkan" zeka hakkındaki mitolojinin belki de en korkunç örnekleridir; ancak diğer projeler, daha az kamuya açık, aynı hataları yapıyor.

Örneğin, İnsan Beyni Projesi ödülünün hemen ardından, Obama yönetimi ­, 2014 mali yılı için ilk 100 milyon doları beklenen harcamalarla birlikte yatıran, aynı derecede iddialı bir Büyük Bilim çabası olan Gelişmiş Yenilikçi Nöroteknolojiler (BRAIN) yoluyla Beyin Araştırması girişimini duyurdu. on yılda tam 300 milyon dolar. BRAIN inisiyatifi, nöron devrelerini ve birden fazla bireysel nöron içeren beynin diğer işlevsel alanlarını modelleyebilen teknolojiler geliştirmeye odaklanmaktadır . Seattle'daki Allen Beyin Bilimi Enstitüsü'nden Allen Beyin Atlası gibi daha küçük ama önemli beyin simülasyon projeleri de yolda.

Bu tür projeler beynin tam olarak anlaşılmasını vaat ediyor. Örneğin Markram, yıllardır süper bilgisayar simülasyonunu robotikte somutlaştırmayı ve böylece dünyanın ilk biyolojik olmayan zekasını yaratmayı planladığını kamuoyuna açıkladı. Büyük Beyin projeleri, uzun bir yol kat ederken, Alzheimer ve diğer beyinle ilgili hastalıkların nedenlerine ilişkin kavrayış gibi daha pratik faydalar vaat ederek devlet kurumlarını memnun ediyor. Başkan George HW Bush bir keresinde 1990-2000 ­yılını "beynin on yılı" ilan etmişti . Görünen o ki, içinde bulunduğumuz ­on yıl tam da bu hale geldi. Soru, herhangi bir önemli, temel ilerlemenin gerçekleşip gerçekleşmediğidir.

İnsan Beyni Projesi ve BRAIN girişimleri, yüksek profilli hedefler, yukarıdan aşağıya yönetim, iyi finanse edilen ve teori yerine mühendislik odaklı olan açıkça Büyük Bilim projeleri olsa da, aynı zamanda yapay zeka projeleri olarak faturalandırılırlar. Özellikle, günümüzdeki büyük nörobilim çabaları neredeyse evrensel olarak büyük veri projeleri olarak desteklenmektedir. ­Bu projeler için veri gereksinimleri kesinlikle bu terimi hak ediyor. Kavli Vakfı, BRAIN Initiative'in bir "veri tufanı"ndan sağ çıkması gerektiğine dikkat çekiyor: "Tek bir farenin beynindeki nöronların yalnızca bir kısmını ölçmek, neredeyse 17 mil uzunluğundaki Büyük Hadron Çarpıştırıcısı veya en gelişmişi kadar veri üretebilir. astronomik gözlemevleri.” 4 Kavli, her iki Büyük Beyin projesinin literatüründe belirgin bir şekilde yer alan bir temanın altını çiziyor: beyin hakkında daha fazla veriyi manipüle etme yeteneğinin önemli olduğu düşünüldüğünden, veri güdümlü yapay zekanın sinirbilimle evliliği hem bir bilgi teknolojisi mücadelesi hem de büyük bir fırsat. başarılı araştırmaya çevirir.

Gerçekten de, büyük veri şu anda devam etmekte olan Büyük Beyin projeleri hakkındaki tartışmaların merkezinde yer alıyor. Örneğin Markram'ın kendisi, İnsan Beyni Projesi'nin veri entegrasyonu ile ilgili olduğu konusunda ısrar ediyor. (Nörobilim değil ­mi?) Ve Amye Kenall, BioMed Central'da İnsan Beyni Projesi'nin aranan "yeni süper bilgisayarı" tartışırken, "sinirbilimlerin veri-yoğun bir bilim olarak genomik bilimini kolayca aşacağını" yazıyor. Kenall'ın belirttiği gibi, mevcut süper bilgisayarlar "peta ­ölçeğinde" çalışıyor, ancak İnsan Beyni Projesi'nin "exascale" bilgi işlem kaynakları gerektirmesi bekleniyor, bu nedenle proje, nörobilim araştırması ile birlikte, ilk exa ölçeğinde süper bilgisayarın geliştirilmesini de finanse ediyor. . 5

Bilgi işlem ve bilgi teknolojisi ile nörobilim araştırması arasındaki çizginin bu şekilde bulanıklaşması, her iki proje için de tipiktir. Big Brain girişimlerinin belirtilen hedefleri göz önüne alındığında, yapay zeka kavramlarına ve tekniklerine odaklanmak ­elbette gereklidir. Her iki proje de doğası gereği hesaplama açısından karmaşık olan beyin haritalama sorunu olarak bilinen sorunla karşı karşıyadır. rebecca

Genetik Okuryazarlık Projesi için yazan Golden, haritalama ­sorununu şu şekilde açıkladı:

İnsan beyninin yaklaşık olarak 86 milyar nörona (8,6 x 1010) sahip olduğu tahmin edilmektedir, her nöron muhtemelen on binlerce ­sinaptik bağlantıya sahiptir; bu küçük konuşma siteleri, nöronların bilgi alışverişinde bulunduğu yerlerdir. Toplamda, yüz trilyondan fazla nöronal sinaps olması muhtemeldir; bu nedenle, sinapslar hakkında, örneğin bir zaman penceresinde çalışıp çalışmadığı gibi basit bir ikili bilgi parçasını kaydeden bir bilgisayar, 100 terabayt gerektirir. Bir kişi için bir gün boyunca bu çok basit bilgiyi bile saniyede bir ­depolamak için gereken depolama miktarı 100.000 terabayt veya 100 petabayttan fazla olacaktır. Süper bilgisayarlar bugünlerde yaklaşık 10 petabayt tutuyor. Ve bu hızlı hesaplama, bu sinapsların bağlantı ve konumlarında ­zaman içinde meydana gelen değişiklikleri hesaba katmaz. İyi bir gece uykusundan veya matematik dersinden hemen sonra bu bağlantıların nasıl değiştiğini saymak, muazzam bir rakama (ve evrendeki tahmini 1080 atomdan çok daha fazla bayt ) eşittir. Kablolama sorunu, boyutuyla intrac ­tablosu gibi görünüyor. 6

Markram ve diğer araştırmacılar, elbette, nörobilimdeki haritalama sorununun görünüşteki inatçılığının farkındalar ve burada, onun ve diğerlerinin, ana hareket ettirici olarak Büyük Veri Yapay Zekasına devam eden bağlılığı yatıyor. Kendi ifadesiyle "veri entegrasyonundan" yeni içgörüler ortaya çıkacaksa, o zaman nöronları devreler ve daha büyük fonksiyonel birimler (mesa devreleri) halinde birbirine bağlayan ilkeler, haritalama problemini sınırlayacak ve araştırmacıların şu anda karşı karşıya olduğu hesaplama karmaşıklığını basitleştirecektir.

Başka bir deyişle, büyük veri ve yapay zeka, nörobilimin kendisinde eksik olan teori parçalarını sağlayacaktır. Bu görüşe ­göre, Big Brain projelerini eleştirenlerin dikkatini dağıttığı düşünülen bilgi teknolojisi, aslında bu tür projelerin neden (nihayetinde) başarılı olacağı tartışmasının bir parçasıdır: Teknoloji, yapay zekanın kendisi, insanların eksik parçaları dolduracağı, şimdiye kadar başarısız oldu.

YİNE BÜYÜK VERİ

insan düşüncesinin doğasına ilişkin önemli soruları ele alarak bilimin büyük resmine dair bir vizyon geliştirmeye yönelik cesur girişimlerdi . ­Gerçekten de, projenin başarısızlığından yılmayan Markram, Data Brain projelerini yapay zekaya giden bir yol olarak hiç çekinmeden ilan eder. Yapay zeka ve nörobilimin insan zekasının ve belki de bilincimizin gizemini çözeceğine inanıyor. ­Yıllar boyunca halka açık bir dizi röportajda Markram, nöronal aktiviteyi (iyon değişimleri düzeyinde) destekleyen "istatistiksel ilkeleri" keşfetmek için dünyanın her yerindeki projelerden sağlanan beyin hakkındaki verileri kullanarak nöronları modellemeyi planladığını belirtti. ) ve tam bir harita ortaya çıkana kadar insan beynindeki daha büyük fonksiyonel nöron birimlerini birbirine bağlamak.

Bu haritanın daha sonra insan benzeri davranışlar sergileyebileceğini düşünüyor. Ray Kurzweil gibi fütüristler ve diğer AI mit yaratıcıları da bu inançta ısrar ediyor. Başka bir deyişle, akıllı düşüncenin ilkelerini, mühendisliğe indirgenebilecekleri ­, robotik ve yapay zeka sistemlerine programlanabilecekleri ­noktaya kadar anlayacağız. Sinirbilimdeki büyük ilerlemelerin hemen ardından yeni bir yapay zeka çağı başlayacak. Ve yine, yapay zeka nedeniyle önceki nesillerin başarısız olduğu yerlerde başarılı olacağız: daha önce farklı araştırmalarla dolup taştığımız ilke ve teorileri keşfetmemizi sağlayan ­veri hacimleri ve veri entegrasyonu ve analiz platformlarına erişimimiz .

Başka bir deyişle, yapay zeka, Büyük Beyin girişimlerinin daha önce gelenlerden yeni ve farklı görünmesini sağlayan şeydir - sinirbilim teorisindeki atılımlar değil, hesaplama kapasitesi ve veriler. Ancak İnsan Beyni Projesi'nin başarısızlığının açıkça gösterdiği gibi, bu tam bir aptallıktır ­. Kaçırmaya kıyasla tümevarım gibi, teknoloji teorinin aşağısındadır ve özellikle bilgi teknolojisi yeniliğin yerini doldururken, araştırmacılar ­mevcut fikirleri kullanarak büyük teknolojik çerçeveler uygulayarak kırılma potansiyelini öne sürerler.

Yeterli nörobilim bilgisinin , zihnimizin doğası hakkında henüz daha iyi teorilere sahip olmamamızın temel nedenlerinden biri olduğu muhtemelen doğrudur - veya en azından varsaymak mantıklıdır . ­Özellikle, insan bilişinin ilkelerinin daha iyi anlaşılması, ­zekanın gizemini çözmeye adanmış yapay zeka biçiminde olabilir - Mark Ram'ın belirtilen bir hedefi. Yine de büyük ölçekli beyin simülasyonları (Veri Beyni ­yaklaşımları), bu tür bir bilgi arayışımızda her şeyi tam olarak geriye götürüyor gibi görünüyor. Beynin nasıl davrandığına -nasıl düşündüğümüze, hissettiğimize ve algıladığımıza- ilişkin bir teoriden, nöronlar ve bilgisayar simülasyonlarında ifade edilen devreler gibi işlevsel birimler hakkında mevcut bilgiden yoksun olan pins, bilişin eksik bileşenlerinin bir şekilde toplanan verilerden bir şekilde ortaya çıkacağını umuyor. bu alt seviyeler.

Bu, elbette, yapay zekanın kendisiyle ilgili mitolojideki temel bir kibirdir: daha küçük ölçeklerde bilinmeyen ve hatta bilinemeyen içgörüler, teoriler ve hipotezler, makine öğrenimi ve diğer tümevarımsal yaklaşımları kullanarak yeterli veri toplayıp analiz ettiğimizde bir şekilde ortaya çıkacaktır.

İnsan Beyni Projesi'nin Veri Beyni çabaları ve Amerika Birleşik Devletleri'ndeki BRAIN girişimi, sinirbilimin genel olarak İnsan Genomu Projesi örneğini izleyeceğini umarak, bilimin mühendisliğe (ve bilim adamlarının da insan sürülerine) indirgenebileceğini kanıtlayarak bu şüpheli fikri destekliyor. yardımcılar).

Ancak, İnsan Genomu Projesi'nin büyük teorik zorlukları göz ardı eden iyi tanımlanmış hedeflere sahip olduğuna dikkat edilmelidir - bu, en başından beri bir mühendislik projesiydi. Neyse ki, tüm Data Brain projeleri için durum böyle değil . Columbia Üniversitesi'nden Eric Kandel'den, daha önce Cal-Tech'te ve şimdi Allen Institute for Brain Science'da çalışan Christof Koch'a ve hatta Markram'a kadar nörobilim araştırmacılarının tümü, beyin resmimizde önemli teori parçalarının eksik olduğunu kabul edeceklerdir. özellikle daha yüksek işlevsellik seviyelerinde ­. En güçlü şekilde Markram'dan ve hâlâ iddialı olan İnsan Beyni Projesi'nden gelen yanıt, büyük verilerin eksik teoriyi dolduracağı ve bilim adamlarının zamanlarını geleneksel tarzda - küçük, iyi tanımlanmış araştırma hedeflerinde - araştırma yaparak boşa harcadıklarıdır . belirli sorun alanları. Görünüşe göre yapay zeka çağında, teorinin keşif ve deneyden gelmesini bekleyemeyiz. Bilgisayarlara esnek zekanın nasıl aşılanacağına dair devam eden teorik bir gizem karşısında bile şaşırtıcı bir şekilde, hesaplamanın insan zekası üzerindeki üstünlüğüne inancımızı yerleştirmeliyiz.­

Bu düşünce bir hatadır ve ortalık yatıştığında muhtemelen bunda maliyetli olacaktır.

araştırması söz konusu olduğunda aslında doğası gereği muhafazakardır . ­Örneğin, İnsan Beyni Projesi'ndeki araştırmacılar, "veri entegrasyonu" planlarının temeli olarak mevcut nörobilim araştırmalarını kullanmaktan memnun görünüyorlar, yanlış bir şekilde simülasyonun karmaşıklığı arttıkça verilerin kendisinin yanıtlar sağlayacağına inanıyorlar - orijinal bir büyük veri kibri . Bu nedenle, proje ve diğer benzer düşüncelere sahip yapay zeka güdümlü projeler , mevcut deneysel bilginin daha büyük ve daha büyük simülasyonlarına vurgu yaparak bilimsel keşif sürecini etkili bir şekilde baltalıyor .­

Avrupa'nın İnsan Beyni Projesi ve şimdi Amerika Birleşik Devletleri'ndeki BRAIN Girişimi gibi yüksek profilli Veri Beyni projeleri, finansman kuruluşlarını ve büyük ölçüde habersiz halkı, bu tür mevcut bilgilerin süper bilgisayar platformlarında simüle edilerek büyük hacimlerde veriler elde edildiğine ikna edebildi. veriler, muhafazakar bir mühendislik projesinden ziyade bilimsel bir ilerleme teşkil ediyor, genel olarak yapay zekanın bilimdeki rolü hakkındaki genel kafa karışıklığına değiniyor.

Örneğin, başlangıçta Markram tarafından savunulan ve İnsan Beyni Projesi tarafından benimsenen bir teknik, şimdi, çeşitli kılıklarda, genel olarak ­büyük sinirbilimsel çabalarda geniş çapta yayılmıştır . "Tahmini nörobilim" olarak adlandırılan bu, araştırmacıların nöronlar arasındaki bağlantıları simüle etmeye yönelik bir yaklaşımıdır. Bilinmeyen sinaptik bağlantılar, endüktif makine öğrenimi teknikleri kullanılarak bilinen bağlantılardan belirlenir. Hem ­geleneksel sinir ağları hem de daha güçlü derin öğrenme ağları kullanılır. Markram başlangıçta, makine öğreniminin ­fare beyninin kortikal kolonlarında önceden bilinmeyen bağlantıları doğru bir şekilde tahmin edebildiğini gösterdi. Standart bir F ölçüsü istatistiği kullanan bir analiz , yaklaşım için yaklaşık yüzde 80'lik bir doğruluk sağladı.

Biyolojik veri kümelerine makine öğrenimi uygulamasında bir ilerlemeyi temsil ederken, yaklaşımın ortalama hata oranı onda ikidir. Bunun, insan beynini tersine mühendislik için herhangi bir strateji için uğursuz etkileri vardır . Ancak bu endişe bir yana, ­bilim kurumu için daha derin sorunlara yol açan, bu tür yaklaşımların ardındaki sığ mantıktır .­

HIGGS BOZONU

2012'de bilim adamları, standart fizik modeli Higgs bozonunun uzun süredir kayıp olan bir parçasını keşfettiler. Higgs bozonunun keşfi genellikle etkileyici bir teknoloji parçasına, Fransa-İsviçre sınırındaki devasa Büyük Hadron Çarpıştırıcısına (LHC) atfedilir. LHC, dünyanın en büyük süper çarpıştırıcısını oluşturan on yedi millik bir borudur.

tahmin eden bilim adamı Peter Higgs'ten sonra "Higgs bozonu" olarak adlandırılan, evrendeki kütleyi açıklayan bir parçacığın varlığını özel olarak test eden bir deney tasarlamak için kullandılar . LHC kullanılarak ­yapılan yüksek enerji deneyinin sonucu, Higgs'in parçacığın varlığı hakkındaki teorisini doğrular gibi görünüyordu (resmi olarak 2013'te onaylandı).

teoriyi küçümseme ve büyük veri ve yapay zeka hakkında hüsnükuruntuları destekleyen hesaplama yöntemlerini savunma yönündeki sapkın eğilimi de gösteriyor.­

Süper çarpıştırıcı tarafından üretilen veri dağını anlamlandırmak için süper bilgi işlem kaynaklarının gerekli olduğu doğrudur. 2012'de çarpıştırıcı yılda yaklaşık yirmi beş petabayt üretti; 2018'de sayı ikiye katlanarak yaklaşık on beş milyon yüksek çözünürlüklü filme eşdeğer oldu. Hiç şüphe yok ki, büyük veri analitiği ve bu tür veri hacimlerini işlemek için gerekli bilgi işlem kaynakları, fizikçilere atom altı dünyayı keşfetmeleri için bir dizi güçlü araç sağlıyor. Ancak, genellikle Büyük Bilim başarısının bir örneği olarak lanse edilen (ve öyleydi) Higgs bozonunun öyküsü, aynı zamanda ­görünürde bir kuramsal zaferdir. Higgs'in durumu, kendi başına büyük veri için değil, bir teori durumu olarak özellikle etkileyicidir. Peter Higgs parçacığı 1964'te keşfetti; LHC daha sonra varlığını doğruladı. Bu, insan kavrayışının yerini almak için teknolojinin doğru kullanımıyla ilgili bir vaka çalışmasıdır. Higgs parçacığının doğrulanmasından çıkarılacak ders, bilgisayar geleceğimizde mitoloji için bir çağrı değildir. Aksine, AI'nın - burada büyük veri - yalnızca önceden teorimiz olduğunda çalıştığını hatırlatır. Bilim için büyük bir kafa karışıklığı ve potansiyel sorun tam da bu noktada yatmaktadır.

Ne yazık ki sinirbilim, parçacık fiziğinin aksine, birleştirici bir ­teorik çerçeveye sahip değildir. O halde sinirbilimciler için zorluk, Kavli Vakfı'nın ifadesiyle "veri selini" anlamlandıran ve ona rehberlik eden teorik içgörülerin yokluğunda mevcut veriye dayalı modeli savunmaktır.

GEREKLİ: TEORİSTLER

sinirbilimciler Eric R. Kandel (Columbia Üniversitesi Kavli Beyin Bilimi Enstitüsü Direktörü), Henry Markram (İnsan Beyni Projesi Direktörü), Paul M. Mathews (Başkan) Nature ile birkaç yıl önce yaptığı aydınlatıcı bir ­röportajda , Imperial College London, Birleşik Krallık'ta Beyin Bilimleri Bölümü), Rafael Yuste (Columbia Üniversitesi'nde Biyoloji ve Nörobilimler Profesörü) ve Christof Koch (Seattle'daki Allen Institute for Brain Science'da Baş Bilim Sorumlusu) büyük verinin, teorinin rolünü tartıştı. ve Avrupa'nın İnsan Beyni Projesi ve Amerika Birleşik Devletleri'ndeki BRAIN Girişimi'nde işbirliği. 7 Bu tartışmada sinirbilimin büyük zorluklarla karşı karşıya olduğu ve yanıtların hâlâ yetersiz olduğu açıktır. Örneğin Mathews, "BRAIN Girişimi ve İnsan Beyni Projesi'nin her ikisinin de temel bir zorlukla karşı karşıya olduğunu kabul ediyor: sorgulamaya rehberlik edecek güçlü bir paradigmaya sahip değiliz. Hem BRAIN Initiative hem de ­Human Brain Project'in anlamlı ilişkilerin ortaya çıkması beklenen 'büyük veri' toplama çalışmaları olması dikkat çekicidir.” 8

Yine de Markram, çabalar ilerledikçe Büyük Veri Yapay Zekasının eksik teori parçalarını dolduracağından emin. "Ne kadar çok veriye sahip olursak, modellerin biyolojik olarak o kadar doğru olacağını" iddia ederek bu konuda açık sözlüdür. Nature röportajında, İnsan Beyni Projesi ve genel olarak nörobilim hakkındaki vizyonunu açıkça ortaya koyuyor : "Bilimsel olarak, beyin organizasyonunun çeşitli düzeylerini kapsayan temel ilkeleri tanımladığımız ve bunlardan yararlandığımız yeni bir hızlandırılmış nörobilim biçimine giden yolu açmak istiyoruz. bilgimizdeki büyük boşlukları dolduracak ilkeler. Örneğin, nöronların bağlanma şekliyle ilgili ilkeleri, konektomu [ ­beynin bağlantı şemasını] tahmin etmek için kullanabiliriz. Beynin varsayımsal rekonstrüksiyonları, beynin deneysel haritalamasına rehberlik edebilir ve onu hızlandırabilir, onu bir rüyadan pratik bir gerçekliğe dönüştürebilir.” 9

Markram'ın ciltler dolusu basın röportajlarını okumaktan, veri entegrasyonunun (dünyanın dört bir yanından süper bilgisayar tabanlı teknik platformunda toplanan ilgili araştırma sonuçlarının) beyin organizasyonunun daha yüksek seviyelerinde bir "teori ortaya çıkışını" kolaylaştıracağına inandığı açıktır. Bu nedenle, iyon kanalları hakkındaki bilgileri (yani, bireysel nöron davranışı hakkında düşük seviyeli moleküler bilgileri ) ­kullanan ilk nöron modelleri , nöronal devreler gibi fonksiyonel birimlerin nasıl çalıştığına dair teorilerin yönlendirilmesine yardımcı olacak ve bu da, araştırmacılara olanak sağlayan prensipler veya teoriler önerecektir. mikro devreleri neokorteks gibi tüm beyin bölgelerine bağlayan mesa devrelerine bağlayın.

Markram'ın kendisi bunun nasıl çalışacağı konusunda çok net ve aynı derecede küçük araştırma ekipleri tarafından yapılan yaratıcı araştırmaların , ­Büyük Veri yaklaşımından bağımsız olarak bu tür teoriler bulabileceği yönündeki önerileri de reddediyor. Bilim adamlarını ve onların araştırmalarını merkezi bir teknoloji çerçevesine girdi olarak kullanmakla ilgileniyor, bu motivasyonun ­"Einstein" olmadan "yeni bir tür kollektif nörobilim" getireceğine inanarak bunu açıkça kabul ediyor. 10

Yine de "işbirliği" gibi kulağa olumlu gelen belirsiz fikirlerle tartışmak zor olsa da, bu tür övgülerin altında yatan şey, sinirbilimin geleceğini yönlendiren büyük veri ve yapay zekanın rolü hakkındaki çok büyük iddialardır ­. Görünüşe göre Markram, salt verinin (ve derin öğrenmenin) teori oluşumunu yönlendireceğine inanıyor, ancak tüm bilim tarihi ve büyük veri modasının kısa ama patlayıcı tarihi, böyle bir yaklaşımın aptallığını gösteriyor.

Büyük Verisi gibi) tanıtılan büyük verideki başarıların, temel olarak, davranış davranışı altında sağlam teorilerin var olduğunun bilinmediği iş gibi sosyal alanlardan kaynaklandığını ­zaten gördük . Teorinin yokluğunda, Büyük Veri Yapay Zekası, veri yoğun yöntemler olmadan gerçek bir tahmine dayalı ilerlemenin kaydedilemeyeceği birçok ilgi alanı için bir nimet olmuştur. Bu tür örnekler, iş dünyası liderlerini cesaretlendirebilir ve hatta popüler kültürün ilginç alanlarına ışık tutabilir, ancak ciddi bilim için genellikle yetersiz ve hatta felakettir.

Higgs bozonu keşfi gibi sözde teknoloji zaferlerinde teorinin nasıl işlediğini gördük. Bu gibi durumlarda sağlam bir teorik çerçeve çalışması ­, teorinin öngörülen sonuçlarını doğrulamaya yardımcı olabilecek bir dizi kontrollü ve odaklanmış deneyi mümkün kılar . Bilim bu anlamda her zaman deneylerle ittifak kurmuştur, dolayısıyla Higgs davası pek de tartışmalı değildir ­. Ancak, Markram'ın sinirbilimde ihtiyaç duyacağı çizgiler boyunca Büyük Veri AI'nın güçlerine dair radikal iddiaları desteklemek için de pek bir şey yapmıyor.

Yine, nörobilimde sağlam bir teorik çerçevenin olmaması, veri ve makine öğrenimi merkezli bir yaklaşımı daha da yanlış yönlendiriyor. Araştırmacıların veriye dayalı çabalara rehberlik etmesi gereken teori sayısı ne kadar azsa, o kadar az sayıda iyi tanımlanmış hipotez test edilebilir ve bu tür çabalar, veriye dayalı yaklaşımlardaki bilinen zayıflıkların kurbanı olur.

Bir IEEE Üyesi ve Berkeley'deki California Üniversitesi'nde Bilgisayar Bilimleri alanında Seçkin Profesör Pehong Chen olan Michael Jordan, büyük veri ile bilimsel düşünce arasında doğrusal bir bağlantı ­görenlere karşı çıktı (ne kadar çok veriye sahip olursak o kadar iyi olur). bilimsel düşüncemiz olur). Makine öğrenimi ve büyük veri konusunda dünyanın en saygın otoritelerinden biri olarak Jordan beklenmedik bir eleştirmen, ancak "toplumun ­büyük veri projelerinden çıkan bir yanlış pozitif salgını yaşamak üzere" olduğunu tahmin ediyor. Kendi ifadesiyle: "Büyük miktarda veriye sahip olduğunuzda, hipotezlere olan iştahınız daha da artma eğilimindedir. Ve eğer verilerin istatistiksel gücünden daha hızlı büyüyorsa , o zaman çıkarımlarımızın çoğu muhtemelen yanlış olacaktır. Beyaz gürültü olma olasılığı yüksektir.” 11

Herhangi bir sonucu mükemmel bir şekilde tahmin edecek bazı sütun kombinasyonları bulacağım, sadece şans eseri     , her türden sahte sütun ­kombinasyonlarını bulacağım" diyor .­

umns, çünkü çok sayıda var. Milyarlarca maymunun yazı yazması gibi . ­Onlardan biri Shakespeare yazacak.” 12

Jordan burada, fazla uydurma olarak bilinen istatistiklerdeki iyi bilinen soruna işaret ediyor (aşağıda tartışılmıştır). Markram ve İnsan Beyni Projesi gibi Veri Beyni projelerinin diğer savunucuları için iç karartıcı bir şekilde, aşırı uydurma, bir alan hakkında nedensel veya teorik bilginin yokluğunda - yani genel zekanın yokluğunda - özellikle sorunludur. "İlişki nedensellik değildir" tanıdık bir uyarıdır ­, ancak son yıllarda Büyük Veri AI projeleri adına yapılan cesur iddialar, onu yeniden özellikle alakalı hale getirdi. Bilgiyle ilgili bariz gerçekler , veri ve makine öğrenimi hakkında ileri sürülen büyük iddiaların ardından, görünüşe göre artık yeniden ifade edilmeye ihtiyaç duyuyor. Marcus ve Davis'in New York Times'da belirtmek zorunda kaldıkları gibi , "örneğin, büyük bir veri analizi, 2006'dan 2011'e kadar Amerika Birleşik Devletleri cinayet oranının Internet Explorer'ın pazar payıyla iyi bir şekilde ilişkili olduğunu ortaya çıkarabilir: Her ikisi de düştü. keskin bir şekilde. Ancak ikisi arasında herhangi bir nedensel ilişki olduğunu hayal etmek zor.” 13

Bu bariz bir noktadır ve derin öğrenme hakkındaki abartılı iddialar için geçerlidir. Moda sözcükler değişti, ancak Markram ve diğerleri gibi meraklıların cesur iddialarına rağmen, her derde deva olarak Büyük Veri Yapay Zekasını zorlayan ana heves, nörobilim gibi temel alanlarda ilerlemeyi tehdit ediyor. Buradaki çıkarım, efsanenin gerçekten de insan geleceğimiz için - gerçek bilimde - pratik sonuçları olduğudur.

AŞIRI UYUM GÖSTERME

İstatistikçi Nate Silver ayrıca teorileri (modelleri) verilere fazla uydurmanın doğasında var olan tehlikeye dikkat çekmiştir; burada "fazla uydurma", bir veri kümesini gerçek bir açıklayıcı güç içermeyen bir tanımla sahte bir şekilde eşleştirmek anlamına gelir, çünkü açıklama ­genelleme yapmaz. söz konusu dağıtımda yeni, görünmeyen veri noktaları. Genelleme , verilerin alakasız ayrıntılarından soyutlama ve gerçek ilişkileri bir ilke temsilinde veya teoride izole etme anlamına gelir.

Bir "teori" veya bir dizi veri noktası modelinin en basit durumu, bir saçılım grafiğinin doğrusal interpolasyonudur. Koordinat sistemindeki her veri noktası , mevcut noktaları tanımlayan ­daha karmaşık bir çizgiyle izlenebilir , ancak ­böyle bir tanımda nokta dağılımına dair gerçek bir bilgi bulunmadığından, çizilen yeni noktalar için açıklama işe yaramaz . Düz bir çizgi, dağınık verilerin ortalamasını veya doğrusal interpolasyonunu gösterir ve bu nedenle bize verilerin davranışını tahmin eden kullanışlı bir model verir. Silver'ın işaret ettiği gibi, fazla uydurma, mevcut verilere yanlış güven verir, ancak ­yeni veriler geldiğinde ve modele veya teoriye uymadığında bu yanılsamayı hızla yerle bir eder. 14

Fazla uydurma, istatistiksel çıkarım veya analizde bilinen bir sorundur ve büyük bilimsel çabalarda da sıklıkla büyük başarısızlıkların nedenidir. Burada yine, teorinin mevcudiyeti, araştırmacıların aşırı uyumlu modellerden ve sahte korelasyonlardan uzak durmalarına yardımcı olabilir. Silver'ın da belirttiği gibi, deprem olaylarını tahmin etmeye yönelik birçok yüksek profilli girişim (depremlerle ilgili tarihsel verilerin yanı sıra fay hatları boyunca Dünya yüzeyinin altında meydana gelen ­gerilmeler ve diğer olaylar hakkında ayrıntılı coğrafi bilgiler kullanılarak), depremle ilgili mevcut verilere mükemmel bir şekilde uymalarına rağmen sefil bir şekilde başarısız oldu. depremler.

Dağılım grafiğindeki mevcut noktaları açıklayan dolambaçlı çizgi gibi, modellerin de hiçbir kestirimci veya bilimsel değeri olmadığı ortaya çıktı. Silver'ın da işaret ettiği gibi, jeologların deprem tahminlerini içeren bu türden çok sayıda fiyasko vardır ­ve Rus matematiksel jeofizikçi Vladimir Keilis-Borok'un 2004 yılında Mojave Çölü'nde "ayrıntılı ­ve opak Belirli bölgelerdeki daha küçük depremlerden kalıpları tanımlayan ve daha büyük olanlara genelleyen istatistiksel model.

Şu anda Cal State Fullerton'da Jeoloji Bilimleri Bölümü Başkanı olan Keilis-Borok'un öğrencisi David Bowman, nadir görülen bir bilimsel alçakgönüllülükle Keilis-Borok modelinin fazlasıyla uygun olduğunu itiraf etti.

Bowman, fay hatları boyunca Dünya yüzeyinin altında neler olup bittiğine dair teorik bir anlayışın eksik olması nedeniyle deprem tahmininin sınırlı olduğunu açıklamaya devam etti. Silver, istatistiksel veya veriye dayalı yaklaşımlara rehberlik edecek gerçek bir teorinin olmadığı durumlarda modellerin "sinyal" yerine "gürültü" alma tehlikesiyle karşı karşıya olduğunu açıklıyor ­.

SİNİR BİLİMİ: ÖĞRENMEYİ REDDETMEK

BAŞKALARININ HATALARINDAN MI?

Büyük Veri çabaları, bilimin diğer alanlarında yapılan hataları tekrarlamaya mahkum göründüğünden, bu dersler günümüz sinirbilimiyle özellikle ilgili görünüyor. Anlamlı bir şekilde, Büyük Veri Yapay Zekasına odaklanmak, bu şekilde bakıldığında ne özellikle yeni ne de özellikle cesaret verici. Bilimdeki teorinin asla gerçekten ortadan kaldırılamayacağı söylenebilir. Buradaki kaçınılmazlık mitinin bir ironisi, teorinin yalnızca gerçek bilim için değil, aynı zamanda ­yapay zekadaki genel zeka hayallerini gerçekleştirmek için de gerekli olmasıdır. Modern kafa karışıklıkları ve mitoloji, köpeği sallayan bir kuyruğa sahiptir.

Yine de, aslında nöronların ani aktivitesi ve beynin bölgelerindeki nöronal devreler gibi daha küçük işlev birimlerinin rolü hakkında mevcut teoriler var. İnsan neokorteksinin işleyişine dayanan üst düzey biliş veya zeka teorileri bile vardır. Eksik olan, Markram ve diğerlerinin işaret ettiği gibi, ­bu farklı parçaları bir araya getiren birleştirici bir çerçeve veya teoridir.

makine öğrenimi ve yapay zeka tarafından temelden sıfırdan mümkün kılındığı fikrine adanmıştır. ­Bunu ciddiye almak en az iki nedenden dolayı zordur. Birincisi, insan zihnini silis içinde yeniden üreten Veri Beyni projelerinin vizyonunun çoğunu canlandıran üst düzey neokorteksten ilham alan zeka teorileri , umutsuzca genel ve kullanılamaz. Teorilerin kendileri (ironik bir şekilde) bilgisayar bilimi veya Yapay Zeka mühendisliği çabaları için çok az işe yarar ­, çünkü bize beynin akıllı davranış ürettiğinde gerçekte ne yaptığı hakkında yeterince bilgi vermezler. Bu nedenle, mevcut üst düzey teoriler , veriye dayalı çabaların bize başlamamız için soluk ve çok genel bir dizi teorik varsayım sağladığını zaten öne sürüyor.

Hayırsever bir şekilde Markram, beynin giderek daha büyük işlevsel birimlerini simüle ederek elde edilen temelden ilerlemenin bir şekilde neokortikal biliş modellerini iyileştireceğine veya tamamlayacağına inanıyor. Daha iyi bir sonuç, Büyük Veri Yapay Zekasına odaklanmanın ­, sinirbilimin gerçek ayrıntılarının ve nihai başarısının yarı mitolojik iddialara teslim edildiği bir dizi belirsiz ve el sallayan teoriler öne sürmek için bir bahane gibi göründüğüdür. büyük veri setlerinin ve endüktif hesaplamanın güçleri. İnsanların karmaşık bir alanı test edilebilir teori ile aydınlatmakta başarısız olduğu durumlarda, makine öğrenimi ve büyük veri sözde devreye girebilir ve sağlam teoriler bulma konusundaki geleneksel endişeleri ortadan kaldırabilir. Bu, bugün Data Brain çabalarının mantığı gibi görünüyor.

aşırı genel ve görece zayıf durumunu ilk elden görmek için , neokorte ­x'ten ilham alan insan zekası kuramlarının bir araştırmasına dönüyoruz . Nörobilimde teorinin devam eden yerini göstermekten çok uzak, nörobilimden gelen teorileri günümüzde popüler olan bilgi işlem paradigmasına uydurmak için artan bir ­isteklilik gösteriyorlar.

Bu, bu tür teorilerin zayıflıklarının, Markram gibi ileri görüşlü sinirbilimcileri büyük ölçüde, Büyük Veri yapay ­zekasının genel zekaya ve ötesine doğru yürüyüşünün ayrıntıları daha sonra dolduracağına dair yaygın inanç nedeniyle caydırılmadığını gösteriyor. Data Brain savunucuları, bugün nörobilimde meydana gelen bilime meydan okumak ­yerine , veri yapay zekasının sözde büyüsüne gizemleri ve zayıflıkları devretmeye giderek daha istekli hale geliyor.

Sırada bu neokortikal teorilere döneceğiz.

NEOKORTİK TEORİLER

İNSAN ZEKASI

bilimcisi, girişimci ve nörobilim savunucusu Jeff Hawkins tarafından popüler bir zeka teorisi ortaya atıldı . ­Palm Pilot'u geliştirmesiyle ve Silikon Vadisi'nde çok yönlü bir aydın olarak ünlü olan Hawkins, 2004 yılında ciltleri özetlemek için cesur ve orijinal bir girişim olan On Intel ­ligence'ın yayınlanmasıyla sinirbilim (ve yapay zeka) sularına ayak bastı. Hiyerarşik ­bir zeka modeliyle neokortekste düşünmeye ilişkin nörobilim verileri . 1 O zamandan beri, hesaplama olarak zekanın sırlarını çözmeye adanmış Numenta adlı bir şirket kurdu.

Hawkins'e göre neokorteks, duyularımızdan girdi alır ve hiyerarşik katmanlarda "kodunu çözer"; her bir üst katman ­, hiyerarşinin tepesine ulaşılana ve bazı genel tahmin teorileri ortaya çıkana kadar, alt katmanlar tarafından sağlanan verilerden tahminler yapar. tüm alt katmanların çıktılarından sentezlenir.

Onun teorisi, aldığımız farklı girdi türlerine dayalı olarak yanıtlarımızdaki farklılıklar gibi bazı ampirik verileri anlamlandırıyor. "Daha kolay" tahmine dayalı problemler için, neokorteks hiyerarşisinde yukarı doğru yayılma daha ­çabuk sona erer (çünkü cevap elde edilebilir hale gelir ) ve daha zor problemler için, korteks nöral girdiyi işlemeye ve daha yüksek, daha güçlü, daha küresel olarak daha duyarlı katmanlara geçirmeye devam eder. . Daha sonra çözüm, orijinal girdiye dayalı tutarlı bir tahmin elde edene kadar kullanılabilir hale getirilir veya alt katmanlara geri iletilir.

KURZWEIL'İN HİYERARŞİK DESENİ

TANIMA TEORİSİ

How to Create a Mind adlı kitabında "neo korteks, ­kalıplarla başa çıkma ve bunu hiyerarşik bir şekilde yapma becerimizle ilgilenmekten sorumludur " diyen Ray Kurzweil tarafından da dikkat çekilmiştir. Neokorteksi olmayan hayvanlar (temel olarak memeli olmayanlar) hiyerarşileri anlama konusunda büyük ölçüde yetersizdir.” 2 Kurzweil, zihnin örüntü tanıma teorisi adını verdiği kendi hiyerarşik teorisinin, insan neokorteksinin yapısı ve işlevi hakkında kabul edilmiş sinirbilim bulguları ve ayrıca Hawkins'in kendi hiyerarşik açıklaması gibi ataları üzerinde çalıştığına inanır.

Neokorteksin hiyerarşik yapısı gerçekten de sağlam temellere dayanan bir nörobilimdir. Neokorteksin sütunlu organizasyonu ilk olarak 1957'de Amerikalı sinirbilimci Vernon Mountcastle tarafından keşfedildi. Mountcastle, neokorteksin -beynin üzerine uzanan 2,5 milimetre kalınlığındaki sinir lifleri tabakası- nöron sütunlarından oluştuğunu ve bunların her birinin görünüşte aynı olduğunu kaydetti. diğerleri. İnsan neokorteksinde, her biri ­yaklaşık altmış bin nöron içeren yaklaşık yarım milyon bu tür sütun vardır.

Kurzweil, her bir kortikal sütunun, insan neokorteksinde toplamda yaklaşık 300 milyon örüntü tanıyıcı olmak üzere, yaklaşık yüz nörondan oluşan, örüntü tanıyıcılar adını verdiği şeyi içerdiğini varsaymıştır. Hawkins gibi Kurzweil de bu varsayımsal tanıyıcıları ­, insan düşüncesinin benzersiz yeteneklerinden merkezi olarak sorumlu olan hiyerarşiler halinde düzenlenmiş olarak görür .

Bu ilginç bir hipotez. Ancak hem Hawkins hem de Kurzweil, insan zekasının basit olduğuna inanmakla hata ediyorlar.

çekmiştim ve temel teoriye yönelik bu tür girişimlerin umutsuz genelliğini ­fark eden tek kişi ben değilim ; Yazarlar , insan beyni hakkında gerçek bir anlayış üretmekten çok . Gary Marcus'un işaret ettiği gibi, Hawkins gibi, Kurzweil de beyin hakkında belirsiz içgörülere dayanan el sallayan bir yapay zeka teorisi sunuyor gibi görünüyor. Marcus şöyle diyor: "Beynin yapılandırılmış olduğunu zaten biliyoruz, ancak asıl soru, tüm bu yapının teknik terimlerle ne yaptığıdır. Beyindeki nöral mekanizmalar, beynin bilişsel mekanizmalarıyla nasıl eşleşir?" 3

Marcus devamla bu tür teorilerin nörobilimde ve yapay zeka ile bilişsel bilimlerdeki ilgili çabalarda ilerleyemeyecek kadar genel olduğunu belirtiyor: “Herhangi bir yaratığın yaptığı hemen hemen her şey bir düzeyde hiyerarşik model tanıma olarak görülebilir; bu yüzden fikir 1950'lerin sonlarından beri ortalıkta dolaşıyor. Ancak zihnin kendi başına bir hiyerarşik örüntü tanıyıcı olduğunu iddia etmek bize çok az şey anlatır: İnsanların neden dil kullanan türden yaratıklar olduğunu söylemez ­(muhtemelen kemirgenlerde de hiyerarşik örüntü tanıma kapasitesi vardır, ama konuşma) ve bu, birçok insanın neden sürekli özdenetim sorunlarıyla boğuştuğunu ­ya da neden asla geri dönmeyeceğimiz kasabalardaki restoranlara bahşiş bırakan türden yaratıklar olduğumuzu açıklamıyor. 4

Bu tür jenerik teoriler, ironik bir şekilde, Büyük Veri Yapay Zekasından dolambaçlı ama çok gerçek bir şekilde ilham alıyor. Kurzweil, ­konuşma tanıma uygulamaları için makine öğreniminde hiyerarşik şık yöntemleri kullanmasıyla bilinir; artık Apple'a ait olan ve iPhone'un bir parçası olan orijinal Siri uygulaması üzerinde çalıştı. Hiyerarşik gizli Markov modelleri, büyük verilerle birleşen veri analizi tekniklerinin bir parçasıdır. Ve daha yakın zamanlarda, artık her zaman mevcut olan derin öğrenme ağları ­, katman hiyerarşilerinde düzenlenmiştir. Bu tür yöntemlerin tümü, verilerdeki kalıpları öğrenmek için girdi olarak büyük veri kümelerini kullanır ve daha sonra görünmeyen veriler üzerinde kodu çözülebilen ikili bir model oluşturur .

Gerçekten de, bugünün hiyerarşik öğrenme yöntemleri neredeyse on yıl önce büyük verinin kendisi kadar moda - derin öğrenmeye tanık olun. Diğer bir deyişle, İnsan Beyin Projesi ve BRAIN girişimi gibi tüm projeler gibi nörobilim ­teorileri , bilgisayar bilimlerinde ve özellikle Büyük Veri Yapay Zekasında başarıya ulaşan yöntemlerden ayırt edilemez hale geliyor.

MARKRAM'IN LEGOS TEORİSİ

insan neokorteksinin sütunlu ve hiyerarşik doğası hakkındaki genel araştırma bulgularına dayandıran, halk arasında "Legos biliş kuramı" olarak bilinen, aşırı derecede genel bir başka öğrenme kuramıyla tanınır . ­5 Markram ve ortak yazarı Rodrigo Perin, bu teoride, “anıları edinmenin Lego ile inşa etmeye çok benzer olduğunu açıklıyor. Her montaj, ­dünyayı nasıl işleyeceğiniz, algılayacağınız ve ona nasıl tepki vereceğiniz hakkında doğuştan gelen bazı temel bilgileri içeren bir Lego bloğuna eşdeğerdir. 6

Yine ilginç bir hipotez. Yine, fazlasıyla basit ve fazlasıyla mekanik.

Artık apaçık hale gelen şeyi açıkça ifade edebilecek durumdayız ­. Data Brain çabaları, beyin hakkındaki anlayışımızın eksik parçalarını tamamlamanın bir aracı olarak büyük veriyi savunmakla kalmadı - örneğin, Markram'ın ortaya çıkan connecttom (sinaptik bağlantı) ilkelerinde olduğu gibi - aynı zamanda önemli teorilerin ­kendileri de birbirine bağlı görünüyor . Data Brain projelerinin artık alabileceği tek anlamlı yön, açıkça hesaplamalı fikir ve teorilere doğru olacak şekilde bilgisayar bilimi paradigmalarına.

ÇIKMAZ ARAŞTIRMA

Büyük Veri Yapay Zekasının teorinin ortaya çıkışı için pek uygun olmadığını gördük ­. Aksine, mevcut teoriler olmadan, Büyük Veri Yapay Zekası, genel olarak veri tümevarımlı yöntemlerden kaynaklanan aşırı uyum, doygunluk ve körlüğün kurbanı olur. Buraya, veri merkezli hesaplamanın , günümüzün popüler teknoloji yaklaşımlarına şüpheli bir şekilde bağlı olan oldukça zayıf ve ilgi çekici olmayan teoriler ürettiğini ekleyebiliriz.

Bu sadece Büyük Veri Yapay Zekası değil, nörobilimcilerin ­fark etmeye başladığı gibi elbette Büyük Bilim de. Paul Mathews, daha önce bahsettiğimiz 2013 Nature röportajında belki de en iyi şekilde ifade etti: " Geçmişteki bu kadar büyük bilim çabalarından gelen önemli yeni kavramsal ilerlemeleri düşünemiyorum ." ­7 Markram ve kendini İnsan Beyni Projesi ve Veri Beyni projelerine adamış diğerleri, nörobilimi ilerletmek için genellikle umutlarını Büyük Veri yapay zekasına bağladılar, ancak gerçekten ihtiyaç duyulan şey - tam da Mathews'un önerdiği gibi - yaratıcı hipotezleri teşvik etmek için geniş kapsamlı ve farklı araştırma gündemleri ve keşfetmeye teşvik ­edin. Büyük Veri Yapay Zekası bu amaçlara pek uygun değildir.

İnsan Beyni Projesi'nin lansmanından sonraki bir yıl içinde, Markram ve vizyonu, sayıları giderek artan nörobilimcilerden yoğun eleştiriler aldı ­. Temmuz 2014'te, beş yüzden fazla bilim insanı, Avrupa Komisyonu'na projede büyük değişiklikler yapması için dilekçe verdi ve birçoğu, gerekli teori ve yaratıcı araştırma pahasına, projenin hesaplamaya ve büyük verilere olan inancıyla ilgili bir dizi endişeyi gündeme getirdi .­

İronik bir şekilde, AB'ye sunulan dilekçe, kısmen Markram'ın projenin bilişsel mimariler bölümünü kapatma kararına bir tepkiydi - Markram'ın ­belirttiği geniş vizyonu doğrultusunda özellikle biliş ve zeka sorularını keşfetmeye adanmış ekip . Sinirbilimciler ayrıca, İnsan Beyni Projesi'nin beyinle ilgili herhangi bir spesifik hipotezi veya hipotezler derlemesini test etmek için yola çıkmadığından endişe ediyorlardı. 8

Sinirbilimciler dilekçede ­beynin daha ayrıntılı simülasyonlarının kaçınılmaz olarak daha iyi anlamaya yol açmadığına dikkat çekti ­. Başka bir deyişle, yüzlercesi orijinal İnsan Beyni Projesi'ne karşı çıktı çünkü bu gerçekten sinirbilim araştırması değildi, daha çok bir Büyük Veri Yapay Zeka mühendislik projesiydi. Markram kısa süre sonra pes etti, ancak proje yazılım mühendisliği olarak yeniden düzenlendi - muhtemelen AI mitolojisinden daha az etkilendi, ancak ­tasarım yoluyla temel araştırma için daha az diş. 9

Columbia Üniversitesi sinirbilimcisi Eric Kandel'in belirttiği gibi, ­Amerika Birleşik Devletleri'nin BRAIN Inisiyatifi ilk başlatıldığında, "[İnsan Genomu Projesi için] son noktayı biliyorduk ......................................................................... Ama

Burada amaç ne bilmiyoruz. İnsan zihnini anlamak ne demektir ? ­Ne zaman tatmin olacağız? Bu çok, çok daha iddialı.” 10

Markram'ın, beynimizin bir süper bilgisayara haritalanacağını ilan eden, artık kötü şöhretli TED konuşmasının onuncu yıl dönümü - AI hakkındaki mitolojinin nihai ifadesi - 2019'da geldiğinde, Scientific American (bilim hakkında gelecekteki fikirlerin düşmanı değil) ve The Atlantic , neyin yanlış gittiğine dair arama hesapları yayınladı. 11 Bir bilim adamının dediği gibi, "Beynimiz kafataslarımızda var. Şimdi bilgisayarlarımızda var. Ne öğrendik?” 12

Soruların hepsi teorinin kıtlığıyla ilgiliydi. Şaşılacak bir şey yok. Markram gibi Veri Beyni meraklıları , büyük verinin ve onu analiz eden makine öğrenimi sistemlerinin, bir şekilde kendimiz, bu sistemleri harekete geçiren insan içgörüsü ve zekası hakkındaki sorularımıza yanıt vereceğini düşünüyor.

Bu inanç, yeni bir bilim değil, gelecekteki keşifler için zengin bir ortam olmadan, sadece kötü bir bilimdir.

BİLİMİN SONU?

Giderek artan sayıda bilim insanı, devam eden teorik endişelere yönelik Data Brain çözümlerinden memnun olmasa da, Büyük Veri Yapay Zekasının ahlakı artık genel olarak bilim ve kültürde sağlam bir şekilde yerleşmiş durumda. İronik ­bir şekilde, genel zekanın yapay zekadan ve onun bilimsel araştırmalardaki uygulamalarından ortaya çıkması gerektiği için , bilim adamlarının rollerinde gözle görülür şekilde önemsiz gösteriliyor. Milyarder teknoloji girişimcisi ve yatırımcı Peter Thiel geçtiğimiz günlerde yeniliklerin hızlanmak yerine kuruduğunu belirtti. 1 Tech startup'ları bir zamanlar Vadi'deki yatırımcıları cezbetmek için bir sonraki büyük fikrin hayalini kuruyordu, ancak şimdi neredeyse evrensel olarak, Büyük Veri Yapay Zekası her zaman olduğundan beri inovasyona kilitlenmiş olan Google ve Facebook gibi büyük teknoloji şirketlerinin satın almalarını hedefleyen çıkış stratejilerine sahipler. en fazla veriye sahip olan kişi için daha iyi çalışır. Düzeltme içeride.

Soru, Thiel'in dediği gibi, artık "kültürde bir düzensizlik ­" olup olmadığı, yoksa iyi fikirlerin şimdiden kapılıp kapılmadığıdır. 2

MEGABUCK BİLİMİ

Polimatik MIT bilgisayar bilimcisi ve sibernetiğin kurucusu Norbert Wiener , 1964'teki ölümünden sonra makaleleri arasında bulunan yayınlanmamış bir el yazması olan "Buluş: Fikirlerin Bakımı ve Beslenmesi"nde "megabuck" bilimi dediği şey hakkında uyarıda bulundu . 1950'lerde Turing, insan düzeyinde yapay zeka olarak buluşun geleceğine yönelik temel (ve nihai) dönüşünü tamamlamıştı; Aynı dönemde Wiener, AI ve diğer alanlar için gerekli fikirlerden yoksun bir gelecek hakkında ciddi tefekkür etmeye başlamıştı. Megabuck bilimi ­, iki dünya savaşının ardından, Manhattan Projesi'nin atom bombasını üretmesiyle ve bilgisayar, iletişim teorisi ve altyapı alanında iyi finanse edilen büyük çabalarla hızla ortaya çıktı ­. Örneğin, Bell Labs ve IBM'in yanı sıra Raytheon gibi büyük savunma müteahhitlerinde çabalar vardı. Modern bilim, benzeri görülmemiş önemli ve büyük ölçüde ­öngörülemez icatlar geçmişine sahipti - ancak yüzyılın ortasına gelindiğinde, bilimsel yenilik bürokratik hale geldi ve ABD Savunma Bakanlığı gibi büyük fon kaynakları ve büyük şirket çıkarları tarafından kontrol edildi. Wiener , tam da zafer kazandığı (ve ihtiyaç duyduğu) anda, Batı kültürünün gelişen bir fikir kültürünü eninde sonunda tehdit eden aşağı yönlü projelere yöneldiğinden endişeleniyordu.

1950'lerin başındaki el yazması (1993'te yayınlandığından beri) şimdi ağıtında kehanet gibi görünüyor. " Bireysel araştırmadan kontrollü endüstriyel araştırmaya giden mevcut eğilimin liderlerinin, çoğu zaman insana güvensizlik anlamına gelen bireye güvensizliğin hakim olduğunu veya en azından ciddi şekilde etkilendiğini düşünüyorum." ­4

Wiener, megabuck biliminin yalnızca bir icat kültürü için yetersiz olduğunu değil, aynı zamanda doğrudan ve gerçekten de mutlu bir şekilde "insanlık dışı" bir eğilim olarak adlandırdığı şeye doğru ilerlediğini teşhis etti. Bu duygu, zamanımızda Jaron Lanier gibi kişiliğin teknolojiden ilham alan erozyonundan endişe duyan yapay zeka eleştirmenleri tarafından yankılanıyor. Kovan zihinler ve sürü bilimi, Wiener'in bilimin yönüyle ilgili endişelerini gidermek için çok az şey yapacaktı. Wiener'in belirttiği gibi, "Entelektüel karşıtı bir politikanın genel istatistiksel etkisi, daha az entelektüelin ve daha az fikrin varlığını teşvik etmek olacaktır." 5 Bu tür anti-entelektüel politikalar bilimin modern veri-merkezli ele alınışlarında o kadar açık ki, tehdidi ­göz ardı etmek artık imkansız.

Wiener, hepimizin bildiği ya da bilmesi gereken bir şeye, yani fikirlerin bireysel zekalara değer veren kültürlerden çıktığına dikkat çekti: "Yeni fikirler, bireysel bilim adamlarının akıllarında tasarlanır ve özellikle iyi eğitilmiş birçok bilim insanının olduğu yerlerde ortaya çıkma olasılığı yüksektir. akıllar ve her şeyden önce aklın değerli olduğu yerler. 6

Wiener'in tamamen tartışmasız olması gereken yorumlarının bilgeliğini kabul etmemek gerçekten de kültürde bir dengesizlik olurdu ­. 1950'lerde olduğu gibi bugün de parlak yeniliklere sözde bağlılık gösterilirken, gerçek çok farklı. Kültür, Wiener'in endişelendiği gibi, kanlı bir şekilde anti-entelektüel ve hatta insan-karşıtı hale geldi.

İnsanların yerini süper zeki makinelerin almasıyla ilgili mitoloji, anti-entelektüel ve anti-insan önyargısı konusundaki endişeleri alakasız hale getirdiğinden, buradaki efsaneyle bağlantı kaçınılmazdır. Efsanenin asıl amacı, anti-hümanizmin gelecek olduğudur; mevcut teknolojinin yürüyüşüne göre pişirilir.

Gelecekteki gelişmeyi daha doğrudan aşındıran ve paradoksal olarak, uygulanabilir bir genel istihbarat teorisinin icadına veya keşfine daha doğrudan düşman olan ­bir kültürel mem hayal etmek zor ­. Gelecekteki araştırma ve geliştirmelerde böyle bir teorinin ortaya çıkıp çıkmayacağının kendisi bir bilinmezliktir, ancak kabul edilebilecek olan şey, bu tür herhangi bir keşfin aleyhine olacak, giderek kansızlaşan bir fikir kültürünün tehdididir. Bu bağlamda mitin genel etkisi, ­yapay zekayı ve aslında bilimsel araştırmanın kendisini, gerçek buluşun sistematik olarak caydırılacağı ve tanınmayacağı tekno-merkezli bir moda itmektir - eğer, her çağda her zaman olduğu gibi, nadirdir ve bugün daha da fazlası, aslında meydana geliyor.

FİKİRLERE bahse girmek

Wiener, kurumsal kâr ekonomisinin ­gerçek bir fikir kültürüne yatırımı zorlaştırdığına işaret etti, çünkü fikirler üzerine yapılan erken bahislerin tümü özünde kötüdür, çünkü tam değerleri ancak aşağı yönde görünür hale gelir.

Basitçe söylemek gerekirse, yeni fikirler tahmin edilemez ve bu nedenle, kısa vadeli kazanç garantisi olmadan gelişen bir kültüre ekonomik ve entelektüel bir bağlılığı temsil eder. Başka bir deyişle, web'in büyük teknolojiyle konsolidasyonunun, yapay zeka üzerindeki çalışmaları kâr eğrisindeki dar uygulamalara doğru eğme eğiliminde olurken, ­(hala bilinmeyen) icatların kısa süreceğini beklemeliyiz.

Bu iddianın kanıtı olarak ­, örneğin oyun oynamak için derin öğrenme uygulamalarının aksine, yapay genel zekaya giden yolları keşfetmeye ne kadar az yatırım yapıldığını düşünün. Derin öğrenme araştırmacılarının ­bile artık kabul etmeye başladıkları gibi, ikincisi açıkça yapay genel zeka için bir çıkmaz sokak - yeni bir balonun hemen ardından başka bir kötü şöhretli yapay zeka kışına karşı temkinli olduklarından şüphe yok. Kültür, bir yandan radikal kavramsal yenilik akışı olmadan hayal kırıklığına yol açması garanti edilen bir strateji olan AI mitolojisini döndürmeye devam ederken, düşük asılı meyvelerden karları sıkıştırıyor .

Wiener alaycı bir şekilde, Swift'in bir makinenin bilimi "otomatik olarak" geliştirdiği gülünç Laputa dünyasının 1950'lerin megabuck biliminde belirli bir entelektüel temele sahip olduğunu ve kaçınılmaz sonucun ­bir icat kültürünü daha da uzaklaştırmak olduğunu gözlemledi. Şu anda yapay zeka mitolojisinin ayrılmaz bir parçası olan eski versiyonları, insan zihninin yerini bilgisayar programlarının alması konusunda özellikle endişeliydi: " insan zihninin mekanik olarak değiştirilmesine yönelik mevcut arzunun keskin sınırları var. Bir bireyin yaptığı görev dar ve keskin bir şekilde anlaşıldığında, ya tamamen mekanik bir aygıtla ya da insan zihinlerinin sanki dişlilermiş gibi bir araya getirildiği bir organizasyonla ikame edilebilecek bir peri bulmak çok zor değildir . ­bir cihaz." 7

Wiener'in sözleri, elbette, yapay zeka ­mitolojisinin ve onun insanlık üzerindeki zararlı etkisinin, web'de kovan zihinler ve bilimsel araştırmalarda sürü biliminin mükemmel bir yeniden ifadesidir . Oynayacak IBM Blue Gene süper bilgisayarlarımız varken icat ve keşif için "beklemediğimiz" için bağışlanmış olabiliriz, ancak affedilemez olan şey, Lanier'in dediği gibi, kişiliği küçültmeye yönelik kasıtlı girişimdir - önemi ­ve değeri aşağılayarak ve ortadan kaldırarak. insan zihninin kendisi. Böyle bir strateji fevkalade kendi kendini baltalıyor ve aptalca.

Wiener daha sonra eleştirisini ­, makine rüyalarına karşı her zaman temkinli davranan şüpheciler tarafından genellikle alay edilen popüler mekanik hayallere bağladı. (Jonathan Swift'in mekanik bilimi maskaralığının daha önce, Peirce'in otomatik akıl yürütmedeki ilk gelişmelere ilişkin tartışmasında yer aldığını gördük .) Wiener şöyle devam etti: "Ancak, insan zihninin gerçekten yeni düşünceler geliştirmek için kullanılması her seferinde yeni bir olgudur. Düşük dereceli insan etkinliğinin çoğalmasıyla ve mevcut fikirlerin tesadüfen yeniden düzenlenmesiyle, bu fikirlerin seçiminde birinci sınıf bir zihnin liderliği olmadan gerçek öneme sahip yeni fikirler elde etmeyi beklemek , Maymunlar ve daktilo, ­Swift'in Laputa'ya Yolculuk'unda zaten biraz daha basit bir ifadeyle görünen daktilo . ” 8

Henry Markram'ın ­sinir ağlarını ve süper bilgisayarları (ve mevcut sinirbilimsel teorileri) kullanarak bir beyin inşa ederek bir milyar avroyu yapay zeka mitolojisine dönüştürme fantezisi burada Wiener tarafından mükemmel bir şekilde yakalanmıştır. Keşke bu fikirler ifşa edilmiş ve önlenmiş olsaydı. Aslında, yapay zekadaki modern dönüş, bu tür fantezileri , (ne yazık ki) süper zeki makinelerin hakim olacağı gelecek olarak lanse edilen tahmin edilebileceği gibi dar ama gösterişli uygulama başarılarıyla, bu tür fantezileri kültürün içine daha da merkezi bir şekilde çekmiş görünüyor . ­Yapay genel zekanın buradaki vizyonu, saf mitoloji ve vitrin süslemesidir. Gerçek ilerleme için gerekli fikirlerin ortaya çıkması şöyle dursun , hiç kimsenin temel sorunları bile net bir şekilde anlaması muhtemel değildir . Bu karşılaştırma bir sırıtmaya davet edebilir, ancak yine de yerinde: bu cesur yeni bir dünya. Wiener, kredisine göre, bunun geldiğini gördü.

DAHA DAR VE DAHA DAR

olarak sağduyu öğrenme ve gerçek anlayış edinme yeteneğinden yoksun olan tümevarımsal yapay zekada bir alt türün evrimine fiilen tanık oluyoruz . İnsan zihninin geleceğini - o kadar da kısıtlı değil - yapay zekanın bu şekilde daha da geliştirilmesine bağlamamız sadece aptalca.

Bu yaklaşım, modern kültürde herhangi bir gerçek entelektüel ilerleme sağlamak için gerekli genel zekadan tamamen yoksun olmakla kalmıyor, aynı zamanda tümevarımın kaçırmadan kanıtlanabilir bir şekilde farklı olması nedeniyle, birinden diğerine köprü olmadığını zaten biliyoruz. Ray Kurzweil'in kaçınılmaz ilerleme beyanlarının tümü, bir kez öğrenildiğinde bu gerçeği geri alamaz. Burada dürüst olmalıyız, çünkü gerçeğin ­kabulü ilerleme planının bir parçasını oluşturacaktır.

Özetlemek gerekirse: ­temel bir keşif olmadan mevcut yapay zekanın genel zekayı "geliştirmesi" mümkün değildir. Basitçe "oraya gidiyoruz" demek, bilimsel ve kavramsal ­olarak iflas eder ve diğer nedenlerin yanı sıra, kısa vadeli kârı en üst düzeye çıkarmak için sonuçları (görünüşte) kontrol etmek ve tahmin etmekle ilgilenen insanlık dışı ve entelektüellik karşıtı güçlerin alevlerini daha da körükler. tartışmayı kaçınılmazlığa doğru çarpıtmak . Akıllı bireyler işlerin gidişatını değiştirir; geleceği daha öngörülebilir kılmanın bir yolu, bireysel zekaya verilen her türlü değeri küçümsemek ve ortadan kaldırmaktır.

İLERİYE GİDİN—BURADA GÖRÜLECEK HİÇBİR ŞEY YOK

Kültürel bir çıkmaza girdiğimiz önerisi fantastik ve kurgusal görünebilir, eğer aslında AI mitolojisinin tedarikçilerinin çoğu, ­konuşurken Wiener'in "fikirleri önemseme ve besleme" endişelerini kayıtlara geçirmekten mutlu olmasaydı. yapay zekanın kaçınılmazlığı. AI bilim adamları ve Stuart Russell gibi yarı zamanlı mitologlar, gelecekteki bir yapay genel zeka teorisi arayışında insan dehasını göz ardı etmememiz konusunda bizi hâlâ uyarsa da, mevcut kültürde çok az lider aslında insan dehasının mümkün olabileceği bir gündemi takip ediyor. ­gelişmek.

Gerçekte yeni bir süper varlık yaratmanın ifade edilen amaçları (veya korkuları) göz önüne alındığında, bu şaşırtıcı. Elbette bugünlerde bir veya iki Einstein kullanabiliriz. (İnsan Turing'in bugün nasıl davranacağını merak ediyor.)

Yine, bu hiçbir yerde AI mitolojisinin dogmasında olduğu kadar belirgin değildir ­. Yapay genel zekanın geleceğiyle ilgili herhangi bir hesaplamada, işleri ilerletmek için ne yaptığımızı açıklama sorumluluğu doğrudan yapay zeka mitologlarının üzerindedir.

Belki de, büyük teknolojinin kasasına ne kadar reklam doları getirmeye yardımcı olursa olsun, genel olarak veri merkezli yapay zeka gibi, derin öğrenmenin bir çıkmaz sokak olduğunu açık bir şekilde kabul ederek başlayabiliriz. Ayrıca, giderek artan sayıda yapay zeka bilim adamının isteksizce de olsa artık kabul ettiği bir gerçeği daha fazla seslendirebiliriz: önceki büyük yapay zeka heyecanı dönemlerinde olduğu gibi, hiç kimsenin yapay bir genel zekanın nasıl inşa edileceğine dair en ufak bir fikri yok.

Düş tam olarak mitolojik kalır çünkü gerçek bilimde ­hiçbir zaman uzaktan bile anlaşılmamıştır. Yapay zeka biliminin kendisinden başka nerede efsaneden kurtulmalıyız?

JOHN HORGAN VE RAHATSIZLIK

SONUÇ ÖNERİSİ

, şimdilerde süper bilgisayarların "dev beyinleri" üzerinde ince ayar yapan laboratuvar kaplı teknisyen rolünü oynadığı, tamamen teknokratik bir toplum hayaleti, daha önce ­Scientific ­American tarafından önerilmişti. yazar John Horgan. Son derece popüler olan The End of Science adlı kitabında Horgan, 1990'ların ortalarında ­, büyük keşiflerin arkamızda olduğu basit gerçeği nedeniyle, bilimdeki temel araştırmaların görünüşteki dışına çıkmanın kaçınılmaz olup olmadığını merak etti. 9

Bu, Thiel'in bugünkü sorusunun yarısıdır: Wiener'in endişelendiği gibi, kültür bozuldu mu, yeni fikirleri boğma yoluna mı girdi, yoksa hepsini zaten bulduğumuz için aslında temel fikirlerimiz tükendi mi? Bu ikinci olasılık, temel anlamda "Son"u temsil eder - bu nedenle kültürün, yalnızca bir yan ürün olarak insan zekasını boğan temel sorulara her şeyi kapsayan bir teknolojik yanıtı benimsemesi için dua edebiliriz. Dengesiz bir bilim kültürünü düzeltmenin en azından varsayımsal bir yolu var; fikirlerin sonunun Tron dünyasından kaçış başka bir kabusu temsil ediyor.

Thiel'in sorusu sadece yapay zekanın değil insanlığın geleceği için de merkezi bir soru ­ve ne yazık ki her iki hipotez için de kanıtlarımız var. Bir yandan, mitin ve onun sürü bilimindeki kuzeninin neşeli bir şekilde tanıtılması -önündeki kovan zihinleri için amigoluk yapmak gibi- modern toplumun gerçekten de ıslık çalarak, tam da Wiener'ın haber verdiği gibi, temel değerlerin bir tür düzensizliğine doğru gittiğini gösteriyor gibi görünüyor. .

Öte yandan, Horgan'ın iddia ettiği gibi, başka seçeneğimiz olup olmadığı sorusu, Bilimsel Devrim'den üç yüz yıldan fazla bir süre sonra, fiziksel ve hesaplamalı teorinin tüm düşük asılı meyvelerinin toplanmış olması nedeniyle rahatsız edici bir olasılık sunuyor. Bu görüşe göre, ­önce Newton'un yasaları, ardından Einstein'ın göreliliği ve yirminci yüzyıl kuantum mekaniğinin gelişimi ile ­fizik hakkında keşfedilebilecekleri aşağı yukarı keşfettik . Kalan fizik ilerlemesi, büyük ölçüde mevcut teorideki boşlukları ve ayrıntıları doldurmak ve hiç şüphesiz bu tür teorilerin tahminlerini süper çarpıştırıcılar gibi daha büyük ve daha pahalı teknolojilerle test etmekle ilgili olacaktır. Machineland'e hoş geldiniz.

Her iki olumsuz olasılık da, Markram'ın Einstein'ın artık istenmediği ve bugün yapacak bir şeyi kalmadığı (veri bilimine katkıda bulunmak dışında) önerisini destekler. Yaklaşan bir süperzekanın kaçınılmazlığı burada tersine döndü, çünkü evrenin temel yapı taşlarını keşfetmede çok parlak olan insanlar artık emekli olmalı ve kültürün kaşiflerden teknisyenlere dönüşmesini izlemelidir. Süper bilgisayarlarla ilgilenmek , Voltaire'in bahçeyle ilgilenmesinin modern versiyonudur. Ciddi iş bitti. İnsanoğlu bu kadar akıllı olmamalıydı.

, insan bilincinin tam bir bilimsel açıklaması gibi bazı rüyaların ­zaten çok zor ve imkansız bir şekilde uzak olabileceğini öne sürüyor. Bu durumda, Prometheus'un ­tamamlanmış bir nörobilim hayali sessizce bir kenara bırakılırken veya Ex Machina geleceklerinde kurgulanırken , hesaplamanın -mevcut teorileri hesaplamanın- bilime ve diğer her yere amansız sürünmesine tanık olmanın mutsuz bir sonucunu yaşıyoruz.

Büyük bilimsel ilerlemenin arkamızda olması kesinlikle mümkündür, bu durumda, AI mitolojisi, ne kadar nihilist ve gerçek dışı olursa olsun, gelecekteki anlam için yeni bir odak noktası haline gelirken, sahip olduğumuz teorileri kullanarak temel sorunların sığ teknik tedavilerini beklemeliyiz. Lanier'in de önerdiği gibi, hesaplamanın hakim olduğu bir geleceğe uyum sağlayacak kadar alçalana kadar, insan zekasını ve benzersizliğini basitçe yontarak böyle bir geleceği gerçeğe dönüştürebiliriz.

Horgan kendi rahatsız edici önerisinden heyecan duymadı, ancak görünen o ki, 1990'lardan beri, uygulamalı hesaplama ­ona giderek artan bir güvenilirlik kazandırdı - gerçekte değilse de en azından gözlemlenen uygulamada.

Her iki durumda da, şu anda yanlış yolda olduğumuzu ciddiye almalıyız, çünkü büyük ölçüde önemli bir eksikliği - gelişen insan kültürünün eksikliğini - ­makinelerin kaçınılmaz yükselişi hakkındaki retoriklerle örtmeye çalışıyoruz. Eugene Goostman, başarısızlığa giden daha iyi bir yol bulamazdı.

BİZİM SEÇİMİMİZ

Horgan'ın geleceğimize ilişkin “Son” okuması doğruysa, ­teknik ayrıntılara kayma kaçınılmazdır. Yine de, büyük ölçüde mitin (ve her yerde hazır ve nazır hesaplamanın yükselişinin) yaydığı bir kültür düzensizliği, kendimizi modern teknoloji mitlerinden kurtarmanın, insan kavrayışına, yeniliğe ve fikirlere yeniden yatırım yapılmasına neden olarak ilerlemeyi teşvik edebileceği olasılığını canlı tutuyor.

Açıkçası ben ikinci yorumu destekliyorum. Ve ben iyimserim - büyük ölçüde, daha önce gördüğümüz gibi, yapay ­genel zekaya (ve ötesine) doğrusal ve kaçınılmaz bir yürüyüşü reddetmek için tamamen bilimsel gerekçelere sahip olmamız nedeniyle.

Bu Gordion düğümünü çözmek, kültürü o kadar yaygın bir şekilde enfekte etmiş ki, çabaları yeniden odaklamak için nörobilimde yeni teoriye duyulan ihtiyaç hakkındaki uzun tartışmaları gerekli kılacak kadar yaygın bir şekilde bulaşmış olan mitin mevcut kisvesinden kurtulmakla başlar. tartışmasızdır.

SINIRLARIN KABUL EDİLMESİ OLARAK GÜVEN

ENDÜKTİF SİSTEMLER

İronik bir şekilde, modern yapay zekanın sınırları, otomasyon ve güven hakkındaki güncel tartışmalarda zımni olarak yer alıyor. Yapay zeka düşünürleri için sözde "faydalı yapay zeka", güvenilir sistemler ve ­sorunlu önyargı gibi diğer etik konular hakkında endişelenmek moda oldu. Başka bir deyişle, anlamayan ama yine de performans gösteren sistemler endişe kaynağı haline geldi.

Bu, efsaneyi garip bir açıdan keser: Sistemlerin aptal olması, ancak yine de iş, tüketici ve ­hükümet uygulamalarında yolunu bulması nedeniyle , insani değer soruları, bir zamanlar tamamen bilimsel olan konuları artık etkiliyor.

Kendi kendine giden arabalar bu noktada açık bir örnektir. Beklenmedik sonuçların uzun kuyruğunun dışında bir yerde ve bu nedenle ­eğitim verilerine dahil edilmeyen bir yerde, aracınız bir pilonu kaçırmaya özen gösterdiği için bir yolcu otobüsüne mutlu bir şekilde çarpana kadar görsel nesne tanımadaki gelişmelerden bahsetmek her şey yolunda ve güzel. (Bu oldu.) Önyargı ve görüntü tanıma ile ilgili sorunlara da bakın: Google Fotoğraflar, iki Afrikalı-Amerikalının fotoğrafına bir goril la etiketi yapıştırdı. Bir halkla ilişkiler felaketinin o nötron bombasından sonra Google ­, derin öğrenme sistemi tarafından kullanılan eğitim setinden gorillerin resimlerini atarak sorunu çözdü .­

Bu nedenle, gerçek anlayıştan yoksun tümevarımsal yapay zekanın sınırları giderek yapay ­zeka tartışmasına itiliyor çünkü insan yaşamının hiçbir anlayışa sahip olmayan önemli alanlarında makineleri hizmete sokuyoruz. Bu da, geçerli fikirler veya keşifler için ortalıkta beklememek ve yapay zeka teknolojilerinin hayatın olası her alanında hakimiyetini artırmaya devam etmek için çok istekli olmaya yönelik sürekli bir eğilim gösteren yapay zeka mitolojisinin bir sonucudur.

İronik bir şekilde, bu endişe verici eğilim, yapay zekanın temel - veya en azından mevcut ve kaçınılmaz - sınırlarının daha iyi anlaşılmasına yardımcı olabilir. Gerçek insan yaşamları ve önemli insani değerler artık söz konusu.

Başka bir deyişle, efsane adına, bugün makinelerin aptallığının ne anlama geldiğini anlatmak için çok fazla mürekkep dökülüyor. Hiç kimse, sonucun zekaya giden bir yol gibi görünen tümevarım sistemlerinin gerekli ve öngörülebilir bir sonucu olduğunun farkında değil.

zekada mevcut ve gelecekteki yapay zeka sistemlerini kendi çıkarlarımız ve amaçlarımızla uyumlu hale getirmekle ilgili birdenbire merkezi öneme sahip bir sorun olan "uyum" sorununa işaret ediyor . ­Ancak sorun, Russell'ın öne sürdüğü gibi, yapay zeka sistemlerinin çok hızlı bir şekilde çok akıllı hale gelmesinden değil, onları insan toplumunun pek çok alanında otorite konumuna getirdiğimiz ve doğasında var olan sınırlamaları olduğu için ortaya çıkıyor. şimdi önemliydi.

Gerçek otoriteyi yapay zekaya - kabul edelim ki akılsız makinelere - devretmeye yönelik pratik endişelere doğru Tekillikten mevcut dönüşün, sonunda insan zekası ve değeri için yenilenmiş bir takdirle sonuçlanacağını umuyorum.

Hizalama problemini göz önünde bulundurmak ­, bilimsel ilerleme arayışı da dahil olmak üzere, kendi hedeflerimizi ilerletmek için giderek daha güçlü hale gelen aptal savantları en iyi nasıl kullanabileceğimiz gibi, büyütme mülahazalarına yol açabilir.

SONUÇ OLARAK

Bu kitapta sunduğum çıkarım çerçevesi, mevcut yapay zekayı yapay ­genel zekaya genişletme projesini açıklığa kavuşturuyor: şu anda programlanamayan farklı bir çıkarım türüne köprü kurmalıdır. Aynı zamanda, zihinler ve makineler arasındaki sınırların keşfedilmesi için bir kılavuz sağlar ­ve bu da elbette kalıcı olan daha optimal ve daha güvenli insan-makine etkileşimlerini kolaylaştırabilir. Teleskop ve mikroskopta olduğu gibi, teknolojinin genellikle insan yeteneklerinin bir protezi gibi davrandığı doğrudur. En azından yapay zekanın oynayacağı bu rol var, ancak yaklaşan bir süper ­zekayla ilgili bir mitoloji, bilimsel bilinmeyenler kategorisine yerleştirilmelidir. Doğrudan bilimsel bir gizemin peşine düşmek istiyorsak, en azından entelektüel fikirleri teşvik eden bir kültüre yatırım yapmalıyız - yapay genel zekaya giden herhangi bir yol mümkünse, onlara ihtiyacımız olacak.

Tıpkı Frankenstein'ın gerçekten ruhsal izolasyonun keşfi olması gibi (Mary Shelley ve kocası Percy Shelley tarafından derinden hissedilen bir sorun), AI mitinde somutlaşan en derin sorular teknik ve hatta bilimsel değildir - anlam bulmaya yönelik kendi süregelen girişimlerimizi içerirler. ve sürekli değişen bir dünyada kendimiz için gelecekteki yolları oluşturmak . Burada mite kapılmakla kazanılacak hiçbir şey yoktur ; insan potansiyelini göz ardı etmek ve gelecekteki insan olasılığını sınırlamak gibi açıkça olumsuz bir anlam dışında, insanlık durumumuza hiçbir çözüm sunamaz.

Çıkarım sorunu, tıpkı bilinç sorunu gibi, ­sürmekte olan büyük gizemlerin merkezine yerleşmiştir ve geri kalan her şeye ilişkin anlayışımızda gerçekten önceden ­varsayılmıştır . Keşfedilmemiş zihnin teknolojik cevaplara direnmesine şaşırmamalıyız. Horgan'ın endişelendiği gibi, fikirlerimizin tükenmiş olması mümkün. Eğer öyleyse, mit, insan olasılığından nihai, kurtarılamaz bir şekilde uzaklaşmamızı temsil eder - karanlık bir şekilde rahatlatıcı bir peri masalı, küllerimizden başka bir şeyin, büyük ve canlı bir şeyin mutlaka ve kaçınılmaz olarak doğması gerektiği iddiası.

tükenmiyorsa , o zaman bir icat kültürüne ve insan gelişimine yeniden yatırım yapmak gibi zorlu ve bilinçli bir çalışma yapmalıyız. Çünkü geleceğe giden yolları ve geçmişten daha iyi bir geleceği bulmak için kendi genel zekamıza ihtiyacımız olacak.

NOTLAR

giriiş

1. Araştırmacıların yapay zekada kaçırılmayla mücadele etmediğini söylemiyorum, ­yaptılar. 1980'lerde ve 1990'larda araştırmacılar, kaçırma mantığı programlama adı verilen, kaçırmaya yönelik mantıksal yaklaşımlar üzerinde çalıştılar. Ancak bu sistemler "yalnızca ismen" kaçırmaydı çünkü gerçek kaçırmaya değil tümdengelimlere dayanıyorlardı. Sistemler başarılı olamadı ­ve web çağında yapay zeka çalışmaları ilerledikçe hızla terk edildi. Daha yakın zamanlarda, yaklaşık 2010'dan günümüze, çeşitli olasılıksal (özellikle Bayesçi) yaklaşımlar, iyi niyetli kaçırma çıkarımına giden olası yollar olarak benimsenmiştir. Bununla birlikte, bu sistemler de kaçırmanın tam tedavisi değildir. Selefleri gibi kılık değiştirmiş ­tümdengelimli yaklaşımlar yerine, ­tümevarımcı veya olasılıkçı yaklaşımların kılıklarına bürünürler. Sadece isimdeki kaçırma, kaçırmadan kastettiğim şey değildir ve ismi kullanan ancak sorunu çözmeyen sistemler, AI'da ilerleme kaydetmemize yardımcı olmaz. Bütün bunları ileriki sayfalarda anlatacağım .

Chapter 1:     İstihbarat Hatası

1.  AM Turing, "Computing Machinery and Intelligence", Mind 59, no. 236 (Ekim 1950), 433-460.

2.   AM Turing, "Entscheidungsproblem Uygulaması ile Hesaplanabilir Sayılar Üzerine" , Londra Matematik Derneği Bildiriler Kitabı, cilt. 2-42, sayı 1 (Ocak 1937), 230-265.

3.   AM Turing, Sıra Sayılarına Dayalı Mantık Sistemleri (PhD diss., Princeton Üniversitesi, 1938), 57.

4.   Gödel ayrıca, kural eklemenin bazı sistemlerdeki eksikliği gidereceğini, ancak yeni sistemin ek kurallarla birlikte başka kör noktalara sahip olacağını da gösterdi. Bu, Turing'in biçimsel sistemler ve tamlık üzerine sonraki çalışmalarında tam olarak odaklandığı noktaydı.

5.   Orijinal eksiklik sonuçları için bkz. Kurt Godel, "Uber formally undecidable teorems of the Principia Mathematica ve ilgili sistemler I. " İngilizce çevirisi ­Kurt Godel, Collected Works, vol. 1: 1929-1936, editörler. Kurt Geodel, Kurt Gödel ve Solomon Feferman (Oxford: Oxford University Press, 1986).

6.   biçimsel ­, matematiksel ve hesaplamalı terimlerini dönüşümlü olarak kullanıyorum . Teknik olarak tüm matematiksel veya hesaplamalı sistemler resmi sistemler olarak bilinmesine rağmen, terminoloji kesin değildir. Bunun kafa karıştırıcı olmadığına inanıyorum, ancak her halükarda, matematiksel ve hesaplamalı terimlerin her ikisi de, iyi tanımlanmış bir sembol sözlüğüne ve sembolleri işlemek için kurallara sahip olan resmi sistemlere atıfta bulunur . ­Bu, bilgisayar dillerinin yanı sıra aritmetiği de kapsar ve tartışmanın amaçlarına uyacak şekilde tamamen geneldir.

Chapter 2:      Bletchley'de Turing

1.  Turing, Good ve Shannon'ın bilgisayar satrancı üzerindeki ilk çalışmaları, bir oyuncu için kaybı en aza indirirken potansiyel kazancı en üst düzeye çıkarmaya dayalı hamleleri puanlayan minimax olarak bilinen bir teknikten yararlandı. Teknik, bilgisayar satrancının sonraki sürümlerinde belirgin bir şekilde yer aldı ve bugün kullanılan çok daha güçlü bilgisayar satranç sistemlerini tasarlamak için hala bir temel oluşturuyor.

2.   C++ ve Java gibi bugün bildiğimiz şekliyle tam programlama dillerinin tümü, ­nesne yönelimli programlama ve diğer yazılım yapılandırma araçları gibi fikirler bilgisayar biliminde daha sonra ortaya çıkmış olsa da, erken bilgi işlemden ortaya çıkan bu temel işlemlerden yararlanır. Yine de, tüm bilgisayar kodlarındaki temel kontrol yapıları , ilk tam elektronik makinelerle erkenden ortaya çıktı. Satranç gibi erken problemlere uygulanan bu tür sistemlerin ani başarısından şüphesiz, makinelerin programlarla nasıl yapılandırılacağı ve kontrol edileceğine dair içgörü sorumludur.­

3.   İngiltere'nin "Genel Kod ve Şifreleme Okulu" veya "GC ve CS" yönetimi altında.

4.   Örneğin Hugh Alexander, Bletchley'in çabalarına yardımcı olan ulusal bir satranç şampiyonuydu.

5.   iletişimin şifresini çözmek için daha karmaşık başlangıç (ve aynı zamanda şifrelenmiş) talimatların yanı sıra uzun şifreli serbest metin dizileri üreten rotorlar eklediler .­

6.   Turing'in ­II. Andrew Hodges, Alan Turing: Enigma (New York: Vintage, 1992).

7.   Joseph Brent, Charles Sanders Peirce: Bir Hayat (Bloomington, IN: Indiana University Press, 1993), 72.

8.        Hodges, Muamma , 477.

9.   François Chollet, "The Implausibility of Intelligence Explosion" Me ­dium , 27 Kasım 2017.

10.   Ücretsiz öğle yemeği yok teoreminin matematiksel bir açıklaması için bkz. David Wolpert ve William G. Macready, "No Free Lunch Theorems for Optimization", IEEE Transactions on Evolutionary Computation 1, no. 1 (1997): 67-82.

11.  Yapay zeka terimi aslında 1955'te yapay zekanın öncülerinden biri ve bir yıl sonra 1956'da alanı resmen başlatan Dartmouth Konferansı'nın bir üyesi olan Stanford bilgisayar bilimcisi John McCarthy tarafından icat edildi.

Chapter 3:      Süper Zekâ Hatası

1.   Irving John Good, "İlk Ultra Zeki Makineyle İlgili Spekülasyonlar", Advances in Computers 6 (1965) 6: 31-88.

2.   Nick Bostrom, Süper Zekâ: Yollar, Tehlikeler, Stratejiler, repr. ed. (Oxford: Oxford University Press, 2017), 259.

3.   John Von Neumann, Kendi Kendini Üreten Otomata Teorisi, ed. Ar ­thur W. Banks (Urbana: University of Illinois Press, 1966), beşinci ders, 78.

4.   Daniel Kahneman, Düşünme, Hızlı ve Yavaş (New York: Farrar, Straus ve Giroux, 2013).

5.   Stuart Russell, İnsan Uyumlu: Yapay Zeka ve Kontrol Problemi (New York: Viking, 2019), 37.

6.        Kevin Kelly, Teknoloji Ne İstiyor (New York: Penguin, 2010).

7.   Garip bir şekilde, belki de canlandırıcı bir şekilde, Kelly o zamandan beri yapay zeka mitinden uzaklaştı. 2017'de Wired'da yazdığı yazıda, "zekâlaşmanın" süper zekaya yol açmadığını savunuyor. Zekanın çeşitli ve çok biçimli olduğuna ve sincap gibi görünüşte zeki olmayan hayvanların daha sonra tüketmek üzere potansiyel olarak binlerce gömülü yemişin yerini hatırladığına ­dikkat çekiyor; bu , insanların kopyalayamayacağı bir ­başarıdır. "AI Cargo Cult: The Myth of Superhuman AI" adlı eserinin başlığı anlatıyor. Zekanın uygulanabilir bir tanımını (süper zekayı bırakın) sabitleyemememiz, fütüristlerin yapay zekada kaçınılmaz olarak gördükleri son noktanın ­aslında kafa karıştırıcı olduğunu ve yine mitoloji ve spekülasyon için bolca alan sağlayan başka bir basitleştirme olduğunu düşündürebilir.

8.       Russell, İnsan Uyumlu, 7-8.

Chapter 4:       Tekillik, O Zaman ve Şimdi

1.  Murray Shanahan, Teknolojik Tekillik (Cambridge, MA: MIT Press, 2015), 233.

2.   Gördüğümüz gibi, Turing'in evrensel makineleri bilimi ­1930'ların sonunda iyice yerleşmişti. Elektronik cihazlar olarak bilgisayarlar daha sonra, telefon sistemlerinden röle anahtarları ve diğer teknolojiler gibi iletişim teknolojilerindeki gelişmelerin hemen ardından ortaya çıktı.

3.   Teknik olarak Vinge, tekillik terimini üç yıl önce, Ocak 1983'te Omni dergisinde yayınlanan "First Word" (İlk Söz) başlıklı makalesinde tanıttı. Bununla birlikte, kelimenin ve Vinge'nin onu kullanımının izini, kavramın hikayenin olay örgüsünde tamamen geliştirildiği Marooned in Realtime adlı bilim kurgu kitabına kadar izlemek yaygındır.

4.    İnsan Sonrası Çağda Nasıl Hayatta Kalılır", ­Vizyon-21: Siber Uzay Çağında Disiplinlerarası Bilim ve Mühendislik, ed. GA Landis, NASA Yayını CP-10129, 1993, 11-22.

5.  Ray Kurzweil, Tekillik Yakında: İnsanlar Biyolojiyi Aştığında (New York: Penguin Group, 2005).

6.   Ray Kurzweil, "The Singularity: A Talk with Ray Kurzweil", The Edge ile söyleşi, John Brockman tarafından giriş, 24 Mart 2001, https://www .edge.org/conversation/ray_kurzweil-the-singularity.

7.  Hubert L Dreyfus, What Computers Still Can't Do: A Critique of Artificial ­Reason (Cambridge, MA: MIT Press, 1992), ix.

Chapter 5:      Doğal Dil Anlama

1.  John McCarthy, M. Minsky, N. Rochester ve CE Shannon, "A ­Proposition for the Dartmouth Summer Research Project on Yapay Zeka", Ağustos 1955.

2.   Gary Marcus ve Ernest Davis, Rebooting AI: Building Artificial Intel ­ligence We Can Trust (New York: Pantheon Books, 2019), 1.

3.   Massimo Negrotti, ed., Yapay Olanı Anlamak: Yapay Zekanın Gelecekteki Şekli Üzerine (Berlin Heidelberg: Springer-Verlag, 1991), 37.

4.    Bkz. John R. Pierce ve diğerleri, Language and Machines: Computers in ­Translation and Linguistics , Otomatik Dil İşleme Danışma Komitesi raporu, Ulusal Bilimler Akademisi, Ulusal Araştırma Konseyi, Yayın 1416, 1966.

5.   Sergei Nirenburg, HL Somers ve Yorick Wilks, editörler, Makine Çevirisinde Okumalar (Cambridge, MA: MIT Press, 2003), 75.

6.   Makine çevirisiyle ilgili ilk sorunların okunabilir bir tartışması için bkz. John Haugeland, Yapay Zeka, The Very Idea (Cambridge, MA: MIT Press, 1989). Yehoshua Bar-Hillel'in yorumu 176. sayfada yer almaktadır.

7.   Bakınız, örneğin, Hubert Dreyfus'un ­, Hubert L Dreyfus, What Computers Still Can't Do: A Critique of Artificial Reason (Cambridge, MA: MIT Press, 1992), ix.

8.    DENDRAL hakkında daha fazla bilgi için bkz. Robert K. Lindsay, Bruce G. Buchanan, EA Feigenbaum ve Joshua Lederberg, "DENDRAL: A Case Study of the First Expert System for Scientific Hypothesis Formation", Yapay Zeka ­61, no. 2 (1993): 209-261. MYCIN hakkında daha fazla bilgi için bkz. BG Buchanan ve EH Shortliffe, Rule Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project (Reading, MA: Addison-Wesley, 1984).

9.   Doğal Dil İşleme üzerine yapılan çalışmalarda ELIZA programının iyi bir tartışması için ­bkz. James Allen, Natur ral Language Processing (San Francisco: Benjamin / Cummings Publishing Company, 1995). Diyalog ­7. sayfada görünür.

10.   Goostman performansıyla ilgili sorunları İkinci Bölüm'de çok daha ayrıntılı olarak açıklıyorum.

Chapter 6:      Teknolojik Kitsch Olarak Yapay Zeka

1.   Buradaki teknobilim terimi bir anakronizmdir, ancak geçmişe bakıldığında ­tam olarak on dokuzuncu yüzyılda Bilimsel Devrim'in ardından şekillenen fikirleri yakalar. Aslında, teknobilim 1970'lerde Belçikalı filozof Gilbert Hottois tarafından icat edildi.

2.   Friedrich Wilhelm Nietzsche, Neşeli Bilim; Rhymes'te Prelude ve Songs Appendix ile (New York: Vintage Books, 1974).

3.   Fyodor Dostoyevski, Yeraltından Notlar (New York: Vintage Classics, 1994), 33.

4.    Bu tür görüşler, Marie Jean Antoine Nicolas Caritat, Marquis de Condorcet (tipik olarak kısaca Condorcet olarak anılır) dahil olmak üzere Comte'u etkileyen Fransız düşünürler tarafından da savunuldu. Fransız felsefesinde Bilimsel Devrim'in getirdiği devrimden önce, Francis Bacon gibi İngiliz filozoflar da bilim ve ilerlemeyi felsefi olarak gerekli gören benzer görüşleri benimsediler.

5.   Hannah Arendt, İnsan Durumu (Chicago: Chicago University Press, 1958).

Chapter 7:       Basitleştirmeler ve Gizemler

1.    BF Skinner, Walden Two [1948] (Indianapolis: Hackett, 2005).

2.    Stuart Russell, İnsan Uyumlu: Yapay Zeka ve Kontrol Problemi (New York: Viking, 2019), 8.

3.   Dan Gardner, Gelecek Gevezeliği: Uzman Tahminleri Neden ­Daha Az Değere Yakın ve Daha İyisini Yapabilirsiniz (New York: Dutton, 2011).

4.    Martin Ford, Architects of Intelligence: The Truth about AI from the People Building It (Birmingham, Birleşik Krallık: Packt Publishing, 2018), 20.

5.   Ray Kurzweil, The Singularity is Near: When People Transcend Biology (New York: Penguin Group, 2005), 25.

6.    Alasdair MacIntyre, Erdemden Sonra (Notre Dame, IN: University of Notre Dame Press, 2007), 111.

7.   Bkz. Michael Polanyi, Personal Knowledge: Towards a Post- Critical ­Philosophy [1958] düzeltilmiş baskı (Abingdon-on-Thames: UK: Routledge & Kegan Paul, 1962), bölüm 5.

8.    Hubert Dreyfus, Bilgisayarlar Hala Ne Yapamaz: Yapay Aklın Eleştirisi (Cambridge, MA: MIT Press, 1992).

9.   Gary Marcus ve Ernest Davis, Yapay Zekayı Yeniden Başlatmak: ­Güvenebileceğimiz Yapay Zeka Yeteneği Oluşturmak (New York: Pantheon Books, 2019).

10.   Hector Levesque, Sağduyu, Turing Testi ve Gerçek Yapay Zeka Arayışı (Cambridge, MA: MIT Press, 2017).

11.  Erik J. Larson, "Yapay Zeka Hakkındaki Aldatmacayı Sorgulamak", The Atlantic, 14 Mayıs 2015.

12.   Stuart Russell, İnsan Uyumlu: Yapay Zeka ve Kontrol Problemi (New York: Viking, 2019), 9.

13.    Russell , İnsan Uyumlu, 41.

14.    Russell, İnsan Uyumlu, 16-17.

15.   Ford, Mimarlar, 232, 234.

16.   Ava'nın Nathan'ın evinden kaçtığı ve rengi görmek için güneş ışığına baktığı sahne, yapay zeka ve zihin felsefesi çevrelerinde "Renk bilimcisi Mary" olarak bilinen felsefi bir sorunu ele alıyor. Muamma, (hipotez gereği) renk hakkındaki tüm bilimsel gerçekleri ( beyindeki nöronlara çarpan ışığın dalga boyları vb.) bilen, ancak siyah -beyaz bir odada yaşayan Mary adında kurgusal bir renk bilimcisi olup olmadığıdır. ­, gerçek rengi ilk kez gördüğünde aslında yeni bir şey öğrenirdi. Başka bir deyişle: Rengi görme deneyimimiz, onunla ilgili hesaplamalara ek mi? Garland, Ava'nın gerçekten de yeni bir şey öğrendiğini öne sürüyor. Muhtemelen bu , onun bilinçli bir zihne ­sahip olduğunu da kanıtlıyor.

17.   Eliezer Yudkowsky, "Küresel Riskte Pozitif ve Negatif Bir Faktör Olarak Yapay Zeka", Global Catastrophic Risks, ed. Nick Bostrom ve Milan M. Cirkovic (New York: Oxford University Press), 308-345.

18.   Jaron Lanier, Bir Aygıt Değilsiniz : Bir Manifesto (New York: Alfred A. Knopf, 2010), 4.

Chapter 8:      Hesaplamayın, Analiz Edin

1.   Edgar Allan Poe, The Best of Poe: The Tell-Tale Heart, The Raven, The Cask of Amontillado ve 30 Others (Clayton, DE: Prestwick House, 2006).

2.       Poe, Poe'nun En İyisi, 33-34.

3.       Poe, Poe'nun En İyisi, 27.

Chapter 9:       Peirce Yapbozu (ve Peirce Yapbozu)

1.   Joseph Brent, Charles Sanders Peirce: Bir Hayat (Bloomington, IN: Indiana University Press, 1993), 1-7.

2.       Brent, Peirce , 2-3'ten alıntılanmıştır.

3.    Henry James, ed., The Letters of William James , cilt. 1 (Boston: Atlantic Monthly Press, 1920), 35.

4.       Brent, Peirce , 16'dan alıntılanmıştır.

5.   Joseph Brent, Peirce'i bir züppeye benzetiyor: "Züppe bir aynanın önünde yaşıyor ve uyuyor, zengin ve yine de ilgisiz bir şekilde yaptığı işi tarafından tüketiliyor. Yalnız ve mutsuz” (23-24). Romancı Henry James (William'ın erkek kardeşi) , karısından yeni ayrılmış (Brent, Peirce , 25) , Paris'e musallat olan kimsesiz bir Peirce ile tanıştıktan sonra bir keresinde Peirce'in ilginç olduğunu ve "güzel giysiler" giydiğini söyleyerek alay etmişti . Gerçekten de, Peirce'in yaşamı, onu ateizm (doğru değil), alkolizm (belki doğru), uyuşturucu bağımlılığı (doğru, ancak bir nedenden dolayı - ömür boyu süren bir yüz nevraljisi olarak bilinen acı verici bir durum), evlilikte sadakatsizlik (doğru olduğuna şüphe yok) ve mesleki ilişkilerinde pervasızlık. Hopkins'te öğretim görevlisi olarak görevden alınmasıyla gerçekler hiçbir zaman tam olarak ortaya çıkmadı. ­US Coast Survey'de çalışırken pahalı yerçekimi ölçüm ekipmanına bakım yapamaması ve projelerdeki gecikmesi iyi belgelenmiştir.

6.        Brent, Pierce , 9.

7.   kabul edilmiş "kanıtlar" ile değerlendirildiğinde, neredeyse tanımları gereği, olası olmayan çıkarımlar (veya çıkarım kümeleri) olma eğilimindedir . ­Keşif kabul edildikten sonra (eğer öyleyse), kanıt olarak sayılan şeyin kendisi, olasılık yargılarıyla birlikte yeniden değerlendirilir.

Chapter 10:     Tümdengelim ve Tümevarımla İlgili Sorunlar

1.   Gödel'in eksiklik teoremlerinden bildiğimiz gibi, teknik olarak evrensel hata kontrol sistemleri imkansızdır. Ancak bu şart göz önüne alındığında, ­tümdengelimli sistemler, diğer şeylerin yanı sıra, yazılımın bir dizi belirtime uyup uymadığını kontrol etmek için kullanışlıdır.

2.   Wesley Salmon, Nedensellik ve Açıklama (Oxford: Oxford University ­Press , 1998).

3.   bağımsız hareket eden herhangi bir şey anlamına gelen AI'daki olağan kelimeyi, "ajanları" benimsiyorum . ­Zeki (veya "bilişsel") bir aracı, bir kişi olabilir, ancak aynı zamanda bir yapay zeka sistemi veya bir uzaylı da olabilir.

4.    David Hume, Hume's Treatise of Human Nature [1739-1740], ed. LA Selby Bigge (Oxford: Clarendon Press, 1888), 89.

5.   Russell'ın orijinal formülasyonu bir hindiye değil, bir tavuğa atıfta bulunuyordu. Karl Popper, örneği mevcut haliyle yeniden formüle etti. Ve alıntı ikincil bir kaynaktan alınmıştır: Alan Chalmers, Bu Bilim Denilen Şey Nedir? 2. baskı (St. Lucia, AU: Queensland Üniversitesi Yayınları, 1982), 41-42.

6.   Stuart Russell, İnsan Uyumlu: Yapay Zeka ve Kontrol Problemi (New York: Viking, 2019), 48.

7.   Gary Marcus ve Ernest Davis, Yapay Zekayı Yeniden Başlatmak: ­Güvenebileceğimiz Yapay Zeka Oluşturmak (New York: Pantheon Books, 2019).

8.        Marcus ve Davis , Yapay Zekayı Yeniden Başlatma, 62.

9.   Martin Ford, Architects of Intelligence: Onu İnşa Eden İnsanlardan Yapay Zeka Hakkındaki Gerçek (Birmingham, BK: Packt Publishing, 2018).

10.   Nassim Nicholas Taleb, "The Fourth Quadrant: A Map of the Limits of Statistics", Edge.org, 14 Eylül 2008, https://www.edge.org/conversation /nassim_nicholas_taleb-the-fourth-quadrant-a-map -of-the-sınırları-istatistik.

11.  Judea Pearl ve Dana Mackenzie, The Book of Why: The New Science of Reason and Effect (New York: Basic Books, 2018).

12.   Gözlem, veri ve olgu terimleri hakkında daha fazla şey söylemeliyim. Fred adında bir adamın, işvereni tarafından ­1 Aralık günü sabah 7:00'den akşam 19:00'a kadar Chicago şehir merkezinde belirli bir sokak köşesinde North Face ceketi giyen herkes hakkında veri toplamakla görevlendirildiğini hayal edin. Fred , giydikleri ceketlere dikkat ederek geçen insanları gözlemleyecek. Gördüğü her North Face ceketi için, gözlemini bir deftere kaydedecek. Saat 19:00'dan sonra, kâğıdı, kaydedilen gözlemleri (sayı 147) ­almak ve bunları bir elektronik tabloya girmekle görevli amirine getirir . Fred'in gözlemleri artık veridir - bilgisayarda okunabilir bir formatta kaydedilmişlerdir ve o sırada ve yerde North Face ceket giyen yayaların sayısı gerçeğini temsil etmektedirler. Dolayısıyla veriler, gerçekler olarak kabul edilen kayıtlı gözlemlerdir. Bir gerçeğin ne olduğu konusu aslında oldukça ilginç, ancak başka bir projeyi beklemesi gerekecek.

13.   Görünüşe göre Pearl de dedektiflik işine ilgi duyuyor, çünkü o da kurgusal kahramanımızın bazen iddia ettiği gibi Sherlock Holmes'un tümdengelim kullanmadığına işaret ediyor. Pearl'e göre, açıklamalarına varmak için gerçekleri incelemek anlamında tümevarımı kullandı. İddia kendi merdiven şemasıyla çelişmek anlamına geldiği için Pearl kesinlikle bunu tam anlamıyla kastetmiyor çünkü gözlemleri anlamadan ilişkilendirmek Holmes'un karşılaştığı bulmacaları pek çözemez. Birleştirme , genel olarak tümevarım hakkında süregiden bir yanlış kavrayışı açığa çıkarır : teoriler dikkatli gözlemlerden gelir. ­Bu, yalnızca önceki teorinin gözlemi bilgilendirdiğini ve kelimenin tam anlamıyla gözlemin tek başına eksik teoriyi sağlayamayacağını kabul edersek doğrudur. Dil anlayışında göreceğimiz gibi, tümevarım, önceki fikirlerin yoruma getirildiği ­ve devam eden yorumlamanın önceki fikirleri ayarlayıp yenilerini önerdiği bir tür bütüncül yorumsama çemberinin bir parçası olarak girer. Doğru anlaşılan tümevarıma (yani diğer çıkarım biçimlerini içine koymadan) dayanarak dili anlamlandırmak imkansızdır .

14.      Marcus ve Davis, Yapay Zekayı Yeniden Başlatma .

15.      Russell, İnsan Uyumlu.

16.      İnci, Neden Kitabı, 36.

Chapter 11:     Makine Öğrenimi ve Büyük Veri

1.  Stuart Russell, İnsan Uyumlu: Yapay Zeka ve Kontrol Problemi (New York: Viking, 2019).

2.   Tom Mitchell, Makine Öğrenimi (New York: McGraw-Hill Education, 1997), 2.

3.   Filtrelere büyük ölçüde güveniyoruz çünkü kasıtlı olarak izin veriyorlar ­: istenmeyen postaların gelen kutularına girme olasılığı, meşru iletilerin atılma olasılığından daha yüksektir. Hiçbir garantisi ve gerçek bir anlayışı olmayan sistemleri kullanmanın sonuçları giderek artan bir endişe kaynağıdır. Spam, kendi kendine giden arabalara kıyasla küçük bir endişe kaynağıdır.

4.   Melanie Mitchell, Yapay Zeka: Düşünen İnsanlar İçin Bir Kılavuz (New York: Farrar, Straus ve Giroux, 2019).

5.   Doug Laney, "3-D Data Management: Controlling Data Volume, Ve ­locity and Variety", Gartner Group Araştırma Notu, Şubat 2001. Orijinali artık Gartner'da mevcut değil, ancak Laney bunu https: //community.aiim adresinde yeniden yayınladı. .org/blogs/doug-laney/2012/08/25/deja-vvvu-gartners -original-volume-velocity-variety-definition-of-big-data. IBM daha sonra akılda kalıcı çerçeveyi seçti ve doğruluk için dördüncü bir V ekledi. Ancak Laney daha sonra bir blog gönderisinde (artık çevrimiçi olarak erişilemiyor) doğruluğun bedenle aslında ­ters orantılı olduğuna ve bu nedenle eklenmesinin Gartner tanımını bozduğuna dikkat çekti. Doğruluk gibi ölçütlerin bir "büyüklük" ölçüsü olmadığını ve bu nedenle büyük veriyi birden çok kez tanımlayan bir özellik olmadığını açıkladı. Doug Laney, "Batman on Big Data", Garter Blog Network, 13 Kasım 2013.

6.   Gil Press, “12 Büyük Veri Tanımı: Sizinki Ne?” Forbes , ­3 Eylül 2014.

7.   Bakınız https://obamawhitehouse.archives.gov/blog/2016/05/23/admini stration-issues-strategic-plan-big-data-research-and-development.

8.   Jonathan Stuart Ward ve Adam Barker, "Undefined by Data: A Survey of Big Data Definitions", School of Computer Science, University ­of Saint Andrews, BK. arXiv'de yayınlandı, 2013.

9.   Viktor Mayer-Schonberger ve Kenneth Cukier, Büyük Veri: ­Nasıl Yaşadığımızı , Çalıştığımızı ve Düşündüğümüzü Dönüştürecek Bir Devrim (New York: Eamon Dolan / Mariner Books, 2014), 6.

10.    Chris Anderson, "The End of Theory: The Data Deluge Makes the Sci ­entific Method Eskimiş," Wired , 23 Haziran 2008.

11.   Gil Press, “Büyük Veri Öldü. Yaşasın Büyük Veri Yapay Zekası,” Forbes, 1 Temmuz 2019.

12.    Bunların tümü, evet için “1” ve hayır için “0” içeren bir veri yapısında (vektör olarak adlandırılır) evet/hayır sorularına verilen yanıtlar olarak kaydedilebilir. Dolayısıyla {1,1,1,0,0,1}, bir öğrenme algoritmasına ("öğrenci") girdi olarak sağlanacak bir özellik vektörüdür. Farklı öğrenciler için girdiyi yapılandırmanın birçok yolu vardır - bu basit bir örnektir. Detaylar genel fikir kadar önemli değil.

13.    James Somers, "Makinelere Düşünmeyi Öğreten Adam", The Atlantic, Kasım 2013.

Chapter 12:      Abdüktif Çıkarım

1.    Charles Sanders Peirce, “Tahmin Etme,” The Hound and Horn, 2:267-282, 271.

2.     age, 271.

3.     age, 272.

4.     age, 277.

5.    Gary Marcus ve Ernest Davis, Rebooting AI: Building Artificial Intelli ­gence We Can Trust (New York: Pantheon, 2019), 145-146.

6.     age, 146.

7.    Charles Sanders Peirce'in Toplu Makaleleri, ed. Charles Hartshorne ve Paul Weiss, cilt. 1-6, (Cambridge, MA: Harvard University Press, 1931-5), 5.189.

8.    Charles Sanders Peirce. Charles Sanders Peirce Belgeleri. Houghton Kütüphanesi, Harvard Üniversitesi, ms 692.

9.    Melanie Mitchell, Yapay Zeka: Düşünen İnsanlar İçin Bir Kılavuz (New York: Farrar, Straus ve Giroux, 2019).

10.    age.

11.    Peirce Kağıtları, ms 692.

12.    Toplanan Bildiriler, 5.171.

13.   Kaçırma üzerine yapılan çalışmalar, 2010'larda, özellikle onu bir tür olasılıksal veya Bayesçi çıkarım olarak gösterme girişimleriyle, kısmi bir canlanma yaşadı. Yaklaşımlar, hem uzmanların hem de uzman olmayanların dikkatine değer, çünkü bunlar ­, günlük (ve bilimsel) düşüncedeki bir olayı veya gözlemi açıklayan bir tahmin veya hipotez olarak doğru bir şekilde bakıldığında, kaçırılmanın gerçek gizemini daha fazla takdir etmemize yardımcı oluyor. Bayesçi sistemler , bir yandan bilinen olası hipotezlerin yalnızca küçük bir alt kümesini (bazen iki kadar az) dikkate alan ve diğer yandan söz konusu örnek veya durum verildiğinde yüksek olasılığı olan çıkarımlar arayan her zaman basitleştirici varsayımlar yapar. Sistemler, olasılıksal akıl yürütmenin ilginç uzantıları ve keşifleri olsalar da ­, yine, yalnızca ad olarak kaçırmadırlar. Konuyla ilgili araştırma sonuçlarının iyi bir özeti için Ray Mooney'nin University of Texas at Austin'deki çalışmasına bakın, http://www.cs.utexas.edu/~ml/publications /area/65/abduction.

14.   Hector Levesque, Sağduyu, Turing Testi ve Gerçek Yapay Zeka Arayışı (Cambridge, MA: MIT Press, 2017).

15.  Hector Levesque, "En İyi Davranışımız Üzerine", Yapay Zeka 212, no. 1 (2014): 27-35.

16.  Gerçekleri ve bilgileri ayıklamak için web'i tarayan büyük ölçekli projeler de hayal kırıklığı yarattı. Tom Mitchell'in NELL'i (Never ­Ending Language Learner) hakkında tartışma için bkz. Marcus ve Davis, Rebooting AI, 150-151.

17.  John Haugeland, 1979'da çıkarım için bilgiyi düzenleme sorununa işaret etmişti: "'maymun' kavramı, yalnızca belirli türden primatlar olduklarını [taksonomik bilgi] değil, aynı zamanda nerede oldukları gibi pek çok 'tesadüfi' bilgiyi de içerecektir. nereden geldiklerini, ne yediklerini, organ öğütücülerin onları nasıl kullandığını ve hayvanat bahçesindeki büyük olanın izleyicilere ne fırlattığını.” Haugeland'ın sorusu, ansiklopedik bilgilerin hiçbiri alakalı olmadığında maymun kavramıyla ilgili "tipik" bilgilerin nasıl kullanılacağıydı. Bugün hala soru bu. Bkz. John Haugeland, "Understand ­Natural Language", The Journal of Philosophy 76, no. 11 (1979): 623.

18.  RC Schank, Conceptual Information Processing (New York: Elsevier, 1975).

19.   Peirce, “Tahmin Etme,” 269.

20.    age, 269.

21.   age, 269.

22.   Daniel Kahneman, Düşünme, Hızlı ve Yavaş (New York: Farrar, Straus ve Giroux, 2013).

23.  Umberto Eco ve Thomas A. Sebeok, editörler, Dupin, Holmes, Peirce: The Sign of Three (Bloomington, IN: Indiana University Press, 1983).

Chapter 13:     Çıkarım ve Dil I

1.  Andrew Griffin, "Turing Testi Çığır Açan Süper Bilgisayar Be ­, Bizi İnsan Olduğuna İnandıran İlk Geliyor", bağımsız olarak, 8 Haziran 2014.

2.   Bkz. “Bilgisayar Yapay Zekası 'World First'te Turing Testini Geçti”, BBC News , 9 Haziran 2014. Time'daki makale artık alınamaz. Ayrıca bkz. Pranav Dixit, "Bir Bilgisayar Programı İlk Kez Turing Testini Geçti", Gizmodo , 8 Haziran 2014.

3.   Gary Marcus, "Turing Testinden Sonra Ne Gelir?" New Yorker, 9 Haziran 2014.

4.   Adam Mann, “That Computer Really Got a F on the Turing Test,” Wired, 9 Haziran 2014.

5.   kullanıcıdan gelen sorular veya komutlar olduğu doBabble() veya doComplain() gibi bazı kodlar ekleyerek Siri veya Cortana'yı Loebner Ödülü için bir rakibe dönüştürebiliriz . O zaman sistem, örneğin her zaman ­neden diye sorarak, insan isteklerini güvenilir bir şekilde yerine getirirdi. ve sonra istenmeyen bir misafir gibi sürekli buna cevap vermekten veya başka bir şey hakkında konuşmayı talep etmekten ne kadar yorulduğunu anlatmak. O zaman Siri , tamamen işe yaramaz hale gelirken genel olarak dikkatli ve zeki görünebilir . ­Siri, tam olarak insan dilini gerçekten anladığı ölçüde daha kullanışlı hale gelecektir; bu, Turing testinin çözümsüz kalmasının ve belki de yapay zeka bilim adamlarının onu reddetmeye bu kadar hevesli olmasının bir nedenidir.

6.   Stuart Russell, İnsan Uyumlu: Yapay Zeka ve Kontrol Problemi (New York: Viking, 2019).

7.   Martin Ford, Architects of Intelligence: Onu İnşa Eden İnsanlardan Yapay Zeka Hakkındaki Gerçek (Birmingham, BK: Packt Publishing, 2018).

8.   Gary Marcus ve Ernest Davis, Rebooting AI: Building Artificial Intel ­ligence We Can Trust (New York: Pantheon Books, 2019), 6-7.

9.   Bkz. Gary Marcus, “Bilgisayarım Neden Beni Anlayamıyor?” New Yorker, 14 Ağustos 2013. Levesque'in makalesinde atıfta bulunulan makalesi burada bulunabilir: https://www.cs.toronto.edu/~hector/Papers/ijcai-13-paper.pdf. Marcus'un Levesque'in çalışmasına yaklaşımı anlayışlı ve okumaya değer. Levesque'nin IJCAI için yazdığı makale, uzman olmayan kişiler tarafından da okunabilir ve dilin anlaşılması için büyük veri sorununun harika bir özetini sunar.

10.  Son sponsorlu Winograd Şema Yarışması, 2016 yılında Uluslararası Yapay Zeka Ortak Konferansları tarafından düzenlendi . Kazanan sistem, veri setinde yüzde 58,3 doğruluk elde etti ve bu, ­ödül için hak kazanmadı . Sponsor, o zamandan beri 25.000 $ 'lık ödülü üstlenmeyi reddetti.

11.  Hector Levesque, "On Our Best Behavior" konuşması, Uluslararası Yapay Zeka Ortak Konferansı, Pekin, Çin, 2013, 4, https://www .cs.toronto.edu/~hector/Papers/ijcai-13-paper. pdf.

Chapter 14:      Çıkarım ve Dil II

1.   Pragmatik analiz, Big Tech'in Kutsal Kâse'sidir. Google, Mazatlan'a ucuz uçak bileti veya belki ucuz şemsiyeler için reklamları bir web sayfasında "Burada hava harika!!!" yazan bir yorumun yanına yerleştirmeyi çok ister. Aralık ayında Seattle'da yapıldı (muhtemelen yağmur yağıyor ve soğuk). Ne yazık ki, SPF 50 güneş kremi ve şemsiye içecekleri daha olası reklam yerleşimleridir. Alay tespiti insanlar için (çoğunlukla) kolaydır, ancak mevcut AI alanının dışındadır.

2.   AM Turing, "Computing Machinery and Intelligence", Mind 59, no. 236 (Ekim 1950): 446.

3.   üzerinde edatın bağlamsal kullanımını vurgular . Bir gemide olabiliriz ama sadece bir arabada . Aynı şekilde çoğu kişi tren yerine treni tercih ediyor . Uçaklar aldatıcıdır: Ben uçaktayım ama sen uçaktasın. Ancak bu örnekler, metinlerde bulunan tipik ifadeler oldukları için kullanım kalıplarıyla yakalanabilir. Sorunlu vakalar tipik olmayan kullanımı içerir: Evdeyim - kelimenin tam anlamıyla, ­evin (üstünde) oturuyorum, bu bir seçme örneğidir, bağlam içinde anlaşıldıkları için bazı şeyleri dışarıda bırakırım.

4.    Bir Google Brain ekibi, WSC-273 olarak bilinen zor bir Winograd şema testinde yüzde 61,5 doğruluk elde etti. Son teknoloji sistem, rastgele tahmine göre doğrulukta yüzde 10'luk bir artışı başardı, bu da ­meşru bir ilerlemeden ziyade veri yöntemleri kullanılarak yapılan testin çözümsüzlüğünü daha fazla gösteriyor. Ekibin eğitim ve test için kullanılan veri kümesine erişimi olduğunu ve soruları kapsamlı bir şekilde analiz ettiğini de unutmayın;

5.   Paul Grice, Studies in the Way of Words (Cambridge, MA: Harvard University Press, 1991).

6.        Levesque, "En İyi Davranışımız Üzerine", 1.

7.   Winograd şema testlerinde, AI sistemleri tarafından kaçırılan bazı sorular benzer görünme eğilimindedir ve isabetlerden (doğru cevaplar) daha zor değildir. Bu senaryo da kötü çünkü o zaman hataları açıklamamızın hiçbir yolu yok ­. Bir sistem, tüm niyetlerini ve amaçlarını tam olarak doğru buldukları gibi arayan bazı soruları yanlış alır, tek fark, rastgele seçmek gibi, sistemin ilk etapta hiçbir şey anlamamasıdır. Neden yanlış gittiklerini (veya doğru olduklarını) anlamadığımız modern yapay zeka sistemlerine güvenme konusundaki son tartışmalar, veri odaklı yapay zeka daha yaygın hale geldikçe giderek daha rahatsız edici hale gelen bu sorunun özüne iniyor.

8.   DA Ferrucci, “'This is Watson'a Giriş”, IBM Araştırma ­ve Geliştirme Dergisi 56, no. 3.4 (3 Nisan 2012), 1:1-1:15.

9.     Bkz. Marvin Minsky, The Society of Mind (New York: Simon & Schuster, 1988).

10.    J. Fan, A. Kalyanpur, DC Gondek, DA Ferrucci, "Belgelerden Otomatik Bilgi Çıkarma", IBM Journal of Research and De ­velopment 56, no. 3.4 (2012), 5:1-5:10.

11.     Marcus ve Davis, Yapay Zekayı Yeniden Başlatma, 14.

12.     Marcus ve Davis, dil anlayışı ve yapay zeka ile ilgili bölümlerinde olgusal ve "sağduyu" soruları arasındaki farkları tartışıyorlar. Örneğin bkz. age, 74-76.

13.     Aynı eserde alıntılanmıştır, 68.

14.     age, 69.

15.     age, 27.

16.    Charles Sanders Peirce, "Mantıksal Makineler", American Journal of Psy ­chol ogy 1, no. 1 (1887): 165.

17.     age, 168.

18.     age, 169.

19.     age, 169.

Chapter 15:      Mitler ve Kahramanlar

1.    Jaron Lanier, Bir Aygıt Değilsiniz : Bir Manifesto (New York: Alfred A. Knopf, 2010), 2.

2.     Clay Shirky, Cognitive Surplus: Connected Age'de Yaratıcılık ve Cömertlik (New York: Penguin Press, 2010).

3.     Yochai Benkler, Ağların Zenginliği: Sosyal Üretim Piyasaları ve Özgürlüğü Nasıl Dönüştürür (New Haven, CT: Yale University Press, 2007).

4.        age, Epigraf.

5.    Clay Shirky, İşte Herkes Geliyor: Örgütlenmeden Örgütlenmenin Gücü (New York: Penguin Books, 2009).

6.        Lanier, Sen Bir Alet Değilsin, 1.

7.        James Surowiecki, Kalabalığın Bilgeliği (New York: Çapa, 2005).

Chapter 16:       Yapay Zeka Mitolojisi Nörobilimi İstila Ediyor

1.    Sean Hill, “Simulating the Brain”, Gary Marcus ve Jeremy Freeman, ed., The Future of the Brain: Essays by the World's Leading Neuro ­bilimcileri (Princeton, NJ: Princeton University Press, 2015), 123-124.

2.    Bkz. Henry Markram, “Seven Challenges for Neuroscience” Functional Neurology 28 (2013): 145-151.

3.   Ed Yong, “The Human Brain Project Hasn't Lived Lidled Promise”, The Atlantic, 22 Temmuz 2019.

4.    Kavli Vakfı, “BRAIN Girişimi: Veri Tufanından Kurtulmak,” https://www.kavlifoundation.org/science-spotlights/brain-initiative -surviving-data-deluge#.XgVezkdKhdg.

5.   Amye Kenall, "Building the Brain: The Human Brain Project and the New Supercomputer", BioMed Central, 8 Temmuz 2014, http://blogs.biomedcentral .com/bmcblog/2014/07/08/building-the-brain- insan beyni projesi -ve-yeni-süper bilgisayar/.

6.    Rebecca Golden, "Mind Boggling Numbers: Genetic Expression in the Human Brain", Science 2.0 , 15 Nisan 2013, https://www.science20.com /rebecca_goldin/mindboggling_numbers_genetic_expression_human _brain-109345.

7.   Yves Fregnac ve Gilles Laurent, "Neuroscience: Brain Is the Human Brain Project'te Nerede?" , Nature, 3 Eylül 2014.

8.         age.

9.         age.

10.   Eric Kandel, Henry Markram, Paul M. Matthews, Rafael Yuste ve Christof Koch, "Neuroscience Thinks Big (and Collaboratively)," Nature Reviews Neuroscience 14, no. 9 (2013): 659.

11.  Lee Gomes, “Machine-Learning Maestro Michael Jordan on the ­Delusions of Big Data and Other Huge Engineering Efforts,” IEEE Spectrum, 20 Ekim 2014, https://spectrum.ieee.org/robotics/artificial-intelligence /machinelearning- maestro-michael-jordan-büyük-veri-ve-diğer-dev-mühendislik-çabaları-sanrıları üzerine.

12.       age.

13.  Gary Marcus ve Ernest Davis, “Eight (No Nine!) Problems with Big Data,” New York Times, 6 Nisan 2014.

14.   Nate Silver, Sinyal ve Gürültü: Neden Pek Çok Tahmin Başarısız - Ama Bazıları Başarısız (New York: Penguin Books, 2015).

Chapter 17:     Neokortikal İnsan Zekası Teorileri

1.   Jeff Hawkins, İstihbarat Üzerine: Beynin Yeni Bir Anlayışı Gerçekten Akıllı Makinelerin Yaratılmasına Nasıl Yol Açacak (New York: St. Martin ­'s Griffin, 2005).

2.    Ray Kurzweil, Nasıl Bir Zihin Yaratılır: İnsan Düşüncesinin Sırrı Ortaya ­Çıktı (New York: Penguin Books, 2013), 35.

3.    Gary Marcus, “Ray Kurzweil's Dubious New Theory of Mind,” New Yorker, 15 Kasım 2012.

4.        age.

5.    Genel bir açıklama için bkz. Ferris Jabr, “Memory May Be Build with Standard Building Blocks,” New Scientist, 17 Mart 2011.

6.     Henry Markram ve Rodrigo Perin, "Innate Neural Assemblies for Lego Memory", Frontiers in Neural Circuits 5 (2011): 6.

7.    Eric Kandel, Henry Markram, Paul M. Matthews, Rafael Yuste ve Christof Koch, "Neuroscience Thinks Big (and Collaboratively)," Nature Reviews Neuroscience 14, no. 9 (2013): 659.

8.    Yves Fregnac ve Gilles Laurent, "Nörobilim: Beyin İnsan Beyni Projesinde Nerede?" Doğa Haberleri 513, hayır. 7516 (2014): 27

9.     “İnsan Beyni Projesi ile ilgili olarak Avrupa Komisyonu'na açık mesaj.” Bakınız https://neurofuture.eu/.

10.    Eliza Shapiro, "Obama İnsan Beynini Haritalandırmak İçin BRAIN Girişimi Başlattı" Daily Beast, 3 Nisan 2013. 11 Temmuz 2017'de güncellendi.

11.   Bakınız Stefan Thiel, " Why the Human Brain Project Wet Wrong—and How to Fix It," Scientific American , 1 Ekim 2015. Ayrıca Ed Yong, "The Human Brain Project Hasn't Liveled Life Promise", The Atlantic, 22 Temmuz 2019.

12.      Yong, "İnsan Beyni Projesi Hayata Geçmedi."

Chapter 18:       Bilimin Sonu mu?

1.    Eric Weinstein'ın "The Portal" podcast'inde röportaj yaptığı Peter Thiel, Bölüm #001: "An Era of Stagnation & Universal Institutional Failure", 19 Temmuz 2019, https://www.youtube.com/watch?v=nM9f0W2KD5s&t= 1216'lar.

2.        age.

3.    Norbert Wiener, Buluş: Fikirlerin Bakımı ve Beslenmesi (Cambridge, MA: MIT Press, 1994).

4.        age, 89.

5.        age, 96.

6.        age, 96.

7.        age, 87.

8.        age, 87.

9.    John Horgan, Bilimin Sonu: Bilimsel Çağın Alacakaranlığında Bilginin Sınırlarıyla Yüzleşmek (Boston: Addison-Wesley, 1996).

TEŞEKKÜRLER

Bu kitabın oluşturulmasında hem resmi hem de gayri resmi olarak birçok kişi yer aldı . ­Öncelikle, şu anda Hackett Publishing'te çalışan Jeff Dean'e, HUP'ta editörlük yaparken projeye erken desteği için Harvard University Press ekibi adına teşekkür etmek istiyorum. Jeff, kalemi kağıda dökmeye yönelik ilk denemelerimde faydalı bir şekilde düşüncelerimi geri itti ve ilk tümsekleri aşmak için gösterdiği sabır için minnettarım. James Brandt, Joy de Menil ve Julia Kirby, Jeff'in kaldığı yerden devam ettiler ve metni kendi yöntemleriyle daha iyi hale getirdiler. Graciela Galup ­zarif tasarıma katkıda bulundu ve Colleen Lanick ile tanıtım ekibi, haberi yaymak için yaratıcı yollar buldu .

Diğer birçok kişi, kitabın sonuna kadar anlaşılmasına yardımcı olmada önemli ve çok takdir edilen roller oynadı. Taslağın yazımının bir bölümünde denizaşırı ülkelerdeydim ve Amerika'daki olaylar zaman zaman işleri zorlaştırdı. Ortaklaşa kurulan bir girişime cömert bir anlaşma yoluyla finansman sağladığı ve ayrıca bahsetmek için çok çeşitli şekillerde teşvik ettiği için Bernard Fickser'a minnettarım . ­Todd Hughes, taslağın ilk okuyucularından biriydi ve çok yararlı önerilerde bulundu. Şu anda Folio Literary Agency'de çalışan menajerim Roger Freet, kitap yazma ve yayımlamanın birçok yönünü bana yorulmak bilmeden anlattı ve teklif üzerindeki yardımı çok takdir edildi.

Anna Samsonova'ya da Avrupa'da geçirdiğim o uzun günlerde bana katlandığı ve Rusça öğrenmenin bitmez tükenmez karmaşasını atlatmama yardım ettiği ve düşüncelerimi İngilizce formüle etmeye çalıştığı için teşekkür etmek istiyorum. Seattle'daki (kim olduğunuzu biliyorsunuz) paha biçilmez katkılarda bulunan ve hala kabul edilmeyen yazı arkadaşlarıma da teşekkür etmek istiyorum.

Son olarak, büyük bilim yazarı ve pek çok kişiye ilham kaynağı olan arkadaşım John Horgan'a, kitaba olan erken inancınız ve tutarlı cesaretlendirmeniz için çok teşekkür ederim.

DİZİN

kaçırma, 160-168; Bayesian, 293—294ni3; yaratıcı, 187-189; hızlı düşünmede, 185, 283n1; çıkarım olarak, 4; Peirce, 25-26, 94, 171-172

tümevarımlı çıkarım, 99-102, 162-163, 189, 190

abdüktif mantık programlama (ALP), 168, 176, 283n1

doğruluk, doygunluk sorunu, 155-156

AdaptWatson ( Jeopardy! oyun sistemi), 223-225

sonucu teyit eden, 170 uçak kazası, 113-114

İskender, Hugh, 40, 284n4

AlexNet (bilgisayar programı), 165

hizalama sorunu, 279

AlphaGo (bilgisayar programı), 125, 161-162

özgecilik, 82

Amazon (firma), 144

anafora, 210

Anderson, Chris, 145, 243

anormallik tespiti, 150-151

entelektüel karşıtı politikalar, 270, 271

Arendt, Hannah, 64-66 Aristoteles, 106, 107 yapay genel zeka (AGI), 38, 273; yetersiz girişimler, 218; strateji değil tümevarım, 173; Kurzweil, 79; yatırım eksikliği, 272; mitolojisi, 275; tahminleri, 71-72 yapay zeka (AI): büyük veri, 145; satranç oynayan bilgisayarların sayısı ­, 219; Dartmouth Konferansı ­, 50-51; Veri Beyin projeleri ve, 251-252; kesintiye ­dayalı, 110, 115; dönem tarihi, 285n11; insan zekasına karşı, 1-2; endüktif, 273-274; tehlikede ! bilgisayar oynamak (Watson), 221-226; Kurzweil'in tahmini, 47-48; 278-279; kullanılan mantık , 106-107; darlık tuzağı, 226-231; doğal dil anlayışı, 51-55; Peirce, 233; tahmin, 69-73 ­; Açık, 23; Winograd şema testi, 195-203

Babbage, Charles, 232-233

Pastırma, Francis, 288n4

Patlama, George, 159

Bar-Hillel, Yehoshua, 53-54, 57, 201-202

Barker, Adem, 143

Bayes çıkarımı, 293-294n13

davranışçılık (edimsel koşullanma), 69

Bengio, Yoshua, 70, 72, 75, 127

Benkler, Yochai, 241-243

Berlin, Yeşaya, 69

Berners-Lee, Tim, 179

önyargılar (makine öğrenme sistemlerinde), 28-29

büyük veri, 55-56, 142-146, 243; AI'da, 269;

nörobilimde, 249, 251-257, 261-262;

Winograd şema sorularını çözmek için, 200;

 beyin teorilerinde, 266-267

Büyük Bilim, 267

Bombalar (proto-bilgisayarlar), 21-22, 24

Bostrom, Nick, 2, 34-35, 57, 81

Bowman, David, 260-261 beyin haritalama problemi, 249-250

İlerleme Yoluyla Beyin Araştırması

Yenilikçi Nöroteknolojiler (BRAIN) girişimi, 248, 249, 253, 256, 268

Brent, Yusuf, 95, 289n5

Brin, Sergey, 56

kırılganlık sorunu, 126-129, 165

Bush, George HW, 248

Byron, Lord, 238

Çapek, Karel, 82-83

nedensellik: korelasyon ve, 259;

Hume, 120; merdiveni, 130-131, 174; alaka sorunları,

112 satranç: Deep Blue for, 219; bilgisayarlar tarafından oynanan,

 284n1; Turing'in ilgisi, 19-20

Cholet, François, 27

Chomsky, Noam, 52, 95 sınıflandırması, denetimli öğrenmede,

134

biliş, Lego teorisi, 266 renk, 79, 289n16

sağduyu, 2, 131-132, 177; betik yaklaşımı, 181-182; Winograd şema testi, 196-203

hesaplama bilgisi, 178-182 bilgisayarlar: satranç oynayan, 19-20,

284n1; en erken, 232-233; teknoloji tarihinde, 44; makine öğrenimi, 133; çeviri, 52-55; Turing makineleri olarak, 16, 17; Turing'in makalesi, 10-11

Comte, Ağustos, 63-66

Condorcet (Marie Jean Antoine Nicolas Caritat, Marquis de Condorcet), 288n4

varsayımsal çıkarım, 163 bilinç, 77-80, 277 konuşma, Grice's Maxims for,

215-216

Kopernik, Nicolaus, 104

karşı olgular, 174

yaratıcı kaçırma, 187-189

Cukier, Kenneth, 143, 144, 257 Çekoslovakya, 60-61

Dartmouth Konferansı (Yapay Zeka Üzerine Dartmouth Yaz Araştırma Projesi; 1956), 50-51 veri: büyük veri, 142-146; gözlemler

dönüştü, 291n12

Veri Beyin projeleri, 251-254, 261, 266, 268, 269

veri bilimi, 144

Davis, Ernest, 131, 183; kırılganlık sorunu, 126; korelasyon ve nedensellik üzerine, 259; DeepMind'da, 127, 161-162; Google Duplex'te, 227; AI sınırlamaları üzerine, 75-76; makinede okuduğunu anlama üzerine, 195; Kitaplarla Konuş üzerine, 228

kesinti, 106-110, 171-172; uzantıları ­, 167, 175; bilgi eksik, 110-112; alaka düzeyi, 112-115

tümdengelimli çıkarım, 189

Deep Blue (satranç bilgisayarı), 219 derin öğrenme, 125, 127, 134, 135; çıkmaz sokak olarak, 275; için kandırma sistemleri, 165-166; Watson tarafından kullanılmaz, 231

DeepMind (bilgisayar programı), 127, 141, 161-162

DeepQA ( Jeopardy! bilgisayarı), 222-224

derin pekiştirmeli öğrenme, 125, 127

Dostoyevski, Fyodor, 64

Dreyfus, Hubert, 48, 74

deprem tahmini, 260-261

Eko, Umberto, 186

Edison, Thomas, 45

Einstein, Albert, 239, 276

ELIZA (bilgisayar programı), 58-59, 192-193, 229

e-posta, spam filtreleme, 134-135 ampirik kısıtlama, 146-149, 173

Enigma (kod yapma makinesi), 21, 23-24

varlık tanıma, 137

Etzioni, Ören, 129, 143-144

Eugene Goostman (bilgisayar programı), 191-195, 214-216 evrimsel teknoloji, 41-42

Ex Machina (film, Garland), 61, 78-80, 82, 84, 277

Facebook, 147, 229, 243

gerçekler, dönüştürülen veriler, 291n12

Farecast (firma), 143-144

özellik çıkarma, 146-147

Ferrucci, Dave, 222, 226

filtre baloncukları, 151

finansal piyasalar, 124

Fisch, Max H., 96-97

Fodor, Jerry, 53

biçimsel sistemler, 284n6

Frankenstein (hayali karakter), 238

Frankenstein: Veya Modern Pro ­metheus (roman, Shelly), 238, 280 frekans varsayımı, 150-154, 173 Tam Otomatik Yüksek Kaliteli

Makine Çevirisi, 48 işlev, 139

Galileo, 160

kumarbaz yanılgısı, 122 oyun, 125-126

Gardner, Dan, 69-70

Garland, Alex, 79, 80, 289n16

Gates, Bill, 75

genel zeka, 2, 31, 36; kaçırma ­, 4; makinelerde, 38;

olmaması, 27; olası teorisi, 271

Genel Problem Çözücü (AI programı), 51

Almanya: Enigma makinesi, 23-24; İkinci Dünya Savaşı sırasında, 20-21

Git (oyun), 125, 131, 161-162

Gödel, Kurt, 11, 22, 239; eksiklik ­teoremleri, 12-15; Açılış, 16-18

Altın, Rebecca, 250

Güzel, IJ "Jack" 3, 19; bilgisayarlarda, 46; zeka üzerine, 33-35, 37, 43, 62; Von Neumann, 36 yaşında

Google (firma), 220, 244

Google Brain (bilgisayar programı), 296n4

Google Dubleks, 227

Google Fotoğraflar, 278-279

Kitaplarla Google Talk, 228

Google Translate (bilgisayar programı), 56, 201, 202

Goostman, Eugene (bilgisayar programı), 191-195, 214-216

gravimetri, 157

yerçekimi, 187

Büyük Britanya, II. Dünya Savaşı sırasında kod kırma, 20-24

Grice, Paul, 215

Grice'nin Özdeyişleri, 215-216 tahminler, 160, 183-184

Haugeland, John, 179, 294n17

Hawking, Stephen, 75

Hawkins, Jeff, 263, 264

Heisenberg, Werner, 72

hiyerarşik gizli Markov modelleri, 265-266

Higgs, Peter, 254-255

Higgs bozonu, 254-255, 257-258

Hilbert, David, 14-16

Tepe, Sean, 245, 246, 248

Hinton, Geoff, 75

kovan zihin: çevrimiçi işbirliği olarak, 241-242; Star Trek'in kökenleri , 240; gibi bilim işbirlikleri, 245

Homo faber (yapıcı adam), 65, 66 Horgan, John, 275-278

Hottois, Gilbert, 287n1

İnsan Beyni Projesi, 245, 247-254, 256, 267-268

İnsan Genom Projesi, 252 insan zekası: yapay zekaya ­karşı, 1-2; davranışçılık, 69; Veri Beyin projeleri ve, 251; İyi, 33-35; sonsuz miktarda bilgi, 54; neokortikal teoriler, 263-268; problem çözme, 23; makine zekasıyla birleşen tekillik, 47-48; sosyal zeka, 26-28; Stuart Russell'ın tanımı, 77, 83; düşünme, 184-186; Açılış, 23, 27-31, 30-32

insan dili Bkz. doğal dil insan doğası, 242, 243

insanlar: Arendt, 64-65; Skinner açık, 68

Hume, David, 119-122, 125 komik haber, 152-154 avcı, 164 hipotez, 186

IBM: Deep Blue, 219; Tehlike! bilgisayar (Watson), 220-226, 230-231

ImageNet yarışmaları, 135, 145, 155, 165, 243

görüntü tanıma, 278-279 taklit oyun, 9, 51

Taklit Oyun (film), 21 eksiklik teoremi, 12-15 tümevarım, 115-121, 171-172; kaçırma ve, 161; yapay zekada, 273-274; yaşam durumlarında, 125-126; 278-279; makine öğrenimi olarak, 133; yapay genel zeka için strateji değil, 173; problemleri, 122-124; düzenlilik, 126-129 tümevarımsal çıkarım, 189 çıkarım, 4, 104, 280-281, 283n1;

tümevarımlı çıkarım, 99-102, 162-163; yapay zekada 103; türlerinin birleştirilmesi, 218-219, 231; olarak tahmin ediyor, 160; bilim tarihinde, 103-105; bilgi tabanlarında, 181, 182; monoton, 167; monoton olmayan, 167-168; güven olarak, 129-130; türleri, 171

çıkarım motorları, 182-184 bilgi teknolojisi, 249, 252 yaratıcılık: Gödel, 12; Açılıyor, 11, 17, 18

yenilik: düşüş, 269; üzerinde kontrolde finansman, 270

içgörü, 103 içgüdü, 184 zeka. Bkz. insan zekası istihbarat patlamaları, 37-41 internet, Web 2.0, 240-242 inatçılık, 175

sezgi: kod kırma makinelerinde, 22; Gödel, 12; insan zekasına karşı, 27; Turing, 11, 16-18, 31-32; delillerin ağırlığı, 24-25

James, Henry, 289-290n5 James, William, 96-98

Japonya, 54-55

Jennings, Ken, 220

Tehlike! (televizyon yarışma programı), 220-226, 230-231

Jevons, William, 232

Jevons Mantıksal Piyano, 232

Ürdün, Michael, 258

Kahneman, Daniel, 38, 184-185 Kandel, Eric R., 253, 255-256, 268

Kasparov, Garry, 219

Kavli Vakfı, 249, 255

Keilis-Borok, Vladimir, 260

Kelly, Kevin, 42, 241-242,

285-286n7

Kenall, Amye, 249

Kepler, Johannes, 104

mutfak, 61-63

bilgi: hesaplamalı, 178-182; tümdengelimli muhakeme ve, 110-112; sonsuz miktarda, 54; tümevarım problemi olarak, 124; çıkarımda kullanılır­

son, 102

bilgiye dayalı sistemler, 107 bilgi tabanı, 178-181 bilgi temsili ve

muhakeme (KR&R), 175-176

Koç, Christof, 253, 256

Kundera, Milano, 60-61

Kurzweil, Ray, 35, 38, 84, 274; bilinç üzerine, 78-79; AI'nın geleceği üzerine, 70, 74; hiyerarşik örüntü tanıma teorisi, 264-266;

insan zekası üzerine, 251; Hızlanan Getiriler Kanunu, 42, 47-48, 67; tekillik üzerine, 46; süper zeki makinelerde, 2; Turing testinde, 193-194 nedensellik merdiveni, 130, 174

Lakatos, İmre, 48

Laney, Doug, 292n5

dil. Bkz. doğal dil

Lanier, Jaron, 84, 244, 277; insan zekasını teşvik etme üzerine, 239; kişilik aşınması üzerine, 270, 272-273

Büyük Hadron Çarpıştırıcısı (LHC), 254-255

Hızlanan Getiriler Kanunu (LOAR), 42, 47-48

öğrenme: tanımı, 133; insanlar tarafından, 141

LeCun, Yann, 75

Lego'nun biliş teorisi, 266

Lenat, Doug, 74

Levesque, Hector, 76, 216; yapay genel zeka girişimleri üzerine, 175, 186; Goostman'da, 192; zamir anlam ayrımı sorunu, 203; Winograd şemaları üzerine, 195-196, 198-201

Loebner Ödülü, 59

Mantık Teorisyeni (AI programı), 51, 110

Yüzüklerin Efendisi (romanlar; Tolkien), 229-230

Lovelace, Ada, 233

makine öğrenimi: tanımı, 133; ampirik kısıtlama, 146-149; frekans varsayımı, 150-154; model doygunluğu, 155-156; dar AI olarak, 141-142; simülasyon olarak, 138-140; denetimli öğrenme, 137

makine öğrenimi sistemleri, 28-30

MacIntyre, Alasdair, 70-71

Marcus, Gary, 131, 183; kırılganlık sorunu, 126; korelasyon ve nedensellik üzerine, 259; DeepMind'da, 127, 161-162; Google Duplex'te, 227; Goostman'da, 192; Kurzweil'in örüntü tanıma teorisi üzerine, 265; AI sınırlamaları üzerine, 75-76; makinede okuduğunu anlama üzerine, 195; süper zeki bilgisayarlarda, 81; Kitaplarla Konuş üzerine, 228

Markram, Henry, 252-254, 273; AI'da, 251; teoriye karşı büyük veri üzerine, 256-258, 267, 268; kovan zihninde, 245-246, 276; İnsan Beyni Projesi kapsamında, 247-250; Lego'nun biliş teorisi, 266; nörobilimde teori üzerine, 261, 262

Marquand, Alan, 232

matematik: fonksiyonlar, 139;

Gödel'in eksiklik teoremleri, 12-14; Hilbert'in meydan okuması, 14-16; Sezgi ve yaratıcılığı öne çıkarma, 11

Mathews, Paul M., 256, 267

Mayer-Schonberger, Viktor, 143, 144, 257

McCarthy, John, 50, 107, 285n11 Microsoft Tay (sohbet robotu), 229

Değirmen, John Stuart, 242, 243

Miller, George, 50 minimax tekniği, 284n1 Minsky, Marvin, 50, 52, 222 Mitchell, Melanie, 165 Mitchell, Tom, 133 model doygunluk, 155-156 modus ponens, 108-109, 168-169 monologlar, Turing testi varyasyonu kullanılarak , 194-195, 212-214 monotonik çıkarım, 167 Mountcastle, Vernon, 264 Mumford, Lewis, 95, 98 "Morg Sokağı Cinayetleri"

(öykü, Poe), 89-94

Misk, Elon, 1, 75, 97

darlık, 226-231

Nash, John, 50

Ulusal Kaynak Konseyi (NRC), 53, 54

doğal dil: AI'yı anlama, 228-229; bilgisayarların anlaşılması ­, 48, 51-55; bağlamı, 204; 56-57'nin çevirisiyle ilgili devam eden sorunlar; konuşma odaklı sanal yardım uygulamalarında ­, 227; Turing testi, 50, 194; anlayışı ve anlamı, 205-214; Winograd şema testi, 195-203

neokortikal teoriler: Hawkins, 263; Kurzweil'in, 264-266

sinir ağları, 75

nörobilim, 246; işbirliği, 245-247; Data Brain projeleri, 251-254; İnsan Beyni Projesi, 247-251; neokortikal teoriler, 263-268; teoriye karşı büyük veri, 255-256, 261-262

Newell, Alan, 51, 110

haberler, 152-154

Newton, İshak, 187, 276

Nietzsche, Friedrich Wilhelm, 63 bedava öğle yemeği yok teoremi, 29 gürültülü kanal yaklaşımı, 56 monoton olmayan çıkarım, 167-168 normallik varsayımı, 150-151

Norvig, Peter, 77, 155, 156

nükleer silahlar, 45

Numenta (firma), 263

gözlem: genelleme, 117-118; indüksiyonda, 115; sınırlamaları, 121; veriye dönüştürme, 291n12

edimsel koşullanma (davranışçılık), 69

imla, 205

fazla uydurma (istatistiksel), 258-261

Sayfa, Larry, 56

İnci, Yahudiye, 130-131, 174, 291n13

Peirce, Charles Sanders, 95-99;

kaçırılma üzerine, 25-26, 160-168;

tümevarımsal çıkarımda, 99-102, 190; tahmin üzerine, 94, 183-184; Açık

"Mantıksal Makineler", 232-233, 273; saatin çalınması, 157-160, 289-290n5; çıkarım türleri üzerine, 171-172, 181; delil ağırlığına göre, 24

Peirce, Juliette, 98

Perin, Rodrigo, 266

PIQUANT (AI sistemi), 221-224

Poe, Edgar Allan, 89-94, 99, 102

Polanyi, Michael, 73-74

Popper, Karl, 70-71, 122

pozitivizm, 63

pragmatik (doğal için bağlam

dil), 204, 206, 214-215, 296n1 tahminler, 69-73; için kullanılan büyük veri,

143-144; indüksiyon, 116, 124;

sınırlar, 130

tahmine dayalı nörobilim, 254 olasılıksal çıkarım, erken dönem için 102 programlama dili

bilgisayarlar, 284n2

Prometheus (efsanevi), 237-238 zamir anlam ayrımı sorunu, 203

önermeler mantığı, 169-170

rastgele örnekleme, 118

okuduğunu anlama, 195

gerçek zamanlı çıkarım, 101

akıl yürütme, 176

din, 63

kaynak açıklama çerçevesi

(RDF), 179

RUR (çal, Çapak), 83

Russell, Bertrand, 110, 121-124, 173

Russell, Stuart, 42-43, 84; insan yaratıcılığı üzerine, 69, 274; zeka üzerine, 76-78; dil ve sağduyu üzerine, 131; süper bilgisayarların limitlerinde ­, 39; AI'da mantık üzerine, 107; AI'daki problemler üzerine, 279; süper zeki bilgisayarlarda, 80-83; Turing testinde, 193; iki kişilik oyunlarda, 125

Rutherford, Ernest, 43

Salmon, Wesley, 112 örnekleme, 117-118 iğneleme, 151-152, 296n1 doyma sorunu, 155-156

Schank, Roger, 181-182

bilim, 63-64, 66-67; Bertrand

Russell, 122; teoriye karşı büyük veri, 145, 243, 255-259; Büyük

İlim, 267; işbirliği, 245-247; tamlığı, 275-277;

Data Brain projeleri, 251-254; çıkarım olarak tahmin etme, 160; tarihçesinde çıkarım, 103-105; megabuck etkisi, 269-271 komut dosyası, 181-182

seçim problemi, 182-184,

186-190

sürücüsüz arabalar, 127, 278; doyma

sorun, 155-156

kendine referans, matematikte, 13

anlamsal rol etiketleme, 138-139

anlambilim, 206

Semantik Web, 179

yarı denetimli öğrenme, 133-134

sıralı sınıflandırma, 136-137

sıralı öğrenme, 136-137

cinsel istek, 79

Shannon, Claude, 19, 50, 56

Shaw, Cliff, 110

Shelley, Meryem, 50, 238, 280

Shelley, Percy, 238, 280

Sherlock Holmes (hayali karakter), 90, 121, 161, 291n13

Shirky, Kil, 241, 242

Gümüş, Nate, 259-261

Simon, Herbert, 50-52, 110

simülasyonlar, makine öğrenimi olarak, 138-140

Tekillik, 45-46, 50; Kurzweil, 47-48; kavramın kökenleri, 286n3

Skinner, BF, 68, 69

sosyal değişim, 44-45

sosyal zeka, 26-28

sosyal ağlar, 220

sağlamlık, 109

Sovyetler Birliği, 60-61

spam, sınıflandırma, 134-135

konuşma güdümlü sanal yardım

uygulamalar, 227

süper bilgisayarlar, 249, 250, 276-277

süper zeka, 39; Bostrom

34, 81; Kelly açık, 285-286n7;

Kurzweil'in tahmini, 47;

Russell açık, 80-82

denetimli öğrenme, 133, 134; metin

olarak sınıflandırma, 136-137

Surowiecki, James, 244

sürü zekası, 245-247

Swift, Jonathan, 232, 272, 273

kıyaslar, 106-107, 171

sözdizimi, 206-207

Szilard, Aslan, 43

Taleb, Nassim Nicholas, 129-130

Kitaplarla Konuş (Google), 228

Tay (Microsoft sohbet robotu), 229

teknoloji: değişiklik, 44-45;

evrimi, 41-42; mutfakta, 61-63; Hızlandırılmış İade Yasası, 47-48, 67; Web 2.0, 240-241

teknobilim, 63-67, 287n1

Tesla, Nikola, 97

Tetlock, Philip, 69

metin sınıflandırması, 135-137

Metin Alma Konferansları

yarışmalar, 221

teori: büyük veriye karşı, 145, 243; nörobilimde, 255-259, 261-262;

verilere fazla uydurma, 259-261

Thiel, Peter, 269, 275-276

düşünme, 184-186

zaman serisi tahmini, 137

Tolstoy, Aslan, 70

doğal dilin çevirisi, 48, 52-54, 201-202; ile devam eden ­sorunlar, 56-57; gürültülü kanal

yaklaşım, 56

Turing, Alan, 3, 9-10, 62, 192, 239, 245-247, 270; tarafından yapılan meydan okuma, 49, 51; satranç ilgisi, 19-20; sağduyu üzerine, 131; bilgisayarlarda düşünme, 102-103; matematiğin karar verilebilirliği üzerine, 15-16; Gödel üzerine, 16-18; insan zekası üzerine, 23;

insanlarda kara kutu olarak, 68; makinelerde inisiyatif üzerine, 233-234; zeka üzerine, 27-32; makine öğreniminde, 156; daktilolarda, 187-188; dili anlamak üzerine , ­207-208; İkinci Dünya Savaşı kodu kırılıyor, 21-22, 24, 26

Turing makineleri, 16, 17

Turing testi, 18, 57-59, 105; Goostman'ın

, 191-194; Kurzweil, 79; monolog varyasyonu, 194-195, 212-214; muhalefet, 77; Turing'in icadı, 9-10, 49, 51; Varyasyon olarak Winograd şemaları, 195-203

daktilolar, 187-188

Ulam, Stanislaw, 44-46 ultraintelligence , 33, 62

Varolmanın Dayanılmaz Hafifliği

(roman, Kundera), 60

Yapılandırılmamış Bilgi Yönetimi ­Mimarisi (UIMA), 224 denetimsiz öğrenme, 133, 137

Venn, John, 232

Vinge, Vernor, 46, 286n3

Voltaire, 277

Von Neumann, John, 36-37, 44, 239; tarafından teorize edilen teknolojik tekillik, 45-46, 65-66

Walmart Labs (firma), 144, 210

Ward, Jonathan Stuart, 143

Watson (AI sistemi), 28, 221-226, 230-231

Webb, Charles Henry, 232

Weiss, Paul, 95

Weizenbaum, Yusuf, 58

Welchman, Gordon, 24

Whitehead, Alfred Kuzey, 110

Viyana, Norbert, 269-275

Vikipedi, 225, 226, 241

Winograd, Terry, 58, 195, 201

Winograd şemaları, 195-203, 210-212, 216-218, 296n4, 296n7

2. Dünya Savaşı, kod kırma sırasında, 20-26

Dünya Çapında Ağ, 55-56; Web 2.0, 240-242

Yong, Ed, 247

Zeus (efsanevi), 237-238

 

Not: Bazen Büyük Dosyaları tarayıcı açmayabilir...İndirerek okumaya Çalışınız.

Benzer Yazılar

Yorumlar