Print Friendly and PDF

YENİ SEÇİMLERDE BİLİNÇALTI YÖNLENDİRMESİ….

 




“Seçmenleri Oy Kullanmadan Vazgeçirmek Üzerine Kurulu”



Çeviri: Cihan Ekmekçi
Gözden geçirme: Gizem Dumlu 

 

İnsanlar yapay zekayla ilgili korkularını dile getirdiğinde  genellikle kontrolden çıkmış insansı robotları hayal ederler.

 Terminatör gibi.

 Düşünmeye değer olsa da  uzak bir tehdit bu.

 Bazen de geçmişe özgü benzetmelerle  dijital gözetlenme kaygısı taşıyoruz.

 George Orwell'in ''1984'' adlı eseri  şu an yine en çok satanlar listesinde.

 Harika bir kitap  ama 21.yüzyıl için doğru distopya değil.

 En çok korkmamız gereken şey  yapay zekanın kendi başına bize ne yapacağı değil, güç sahibi insanların bizi kontrol ve manipüle etmek adına  yeni, bazen saklı, bazen de belirsiz ve beklenmeyen şekilde  bunu nasıl kullanacakları.

 Yakın gelecekteki bağımsızlığımızı  ve itibarımızı tehdit eden teknolojinin büyük kısmı  verilerimizi ve dikkatimizi toplayıp  reklamcı ve benzerlerine satan  şirketler tarafından geliştiriliyor:  Facebook, Google, Amazon, Alibaba, Tencent.

 Şimdi yapay zeka da onların işlerine katkıda bulunmaya başladı.

 Yapay zeka, internet reklamcılığından sonra gelen  yeni bir teknoloji gibi görünse de  durum farklı.

 Söz konusu olan, ilgili alanda yepyeni bir açılım.

 Tamamen farklı bir dünya  ve büyük potansiyeli var.

 Araştırma ve inceleme alanlarındaki kavrayışımızı hızlandırabilir.

 Ancak ünlü bir Hollywood filozofundan alıntı yapacak olursam, ''Muhteşem potansiyel muhteşem riskler barındırır.''  Dijital hayatlarımızdaki temel bir gerçeğe bakalım.

 İnternet reklamları.

Öyle değil mi? Onları yok sayıyoruz.

 Basit ve dikkat dağıtıcı görünüyorlar.

 Okuduğumuz veya arattığımız bir konuyla ilgili reklamlar tarafından  internette takip edilme tecrübesini hepimiz yaşadık.

 Hani bir çift botun fiyatına bakarsınız  ve sonra bütün hafta girdiğiniz her sayfada botlar sizi takip eder.

 Karşı koyamayıp satın aldıktan sonra bile sizi takip ederler.

 Bu basit ve ucuz manipülasyonu adeta kanıksamış durumdayız.

 Göz devirip kendi kendimize ''İşe yaramıyor bunlar.'' diyoruz.

 Ne var ki internet ortamında, dijital teknolojiler reklamlardan ibaret değil.

 Bunu anlamak için fiziksel bir dünya örneği ele alalım.

 Süpermarketlerde kasaların hemen yanında  çocukların göz hizasında şekerleme ve sakız olur.

 İlgili düzenek, aileler tam marketten çıkmak üzereyken  çocuklarının bunları ısrarla istemeleri için tasarlanmıştır.

 Bu bir ikna mimarisi.

 Pek hoş değil ama işe yarıyor.

 Bu yüzden de her süpermarkette görüyoruz.

 Fiziksel dünyada, bu ikna mimarileri sınırlıdır, çünkü kasiyerin yanına koyabileceğiniz şeylerin bir sınırı var, değil mi?  Şeker ve sakız herkes için aynı, her ne kadar yanında  sızlanan çocuklar olan aileler için işe yarasa da.

 Fiziksel dünyada bu sınırlarla yaşıyoruz.

 Ancak dijital dünyada, ikna mimarisi, milyarlara erişecek şekilde inşa edilebilir  ve bu reklamlar aynı zamanda  bireyleri teker teker hedef alarak anlayabilir, zayıf noktalarını tespit ederek  onlara kişisel seviyede nüfuz edebilir  hatta herkesin kişisel telefon ekranına bile gönderilebilir, böylelikle bizler görmeyiz.

 Ve bu oldukça farklı.

 Bu, yapay zekanın yapabileceği temel şeylerden yalnızca biri.

 Bir örnek verelim.

 Diyelim ki Las Vegas'a uçak bileti satmak istiyorsunuz.

 Eski düzende, deneyim ve öngörülerinize dayanarak  hedef bir demografik kesim belirlersiniz.

 Reklam yapmayı da deneyebilirsiniz, 25-35 yaş aralığındaki erkekler  veya kredi kartı limiti yüksek olan insanlar  veya emekli çiftler, değil mi?  Geçmişte böyle yapardınız.

 Şimdi büyük veri ve makine öğrenimi ile  işler artık böyle yürümüyor.

 Bunu anlamak için  Facebook'un sizinle ilgili sahip olduğu tüm verileri düşünün:  Yazdığınız her durum bildirisi, her bir Messenger sohbeti, oturum açtığınız her konum, yüklediğiniz tüm fotoğraflar.

 Bir şey yazmaya başlayıp sonra vazgeçip silerseniz  Facebook bu silinenleri de saklayıp analiz ediyor.

 Çevrimdışı verilerinizle sizi gitgide eşleştirmeye çalışıyor.

 Ayrıca veri acentalarından da çok fazla veri satın alıyor.

 Finansal kayıtlarınızdan tarama geçmişinize kadar  her şey bu veri setinde olabilir.

 ABD'de bu tür veriler rutin olarak toplanıyor, karşılaştırılıyor ve satılıyor.

 Avrupa'da daha sıkı kurallar var.

 Yani aslında olan şey, tüm bu veriler harmanlanarak bu makine öğrenimli algoritmalar -  onlara bu yüzden öğrenen algoritmalar deniyor -  daha önce Las Vegas'a gitmek için uçak bileti alan insanların  özelliklerini nasıl ayrıştıracaklarını öğreniyorlar.

 Var olan verilerden bunu öğrendiklerinde  bunu yeni insanlara uygulamayı da öğreniyorlar.

 Böylece, yeni bir bireyle karşılaştıklarında  onun Vegas'a bilet alıp almayacağını sınıflandırabiliyorlar.

 Olsun diye düşünüyorsunuz, alt tarafı Vegas'a uçak bileti teklifi.

 Görmezden gelebilirim.

 Ancak asıl sorun bu değil.

 Asıl sorun şu ki  biz bu karmaşık algoritmaların nasıl çalıştığını artık anlamıyoruz.

 Bu sınıflandırmayı nasıl yaptıklarını artık anlamıyoruz.

 Dev matematik matrisleri, binlerce sıra ve sütun, belki de milyonlarcası...

 Ve tüm verilere sahip olsalar bile, ne programcılar, ne de bunları inceleyen biri  bunun tam olarak nasıl işlediğini anlayabiliyor.

 Tıpkı size beynimden bir kesit göstersem  ne düşündüğümü anlayamayacağınız gibi.

 Sanki artık programlama yapmıyoruz, tam olarak anlayamadığımız bir bilinç geliştiriyoruz.

 Üstelik bu mekanizmalar yalnızca müthiş miktarda veri varsa çalışıyor, dolayısı ile hepimizin üzerinde kapsamlı bir gözetleme de teşvik ediliyor ki  makine öğrenimli algoritmalar işini yapabilsin.

 Bu yüzden Facebook, hakkınızda toplayabildiği tüm veriyi istiyor.

 Algoritmalar daha iyi çalışıyor.

 Şu Vegas örneğinin biraz üstüne gidelim.

 Ya anlamadığımız bu sistem  mani döneme geçmek üzere olan bipolar insanlara  Vegas bileti satmanın daha kolay olduğunu anlarsa?  Bu insanlar çok para harcamaya ve dürtüsel kumarbazlığa meyilli oluyor.

 Bunu yapabilirler ve söz konusu kriteri seçtiklerinden haberiniz bile olmaz.

 Bu örneği bir grup bilgisayar bilimcisine verdim, sonra içlerinden biri yanıma geldi.

 Rahatsız olmuştu ve şöyle dedi: ''İşte bu yüzden yayınlayamadım.''  ''Neyi yayınlayamadın?'' dedim.

 Mani halinin ön belirtilerinin klinik semptomlardan önce  sosyal medya paylaşımlarından anlaşılabilirliğini incelemişti  ve işe yaramıştı, gerçekten işe yaramıştı  ama nasıl işe yaradığı veya ne tür bilgi topladığını o da bilmiyordu.

 Yayınlamadığı zaman problem çözülmüyor  çünkü zaten bu teknolojiyi geliştiren  halihazırda şirketler var.

 Bunun pek çoğu satışa hazır.

 Artık bunu yapmak çok zor değil.

 Tek bir video izlemek için YouTube'a girip  bir saat sonra 27 video izlediğiniz oluyor mu hiç?  YouTube'ta sağ tarafta  ''Sıradaki'' diye bir sütun var  ve otomatik yeni video başlatıyor.

 Bu bir algoritma, ilgilendiğinizi ve kendi başınıza bulamayacağınızı düşündüğü  videoları seçiyor.

 Editör bir insan değil.

 Algoritmaların işi bu.

 Sizin ve sizin gibi insanların izlediklerini derliyor, ilgi alanlarınızın bunlar olduğu  ve daha fazlasını görmek istediğiniz çıkarımını yapıyor, daha fazlasını gösteriyor.

 İyi, faydalı bir özelllik gibi görünüyor  ama öyle değil.

 2016'da o zaman aday olan Trump'ın toplantılarına  destekçilerini araştırmak üzere akademisyen olarak katıldım.

 İşim gereği sosyal akımları inceliyorum, yani araştırıyordum da.

 Sonra toplantılarından biri hakkında yazmak istedim, o yüzden de toplantıyı YouTube'da birkaç kez izledim.

 YouTube, beyaz ırk üstünlüğü ile ilgili  radikallik seviyesi giderek artan videolar önermeye  ve onları otomatik oynatmaya başladı.

 Eğer bir tane izlediysem  YouTube daha marjinal bir tanesini buldu  ve onu da otomatik yürüttü.

 Hillary Clinton veya Bernie Sanders ile ilgili içerikler izlerseniz  YouTube komplocu solcuları öneriyor ve oynatıyor, ondan sonra da gittikçe kötüleşiyor.

 Bunun yalnızca siyaset olduğunu düşünebilirsiniz ama değil.

 Bu siyasetle ilgili değil.

 Bu sadece insan davranışını anlayan algoritma.

 Bir kez YouTube'ta vejeteryanlıkla ilgili bir video izledim  ve YouTube vegan olmak hakkında bir video önerip oynattı.

 YouTube için hiçbir zaman yeteri kadar cüretkar olamıyoruz.

 (Gülüşmeler)  Peki aslında ne oluyor?, YouTube algoritması patentli, yine de şöyle olduğunu düşünüyorum.

 Algoritma şunu fark etti ki  insanları etkilemek için  onlara daha cüretkar videolar sunarsan, muhtemelen sitede daha fazla kalacak, o anlaşılmaz yola girerek ardı ardına video izleyecek, bu esnada Google da reklam sunacak.

 Hazır, işin etik kısmını önemseyen kimse de yokken, bu siteler, Yahudiler aleyhine paylaşım yapan  ve onların parazit olduğunu düşünen  radikal Yahudi düşmanları özelinde profilleme yapabiliyor  ve reklamlarla onları hedeflemenizi sağlıyor.

 Ayrıca algoritmaları genişleterek, sizin için benzer kitleler bulup  profillerinde bu tip, Yahudi karşıtı, aykırı içerik bulunmayan  fakat algoritmanın bu tür mesajlara karşı  duyarlı olabileceğini belirlediği kişileri yakalıyor  ve onları da reklamlarla hedeflemenize izin veriyor.

 İnanılmaz bir örnek gibi gelebilir  ama bu gerçek.

 ProPublica bunu soruşturdu  ve Facebook'ta bunu gerçekten yapabileceğinizi ortaya koydu, Facebook ilgili kitleyi genişletmede  öneriler sunarak yardımcı oldu.

 BuzzFeed bunu Google için denedi ve hızla anladılar ki  bunu Google'da da yapabiliyoruz.

 Pahalı bile değildi.

 ProPublica habercisi bu kategoriyi hedeflemek için  30 dolar kadar harcadı.

 GEÇEN SENE TRUMP'IN SOSYAL MEDYA YETKİLİSİ KARGAŞAYI SONA ERDİRMEK İÇİN  GİZLİ FACEBOOK PAYLAŞIMLARI KULLANDIKLARINI AÇIKLADI, İNSANLARI İKNA İÇİN DEĞİL, HİÇ OY VERMEMELERİNİ SAĞLAMAK İÇİN.

 Bunu yapmak için özel olarak hedef belirlediler, mesela önemli Philadelphia kentlerindeki Afro Amerikalı erkekler, hatta tam olarak ne dediğini okuyacağım.

 Alıntı yapıyorum.

 ''Görülebilirliğini siyasi kampanyanın kontrol ettiği  böylece sadece görmesini istediğimiz insanların görebileceği  herkese açık olmayan paylaşımlar.

 Bunu biz tasarladık.

 Bu, onun söz konusu insanları  kazanma yetisini önemli ölçüde etkileyecektir.''  Bu gizli paylaşımlarda ne var peki?  Hiçbir fikrimiz yok.

 Facebook bize açıklamıyor.

 Facebook ayrıca algoritmik bir şekilde arkadaşlarınızın paylaşımlarını  ve takip ettiğiniz sayfaları düzenliyor.

 Size her şeyi kronolojik olarak göstermiyor.

 Algoritmanın, sitede daha fazla kalmanızı sağlayacak şekilde  kurduğu düzeni uyguluyor.

 Bunun pek çok sonucu var.

 Facebook'ta birinin takipçiniz olduğunu düşünüyor olabiliirsiniz.

 Oysa algoritma sizin paylaşımınızı asla onlara göstermiyor olabilir.

 Algoritma kimini öne çıkarırken kimini ortadan kaldırıyor.

 Deneyler gösteriyor ki  algoritmanın sizin için seçtikleri duygularınızı etkileyebilir.

 Bununla da bitmiyor.

 Siyasi davranışınızı da etkiliyor.

 2010 yılı orta dönem seçimlerinde, Facebook, ABD'deki 61 milyon insan üstünde  daha sonra açıklanan bir deney yaptı.

 Bir grup insana ''Bugün seçim günü'' yazısı gösterildi, bu daha basit olandı, diğer bir gruba ise aynı şey, küçük bir farkla gösterildi:  ''Oy verdim'' butonuna tıklayan arkadaşlarının  küçük fotoğraflarının bulunduğu versiyon.

 Bu kadar basit bir nüans.

 Değişen tek şey fotoğraflardı  ve seçmen kütüğünce de onaylandığı üzere, bu araştırmaya istinaden  yalnızca bir kez gösterilen bu paylaşım  o seçimde  340.000 ek seçmen olarak sonuçlandı.

 Şans eseri mi? Hayır.

 Çünkü 2012'de aynı deneyi tekrarladılar.

 O zaman, yalnızca bir kez gösterilen sivil mesaj  270.000 ek seçmen olarak geri döndü.

 Hatırlatayım, 2016 ABD başkanlık seçimleri  yaklaşık 100.000 oy farkıyla belirlendi.

 Yani Facebook kolaylıkla politikanız hakkında çıkarım yapabiliyor, siz bunu sitede hiç açıklamamış olsanız bile.

 Bu algoritmalar bunu oldukça kolay başarabiliyorlar.

 Peki ya bu güce sahip bir platform  bunu adaylardan birinin destekçilerini arttırmak için kullanırsa?  Bundan haberimiz olur mu?  Masum gibi görünen bir yerden başladık:  Bizi takip eden reklamlardan...

 şimdiyse çok farklı bir yerdeyiz.

 Hem halk hem de vatandaş olarak  artık aynı bilgileri görüp görmediğimizi  ve başkalarının ne gördüğünü bilmiyoruz  ve ortak bir bilgi tabanı olmadan, adım adım, toplumsal tartışma imkansız hale geliyor, biz bunun sadece başlangıç aşamasındayız.

 Bu algoritmalar kolaylıkla  insanların etnik özelliklerini, dini ve siyasi görüşlerini, kişilik özelliklerini, zekasını, mutluluğunu, madde kullanıp kullanmadığını, ailesinin durumunu, yaş ve cinsiyetini  sadece Facebook beğenilerinden tahmin edebilir.

 Bu algoritmalar, yüzleri kısmen gizlenmiş olsa da  protestocuların kimliğini belirleyebilir.

 Hatta bu algoritmalar insanların cinsel yönelimini  sadece tanışma uygulamalarındaki profil fotoğraflarından anlayabilir.

 Tabii bunlar olasılıksal tahminler, %100 doğru olamazlar  ama insanlar sadece bazı sonuçlar yanlış olduğu için  bu teknolojileri kullanma arzularına direnmeyecekler, bu da beraberinde bir yığın farklı sorun getirecek.

 Devletlerin vatandaşları hakkında sahip oldukları  müthiş miktarda veriyle neler yapabileceklerini düşünün.

 Çin, insanları tespit etmek ve tutuklamak için  yüz tanıma teknolojisini kullanıyor bile.

 İşin acı kısmı şu ki biz, gözetlemeye dayalı bu otoriter altyapıyı  yalnızca insanların reklamlara tıklaması için geliştiriyoruz.

 Bu Orwell'in otoriter rejimi olmayacak.

 Bu ''1984'' değil.

 Eğer otoriterlik bizi paniğe sürüklemek için aleni korku kullanacaksa  hepimiz korkacağız ama bundan haberimiz olacak, nefret duyacağız ve karşı koyacağız.

 Ancak mevki sahibi insanlar bu algoritmaları  bizi sessizce izlemek, yargılamak ve dürtmek, sorun çıkaranlar ve asileri önceden tahmin etmek ve kimliğini belirlemek, üzerimizde ikna mimarisi oluşturmak  ve tek tek bireyleri manipüle etmek için  kişisel zayıf ve hassas noktalarımızdan yararlanarak kullanırlarsa, dahası bunu ölçeklendirip  özel ekranlarımızdan  çevremizdeki insanların  ne gördüklerini bilemeyeceğimiz bir şekilde yaparlarsa, bu otoriter rejim bizi bir örümcek ağı gibi kıstırır  ve biz yakalandığımızı bile anlamayız.

 Facebook'un piyasa değeri  yarım trilyon dolara yaklaşıyor.

 Bunun sebebi ikna mimarisi olarak harika çalışıyor olması.

 Ancak bu mimari yapı  ayakkabı satıyor olsanız da aynı  siyaset satıyor olsanız da.

 Algoritmalar farkı anlamıyor.

 Reklamlara karşı bizi sabırlı kılmak için  üzerimize salınan bu algoritmalar, aynı zamanda siyasi, kişisel ve sosyal bilgi akışımızı da düzenliyor  ve bu değişmek zorunda.

 Beni yanlış anlamayın, bize büyük fayda sağladıkları için dijital platformları kullanıyoruz.

 Facebook ile dünyanın her yerinden aile ve arkadaşlarımla görüşebiliyorum.

 Sosyal medyanın, sosyal hareketler için ne kadar önemli olduğu hakkında yazdım.

 Bu teknolojilerin dünyadaki sansür uygulamalarını aşmak için  nasıl kullanılabileceği üzerine çalıştım.

 Facebook ve Google yöneticilerinin  kasten ve kötü niyetli bir şekilde  ülkeyi ve dünyayı kutuplaştırmaya  veya radikalliği teşvik etmeye çalıştığını söylemiyorum.

 Bu insanların yayınladığı  pek çok iyi niyetli yazı okudum.

 Ancak bu konuda niyet veya ifadelerin bir önemi yok.

 Sorun, inşa ettikleri bu yapı ve iş modelleri.

 Sorunun kökeninde bu var.

 Ya Facebook yarım trilyon değerinde dev bir yapı  ve reklamlar bu sitede çalışmıyor, ikna mimarisi olarak faaliyet göstermiyor  ya da etki gücü dehşet verici.

 İkisinden biri.

 Google için de aynısı söz konusu.

 Peki ne yapabiliriz?  Bunun değişmesi gerekiyor.

 Basit bir formül öneremem  çünkü dijital teknolojimizin çalışma şeklini  yeniden inşa etmemiz gerekiyor.

 Teknolojinin geliştirilme biçiminden, ekonomik ve diğer alanlardaki teşviklerin  sisteme taşınmasına kadar her şey...

 Tescilli algoritmalar tarafından yaratılan şeffaflık noksanlığı, makine öğrenimi anlaşılmazlığının yapısal zorluğu  ve hakkımızda toplanan tüm bu rastgele veri sorunlarıyla yüzleşmek  ve bunların üstesinden gelmeye çalışmak zorundayız.

 Bize büyük bir görev düşüyor.

 Teknolojimizi, yaratıcılığımızı  ve evet, siyasetimizi  harekete geçirmemiz lazım, böylece kişisel amaçlarımızda bizi destekleyen  fakat insani değerlere de bağlı  yapay zekayı inşa edebiliriz.

 Bunun kolay olmayacağını biliyorum.

 Bu terimlerin ne anlama geldiği konusunda bile kolayca anlaşamayabiliriz.

 Ancak bu kadar çok faaliyet konusunda  sürekli ihtiyaç duyduğumuz bu sistemlerin çalışma şeklini ciddiye alırsak, bu konuşmayı ertelemek için hiçbir sebep göremiyorum.

 Bu yapılar, bizim işleyişimizi düzenliyor  ve ne yapıp ne yapamayacağımızı kontrol ediyor.

 Reklamla finanse edilen bu platformların çoğu  ücretsiz olmakla övünüyorlar.

 Bu bağlamda, bunun anlamı şu: Satılmakta olan ürün biziz.

 Veri ve dikkatimizin  en yüksek ücreti veren otoriter veya demagoga satılmadığı  bir dijital ekonomiye ihtiyacımız var.

 (Alkışlar)  Şu Hollywood sözüne geri dönmek gerekirse, yapay zeka ve dijital teknolojinin müthiş potansiyelinin  çiçek açmasını elbette istiyoruz  fakat bunun olması için bu müthiş tehditle yüzleşmemiz lazım, gözlerimiz tamamen açık ve şimdi.

 Teşekkür ederim.

 (Alkışlar) 


Zeynep Tüfekçi

Etnik köken        Türk

Vatandaşlık         ABD

Eğitim   İstanbul Üniversitesi

Boğaziçi Üniversitesi

Austin Teksas Üniversitesi

Zeynep Tüfekçi, teknolojinin siyaset ve toplum üzerine etkileri hakkında çalışmalar yapan Türk sosyal bilimci ve yazar..

Nisan 2016'da doçent oldu. Kuzey Karolina Üniversitesi, Chapel Hill'in Enformasyon ve Kütüphane Bilimi Bölümü'nde öğretim üyeliği yapıyor.[1] "Big Data ve Demokrasi ile Sivil Topluma Yönelik Algoritma Tehdidi" başlıklı çalışmasıyla 2015 yılında ilk kez verilen Andrew Carnegie Araştırma Bursu'nu kazanan isimlerden biri oldu.[2].

Zeynep Tüfekçi aynı zamanda Harvard Üniversitesi'nde danışman öğretim üyeliği ve Princeton Üniversitesi'nde de araştırmacı olarak görev yapmaktadır.[1].

Tüfekçi'nin araştırmaları teknoloji ile toplumun kesişme noktalarına odaklanıyor. Toplumsal hareketler ve sosyal medyanın ilişkisi, özel hayat ve elektronik izleme ve sosyal etkileşim alanlarında akademik çalışmalar yapıyor.[3].

Tüfekçi, The New York Times gazetesine aylık köşe yazıları yazıyor.[4][5].

 

Biyografi

Tüfekçi, lisans derecesini İstanbul Üniversitesi Sosyoloji bölümünde aldı. Ayrıca Boğaziçi Üniversitesi'nde Bilgisayar Mühendisliği bölümünde eğitim gördü.[3] Akademik kariyerinden önce bilgisayar programcısı olarak çalıştı. Yüksek lisans ve doktorasını ise Austin Teksas Üniversitesi'nde yaptı..

Akademik çalışmaları

Twitter and Tear Gas: The Power and Fragility of Networked Protest (Twitter ve Biber Gazı: Bağlantılı Protestoların Gücü ve Kırılganlığı) adlı kitabı Yale University Press tarafından 2017 yılında yayımlandı.[6] Tüfekçi, bu kitapta Mısır ve Türkiye'de yaptığı saha çalışmalarına dayanarak, 21. yüzyıldaki toplumsal hareketlerin dinamiklerini, güçlü ve zayıf yanlarını inceliyor..

Kullanıcıları izleyen, yargılayan ve onaylayan algoritmalarla ilgili bir sonraki kitabı ise Penguin Random House tarafından yayımlanacak.[7].

Ayrıca, 2014, 2015 ve 2016 yıllarında düzenlenen TED Konferansları'nda yapay zeka ve çevrimiçi toplumsal değişim konularında konuşmalar yaptı.


Not: Bazen Büyük Dosyaları tarayıcı açmayabilir...İndirerek okumaya Çalışınız.

Benzer Yazılar

Yorumlar