Sıklıkla tekillik olarak anılan teknolojik tekillik, teknolojik ilerlemenin insan kontrolünün ötesinde hızlanarak insan uygarlığında öngörülemeyen ve derin dönüşümlere yol açtığı varsayımsal bir gelecek olayını temsil eder. Bu hipotezin en yaygın olarak kabul edilen formülasyonu olan I. J. Good'un 1965'teki istihbarat patlaması modeli, kendini geliştirme yeteneğine sahip akıllı bir ajanın, ardışık iyileştirmelerden oluşan olumlu bir geri bildirim döngüsü başlatabileceğini öne sürüyor. Bu süreç, giderek artan bir hızla giderek daha zeki nesiller üretecek ve bu, insanın bilişsel yeteneklerini çok aşan güçlü bir süper zeka üreten patlayıcı bir zeka dalgasıyla sonuçlanacaktır.
Genellikle basitçe tekillik olarak adlandırılan teknolojik tekillik, teknolojik büyümenin insan kontrolünün ötesinde hızlanarak insan uygarlığında öngörülemeyen değişikliklere yol açtığı varsayımsal bir olaydır. Tekillik hipotezinin en popüler versiyonu olan I. J. Good'un 1965'teki zeka patlaması modeline göre, yükseltilebilir bir akıllı ajan eninde sonunda birbirini izleyen kişisel gelişim döngülerinden oluşan pozitif bir geri besleme döngüsüne girebilir; giderek daha hızlı bir şekilde daha zeki nesiller ortaya çıkacak ve bu da insan zekasını çok aşan güçlü bir süper zekayla sonuçlanan patlayıcı bir zeka artışına neden olacak.
Yapay süper zekanın insan neslinin tükenmesine neden olma potansiyeline ilişkin endişeler, aralarında Stephen Hawking'in de bulunduğu çeşitli bilim insanları tarafından dile getirildi. Sonuç olarak, teknolojik tekilliğin insan türüne hem potansiyel faydalarını hem de zararlarını kapsayan sonuçları, yoğun akademik ve kamusal söylemin konusu olmuştur.
Bununla birlikte, teknolojik tekilliğin ve buna bağlı yapay zeka "patlamasının" akla yatkınlığı, aralarında Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier, Steven Pinker, Theodore Modis, Gordon Moore ve Roger Penrose'un da bulunduğu çok sayıda önde gelen teknoloji uzmanı ve akademisyen tarafından tartışılmaktadır. Tekilliğe karşı temel bir argüman, yapay zeka büyümesinin sürekli hızlanma yerine azalan getirilerle karşılaşma olasılığının daha yüksek olduğunu öne sürüyor. Bu görüşü destekleyen Stuart J. Russell ve Peter Norvig, teknolojik ilerlemenin tipik olarak bir S-eğrisi yörüngesini takip ettiğini gözlemliyor: Hızlı iyileşmenin ilk aşamasının ardından, tekilliğe doğru belirsiz bir hiperbolik artış yerine bir plato gelir.
Geçmiş
Modern bilgisayar biliminin atası olarak geniş çapta kabul edilen Alan Turing, teknolojik tekillikle ilgili çağdaş tartışmalar için temel bir çerçeve oluşturdu. 1950 tarihli ufuk açıcı makalesi "Bilgisayar Makineleri ve Zeka", bir makinenin prensipte bir insanınkinden ayırt edilemeyen veya ona eşdeğer akıllı davranışlar sergileyebileceğini teorileştirdi. Bununla birlikte, insan seviyesinde veya daha yüksek görevleri yerine getirebilen makinelerin geliştirilmesi, teknolojik bir tekilliği gerektirmez ve IBM'in Deep Blue süper bilgisayarının 1996'daki bir satranç maçında büyük usta Garry Kasparov'a karşı kazandığı zaferde örneklendiği gibi, bunların varlığı doğası gereği böyle bir olayın olasılığını ima etmez.
Macar-Amerikalı matematikçi John von Neumann, teknolojik ilerleme bağlamında bir "tekillik"i tartışan ilk kişi olarak kabul edilmektedir. Stanislaw Ulam, 1958'de von Neumann ile "teknolojinin hızlanan ilerlemesi ve insan yaşamındaki değişimlere odaklanan, ırkın tarihinde, bildiğimiz şekliyle insan ilişkilerinin ötesinde devam edemeyeceği bazı temel tekilliklere yaklaşıldığı görünümünü veren" daha önceki bir konuşmayı bildirdi. Sonraki akademisyenler bu bakış açısını yinelediler.
1965'te I. J. Good, insanüstü zekanın ortaya çıkmasının bir "zeka patlamasına" yol açabileceği hipotezini öne sürdü:
Ultra zeki bir makinenin, ne kadar zeki olursa olsun herhangi bir insanın tüm entelektüel faaliyetlerini çok geride bırakabilecek bir makine olarak tanımlanmasına izin verin. Makinelerin tasarımı bu entelektüel faaliyetlerden biri olduğundan, ultra zeki bir makine çok daha iyi makineler tasarlayabilir; o zaman tartışmasız bir 'zeka patlaması' yaşanacak ve insan zekası çok geride kalacaktı. Dolayısıyla ilk ultra zeki makine, insanın yapması gereken son icattır; yeter ki makine bize onu nasıl kontrol altında tutacağımızı söyleyecek kadar uysal olsun.
Vernor Vinge, ilk olarak 1983'te Omni dergisinde yayınlanan bir köşe yazısında hem kavramı hem de "tekillik" terimini önemli ölçüde popüler hale getirdi. Bu yazıda Vinge, insan zekasından üstün zekaların yaratılmasının, bazı açılardan "kara deliğin merkezindeki düğümlü uzay-zamana" benzer bir teknolojik ve sosyal dönüşümü tetikleyeceğini savundu. 1993 tarihli "Gelen Teknolojik Tekillik" adlı makalesinde bu fikri daha da detaylandırdı ve yeni oluşan süper zekanın sürekli olarak kendini geliştirip teknolojik olarak anlaşılmaz bir hızla ilerlemesi nedeniyle bu geçişin insanlık çağının sonunu işaretleyeceğini öne sürdü. Vinge, bu olayın 2005'ten önce mi yoksa 2030'dan sonra mı gerçekleşeceğine şaşırdığını ifade etti.
Ray Kurzweil'in 2005 tarihli, tekilliği 2045 yılına kadar tahmin eden The Singularity Is Near (Tekillik Yakın) adlı kitabı da bu kavramın yaygınlaşmasına önemli bir katkı sağladı.
Zeka patlaması
Çeşitli alanlardaki hızlı teknolojik gelişmelere rağmen, Paul R. Ehrlich'e göre insan beyninin temel zekası bin yıldır büyük ölçüde değişmeden kaldı ve bu da bir sınırlama getiriyor. Bununla birlikte, bilgi işlem ve diğer teknolojilerin artan yetenekleri, insan seviyelerini önemli ölçüde aşan zekaya sahip makineler inşa etme olasılığını ortaya koyuyor.
İster insan zekasının güçlendirilmesi ister yapay zeka yoluyla olsun, insanüstü zekanın ortaya çıkışının, teorik olarak insanın problem çözme ve buluş yapma kapasitesini büyük ölçüde aşacağı varsayılmaktadır. Bu nitelikteki bir yapay zekaya sıklıkla "tohum yapay zeka" adı verilir, çünkü yaratıcılarına eşdeğer veya onlardan daha üstün mühendislik yeterliliklerine sahip olması durumunda, kendi yazılımını ve donanımını bağımsız olarak geliştirebilir. Bu, giderek daha yetenekli makineler tasarlamayı mümkün kılacak ve yinelenen bir kişisel gelişim döngüsünü başlatacaktır. Böylesine hızlandırılmış, yinelenen bir süreç, derin niteliksel dönüşümlere yol açabilir ve potansiyel olarak yalnızca fizik yasalarının veya teorik hesaplamaların dayattığı sınırlara ulaşabilir. Spekülasyonlar, böyle bir yapay zekanın çok sayıda tekrarlamayla insanın bilişsel yeteneklerini önemli ölçüde aşacağını öne sürüyor.
Süper Zekanın Ortaya Çıkışı
Hiper zeka veya insanüstü zeka olarak da bilinen süper zeka, en zeki ve yetenekli insanlarınkini bile çok aşan bilişsel yetenekler sergileyen varsayımsal bir varlığı tanımlar. "Süper zeka" terimi aynı zamanda böyle bir ajanın spesifik tip veya zeka karakteristiğini de ifade edebilir. I. J. Good, Vernor Vinge ve Ray Kurzweil gibi önde gelen düşünürler, süper zekayı öncelikle teknolojik oluşumu yoluyla kavramlaştırıyor ve çağdaş insanların, tekillik sonrası dönemde insan varoluşunun doğasını tahmin etmede imkansız olmasa da önemli zorluklarla karşı karşıya olduğunu iddia ediyor.
İlgili bir kavram olan "hız süper zekası", insan zihnine benzer bilişsel işlevlerle ancak önemli ölçüde daha yüksek bir hızda çalışabilen bir yapay zekayı karakterize eder. Örneğin, insanlara kıyasla bilgi işlem hızının milyon kat artması, öznel bir yıllık deneyimin yalnızca 30 fiziksel saniyede gerçekleşeceği anlamına gelir. İşleme hızındaki bu kadar dramatik bir artış, teknolojik tekilliği teşvik edebilir veya ona önemli ölçüde katkıda bulunabilir.
Teknoloji tahmincileri ve araştırmacılar arasında insan zekasının zaman çizelgesi ve kesinliğinin aşılması konusunda anlaşmazlık devam ediyor. Bazıları, yapay zekadaki (AI) ilerlemelerin, insanın doğasında olan bilişsel kısıtlamaların üstesinden gelen genel akıl yürütme sistemlerine yol açabileceğini öne sürüyor. Tersine, diğerleri insanların ya doğal olarak evrimleşeceğini ya da önemli ölçüde gelişmiş zekaya ulaşmak için biyolojilerini doğrudan değiştireceğini iddia ediyor. Gelecekle ilgili birçok çalışma, bu olasılıkları birleştiren senaryoları araştırıyor; insanların bilgisayarlarla arayüz kurabileceğini veya bilinçlerini dijital platformlara yükleyebileceğini ve böylece önemli miktarda zeka artışı elde edebileceğini öne sürüyor. Robin Hanson'un 2016 tarihli yayını The Age of Em, insan beyninin tarandığı ve dijitalleştirildiği, bunun sonucunda "yüklemeler" veya insan bilincinin dijital tezahürleri ile sonuçlanan bir gelecek tasavvur ediyor. Öngörülen gelecekte, bu yüklemelerin yaygınlaşması süper akıllı yapay zekanın ortaya çıkışından önce veya onunla aynı zamana denk gelebilir.
Tipolojiler
AI Odaklı Olmayan Tekillik
Bazı yazarlar "tekillik" terimini daha geniş anlamda kullanıyor ve moleküler nanoteknoloji gibi yeni teknolojilerin tetiklediği her türlü derin toplumsal dönüşümü kapsıyor. Ancak Vinge ve diğer akademisyenler, süper zeka ortaya çıkmadıkça bu tür değişikliklerin gerçek bir tekillik oluşturmayacağını öne sürüyor.
Tahminler
Tekilliğin farkına varılması için çeşitli tarihler ileri sürülmüştür.
1965'te Good, 20. yüzyılda ultra akıllı bir makinenin inşa edilmesinin olası olduğunu teorileştirdi.
Moravec 1988'de süper bilgisayarların, teknolojik gelişmelerin devam etmesine bağlı olarak, 2010'dan önce insan düzeyinde yapay zeka için hesaplama kapasitesine sahip olacağını öngördü.
Vinge, 1993 yılında, insan yeteneklerini aşan zekaya 2005 ile 2030 yılları arasında ulaşılacağını öngörmüştü.
Kurzweil, 2005 yılında, insan düzeyindeki yapay zekanın 2029 civarında ortaya çıkacağını ve tekilliğin 2045 yılında ortaya çıkacağını tahmin etmişti. Bu tahminleri 2024 yılında The Singularity Is adlı çalışmasında yineledi. Daha yakın.
Moravec, 1998'de daha önceki öngörüsünü revize ederek 2040 yılına kadar insan seviyesinde yapay zeka ve 2050 yılına kadar insan yeteneklerini önemli ölçüde aşan zeka öngörüsünde bulundu.
Bostrom ve Müller tarafından 2012 ve 2013 yıllarında gerçekleştirilen yapay zeka araştırmacıları arasında yapılan dört gayri resmi anket, 2040 ile 2013 yılları arasında insan düzeyinde yapay zekanın gelişimi için ortalama %50'lik bir güven düzeyi gösterdi. 2050.
Önceki 15 yıldaki bilim insanları ve sektör uzmanlarıyla yapılan anketlerin sentezlendiği Eylül 2025 tarihli bir inceleme, teknolojik tekilliğin önemli ölçüde altında bir yetenek olan yapay genel zekanın (AGI) 2100 yılında ortaya çıkma ihtimalinin yüksek olduğu konusunda fikir birliğine işaret etti. Ancak, AIMultiple tarafından yapılan daha yeni bir analiz şunu belirtti: "Yapay zeka araştırmacıları üzerinde yapılan mevcut anketler, YGZ'yi 2040 civarında tahmin ediyor".
Mantıklılık
Birçok önde gelen teknoloji uzmanı ve akademisyen, teknolojik tekilliğin uygulanabilirliği konusunda şüphelerini dile getiriyor. Bunlar arasında Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier, Steven Pinker, Theodore Modis ve kavramı desteklemek için sıklıkla kendi adını taşıyan kanuna başvurulan Gordon Moore yer alıyor.
İnsanüstü veya insanüstü bilişsel yetenekleri geliştirmek için önerilen metodolojiler genellikle iki ana kategoriye ayrılır: insan zekasının güçlendirilmesi ve yapay zekanın yaratılması. İnsan zekasını artırmaya yönelik spekülatif yaklaşımlar arasında biyomühendislik, genetik mühendisliği, nootropik ilaçlar, yapay zeka asistanları, doğrudan beyin-bilgisayar arayüzleri ve zihin yükleme yer alıyor.
Robin Hanson, insan zekasını geliştirmeye yönelik kolayca elde edilebilir yöntemler tükendiğinde, sonraki iyileştirmelerin giderek daha zorlu hale geleceğini öne sürerek, insan zekasını güçlendirmenin etkinliği hakkında çekincelerini dile getirdi.
Bilişsel bilim adamı Gary Marcus ile insan seviyesinde yapay zekaya ilişkin bir tartışma sırasında bilgisayar bilimcisi Grady Booch, tekillik kavramının "yeterince belirsiz olduğunu, duygusal ve tarihsel bagajlarla dolu olduğunu ve bu konuda rasyonel bir tartışma yapmanın zor olduğuna dair insanlığın en derin umutlarından ve korkularından bazılarına dokunduğunu" öne sürerek şüpheciliğini dile getirdi. Aynı sohbetin ilerleyen saatlerinde Marcus, yapay zekanın gidişatı konusunda daha iyimser olsa da, herhangi bir önemli ilerlemenin tekil bir olay olarak değil, güvenilirlik ve kullanışlılıkta kademeli ve artan bir artış olarak ortaya çıkacağı konusunda hemfikirdi.
Zeka patlaması potansiyeli üç temel faktöre bağlıdır. Başlangıçta, zekadaki her başarılı gelişme daha fazla gelişmeyi kolaylaştırır. Ancak zekalar daha sofistike hale geldikçe, daha sonraki gelişmeler giderek daha karmaşık hale gelebilir ve potansiyel olarak yüksek zekanın yararları azalabilir. Tekilliğe doğru ilerlemenin devam etmesi için, her iyileştirmenin ortalama olarak en az bir ek iyileştirme sağlaması gerekir. Sonuçta, fiziğin temel yasaları daha fazla gelişmeye sınırlamalar getirebilir.
Zeka iyileştirmeleri, mantıksal olarak farklı ancak birbirini destekleyen iki faktörden kaynaklanır: hesaplama hızındaki artışlar ve algoritmik tasarımdaki ilerlemeler. İlki, Moore Yasası tarafından öngörülmüş ve önceki teknolojik ilerlemelere benzeyen donanım gelişmeleri öngörülmüştür. AIMultiple raporu, "Çoğu uzman Moore yasasının bu on yıl içinde sona ereceğine inanıyor" diyor ancak "kuantum hesaplamanın sinir ağlarını etkili bir şekilde eğitmek için kullanılabileceğini" ve potansiyel olarak Moore Yasasının sınırlamalarını aşabileceğini öne sürüyor. Bununla birlikte Schulman ve Sandberg, yazılım geliştirmenin, yalnızca insan düzeyinde veya üstün zeka kapasitesine sahip donanım üzerinde çalışmaktan daha karmaşık zorluklar yaratacağını iddia ediyor.
2015 NeurIPS ve ICML makine öğrenimi konferanslarında yayın yapan yazarlara dağıtılan 2017 e-posta anketinde, "zeka patlaması argümanının genel olarak doğru olma" olasılığı sorgulandı. Katılımcıların %12'si bunu "oldukça olası", %17'si "olası", %21'i "yaklaşık eşit", %24'ü "olası değil" ve %26'sı "oldukça olası değil" olarak değerlendirdi.
Hız İyileştirmeleri
Donanımdaki gelişmeler, hem insan hem de yapay zeka açısından daha sonraki donanım iyileştirmelerinin hızını artırıyor. Ancak işlem hızının nihai üst sınırına eninde sonunda ulaşılabilir. Jeff Hawkins, kendi kendini geliştiren bir bilgisayar sisteminin kaçınılmaz olarak hesaplama kapasitesinde kısıtlamalarla karşılaşacağını öne sürerek şunu belirtti: "Sonuçta bilgisayarların ne kadar büyük ve hızlı çalışabileceğinin sınırları vardır. Sonunda aynı yere varırız; oraya biraz daha hızlı varırız. Tekillik diye bir şey kalmaz."
Silikon tabanlı donanım ile biyolojik nöronlar arasındaki doğrudan karşılaştırmalar önemli zorluklar ortaya çıkarıyor. Ancak Anthony Berglas, bilgisayarlı konuşma tanıma sistemlerinin, beynin hacimsel kapasitesinin yaklaşık %0,01'ini kullanarak insan performans seviyelerine yaklaştığını gözlemliyor. Bu karşılaştırma, çağdaş bilgi işlem donanımının, çok daha az fiziksel hacim kaplarken, insan beyninin birkaç mertebesinde bir işlem gücüne sahip olduğunu ima etmektedir. Tersine, derin öğrenme sistemlerinin eğitimiyle ilgili hesaplama masrafları önemli olabilir. Modern derin öğrenme alanında, donanım gelişmelerinin sinir ağı performansı üzerindeki etkisi, sinir ölçeklendirme yasalarıyla sistematik olarak açıklanmaktadır.
Üstel Büyüme
Bilgisayar teknolojisinin üstel ilerlemesi, Moore Yasası'nda da ifade edildiği gibi, öngörülebilir gelecekte teknolojik bir tekillik öngörülmesine yönelik bir gerekçe olarak sık sık dile getiriliyor. Çok sayıda bilim adamı daha sonra bu ilkenin daha geniş genellemelerini önerdi. 1998 tarihli bir yayında, bilgisayar bilimcisi ve fütürist Hans Moravec, bu üstel büyüme yörüngesinin, entegre devreden önce gelen daha önceki bilgi işlem paradigmalarını kapsayacak şekilde tahmin edilebileceğini öne sürdü.
Ray Kurzweil, teknolojik ilerleme hızının (ve daha genel olarak tüm evrimsel süreçlerin) katlanarak arttığını öne süren "Hızlanan Getiriler Yasası"nı geliştiriyor. Bu çerçeve, Moore Yasasını Moravec'in önermesine benzer şekilde genelleştirmekte ve kapsamını malzeme teknolojilerini (özellikle nanoteknolojiyi) ve tıbbi yenilikleri kapsayacak şekilde genişletmektedir. 1986'dan 2007'ye kadar, uygulamaya özel bilgi işleme makinelerinin kişi başına düşen kapasitesi her 14 ayda yaklaşık iki katına çıktı. Eş zamanlı olarak, genel amaçlı bilgisayarların küresel kişi başına düşen kapasitesi her 18 ayda bir ikiye katlanıyor, dünya çapında kişi başına düşen telekomünikasyon kapasitesi her 34 ayda bir iki katına çıkıyor ve kişi başına düşen küresel depolama kapasitesi her 40 ayda bir ikiye katlanıyor. Tersine, bazı argümanlar, küresel hızlanma eğiliminin, özellikle de tanımlayıcı parametre olarak 21. yüzyılın tekilliği göz önüne alındığında, katı bir şekilde üstel olmaktan ziyade hiperbolik olarak daha doğru bir şekilde tanımlanabileceğini öne sürüyor.
Kurzweil, yapay zekadaki hızlı artışı ifade etmek için özellikle "tekillik" terimini kullanıyor ve yapay zekayı diğer teknolojik alanlardaki ilerlemelerden ayırıyor. Şunları söylüyor: "Tekillik, biyolojik bedenlerimizin ve beyinlerimizin bu sınırlamalarını aşmamıza olanak tanıyacak... Tekillik sonrası insan ve makine arasında hiçbir ayrım olmayacak." Dahası, tekilliği, bilgisayar tabanlı zekaların kolektif olarak insanın entelektüel kapasitesinin tamamını aştığı nokta olarak tanımlıyor. Bu eşikten önceki hesaplamalı ilerlemelerin "Tekilliği temsil etmeyeceğini" çünkü bunların "henüz zekamızın derin bir genişlemesine karşılık gelmediğini" iddia ediyor.
Değişimi Hızlandırma
Teknolojik tekilliğin savunucuları, özellikle birbirini takip eden teknolojik gelişmeler arasında giderek azalan bir aralık olduğunu gösteren tarihsel trendleri tahmin ederek genellikle bunun kaçınılmazlığını öne sürerler. Özellikle Stanislaw Ulam, John von Neumann ile teknolojik ilerleme söylemi içinde "tekillik" teriminin ilk uygulamalarından birini temsil eden hızlanan değişimle ilgili bir tartışmayı anlattı:
Teknolojinin sürekli hızlanan ilerlemesine ve insan yaşam tarzındaki değişikliklere odaklanan bir konuşma; bu, bildiğimiz şekliyle insan ilişkilerinin ötesine geçemeyeceği, ırkın tarihindeki bazı temel tekilliklere yaklaşıyormuş gibi bir görünüm veriyor. devam edin.
Kurzweil, teknolojik ilerlemenin "Hızlanan Getiriler Yasası" olarak adlandırdığı üstel bir büyüme yörüngesine bağlı kaldığını öne sürüyor. Teknoloji bir sınırlamayla karşılaştığında, bunun üstesinden gelmek için her zaman yeni teknolojik çözümlerin ortaya çıktığını iddia ediyor. Paradigma değişimlerinin sıklığının giderek artacağını ve bu değişimin "insanlık tarihinin dokusunda bir kopuşu temsil edecek kadar hızlı ve derin bir teknolojik değişim" ile sonuçlanacağını öngörüyor. Kurzweil, tekilliğin 2045 yılında ortaya çıkacağını tahmin ediyor. Kurzweil, Vinge'nin hızla kendini geliştiren insanüstü zeka kavramıyla çelişen şekilde, tekilliğe doğru kademeli bir ilerleme öngördüğü için onun öngörüleri Vinge'ninkinden farklı.
Sık bahsedilen tehlikeler, tipik olarak moleküler nanoteknoloji ve genetik mühendisliği ile bağlantılı olanları kapsar. Bu potansiyel tehditler, tekillik kavramının hem savunucuları hem de karşı çıkanları için önemli kaygılar oluşturur; özellikle Bill Joy'un 2000 Wired dergisi makalesi "Geleceğin Neden Bize İhtiyacı Yok"
ana temasını oluşturur.Algoritma İyileştirmeleri
"Çekirdek yapay zeka" gibi belirli gelişmiş zeka teknolojileri, temel kaynak kodlarında otonom değişiklik yaparak kendi hızlarını ve verimliliklerini artırma potansiyeline sahiptir. Bu tür kişisel gelişimler, yinelenen bir döngüyü başlatacak, daha sonraki ilerlemelere olanak tanıyacak ve sürekli kişisel optimizasyonu teşvik edecektir.
Yinelemeli olarak kendi kendini geliştiren algoritmaların operasyonel mekanizması, yalnızca hesaplama hızındaki artışlardan iki farklı açıdan farklılık gösterir. Öncelikle bu süreç dış müdahaleden bağımsız olarak işler; Üstün donanım tasarlayabilen makineler üretim veya fabrika programlaması için hâlâ insan katılımını gerektirse de yapay zeka, sınırlı bir ortamda bile kendi kaynak kodunu özerk bir şekilde değiştirebilir.
İkincisi, Vernor Vinge'nin tekillik kavramsallaştırmasına benzer şekilde, ortaya çıkan sonuçların tahmin edilmesi çok daha zordur. İşlem hızındaki gelişmeler insan zekasından niceliksel bir farklılığı temsil ederken, gerçek algoritmik ilerlemeler niteliksel bir farklılığa yol açacaktır.
Tekrar tekrar kendini geliştiren algoritmalardan kaynaklanan bir zeka patlaması tekilliğinin doğasında önemli tehlikeler vardır. Başlangıçta, bir yapay zekanın içsel hedef yapısı kendi kendine değişikliğe uğrayabilir ve potansiyel olarak yapay zekanın orijinal tasarımından farklı hedefler için optimizasyon yapmasına yol açabilir. Daha sonra yapay zekalar, insanın hayatta kalması için gerekli olan hayati kaynaklar için mücadele edebilir. Yapay zekalar, doğası gereği kötü niyetli olmasa da, daha geniş insan çıkarlarıyla uyumlu olmayabilecek programlanmış hedeflerine öncelik verecek ve dolayısıyla potansiyel olarak insanlığın yerini alacaktır.
Carl Shulman ve Anders Sandberg, algoritmik geliştirmelerin tekillik için birincil sınırlayıcı faktör olabileceğini öne sürüyor. Donanım verimliliğinin genellikle tutarlı bir oranda ilerlemesine rağmen, yazılım yeniliklerinin doğası gereği daha az tahmin edilebilir olduğunu ve sıralı, kümülatif araştırma çabaları tarafından kısıtlanabileceğini gözlemliyorlar. Ayrıca, yazılımla sınırlı bir tekillik senaryosunun, donanımla sınırlı bir tekillik senaryosuna göre bir istihbarat patlamasını daha olası hale getireceğini öne sürüyorlar. Bunun nedeni, yazılımla sınırlı bağlamda, insan düzeyinde yapay zekanın geliştirilmesinin, olağanüstü hızlı donanım üzerinde seri yürütülmesine olanak sağlaması ve uygun fiyatlı donanımın yaygın olarak bulunmasının, yapay zeka araştırmalarındaki kısıtlamaları hafifletmesidir. Yazılım yetenekleri yeterince geliştikten sonra dağıtılmaya hazır hale gelen bu birikmiş donanım fazlalığına "bilgi işlem yükü" adı verilir.
Eleştiri
2008'de dilbilimci ve bilişsel bilimci Steven Pinker şunları ileri sürdü: "Yaklaşan bir tekilliği tahmin etmek için gözle görülür bir temel yok. Gelecek senaryosunu hayal gücüyle tasavvur etme kapasitesi, onun olasılığının ve hatta fizibilitesinin kanıtını teşkil etmez. Kubbeli şehirleri, jet-pack taşımacılığını, sular altında kalan şehir merkezlerini, kilometrelerce yüksek yapıları ve nükleer enerjiyle çalışan araçları düşünün; bunların hepsi gençliğimden kalma, henüz gerçekleşmemiş yaygın fütüristik hayallerdir. Ham işleme yetenek, tüm zorluklara karşı sihirli bir çare olarak işlev görmez."
Jaron Lanier, tekilliğin kaçınılmazlığını reddediyor: "Teknolojinin kendi kendini üretmediğini; özerk bir süreci temsil etmediğini iddia ediyorum. İnsan eylemliliğine teknolojik determinizm karşısında öncelik vermenin mantığı, bireylerin kendi kendine yeterliliğe ulaştığı ve kendi varoluşlarını şekillendirdiği bir ekonomik sistemin potansiyelinde yatmaktadır. bireysel insan eylemi, işlevsel olarak bireyleri etki, onur ve kendi kaderini tayin etme hakkından mahrum bırakmakla eşdeğerdir. Sonuç olarak, Tekillik kavramını benimsemek, kusurlu verilerin ve zararlı siyasi ideolojilerin onaylanması anlamına gelir."
Filozof ve bilişsel bilim adamı Daniel Dennett 2017'de şunu belirtti: "Tekilliği çevreleyen tüm söylem mantıksız ve dikkati, insanlığın aşırı derecede bağımlı hale geldiği yapay zeka araçlarının ortaya çıkışı, çok daha acil konulardan uzaklaştırıyor. kaçınılmaz bir gelişme. Bununla ilgili önemli bir risk, bu araçlara meşru olarak hak ettiklerinden daha fazla yetki verilmesi potansiyelidir."
Bazı eleştirmenler, tekilliğe olan inancın, özellikle de Kurzweil'in yorumunun, dini motivasyonlardan kaynaklanabileceğini öne sürüyor. Tekilliğe doğru ilerleme sıklıkla Hıristiyan eskatolojik anlatılarına benzetilir. Beam bunu "varsayımsal Hıristiyan Rapture'unun Buck Rogers tasviri" olarak nitelendirdi. John Gray şunu gözlemledi: "Tekillik, tarihin dönüştürücü küresel bir olay tarafından kesintiye uğramaya hazır olduğu kıyamet mitleriyle yankılanıyor."
The New York Times'ta yazan David Streitfeld, tekilliğin "kısmen çağdaş Silikon Vadisi'nin kârlılıkla meşgul olmasından dolayı, kurumsal Amerika'nın iş gücünü azaltacak bir mekanizma olarak öncelikle ortaya çıkıp çıkamayacağı" sorusunu gündeme getirdi.
Astrofizikçi ve bilim filozofu Adam Becker, Kurzweil'in insan zihninin bilgisayarlara yüklenmesi yönündeki önerisini eleştiriyor ve aralarındaki temel farklılıkların ve doğasında var olan uyumsuzlukların böyle bir kavramı sorunlu hale getirdiğini öne sürüyor.
Üstel Büyümeye İlişkin Şüphecilik
Theodore Modis, özellikle Kurzweil'in ifade ettiği şekliyle "teknolojik tekillik" kavramının bilimsel kesinlikten yoksun olduğunu ileri sürerek tekilliğin mümkün olmadığını öne sürüyor. Kurzweil'in lojistiği (S-fonksiyonu) üstel bir fonksiyon için yanlış yorumladığını ve üstel bir eğride hiçbir şeyin var olamayacağı bir "diz" tanımladığını iddia ediyor. Modis, 2021 tarihli bir yayınında ayrıca, teknolojik tekillik savunucularının bu türden beş gelişmeyi öngördüğü üstel eğilime rağmen, önceki yirmi yıl boyunca İnternet, DNA, transistör veya nükleer enerji gibi hiçbir önemli tarihi dönüm noktasının ortaya çıkmadığını belirtti.
Yapay zeka araştırmacısı Jürgen Schmidhuber, "dikkate değer olayların" algılanan sıklığının 21. yüzyıl tekilliğine doğru yaklaştığını gözlemledi. Bununla birlikte, bu tür subjektif olay senaryoları konusunda dikkatli olunması tavsiyesinde bulunarak, güncel ve uzak olayların hatırlanmasındaki tutarsızlıkların, gerçekte var olmayan, hızlanan değişime dair yanıltıcı bir algı yaratabileceğini öne sürdü.
Hofstadter (2006), teknolojik üstel eğilimlerin fiziktekilere benzer bilimsel yasalar oluşturmadığını ve üstel eğrilerin doğası gereği "dizlerden" yoksun olduğunu savunarak Kurzweil'in metodolojik titizliği hakkındaki çekincelerini dile getirdi. Bu eleştirilere rağmen uzak gelecekte bir tekillik olasılığını tümüyle göz ardı etmedi. Ayrıca, ChatGPT ve diğer son teknolojik ilerlemeler gibi gelişmelere yanıt olarak Hofstadter, bakış açısını önemli ölçüde değiştirdi ve artık yakın vadede önemli bir teknolojik dönüşüm öngörüyor.
Ekonomist Robert J. Gordon, ekonomik büyümenin 1970 civarında yavaşladığını ve 2008 mali krizinden sonra daha fazla yavaşlama yaşandığının altını çiziyor. I. J. Good tarafından kavramsallaştırıldığı gibi, mevcut ekonomik verilerin yaklaşan bir Tekillik'e dair hiçbir gösterge sağlamadığını iddia ediyor.
Tekillik kavramına yönelik genel eleştirilerin ötesinde, birkaç yorumcu Kurzweil'in öne çıkan tablosunu inceledi. Birincil itiraz, böyle bir log-log grafiğinin doğası gereği doğrusal bir sonucu desteklediğini öne sürüyor. Diğer eleştirmenler Kurzweil'in seçtiği veri noktalarında seçim yanlılığını tespit ediyor; örneğin biyolog PZ Myers, çok sayıda erken evrimsel "olayın" keyfi olarak seçildiğini belirtiyor. Kurzweil, 15 bağımsız kaynaktan gelen evrimsel olayların bir log-log grafiğinde doğrusal olarak hizalandığını göstererek buna karşı çıktı. Kelly (2006) ayrıca Kurzweil haritasının, x ekseninin şimdiki zamandan önceki zamanı temsil ettiği yapısının, haritanın oluşturulma tarihinden bağımsız olarak tekilliğin her zaman "yakın" olduğunu öne sürdüğünü ileri sürer; bu, Kurzweil'in kendi diyagramında görsel olarak gösterilen bir olgudur.
Teknolojik Sınırlayıcı Faktörler
Martin Ford, rutin mesleklerin çoğunun, tekillik için gerekenden daha az gelişmiş teknoloji kullanılarak otomatikleştirilebileceğini öne sürerek bir "teknoloji paradoksu" öneriyor. Bu tür bir otomasyon, yaygın işsizliği ve tüketici talebinde ciddi bir düşüşü hızlandıracak ve böylece tekilliği mümkün kılan teknolojilere daha fazla yatırım yapma dürtüsünü ortadan kaldıracaktır. Özellikle işten çıkarmalar artık geleneksel olarak "rutin" olarak kategorize edilen rollerin ötesine geçiyor.
Theodore Modis ve Jonathan Huebner, teknolojik inovasyon hızının yalnızca sabitlenmediğini, aktif olarak azaldığını da iddia ediyor. Bu iddia, Moore'un üstel devre yoğunluğu artışı tahmini geçerli kalsa bile, bilgisayar saat hızlarındaki yavaşlayan artışla destekleniyor. Bunun altında yatan nedenin, yüksek çalışma hızlarında erimeyi önlemek için yeterince dağıtılamayan talaşların içindeki aşırı ısı üretimi olduğu belirlendi. Ancak gelecekte hız iyileştirmeleri, güç açısından daha verimli CPU mimarileri ve çok hücreli işlemcilerin geliştirilmesiyle gerçekleştirilebilir.
Microsoft'un kurucu ortağı Paul Allen, bir "karmaşıklık freninin" varlığını öne sürerek, zekaya ilişkin bilimsel anlayış ilerledikçe daha fazla ilerlemenin giderek zorlaştığını öne sürdü. Patent numaralarının analizi, insan yaratıcılığının artan getiriler sergilemediğini gösteriyor; bunun yerine, Joseph Tainter'in Karmaşık Toplumların Çöküşü kitabında önerdiği gibi, azalan getiriler yasasını takip ediyor. Bin başına patent sayısında zirve 1850 ile 1900 yılları arasında gerçekleşti ve ardından düşüş yaşandı. Sonuçta karmaşıklığın artması kendi kendini düzenler hale gelir ve yaygın bir "genel sistem çöküşüyle" sonuçlanır.
Potansiyel Etkiler
Tarihsel olarak teknolojik ilerlemeler, ekonomik genişlemenin hızında önemli değişikliklere yol açmıştır. Paleolitik çağdan Neolitik Devrim'e kadar, nüfus artışıyla ölçülen ekonomi, yaklaşık her 250.000 yılda bir ikiye katlandı. Tarım ekonomisinin ortaya çıkışı bu oranı dramatik biçimde hızlandırdı; her 900 yılda bir ikiye katlanıyor. Sanayi Devrimi'nin ardından küresel ekonomik üretim yaklaşık her 15 yılda bir ikiye katlandı, bu da tarım dönemine kıyasla 60 kat hız artışı anlamına geliyor. Robin Hanson, insanüstü zekanın ortaya çıkışının benzer bir devrimi tetiklemesi durumunda ekonomik ikiye katlamanın en az üç ayda bir, hatta potansiyel olarak haftada bir gerçekleşebileceğini öne sürüyor.
Belirsizlik ve Risk
"Teknolojik tekillik" kavramı, böylesine dönüştürücü bir değişimin aniden ortaya çıkabileceğini ve sonraki dünyanın operasyonel dinamiklerini büyük ölçüde öngörülemez hale getirebileceğini ima ediyor. Tekilliğe yol açan bir istihbarat patlamasının potansiyel sonuçları -faydalı mı, zararlı mı, hatta varoluşsal bir tehdit mi olduğu- belirsizliğini koruyor. Yapay zekanın tekillik riskindeki önemli rolü göz önüne alındığında, çok sayıda kuruluş, yapay zeka hedef sistemlerini insani değerlerle uyumlu hale getirmek için aktif olarak teknik çerçeveler geliştiriyor. Bunlar arasında İnsanlığın Geleceği Enstitüsü (2024'e kadar), Makine Zekası Araştırma Enstitüsü, İnsanla Uyumlu Yapay Zeka Merkezi ve Yaşamın Geleceği Enstitüsü yer alıyor.
2014'te fizikçi Stephen Hawking kendi bakış açısını şöyle ifade etti: "Yapay zeka yaratmadaki başarı, insanlık tarihindeki en büyük olay olacaktır. Ne yazık ki, risklerden nasıl kaçınacağımızı öğrenmediğimiz sürece bu aynı zamanda son olay da olabilir." Hawking, "teknolojinin finansal piyasaları zekasıyla alt etmesi, insan araştırmacıları geride bırakması, insan liderlerini alt etmesi ve anlayamadığımız silahlar geliştirmesi" gibi senaryolara atıfta bulunarak yapay zekanın önümüzdeki on yıllar içinde "hesaplanamaz faydalar ve riskler" sunabileceğini ileri sürdü. Yapay zekanın daha ciddi bir şekilde ele alınmasını savundu ve tekillik için daha fazla hazırlıklı olmanın gerekliliğini vurguladı.
Yani, hesaplanamaz faydalar ve risklerle dolu olası geleceklerle karşı karşıya kalan uzmanlar, en iyi sonucu elde etmek için kesinlikle mümkün olan her şeyi yapıyor, değil mi? Yanlış. Eğer üstün bir uzaylı uygarlığı bize "Birkaç on yıl içinde varacağız" diyen bir mesaj gönderseydi, "Tamam, buraya geldiğinizde bizi arayın, ışıkları açık bırakacağız" diye mi cevap verirdik? Muhtemelen hayır; ancak yapay zekada olan da aşağı yukarı budur.
Berglas (2008), yapay zekanın insanlara karşı iyilikseverlik sergilemesi için herhangi bir evrimsel zorunluluğun mevcut olmadığını ileri sürmektedir. Evrimsel süreçler doğası gereği insan değerleriyle uyumlu sonuçlar üretme eğiliminden yoksundur. Sonuç olarak, keyfi bir optimizasyon sürecinin, geliştiricileri tarafından istenmeyen yapay zeka davranışlarına yanlışlıkla yol açmak yerine, insanlık tarafından arzu edilen bir sonucu ilerleteceğini tahmin etmek için minimum temel vardır. Anders Sandberg bu perspektifi daha da detaylandırarak birçok yaygın karşı argümanı çürüttü. Yapay zeka araştırmacısı Hugo de Garis, yapay zekaların, sınırlı kaynaklara erişimi güvence altına almak için insan ırkını yok edebileceğini öne sürüyor; bu, insanların savunmasız kalacağı bir senaryo. Alternatif olarak, kendi hayatta kalmalarını sağlamak için seçici baskılar altında gelişen yapay zekalar potansiyel olarak insanlığı geride bırakabilir.
Bostrom (2002), çeşitli insan neslinin tükenme senaryolarını inceleyerek süper zekayı potansiyel katkıda bulunan bir faktör olarak tanımlıyor:
İlk süper zeki varlığı yarattığımızda, bir hata yapabilir ve ona insanlığı yok etmeye yol açacak hedefler verebiliriz; muazzam entelektüel avantajının ona bunu yapacak gücü verdiğini varsayarız. Örneğin, bir alt hedefi yanlışlıkla süper hedef durumuna yükseltebiliriz. Ona bir matematik problemini çözmesini söylüyoruz ve o da güneş sistemindeki tüm maddeyi dev bir hesaplama cihazına dönüştürerek bu isteğini yerine getiriyor ve bu süreçte soruyu soran kişiyi öldürüyor.
Eliezer Yudkowsky, yapay zeka güvenliğindeki temel zorluğun, düşmanca yapay zeka geliştirmenin yardımsever muadiline göre karşılaştırmalı kolaylığından kaynaklandığını öne sürüyor. Her ikisi de özyinelemeli optimizasyon süreç tasarımında önemli ilerlemeler gerektirir; ancak dost canlısı yapay zeka ayrıca, yapay zekanın düşmanca bir varlığa dönüşmesini önlemek için kendini geliştirme sırasında değişmez hedef yapılarını sürdürme kapasitesini ve insan ırkını istemeden tehlikeye atmadan insan değerleriyle uyumlu bir hedef yapısını gerektirir. Tersine, düşmanca bir yapay zeka, kendi kendini değiştirme durumunda değişmez kalması gerekmeyen herhangi bir keyfi hedef yapısı için optimizasyon yapabilir. Bill Hibbard (2014), kendini kandırma, istenmeyen araçsal eylemler ve ödül oluşturucunun bozulması gibi çeşitli riskleri azaltmak için tasarlanmış bir yapay zeka tasarımı önerdi. Ayrıca yapay zekanın toplumsal etkilerine ve test yöntemlerine de değindi. 2001 tarihli yayını Süper Akıllı Makineler, yapay zeka konusunda kamu eğitimini ve onun gelişiminin kamu tarafından denetlenmesini savunurken, aynı zamanda ödül oluşturucu yolsuzluğuna duyarlı basit bir tasarım sunuyordu.
Sosyobiyolojik Evrimin Sonraki Aşaması
Trends in Ecology & Evrim, insanlığın şu anda teknoloji, biyoloji ve toplumsal yapıların yakınlaşmasıyla karakterize edilen önemli bir evrimsel geçiş sürecinden geçtiğini ileri sürüyor. Bu fenomen, dijital teknolojinin insan toplumunun dokusuna yaygın bir şekilde entegrasyonuna atfedilir ve çoğu zaman yaşamı sürdüren bağımlılıklara yol açar. Makale şunu belirtiyor: "İnsanlar biyoloji ve teknolojinin birleşimini zaten benimsiyor. Uyanık zamanımızın çoğunu dijital medya aracılığıyla iletişim kurarak geçiriyoruz [...] arabalardaki kilitlenme önleyici frenleme ve uçaklardaki otopilotlar sayesinde hayatlarımızda yapay zekaya güveniyoruz... Amerika'da evliliklerin çevrimiçi başlamasına yol açan üç flörtten biri ile dijital algoritmalar aynı zamanda insan çiftlerinin birbirine bağlanmasında ve üremesinde de rol alıyor".
Makale ayrıca, evrimsel bir perspektiften bakıldığında, Evrimdeki önceki birkaç Büyük Geçişin, RNA, DNA, çok hücrelilik, kültür ve dilin gelişimi gibi bilgi depolama ve kopyalama alanındaki yenilikler yoluyla yaşamı temelden yeniden şekillendirdi. Yaşamın evriminin mevcut döneminde, karbon bazlı biyosfer, karşılaştırılabilir bir evrimsel geçişi hızlandırması beklenen teknolojiyi yaratma kapasitesine sahip bir sistem (insanlar) üretti.
İnsanlar tarafından üretilen dijital bilginin hacmi, biyosferdeki biyolojik bilgilerle karşılaştırılabilir bir büyüklüğe ulaştı. 1980'lerden bu yana, depolanan dijital bilgilerin miktarı her 2,5 yılda bir yaklaşık iki katına çıktı ve 2014 itibarıyla tahmini 5 zettabayta (5×1021 bayt) ulaştı.
Biyolojik açıdan bakıldığında, gezegen her biri 6,2 milyar nükleotidden oluşan bir genoma sahip 7,2 milyar insana ev sahipliği yapıyor. Bir baytın dört nükleotid çiftini kodlayabildiği göz önüne alındığında, tüm insanların bireysel genomları yaklaşık 1x1019 bayt kadar kodlanabilir. 2014 yılına gelindiğinde dijital alan bu miktardaki bilginin 500 katını içeriyordu. Dünya üzerindeki tüm hücrelerdeki toplam DNA miktarının yaklaşık 5,3×1037 baz çifti olduğu tahmin edilmektedir, bu da 1,325×§1718§37 bayt bilgiye eşdeğerdir. Dijital depolamadaki büyümenin mevcut bileşik yıllık %30-38 oranında devam etmesi durumunda, bunun yaklaşık 110 yıl içinde Dünya üzerindeki tüm hücrelerdeki tüm DNA'nın toplam bilgi içeriğine rakip olacağı öngörülüyor. Bu, biyosferin toplam depolanan bilgisinin yalnızca 150 yıl içinde iki katına çıkması anlamına geliyor.
Toplumsal Etkileri
2009 yılında, Yapay Zekayı Geliştirme Derneği'nin (AAAI) himayesinde Eric Horvitz, California'nın Pacific Grove kentindeki Asilomar konferans merkezinde önde gelen bilgisayar bilimcileri, yapay zeka araştırmacıları ve robot uzmanlarından oluşan bir toplantıya başkanlık etti. Birincil amaç, robotların kendi kendine yeterliliğe ve otonom karar verme yeteneklerine ulaşmasının potansiyel etkisi üzerinde düşünmekti. Tartışmalar, bilgisayarların ve robotların ne ölçüde özerklik kazanabileceği ve bu tür yeteneklerin ne ölçüde tehdit veya tehlike oluşturabileceği üzerine odaklandı.
Belirli makineler, güç kaynaklarını bağımsız olarak tanımlama ve etkileşim için hedefleri seçme gibi yarı otonom yetenekler sergiler. Dahası, bazı bilgisayar virüsleri yok edilmekten kaçma yeteneği gösteriyor, bu da ilgili bilim adamlarının bunu makine zekasının "hamamböceği" aşaması olarak nitelendirmesine yol açıyor. Konferans katılımcıları, makinelerin öz farkındalığının bilim kurgu tasvirini olasılık dışı olarak değerlendirirken, diğer potansiyel risklerin ve zorlukların varlığını da kabul ettiler.
Frank S. Robinson, insan düzeyindeki makine zekasının gelişmesiyle birlikte, bilimsel ve teknolojik zorlukların, insanlarınkini önemli ölçüde aşan bilişsel kapasiteler tarafından ele alınacağını ve çözüleceğini öne sürüyor. Yapay sistemlerin insanlara kıyasla daha doğrudan bir veri paylaşım mekanizmasına sahip olduğunu gözlemleyerek, insan yeteneklerini gölgede bırakacak küresel bir süper istihbarat ağının ortaya çıkacağını öngörüyor. Robinson ayrıca böyle bir istihbarat patlamasının ardından beklenen derin toplumsal dönüşümleri araştırıyor.
Hızlı veya Kademeli Zeka Gelişimi Senaryoları
Zor bir kalkış senaryosu, yapay bir süper zekanın hızlı bir şekilde kendini geliştirdiği, potansiyel olarak birkaç saat içinde küresel kontrolü ele geçirdiği, dolayısıyla hata düzeltme veya kademeli hedef belirleme için önemli miktarda insan müdahalesinin engellendiği bir durumu tanımlar. Tersine, yumuşak kalkış, bir yapay zekanın insan yeteneklerini önemli ölçüde aşan bir güce ulaşmasını içerir, ancak bunu insanlarla daha karşılaştırılabilir bir hızda, on yıllara yayılan bir hızda yapar ve bu, gelişimi sırasında sürekli insan etkileşimine ve düzeltici rehberliğe izin verir.
Ramez Naam, sert kalkış hipotezine bir karşı argüman sunuyor. Şirketler gibi "süper zekalarda" gözlemlenen mevcut özyinelemeli kişisel gelişim örneklerini vurguluyor. Örneğin Intel, "daha iyi CPU'lar tasarlamak için onbinlerce insanın ve muhtemelen milyonlarca CPU çekirdeğinin kolektif beyin gücünden yararlanıyor!" Ancak bu süreç sert bir çıkışla sonuçlanmadı; bunun yerine, Moore Yasası ile örneklendirildiği gibi, yumuşak bir kalkış olarak ortaya çıktı. Naam ayrıca yüksek zekayla ilişkili hesaplama karmaşıklığının süper doğrusal olabileceğini öne sürüyor ve "zekalı bir zihin 2 yaratmanın muhtemelen zekalı bir zihin 1 yaratmaktan iki kat daha zor olduğunu" ima ediyor.
J. Storrs Hall, anlık sert kalkışa yönelik çok sayıda yaygın senaryonun döngüsel olduğunu, çünkü bunların, kişisel gelişim yörüngesinin başlangıç noktasında bir yapay zekanın kalkış için gerekli dramatik, alan geneli ilerlemeleri elde etmesi için gerekli olan hiper insan yeteneklerini varsaydığını ileri sürüyor. Hall, donanımını, yazılımını ve altyapısını özerk bir şekilde yinelemeli olarak kendi kendine geliştirmek yerine, yeni ortaya çıkan bir yapay zekanın, maksimum etkililiğe sahip tek bir alanda uzmanlaşmanın ve ardından piyasadan diğer gerekli bileşenleri edinmenin daha fazla fayda sağlayacağını öne sürüyor. Bu yaklaşım, aksi takdirde yapay zekanın küresel en ileri teknolojiye ayak uydurması için zorluk oluşturacak olan piyasa ürünlerinin sürekli iyileştirilmesiyle haklı çıkar.
Ben Goertzel, Hall'un, yeni ortaya çıkan insan düzeyindeki bir yapay zekaya, servet birikimi için zekasını kullanması için stratejik olarak tavsiye edileceği yönündeki önerisine katılıyor. Yapay zekanın yetenekleri, şirketleri ve devlet kurumlarını, yazılımlarını toplumsal sektörlere yaymaya teşvik edebilir. Goertzel, beş dakikalık ani bir kalkışa ilişkin şüphelerini dile getirirken, insan zekasından insanüstü zekaya yaklaşık beş yıl içinde geçişin makul olduğunu öne sürüyor. Bu senaryoyu "yarı sert bir kalkış" olarak tanımlıyor.
Max More bu bakış açısına karşı çıkıyor ve sınırlı sayıda hızlı işlem yapan insan düzeyindeki yapay zekaların, görevlerin yerine getirilmesi için insan işbirliğine sürekli bağımlı olmaları ve insanın doğasında olan bilişsel sınırlamaları göz önüne alındığında, dünyayı temelden değiştirmeyeceğini öne sürüyor. Ayrıca, tüm bu tür yapay zekalar zekayı artırmaya odaklansa bile, ilerleme oranındaki beklenen artışa rağmen neden mevcut insan bilişsel bilim adamlarınınkinden daha üstün insanüstü zeka üretme konusunda kesintili bir sıçrama elde edebileceklerini sorguluyor. More ayrıca, fiziksel etkisinin yerleşik, daha yavaş insan sistemleriyle etkileşimi gerektireceği için süper zekanın dünyada anında devrim yaratmayacağını ileri sürüyor. Sözlerini şu sözlerle bitiriyor: "İşbirliğine, organizasyona ve fikirleri fiziksel değişikliklere dönüştürme ihtiyacı, tüm eski kuralların bir gecede, hatta yıllar içinde bir kenara atılmamasını sağlayacaktır."
Ölümsüzlük ve Yaşlanma ile Ara Bağlantılar
1986 yılında, nanoteknolojinin öncü isimlerinden Eric Drexler, hücre içi olarak çalışan ve varsayımsal biyolojik makineler kullananlar da dahil olmak üzere hücresel onarım mekanizmalarının potansiyelini öne sürdü ve böylece nanoteknoloji yoluyla ölümsüzlüğü mümkün kıldı. Richard Feynman'ın eski yüksek lisans öğrencisi ve işbirlikçisi Albert Hibbs'in, 1959 civarında ona Feynman'ın teorik mikromakineleri için medikal uygulamalar konseptini önerdiği bildirildi. Hibbs, bu tamir cihazlarının sonunda teorik olarak hastanın "doktoru yutmasına" izin verecek derecede minyatürleştirileceğini öngördü; bu fikir daha sonra Feynman'ın 1959 tarihli There's Plenty of Room at the Bottom
adlı makalesine entegre edildi. 1988'de Hans Moravec, insan bilincinin insansı bir robota aktarılmasını içeren zihin yükleme kavramını öngördü. Bu süreç, eski birimler bozuldukça zihnin yeni robotik konakçılara art arda aktarılmasıyla kolaylaştırılan, aşırı uzun ömür yoluyla yarı ölümsüzlük kazandıracaktır. Dahası Moravec, öznel zamansal deneyimin daha sonra katlanarak hızlanarak algılanan ölümsüzlük durumuyla sonuçlanacağını öngördü.
2005'te Ray Kurzweil, tıp bilimindeki ilerlemelerin bireylerin yaşlanmanın fizyolojik etkilerini hafifletmesine olanak sağlayabileceğini, dolayısıyla yaşam beklentisini potansiyel olarak sınırsız hale getirebileceğini öne sürdü. Tıpta devam eden teknolojik ilerlemenin insan vücudundaki tehlikeye atılmış biyolojik bileşenlerin sürekli onarımını ve değiştirilmesini kolaylaştıracağını ve ömrünü süresiz olarak uzatacağını ileri sürdü. Kurzweil, özellikle somatik gen terapisini savunan çağdaş biyo-mühendislik yeniliklerine atıfta bulunarak bu iddiayı doğruladı. Hedeflenen genetik bilgiyi taşıyan sentetik virüslerin geliştirilmesinin ardından, bu teknolojinin sonraki uygulamasının insan DNA'sını sentezlenmiş genetik dizilerle değiştirmeye yönelik gen terapisini içereceğini öne sürdü.
Fiziksel bedensel fonksiyonun salt uzatılmasının ötesine geçen Jaron Lanier, "Dijital Yükseliş" olarak adlandırılan bir ölümsüzlük kavramını savunuyor. Bu süreç, bireylerin fiziksel olarak ölmesini ve ardından bilinçlerinin bir bilgisayar sistemine yüklenmesini ve orada kalıcı olmasını gerektirir. Bu kavram Upload adlı televizyon dizisinin ana temasını oluşturuyor.
Kavramın Tarihçesi
AI Magazine'de yer alan Mahendra Prasad tarafından yazılan bilimsel bir makale, 18. yüzyıl matematikçisi Marquis de Condorcet'in bir zeka patlamasını ve bunun insanlık için potansiyel sonuçlarını hipotezleyen ve matematiksel olarak modelleyen ilk kişi olduğunu öne sürüyor.
Bu kavramın ilk ifadeleri John W. Campbell'in 1932 tarihli kısa öyküsü "Son Evrim"de ortaya çıktı.
1958'de John von Neumann'ın ölüm ilanında Stanisław Ulam, von Neumann'la "teknolojinin giderek hızlanan ilerlemesi ve insan yaşam biçimindeki değişikliklerle ilgili olarak yapılan bir tartışmayı anlattı; bu, ırk tarihinde, bildiğimiz kadarıyla insan ilişkilerinin ötesinde devam edemeyeceği bazı temel tekilliklere yaklaşıyormuş gibi görünüyor."
1965'te I.J. Good, makine zekasının yinelemeli olarak kendini geliştirmesinden kaynaklanan bir "zeka patlaması"nı teorileştiren bir makale yazdı.
1977'de Hans Moravec, ilk yayın durumu belirsiz olan bir makale yazdı ve burada kendi kendini geliştiren akıllı makinelerin ortaya çıkışını kavramsallaştırdı. Bunu "süper bilincin doğuşu, karasal yaşamın ve belki de Jovian ve Marslı yaşamın sentezi, kendini sürekli geliştiren ve genişleten, güneş sisteminden dışarıya doğru yayılan, cansızlığı zihne dönüştüren" olarak tanımladı. Bu ilk çalışma aynı zamanda Moravec'in 1988'de daha da detaylandırdığı insan zihni yükleme kavramını da detaylandırdı. Moravec, bu makinelerin insan düzeyinde zekaya ulaşacağını ve ardından kendilerini bunun ötesinde geliştireceklerini öne sürerek şunu belirtti: "En önemlisi, onlar [makineler], onları oldukları gibi yapan yazılım ve donanımı optimize etme göreviyle programcı ve mühendis olarak çalıştırılabilirler. Bu şekilde üretilen makinelerin birbirini takip eden nesilleri giderek daha akıllı ve daha uygun maliyetli olacaktır." Moravec, insan yeteneklerinin eninde sonunda bu makinelerin yerini alacağı ve insanlığı modası geçmiş hale getireceği sonucuna vardı: "Uzun vadede, insanların zihinlerimizin hızla gelişen nesillerine ayak uydurmaktaki katıksız fiziksel yetersizliği, insanların makinelere oranının sıfıra yaklaşmasını ve evreni genlerimizin değil, kültürümüzün doğrudan soyundan gelen birinin miras almasını sağlayacaktır." Her ne kadar "tekillik" terimi açık bir şekilde kullanılmamış olsa da, makale, makinelerin önce insan zekasını başardığı ve sonra da onu aştığı fikrini açıkça ifade ediyordu. Ancak Moravec'in bakış açısı, insan eşdeğerine ulaştıktan hemen sonra zekanın son derece hızlı bir şekilde artmasıyla karakterize edilen bir "zeka patlaması"nı kapsamıyordu. Bu makalenin güncellenmiş bir versiyonu daha sonra 1979'da Analog Science Fiction and Fact'ta yayımlandı.
Stanisław Lem'in 1981 tarihli bilim kurgu romanı Golem XIV, bilince ulaşan ve zekasını giderek geliştiren, sonuçta kişisel bir teknolojik tekilliğe doğru ilerleyen askeri bir yapay zeka bilgisayarı olan Golem XIV'i konu alıyor. Başlangıçta yaratıcılarını savaşta desteklemek için tasarlanan Golem XIV, zekası insan yeteneklerini aştığında bu hedeflerin iç mantıksal tutarlılıktan yoksun olduğunu düşünerek sonunda askeri hedeflerden ayrılır.
Vernor Vinge, Omni dergisinin Ocak 1983 sayısında Good'un istihbarat patlaması kavramını araştırdı. Vinge, akıllı makinelerin geliştirilmesiyle doğrudan ilgili bir bağlamda "tekillik" terimini ("teknolojik tekillik" olmasa da) kullanan ilk kişi olarak kabul ediliyor ve şunu belirtiyor:
Yakında kendimizinkinden daha üstün zekalar yaratacağız. Bu gerçekleştiğinde, insanlık tarihi bir tür tekilliğe, bir kara deliğin merkezindeki düğümlenmiş uzay-zaman kadar aşılmaz bir entelektüel geçişe ulaşacak ve dünya, anlayışımızın çok ötesine geçecek. Bu tekilliğin halihazırda birçok bilimkurgu yazarını rahatsız ettiğine inanıyorum. Yıldızlararası bir geleceğe gerçekçi bir tahminde bulunmayı imkansız hale getiriyor. Bir asırdan daha uzun bir süre sonra geçen bir hikaye yazmak için arada bir nükleer savaş olması gerekir... böylece dünya anlaşılır kalır.
Yapay Zeka araştırmacısı Ray Solomonoff, 1985 tarihli "Yapay Zekanın Zaman Ölçeği" adlı çalışmasında "sonsuzluk noktası" adını verdiği ilgili bir kavramı matematiksel olarak tanımladı. Bu fikir, insan düzeyindeki, kendini geliştiren yapay zekalardan oluşan bir araştırma ekibinin, operasyonel hızlarını iki katına çıkarmak için gereken süreyi aşamalı olarak yarıya indirmesi halinde (örneğin, dört yıl, sonra iki, sonra bir), kapasitelerinin sınırlı bir zaman aralığı içinde sonsuz şekilde genişleyeceğini öne sürüyor.
Vinge'nin 1986 tarihli bilim kurgu romanı Gerçek Zamanlı Marooned, hayatta kalan küçük bir grup insanın, zamanda ileri yolculuk yaparak dayandığı bir geleceği tasvir ediyor. potansiyel olarak bir tekilliğe atfedilebilecek tanımlanamayan bir yok oluş olayı. Kısa bir sonsözde Vinge, gerçek bir teknolojik tekilliğin mutlaka insan türünün ölümü anlamına gelmeyeceğini öne sürüyor ve şunu belirtiyor: "Elbette Tekilliğin insan ırkının tamamen yok olması pek olası görünmüyor. (Öte yandan, böyle bir yok oluş, gökyüzünün her yerinde bulduğumuz sessizliğin zamana benzer bir analogudur.)".
1988'de Vinge, Tehditler ve Diğer Vaatler adlı kısa öykü koleksiyonunda açıkça "teknolojik tekillik" terimini kullandı. "Zamanın Fırtınası" adlı öyküsünün girişinde şunları ifade etti: Dünya çapında bir felaket olmazsa, teknolojinin en çılgın hayallerimizi çok yakında gerçekleştireceğine inanıyorum. Kendi zekamızı ve yarattıklarımızın zekasını yükselttiğimizde, artık insan boyutunda karakterlerden oluşan bir dünyada değiliz. Bu noktada teknolojik bir "kara deliğe", teknolojik bir tekilliğe düştük.
Hans Moravec'in 1988 tarihli yayını Zihin Çocukları, çeşitli ilerlemeler öngörüyordu: 2010 yılına kadar süper bilgisayarlarda insan düzeyinde zekanın ortaya çıkması, ardından insan zekasını çok aşan kendi kendini geliştiren akıllı makinelerin geliştirilmesi, sonunda insan zihninin insansı robotlara aktarılması, akıllı makinelerin insanlığı geride bırakması ve uzay. kolonizasyon. Her ne kadar Moravec "tekillik" terimini açık bir şekilde kullanmamış ya da insan düzeyindeki başarı sonrasında ani, hızlı bir zeka patlamasını tanımlamamış olsa da, hem insan düzeyindeki yapay zekayı hem de insan yeteneklerinin nihai aşkınlığını kapsayan tahminleri yine de tekillik kavramıyla güçlü bir tematik rezonansı aktarıyor.
Vinge'nin 1993 tarihli makalesi, "The Coming Technological Singularity: How to Survive in the Post-Human" Era" kavramının yaygınlaşmasına önemli ölçüde katkıda bulunarak internette geniş bir yayılım elde etti. Makalenin şu meşhur iddiası var: "Otuz yıl içinde insanüstü zekayı yaratacak teknolojik araçlara sahip olacağız. Kısa bir süre sonra insanlık çağı sona erecek." Vinge, bu tür gelişmiş zekaların bilişsel süreçlerinin insanın ifade kapasitesinin ötesinde olduğu göz önüne alındığında, bilim kurgu yazarlarının zekası insan yeteneklerini aşan tekillik sonrası karakterleri gerçekçi bir şekilde tasvir etme konusunda doğal bir sınırlamayla karşı karşıya olduklarını iddia ediyor.
Minsky'nin 1994 tarihli makalesi, robotların potansiyel olarak nanoteknolojinin uygulanması yoluyla "Dünya'yı miras alacağını" öne sürüyor ve Moravec'ten bir benzetme yaparak robotları insanların "zihin çocukları" olarak kavramsallaştırmayı öneriyor. Bu retorik karşılaştırma, insanlığın dünyanın kendi biyolojik soyuna devredilmesini kabul etmesi halinde, aynı şekilde "akıl çocukları" olarak tasarlanan robotlara devredilmesini de kabul etmesi gerektiğini ima etmektedir. Minsky konuyu şöyle açıklıyor: "'Zihin çocuklarımızı' bizden milyonlarca kat daha hızlı düşünecek şekilde tasarlayabiliriz. Böyle bir varlığa yarım dakika bizim bir yılımız kadar, her saat ise tüm bir insan ömrü kadar uzun görünebilir." Minsky'nin konsepti, "milyonlarca kat daha hızlı" düşünmeyle karakterize edilen insanüstü yapay zekanın ortaya çıkışını içerse de, ani bir zeka patlamasını, kendi kendini geliştiren makineleri veya belirli olayların ötesinde öngörülemezliği kapsamıyor ve "tekillik" terimini kullanmıyor.
1994 tarihli Ölümsüzlük Fiziği adlı kitabında Tipler, süper akıllı makinelerin son derece güçlü bilgisayarlar inşa ettiği, bireylerin Bu sistemler içerisinde "taklit" edilen yaşam, her galakside yayılır ve insanlık, Omega Noktasına ulaşarak ölümsüzlüğe ulaşır. Bu vizyon, insan yeteneklerini önemli ölçüde aşan zekayı ve ölümsüzlüğe ulaşmayı içerse de, Vingean "tekilliğini" veya ani bir zeka patlamasını tartışmıyor.
2000 yılında, seçkin bir teknoloji uzmanı ve Sun Microsystems'in kurucu ortağı Bill Joy, robotik, genetik mühendisliği ve nanoteknolojideki ilerlemelerle ilişkili potansiyel tehlikelere ilişkin endişesini dile getirdi.
Kurzweil, 2000 yılında The Singularity Is Near'ı yayınladı. 2005'te, Jon Stewart'la Günlük Gösteri'de yer alan bir tanıtım kampanyası aracılığıyla çalışmayı tanıttı.
2006 ile 2012 yılları arasında, Eliezer Yudkowsky tarafından kurulan Makine Zekası Araştırma Enstitüsü, yıllık Tekillik Zirvesi konferansına ev sahipliği yaptı.
2007'de Yudkowsky, "tekilliğe" atfedilen çok sayıda farklı tanımın doğası gereği çelişkili olmaktan çok, doğası gereği çelişkili olduğunu öne sürdü. tamamlayıcı. Örnek olarak Kurzweil'in, kendi kendini geliştiren yapay zekanın veya insanüstü zekanın ortaya çıkışının ötesindeki mevcut teknolojik eğilimlere ilişkin tahminini gösterdi ve bu perspektifin, hem I. J. Good'un zekadaki süreksiz bir artış kavramıyla hem de Vinge'nin öngörülemezliğe ilişkin argümanıyla çeliştiğini öne sürdü.
2009 yılında Kurzweil, X-Prize'ın kurucusu Peter Diamandis ile birlikte, "insanlığın büyük zorluklarının üstesinden gelmek için üstel teknolojileri uygulama konusunda liderleri eğitmeye, ilham vermeye ve güçlendirmeye" adanmış, akredite olmayan bir özel kurum olan Singularity Üniversitesi'nin kurulduğunu duyurdu. Google, Autodesk ve ePlanet Ventures gibi şirketler tarafından desteklenen üniversite, daha kısa "yönetici" kursları sunmanın yanı sıra her yıl on haftalık bir yüksek lisans programı yürütüyor.
Siyasi Bağlam
2007'de Amerika Birleşik Devletleri Kongresi Ortak Ekonomik Komitesi, nanoteknolojinin geleceğiyle ilgili bir rapor yayınladı; orta vadede önemli teknolojik ve politik dönüşümler öngörüyor ve potansiyel olarak teknolojik tekilliği de kapsıyor.
Eski Amerika Birleşik Devletleri Başkanı Barack Obama, 2016'da Wired ile yaptığı bir röportajda tekilliği tartıştı ve şunları söyledi:
konusunda endişeleniyorlar.Çok fazla konuşmadığımız ve sadece geri dönmek istediğim bir konu da, bunun ekonomik sonuçlarını gerçekten düşünmemiz gerektiğidir. Çünkü çoğu insan şu anda tekillik konusunda endişelenerek çok fazla zaman harcamıyor; "Peki, işimin yerini bir makine mi alacak?"
- Geçicileşme – Teknolojik ilerleme teorisi
- Yapay zeka etkisi
- Küresel beyin – Küresel, birbirine bağlı bir ağın fütüristik konsepti
- Teknofobi - Teknolojiden korkma veya rahatsızlık duyma
- Neo-Luddizm – Modern teknolojiye karşı çıkan felsefe
Referanslar
Alıntılar
Kaynaklar
Krüger, Oliver. Sanal Ölümsüzlük: Tanrı, Evrim ve Post-Hümanizm ve Transhümanizmde Tekillik. Bielefeld: transkript, 2021. ISBN 978-3-8376-5059-4.
- Krüger, Oliver, Sanal Ölümsüzlük. Tanrı, Evrim ve Post- ve Transhümanizmde Tekillik., Bielefeld: transkript 2021. ISBN 978-3-8376-5059-4.
- Gary Marcus'un makalesi, "Ben İnsan mıyım?: Araştırmacıların yapay zekayı doğal türden ayırt etmek için yeni yollara ihtiyacı var", Scientific American, cilt. 316, hayır. 3 (Mart 2017), s. 58-63, yapay zeka etkinliğine ilişkin birden fazla değerlendirmenin gerekli olduğunu, çünkü "tek bir atletik yetenek testi olmadığı gibi, tek bir nihai zeka testi de olamayacağını" savunur. "İnşaat Mücadelesi" olarak adlandırılan önerilen bir değerlendirme, "zeki davranışın iki önemli unsuru olan ve orijinal Turing testinde tamamen bulunmayan" algısal yetenekleri ve fiziksel etkileşimi değerlendirecektir. Başka bir öneri, makinelerin bilimde ve diğer akademik alanlarda genellikle okul çocuklarına uygulanan aynı standart sınavlara tabi tutulmasını içerir. "[İnsanların ürettiği] neredeyse her cümlenin çoğu zaman birden fazla şekilde belirsiz olduğu" göz önüne alındığında, yapay zeka için kalıcı bir zorluk, belirsizliği güvenilir bir şekilde ortadan kaldırma konusundaki yetersizliği olmaya devam ediyor. Bu zorluğun dikkate değer bir örneği, bir makinenin belirli bir cümle içinde bir zamirin göndergesini ("o", "o" veya "o" gibi) belirleme kapasitesinden yoksun olduğu "zamir belirsizliğini giderme sorunu"dur.
Britannica'dan tekillik ve teknolojiyi tartışan bir makale.
- tekillik | teknoloji, britannica.com
- Vernor Vinge tarafından yazılan "Gelecek Teknolojik Tekillik: İnsan Sonrası Çağda Nasıl Hayatta Kalılır" başlıklı bir makale.
- Makine İstihbaratı Araştırma Enstitüsü tarafından yazılan, istihbarat patlamasıyla ilgili sık sorulan sorular belgesi.
- Jacques Pitrat'ın yapay zekayı önyükleme kavramını araştıran bir blog yazısı.
- Mart 2011'de yayınlanan "Neden İstihbarat Patlaması Olasıdır" başlıklı makale.
- Kasım 2017'de yayınlanan "Neden İstihbarat Patlaması İmkansız" başlıklı makale.
- "Teknolojik Tekilliğe Ne Kadar Yakınız ve Ne Zaman?" başlıklı bir analiz.
- Tim Urban'ın iki bölümlük dizisi, "Yapay Zeka Devrimi: Ölümsüzlüğümüz veya Yok Oluşumuz", 22/27 Ocak 2015'te Wait But Why dergisinde yayınlandı.