Mesterséges intelligencia. Második rész: kihalás vagy halhatatlanság?

Tartalomjegyzék:

Mesterséges intelligencia. Második rész: kihalás vagy halhatatlanság?
Mesterséges intelligencia. Második rész: kihalás vagy halhatatlanság?

Videó: Mesterséges intelligencia. Második rész: kihalás vagy halhatatlanság?

Videó: Mesterséges intelligencia. Második rész: kihalás vagy halhatatlanság?
Videó: Common MILITARY expressions & vocabulary in everyday life 2024, Április
Anonim
Mesterséges intelligencia. Második rész: kihalás vagy halhatatlanság?
Mesterséges intelligencia. Második rész: kihalás vagy halhatatlanság?

Mielőtt Ön a cikk második része a "Várj, hogyan lehet mindez valódi, miért nem beszélnek még mindig minden sarkon." Az előző sorozatban ismertté vált, hogy az intelligencia robbanása fokozatosan kúszik fel a Föld bolygó emberei felé, megpróbál a szűk fókuszúból az egyetemes intelligenciává és végül a mesterséges szuperintelligenciává fejlődni.

"Talán rendkívül nehéz problémával állunk szemben, és nem tudni, mennyi időt szánnak a megoldására, de az emberiség jövője függhet a megoldásától." - Nick Bostrom.

A cikk első része ártatlanul kezdődött. Megbeszéltük a szűk fókuszú mesterséges intelligenciát (az AI, amely egy speciális probléma megoldására specializálódott, mint például az útvonalak meghatározása vagy a sakkozás), sok ilyen van a világunkban. Aztán elemezték, hogy miért olyan nehéz az általános irányított mesterséges intelligencia (AGI, vagy AI, amely intellektuális képességeit tekintve minden probléma megoldásában összehasonlítható az emberrel) kifejlesztése. Arra a következtetésre jutottunk, hogy a technológiai fejlődés exponenciális üteme arra utal, hogy az AGI hamarosan a sarkon lesz. Végül úgy döntöttünk, hogy amint a gépek elérték az emberi intelligenciát, azonnal a következők történhetnek:

Kép
Kép
Kép
Kép
Kép
Kép
Kép
Kép

Szokás szerint a képernyőt nézzük, nem hiszünk abban, hogy a mesterséges szuperintelligencia (ISI, amely mindenkinél sokkal okosabb) megjelenhet életünk során, és olyan érzelmeket választunk, amelyek a legjobban tükrözik a véleményünket ebben a kérdésben.

Mielőtt belevetnénk magunkat az ISI sajátosságaiba, emlékeztessük magunkat arra, mit jelent egy gépnek szuperintelligensnek lenni.

A fő különbség a gyors szuperintelligencia és a minőségi szuperintelligencia között van. Gyakran az első dolog, ami eszébe jut, amikor egy szuperintelligens számítógépre gondol, hogy sokkal gyorsabban tud gondolkodni, mint egy ember - milliószor gyorsabban, és öt perc alatt felfogja, mire lenne szüksége egy embernek tíz év alatt. ("Tudom a kung fu -t!")

Lenyűgözően hangzik, és az ISI -nek valóban gyorsabban kellene gondolkodnia, mint bármelyik embernek - de a fő elválasztó jellemző az intelligenciájának minősége lesz, ami teljesen más. Az emberek sokkal okosabbak a majmoknál, nem azért, mert gyorsabban gondolkodnak, hanem mert az agyuk számos ötletes kognitív modult tartalmaz, amelyek összetett nyelvi ábrázolásokat, hosszú távú tervezést, elvont gondolkodást hajtanak végre, amire a majmok nem képesek. Ha ezerszer felgyorsítod egy majom agyát, akkor nem lesz okosabb nálunk - még tíz év után sem lesz képes az utasításoknak megfelelően összeállítani egy konstruktőrt, ami legfeljebb pár órát vesz igénybe. Vannak dolgok, amelyeket egy majom soha nem fog megtanulni, függetlenül attól, hogy hány órát tölt vagy milyen gyorsan működik az agya.

Ezenkívül a majom nem tudja, mennyire emberileg, mert az agya egyszerűen nem képes felismerni más világok létezését - a majom talán tudja, mi az ember és mi a felhőkarcoló, de soha nem fogja megérteni, hogy egy felhőkarcolót emberek. Az ő világában minden a természethez tartozik, és a makákó nemcsak felhőkarcolót nem tud építeni, hanem azt is megérti, hogy egyáltalán bárki megépítheti. Ez pedig az intelligencia minőségében mutatkozó kis különbség eredménye.

Az intelligencia általános rendszerében, amelyről beszélünk, vagy egyszerűen a biológiai lények mércéje szerint, az intelligencia minőségének különbsége apró az emberek és a majmok között. Az előző cikkben a biológiai kognitív képességeket egy létrára helyeztük:

Kép
Kép

Ahhoz, hogy megértsük, mennyire komoly lesz egy szuperintelligens gép, helyezze két fokkal magasabbra, mint az adott létrán lévő személy. Ez a gép talán csak egy kicsit szuperintelligens, de a kognitív képességeinkkel szembeni fölénye ugyanolyan lesz, mint a miénk - a majmokhoz képest. És ahogy a csimpánz sosem fogja felfogni, hogy felhőkarcolót lehet építeni, talán soha nem fogjuk megérteni, hogy mit fog megérteni egy pár lépéssel magasabb gép, még akkor sem, ha a gép megpróbálja elmagyarázni nekünk. De ez csak pár lépés. Az okosabb gép hangyákat fog látni bennünk - évek óta a legegyszerűbb dolgokat fogja megtanítani helyzetéből, és ezek a próbálkozások teljesen reménytelenek lesznek.

A szuperintelligencia típusa, amelyről ma beszélünk, messze túlmutat ezen a létrán. Ez az intelligencia robbanása - ha egy autó okosabb lesz, annál gyorsabban tudja növelni saját intelligenciáját, fokozatosan növelve a lendületet. Évekbe telhet, mire egy ilyen gép intelligenciájában felülmúlja a csimpánzokat, de talán pár órát, hogy pár fokozattal felülmúljon minket. Ettől a pillanattól kezdve az autó már másodpercenként négy lépést tud átugrani. Éppen ezért meg kell értenünk, hogy nem sokkal azután, hogy megjelenik az első hír, miszerint a gép elérte az emberi intelligencia szintjét, szembesülhetünk a Földön való együttélés valóságával olyasmivel, ami sokkal magasabb lesz, mint mi ezen a létrán (vagy talán és milliószor magasabb):

Kép
Kép

És mivel megállapítottuk, hogy teljesen haszontalan megpróbálni megérteni egy olyan gép erejét, amely csak két lépéssel van felettünk, határozzuk meg egyszer és mindenkorra, hogy nincs mód arra, hogy megértsük, mit fog tenni az ISI és milyen következményekkel jár ez nekünk lesz. Aki az ellenkezőjét állítja, egyszerűen nem érti, mit jelent a szuperintelligencia.

Az evolúció lassan és fokozatosan fejlesztette ki a biológiai agyat több száz millió év alatt, és ha az emberek szuperintelligens gépet hoznak létre, bizonyos értelemben meghaladjuk az evolúciót. Vagy az evolúció része lesz - talán az evolúció úgy működik, hogy az intelligencia fokozatosan fejlődik, amíg el nem éri azt a fordulópontot, amely új élőlényt hirdet minden élőlény számára:

Kép
Kép

A későbbiekben megvitatandó okok miatt a tudományos közösség hatalmas része úgy véli, hogy nem az a kérdés, hogy eljutunk -e ehhez a fordulóponthoz, hanem az, hogy mikor.

Hova jutunk ezek után?

Azt hiszem, ezen a világon senki, sem én, sem te nem lesz képes megmondani, mi fog történni, amikor elérjük a fordulópontot. Az oxfordi filozófus és az AI vezető teoretikusa, Nick Bostrom úgy véli, hogy minden lehetséges eredményt két nagy kategóriába sorolhatunk.

Először is, ha a történelmet nézzük, a következőket tudjuk az életről: a fajok megjelennek, léteznek egy bizonyos ideig, majd óhatatlanul leesnek az egyensúlyi sugárról és kihalnak.

Kép
Kép

"Minden faj kihal" olyan megbízható szabály volt a történelemben, mint "minden ember egyszer meghal". A fajok 99,9% -a esett le az élet rönkjéről, és teljesen világos, hogy ha egy faj túl sokáig lóg ezen a rönkön, a természetes széllökés vagy hirtelen kisbolygó megfordítja a rönköt. Bostrom a kihalást a vonzó állapotának nevezi - egy olyan helyre, ahol minden faj egyensúlyban van, hogy ne essen oda, ahol még egyetlen faj sem tért vissza.

És bár a legtöbb tudós elismeri, hogy az ISI képes lesz kihalni az embereket, sokan azt is hiszik, hogy az ISI képességeinek kihasználása lehetővé teszi az egyének (és a faj egésze) számára, hogy elérjék a vonzó második állapotát - a faj halhatatlanságát. Bostrom úgy véli, hogy egy faj halhatatlansága éppúgy vonzó, mint egy faj kihalása, vagyis ha eljutunk ehhez, örök létre vagyunk ítélve. Így, ha eddig minden faj e botról a kihalás forgatagába esett, Bostrom úgy véli, hogy a rönknek két oldala van, és egyszerűen nem jelent meg a Földön olyan intelligencia, amely megértené, hogyan kell a másik oldalra esni.

Kép
Kép

Ha Bostromnak és másoknak igaza van, és a rendelkezésünkre álló információk alapján ítélhetjük meg, akkor igazuk lehet, két nagyon sokkoló tényt kell elfogadnunk:

Az ISI megjelenése a történelemben először megnyitja az utat egy faj számára a halhatatlanság eléréséhez és a kihalás végzetes körforgásából való kieséshez.

Az ISI megjelenése olyan elképzelhetetlenül nagy hatást fog kifejteni, hogy valószínűleg az egyik vagy másik irányba leszorítja az emberiséget erről a rönkről.

Lehetséges, hogy amikor az evolúció eléri ezt a fordulópontot, mindig véget vet az emberek kapcsolatának az életárammal, és új világot teremt, emberekkel vagy anélkül.

Ez egy érdekes kérdéshez vezet, amelyet csak egy bummer nem kérdezne meg: mikor jutunk el ehhez a fordulóponthoz, és hová tesz minket? Erre a kettős kérdésre a világon senki nem tudja a választ, de sok okos ember évtizedek óta próbálta kitalálni. A cikk további részében kitaláljuk, honnan származnak.

* * *

Kezdjük ennek a kérdésnek az első részével: mikor kell elérnünk a fordulópontot? Más szóval: mennyi idő van hátra, amíg az első gép eléri a szuperintelligenciát?

A vélemények esetenként eltérőek. Sokan, köztük Vernor Vinge professzor, Ben Herzel tudós, a Sun Microsystems társalapítója, Bill Joy, Ray Kurzweil futurista egyetértettek a gépi tanulás szakértőjével, Jeremy Howarddal, amikor a következő grafikont mutatta be a TED Talk-on:

Kép
Kép

Ezek az emberek osztják azt a nézetet, hogy az ISI hamarosan jön - ez a ma számunkra lassúnak tűnő exponenciális növekedés a következő néhány évtizedben szó szerint felrobban.

Mások, például a Microsoft társalapítója, Paul Allen, Gary Marcus kutatási pszichológus, Ernest Davis számítógép-szakértő és Mitch Kapor technológiai vállalkozó úgy vélik, hogy a Kurzweilhez hasonló gondolkodók komolyan alábecsülik a probléma nagyságát, és úgy gondolják, hogy közel sem vagyunk olyan közel ahhoz, fordulópont.

Kurzweil tábora azzal érvel, hogy az egyetlen alulbecsülés, ami előfordul, az az exponenciális növekedés figyelmen kívül hagyása, és a kételkedők azokhoz hasonlíthatók, akik 1985 -ben nézték a lassan virágzó internetet, és azzal érveltek, hogy ennek nincs hatása a világra a közeljövőben.

A kételkedők elháríthatják, hogy a haladás nehezebb megtenni minden további lépést, amikor az intelligencia exponenciális fejlesztéséről van szó, amely semlegesíti a technológiai fejlődés tipikus exponenciális jellegét. Stb.

A harmadik tábor, amelyben Nick Bostrom van, nem ért egyet sem az elsővel, sem a másodikkal, azzal érvelve, hogy a) mindez a közeljövőben teljesen megtörténhet; és b) nincs garancia arra, hogy ez egyáltalán megtörténik, vagy hosszabb ideig tart.

Mások, mint a filozófus, Hubert Dreyfus, úgy vélik, hogy mindhárom csoport naivan hiszi, hogy egyáltalán lesz fordulópont, és nagy valószínűséggel soha nem jutunk el az ISI -hez.

Mi történik, ha ezeket a véleményeket összevonjuk?

2013 -ban Bostrom felmérést végzett, amelyben több száz mesterséges intelligencia -szakértőt kérdezett meg a következő témájú konferenciákon: "Milyen előrejelzései vannak az AGI emberi szint elérésére?" és arra kért bennünket, hogy nevezzünk meg egy optimista évet (amelyben 10 százalékos eséllyel lesz AGI), reális feltételezést (olyan évet, amelyben 50 százalékos valószínűséggel lesz AGI) és egy magabiztos feltételezést (a legkorábbi év, amelyben Az AGI 90 százalékos valószínűség óta jelenik meg). Íme az eredmények:

* Átlagos optimista év (10%): 2022

* Átlagos reális év (50%): 2040

* Átlagos pesszimista év (90%): 2075

Az átlagos válaszadók úgy vélik, hogy 25 év múlva inkább AGI lesz, mint nem. Az AGI előfordulásának 90 százalékos esélye 2075 -re azt jelenti, hogy ha még nagyon fiatal vagy, akkor ez valószínűleg az életedben fog megtörténni.

Külön tanulmányt készített nemrég James Barratt (az elismert és nagyon jó, Legújabb találmányunk könyv szerzője, részletek a Bemutattam az olvasók figyelmébe Hi-News.ru) és Ben Hertzel az AGI konferencián, az éves AGI konferencián egyszerűen megmutatta az emberek véleményét arról az évről, amikor elérjük az AGI-t: 2030, 2050, 2100, később vagy soha. Íme az eredmények:

* 2030: a válaszadók 42% -a

* 2050: 25%

* 2100: 20%

2100 után: 10%

Soha: 2%

Hasonló a Bostrom eredményeihez. Barratt felmérésében a megkérdezettek több mint kétharmada úgy véli, hogy 2050-re itt lesz az AGI, és kevesebb mint fele hiszi, hogy az AGI megjelenik a következő 15 évben. Az is feltűnő, hogy a válaszadók mindössze 2% -a elvileg nem látja az AGI -t a jövőben.

De az AGI nem fordulópont, mint az ISI. Szakértők szerint mikor lesz ISI?

Bostrom megkérdezte a szakértőket, hogy mikor érjük el az ASI -t: a) két évvel az AGI elérése után (vagyis szinte azonnal az intelligencia robbanása miatt); b) 30 év után. Eredmények?

Az átlagos vélemény szerint az AGI -ről az ISI -re való gyors átállás 10% valószínűséggel, de 30 év vagy annál rövidebb idő múlva 75% -os valószínűséggel fog megtörténni.

Ezekből az adatokból nem tudjuk, hogy a válaszadók melyik időpontban neveznék az ASI 50 százalékos esélyét, de a fenti két válasz alapján tegyük fel, hogy 20 év. Vagyis a világ vezető AI -szakértői úgy vélik, hogy a fordulópont 2060 -ban jön (az AGI 2040 -ben jelenik meg + 20 évbe telik, amíg átáll az AGI -ről az ISI -re).

Kép
Kép

Természetesen a fenti statisztikák mindegyike spekulatív, és egyszerűen a mesterséges intelligencia területén tevékenykedő szakértők véleményét reprezentálják, de azt is jelzik, hogy a legtöbb érdeklődő egyetért abban, hogy 2060 -ra valószínűleg megérkezik az AI. Mindössze 45 év alatt.

Térjünk át a második kérdésre. Amikor a fordulóponthoz érünk, a végzetes választás melyik oldala fog minket meghatározni?

A szuperintelligenciának lesz a legerősebb ereje, és a kritikus kérdés számunkra a következő lesz:

Ki vagy mi fogja irányítani ezt a hatalmat, és mi lesz a motivációjuk?

A válasz erre a kérdésre attól függ, hogy az ISI hihetetlenül erőteljes fejlődést, mérhetetlenül félelmetes fejlődést kap -e, vagy valami közteset.

Természetesen a szakértői közösség ezekre a kérdésekre is igyekszik válaszolni. Bostrom közvélemény -kutatása elemezte az AGI emberiségre gyakorolt hatásának lehetséges következményeinek valószínűségét, és kiderült, hogy 52 százalékos eséllyel minden nagyon jól fog menni, 31 százalékkal pedig vagy rosszul, vagy rendkívül rosszul. A téma előző részének végén csatolt szavazás, amelyet köztetek végeztek, kedves Hi-News olvasók, körülbelül ugyanezeket az eredményeket mutatta. Viszonylag semleges eredmény esetén a valószínűség csak 17%volt. Más szóval, mindannyian hisszük, hogy az AGI nagy ügy lesz. Azt is érdemes megjegyezni, hogy ez a felmérés az AGI megjelenésére vonatkozik - az ISI esetében a semlegesség aránya alacsonyabb lesz.

Mielőtt mélyebben gondolkodnánk a kérdés jó és rossz oldalain, egyesítsük a kérdés mindkét oldalát - "mikor fog ez megtörténni?" és "ez jó vagy rossz?" táblázatba, amely a legtöbb szakértő véleményét tartalmazza.

Kép
Kép

Egy perc múlva beszélünk a főtáborról, de előbb döntsük el a helyzetünket. Valószínűleg ugyanazon a helyen vagy, mint én, mielőtt elkezdtem dolgozni ezen a témán. Számos oka van annak, hogy az emberek egyáltalán nem gondolnak erre a témára:

* Amint az első részben említettük, a filmek komolyan összezavarják az embereket és a tényeket, irreális forgatókönyveket mutatnak be a mesterséges intelligenciával, ami azt eredményezte, hogy egyáltalán nem szabad komolyan venni az AI -t. James Barratt ezt a helyzetet ahhoz hasonlította, hogy a Centers for Disease Control (CDC) kiadta a jövőbeli vámpírokra vonatkozó komoly figyelmeztetéssel.

* Az úgynevezett kognitív elfogultságok miatt nagyon nehéz elhinni, hogy valami valóságos, amíg nincs bizonyítékunk. Magabiztosan el lehet képzelni, hogy az 1988-as informatikusok rendszeresen megbeszélik az internet messzemenő következményeit és azt, hogy mi válhat belőle, de az emberek alig hitték, hogy ez megváltoztatja az életüket, amíg valójában meg nem történik. Csak a számítógépek 1988 -ban nem tudták, hogyan kell ezt megtenni, és az emberek csak nézték a számítógépüket, és azt gondolták: „Valóban? Ez az, ami megváltoztatja a világot? Képzeletüket korlátozták a személyes tapasztalatokból tanultak, tudták, mi a számítógép, és nehéz volt elképzelni, mire lesz képes a számítógép a jövőben. Ugyanez történik most az AI -val. Hallottuk, hogy ez komoly dolog lesz, de mivel még nem találkoztunk vele szemtől szemben, és általában az AI meglehetősen gyenge megnyilvánulásait figyeljük meg modern világunkban, meglehetősen nehéz elhinni, hogy radikálisan megváltoztatni az életünket. Ezeknek az előítéleteknek ellentmond, hogy minden tábor számos szakértője, valamint az érdeklődők ellenzik, hogy a mindennapi kollektív egocentrizmus zaján keresztül próbálják megragadni a figyelmünket.

* Még ha el is hittük mindezt - ma hányszor gondoltál arra, hogy az örökkévalóság hátralévő részét a semmiben fogod tölteni? Egy kicsit, egyetértek. Még akkor is, ha ez a tény sokkal fontosabb, mint bármi, amit nap mint nap teszel. Ez azért van, mert agyunk általában apró, mindennapi dolgokra összpontosít, bármennyire is téveszmés a hosszú távú helyzet. Csak annyi, hogy meg vagyunk teremtve.

Ennek a cikknek az egyik célja az, hogy kikerüljön a "Szeretek másokra gondolni" elnevezésű táborból, és a szakértői táborba helyezzen, még akkor is, ha éppen a tér két szaggatott vonala közötti válaszútnál áll. fent, teljesen határozatlan.

A kutatás során nyilvánvalóvá válik, hogy a legtöbb ember véleménye gyorsan a "főtábor" felé sodródik, és a szakértők háromnegyede a főtáborban két altáborba esik.

Kép
Kép

Mindkét tábort teljes egészében meglátogatjuk. Kezdjük a szórakozással.

Miért lehet a jövő a legnagyobb álmunk?

Az AI világ felfedezése során meglepően sok embert találunk a komfortzónánkban. Az emberek a jobb felső téren zsongnak az izgalomtól. Azt hiszik, hogy a rönk jó oldalára fogunk esni, és azt is, hogy elkerülhetetlenül erre jutunk. Számukra a jövő csak a legjobb, amiről csak álmodni lehet.

Nem az különbözteti meg ezeket az embereket a többi gondolkodótól, hogy nem a boldog oldalon akarnak lenni - hanem abban, hogy biztosak abban, hogy ő vár ránk.

Ez a bizalom a vitákból fakad. A kritikusok úgy vélik, hogy káprázatos izgalomból fakad, amely elhomályosítja a lehetséges negatív oldalakat. De a hívek szerint a komor jóslatok mindig naivak; A technológia folytatódik, és mindig többet segít nekünk, mint ártani nekünk.

E vélemények bármelyikét szabadon választhatja, de tegye félre a szkepticizmust, és alaposan nézze meg az egyensúlynyaláb boldog oldalát, és próbálja elfogadni azt a tényt, hogy minden, amiről olvasott, már megtörtént. Ha megmutatná a vadászó -gyűjtögetőknek a kényelem, a technológia és a végtelen bőség világát, ez varázslatos fikciónak tűnik számukra - mi pedig meglehetősen szerényen viselkedünk, nem tudjuk elismerni, hogy a jövőben is ugyanaz az érthetetlen átalakulás vár ránk.

Nick Bostrom három utat ír le, amelyeken egy szuperintelligens AI rendszer járhat:

* Egy jóslat, amely bármilyen pontos kérdésre válaszolni tud, beleértve azokat a nehéz kérdéseket is, amelyekre az emberek nem tudnak válaszolni - például "hogyan lehet hatékonyabbá tenni egy autó motorját?" A Google egy primitív típusú "orákulum".

* Egy dzsinn, aki bármilyen magas szintű parancsot végrehajt - molekuláris összeszerelő segítségével az autómotor új, hatékonyabb verzióját hozza létre -, és várja a következő parancsot.

* Szuverén, aki széles körű hozzáféréssel rendelkezik, és képes lesz szabadon működni a világban, saját döntéseit meghozva és javítva a folyamatot. Olcsóbb, gyorsabb és biztonságosabb közlekedési módot fog kitalálni, mint egy autó.

Ezek a számunkra nehéznek tűnő kérdések és feladatok a szuperintelligens rendszer számára úgy tűnnek, mintha valaki a helyzet javítását kérné „leesett a ceruzám az asztalról”, amelyben egyszerűen felveszi és visszarakja.

Eliezer Yudkowski, a mesterséges intelligencia amerikai szakembere jól fogalmazott:

„Nincsenek nehéz problémák, csak olyan problémák, amelyek egy bizonyos szintű intelligencia számára nehézek. Lépjen egy lépéssel feljebb (intelligencia tekintetében), és néhány probléma hirtelen a "lehetetlen" kategóriából a "nyilvánvaló" táborába kerül. Egy lépéssel feljebb - és mind nyilvánvalóvá válik."

Sok türelmetlen tudós, feltaláló és vállalkozó van, akik a magabiztos kényelmi zónát választották asztalunkról, de csak egy útmutatóra van szükségünk ahhoz, hogy a legjobbakat járjuk ebben a világ legjobb részében.

Ray Kurzweil kétértelmű. Van, aki bálványozza ötleteit, van, aki megveti őt. Vannak, akik középen maradnak - Douglas Hofstadter, Kurzweil könyveinek ötleteit tárgyalva, ékesszólóan megjegyezte, hogy „olyan, mintha sok jó ételt és egy kis kutyapiszkot vitt volna, majd mindent úgy összekevert, hogy lehetetlen megérteni. mi a jó és mi a rossz."

Akár tetszik az ötlete, akár nem, lehetetlen elmenni mellettük az érdeklődés árnyéka nélkül. Tizenéves korában kezdte el feltalálni a dolgokat, és a következő években számos fontos dolgot talált ki, köztük az első síkágyas szkennert, az első szkennert, amely szöveget beszéddé alakított, a jól ismert Kurzweil zenei szintetizátort (az első igazi elektromos zongorát), és az első kereskedelmi szempontból sikeres beszédfelismerő. Emellett öt szenzációs könyv szerzője. Kurzweilt nagyra értékelik merész jóslatai miatt, és a múltja is elég jó - a 80 -as évek végén, amikor az internet még gyerekcipőben járt, azt jósolta, hogy a 2000 -es évekre a világ globális jelenséggé válik. A Wall Street Journal Kurzweilt "nyugtalan zseni" -nek, a Forbes "globális gondolkodó gépnek" nevezte, Inc. Magazin - "Edison jogos örököse", Bill Gates - "a legjobb azok közül, akik megjósolják a mesterséges intelligencia jövőjét". 2012-ben a Google társalapítója, Larry Page meghívta Kurzweilt a technikai igazgatónak. 2011-ben társalapította a Singularity Egyetemet, amelynek a NASA a házigazdája, és részben a Google szponzorálja.

Az életrajza számít. Amikor Kurzweil a jövőképéről beszél, őrülten őrültnek hangzik, de az igazán őrült dolog az, hogy messze nem őrült - hihetetlenül okos, művelt és épeszű ember. Azt gondolhatja, hogy téved az előrejelzéseiben, de nem bolond. Kurzweil jóslatait számos kényelmi zóna szakértő, Peter Diamandis és Ben Herzel osztja. Ez szerinte meg fog történni.

Kronológia

Kurzweil úgy véli, hogy a számítógépek 2029 -re elérik az általános mesterséges intelligencia (AGI) szintjét, és 2045 -re nemcsak mesterséges szuperintelligenciánk lesz, hanem egy teljesen új világ is - az úgynevezett szingularitás ideje. A mesterséges intelligencia kronológiáját még mindig felháborítóan túlzónak tartják, de az elmúlt 15 évben a magasan fókuszált mesterséges intelligencia (AI) rendszerek gyors fejlődése sok szakértőt kényszerített Kurzweil mellé. Jóslatai még mindig ambiciózusabbak, mint a Bostrom felmérésében (AGI 2040 -re, ISI 2060 -ra), de nem sokkal.

Kurzweil szerint a 2045 -ös szingularitást a biotechnológia, a nanotechnológia és, ami még fontosabb, az AI három egyidejű forradalma vezérli. Mielőtt azonban folytatnánk - és a nanotechnológia szorosan követi a mesterséges intelligenciát -, szánjunk egy pillanatot a nanotechnológiára.

Kép
Kép

Néhány szó a nanotechnológiáról

Általában nanotechnológiai technológiákat nevezünk, amelyek az anyag manipulációjával foglalkoznak 1-100 nanométer tartományban. A nanométer a méter egymilliárdod része, vagy a milliméter milliomodrésze; az 1-100 nanométeres tartományban vírusok (100 nm átmérőjű), DNS (10 nm széles), hemoglobin molekulák (5 nm), glükóz (1 nm) és mások befogadhatók. Ha a nanotechnológia valaha is alá van vetve nekünk, akkor a következő lépés az egyes atomok manipulálása lesz, amelyek egy nagyságrendnél kisebbek (~, 1 nm).

Ahhoz, hogy megértsük, hol ütköznek az emberek problémába az anyag ilyen mértékű manipulálása során, ugorjunk egy nagyobb léptékre. A Nemzetközi Űrállomás 481 kilométerrel a Föld felett található. Ha az emberek óriások lennének, és fejükkel ütnék az ISS -t, akkor 250 000 -szer nagyobbak lennének, mint most. Ha 250 000 -szer nagyít valamit 1-100 nanométer között, akkor 2,5 centimétert kap. A nanotechnológia megfelel az embernek, aki az ISS körül kering, és megpróbálja manipulálni a homokszem vagy a szemgolyó méretű dolgokat. A következő szint eléréséhez - az egyes atomok szabályozásához - az óriásnak óvatosan kell elhelyeznie az 1/40 milliméter átmérőjű tárgyakat. A hétköznapi embereknek mikroszkópra van szükségük, hogy lássák őket.

Richard Feynman először 1959 -ben beszélt a nanotechnológiáról. Aztán ezt mondta: „Amennyire meg tudom mondani, a fizika elvei nem mondanak ellene annak a lehetőségnek, hogy atomról atomra irányítsák a dolgokat. Elvileg egy fizikus képes bármilyen vegyi anyag szintetizálására, amelyet egy vegyész írt le. Hogyan? Azáltal, hogy az atomokat oda helyezi, ahol a vegyész azt mondja, hogy szerezze be az anyagot. Ez az egész egyszerűség. Ha tudja, hogyan mozgathatja az egyes molekulákat vagy atomokat, akkor szinte bármit megtehet.

A nanotechnológia 1986 -ban vált komoly tudományterületté, amikor Eric Drexler mérnök a Teremtés gépei című kötetében bemutatta alapjait, de maga Drexler úgy véli, hogy azoknak, akik többet szeretnének megtudni a modern nanotechnológiai ötletekről, olvassák el 2013 -as könyvét. Teljes bőség (Radical Bőség).

Néhány szó a "szürke goo" -ról

Mélyebben foglalkozunk a nanotechnológiával. Különösen a "szürke goo" téma az egyik nem túl kellemes téma a nanotechnológia területén, amelyet nem lehet figyelmen kívül hagyni. A nanotechnológia elméletének régebbi verziói egy nano-összeszerelési módszert javasoltak, amely több milliárd apró nanorobot létrehozását foglalja magában, amelyek együtt dolgoznak valami létrehozásán. A trillió nanorobot létrehozásának egyik módja az, hogy létrehozzunk egyet, amely képes önismétlődni, azaz egytől kettőig, kettőtől négyig stb. Egy nap alatt több billió nanorobot jelenik meg. Ez az exponenciális növekedés ereje. Vicces, nem?

Vicces, de pontosan addig, amíg az apokalipszishez nem vezet. A probléma az, hogy az exponenciális növekedés ereje, amely nagyon kényelmes módot jelent a trillió nanobot gyors létrehozására, hosszú távon ijesztő dologgá teszi az önreplikációt. Mi van, ha a rendszer összeomlik, és ahelyett, hogy leállítanák a replikációt pár billióért, a nanobotok tovább szaporodnak? Mi van, ha ez az egész folyamat a szén -dioxidtól függ? A Föld biomasszája 10 ^ 45 szénatomot tartalmaz. Egy nanobotnak 10 ^ 6 szénatom nagyságrendűnek kell lennie, így 10 ^ 39 nanobot mindössze 130 ismétlésben felfalja a Föld összes életét. A nanobotok óceánja ("szürke goo") elárasztja a bolygót. A tudósok úgy vélik, hogy a nanobotok 100 másodperc alatt képesek megismétlődni, ami azt jelenti, hogy egy egyszerű hiba mindössze 3,5 óra alatt megölheti a Föld összes életét.

Még rosszabb is lehet - ha terroristák és kedvezőtlen szakemberek kerülnek a nanotechnológia kezébe. Több ezer milliárd nanobotot hozhatnak létre, és programozhatják őket, hogy pár hét múlva csendesen elterjedjenek a világban. Aztán egyetlen gombnyomásra, mindössze 90 perc múlva egyáltalán megesznek mindent, esély nélkül.

Bár ezt a horror történetet évek óta széles körben vitatják, a jó hír az, hogy ez csak egy horror történet. Eric Drexler, aki megalkotta a "szürke goo" kifejezést, nemrég a következőket mondta: "Az emberek szeretik a horror történeteket, és ez az egyik zombi horror történet. Ez az ötlet már önmagában eszi az agyat."

Ha már a nanotechnológia mélyére értünk, felhasználhatjuk technikai eszközök, ruházat, élelmiszerek, biotermékek - vérsejtek, vírus- és rák elleni harcosok, izomszövetek és így tovább - létrehozásához. A nanotechnológiát alkalmazó világban pedig egy anyag költségei már nem a szűkösségéhez vagy a gyártási folyamat összetettségéhez, hanem inkább az atomszerkezet összetettségéhez köthetők. A nanotechnológia világában a gyémánt olcsóbb lehet, mint a radír.

Még a közelében sem vagyunk. És nem teljesen világos, hogy alul- vagy túlbecsüljük -e ennek az útnak az összetettségét. Minden azonban odáig megy, hogy a nanotechnológia nincs messze. Kurzweil feltételezi, hogy a 2020 -as évekre megleszünk. A világállamok tudják, hogy a nanotechnológia nagy jövőt ígérhet, ezért sok milliárdot fektetnek bele.

Képzelje csak el, milyen lehetőségeket kapna egy szuperintelligens számítógép, ha megbízható nanoméretű összeszerelőhöz jutna. De a nanotechnológia a mi ötletünk, és megpróbáljuk meglovagolni, ez nehéz nekünk. Mi van, ha csak tréfát jelentenek az ISI rendszer számára, és maga az ISI olyan technológiákkal áll elő, amelyek sokszor erősebbek, mint bármi, amit elvileg feltételezhetünk? Egyetértettünk: senki sem tudja elképzelni, hogy a mesterséges szuperintelligencia mire lesz képes? Úgy tartják, hogy agyunk nem képes megjósolni a minimumot sem arról, hogy mi fog történni.

Mit tehet értünk az AI?

Kép
Kép

A szuperintelligenciával és minden olyan technológiával felfegyverkezve, amelyet a szuperintelligencia létrehozhat, az ISI valószínűleg képes lesz megoldani az emberiség összes problémáját. Globális felmelegedés? Az ISI először megállítja a szén -dioxid -kibocsátást azáltal, hogy számos hatékony módszert talál az energia előállítására, amelyek nem kapcsolódnak a fosszilis tüzelőanyagokhoz. Ezután hatékony és innovatív módszert fog találni a felesleges CO2 eltávolítására a légkörből. Rák és más betegségek? Nem probléma - az egészségügy és az orvostudomány elképzelhetetlen módon fog változni. Világ éhség? Az ISI a nanotechnológia segítségével olyan húst fog előállítani, amely azonos a természetes, a semmiből származó valódi hússal.

A nanotechnológia képes lesz egy halom szemetet friss húsból vagy más élelmiszerből készült edénybe (nem feltétlenül a szokásos formájában - képzeljünk el egy óriási almakockát) alakítani, és mindezt az élelmiszereket szétosztani szerte a világon a fejlett szállítási rendszerek segítségével. Természetesen ez nagyszerű lesz azoknak az állatoknak, amelyeknek már nem kell meghalniuk az élelemért. Az ISI sok más dolgot is tehet, például megőrizheti a veszélyeztetett fajokat, vagy akár kihozhatja azokat a tárolt DNS -ből. Az ISI megoldhatja legnehezebb makrogazdasági problémáinkat - legnehezebb gazdasági vitáinkat, etikai és filozófiai kérdéseinket, globális kereskedelmünket -, amelyek mind fájdalmasan nyilvánvalóak lesznek az ISI számára.

De van valami nagyon különleges, amit az ISI tehet értünk. Csábító és csábító, ami mindent megváltoztat: Az ISI segíthet megbirkózni a halandósággal … Fokozatosan felismerve az AI képességeit, talán átgondolja a halálról alkotott elképzeléseit.

Semmi oka nem volt arra, hogy az evolúció meghosszabbítsa élettartamunkat, mint most. Ha elég sokáig élünk ahhoz, hogy szülhessünk és nevelhessünk olyannyira gyerekeket, hogy képesek legyenek megvédeni magukat, akkor elég az evolúció. Evolúciós szempontból a 30+ év elegendő a fejlődéshez, és nincs ok arra, hogy a mutációk meghosszabbítsák az életet és csökkentsék a természetes szelekció értékét. William Butler Yates fajunkat "haldokló állathoz kötődő léleknek" nevezte. Nem túl szórakoztató.

És mivel valamennyien egyszer meghalunk, azzal a gondolattal élünk, hogy a halál elkerülhetetlen. Idővel az öregedésre gondolunk - folytatjuk az előrehaladást, és nem tudjuk megállítani ezt a folyamatot. De a halál gondolata áruló: elfogva elfelejtjük élni. Richard Feynman írta:

„Van egy csodálatos dolog a biológiában: ebben a tudományban nincs semmi, ami a halál szükségességéről beszélne. Ha örökmozgató gépet akarunk létrehozni, rájövünk, hogy elegendő törvényt találtunk a fizikában, amelyek vagy ennek lehetetlenségét jelzik, vagy hogy a törvények tévesek. De a biológiában nincs semmi, ami a halál elkerülhetetlenségére utalna. Ez elhiteti velem, hogy ez nem olyan elkerülhetetlen, és csak idő kérdése, hogy a biológusok felfedezzék ennek a problémának az okát, ezt a szörnyű egyetemes betegséget, és meg fogják gyógyítani."

Az a tény, hogy az öregedésnek semmi köze az időhöz. Az öregedés az, amikor a test fizikai anyagai elhasználódnak. Az autóalkatrészek is romlanak - de elkerülhetetlen az öregedés? Ha úgy javítja autóját, hogy az alkatrészek elhasználódnak, az örökké tart. Az emberi test sem más - csak összetettebb.

Kurzweil az intelligens, Wi-Fi-hez csatlakoztatott nanobotokról beszél a véráramban, amelyek számtalan feladatot láthatnak el az emberi egészség érdekében, beleértve a kopott sejtek rendszeres javítását vagy cseréjét a test bármely pontján. Ennek a folyamatnak a javítása (vagy az intelligensebb ASI által javasolt alternatíva megtalálása) nemcsak a test egészségét tartja meg, hanem visszafordíthatja az öregedést. A 60 éves és a 30 éves test teste közötti különbség egy maroknyi fizikai probléma, amelyek a megfelelő technológiával orvosolhatók. Az ISI építhet egy olyan autót, amelybe egy személy 60 éves korában belép, és 30 éves korában távozik.

Még egy leromlott agy is megújulhat. Az ISI biztosan tudná, hogyan kell ezt megtenni anélkül, hogy befolyásolná az agyadatokat (személyiség, emlékek stb.). Egy 90 éves férfi, aki teljes agyromlásban szenved, átképzésen eshet át, megújulhat, és visszatérhet élete elejére. Abszurdnak tűnhet, de a test maroknyi atom, és az ISI minden bizonnyal könnyen manipulálhatja őket, bármilyen atomi szerkezetet. Nem olyan abszurd.

Kurzweil azt is hiszi, hogy az idő múlásával a mesterséges anyagok egyre jobban beépülnek a testbe. Kezdetben az orgonákat lecserélhetik szuper-fejlett gépváltozatokra, amelyek örökké tartanak és soha nem buknak meg. Ezután elvégezhetnénk a test teljes átalakítását, és a vörösvértesteket lecserélhetnénk tökéletes nanobotokra, amelyek önmagukban mozognak, és teljesen szükségtelenné teszik a szívet. Továbbá javíthatnánk kognitív képességeinken, elkezdhetnénk milliárdszor gyorsabban gondolkodni, és a felhőn keresztül elérhetnénk az emberiség számára elérhető összes információt.

Az új horizontok megértésének lehetőségei végtelenek lennének. Az embereknek sikerült új célt felruházniuk a szexel, élvezetből teszik, nem csak a szaporodás érdekében. Kurzweil úgy véli, hogy ugyanezt tehetjük az étellel. A nanobotok ideális táplálékot juttathatnak közvetlenül a test sejtjeihez, lehetővé téve az egészségtelen anyagok átjutását a szervezetben. Robert Freitas nanotechnológia -elméleti szakember már kifejlesztette a vérsejtek helyettesítőjét, amelyet az emberi szervezetben megvalósítva lehetővé teszi számára, hogy 15 percig ne lélegezzen - és ezt egy személy találta ki. Képzeld el, mikor fog az ISI hatalmat szerezni.

Végül is Kurzweil úgy véli, hogy az emberek eljutnak arra a pontra, amikor teljesen mesterségesekké válnak; az idő, amikor a biológiai anyagokat nézzük, és elgondolkodunk azon, hogy mennyire primitívek voltak; amikor az emberi történelem korai szakaszáról fogunk olvasni, csodálkozva azon, hogy a kórokozók, balesetek, betegségek vagy egyszerűen az öregség hogyan ölheti meg az embert akarata ellenére. Végső soron az emberek legyőzik saját biológiájukat és örökkévalóvá válnak - ez az út az egyensúlynyaláb boldog oldalához, amelyről a kezdetektől fogva beszéltünk. És az emberek, akik hisznek ebben, abban is biztosak, hogy ilyen jövő vár ránk nagyon -nagyon hamar.

Valószínűleg nem fog meglepődni azon, hogy Kurzweil ötletei erős kritikát váltottak ki. 2045 -ös szingularitását és az azt követő örök életet az emberek „neveletlenek felemelkedésének” vagy „140 -es IQ -val rendelkező emberek intelligens teremtésének” nevezték. Mások megkérdőjelezték az optimista időkeretet, az emberi test és agy megértését, emlékeztetve Moore törvényére, amely még nem szűnt meg. Minden szakértő, aki hisz Kurzweil elképzeléseiben, hárman gondolják úgy, hogy téved.

De a legérdekesebb ebben az, hogy a legtöbb szakértő, aki nem ért egyet vele, összességében nem mondja, hogy ez lehetetlen. Ahelyett, hogy azt mondanák: "baromság, ez soha nem fog megtörténni", valami olyasmit mondanak, hogy "mindez meg fog történni, ha eljutunk az ISI -hez, de ez a probléma". Bostrom, az egyik elismert AI szakértő, aki figyelmeztet az AI veszélyeire, szintén elismeri:

„Alig maradt olyan probléma, amelyet a szuperintelligencia nem tudna megoldani, vagy akár segíteni is tudna nekünk. Betegség, szegénység, környezetpusztítás, mindenféle szenvedés - mindez a szuperintelligencia a nanotechnológia segítségével pillanatok alatt megoldható. A szuperintelligencia korlátlan élettartamot is biztosíthat számunkra azáltal, hogy megállítja és megfordítja az öregedési folyamatot a nanomedicina segítségével vagy azzal, hogy fel tud tölteni minket a felhőbe. A szuperintelligencia lehetőséget teremthet az értelmi és érzelmi képességek végtelen növelésére is; segíthet nekünk egy olyan világ létrehozásában, amelyben örömben és megértésben fogunk élni, megközelítve eszméinket és rendszeresen megvalósítva álmainkat."

Ez egy idézet Kurzweil egyik kritikusától, aki azonban elismeri, hogy mindez lehetséges, ha biztonságos ASI -t tudunk létrehozni. Kurzweil egyszerűen meghatározta, mivé kell válnia a mesterséges szuperintelligenciának, ha egyáltalán lehetséges. És ha jó isten.

A komfortzónát támogatók legnyilvánvalóbb kritikája az, hogy átkozottul tévedhetnek, amikor felmérik az ISI jövőjét. A szingularitás című könyvében Kurzweil 700 lehetséges ISI -fenyegetésből 20 oldalt szentelt. Nem az a kérdés, hogy mikor jutunk el az ISI -hez, hanem az, hogy mi lesz a motivációja. Kurzweil óvatosan válaszol erre a kérdésre: „Az ISI sok különböző erőfeszítésből ered, és mélyen be fog épülni civilizációnk infrastruktúrájába. Valójában szorosan beágyazódik a testünkbe és az agyunkba. Ő tükrözni fogja értékeinket, mert egy lesz velünk."

De ha a válasz az, miért aggódik ennyi okos ember ezen a világon a mesterséges intelligencia jövője miatt? Miért mondja Stephen Hawking, hogy az ISI fejlődése "az emberi faj végét jelentheti"? Bill Gates azt mondja, hogy "nem érti az embereket, akiket ez nem zavar". Elon Musk attól tart, hogy "démonot idézünk". Miért tartja sok szakértő az ISI -t a legnagyobb veszélynek az emberiségre?

Erről beszélünk legközelebb.

Ajánlott: