A következő címkéjű bejegyzések mutatása: technológiai szingularitás. Összes bejegyzés megjelenítése
A következő címkéjű bejegyzések mutatása: technológiai szingularitás. Összes bejegyzés megjelenítése

2017. január 30., hétfő

"Jövőkutatás" közvélemény-kutatással

Korábbi írásomban a technológiai szingularitást jártam körbe. Ami a jóslatokat illeti, annál többet nem nagyon lehet tenni, mint amit Kurzweil jósol az exponenciális trendek alapján. Írásomat ott fejeztem be, hogy ezt lehet kritizálni, de ha ettől nagy eltérés lenne, vagy véget érne az exponenciális fejlődés, annak véleményem szerint nem technikai akadálya lenne, hanem olyan külső körülmény, ami az egész technikai civilizációt vetné vissza drasztikusan, veszélyeztetve akár a létünket is.

Az emberiség szempontjából fontos kérdés tehát az, hogy elkerülhető-e egy ilyen válság a mesterséges intelligencia megjelenése előtt, és persze az is, hogy a mesterséges intelligencia nem okoz-e ilyen válságot. Egy ilyen válság bekövetkezését és annak dátumát megjósolni szintén lehetetlen, viszont nagyon érdekes az, hogy mi erről az emberek véleménye. Ismerőseim körében végezten nem reprezentatív felmérést. A kérdés az volt, hogy mit gondolnak, milyen időrendi sorrendben fognak bekövetkezni az alábbi események az emberiség történetében, vagy bekövetkeznek-e egyáltalán valamikor?

  1. Technikailag és gazdaságilag is életképes fúziós reaktor(ok) létrehozása, amely(ek) szinte korlátlanul biztosítanak olcsó és tiszta (nem környezetszennyező) energiaforrást az emberiségnek.
  2. Valódi mesterséges intelligencia megalkotása, amely erőforrásbeli előnye révén (például bővíthető vagy hálózatba köthető memóriakapacitás, érzékelők sokfélesége és kifinomultsága, stb.) képes meghaladni az emberi intelligenciát.
  3. Az emberiség létszámát és/vagy életminőségét drasztikusan visszavető globális katasztrófa a bolygón (klímakatasztrófa, világháború, halálos vírus okozta világméretű járvány, olajválság, stb.)

Majdnem 40 ember válaszolt. Többségük magas végzettségű, műszaki érdeklődésű, tájékozott ember, de nem szakértő. A válaszok szinte minden variációt lefedtek. Az alábbiakban láthatjuk, hogy melyik variációt hányan választották. Az eseményeket jelölő betűk (A: fúziós energia, B: MI, C: válság) sorrendje az időbeli sorrendet reprezentálja, zárójelben pedig azok az események szerepelnek, amik a válaszadó szerint soha nem következnek be.

  • ABC 4.5
  • ACB 1
  • BAC 5 /MI → fúzió → válság/
  • BCA 3
  • CAB 4
  • CBA 6 /válság → MI → fúzió/
  • BC (A) 2
  • CB (A) 2
  • AC (B) 2
  • CA (B) 3.5 /válság → fúzió, MI soha/
  • AB (C) 1.5
  • BA (C) 0
  • A (BC) 0
  • B (AC) 0
  • C (AB) 1.5
  • (ABC) 0

A válaszadók 81.6%-a szerint lesz mesterséges intelligencia, és 93% szerint lesz nagy válság. Ahhoz kevés az adat, hogy az egymástól való függőségeket is jellemezzük, azonban a válaszadók többsége szerint (54%) inkább a válság lesz előbb. A válaszadók 35%-a szerint a válság után már nem lesz MI, vagyis úgy tartják, hogy az MI-t nem lehet elérni, vagy túl drasztikus lesz a válság.

A válaszadók összessége szerint a válság inkább az említett technikai vívmányok előtt, mint utánuk következik be. A válaszadók optimisták a válságot illetően, ugyanis összegezve a válaszokat azt kapjuk, hogy 91% annak a valószínűsége, hogyha a válság előbb van, akkor utánna még bekövetkezik legalább az egyik technikai vívmány. Azt is láthatjuk, hogy a közvélekedés szerint ha valamelyik technikai vívmány (A vagy B) nem történik meg, akkor inkább MI nem lesz, de ha bekövetkezik, akkor inkább előbb, mint a fúzió.

Hálás köszönet mindenkinek, aki részt vett a felmérésben. És külön köszönet azoknak, akik a kérdőívben szereplő kérdésen kívül részletesebben is megosztották véleményüket valamely témával kapcsolatban. Nagyon sok érdekes gondolatot ismerhettem meg. Ha valaki az eredmények fényében még hozzá szólna a témához, szívesen veszem itt a megjegyzéseknél.

2016. november 30., szerda

A technológiai szingularitás

Technológiai szingularitásnak nevezzük a mesterséges intelligencia esetleges megalkotása után létrejövő technikai fejlődésnek azt a véges időn belül bekövetkező szinguláris pontját, amikor az emberi intelligencia és technika felfoghatatlan mértékben válna túlhaladottá. Ez a feltételezett intelligenciarobbanás azon alapszik, hogy egy biológiai korlátoktól mentes emberi szintű mesterséges intelligencia, amely önmagát szabadon tudja fejleszteni, a visszacsatolás miatt véges idő alatt tudna magának lényegében akármilyen nagy számítási teljesítményt fejleszteni.

Gondoljunk végig, hogy mi történne akkor, ha a kutatást emberek helyett már az emberi gondolkodást teljes mértékben helyettesíteni képes intelligens gépek végeznék, amik egyúttal maguk is kutatások és fejlesztések tárgyai, azaz elviekben memóriájuk tovább bővíthető, algoritmusaik hatékonysága és sebessége növelhető, számuk sokszorozható, energiafelhasználásuk csökkenthető, és így tovább. Ha korábban az embereknek a technikai fejlődés által például két évente sikerült a számítási teljesítményt megduplázniuk, akkor az őket helyettesítő gépeknek is ennyire lesz szükségük kezdetben. A második év után azonban a megnövelt számítási teljesítménnyel rendelkező gépeknek fele ennyi idő is elég lesz az újabb duplázáshoz, a rákövetkező gépgenerációnak pedig ennek a fele, és így tovább.

Az ultraintelligens gépek tehát hamar maguk mögött hagynák az ember intelligenciáját, emiatt az ultraintelligens gép lenne az utolsó találmány, amit az embernek létre kéne hoznia. Így fogalmazott I. J. Good már 1965-ben. Raymond Kurzweil közismert jövőkutató, feltaláló és mesterséges intelligencia kutató A spirituális gépek kora és A szingularitás küszöbén című könyvek szerzője a szingularitás elérését 2045-re jósolja. A dátum relatíve közelinek tűnik, de Kurzweil szerint ez a fejlődés érzékelésének lineáris ütemű illúziója miatt van, miközben a valóságos fejlődés exponenciális ütemű. Ennek megfelelően a 21. században nem 100 évnyi, hanem a jelenlegi ütemben mérve, 20000 évnyi fejlődést fogunk megtapasztalni.

Kurzweil jóslatának alapja az exponenciális ütemű fejlődés, ez vezethet viszonylag rövid időn belül a mesterséges intelligencia és a szingularitás eléréséhez. Ilyen exponenciális fejlődést tapasztalunk a technika számos területén. A legismertebb a Moore-törvény, amely szerint az integrált áramkörök összetettsége 18 hónaponként megduplázódik. De hasonló exponenciális ütemű fejlődés érvényes a számítási sebességre, vagy a chipek méretére is. Nagyjából évtizedenként minden lineáris méret a negyedére csökken. Az exponenciális javulás továbbá érvényes egységnyi költségre vonatkoztatva is, vagyis mindent egybevéve exponenciálisan nő az egy dollárra jutó számítási kapacitás.

Egyesek ellenvetése lehet, hogy a fejlődésnek fizikai korlátai vannak, de Kurzweil rámutat arra, hogy ettől nagyon távol vagyunk. Egy adott technikai megoldásra persze mindig érvényesek a fizikai korlátok, de a fejlődés során újabb és újabb technikai megoldások kerülnek elő. A fenti exponenciális ütemű fejlődés különféle technológiákon és paradigmákon kersztül érvényes, lásd ábra. Sőt Kurzweil amellett érvel, hogy igazából még az exponenciális kitevője is exponenciálisan növekszik, tehát a fejlődés még ennél is gyorsabb lesz, lásd a felfele görbülő trendet a logaritmikus ábrán. Személy szerint egyébként abból, hogy nincsenek olyan technológiai ugrások, amik nem illeszkednek a trendbe, azt a következtetést vonom le, hogy amíg nincsenek fizikai korlátok, addig a trend hajtórugója valójábana a gazdasági fejlődés, ami mindig ki fogja termelni az újabb megoldásokat.

Mások ellenvetése az lehet, hogy bár nő a számtási kapacitás, az intelligencia megjelenése minőségi változást feltételez. Mi van akkor, ha a hardver exponenciálisan fejlődik, de ezt a szoftverről nem mondhatjuk el? Ez utóbbi fejlődését valóban nehéz kvantifikálni, de ugyancsak Kurzweil becsli a szoftverfejlesztés produktivitásának megkettőződési idejét, mégpedig körülbelül hat évre. Ugyanakkor azt is mondhatjuk, hogy nincs is szükség ultraokos szoftvert kitalálni. Ha az emberi agy által végzett algoritmusoknál tudunk majd jobbat alkotni, az persze előnyös, de abban az esetben, ha csak lemásoljuk szolgaian az emberi agyat, vagyis szimuláljuk a működését neuronális szinten, az is elegendő. Lényegében ebből a célból indították mostanában a hatalmas költségvetésű amerikai és európai agykutatási projekteket.

Az exponenciális fejlődés pedig az agykutatásra is elmondható. A képalkotó eszközök tér- és időbeli felbontása évente megduplázódik nem invazív és invazív eljárásokra egyaránt. A képalkotás sávszélessége, az ár-teljesítmény arány és a képrekonstrukció sebessége szintén exponenciálisan javul az idővel. Az agyból szerzett információk adatbázisának nagysága szintén duplázódik évente, a tudományterületen dolgozó tudósok számáról már nem is beszélve.

A szingularitáskritikák három csoportra oszthatók. Egyesek megkérdőjelezik az exponenciális trendek jövőre való kivetíthetőségét. Erről már beszéltünk, de ha nem is lenne pontos az exponenciális becslés, véleményem szerint legfeljebb pár évtized tévedést okozhat. Mások az emberivel egyenértékű mesterséges intelligencia létrehozásának lehetőségében kételkednek, ők valószínűleg azt feltételezik, hogy az agy több, mint a fizikai törvények által leírható objektum. Szintén mások, bár úgy hiszik, hogy a szingularitás lehetséges, azt veszélyesnek és elkerülendőnek tartják, bár én azt gondolom a technikai fejlődést mesterségesen megakadályozni nem lehet. Kurtzweil azonban amellett is érvel, hogy a mesterséges intelligencia eljövetele, nem egy szeparáltan alkotott gép formájában jön el, hanem mi magunk fogunk fokozatosan átalakulni, a nanotechnológia és biotechnológia segítségével. Ilyen forgatókönyv mellett pedig csak az a kérdés, hogy kell-e majd magunktól félnünk.

Azt gondolom azonban, hogy végeredményben a legfőbb akadály egyáltalán nem technikai jellegű. Az a kérdés, hogy ez az egész bekövetkezik-e azelőtt, mint hogy az egész emberiség jelentős válságba kerülne, amely jelentősen visszaveti a technikai civilizációt és akár túlélésünket is veszélyezteti. Gondolhatunk itt például globális klíma katasztrófára, világháborúra, gazdasági válságokra, vagy világméretű járványokra, melyek mindegyikének reális veszélye van.