A következő címkéjű bejegyzések mutatása: Tudomány rovat. Összes bejegyzés megjelenítése
A következő címkéjű bejegyzések mutatása: Tudomány rovat. Összes bejegyzés megjelenítése

2016. november 30., szerda

A technológiai szingularitás

Technológiai szingularitásnak nevezzük a mesterséges intelligencia esetleges megalkotása után létrejövő technikai fejlődésnek azt a véges időn belül bekövetkező szinguláris pontját, amikor az emberi intelligencia és technika felfoghatatlan mértékben válna túlhaladottá. Ez a feltételezett intelligenciarobbanás azon alapszik, hogy egy biológiai korlátoktól mentes emberi szintű mesterséges intelligencia, amely önmagát szabadon tudja fejleszteni, a visszacsatolás miatt véges idő alatt tudna magának lényegében akármilyen nagy számítási teljesítményt fejleszteni.

Gondoljunk végig, hogy mi történne akkor, ha a kutatást emberek helyett már az emberi gondolkodást teljes mértékben helyettesíteni képes intelligens gépek végeznék, amik egyúttal maguk is kutatások és fejlesztések tárgyai, azaz elviekben memóriájuk tovább bővíthető, algoritmusaik hatékonysága és sebessége növelhető, számuk sokszorozható, energiafelhasználásuk csökkenthető, és így tovább. Ha korábban az embereknek a technikai fejlődés által például két évente sikerült a számítási teljesítményt megduplázniuk, akkor az őket helyettesítő gépeknek is ennyire lesz szükségük kezdetben. A második év után azonban a megnövelt számítási teljesítménnyel rendelkező gépeknek fele ennyi idő is elég lesz az újabb duplázáshoz, a rákövetkező gépgenerációnak pedig ennek a fele, és így tovább.

Az ultraintelligens gépek tehát hamar maguk mögött hagynák az ember intelligenciáját, emiatt az ultraintelligens gép lenne az utolsó találmány, amit az embernek létre kéne hoznia. Így fogalmazott I. J. Good már 1965-ben. Raymond Kurzweil közismert jövőkutató, feltaláló és mesterséges intelligencia kutató A spirituális gépek kora és A szingularitás küszöbén című könyvek szerzője a szingularitás elérését 2045-re jósolja. A dátum relatíve közelinek tűnik, de Kurzweil szerint ez a fejlődés érzékelésének lineáris ütemű illúziója miatt van, miközben a valóságos fejlődés exponenciális ütemű. Ennek megfelelően a 21. században nem 100 évnyi, hanem a jelenlegi ütemben mérve, 20000 évnyi fejlődést fogunk megtapasztalni.

Kurzweil jóslatának alapja az exponenciális ütemű fejlődés, ez vezethet viszonylag rövid időn belül a mesterséges intelligencia és a szingularitás eléréséhez. Ilyen exponenciális fejlődést tapasztalunk a technika számos területén. A legismertebb a Moore-törvény, amely szerint az integrált áramkörök összetettsége 18 hónaponként megduplázódik. De hasonló exponenciális ütemű fejlődés érvényes a számítási sebességre, vagy a chipek méretére is. Nagyjából évtizedenként minden lineáris méret a negyedére csökken. Az exponenciális javulás továbbá érvényes egységnyi költségre vonatkoztatva is, vagyis mindent egybevéve exponenciálisan nő az egy dollárra jutó számítási kapacitás.

Egyesek ellenvetése lehet, hogy a fejlődésnek fizikai korlátai vannak, de Kurzweil rámutat arra, hogy ettől nagyon távol vagyunk. Egy adott technikai megoldásra persze mindig érvényesek a fizikai korlátok, de a fejlődés során újabb és újabb technikai megoldások kerülnek elő. A fenti exponenciális ütemű fejlődés különféle technológiákon és paradigmákon kersztül érvényes, lásd ábra. Sőt Kurzweil amellett érvel, hogy igazából még az exponenciális kitevője is exponenciálisan növekszik, tehát a fejlődés még ennél is gyorsabb lesz, lásd a felfele görbülő trendet a logaritmikus ábrán. Személy szerint egyébként abból, hogy nincsenek olyan technológiai ugrások, amik nem illeszkednek a trendbe, azt a következtetést vonom le, hogy amíg nincsenek fizikai korlátok, addig a trend hajtórugója valójábana a gazdasági fejlődés, ami mindig ki fogja termelni az újabb megoldásokat.

Mások ellenvetése az lehet, hogy bár nő a számtási kapacitás, az intelligencia megjelenése minőségi változást feltételez. Mi van akkor, ha a hardver exponenciálisan fejlődik, de ezt a szoftverről nem mondhatjuk el? Ez utóbbi fejlődését valóban nehéz kvantifikálni, de ugyancsak Kurzweil becsli a szoftverfejlesztés produktivitásának megkettőződési idejét, mégpedig körülbelül hat évre. Ugyanakkor azt is mondhatjuk, hogy nincs is szükség ultraokos szoftvert kitalálni. Ha az emberi agy által végzett algoritmusoknál tudunk majd jobbat alkotni, az persze előnyös, de abban az esetben, ha csak lemásoljuk szolgaian az emberi agyat, vagyis szimuláljuk a működését neuronális szinten, az is elegendő. Lényegében ebből a célból indították mostanában a hatalmas költségvetésű amerikai és európai agykutatási projekteket.

Az exponenciális fejlődés pedig az agykutatásra is elmondható. A képalkotó eszközök tér- és időbeli felbontása évente megduplázódik nem invazív és invazív eljárásokra egyaránt. A képalkotás sávszélessége, az ár-teljesítmény arány és a képrekonstrukció sebessége szintén exponenciálisan javul az idővel. Az agyból szerzett információk adatbázisának nagysága szintén duplázódik évente, a tudományterületen dolgozó tudósok számáról már nem is beszélve.

A szingularitáskritikák három csoportra oszthatók. Egyesek megkérdőjelezik az exponenciális trendek jövőre való kivetíthetőségét. Erről már beszéltünk, de ha nem is lenne pontos az exponenciális becslés, véleményem szerint legfeljebb pár évtized tévedést okozhat. Mások az emberivel egyenértékű mesterséges intelligencia létrehozásának lehetőségében kételkednek, ők valószínűleg azt feltételezik, hogy az agy több, mint a fizikai törvények által leírható objektum. Szintén mások, bár úgy hiszik, hogy a szingularitás lehetséges, azt veszélyesnek és elkerülendőnek tartják, bár én azt gondolom a technikai fejlődést mesterségesen megakadályozni nem lehet. Kurtzweil azonban amellett is érvel, hogy a mesterséges intelligencia eljövetele, nem egy szeparáltan alkotott gép formájában jön el, hanem mi magunk fogunk fokozatosan átalakulni, a nanotechnológia és biotechnológia segítségével. Ilyen forgatókönyv mellett pedig csak az a kérdés, hogy kell-e majd magunktól félnünk.

Azt gondolom azonban, hogy végeredményben a legfőbb akadály egyáltalán nem technikai jellegű. Az a kérdés, hogy ez az egész bekövetkezik-e azelőtt, mint hogy az egész emberiség jelentős válságba kerülne, amely jelentősen visszaveti a technikai civilizációt és akár túlélésünket is veszélyezteti. Gondolhatunk itt például globális klíma katasztrófára, világháborúra, gazdasági válságokra, vagy világméretű járványokra, melyek mindegyikének reális veszélye van.

2016. augusztus 30., kedd

Melyik szín a nehezebb?

Kicsit furcsán hangozhat a kérdés, nem kell azonban szinesztéziásnak lenni ahhoz, hogy a színekhez súlyérzetet társítsunk. Bárki számára ismerős lehet, hogy amikor ránéz egy képre, akkor úgy érzi van egy súlypontja. Ezt az érzettársítást az építészetben is, főleg a belsőépítészetben, régóta figyelembe veszik. Mivel a sötétebb színeket nagyobb tömegűnek érezzük a világosabbakat pedig könnyebbeknek, ezért az előbbiek a fejünk fölött nyomott érzetet keltenek, ha alattuk világosabb színek kapnak helyet. Gondoljunk el egy falat, ami derékmagasságig világos derékmagasság fölött pedig sötétre van festve. Egy ilyen fal mellett azt éreznénk, hogy ránk akar dőlni. Tudományos igényességgel elsőként E. Bullough vizsgálta ezt a jelenséget az 1900-as évek legelején.

De miből fakadhat az, hogy a sötét színekhez nagyobb tömeget asszociálunk? Ennek valószínűleg egyszerű oka van, megtanultuk ugyanis azt, hogy a megvilágítás általában felülről érkezik, vagyis a világos van fent, a sötét, vagyis az árnyék lent. Ezt a tapasztalatot tudat alatt alkalmazzuk, amikor többféleképpen értelmezhető képeket vagy képelemeket automatikusan úgy értelmezünk, hogy feltételezzük azt, hogy a világosabb részek felülről kapják a fényt. Ez a helyzet például egy korábbi írásomban már említett optikai illúziónál, Bajcsy-Zsilinszky homorú alakja esetében, amit a Deák-téren láthatunk. Az alábbi sajtos tallér részlet is egy jó példa. Ha a tallérról készült képrészletet fejjel lefelé fordítjuk, akkor a mélyedések kitüremkedésnek látszanak. De ezt az ambivalenciát soha nem érzékeljük a valóságban, amikor a tallért teljes egészében látjuk és felismerhető.

Az a tapasztalat, hogy telített színek esetében a spektrális világosság a döntő, színeken belül pedig a világosság számít, ami a súlyérzetünket befolyásolja. Ezekre a tapasztalatokra épül a csomagolások színkódja is, például a csökkentett zsírtartalmú tej általában világos kék, vagy pasztel színű csomagolásban, a magas zsírtartalmú pedig sötét piros dobozban kerül forgalomba.

Eddig azonban csak a látvány érzetéről beszéltünk, felmerül a kérdés, hogy a szín a valódi súlyérzékelésünket is befolyásolja-e fizikai interakció esetén. Kiderül, hogy igen, azaz ugyanolyan tömegű és térfogatú objektumokat eltérő színű csomagolópapírba csomagolva eltérő nehézségűnek fogjuk érzékelni. Sőt a színek még a térfogat és a hőmérséklet érzékelésére is hatással vannak. Ez utóbbinál azonban egy érdekes paradox jelenséget figyelhetünk meg, ami hasonló a korábban már ismertetett Charpentier-illúzióhoz, nevezetesen az tapasztalható, hogy azonos hőmérsékletű objektumok közül a piros hidegebbnek tűnik, mint a kék, pedig nyilvánvalóan a piroshoz társítjuk a forróságot.

Irodalom:

Bullough: On the apparent heaviness of colours (1907)
Monroe: The apparent weight of color and correlated phenomena (1925)
Gundlach & Macoubrey: The effect of color on apparent size (1931)
Payne: Apparent weight as a function of color (1958)
Wright: The influence of hue, lightness, and saturation on apparent warmth and weight (1962)
Pinkerton & Humphrey: The apparent heaviness of colours (1974)
Ho et al.: Combining colour and temperature: A blue object is more likely to be judged as warm than a red object (2014)

2016. május 30., hétfő

Mire jók a gyufafeladványok, és miért nem jó, ha túl nagy az agyunk?

Egy gyufaszál áthelyezésével alakítsd át egy igaz aritmetikai állítássá! Ez az utasítás az alábbi feladványok mindegyikénél, amiket egy olyan vizsgálatban használtak, amiben részt vettek egészséges és agyi károsodást szenvedett emberek is. A legnehezebb, azaz legnagyobb kreativitást igénylő (C) jelű gyufafeladványokat, az egészségesek közül mindössze 43% tudta megoldani, míg a részleges agykárosodást szenvedett betegek közül 82% oldotta meg sikeresen a rendelkezésre álló három perc alatt.

(B) IV = III - I
(A) VI = VII + I
(C) III = III + III

(A) IV = III + III
(B) V = III - II
(C) VI = VI + VI

(B) VIII = VI - II
(C) IV = IV + IV
(A) II = III + I

(C) VII = VII + VII
(A) VII = II + III
(B) VI = IV - II

Hogyan lehetséges ez? Természetesen a betegeknek nem akármilyen agyterületük sérült, hanem egy speciális agykárosodást vizsgáltak ebben a kísérletben. Olyan agyi károsult betegeket választottak a vizsgálathoz, akiknél a frontális kéreg oldalsó része sérült például tumor, ciszta, vagy stroke következményeként.

A homloklebenyt (frontális lebeny) az agy elemző és irányító-ellenőrző központjának szokták tekinteni, amelyhez számos funkció köthető, például a tervezés, vagy a feladatok közti váltás és figyelem megosztás irányítása. Bár rengeteg ismeretünk van erről a területről, a konkrét működéséről és részeinek pontos szerepéről keveset tudunk. Egy elmélet szerint a frontális kéreg dorso-laterális része az a terület, ahol a korábbi tapasztalatok alapján (például az epizodikus memóriára is támaszkodva) az aktuálisan befogadott stimulust figyelembe véve kialakulnak a lehetséges válaszok, amiknek a választását forszírozza ez a terület a tapasztalatok alapján megítélt megfelelőségi valószínűségekkel súlyozva.

A fenti agyi régió az, amely a vizsgálatban részt vevő betegeknél sérült, tehát a hipotézis szerint ez a terület nem irányítja a figyelmet egészséges mértékben a korábbi tapasztalatok alapján valószínűsíthető szokványos megoldási utak felé, hanem nagyobb teret hagy a szabad asszociációknak, és így hamarabb vagy nagyobb eséllyel találja meg az alany a megoldást kreativitást igénylő feladatok esetén. Ezt támasztja alá az is, hogy a beteg csoportban nincsen szignifikáns különbség az (A) jelű szokványos és (C) jelű kreatív megoldást igénylő feladatok megoldási hatékonyságában. Az (A) jelű feladatok esetében számokból számokba kell pakolni a gyufaszálakat, míg a (C) jelű feladatok esetében az operátorokat kell átalakítani, ami a szokványos keretből való kilépést jelent.

De ha az agyi károsultak jobban teljesítenek, akkor miért van szükség mégis a nagyobb agyra? Természetesen azért, mert nem minden esetben jó a kreativitás. Feladattól függ, hogy milyen problémamegoldási módszerre van szükség. A kreativitás lényegében korábban elszigetelt tapasztalatok közötti kapcsolatok találása külső vagy belső forrásból táplálkozó asszociációk révén, aminek eredményeképpen új tapasztalat, gondolkodási séma vagy valamilyen közvetíthető produktum jelenik meg. A kreativitásnak megvan a helye és ideje, amikor hasznos, de a folyamatos kreativitás nem lenne jó. Nagyon kreatív például az, ha valaki folyamatosan összeesküvés elméleteket gyárt, de őket skizofréneknek hívjuk. Egy forglmas úton való áthaladásnak is végtelen mennyiségű kreatív formája lehet, de az ember akkor jár a legjobban, ha nem választ kreatív megoldást, hanem a jól bevált kommersziális módon kel át az úttesten. Más esetben a kreativitás hasznos dolog, főleg az ötletelésnél, de a megvalósítás folyamatában már sokszor akadály, ezért fontos az egyensúlyt megtalálni, amit egy egészséges agy valószínűleg éppen optimálisan szabályoz.

Záró idézet:

Egyetlen felfedezésem sem született racionális gondolkodás során.

Albert Einstein

Az eredeti cikk és előzményei, azaz néhány gyufafeladványos publikáció:

Reverberi2005: Better without (lateral) frontal cortex? Insight problems solved by frontal patients (kritika)
Knoblich2001: An eye movement study of insight problem solving
Knoblich1999: Constraint relaxation and chunk decomposition in insight problem solving

2016. február 20., szombat

Amit a görbült téridőről tudni érdemes

A világsajtó tele a gravitációs hullámok detektálásával kapcsolatos hírekkel. A felfedezés jelentőségét a holdra szálláséhoz hasonlítják. Sosem gondoltam volna, hogy a nyomtatott és on-line sajtó hasábjait ellepik Einstein általános relativitáselméletét magyarázni próbáló írások, a televízió és videó csatornák pedig a fekete lyukakat és a téridő fodrozódásait próbálják szemléltetni a nézőknek. Bár sok érdekes dolgot meg lehet tudni az interneten a gravitációs hullámokról, a legtöbb cikk terjedelmi korlátok miatt rengeteg kérdést hagy az érdeklődő olvasókban. Arról nem is beszélve, hogy az általános relativitáselmélet nem olyasmi, amit pár bekezdésben el lehet magyarázni és két kávé között meg tudunk emészteni.

Tekintettel arra, hogy volt szerencsém a felfedezést bejelentő amerikai LIGO detektornál diákként, majd később a kollaboráció másik tagjánál, az olaszországi Virgo detektornál asztrofizikusként dolgozni, arra gondoltam, hogy egy cikksorozatban megpróbálom a szokásosnál kicsit részletesebben, de lényegre törő és közérthető módon körbejárni a gravitációs hullámok detektálásával kapcsolatos kérdéseket. Ha pedig netán maradna megválaszolatlan kérdés, azt nyugodtan feltehetitek a hozzászólásokban. A cikksorozat első részében egyelőre az általános relativitáselméletben megjelenő görbül téridőről lesz szó.

Az általános relativitáselmélet előfutára a speciális relativitáselmélet, amelyet Albert Einstein 1905-ben megjelent A mozgó testek elektrodinamikája című cikke alapozott meg. A speciális relativitáselmélet azóta jól megértett és lezárt fejezete a klasszikus fizikának. Az ugyancsak Einstein által 1915-ben kidolgozott általánosrelativitás elmélet ezzel szemben a téridő görbültségből adódó erős nemlinearitása miatt számos nyitott problémával ma is intenzív kutatások tárgyát képezi. Mindkét elmélet külön-külön is gyökeresen megváltoztatta a térről és időről alkotott évezredek óta fennálló elképzeléseinket.

De mi a köze az elektrodinamikának a speciális relativitáselmélethez? Az elektromos és mágneses mezők dinamikáját az ún. Maxwell-egyenletek írják le, amikben szerepel egy fizikai állandó, a fénysebesség. A sebesség azonban egy relatív fogalom, így felmerül a kérdés, hogy melyik vonatkoztatási rendszerben érvényesek az elektrodinamikát leíró Maxwell-egyenletek. Ezen hipotetikus vonatkoztatási rendszer lenne az éter, aminek a kimutatása a fénysebesség magas értéke miatt nem triviális. Kiderült azonban az éter kimutatására tervezett Michelson–Morley-féle interferencia kísérletből, hogy nem létezik ilyen kitüntetett inerciarendszer, vagyis a fénysebesség minden inerciarendszerre érvényes természeti állandó.

Ez a fénynek a hétköznapitól eltérő igen furcsa viselkedése, hiszen azt jelenti, hogy hiába nézem a fényt egy vele egy irányba (vagy akár ellentétesen) haladó tetszőlegesen gyors vonatról, a fény relatíve továbbra is pontosan fénysebességgel halad, vagyis a sebességek összeadásának hagyományos képlete nem érvényes. Ez viszont azt jelenti, hogy a sebesség fogalmához kapcsolódóan a távolság mérés és/vagy az egyidejűség hagyományos értelmezésén kell változtatni. Tulajdonképpen logikailag egy triviális gondolatmenet, de csak Einstein volt olyan merész, hogy elfogadta ezt a következtetést. Mindezek alapján kiderül, hogy érdemes az időt a térkoordinátákhoz hasonlóan kezelni, ehhez csupán meg kell szorozni a fénysebesség fizikai állandóval, hogy távolság dimenziójú mennyiséget kapjunk. Így jutunk a téridő fogalmához, ami egyelőre még nem görbült, és csupán matematikai könnyebbségnek tűnik.

Mint azt láthattuk, a speciális relativitáselmélet pont arra lett kitalálva, hogy az elektrodinamikát le tudja írni tetszőleges sebességű inerciális vonatkoztatási rendszerben. Egyúttal el kellett fogadni posztulátumként a kölcsönhatások véges terjedési sebességét. Így azonban nem lehetünk elégedettek, mert a gravitáció Newton-féle erőtörvénye nem konzisztens a speciális relativitáselmélettel, hiszen a newtoni képlet szerint a gravitáció pillanatszerűen a végtelenbe ható erő, márpedig a speciális relativitáselmélet szerint semmilyen hatás nem terjedhet gyorsabban a fénysebességnél. Természetesen megpróbálhatjuk korrigálni a tömegvonzás képletét a késleltetett elektromos potenciál mintájára bevezetett késleltetett gravitációs potenciállal, kiderül azonban, hogy így nem kapunk a megfigyelésekkel (pl. Merkúr perihélium elfordulása) konzisztens eredményeket, és az elmélet önmagában sem lesz konzisztens, de ezt most nem részletezzük.

Látjuk tehát a motivációt, hogy többek között miért nem volt elégedett Einstein a speciális relativitáselmélettel és a gravitáció Newtoni értelmezésével. De mi az a gondolat, ami a gravitációt is leíró általános relativitáselmélet megalkotásához vezetett? Vegyük észre, hogy a természetben fellépő erők többsége független attól, hogy milyen tömegű testre hat, kivéve a gravitációt és a nem inerciarendszerben fellépő tehetetlenségi erőket (pl. centrifugális erő). Megfelelő egység választással a gravitáló és tehetetlen tömeg azonosnak vehető, azonban kérdés, hogy ez az arány univerzális-e. Tulajdonképpen Galilei is ezt mérte ki a Pisai ferde toronyban nagyon durva mérési pontossággal, nagy pontossággal (10^-9) pedig Eötvös mérte meg először. Einstein szerint a két tömeg egyenlősége nem lehet véletlen, hiszen mérési eljárásuk is teljesen más. Ezért arra következtetett, hogy a gravitáció sokkal mélyebb kapcsolatban van a vonatkoztatási rendszerrel és a fizikai téridővel, mint ahogyan azt korábban gondoltuk. Azt feltételezte, hogy a gravitáció tulajdonképpen nem erő, hanem valamilyen módon a téridő geometriájának sajátsága.

Ennek megfelelően az általános relativitáselmélet legfontosabb posztulátuma, az ún. ekvivalencia-elv, amit Einstein olyan formában mondott ki, hogy egy gyorsuló vonatkoztatási rendszer, semmilyen lokális méréssel nem megkülönböztethető egy lokálisan homogén gravitációs mezőtől. Ezt szokták úgy szemléltetni, hogy egy liftkabinba zárt fizikus nem képes különbséget tenni aközött, hogy a kabin gyorsul, és aközött, hogy a kabin gravitációs erőtérben van. Az ekvivalencia-elvből pedig rögtön következik a téridő görbültsége, vagyis az, hogy gravitációs térben a fény útja elgörbül. Ha ugyanis a fény inerciarendszerben egyenesen halad, akkor erre merőlegesen gyorsuló rendszerben görbült lesz a pályája, úgy ahogyan egy eldobott kő pályája sem egyenes, hanem ballisztikus görbe, ez pedig az ekvivalencia-elv szerint azt jelenti, hogy a gravitációs tér is a fény elhajlását tudja okozni.

Ebben a képben tehát fény elhajlását nem a gravitációs erő okozza, hanem a tömeg gravitációs teret kelt, ami annak felel meg, hogy meggörbíti a téridőt, a fény pedig továbbra is egyenesen halad, csak ez a görbült téridőn egy elhajlást fog eredményezni. Hasonlóan a bolygók mozgását sem úgy kell elképzelni az általános relativitáselméletben, hogy a tömegvonzás tartja őket pályán, hanem úgy hogy a központi csillag által meggörbített térben haladnak a csillag körüli zárt pályán, mint egy lankás gödör peremén körbe haladó labda. Az ábra természetesen csak illusztráció, hiszen mindezt négy dimenzióban kéne elképzelnünk.

Intuitív képet kaptunk tehát arról, hogy a téridőt a gravitáció miért görbíti. Ennek a különös fizikának a kvantitatív leírása azonban a négydimenziós differenciálgeometria nyelvén van megfogalmazva. A cikksorozat további részeiben igyekszem továbbra is mellőzni a képleteket, de megpróbálom érzékeltetni, hogy az Einstein-egyenletekből miképp adódnak a gravitációs hullámok. Körbejárjuk továbbá azt is, hogy az általános relativitáselméletre milyen bizonyítékaink vannak, és mit tudunk a gravitációs hullámokról a gyakorlatban. Szó lesz arról, hogy milyen forrásokból származhatnak ilyen jelek, hogy ezeknek a hullámoknak milyen hatásuk van az anyagra, és hogyan lehet őket kimérni. Beszélni fogunk az interferometrikus gravitációs hullám detektorokról, amilyenek a mostani felfedezést tették, arról, hogy honnan származik a jel, hogy mennyire vagyunk ebben biztosak, és hogy milyen jelentősége van, továbbá mit várhatunk a jövőben.

2016. február 5., péntek

Mivégre jött létre az agy?

Szeretjük azt gondolni, hogy az ember az egyetelen faj az állatvilágban amelyik gondolkodni képes. Mivel pedig ismeretes, hogy agyunk komplexitása az egyik legnagyobb evolúciós vívmányunk, adódik a feltevés, hogy az emberi agy a gondolkodás végett fejlődött ki. Ilyenkor persze valójában a neocortexre gondolunk, amely az evolúció során legutolsóként alakult ki a hüllő agyra és a limbikus rendszerre rárakódva, és amelyről ismert, hogy ténylegesen a kognitív funkciókhoz köthető.

Tudjuk azonban, hogy az evolúció lépésekben halad, és nincsen célja, főleg nem távlati céljai, csupán a szelekció hatása érvényesül. Egy-egy kis lépést külső szemlélőként interpretálhatunk úgy, hogy az aktuális kihíváshoz adaptálódott élőlény elérte a célját azzal a kis evolúciós lépéssel, ha felismerhető a változás konkrét haszna. Mielőtt tehát rögtön a agy legmagasabb funkcióját vizsgálnánk, felmerül a sokkal alapvetőbb kérdés, hogy az agy, mint szerv, mivégre alakult ki a kezdetek kezdetén.

Ez természetesen egy igen nehéz kérdés, hiszen már annak a definiálása is problémás, hogy mikor tekintünk valamit külön szervnek, továbbá igen keveset tudunk arról, hogy ez a fejlődési folyamat egyáltalán hogyan zajlódhatott le. Ha azonban funkcionális szempontból közelítünk a kérdéshez, akkor mégiscsak találunk utalásokat arra vonatkozóan, hogy mi lehetett az agy legfontosabb feladata egészen primitív élőlényeknél, amiknek már nem volt elegendő néhány érzékelő idegsejt, hanem azoknak komolyabb hálózatos struktúrával rendelkező idegrendszerré kellett szerveződniük.

Az egyik dolog, amit megvizsgálhatunk, hogy jelenleg az agy mekkora erőforrásokat biztosít bizonyos funkciók ellátására. Ember esetében például a kisagy jóval kisebb, mint a nagyagy féltekéi, idegsejtjeinek száma mégis több. Bár a kisagy szerepével ma sem vagyunk teljesen tisztában, elsődlegesen a mozgás finom összehangolásáért felel. Nem véletlen, hogy ember esetén legszembetűnőbb a kisagy és a neocortex fejlettsége, hiszen kognitív funkcióink mellett az emberré válás nyilvánvalóan fontos tényezői az olyan finommotoros mozgások, mint az eszközhasználat, a távolbadobás és a beszéd. Ismert esetek alapján azonban azt is tudjuk, hogy kisagy nélkül is lehet élni, mégpedig alig észrevehető motoros zavarral. A kisagy hatalmas neuronszáma és komplex struktúrája tehát azt sugallja, hogy az egyébként működő mozgás picit precízebbé tételére rengeteg erőforrást kell használni, vagyis a mozgáskoordináció egy olyan komplex feladat, amely különösen nagy és jól szervezett neuronhálózatot igényel.

Egy másik megfigyelés, ami az agy mozgáskoordinációban betöltött eredeti és elsődleges szerepére utal, hogy az előgerinchúrosok (zsákállatok), szabadon úszó lárvakoruk után letelepednek és felemésztik az idegrendszerüket. Tehát a jelenleg élő kezdetleges idegrendszerrel, de már aggyal rendelkező élőlényeknél azt látjuk, hogy az élőlény az agyát lényegében csak a mozgáshoz használja, és amikor már nincs rá szüksége, akkor megszabadul tőle.

Ami a neocortex kialakulását illeti, arról sincsenek vitathatatlan információink, de egy dolog biztos, hogy nagy árat fizetünk az extrém nagy agyunkért. A nyugvó anyagcserénknek ugyanis a negyede agyunkra fordítódik, míg ugyanez az arány más főemlősnél 8 az emlősöknél pedig 3-4 százalék csupán. Hogy mire jó a nagyobb kéreg? Valami kapaszkodónk ezzel kapcsolatban lehet, mert megfigyelhető, hogy főemlősöknél direkt kapcsolat áll fenn a csoport mérete és a neocortex nagysága között, amiből a szocializáció, kooperáció és manipuláció fontosságára következtethetünk.

Kép forrása: Robin I. M. Dunbar: The social brain hypothesis (1998)

Hogy mi okozta a szelekciós nyomást az ember evolúciós léptékben mérve fölöttébb gyors evolúciójában, amit aztán más emlősök nem ismételtek meg, az vitatott kérdés. A mérvadó szelekciós előnyök között lehet az általános problémamegoldás és az átverés képessége, de az is lehetséges, hogy csupán azt mutatta az agy, hogy parazitáktól mentesek vagyunk, sőt egyesek szerint akár egy pávatollként megszaladt csodálatra méltó dísz is lehetett.

2015. május 10., vasárnap

Shannon száma

Claude Elwood Shannon (1916-2001) amerikai elektromérnök, híradástechnikus, matematikus és kriptográfus, az információelmélet alapító atyja. Ismertségét leginkább ez utóbbinak köszönheti, hiszen a róla elnevezett Shannon-féle entrópia az információelmélet központi fogalma, az információ mérésére bevezetett mennyiség, amely számos tudományterületet forradalmasított, az információelmélet eredményeit pedig megannyi műszaki megoldás felhasználja. Kevésbé ismert azonban az, hogy lényegében Shannon az atyja a számítógépes sakkozásnak is. 1949-ben írta meg úttörő cikkét arról, hogy mi az elméleti alapja egy számítógépes sakkprogram működésének. De műszaki ember lévén ő maga is épített kezdetleges sakkgépet, amint az az alábbi ábrán is látható Emanuel Lasker matematikus, filozófus és sakkvilágbajnok társaságában, aki egyébként rekord hosszúságú 27 éven keresztül tudta 1894 és 1921 között megvédeni világbajnoki címét.

Az kezdetek óta készült sakkprogramoknak lényegében mindegyike a Shannon által vázolt megoldásra épít, a mai sakkprogramok pedig már képesek túlszárnyalni a világbajnoki szintet is. Minden ilyen algoritmus őse az ún. minimax keresés, ami lényegében nagyon egyszerű. A sakkjáték leírható egy fa jellegű gráffal, aminek a csúcsai sakkállások, az irányított élek pedig a lehetséges lépések, amik egyik állapotból a másikba vezetik a játék fonalát. Egy állapothoz hozzá tartozik az is, hogy a sötét vagy a világos játékos következik. Ez az irányított fa a játék kezdő állapotából kiindulva leírja, hogy mik a lehetséges lépés sorozatok. Nyilvánvalóan minden játékosnak azt a lépést érdemes választania, ami az ellenfél legjobb válaszlépése esetén is a legkedvezőbb számára. Ha mindkét játékos ismerné ezt a hatalmas gráfot, és át tudnák tekinteni az összes lehetséges bejárást, akkor mindegyikük eldönthetné minden egyes állásról, hogy az nyerő, vesztő, vagy esetleg döntetlenre jönne ki az ellenfél optimális lépéseit figyelembe véve. Tulajdonképpen elvileg lehetséges, hogy a sakk esetében létezik nem vesztő stratégia, vagyis a kezdő állapot tulajdonképpen döntetlent ér.

A gyakorlatban azonban az említett fa gráfot nem lehet áttekinteni csak néhány lépés mélységig, akár emberről, akár gépről legyen szó, mert a gráf lényegében csillagászati méretű. Ebből kifolyólag az állásokat sem lehet értékelni egyértelműen, csak valamilyen heurisztika alapján, például figyelembe véve a bábuk pontértékét, a gyalogállást, és egyéb tényezőket, amiket tipikusan nagymesterek segítenek megállapítani, vagy játszmák alapján tanulják a programok. Ha azonban valamilyen közelítő értékelést tudunk adni a sakkállásokra, akkor a minimax keresés lesz az, amely valamilyen mélységig a legjobb lépéskombinációt megtalálja valamely játékos számára. Az elnevezés onnan jön, hogy az egyik játékos szempontjából az állásokra adott értékelést felváltva akarják maximalizálni illetve minimalizálni a játékosok, tekintettel arra, hogy felváltva lépnek. Az algoritmus roppant egyszerű, azonban a futási ideje a fa mélységével, azaz a lépések számával exponenciálisan növekszik. A Kaszparovot legyőző Deep Blue például átlagosan hat lépéspárt tekintett előre, míg a mai legjobb Hydra nevezetű gépi sakkozó kilenc lépéspárig tekint előre átlagosan. Sannonról egyébként egy trófeát is elneveztek, amit a sakkprogramok világbajnokságán a nyertes program tervezői kapnak. Ez látszik az alábbi képen, amint azt a Deep Blue elődjének a Deep Tought-nak a tervezője vesz át Shannontól 1989-ben.

De mégis mekkora az a csillagászati szám, amiről beszélünk? Shannon adott erre egy becslést az említett cikkben, amiben azt tekintette, hogy hányféle képpen lehet a táblára helyezni az alap sakkbábu készletet, vagyis azt, amivel a játék elején rendelkeznek az ellenfelek. Ezt nevezik Shannon-féle számnak. Ez természetesen lehet több is és kevesebb is, mint a játék során előforduló valódi sakkálások száma. Egyrészt nem minden állás állhat elő szabályos játék során. Például a gyalogok nem mehetnek hátrafele, vagy nem lehetnek a királyok egyszerre sakkban. Másrészt a gyalogokat más bábukra lehet cserélni, ha elérik a szemközti alapvonalat, ez pedig növeli a lehetőségek számát. Ha azonban nagyságrendi becslést szeretnénk, akkor a Shannon-féle szám egy jó kiindulópont. Hogyan lehet tehát kiszámolni?

Ehhez érdemes tudni, hogy egy n elemű halmazból hányféle képpen lehet kiválasztani k elemet úgy, hogy a sorrendjük nem számít. Matematikusok ezt úgy mondják, hogy "n alatt a k", és úgy is jelölik, hogy zárójelbe téve n alá írják a k számot. Érdemes még azt is tudni, hogy 1-től n-ig összeszorozva a számokat, a kapott számot úgy mondják, hogy n faktoriális, és n! a jelölése, a matematikusok így rövidítik ezt a szorzatot. Faktoriálisokkal n alatt a k könnyen kifejezhető. Ha n elemből k elemet akarunk kiválasztani úgy, hogy számít a sorrend, akkor az első elemet n féle képpen választhatjuk, a másodikat (n-1) féle képpen, és így tovább, míg a k. elemet (n-k-1) féle képpen. Az összes lehetőségek számát tehát megkapjuk, ha ezeket összeszorozzuk, ami n!/(n-k)! lesz. Ha viszont a sorrend nem számít, akkor ezt le kell osztani annyival, ahány féle képpen k elemet sorba rendezhetünk, hiszen mindent ennyiszer számoltunk, ebben az esetben k! darabszor. Végeredményben tehát az alábbi képletet kapjuk.

Ezt felhasználva Shannon számát mostmár ki tudjuk számolni. Először ki kell választani, hogy hova tesszük a 32 sakkfigurát a 64 mezőből álló sakktáblán, ami 64 alatt a 32 lehetőség. Aztán ki kell választani, hogy a 32 helyből melyik 16-ra tesszük mondjuk a világos bábukat, ami 32 alatt a 16 lehetőség. Aztán ki kell választani, hogy a sötét és a világos bábuk közül melyik a 8 gyalog, ami 16 alatt a 8 lehetőség mindkét játékosnál. Aztán ki kell választani a maradék 8 helyből mindkét játékos esetén, hogy hova kerülnek a bástyák, ami 8 alatt a 2 lehetőség mindkét esetben. Aztán ki kell választani mondjuk a huszárokat a maradék 6-6 helyből, ami 6 alatt a 2 mindkét játékosnál. Aztán a futókat, ami 4 alatt a 2 mindkét játékosnál. Vegyük észre, hogy a sakkban szokás a mezők színe szerint fehér és fekete futókról is beszélni, de mi itt most ezt a megkülönböztetést nem tesszük meg. Legvégül azt kell eldönteni mindkét játékos bábuinál, hogy a maradék 2 helyből melyiken van a király és melyiken a királynő, ami kétszer két lehetőség összesen. Mindent összetéve és az egyszerűsítéseket elvégezve az alábbi képlet adódik, ami durván 10^43, vagyis az 1-est 43 darab nulla követi. Ez azt jelenti, ha nanoszekundumonként vizsgálnánk meg egy állást, akkor is 10^34 másodpercig, azaz 10^26 évig tartana az összes lehetséges állás végignézése, ami az Univerzum életkorának is rengetegszerese!

2015. február 15., vasárnap

Mindannyian szerencsejátékosok vagyunk?

Az élet bonyolult, sokszor nehéz meghozni a jó döntést. A döntés általában azért nehéz, mert nem tudjuk teljes bizonyossággal, hogy a lehetséges választásaink milyen végeredményre vezethetnek. Ha tudnánk, akkor elég lenne az általunk választható egyértelmű kimenetelek közül kiválasztani a legjobbat számunkra, persze adott kimenetelek összehasonlítása sem feltétlenül könnyű. Általában viszont nem vagyunk minden információnak a birtokában, amelyek teljesen meghatározzák a választásunk kimenetelét, például azért nem, mert a végeredményt más külső körülmények is befolyásolják, amelyek ismeretlenek számunkra, vagy túl bonyolultak ahhoz, hogy meg tudjuk őket jósolni, például más emberek viselkedése, esetleg természetszerűleg véletlenszerűek, mint amilyen az időjárás.

A döntéselmélet problémái tehát tipikusan olyanok, hogy a lehetséges választások mindegyikét illetve az azokhoz tartozó kimeneteleket, valószínűségek jellemzik. Nézzünk egy egészen egyszerű példát, amiben csupán két választási lehetőségünk van, ráadásul a nyerési valószínűségek ismertek és időben változatlanok. Tegyük fel, hogy minden nap bekövetkezik vagy az A vagy a B esemény, a kettő közül csak az egyik. Egyelőre az eseményeket nem konkretizáljuk, így pusztán matematikai szemszögből tekinthetünk a feladatra. Legyen az A esemény bekövetkezésének valószínűsége 70% a B eseményé pedig 30%. Minden nap tippelhetünk, hogy melyik esemény fog bekövetkezni, és a sikeres találat nyereményt ér, például egy dollárt. Milyen stratégiát kövessünk, hogy egy hónap alatt a lehető legtöbb pénzt keressük?

A válasz egyszerű. Mivel az események függetlenek, ezért minden egyes tippelésnél, a korábbi kimeneteltől és saját tippjeinktől teljesen függetlenül, mindig a nagyobb valószínűségű eseményre kell tippelnünk, azaz mindig az A eseményre, ekkor hosszzú távon 70% lesz a találati arányunk. Ezzel szemben az a helyzet, hogy kísérletek szerint a többség más stratégiát választana, mégpedig azt, hogy tippelnek ezt is azt is, a valószínűségek arányában, vagyis az esetek hetven százalékában A-t és harminc százalékában B-t. Ezt nevezik az angol irodalomban probability matching stratégiának. Ez a stratégia nyilvánvalóan rosszabb, mert amikor B-t tippelünk, akkor csak 30% a találati arányunk, hosszú távon pedig a teljes találati arányunk 58% lesz (0.3*0.3 + 0.7*0.7).

Az a tény, hogy a racionális stratégia a fenti feladatban mindig a nagyobb valószínűségű eseményre való tippelés, mindössze abból következik, hogy az események egymástól függetlenek, vagyis ha valamikor érdemes az A-ra tippelni, akkor mindig érdemes. Extrém példaként, hogy mégis vannak emberek, akik ezt nem akarják vagy tudják felismerni, elegendő a szerencsejátékosokat említenünk, akiknél ismert torzítási jelenség, hogy például ruletten, amikor sok piros jött ki egymás után, akkor nagyobb valószínűséggel fogadnak a feketére, mondván hogy mostmár muszáj fekete jöjjön. De a szerencsejátékosok nem csak a külső független eseményekbe képesek időbeli korrelációkat és összefüggéseket beleképzelni, sokuknak a saját szerencséjükre vonatkozóan is vannak hiedelmeik, például amikor jó szériájuk van, pontosabban volt, akkor abban bíznak, hogy a jó széria megmarad, és ez a viselkedésüket, azaz a tétjeiket is ténylegesen befolyásolja.

Visszatérve az egyszerű kétválasztásos döntéselméleti példánkhoz, az a megdöbbentő, hogy az emberek többsége még akkor sem ismeri fel a jó stratégiát, ha előtte arra megpróbálják rávezetni, azaz konkrétan ismertetik számára az optimális stratégiát több más stratégia mellett egy kérdőíves tesztben, amit a tippelések megkezdése előtt töltetnek ki a résztvevőkkel. Néhányan persze felismerik, hogy az a jó stratégia, mások azonban, akik a rossz stratégiát használják, csak több száz tippelés után tanulnak valamicskét a tapasztalataik alapján, és kezdenek lassanként többet tippelni a nagyobb valószínűségű eseményre.

A fenti példa természetesen nagyon absztrakt, a való életben nagyon sok hasonló döntéselméleti problémával szembesülünk, azonban a legtöbb esetében mégsem teljesül tisztán az a feltétel, hogy a vizsgált véletlenszerű események időben korrelálatlanok, vagy függetlenek egymástól. Gondoljunk például az ősember táplálékszerzésére: el kell döntenie, hogy vadászni menjen, vagy gyűjtögetni. A vadászat ritkábban sikeres, mint a gyűjtögetés, viszont a sikeres vadászat például nem független az előző napok esetleges sikeres vadászatától. A sikerre számtalan módon hatással lehetnek az ősember múltbéli döntései és sikerei, például a tegnap talált csorda még a közelben lehet másnap is, vagy tapasztalatot szerezhetett a vadász, amit a következő alkalommal kamatoztathat, stb.

De nem csak az ember táplálékszerzésére gondolhatunk, ezt a döntéselméleti problémát számos állatkísérlettel is szimulálták: például patkánynak T-alakú labirintusban kellett döntenie arról, hogy balra vagy jobbra megy, a labirintus végén adott valószínűséggel található kaja reményében; galamboknak pedálokat kellett nyomkodniuk különböző méretű jutalomfalatokért; méhek gyűjtögetését is vizsgálták különböző intenzitással cukrot adó művirágokkal. Minden esetben azt találták, hogy az állatok is a valószínűségek arányában próbálkoznak, és nem az adott szituácóra vonatkozó optimális stratégiát választják. Az állatok természetesen nem tudják előre a valószínűségeket, azonban próbálkozásaik során hamar megtanulják.

Láthatjuk, hogy egy valódi szituáció körülményeit tekintve azért jelentősen eltérhet az ideális döntéselméleti problémától, az állatok esetében viszonylag könnyen megérthetjük a viselkedésüket, amely az ökológiai racionalitáson alapul, vagyis csak látszólag irracionálisak. Az állatok a természetben más állatokkal és a populáción belüli társaikkal versengenek, egy ilyen szituációban pedig máris fordul a kocka, és a racionálisnak tűnő stratégia irracionálissá válik, ha ugyanis minden patkány a nagyobb valószínűséggel kaját tartalmazó forráshoz megy, akkor egy új patkánynak már nem éri meg oda mennie. Sőt meg lehet mutatni, hogy a legjobb stratégia pont a valószínűségek arányában dönteni, és a populáció egyedeinek az eloszlása is pont a források méretének eloszlásával lesz arányos, ha mindenki ezt a stratégiát választja. Világos tehát, hogy az állatoknál evolúciósan bedrótozott stratégiák működnek. Az állat stratégiája bizonyos természetben tipikusan előforduló feltételekre van optimalizálva. Azt nem várhatjuk el az állattól, hogy ezeket a feltételezéseket elvesse, még akkor se, ha azok a kísérletben nem teljesülnek. Elvileg sok tapasztalat után rátanulhat, hogy most másfajta környezetben van, de valójában soha nem tudhatja, hogy ez a környezet és ezek a feltételek meddig állnak fenn, ő nem képes a kísérletvezető szép szavát értelmezni, és elhinni.

Az emberektől ennél többet is várhatunk, de mint láttuk, a többségben is a bedrótozott stratégiák működnek. Ez azonban nem feltétlenül rossz. Több mint hatvan éve vizsgálják a jelenséget, és az egyik magyarázat éppen azon alapszik, hogy mennyire jók vagyunk mintázatfelismerésben, ami azonban azt eredményezi, hogy oda is mintázatokat látunk, ahova nem kéne. Világos, hogyha az ember mintázatokat keres, akkor el fog térni az optimális stratégiától. Tesztelendő azt, hogy a mintázatkeresés valóban befolyásolja a döntésünket, csináltak olyan kísérletet, amikor a fenti tippeléses feladat mellett párhuzamosan munkamemóriát igénylő verbális feladatot is kellett végezniük az alanyoknak. Kiderült az, hogy ilyenkor valóban a racionálisabb irányba tolódnak el a stratégiák átlagosan, mert gátlódik a mintázatkereseés. Ugyanakkor az is kiderült a vizsgálatból, hogy jelentős individuális különbségek vannak, és akad olyan ember is, aki mintázatkeresés nélkül kognitív úton jut a rossz stratégiához. Más vizsgálatok kimutatták, hogy a racionális döntés korrelál az illető kognitív képességeivel.

Láthattuk, hogy sokféle ember van és sokféle magyarázat lehet. Különbözőek vagyunk. előfordulhat, hogy valaki csak simán félreérti a feladataot, és egy lehetséges reprezentatív sorozatot próbál generálni, ahelyett hogy a lehető legtöbb találatra hajtana. Másvalakinek esetleg unalmas az optimális stratégiát választani, mert nincsen benne sok döntési lehetőség, a szerencsejátékosoknál elképzelhető, hogy ez is közrejátszik. Világos, hogy az optimális stratégiának a legkisebb a szórása, ezért ha valaki rizikósabb de átlag fölötti nyereséggel kecsegtető stratégiát szeretne választani, akkor talán érdemes eltérnie az optimálistól. Ez például akkor lehet fontos szempont, ha nem csak jól akarunk járni, de szeretnénk elsők lenni mindenki között. A helyzet azonban az, hogy ebben az esetben is rossz gondolat eltérni az optimálistól, mert bár a szórást növelhetjük, de az átlag jelentősen csökken. A példánál maradva, ha 100 tippből szeretnénk minimum 71-et szerezni, akkor az optimális stratégiát választva 46% az esélyünk erre, míg a valószínűségek arányában tippelve csupán fél százalék!

2014. november 20., csütörtök

Ön racionálisan gondolkodik?

Még mielőtt a kedves látogató tovább olvasná a bejegyzést, gondolkodjék el az alábbi két feladaton, és próbálja megválaszolni a kérdéseket.

1) A kártyák egyik oldalán egy szám van, a másik oldaluk pedig színes. Hány kártyát kell megfordítani ahhoz, hogy ellenőrizzük azt az állítást, hogy minden páros kártya hátoldala kék?

2) Anna ajándékot adott Bélának, Béla pedig Cecilnek. Anna házas, Cecil azonban nem házas. Kapott-e nem házas személy házastól ajándékot? Esetleg nem eldönthető a kérdés?

Az első az ún. Wason-teszt vagy négykártya-probléma. Kutatások szerint a tesztet kitöltők mindössze tíz százaléka válaszol helyesen. Azonban sokkal nagyobb arányban adnak helyes választ, ha a kérdést hétköznapi kontextusba helyezik, például ellenőrizni kell, hogy egyik kiskorú sem ivott alkoholt, és a kártyák egyik oldalán italok vannak, a másik oldalán pedig életkorok.

A feladat helyes megoldása egyébként az, hogy a nyolcast és a zöld hátlapú kártyát kell megfordítani. Sokan azt gondolják, hogy a kéket meg kell fordítani, pedig teljesen mindegy, hogy annak mi van a másik oldalán, mert egyik eset sem cáfolná az állítást, a zöldet viszont meg kell fordítani, mert ha páros szám lenne a másik oldalon, akkor az cáfolná az állítást. A második feladatnál sokan eldönthetetlennek tartják a kérdést, pedig két eset lehetséges, Béla vagy házas vagy nem, és mindkét esetben teljesül, hogy nem házas személy házastól kap ajándékot.

A fenti feladatokban az a közös, hogy a többség eljut egy látszólagos megoldáshoz, amiről tévesen azt hiszi, hogy jó megoldás. Az emberek nagy többsége nem képes ellenőrizni saját magát, és elemezni az összes lehetséges esetet. Ha valaki már töltött ki IQ-tesztet, akkor emlékezhet rá, hogy ott tipikusan nem ilyen feladatok vannak, ha az IQ-teszt egyik feladatáról azt gondoljuk, hogy megoldottuk, akkor valóban számíthatunk arra, hogy jó lesz a megoldásunk, csak az a lényeg, hogy milyen gyorsan jöttünk rá. Az IQ tehát más képességeket mér, mint amik a fenti feladatok megoldásához szükségesek, és ténylegesen ki is mutatható, hogy az IQ kevéssé befolyásolja azt, hogy ki tudja a fenti feladatokat helyesen megoldani. Ebből az is következik, hogy aki intelligens, az nem feltétlenül tud helyes és racionális döntéseket hozni, ez pedig igen nagy probléma egyes befolyásos pénzügyi pozíciók esetében, sőt egyesek szerint hasonló okok miatt tört ki a gazdasági válság is, ezért nem csoda, hogy komoly pénzösszegeket áldoznak arra, hogy kidolgozzanak olyan ún. RQ-teszteket, amik a racionális gondolkodás mérésére szolgálnak.

Az IQ-tesztekkel mérhető intelligenciának nevezett dologról megmutatható, hogy függ az örökölt génjeinktől, a táplálkozástól, az oktatástól és a rövid távú memóriánktól is. Az RQ-teszt kidolgozásának legnagyobb élharcosa Keith Stanovich, aki szerint az RQ-nak a kognitív elfogultság átlépésének képességét kell értékelnie. Az evolúció során kialakultak olyan intuitív mechanizmusok, amik segítenek komplex szituációk értékelésében anélkül, hogy tudatosítani tudnánk a következtetéseinket, így a mindennapi életben nagyon gyakran a megérzéseinket használjuk, sőt ezzel még a matematikusok is így vannak, ami azonban azzal jár, hogy információkat torzítunk és néha tévedünk. Az magas RQ-szint azt jelenti, hogy az illető ismeri saját tudásának határait.

2014. június 30., hétfő

Dürer és a matematika

Éppen ötszáz éves Dürer egyik jól ismert szimbólumokkal teli alkotása a Melankólia I rézmetszet, melyen több dolog is utal Dürer matematika iránti érdekelődésére. Egyrészt a kép jobb fölső sarkában láthatunk egy bűvös négyzetet, az ún. Jupiter-négyzetet, melynek minden sorában, oszlopában és átlójában 34 a számok összege, de még a sarkok és a centrum összege is 34, továbbá a szemközti oldalfelező pontokat érintő négyzetekben lévő számok összzege is 34, sőt lóugrásban körbejárva a kerületen ugyancsak 34-et kapunk. Emellett a legalsó sorban lévő két kétjegyű számot összeolvasva megkapjuk a kép készítésének 1514-es dátumát és az alsó sor két szélének számait az ábécében elfoglalt sorszámuk szerint betűkre váltva kiolvashatjuk Albrecht Dürer monogramját. Ezen kívül láthatunk még a képen egy csonkolt kockát, amit Dürer-poliédernek szokás hívni.

Valójában Dürer esetében többről van szó, mint a matematika iránti érdeklődésről, Dürer ugyanis komolyan képezte magát matematikából. Amatőr matematikusnak számít, és 1925-ben megjelent poliéderekről szoló könyvében közölt egy érdekes sejtést, amit ma Dürer-sejtés néven ismerünk. A sejtés úgy szól, hogy minden poliédert fel lehet vágni az élei mentén úgy, hogy lapjai átfedés nélkül kiteríthetőek legyenek a síkban, egy összefüggő sokszöget képezve. Magyarul minden poliédert meg lehet hajtogatni egy papírlapból úgy, hogy csak az élek mentén kell ragasztani. A sejtésnek magyar vonatkozása is van, ugyanis 2004-ben a mindössze 13 éves Bezdek Dániel poliéderek egy nagyon speciális osztályára bebizonyította, hogy kiteríthetők. A sajtóban tévesen úgy terjedt el, hogy megoldotta a sejtést, a sejtés azonban máig megoldatlan annak ellenére, hogy nagyon egyszerűen hangzik, az elemi geometria témakörébe tartozik, azaz bárki által megértehtő és még gyakorlati jelentősége is van. További magyar vonatkozás Dürerrel kapcsolatban, hogy Dürer tiszteletére idehaza matematika versenyt is rendeznek.

2014. május 30., péntek

Új memóriatechnika a szemjojózás

A memória és a szemmozgás több szempontból is kapcsolatban áll egymással. Ismeretes például, hogy alvás során a gyors szemmozgásról elnevezett ún. REM fázisban álmodunk leginkább, és ilyenkor az agy tanuláshoz és memóriához köthető területei stimulálódnak. Több érv is alátámasztani látszik azt az elképzelést miszerint az álom szerves része annak a folyamatnak, amelyben az agy az új emlékek eltárolásának segítéséhez régi emléknyomokat elhalványít. A gyors szemmozgások azonban az ébrenlétre is jellemzők, szemünk folyamatosan pásztázza a látómezőt. Az ún. szakkádok az emberi test leggyorsabb mozgásai, amelyek mindkét szem egyidejű mozgását jelentik ugyanabba az irányba, és azt a célt szolgálják, hogy a fixáció átkerüljön egyik tárgyról a másikra. Amikor megerőltető valaminek a felidézése, vagyis kutakodunk a memóriánkban, akkor megfigyelhető, hogy a szakkádok gyakorisága megnövekszik.

A fenti két példa mutatja, hogy a memória nyomok elraktározása és előhívása a szemmozgásokra hatással van. Érdekes azonban, hogy ez fordítva is igaz, vagyis a szemmozgás befolyásolásával hatni tudunk a memóriára. Az ún. poszttraumatikus stressz szindróma esetén régóta bevett terápiás eljárás, hogy a pácienst a kellemetlen élmény felidézése során arra késztetik, hogy a szemét horizontálisan ide-oda mozgassa. Az a meglepő és szinte ezoterikusnak tűnő tapasztalat, hogy számos páciens esetében ez a terápia más lehetséges terápiákhoz mérve azonos hatékonyságú, és segít a traumát verbálissá tenni az ún. deklaratív memóriába való átültetéssel, így csökkentve az érzelmi töltetet. Tudósok laboratóriumi vizsgálatok során nemrég felfigyeltek arra is, hogy a fent említett horizontális szemjojózás serkenti memórianyomok felidézését, legyen szó akár rövid távú memóriáról, mint például elhangzott szavak felidézése, vagy hosszú távú memóriáról, mint például gyerekkori emkékek felidézése. Az volt a hipotézis a jelenséggel kapcsolatban, hogy a felváltva jobbra és balra történő szemmozgás felváltva aktiválja a bal és jobb agyféltekék megfelelő területeit, amik tovább szivárogva egyéb agyterületek aktivációs szintjeit növelik meg, amik előkészítik a memórianyomok felidézését.

A fenti hipotézis vizsgálatára holland tudósok további kísérleteket terveztek. Ismeretes, hogy a látókéregnek és a tapintást feldolgozó agyterületeknek sokkal több oldalirányú kapcsolatuk van, mint mondjuk a hallókéregnek. Ezért a hipotézis alapján azt várjuk, hogy vizuális ingerlés helyett taktilis ingerléssel is hasonló jó eredményeket lehet elérni, de a váltott auditórikus ingerlésnek kicsi a hatása a memórianyomok felidézésére. A kísérlet abból állt, hogy az alanyoknak egy szólistát prezentáltak, majd a prezentálás után egy ideig váltakozva ingerelték a jobb és bal oldalt, végül az ingerlés után közvetlenül vissza kellett idézniük a szólistát, és a találati arányt mérték. Vizuális ingerlésnél egy pöttyöt kellett kövessenek, amely felváltva a képernyő bal illetve jobb oldalán jelent meg. A taktilis ingerlés a felfele fordított két tenyér felváltva történő paskolásából állt. Az audotórikus ingerlést pedig egy metronóm szolgáltatta sztereó fülhallgatón keresztül. Az inger minden esetben másodpercenként kétszer váltott, és mindhárom kísérletnél természetesen elvégezték a megfelelő kontrollkísérleteket is. Vizuális ingerlésnél például azzal hasonlították össze az eredményeket, amikor egy középen lévő pötty másodpercenként kétszer színt vált, miközben nem mozdul. A kísérlet eredménye a hipotézissel teljesen összhangban volt. A vizuális ingerlés és a taktilis ingerlés hatására szinte egyforma és kimutatható módon javult a visszaidézés teljesítménye, míg audotórikus ingerlésnél nem volt kimutatható hatás.

Hivatkozás:

Nieuwenhuis et al. Bilateral saccadic eye movements and tactile stimulation, but not auditory stimulation, enhance memory retrieval, Brain and Cognition 81, 52-56 (2013)

2014. március 30., vasárnap

Melyik nehezebb: egy kiló tollpihe vagy egy kiló ólom?

A fenti becsapós kérdéssel valószínűleg már mindenki találkozott, és azt gondolja, hogy nem lehet ezzel kapcsolatban sok érdekességet megemlíteni. Talán abba is belegondoltak páran, hogy nem teljesen egyértelmű a válasz a kérdésre, ugyanis nem mindegy az, hogy nehézség alatt mit értünk. Ha ugyanis tömeget, akkor nyilvánvaló, hogy egyforma tömegűek, nevezetesen mindkettő pontosan egy kilogramm. Ha azonban súlyt, azaz azt az erőt, amivel a mérleget vagy a kezünket nyomják, akkor tipikusan nem egyformák. A válasz függ a tollpihék állapotától, és attól is, hogy milyen közegben végezzük a mérést. Ha a tollpihe nincsen tömörítve, akkor sokkal nagyobb a térfogata, és ezáltal sokkal nagyobb a kiszorított levegő mennyisége, vagyis a felhajtóerő jobban csökkenti a tollpihék súlyát, így az ólom súlyosabbnak adódik. Amiről azonban most szeretnék írni, az a kérdés értelmezésének egy harmadik lehetősége. Tegyük fel azt a kérdést, hogy melyiket érezzük nehezebbnek?

A pszichofizika foglalkozik az inger és érzet közt fennálló összefüggésekkel. 1891-ben Augustin Charpentier francia szemész orvos-kutató írta le és támasztotta alá mérésekkel elsőként a róla elnevezett Charpentier-illúziót, miszerint az azonos súlyú objektumok közül a kisebb méretűt súlyosabbnak érzékeljük amikor felemeljük. Valójában nagyon sok mindentől függ az, hogy mekkorának érzékeljük egy test súlyát, már korábban kimutatta Ernst Heinrich Weber anatómus és kísérleti pszichológus, hogy a bal kéz segítségével érzékenyebb súlybecslésre vagyunk képesek, továbbá azt, hogy ujjakkal megfogva és fölemelve egy testet pontosabb becslést tudunk adni, mintha csak a tenyerünkre tesszük, illetve azt, hogy az egységnyi bőrfelületre eső nyomás fontos tényező. Gustav Theodor Fechner fizikus és természetfilozófus pedig azt mutatta meg, hogy az sem mindegy milyen sorrendben emeljük fel a súlyokat, mert egyenlő súlyoknál a második nehezebbnek tűnik. De még sok más tényezőt is említhetünk, például azt, hogy lányoknál jelentősebb az illúzió mértéke, vagy azt, hogy a testek alakja és anyagi kinézetük is befolyásoló tényező, ha nyitott szemmel végezzük el az összehasonlítást.

Az illúzió nagyon robusztus, akkor is működik, ha tudjuk, hogy egyformák a súlyok, sőt csukott szemmel is működik, ha a súlyokat a tenyerünkre helyezzük, bár erősebb a hatás nyitott szemmel, hiszen akkor tapintás és látás útján is információt szerzünk a testek méretéről. Sok más esetben pszichofizikai kísérletekkel ki lehet mutatni, hogy az agy több forrásból származó információkat a valószínűségszámítás szabályai szerint közel optimális módon tud kombinálni. Jelen esetben mielőtt még megemelnénk a tárgyakat, az agyunknak van egy előzetes becslése arra vonatkozóan, hogy mekkora lehet a súlyuk, ennek megfelelő izomerőt irányoz elő az agy. Ha a tárgy kicsi, akkor kis súlyra számítunk, ha pedig nagy, vagy mondjuk fémből készült, akkor nagyobbra. Aztán amikor ténylegesen megemeljük a tárgyat, akkor a ténylegesen szükséges izomerő alapján viszajelzést kapunk arra vonatkozóan, hogy milyen a tényleges súlya a tárgynak. Mivel a kisebb tárgyat kisebb súlyúnak véltük előzetesen, így azt várnánk, hogy a kétféle információ alapján kikombinált optimális becslés a kettő közé esik, azaz a valóságosnál kicsit könyebbnek érezzük a kisebb tárgyat. A tapasztalat azonban ennek az ellenkezőjét mutatja.

Sokáig azt gondolták, hogy az illúzió magyarázata az, hogy az azonos súlyú kisebb méretű objektum azért tűnik nehezebbnek, mert nehezebb annál, mint amit várunk. Vagyis az előzetesen várt és a valódi szenzoros visszajelzés közti különbség vezérli a kognitív becslést. Kiderült azonban, hogy némi tanulás után a valódi súlyokhoz teljes mértékben tud alkalmazkodni az ujjak általi erőkifejtés, miközben a kognitív illúzió továbbra is fennál. Flanagan és Beltzner 2000-ben Nature-ben megjelent cikkükben megmutatták, hogy a szenzomotoros előrejelzés hibájától teljesen független a kognitív illúzió és annak mértéke, azaz a két rendszer egymástól függetlenül tud működni. Az illúzióra teljes mértékben kielégítő magyarázat száz év elteltével sem született még!

Az illúziót egyébként bárki könnyedén kipróbálhatja otthon. A legegyszerűbb talán az ábrán látható készlet elkészítése otthon könnyedén fellelhető tárgyak használatával. A gyufásskatulyákat egymásra ragasztva különböző nagyságú tornyokat építhetünk. Mindegyik torony aljába helyezzünk ugyanakkora súlyokat, a maradék dobozokat pedig hagyjuk üresen. Súly gyanánt használhatunk fém csavarokat, így elegendő arra ügyelni, hogy ugyanolyan és ugyanannyi csavart helyezzünk mindegyik oszlop aljába. Érdemes két skatulyát megtölteni csavarokkal, hogy nagyobb legyen a tömeg és ezáltal az illúzió mértéke. Ha így járunk el, akkor mindegyik toronynak körülbelül ugyanakkora a súlya, sőt a nagyobb tornyoknak kicsit több, hiszen az üres skatulyáknak is van súlya. Ennek ellenére azt fogjuk tapasztalni, hogy a legmagasabb torony a legkönyebb és a legalacsonyabb a legnehezebb. Tapasztalatom szerint az érzet akkor a legnagyobb, ha a tornyokat a tetején fogjuk meg, és egy határozott mozdulattal odébbrakjuk őket, ez is mutatja, hogy valójában a súlypont helyzetének és a tehetetlenségi nyomatéknak is fontos szerepe van az érzet kialakulásában.

2013. október 25., péntek

Mi is az a hiperszingularitás?

Először beszéljünk csak simán a szingularitás fogalmáról. Egy fizikai rendszernek akkor van szingularitása, ha mozgásegyenleteinek megoldása valamely időpillanatban nem folytatható tovább, azaz a rendszert alkotó részek valamelyikének nem létezik olyan mozgáspályája, amely minden időpillanatban kielégítené azokat a törvényeket, amelyek leírják a rendszer mozgását. Ennek megfelelően szingularitásról egy adott fizikai modellen belül beszélhetünk, rögzítve azokat a fizikai törvényeket, amelyek a mozgást leírják. Ha az adott modellben szingularitás lép fel, az nem jelenti azt, hogy valamilyen paradox viselkedés lépne fel a természetben, hiszen a fizikai modellek általában csak leegyszerűsített közelítései a valóságnak.

Tekintsük az egyik legegyszerűbb és jól megértett fizikai modellt a klasszikus newtoni mechanikát, és azon belül is korlátozzuk magunkat olyan rendszerekre, amelyek csak ideális, kiterjedés nélküli, tömegpontokból állnak, és a tömegpontok között csak gravitációs erők hatnak. Ilyen rendszerben a szingularitás egyik fajtája, az ún. ütközéses szingularitás, amikor két tömegpont ütközik. Mivel a gravitációs erők írják le a mozgást, és két tömegpont között ható gravitáció erő kiszámításakor osztani kell a két tömegpont közti távolság négyzetével, ezért ütköző tömegpontok esetében a képlet értelmetlenné válik a nullával való osztás miatt, így érthető, hogy az ütközés pillanatában a mozgásegyenletek nem értelmezhetők, szakadás lép fel, azaz szingularitásról beszélhetünk. A szingularitás a modellen belül mindig érdekes problémákra világít rá, azonban a valóságban a fent említett szingularitás nem okoz problémát, hiszen a valóságban nincsenek tömegpontok csak kiterjedt testek, továbbá nem csak gravitációs erő fog hatni ütközés során, ráadásul a newtoni fizika törvényei is csak közelítései a valóságnak, amelyek elhanyagolják a kvantummechanikai és relativisztikus hatásokat.

Láttuk tehát, hogy tömegpontok ütközése a szingularitásnak egy triviális fajtája annak következményeként, hogy az ütközés pillanatában végtelenné válik a gravitációs erő. De vajon lehetséges-e nem ütközéses szingularitás? A kéttest-problémát a bolygómozgás kapcsán Keplernek köszönhetően jól ismerjük. Mindenki megtanulja az iskolában, hogy a bolygók kötött pályái ellipszisek, a nem kötött pálya pedig parabola vagy hiperbola lehet. Paul Painlevé francia matematikus, aki mellesleg kétszer volt Franciaország miniszterelnöke, 1895-ben megmutatta, hogy három tömegpont sem hozhat létre másfajta szingularitást, csakis ütközéseset. A bizonyítás során a háromszög-egyenlőtlenséget használta ki ügyes módon. De milyen más szingularitás jöhet szóba? Von Zeipel tétele világít rá arra, hogy abban az esetben, ha létezne nem ütközéses szingularitás a gravitációsan kölcsönható tömegpontok rendszerében, akkor annak milyennek kéne lennie. A tétel azt állítja, hogyha egy adott időpillanatban nem ütközéses szingularitása lenne a rendszernek, akkor abban az időpillanatban valamely részecskék közti szeparációnak divergálnia kellene, azaz végtelen naggyá kellene válnia. Magyarul ez annyit tesz, hogy a kezdetben véges kiterjedésű rendszerből legalább egy tömegpont véges idő alatt a végtelenbe szökik. Ezt az egészen meglepő esetet hívjuk hiperszingularitásnak, és továbbra is kérdés, hogy ilyen létezik-e egyáltalán? Folytatás következik…

2013. szeptember 1., vasárnap

Tudományos és ismeretterjesztő előadás sorozatok 2013/2014

Vége a nyári szünetnek, és hamarosan indulnak az érdekesebbnél érdekesebb tudományos és ismeretterjesztő előadássorozatok és szemináriumok. Az alábbiakban olyan mindenki által ingyenesen látogatható budapesti előadássorozatokat gyűjtöttem össze, amelyek rendszeresen megrendezésre kerülnek minden évben. A lista a tavalyi előadássorozatok alapján készült, ezért lehetséges, hogy idén lesznek eltérések, de folyamatosan frissítem az adatokat. A kiváló előadásokból a hét minden napjára jut valami, sőt az átfedő időpontok néha komoly dilemma elé állítják az embert, hogy melyik előadást részesítse előnyben. Ilyenkor az is mérvadó lehet, hogy helyenként teával és harapnivalóval is várnak a szervezők. A legtöbb előadás heti rendszerességű, de vannak köztük olyanok is, amelyek kétheti vagy havi rendszerességgel kerülnek megrendezésre. Ha az egeret az időpont fölé viszitek, akkor a rendszerességről és a helyszínről jelenik meg plusz információ. Ha azonban biztosat szeretnétek tudni a következő alkalomról és kíváncsiak vagytok az az aktuális előadás címére és az előadóra, akkor kattintsatok az előadáshoz tartozó linkre.

09:50-xx:xx  Corvinus Játékelméleti Szeminárium
14:15-15:45  EGRES szeminárium (D)
16:00-17:30  Ökológus Tea (B)
Ke 16:00-17:45  Fazekas előadás (C)
Ke 14:00-15:30  KRFT Tea (B)
Ke 15:00-16:00  CSCNS journal club (D)
Ke 17:30-xx:xx  Szkeptikus Klub (A)

Sz 11:00-12:00  Statisztikus fizika szemináriumok (D)
Sz 17:30-xx:xx  Matematikai Esték (A)

Cs 15:00-16:00  Ortvay Kollokvium (D)
Cs 16:30-18:00  LINK-szeminárium (AB)
Cs 17:00-xx:xx  Az atomoktól a csillagokig (C)
Cs 18:00-xx:xx  Bolyai Kollégiumi Estek
Cs 18:00-19:00  KEBEL evolúcióbiológiai előadások

14:00-xx:xx  ELTE kognitív péntek

Jelölések:
  • (A) nem heti rendszerességű
  • (B) teával és/vagy harapnivalóval
  • (C) középiskolások számára is
  • (D) szakmaibb jellegű

Akinek mindez nem elég, az kövesse az alábbi eseménynaptárakat, vagy iratkozzon fel valamelyik tudományterület hírlevelére. Lehetséges, hogy a fenti lista túlságosan is a saját érdeklődési körömet fedi le, de az alábbi források alapján értesülhettek még számotokra érdekes előadásokról. Ha pedig tudtok olyan előadássorozatról, amelyiknek a listán lenne a helye, akkor kérlek értesítsetek. Előre is köszönettel.

Eseménynaptárak:
Hírlevelek: