Fizikai Szemle honlap

Tartalomjegyzék

Fizikai Szemle 1978/8. 295.o.

AZ IDEGRENDSZER MATEMATIKAI MODELLJEI

Zimányi József és Csernai László
MTA Központi Fizikai Kutató Intézet

1. Bevezetés

Az idegrendszer kutatása során az elmúlt évtizedek alatt rendkívül nagy ismeretanyag halmozódott fel. Az anatómiában, a neurofiziológiában, a biológiában és pszichológiában összegyűlt adatok tömege meghaladta azt a kritikus értéket, amelynek elérése után elkezdődhettek az ezen adatok egységbe foglalását célzó vizsgálatok.

A magasabbrendű élőlények a környezetükből az érzékelőikhez érkező hatásokat az idegrendszerükkel dolgozzák fel és e feldolgozás eredményétől (és természetesen belső állapotuktól) függően hajtanak végre különböző cselekvéseket. Az idegrendszer feladata tehát információk feldolgozása, döntéshozás, utasítás kiadása cselekvésre. A későbbiekre hagyjuk annak taglalását, hogy a pszichés gondolkodási folyamatokat és a tudatot hol és hogyan kíséreljük meg elhelyezni ezen képünkben.

Az idegrendszer működésének leírására az elmúlt 1-2 évtized alatt rendkívül sok modellt javasoltak. Sokrétűségük ellenére ezen modellek túlnyomó része közös tőről fakad és egy egységes elmélet kialakulásához vezető lépésnek tekinthető. Az idegrendszerről alkotott, egyre gyarapodó ismereteink alkotják a modellek alapját. Ma már elég jó képünk van az idegrendszert alkotó sejtek, a neuronok speciális működéséről, a neuronok egymáshoz való kapcsolódásának szabályosságairól és az így kialakult neuronhálózat szerkezetéről.

Jelen cikkben a figyelem felkeltésének céljával az idegrendszer matematikai modellezésébe kívánunk bepillantást nyújtani.

1. ábra
1. ábra A neuron alakja és egyes részeinek elnevezései

A neuron sematikus bemutatása után a neuronokat egyenként leíró mikroszkopikus elméletek alapját képező neuron egy modelljét mutatjuk be, majd pedig az ilyen neuronokból felépülő hálózat tulajdonságait vizsgáljuk. Ezután a nagyszámú neuronból álló, bizonyos szabályszerű szerkezetet mutató neuronhálózat tárgyalására bemutatjuk a neuronok átlagos állapotának fogalmát bevezető neuron tér modellt. E modell segítségével a neuronhálózatban lejátszódó kollektív jelenségek leírására mutatunk példákat.

Végezetül érintünk majd néhány problémát, amely a magasabbrendű gondolkodás, a tudat értelmezésével kapcsolatos.

2. A neuron sematikus bemutatása

A fejezet célja, hogy röviden leírja a neuronok általánosan jellemző tulajdonságait, ezek közül is főleg csak azokat, amelyek a neuronhálózatok matematikai modellezéséhez szükségesek.

A neuron egy sejt, amelynek van sejtmagja, sejtteste és membránja, mint a sejteknek általában, azonban két lényeges vonásban mégis különböznek az egyéb sejttípusoktól. Az egyik jellegzetesség a sejt alakja (1. ábra). A neuronokból sok nyúlvány ágazik ki. A nyúlványok többsége (néha többezer egy sejten) vékonyabb és rövidebb (legfeljebb 400 ,u) - ezeket dendriteknek nevezzük.

A nyúlványok másik fajtája az axon, vastagabb és hosszabb. Hosszuk a méteres nagyságrendet is elérheti. Általában sejtenként csak egy indul ki a 'sejttestről, ez azonban elágazik, ún. végfácskát alkot. A végfácska ágai kis bunkókban, ún. szinaptikus bunkókban végződnek és ezek más neuronsejtek dendritjével vagy sejttestével érintkeznek. Ez az érintkezés, a szinapszis, kémiai jellegű kapcsolatot létesít a neuronok között. Így a neuronok egymással összekapcsolódva bonyolult hálózatot alkotnak.

A másik jellegzetesség a neuron membránjának működésében rejlik. A neuron belső része viszonylag nagy, ≈ - 90 mV potenciáleltérést mutat egyensúlyi állapotban a környezettől a sejtfal aktív működésének hatására. Ezt a potenciálkülönbséget a sejt anyagcseréjéből származó energiával tartja fenn. Ha valahol a sejt membránt inger (pl. elektromos vagy kémiai hatás) éri, ez megváltoztatja a különféle ionokra a sejtfal permeabilitását és természetesen a potenciálkülönbség is megváltozik. A sejt aktív folyamatai ezután visszaállítják az egyensúlyi potenciálkülönbséget, de az elektromos hatás a membrán mentén tovaterjed. Ez az elektromos idegi impulzus. Az impulzus általában gyengül. Ha azonban a különféle külső behatások összegeződve pozitív irányban elegendően nagy feszültségkülönbséget okoznak, akkor egy gyengítetlenül tovaterjedő impulzus keletkezik. (2. ábra.) Az idegsejt alakja miatt igen fontos, hogy az axon kiindulási helyén, az ún. axondombon, mekkora a potenciál. Ugyanis, ha itt elér egy adott küszöbértéket, akkor az axonon szalad végig egy kifutó impulzus, amely igen éles, gyorsan terjed, (v = 0,1 - 150 m/sec) és + 20-30 mV csúcsértéket is elérhet. A végfácskák bunkóin ez az impulzus olyan kémiai változásokat idéz elő, amelyek az érintkező sejtet ingerelhetik, azaz olyan potenciálváltozást hoznak létre a membránon, amely tovaterjedő impulzust eredményez az axonon. A szinapszisokban lejátszódó kémiai folyamatok, a szinapszis fajtájától függően azonban olyan negatív potenciálváltozást is előidézhetnek az axonnal érintkező sejtben, ami a -90 mV egyensúlyi potenciált még negatívabbá teszi, hyperpolarizálja. Ilyenkor nem keletkezik kifutó impulzus, sőt, ez a hatás meggátolhatja más szinapszisok gerjesztő hatását. Ezért az utóbbi szinapszisokat gátló, míg az előbbieket gerjesztő szinapszisoknak nevezzük. Egy sejttípus mindig csak egy féle hatást gyakorol axonján keresztül a vele érintkezésben levő sejtekre. A szinapszisok impulzus átadó, vagy gátló képessége változhat kémiai és biológiai hatásokra.

Az idegrendszer bonyolult neuronhálózatain tehát elektromos impulzusok futnak keresztül. Ezek vizsgálata nem könnyű feladat, hiszen az emberi agyban kb. 1010-1011 neuron van, amelyek 1013-1015 szinapszison keresztül kapcsolódnak egymással. Ilyen bonyolult rendszerek vizsgálatához mindenképpen hasznos, ha a matematikát hívjuk segítségül.

3. A perceptron

A változó szinapszis erősségű neuron jó modelljének tekinthető a perceptron [1] lényegét alkotó egység, a beérkező jelek lineárisan súlyozott összegét képező és az összeget küszöbdetektorral kiértékelő berendezés.

2. ábra
2. ábra Az elektromos impulzus időbeli lefutása az axon egy pontján. Az impulzust követően a sejt rövid ideig újabb impulzus kibocsátására nem ingerelhető. Ez az időszk a refrakter periódus

A perceptron működését a 3. ábrán szemléltetjük. A szemből és analizálóból álló berendezésnek különböző "α" ábrákat mutatnak. Célunk az, hogy a berendezés megtanuljon különbséget tenni az F+ és az F- halmazba tartozó ábrák között. Jó válasznak tekintjük az F+ halmazhoz tartozó ábra bemutatására adott "igen" és az F- halmazhoz tartozó ábra bemutatására adott "nem" válaszokat. Az ellenkező értékelést rossznak tekintjük. A külső felügyelő által végzett tanítás abban áll, hogy rossz válasz esetén a büntető gombot megnyomja, jó válasz esetén nem avatkozik be. A tanulás befejeződött, ha minden válasz jó.

3. ábra
3. ábra A perceptron működése. Eredményes tanítás után az optikai egység elé helyezett ábrákból a perceptron az F+ halmazhoz tartozókat kiválasztja és az "igen" lámpa kigyulladásával jelzi. Téves jelzés esetén a büntető-gombot kell megnyomni (azaz a tanítást folytatni kell.)

A perceptron szerkezetét a 4. ábrán mutatjuk be. A retina fényérzékelő elemekből áll. Innen vezetjük a jelek valamely kombinációját az asszociátor réteg "ai" elemeire. Az ai elemek a pi kimenetet produkálják:

képlet

A tömörebb jelölés kedvéért definiáljuk a pi(α)-ből álló p(α) oszlopvektort

képlet

és a ci súlyokból álló c sorvektort

képlet

Az összegző egység a di pontokon belépő pi(α) jeleknek a ci súlyokkal súlyozott X(α) összegét állítja elő:

képlet

Ha a súlyozott összeg nagyobb, mint egy megadott küszöbérték, akkor a kimeneten jelet ("igen" választ) kapunk.

képlet

Az elmondottak alapján szembetűnő a hasonlóság az összegező rendszer és egy neuron között. A di belépési pontok a dendrit végződésnek a ci súlyok a szinapszis , erősségének felelnek meg. A pozitív ci a gerjesztő, a negatív ci a gátló szinapszis erősségeként fogható fel. A X(α) összeg a neuron gerjesztettségének felel meg. Ha ez a gerjesztettség meghaladja az S küszöbértéket, akkor az axonnak megfelelő kimeneten megjelenik az y kimenő jel. E hasonlóság ellenére egy jelentős különbségre is rá kell mutatnunk. A perceptronban a ci súlyok a tanulás során előjelet is válthatnak. Ennek a megfelelője a neuronoknál nem fordulhat elő. Egy szinapszis gerjesztő, illetve gátló karaktere nem változhat meg.

4. ábra
4. ábra. A perceptron szerkezetének vázlata. Zárójelben az egyes alkotórészek idegrendszerbeli megfelelői

A perceptron tanítása során a ci súlyokat olyanra kell beállítani, hogy fennálljanak a következő egyenlőtlenségek:

képlet

Kérdés, lehet-e olyan általános eljárást adni, amely a ci súlyokat úgy állítja be, hogy ezek az egyenlőtlenségek teljesüljenek. A perceptron konvergencia tétel szerint, ha létezik olyan c* vektor, melyre a fenti egyenlőtlenségek teljesülnek, akkor az alábbiakban leírt algoritmus véges számú lépésben meghatároz egy olyan c vektort, mely eleget tesz a fenti egyenlőtlenségnek. (Ez a c vektor nem szükségképpen azonos c*-gal.)

A tanító algoritmus:

képlet

A konvergencia tétel szerint ez az algoritmus csak véges számszor megy a c-t módosító részekre, ha egyáltalán létezik az egyenlőtlenségnek eleget tevő c* vektor. A következőkben ezt az állítást bizonyítjuk.

Definiáljuk a Ψ(α) vektort:

képlet

E Ψ-vektor segítségével a c p (α)-ra vonatkozó egyenlőtlenségek egyetlen egyenlőtlenségbe foglalhatók össze:

képlet

Tétel:

Ha létezik olyan c* vektor (| c* | = 1) és δ > 0 szám, hogy

képlet

akkor véges számú lépésben meghatároz egy ilyen vektort a következő algoritmus:

képlet

Bizonyítás:

képlet

Mivel | c* | = 1, így G(c) két egységnyi abszolút értékű vektor skaláris szorzata, következésképp

G(c) < 1.

Az eljárásnak az AD címkéjű módosító részénél n-edik alkalommal módosított vektort jelöljük cn+1-gyel. (A kezdő vektort jelöljük c1-gyel, c1 = Ψ.) Az algoritmus szerint

cn+1 = cn + Ψ

A G(c) számlálója:

képlet

Tehát G(c) számlálója lineárisan növekszik az AD alatti változtatások számával. A nevező változását a következő módon becsülhetjük:

képlet

Igaz viszont, hogy

Cn-1 · Ψ ≤ 0

hiszen ez a feltétele annak, hogy az AD módosításhoz kerüljünk. Ezért, valamint figyelembevéve, hogy | Ψ | = 1:

képlet

Tehát G(c) nevezőjének változása:

képlet

Így igaz, hogy

képlet

G (c) bevezetésekor megmutattuk, hogy G (c) < 1, ezért

képlet

azaz a megadott eljárás csak véges számszor módosítja a c súlyvektort. Más szavakkal: az eljárás véges számú lépésben befejezi az alakfelismerés megtanítását. Ezzel a perceptron konvergencia tételt bebizonyítottuk.

A perceptronnal kapcsolatban, születése idején, igen nagy optimizmussal az a hiedelem is felmerült, hogy az a tanulni képes agy modelljének tekinthető. E hiedelem ugyan nem bizonyult igaznak, a perceptronra vonatkozó kutatások azonban világosan mutatják, hogy az idegrendszer atomjának tekinthető egyetlen neuron is milyen sokra képes.

4. A neurohálózat egyenletei

Az idegrendszer belső részein egy kiszemelt neuron (pl. az i-edik) más neuronoktól kaphat jeleket és saját maga is küld jelekét neuronoknak. Tekintsük példaként a kisagy kérget. Az itt található Purkinje sejt (5. ábra) feleltethető most meg a perceptron súlyozott összeget képező egységének. Az ábra, amit a Purkinje sejt észlel, a párhuzamos szálakon futó gerjesztésekből alakul ki. Az ábrát most is egy p(t) vektorral jelöljük. Ennek komponensei (p1(t), p2(t), ..., pN(t)) 1 vagy 0 értékűek aszerint, hogy az adott időintervallumban az 1, 2, ..., N-edik párhuzamos szálon van-e gerjesztés a kiszemelt Purkinje dendrit fájánál, az érzékelő bemeneténél. Az ábra szót itt általánosított értelemben használjuk: optikai szempontból jelentéssel nem bíró pontok halmaza, mely a párhuzamos szálakat képzeletben elmetsző síkban, a Purkinje-sejt "látósíkjában" jelenik meg. Az időt diszkréten változónak tekintjük. (A diszkrét időintervallum hosszát, τ-t, választhatjuk pl. 1 msec nagyságúnak; ez megfelel kb. egy impulzus időbeli hosszának.) Egy időkvantumon belül a sejtek állapotát változatlannak tekintjük. A változás az egyik időkvantumról a másikra való áttérés során következik be. Az i-edik Purkinje sejt testén mérhető gerjesztettségét a t + τ időben jelöljük Xi(t + τ)-val.

Az Xi változását a következő tényezők okozzák:

  1. gerjesztettség magától csökken: -λ Xi (t);
  2. a párhuzamos szálakon bejövő ingerektől növekszik:

    képlet

  3. a gátló szinapszisokon áttevődő gátlás hatására a gerjesztettség csökken:

    képlet

  4. ha a sejt az előző időegységben tüzelt, akkor a következő R · τ időben nem gerjeszthető (refrakter periódus): szorzás képlet-val.

Mindezeket egybegyűjtve a gerjesztettséget a következő egyenlettel írhatjuk le:

képlet

képlet

ahol λ a felejtés erőssége, ci,k az i-edik Purkinje sejtnek a k-adik párhuzamos szál felől való gerjeszthetősége (szinapszis erőssége), gi,k a k-ik gátló sejttel való kapcsolat erőssége, bk(t) á k-adik gátló sejtről érkező gátlás, pi(t) az i-edik párhuzamos rostról érkező gerjesztés. Si az érzékenységi küszöb, melyet, ha meghalad a gerjesztés, egy kifutó hullámot (szolitont) emittál a Purkinje sejt az axonján. (yi(t) = 1). R · τ a refrakter idő, ami alatt a sejt nem gerjeszthető. Az egymással kölcsönhatásban levő neuronok állapotát leíró fenti egyenletrendszer megoldására az adiabatikus közelítés alkalmazható. A λ, ci, gi mennyiségek sokkal lassabban változnak, mint az Xi gerjesztettségek, így az előbbieket konstansnak tekintjük a neuronhálózat egy aktivitási mintázatának a meghatározásakor.

5. ábra
5. ábra. A kisagy-beli Purkinje-sejt sematikus képe. Felül az ágazatos dendritfán keresztül kap a sejt ingereket az ún. parallel rostokon át. Ezeken a rostokon érkezik meg az izmok állapotát és a testhelyzetet tükröző "kép" a feldolgozó sejtekre

A csatolási erősségekre sokkal nagyobb időállandókkal jellemezhető egyenleteket, a memória egyenleteket írjuk fel. Ebben azt a tanulási hypotézist fogalmazzuk meg, hogy

  1. ) a hatékony gerjesztés (azaz oly gerjesztés, mely a gerjesztett neuron tüzelését eredményezte) erősíti azt a szinapszist, amely azt létrehozta [2],
  2. ) minden szinapszis erősségét állandóan csökkenti egy felejtési folyamat.

Ezen feltevés alapján a memória-egyenlet a következő:

képlet

A K1 és K2 a szinapszis erősségét két korlát között tartja. Egyrészt a rég nem használt kapcsolatot sem hagyja teljesen eltűnni, másrészt a nagyon gyakran eredményesen működő kapcsolatot sem hagyja minden határon túl növekedni:

képlet

A gátló szinapszis erősségek nem változnak.

A fenti egyenleteket ugyan a kisagy-kéreg példája kapcsán írtuk fel, mégis vonatkoztathatjuk a teljes idegrendszerre. Ebben az esetben a p(t) vektor az összes neuron kimenete által az i-edik neuron szinapszisain a t időben létrehozott gerjesztést jelenti. Hasonlóan kiterjesztendő a b(t) gátló impulzuskép értelmezése is.

A konnektivitást, (azaz az idegrendszer kapcsolási rajzát) a ci,k szinapszis erősségek zérus, illetve nem zérus értékei reprezentálják (a hosszú axonokon való jel-terjedés véges sebességét ütem késleltetéssel könnyen figyelembe lehet venni). Receptor neuronok esetén p(t)ci a kívülről ható stimulus-ábrát jelenti.

A hálózat. állapotát mikroszkopikusan leíró egyenletrendszert felírtuk. Ez a leírás [4] korábbi egyszerűbb modellekből [3] alakult ki. Sokkal nagyobb nehézséget jelent azonban ezen egyenletek megoldásainak megkeresése és értelmezése. E probléma vizsgálatára alkalmazott néhány módszert mutatunk be a következőkben.

  1. ) Az egyenletek numerikus megoldása számológépen. Ezen a módon csak kevés neuronból álló hálózatnak viszonylag rövid időre kiterjedő viselkedése analizálható. E módszer alkalmazása során felmerülő problémák vizsgálatához előtanulmányként készítettük el a Bébit [5], egy egyszerű környezettel kölcsönhatásba lépő, 25 neuronból álló hálózat számlálógépes szimulációját. A Bébi mellé egy "Tanító" (másik program) volt rendelve azzal a feladattal, hogy megtanítsa a Bébit eligazodni egy egyszerű szerkezetű labirintusban. Ezért a jónak ítélt aktivitásokat jutalmazta, ami az akkor aktív szinapszisok erősödésével járt. ellentétes esetben a büntetés következtében a szinapszisok erőssége csökkent. Megfelelő tanítási szisztémát nehéz volt találni és a Bébi így nem nagyon akart okosodni. Tapasztalnunk kellett, hogy a kezdeti paraméterértékekre nagyon érzékeny az egyenletrendszer és egyértelműen a tanulás csak akkor volt kimutatható, ha a kezdeti "örökletes" kapcsolatokat gondosan a feladat ismeretében adtuk meg. A nem jó kapcsolatokkal "született" hálózaton a tanítás nem fogott, a különféle idegbetegségek megfelelőit azonban gyakran tapasztalhattuk az ilyen hálózaton: a teljes gátoltság, a katasztrófaszerű begerjedés és gátoltság váltakozása (epilepszia) és a mindentől függetlenül működő reverberációs körök.
  2. ) Más úton is meg lehet vizsgálni a neuronhálózat egyenleteit. Harth [6] néhány általános tulajdonságot próbált megmutatni. E célból némileg egyszerűsítette Caianiello egyenleteit. Megmutatta, hogy megfelelő feltételek esetén a tanulás hatására két eredetileg független külső inger, ha sokszor fordul elő együtt, a neuronhálózat egy azonos területét fogja ingerelni. Később ezt a területet már a két inger közül bármelyik egymagában is aktivitásra készteti. Ez a folyamat a klasszikus Pavlovi feltételes reflex megfelelője és egyben a különféle ingerek asszociatív összekapcsolását is reprezentálja a hálózaton. Rámutatott arra is, hogy a szinapszisok gyengülésének, a felejtésnek is fontos szerepe van. Ez elősegíti az "absztrakciót" és biztosítja a hálózat optimális kihasználhatóságát.
  3. ) A neuronhálózat. vizsgálatát igen nagy mértékben megkönnyíti a neuronegyenletek linearizálása. Ez esetben ugyanis alkalmazhatók lineáris a algebra jól kidolgozott módszerei. Ez a linearizált egyenletrendszer bizonyos jelenségeket nem képes visszaadni, más jelenségek viszont könnyebben vizsgálhatók rajta. Nézzük meg, hogyan nyerhetünk lineáris egyenletrendszert a neuron egyenletből: Így T idő alatt (T/τ) [pci - bgi] a beérkező gerjesztés. A felejtést leíró tagban λ Xi (t) helyett az átlagértékének megfelelő felejtést, λτ < Xi(t) >-t írunk.

Ezen feltevések mellett a T idő alatt bekövetkező gerjesztettség változásra a neuron-egyenlet így írható:

képlet

Osszuk el mindkét oldalt az Si küszöbértékkel és T-vel:

képlet

Ezen egyenlet baloldala azt adja meg, hogy T idő alatt az Si küszöbnek hányszorosára nőne a gerjesztés, amikor Xi nullára esne vissza. Ez tehát éppen a kimenő jelek frekvenciája, vi. A pk/τ és bl/τ értékek pedig a bejövő frekvenciák, vp,k és vb,l. Egy ai,k = ci,k/Si illetve di,l = gi,l/Si azt adja meg, hogy a k-ik, illetve az l-ik bemeneten megjelenő jel a küszöbérték hányad részével változtatja a gerjesztettséget. Ennek alapján a neuron egyenlet frekvenciák közti lineáris kapcsolatot előíró egyenletté alakul:

képlet

A neuronhálózat linearizált modelljében a "viselkedést" a bemenő frekvencia-mintázatra adott kimenő frekvencia-mintázat képviseli.

A memória kialakulásának leírására a Hebb, illetve Marr-féle [2] hipotézis itt is alkalmazható. A hálózat paramétereiként szereplő szinapszis erősségek változását, a sejtekre be-, és az onnan kifutó impulzusok frekvenciái határozzák meg:

képlet

Kohonen [7] ilyen linearizált hálózatot vizsgált. Megmutatta, hogy ha egy hálózat egy adott ingerminta reprodukálását "megtanulta", akkor az inger egy részére is jó közelítéssel ugyanazt a választ adja, mint a teljes ingerre (6. ábra).

5. A neuronhálózat statisztikus leírása

A neuronok mikroszkopikus leírásának vannak hátrányai. Elsődlegesen az, hogy nagyszámú neuron egyedi matematikai leírása numerikusan nem lehetséges. A valóságban nincs is mindig szükség a neuronok működésének egyenkénti ismeretére. Az érzékelő rendszerben, a látás, tapintás területén nagyszámú, rétegekbe rendezett neuron dolgozza fel az információt. Ez a réteges elrendezés az agyszövet egész felépítésére is jellemző. A rétegen belül egy-egy neuronnak nincs kitüntetett szerepe, hiszen szomszédaitól kevéssé eltérő ingereket kap. A réteg egész felületére jutnak befutó ingerek és a kimenő axonszálak is az egész rétegből erednek. A rétegen belül a neuronokat asszociációs szálak (axonok és dendritek) kapcsolják szorosan össze.

A neuronok egyenkénti leírása helyett vizsgáljuk a réteg r pontja körüli "infinitézimális" tartományba tartozó neuronok átlagos viselkedését. A neuron és memória egyenleteket kis tartományba eső neuronokra átlagolva a neurontér egyenleteit kapjuk. Hasznosnak bizonyult a neuronok aktivitásának jellemzésére bevezetni a küszöb fölé gerjesztett neuronoknak az összes többi neuronhoz való arányát. A legegyszerűbb közelítésben [8, 9] csak gátló és gerjesztő típusú neuronokat különböztetünk meg. Aktivitásukat E(rt)-, és I(r, t)-vel jelöljük. Ezekre csatolt integro-differenciálegyenletek nyerhetők. Ezen egyenleteket a vizuális kéreg modelljének tekintve sikerült megérteni néhány optikai csalódás fellépését is [8].

Kérdezhetjük, hogy mi történik, ha egy képet [p(rt)] rávetítünk a retinára, ahonnan az a vizuális kéregre tevődik át. Mennyire hű a kérgen megjelenő kép? Az egyenletek megoldása erre ad választ. Lássunk néhány példát, az egyszerű ábrázolhatóság érdekében egy dimenzióban. Egy időben rövid, térben lokalizált fényjelre viszonylag hosszantartó anharmonikus állóhullám gerjesztés jön létre az egyenletek által leírt rétegen. Az állóhullám a gerjesztés helyén marad lokalizálva és mind a gerjesztő, mind a gátló sejteken megfigyelhető. Az állóhullám frekvenciája a felvillanás erősségével arányos és független a térbeli mérettől (7. ábra). A 7. ábrán egy másik jelenség is látható: a kéregben a kontúrok kiemelkednek. Más megoldások ezt a kontúrkiemelést sokkal erőteljesebben mutatják. Közismert, hogy a kontúrok gyenge világítás mellett kevésbé láthatóak. Ezt is reprodukálja a modell (8. ábra).

6. ábra
6. ábra. Linearizált hálózat modell [7] alkalmazása ábrák rekonstruálására egyes részletekből. 510 négyzethálóban elhelyezkedő neuronra a bemenő ingerként az (a) és (b) ábrán megjelölt sejtekre juttattak jeleket. Több ismétlés után a hálózatban olyan kapcsolatok alakultak ki, hogy a neuronok közül az egyes ábrákra szintén az (a), (b) ábrákon megjelölt neuronok válaszoltak megnövekedett aktivitással. Ezek után a hálózatra a (c) bemenő ingert adva a (d) ábrán megjelölt sejtek váltak aktívvá.

Utolsó példaként nézzük meg, hogyan tükrözi a modell a Fender-Julesz-féle [10] vizuális hiszterézis jelenséget. E jelenség lényege a következő: ha távolból nézünk két reflektort, amelyek egymás mellett vannak, egy fénypontot látunk. A reflektorokat eltávolítva egymástól, bizonyos távolságnál már el tudjuk különíteni a kettőt. Ha ezután ismét közelítjük a reflektorokat, sokkal kisebb köz esetén olvadnak össze egy fényponttá szemünkben, mint előzőleg a távolításkor. Ezt az eléggé speciális jelenséget, ami csak az idegrendszer hatásának tudható be, pontosan megkaphatjuk az egyenletek megoldásával. (9. ábra.)

7. ábra
7. ábra. A rövid ideig tartó P(x) stimulusra kialakuló aktivitás a neuronhálózatban. A folytonos vonal a gerjesztő neuronok E(x, t) aktivitási szintjét, míg a szaggatott vonal a gátló neuronok I(x, t) aktivitási szintjét mutatja.
8. ábra
8. ábra. A kontúrok kiemelésének függése a fényerőtől. A különböző erősségű éles határú P inger hatására kialakuló E(x) aktivitás-szint a P inger erősségétől függően különböző alakú, a kontúrok nagy ingererősségnél emelkednek ki.

A statisztikus modellekbe a tanulás is beépíthető a memóriaegyenlet figyelembevételével. Az így kibővített modellben kimutatható az adaptáció a sokat ismételt mintákhoz. Az adaptálódott mintákra a neuronréteg gyengébben, kisebb amplitúdóval reagál, mint az "újakra". Más szerzők [9] hasonló statisztikus modellben, experimentális paramétereket használva, a neuronrétegen az EEG vizsgálatokból is ismert frekvenciájú impulzusok terjedését tapasztalták.

6. Az idegrendszer matematikai analizálásának perspektívái

Az előzőekben leírtuk a neuronhálózat atomjának, a neuronnak egy, a hálózatban betöltött funkciója szempontjából jól közelítő, modelljét. Felírtuk a kölcsönható neuronok hálózatának az egyenleteit. Ezt az egyenletrendszert tekinthetjük a "neuron-gerjesztések" Schrödinger- egyenletének. Innen azonban még hosszú út vezet a rendkívül bonyolult kezdeti feltételekkel rendelkező valódi idegrendszer megértéséhez. Első lépésként a hozzávetőleg homogén kezdeti feltételekkel rendelkező probléma megoldásainak vizsgálatával a hálózat néhány általános tulajdonságát derítjük fel. Az agynak vannak olyan részei, amelyekben nagyobb területre is jónak tekinthető a homogén kezdeti feltétellel való közelítés. Ha az anatómiai ismeretekre támaszkodva [9] adjuk meg a hálózat konstansait, a valódi agy egy területének átlagos aktivitására kapunk modellt. A neuronhálózat lényegi működésének vizsgálatához azonban az idegrendszer strukturálódását feltétlenül figyelembe kell vennünk.

9. ábra



9. ábra. A Fender-Julesz-féle vizuális hiszterézis a Wilson-féle matematikai modellben. a) Felül: két egymástól távolodó pontszerű inger hatására a neuronhálózat először csak egy aktivitási csúcsot mutat. Középen: a két pontszerű inger további távolításának hatására két aktivitási csúcs keletkezik. Alul: a pontszerű ingereket ismét közelítve egymáshoz az aktivitási csúcsok sokáig szétválva maradnak. b) A neuronhálózatban keletkező aktivitási csúcsok maximumainak távolsága az őket létrehozó ingerek távolságának függvényében

Az élőlényekben a bejövő ingerek feldolgozása és az ezekre adandó válasz kialakulása különböző komplexitású szinteken történik. (10. ábra.) A receptorban és az ahhoz közeli területen sok különböző erősen specializálódott neuront találunk (pl. a béka optikai rendszerében sebességmérő neuronokat). Az idegrendszer központi részére viszont a nagyszámú, de csak néhány fajta neuront tartalmazó rétegek a jellemzőek. Egy-egy ingerre adott válasz annál gyorsabb, mennél alacsonyabb szinten alakult ki (pl. gerincvelői reflexek). Mennél összetettebb egy inger, annál magasabb szinten jön létre a válasz. Az ingerfeldolgozás pályájának magasabb szintre való áttérése sok neuron részvételét, nagyobb időbeli késést eredményez. A sok neuron részvétele több asszociációt tesz lehetővé.

10. ábra
10. ábra. Az idegrendszer feltételezett funkcionális felépítésének vázlata, az egymás fölé rendelt réteges szerveződés bemutatására

A fentiek szerinti ingerfeldolgozás azonban csak egy lélektelen automata működésének felel meg. A motivációkkal, tudattal bonyolított magasabbrendű idegi működés lényegét valószínűleg a felső agytörzsi magok és az agykéreg kölcsönhatásban kell keresnünk [11, 12]. Míg az idegrendszer aktivitásának túlnyomó része párhuzamos működésként fogható fel, a beszéd és a gondolkodás soros jellegű információ feldolgozáson alapul. Az információ feldolgozásnak ez a váltása a párhuzamos típusúról soros típusúra valószínűleg alapvető szerepet játszik a magasabbrendű idegi tevékenységben.

A fentiek tükrében tekintsük át a matematikai modellezés jelenlegi lehetőségeit. A néhány (≈ 100) neuronból álló hálózatok (egyszerű reflexívek, mesterséges neuron-tenyészetek) vizsgálatára közvetlenül a mikroszkopikus (a neuronokat egyenként számbavevő) leírás alkalmazható. Az így adódó számításoknak a tapasztalattal való egybevetése az alapfeltevések helyességének vizsgálatát, a neuronhálózat paramétereinek meghatározását teszi lehetővé. A nagyon sok neuron átlagos viselkedésének analizálására a statisztikus "neurontér" modell alkalmazható. Így az idegrendszer néhány kollektív tulajdonságának megértéséhez juthatunk közelebb. A sok neuron nem átlagos viselkedésén alapuló tudati jelenségek analizálására olyan modellekre van szükség, amelyekben a fenti megközelítési módok ötvözésén túl, az idegrendszer anatómiai szerkezete is alapvető szerepet kap. Ilyen matematikai modellek kidolgozása a jövő egyik legizgalmasabb kutatási területe.

HIVATKOZÁSOK

  1. F. Rosenblatt: Principles of Neurodynamics, Washington Spartan Books (1962).
    H. D. Block, Rev. Mod. Phys. 34 (1962), 123.
    H. D. Block, B. W. Knight, F. Rosenblatt, Rev. Mod. Phys. 34 (1962), 134.
    M. Minski, S. Papert, MIT PRESS (1962).
    F. Rosenblatt, Psychol. Rev. 65 (1958), 386.
  2. D. O. Hebb, Organization of Behaviour, Wiley, New York (1949).
    D. Marr, J. Physiol (London), 202 (1969), 437.
    D. Marr, Proc. Roy. Soc. B176 (1970), 161.
  3. W. S. McCulloch, W. Pitts, Bull. Math. Biophys. 5 (1943), 116.
  4. E. R. Caianiello, J. Theor. Biol. 1 (1961), 204.
  5. Csernai L., (1975), publikálatlan kézirat.
  6. E. M. Harth, Automata Theory (szerk.: E. R. Caianiello), Academic Press (1966), 201. o.
  7. S. Kohonen, Associative Memory, A system-theoretical approach, Springer Verlag, Berlin, Heidelberg, New York (1977).
  8. H. R. Wilson, Cooperative Phenomena (szerk.: H. Haken), North Holland (1974), 247. o.
    H. R. Wilson, J. D. Cowan, Biophys. J. 12 (1972), 1.,
  9. G. M. Darabkin, V. K. Sbitnev, Biofizika (Moszkva) 20 (1975), 699.
    V. I. Sbitnev, Biofizika 21 (1976), 1072.
    V. I. Sbitnev, Biofizika 22 (1977), 523.
  10. D. Fender, B. Julesz, J. opt. Soc. Am. 57 (1967), 819.
  11. W. Penfield: The Mystery of the Mind, Princeton, University Press, New Jersey (1975).
  12. Juhász P., A klinikai neurológia alapjai, Medicina Kőnyvkiadó, Budapest (1971), 378. o.