Betekintés: Kovács Tamás - A mesterséges intelligencia és a nyelv viszonya

Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


A mesterséges intelligencia és
a nyelv viszonya

Tamás Kovács



A mesterséges intelligencia és a nyelv viszonya
A nyelv az emberi kommunikáció legáltalánosabb eszköze, tagolt, egymástól elkülöníthető jelekből
alkotott jelrendszer. A nyelv minden társas tevékenység nélkülözhetetlen feltétele, meghatározó
szerepet játszik az egyének gondolkodásában. Egyes kutatók szerint a nyelv és gondolkodás ugyanazon
folyamat különböző aspektusa, egyidejű, egymást feltételező jelenségek. A nyelv függ a
gondolkodástól, ugyanakkor meg is határozza azt. A legáltalánosabban használt formája a beszéd. A
beszédtudomány fő területei a beszédképzés, a beszédészlelés és a beszédismétlés.
A felsorolt alapvetések tényszerűen igazak és bizonyítottak az emberi kommunikációt illetően. Hosszú
évezredekig a az ember volt képes egyes egyedül kommunikálni, azaz gondolatait észlelhető,,
érzékelhető formába önteni. A 21. század technológiai lehetőségei és a nyelvhasználatot illető
kutatások megteremtették az alapját annak, hogy a nyelv nem csak az emberi DNS-láncok átörökítő
kapcsain keresztül öröklődjék generációkról generációkra, hanem a mesterséges intelligencia révén az
ember által létrehozott fizikai környezet is az emberi kommunikációs tér aktív részesévé váljon. Azaz
ha elég merészen tekintünk a jövőbe, és ismerjük az elmúlt évtizedek kutatási trendjeit, akkor szinte
kijelenthetjük, hogy a beszélő gépek korszakának küszöbén állunk.
Az olvasó e pontnál joggal kapja fel a fejét: de hát ilyen már volt! Valóban, az 1700-as évek végén
Kempelen Farkas feltalálta és bemutatta a beszélőgépet, amely nyelvészeti szempontból fontos
mérföldkő: elindítja a modern fonetikai kutatásokat. E tekintetben nyelvészeti szerepe véget is ért,
mert valóban képes volt az emberi hang frekvenciáján „megszólalni”, szavakhoz, sőt mondatokhoz
hasonlatos hangsorokat kiadni, de ez így csak fizika. Mert a kommunikáció az nem egyedül a
beszédképzést és beszédészlelést jelenti, hanem annál sokkal több: a percepció, befogadás művészete
az, ami igazán emberivé teszi.
S íme, Kempelen után közel háromszáz évvel már-már elérhető közelségbe kerül a valós emberi
kommunikáció modellezése. Mindehhez nem kellett más, mint az emberi kommunikáció, a nyelv
behatóbb ismerete, illetve olyan informatikai eszközök és eljárások létrehozása, amely képes
modellezni az emberi gondolkodás és nyelv működésének egyes elemeit.
A Természetes Nyelv Feldolgozás (Natural Language Processing, NLP) a számítástudomány egy
területe, mely olyan számítógépek létrehozását tűzte ki célul, melyek inputként, vagy outputként
természetes nyelvet használnak. A természetes nyelv kommunikációs eszközként való alkalmazása az
ember igényeinek kiszolgálását jelenti, ugyanakkor nehéz feladatot ró a gépre. Különösen a bemeneti
oldal, az emberi nyelv inputként való alkalmazása nehéz a beszélt nyelv sokszínűsége és a hordozott
jelentés többszintűsége miatt. Míg a nyelv feldolgozása a nyelv megértését igényelné, addig a
beszédgenerálás egy beparaméterezett egyirányú folyamat.
A verbális robotkommunikáció négy nagy fejlesztési területe:
 beszédészlelés és hangfeldolgozás
 morfológiai elemzés
 szemantikai elemzés
 beszédgenerálás
A beszédészlelés – hangfeldolgozás, illetve a beszédgenerálás sematikusan leegyszerűsítve nem más,
mint egy adott eszközrendszer működtetése adott fizikai paraméterek mellett. Ebben az esetben nem
kell feltétlenül az emberi modellt követnie a gépi technológiának. Ellenben az emberi kommunikáció a
nyelvet használó területeinek (nyelvelsajátítás, kategorizálás, szemantikai beszédértés, logikus
válaszadás) modellezése már a számítástudomány és nyelvészet közös kutatási kapcsolatát, egy új



tudományos terület meglétét feltételezi, amely nem más, mint a 20. század közepétől megjelenő és
egyre intenzívebben fejlődő számítógépes nyelvészet.

Mesterséges intelligencia és nyelvtechnológia
A számítógép és a kognitív tudomány egymáshoz való viszonya két egymástól jól elkülöníthető
aspektusban írható le. Az egyik célja, hogy olyan intelligens számítógépes alkalmazásokat hozzanak
létre, amelyek kognitív funkciók tekintetében legalább emberi szinten, de inkább azt meghaladóan
teljesítsenek. A másik felfogás az emberi megértés, a gondolkodás mintázatainak modellezését tűzte
ki célul, azaz annak megértését, hogy milyen elemi összetevők által képes az ember gondolkodni, illetve
a megszületett gondolatokat mások számára érthető formában megfogalmazni és közölni. Ez utóbbi
vizsgálódás már nem egyedül számítástudományi, informatikai feladat, hanem nyelvészeti is. A
nyelvészeti tudományok ezen ágát számítógépes nyelvészetnek nevezzük, amelynek egyik kiemelt
célja és feladata az emberi kognitív folyamatok, a beszédprodukció és a beszédpercepció modellezése.
A gépi intelligencia kutatásában kiemelt helyet foglal el a nyelvhasználat képessége, mivel a nyelv
központi szerepet tölt be az emberi gondolatok átadásában. Ezt már a számítógépes kor kezdetén is
felismerték, amikor Alan Turing 1950-ben (Turing 1950/1964) az első modern számítógépek
megjelenését követően megfogalmazott egy gondolatkísérletet, amely számítógépes programok
intelligens voltát volt hivatott megállapítani.
A Turing-tesztben a tesztelő személy egy számára láthatatlan számítógéppel és egy ugyancsak
láthatatlan másik személlyel levelez bármilyen témáról. Mindkét levelezőpartner célja az, hogy
meggyőzze a tesztelőt arról, hogy valódi ember. A tesztelő feladata pedig az, hogy eldöntse, a két
levelezőpartner közül melyik a gép. Ha a tesztelő sikertelen, mondja Turing, praktikus szempontból
Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


intelligens géppel állunk szemben.

A mesterséges intelligencia első nyelvi modelljei
Turing hatására megkezdődött a verseny a társalgó gépek kifejlesztésében. A mesterséges
intelligencia (artificial intelligence) kifejezés 1956-ból származik, amikor Marvin Minsky, Claude
Shannon és más kutatók ezen a néven konferenciát szerveztek, ahol a gépi nyelvi készség problémáját
egy formalizált logikai utasításrendszer segítségével próbálták megközelíteni.
A kezdetben nagyon egyszerű módszer (részleges) sikerét Weizenbaum (1966) ELIZA nevű
társalgórendszere bizonyította. ELIZA egy rogersiánus pszichoterapeutát szimulál, aki partnerét
beszédre bíztatja, ő maga viszont tartalmilag semmit nem tesz hozzá a beszélgetéshez. Az
Eliza algoritmus a beszélgetőtárs közléseiből kulcsszavak keresésével és behelyettesítésével állítja elő
értelmesnek tűnő válaszait. Adatbázisában több szó és kifejezés, és az ahhoz tartozó válasz-sablonok
szerepelnek. Ha a beszélgetőtárs kommunikációja tartalmazza valamelyik kulcsszót, az algoritmus
véletlenszerűen kiválaszt egy, a szóhoz társított elemet adatbázisából, és megalkotja a választ.
Az algoritmus nagyban épít az angol nyelv sajátos nyelvtani szerkezetére, ezért más nyelveken
alkalmazni nehézségekkel jár. Az algoritmus sajátos "mellékhatása", hogy a program hasonló stílusban
válaszol, mint egy rogersi szemléletű terapeuta: gyakran "tükrözi" vissza beszélgetőpartnere
mondatait, formálja át kérdésekké kijelentéseit, bátorítja őt az adott téma kifejtésére. Ezzel a
megoldással elkerülhető volt a tárgyi tudás problémája, és fókuszban maradhattak a társalgás nyelvi
kérdései. Az alkotók szerint a rendszer felhasználói több perc levelezés után sem jöttek rá, hogy nem
emberrel, hanem egy géppel beszélgetnek, vagyis ELIZA megfelelt a Turing-teszt követelményeinek,
bár csak a maga korlátozott témakörében. A hetvenes évek során Roger Schank vezetésével az



egyszerű nyelvközpontú modellek kibővítésével kísérleteztek a mesterséges intelligencia kutatói.
Ezeknek az úgynevezett forgatókönyv (script) rendszereknek a lényege a nyelvi tudás mellett a
rendszerezett háttérismeret volt, és azt tűzték ki célul, hogy hétköznapi szituációkra vonatkozó
kérdésekre emberhez hasonlóan tudjon választ adni a gép. A válaszadás alapja a háttérismeret, vagyis
az adott szituációra megírt pontos forgatókönyv (algoritmus). A forgatókönyv ismeretében a rendszer
logikai következtetéseket tudott levonni, és ennek megfelelően kommunikálni. A kísérlet kapcsán
megjegyzendő, hogy egy használhatóan részletes, mindenre kiterjedő forgatókönyv összeállítása
megvalósíthatatlan feladatnak bizonyult. Ám valamilyen formában a háttértudás ma is lényeges eleme
sok nyelvfeldolgozó alkalmazásnak, és a lexikális tudás az emberi nyelvfeldolgozásban is fontos
szerepet kap.

A nyelvtechnológia mai eszközei
Az utóbbi évtizedekben jobban körülhatárolt célok felé fordult a számítógépes nyelvészet. Ma már
ebben a kontextusban nem is mesterséges intelligenciáról, hanem inkább nyelvtechnológiáról
beszélünk, amelynek a mindennapokban is használt sikerei közé tartozik például a helyesírásellenőrzés, a szövegkivonatolás, a bankszámlaegyenleg lekérdezése, a mozijegyrendelés és a gépi
fordítás. Ezek és más hasonló alkalmazások a nyelvtechnológia egyes részfeladatainak megoldásával
jöhettek létre. Ilyen részfeladatok a következők:
Beszédfelismerés: a hallgató szerepében a gép első feladata a felhasználó által adott akusztikus jelek
felismerése és a folyamatos hanghullám nyelvi egységekre bontása.
Beszédszintézis: a dialógus másik oldalán a gépnek tudnia kell beszédhangokat szintetizálni és ezeket
folyamatos beszéddé alakítani.
Elemzés (parsing): a nyelvi elemzés során a feladat a szöveg különböző szintű elemeinek
rendszerezése, az elemek közötti függőségek megállapítása. A mondatok szintjén a szavak
szerveződését vizsgáljuk (pl. mi minek a jelzője, birtokosa, tárgya stb.), a szavak szintjén pedig a szótő
és a toldalékok viszonya az elemzés tárgya (pl. a szavak szófajának megállapítása és a végződések
kategorizálása).
Szemantikai elemzés: a szöveg értelmezéséhez ismerni kell nemcsak a szavak jelentését, hanem a
szöveg körülményeitől függő ún. deiktikus kifejezések utalási szándékát is. Az akkor, tegnap, ő,
itt szavak például csak a szövegkörnyezethez és/vagy a fizikai környezethez viszonyítva értelmezhetők.
Ezen túl egyértelműsíteni kell a többértelmű szavakat, és azonosítani a többszavas kifejezéseket,
metaforákat, beszédaktusokat stb.
Generálás: nyelvgenerálásnak nevezzük valamilyen tudás nyelvi kódolását, vagyis természetes nyelven
– megformált mondatokban, szövegben – való kifejezését. Tekinthető ez úgy, mint a parsing és a
szemantikai elemzés fordított irányú alkalmazása.
Inferencia: végül egy bonyolultabb, háttértudással vagy tanulómemóriával rendelkező rendszer logikai
következtetések levonására is alkalmas lehet, explicit vagy implicit statisztikai formában, amivel input
hiányában is kinyerhet új információt. Ezt a folyamatot nevezzük inferenciának, ami a nyelvelsajátítás
és nyelvfeldolgozás számítógépes modelljeinek szerves része.
A nyelvtechnológiai rendszerek minden részfeladatánál két fő célt tartunk szem előtt, ahogy –
feltételezhetően – az emberi nyelvfeldolgozásban is: az egyik a fedés (recall) maximalizálása (minél



több nyelvi elemet tudjunk azonosítani illetve kódolni), a másik pedig a
pontosság (precision) maximalizálása (az azonosítás vagy a kódolás hibamentes legyen). A két törekvés
gyakran ellentétben áll egymással, mert a fedés növeléséhez megengedőbb rendszerre van szükség, a
Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


hibák számának csökkentését viszont szigorítással lehet elérni. A számítógépes rendszereket ezért
ezzel a két mértékkel, illetve ezek egyesítésével (F-mérték) szokták értékelni. A kérdés az, hogy ezeket
a részfeladatokat – amennyiben az emberi nyelv működését kívánjuk modellezni – milyen eszközök /
technikák bevetésével oldhatjuk meg. A nyelvészet e kérdésre kétirányú választ ad.

Szabályrendszer vagy statisztika
A „klasszikus” megközelítés szabályok alkalmazásában látja a feladatok megoldását.
A szabályrendszert a nyelvfeldolgozó program tervezője saját nyelvi tudása és a pszicholingvisztikai
kutatások eredményei alapján alkotja meg, gyakran általánosított, elvonatkoztatott kategóriákra
építve. A szabályok tipikusan „mindent vagy semmit” alapon működnek, tehát vagy érvényesül egy
szabály a feldolgozás során, vagy nem érvényesül, közbülső állapot nem létezik. Ezzel szembeállítható
az újabban elterjedt statisztikai módszer, ahol a rendszer természetes nyelvi szövegekből (szakszóval
korpuszokból) automatikusan von ki mintákat és ezeket alkalmazza más nyelvi megnyilvánulások
feldolgozására. A mintákhoz tipikusan valószínűségeket rendel az algoritmus és újabb szövegek
feldolgozásakor vagy generálásakor arra törekszik, hogy az együttes valószínűség maximalizálása
mellett valósítsa meg a mintaillesztést. A modern nyelvtechnológiai alkalmazások többségében
keverednek a szabályalapú és a statisztikai eszközök, bár az alsóbb szinteken (beszédfelismerés, szófaji
elemzés) a statisztikai megoldások dominálnak, míg a felsőbb szinteken (parsing, szemantika) csak az
utóbbi néhány évben kezdte megingatni a statisztikai módszer a szabályalapú modellek fölényét.

A beszédfelismerés
A beszédfelismerő rendszerek egyik alapelve egy 18. századi matematikus, Thomas Bayes törvényein
alapul. A bayesi megközelítés célja annak felbecslése, hogy ha adott egy h hangsor, mi annak a
valószínűsége ,hogy ez a hangsor s szóhoz tartozik: P(s|h).
A valószínűségek kiszámításához három tárra van szükség:
Egy variációlistára, vagyis egy emberi segítséggel összeállított listára arról, hogy a korpuszban egy-egy
hangsorhoz milyen szavak tartoznak. Ez adja meg a bayesi képlet lehetséges s szavait.
Egy listára a nyelv szavainak gyakoriságáról (hányszor fordul elő egy-egy szó a korpuszban). Ebből
kapjuk a szó abszolút (vagy prior) valószínűségét: P(s).
Egy listára a nyelvben előforduló fonotaktikai folyamatok gyakoriságáról (pl. szóvégi n hang
lehagyásának valószínűsége). A variációtárhoz hasonlóan ezt az információt is emberi munkával lehet
a korpuszból kinyerni. Ez az információ adja egy-egy szóhoz tartozó hangsor valószínűségét (h). A
keresett értéket a fenti három adat alapján számoljuk ki egyenként minden s szóra: P(s|h) = P(h|s)P(s).
A bayesi módszer gyenge pontja a szavak prior valószínűségének meghatározó szerepe. Ez azt
eredményezi, hogy ritkább szavak esetében jó esély van a hibára. A bayesi módszer eredményeinek
javítása megvalósítható a szövegkörnyezet figyelembevételével, már csak azért is mert az emberi
beszédfelismerés is nagyban támaszkodik a szövegkörnyezetre.
A környezetfüggő előfordulási valószínűségek kiszámításának legelterjedtebb eszközei az n-grammodellek, ahol a célszavak prior valószínűségét az előttük szereplő szavak határozzák meg. Az n a
modell nevében azt jelöli, hogy hány szó szerepel a vizsgált sorozatban. Egy kétszavas sorozat
bigrammodell lesz, három szóval trigrammodellt alkotunk. Minél tágabb a célszó szövegkörnyezete



(vagyis minél nagyobb a modell), annál pontosabban tudjuk meghatározni a célszó előfordulási
valószínűségét.
Például a szem szó összességében lényegesen gyakoribb a magyarban, mint az eszem szó,
a villával szót követően megfordul az egymáshoz viszonyított valószínűségük. Ezeket a
valószínűségeket automatikusan nyerjük a korpuszból: a szókapcsolat előfordulási gyakoriságát
elosztva az első tag előfordulási gyakoriságával. A korpusz összes szókapcsolatának valószínűségei
adják a teljes n-gram-nyelvtant.

Parsing: szófaji és morfológiai elemzés
A beszélt vagy írott szavak azonosítása után a nyelvfeldolgozás következő szintje a szavak nyelvtani
elemzése. Ez két részfeladatra bontható: egyrészt a szavak szófajának meghatározása (főnév, ige,
névelő, határozószó stb.), másrészt a szavak morfológiai összetételének elemzése (igekötők, képzők,
ragok, jelek azonosítása). Az előbbi részfeladat tejesítésében ma a statisztikai programok a
legsikeresebbek, míg az utóbbi problémára a magyarban és a magyarhoz hasonlóan bonyolult
morfológiai rendszerű nyelvekben jelenleg még a szabályalapú módszerek kínálják a legjobb
megoldást. A szóelemzés legfontosabb erőforrása a szótár. A szótár tartalmazza a szótövek listáját,
szófaji címkéikkel, morfofonológiai kategóriáikkal és alternatív töveikkel együtt. Elvben a szavak
elemzése megoldható kizárólag egy olyan szótáron keresztül, ahol a nyelv összes létező szóalakja és a
hozzájuk tartozó szófaji, illetve morfológiai címkék fel vannak sorolva. A gyakorlatban azonban ez a
módszer nemcsak gazdaságtalan, hanem egyenesen kivitelezhetetlen, hiszen a szóalkotás kreatív
folyamat a természetes nyelvekben. A szótár mellett tehát az elemzéshez szükség van egy
szabályrendszerre, vagyis morfológiai nyelvtanra.
Ez minimálisan a következő információkat tartalmazza:
 A toldalékok típusait (igekötő, képző, rag).
 A toldalékok morfológiai jegyeinek szerveződését – pl.: IGE:-- idő --múlt, nem múlt – szám -egyes, többes – személy -- 1., 2., 3.
 A morfofonológiai kategóriákra vonatkozó szabályokat. Ide tartozik például az a megkötés,
Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


hogy a sziszegő hangra végződő igék egyes szám 2. személyű ragja -l, és nem -sz.
 A morfotaktikai szabályokat, vagyis a toldalékok előfordulásának lehetséges sorrendjét. Ilyen
megkötés például, hogy a birtokos nem állhat esetragok után (testvéremet és
nem testvéretem). A morfotaktikai szabályok ismerete jelentősen csökkentheti a hibák
számát.
A szófaji és morfológiai elemzés során az elemző algoritmusok a szótárhoz és a nyelvtan szabályaihoz
próbálják illeszteni az input szövegben található szóalakokat. Az illesztésnek háromféle eredménye
lehet: (1) a szóalak egyértelműnek bizonyul és sikeresen felcímkézhető; (2) több elemzés is rendelhető
az adott szóalakhoz. (3) az elemzendő szóalak töve nem szerepel a szótárban (lehet egy új szó a
nyelvben, név, vagy éppen idegen szó).
A többértelműség feloldását a szövegkörnyezet teszi lehetővé az előzőekben említett bayesi
valószínűségek és n-gram-modellek segítségével. A hangalak helyén itt a szóalak áll, a célszó helyén
pedig a szófaji/morfológiai kategória.
Ismeretlen szótő esetén különböző stratégiák alkalmazhatók. A legbiztonságosabb és valószínűleg
leggazdaságtalanabb megoldás a szótő válogatás nélküli többértelmű címkézése, vagyis a nyelvtanban
szereplő összes szófaji címke felragasztása, amiket azután az egyértelműsítő n-gram-modell rangsorol
valószínűségük szerint.



Szófaji és morfológiai elemzők ma már 95–98%-os pontossággal működnek a világ különböző nyelvein.
Hasonló az eredmény az emberi elemző teljesítményével, tehát ha két személy egymástól függetlenül
felcímkéz egy szöveget egy adott nyelvtan alapján, tipikusan a címkék 95–98%-a egyezik meg.

Parsing: mondatelemzés
A mondatelemzés célja a szavak közötti szintaktikai (szerkezeti) és szemantikai (jelentésbeli) viszonyok
feltárása. Az elemzés eredményét különböző alkalmazásokban lehet hasznosítani, például
nyelvhelyesség-ellenőrzésben, gépi fordításban, automatikus szövegkivonatolásban és kérdésre
válaszoló rendszerekben. A gépi mondatelemzés jelenleg elsősorban szabályalapú rendszerekkel
történik, és eredményei egyelőre elmaradnak a beszédfelismerés és a morfológiai elemzés
eredményeitől.
A gépi mondatelemzés legfontosabb erőforrása a nyelvtan, amely egy-egy nyelv szerkezetének a
szabályrendszerét tartalmazza. A nyelvtechnológiában használt nyelvtanok nyelvelméleti modelleken
alapulnak. A nyelvtanoknak két fő típusát különböztethetjük meg. A lexikalista függőségi nyelvtanok a
mondat szerkezeti függőségeit az egyes szavak (lexikális elemek) közötti átmenetek alapján határozzák
meg, vagyis a nyelvtan lényegében egy kiterjesztett szókapcsolattár vagy konstrukcióhalmaz.
A nyelvtanok másik típusa a generatív nyelvelméletből ismert módszerre támaszkodva a mondatot
hierarchikusan elrendezett frázisokra (szócsoportokra) bontja és a mondat szerkezeti függőségeit a
frázisok alapján határozza meg. Minden frázisnak van egy kategóriája, amelyet a frázist leginkább
meghatározó szó szófaja ad meg. A frázisstruktúra-nyelvtanokat le lehet írni ún. környezetfüggetlen
újraíró szabályokkal, ahol a szabály bal oldalán egyetlen fráziskategória áll, amelyet a szabály jobb
oldalán álló egy vagy több kategóriára vagy szóra lehet bontani. A nyelvtan környezetfüggetlen, mert
a bal oldali kategória felbontása a szövegkörnyezetétől függetlenül van meghatározva. A szabálysor a
legfelső kategória (a mondat) felbontásával kezdődik, és lépésenként halad lefelé a hierarchián, amíg
el nem jut a szavakhoz. A gépi mondatelemzés során az elemző algoritmus a nyelvtan által
megengedett frázisszerkezeteket próbálja az input mondatra illeszteni. Mivel a nyelvtan szófaji
kategóriákra és morfológiai jegyekre épül, a mondatelemző bemenetének előzőleg felcímkézett
szövegnek kell lennie.
Egy mondat lehet szerkezetileg többértelmű. A többértelműség feloldásához a szövegkörnyezet
figyelembevételére van szükség; ez statisztikai módszerekkel valósítható meg. Itt azonban
összetettebb problémáról van szó, mint a morfológiai egyértelműsítés esetében.

A nyelvtan elsajátításának számítógépes modellezése
A szintaxis tanulásának modellezéséhez először szükség van valamilyen szintaktikai tudást
reprezentáló modellre, amelyet majd a rendszernek a nyers szöveg alapján ki kell alakítania.
A nyelvtan elsajátításának ígéretes modellje a statisztikai tanulás elmélete, amely szerint a tanuló a
körülötte elhangzó nyelvi megnyilvánulásokból mintázatokat von ki az egyes elemek együttelőfordulási gyakorisága alapján, majd ezekből a mintázatokból fokozatosan nyelvtani kategóriákat
alakít ki. Ez a nehezebb, mint a gépi morfológiai elemzés, mert ezekben a modellekben nem
használhatunk szófajokkal felcímkézett szótárt: azt próbáljuk modellálni, hogy előzetes tudás
hiányában, csupán a hallott szövegekből hogyan lehet a szavakat kategóriákba sorolni. Ennek a
megközelítésnek egyik legegyszerűbb számítógépes megvalósítása Mintz és munkatársai nevéhez
fűződik. A klaszterelemzéses modell a szavakat a környezetükben előforduló egyéb szavak
gyakoriságával jellemzi. Először ki kell választanunk, hogy mely szavakat szeretnénk kategorizálni,



ezeket hívjuk célszavaknak. A célszavak általában a szöveg leggyakoribb szavai lesznek. Ez után el kell
döntenünk, hogy mely szavakkal szeretnénk jellemezni a célszavakat, ezek a kontextusszavak. Egy
alapproblémája a hierarchikus klaszterelemzéses modellnek, hogy az algoritmus nem inkrementális,
azaz a teljes korpuszra szükség van ahhoz, hogy a klaszterhierarciát felépítsük, és egy újabb mondat
bevonása az egész algoritmus újrafuttatását igényli.
Cartwright és Brent továbbfejlesztette a Mintz által kidolgozott modellt és kiküszöböli ezeket a hibákat.
Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


Az algoritmus online, inkrementális működésű, azaz minden mondat feldolgozása után felállít egy
hipotézist az eddigi szavak kategorizálására, és következő mondat beadásával ezt a hipotézist anélkül
tudja tovább finomítani, hogy szüksége lenne a korábbi mondatok újrafeldolgozására. A szerzők a
kategorizálásra mint optimalizációs feladatra tekintettek: a cél olyan kategorizáció megadása, amellyel
a lehető legrövidebben leírhatóak a mondatok. A leírás három részből áll: a kategóriák tagjainak
ismertetéséből, a mondatok leírásából a kategóriákkal (ezt hívjuk hipotézisnek), valamint a
hipotézisben templátummal leírt mondatok egyértelműsítéséből (ezt hívjuk derivációnak). Cartwright
és Brent az MDL (minimum description length) néven ismert információelméleti szemléletet
választotta, amely szerint az a legjobb kategorizáció, amely a legjobban tömöríti a hallott mondatokat.
A mondat-összevonási heurisztikákat úgy tervezték, hogy az összevonások során a minimális leírási
hosszt lehetőleg minél jobban megközelítsék.
A modell teljesítményét egy egyszerű szimbólumokból álló mesterséges nyelven értékelve igen jó
eredmények születtek, viszont természetes nyelveken futtatva az algoritmus több nehézséggel
küzdött. Bár a módszer pontossága nagyon jó volt, azaz ha két szót egy kategóriába sorolt, akkor azok
valóban egy nyelvtani kategóriába tartoztak, a fedés viszont igen alacsony lett, azaz két külön
kategóriába sorolt szónak sokszor egy kategóriába kellett volna tartoznia. Az algoritmus tehát túl
konzervatívra sikerült, sok kis kategóriát hagyott meg a végén, anélkül, hogy a még szükséges
összevonásokat elvégezte volna. Cartwright és Brent hangsúlyozzák, hogy a disztribúciós elemzést nem
tekintik kizárólagos mechanizmusnak a nyelvtani kategóriák elsajátításában. Nézetük szerint
szemléletük összeegyeztethető veleszületett nyelvtani ismeretek feltételezésével is, hiszen a célnyelvi
szavak kategorizálásának kérdésére az innátista elméleteknek sincs kielégítő válaszuk.

A lexikon elsajátítása: vonzatkeretek
Lexikális tudáson nemcsak a szavak kategorizálását értjük, hanem egyéb idioszinkratikus szintaktikai
tulajdonságaik ismeretét is. A predikatív nyelvi elemek – köztük az igék – lexikális tulajdonságai közé
tartozik a vonzatkeretük, azaz hogy milyen kategóriájú, illetve morfoszintaktikai szerkezetű
bővítményekkel jelenhetnek meg a mondatban. Ez a tudás nem csak a mondatalkotás, hanem a
mondatfeldolgozás szempontjából is elengedhetetlen.
A vonzatkeretek elsajátításának számítógépes modelljei ezt a problémát úgy fogalmazzák meg, hogy
ha adott egy F vonzatkeretkészlet és egy V igehalmaz, az inputban megjelenő mondatok alapján
döntsük el minden (f, v) > F × V párról, hogy a nyelvtan szerint f lehet-e v vonzatkerete. A tanulás
eredményeként megengedett ige–vonzatkeret párok alkotják a tanuló lexikonját. A gyereknyelv
esetében az input a gyerek nyelvi környezetét jelenti, a számítógépes modell pedig digitális
korpuszokból tanul. A vonzatkeretek gépi tanulásának egyik mérföldköve Brent statisztikai módszeren
alapuló modellje. Brent eljárásának az a feltételezés az alapja, hogy minden vonzatkerethez tartoznak
ún. jegyek. Egy jegy olyan mintázat vagy formai sajátosság, aminek megjelenése egy mondatban
valószínűsíti, hogy a mondatban előfordul a jegyhez tartozó igei vonzatkeret. Például a „tárgyas ige”



vonzatkerethez tartozhat a következő jegy: a mondatban pontosan egy ige van, és van benne
tárgyesetű névszó. A számítógépes modellben felhasznált jegyeket a gyereknyelvi korpuszban
konzisztensen előforduló, a felnőtt nyelvtan szabályainak megfelelő argumentumszerkezetek részletei
adják. A vonzatkeretet tanuló modell olyan korpuszból tanul, ahol a jegyek már jelölve vannak, vagyis
feltételez némi előzetes tudást, ami akár az előző részben tárgyalt kategorizáló mechanizmusok
eredménye is lehet. Minden jegyhez tartozik egy hibavalószínűség, ez annak a valószínűsége, hogy a
jegy ugyan megjelenik egy mondatban, de a jegyhez tartozó vonzatkeret mégsem tartozik az adott
predikátum megengedett vonzatkeretei közé.
A hibavalószínűségek (>) meghatározása különböző módszerekkel történhet. Elméleti szempontból az
a módszer tűnik az emberi nyelvelsajátítás legjobb megközelítésének, amely a vonzatkeretek
disztribúciójára épül. Vesszük a korpuszban egyenként legalább n-szer előforduló igék
első n előfordulását, és kiszámoljuk, hogy egy fvonzatkerethez tartozó jeggyel hány ige szerepel egy
adott 1 ≤ i ≤ n gyakorisággal. A hibavalószínűségek ismeretében egy statisztikai modellel döntünk arról,
hogy egy ige megjelenthet-e egy adott vonzatkerettel. Két elterjedt statisztikai modellt alkalmas erre
a feladatra: a binomiális modell és a valószínűségi hányados modell.
A binomiális modell eredményei azt mutatják, hogy a pontosság és a fedés relatív értékei nagyon
erősen függnek a hibavalószínűség értékétől: ha emeljük a hibavalószínűség értékét, akkor a pontosság
megnő, a fedés értéke viszont csökken. A legjobb összteljesítményt akkor kapjuk, ha nagyon alacsonyra
állítjuk a hibavalószínűséget, vagyis ha a modell szinte minden egyes megfigyelt ige–vonzatkeret párt
megtanulandó példának tekint. Ebben az esetben viszont nincs fejlődés, több input esetén sem javul a
pontosság.
A valószínűségi hányados modell azt teszteli, hogy egy adott v ige megjelenése és egy adott f
vonzatkerethez tartozó jegy megjelenése egy mondatban független eseményeknek tekinthetők-e,
azaz, hogy együttes előfordulásuk mennyire véletlenszerű. Ha a két esemény nem független, f
v vonzatkeretének tekinthető.
Mivel ez a modell egy adott vonzatkeret más igékkel való előfordulási gyakoriságát érzékenyebben
Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


veszi figyelembe, mint az előző modell hibavalószínűségi paramétere, elméletben közelebb áll az
emberi nyelvelsajátítás esetében feltételezett általánosító, majd a hibás általánosításokat
„visszatanuló” tanulási mechanizmushoz.
A gépi nyelvfeldolgozás szempontjából a valószínűségi hányados próba a binomiális módszernél kissé
gyengébb eredményeket mutat: a viszonylag jó fedés igen szegényes pontossággal párosul.
Ez az állapot a gyereknyelv fejlődésének azt a szakaszát idézi, amikor a kezdeti konzervatív tanulási
stratégiát felváltja az általánosító stratégia. Több adaton a modell egyre jobban teljesít, viszonylag jól
reprodukálva az U alakú tanulási görbét. A gyereknyelvi elemzések esetében a teljesítmény az idő (a
gyerek kora) előrehaladtával csökken majd nő újra, a számítógépes modell esetében pedig az input
adatmennyiségének növekedésével. A kettő megfeleltethető egymásnak, hiszen az idő múltával a
kisgyerek egyre több beszédet hall, így egyre több adathoz jut.

A szintaxis elsajátításának modellje
Összetettebb modell az ADIOS (automatic distillation of structure: szerkezetek automatikus kinyerése)
algoritmus, amely már nem csupán a szavak lexikális tulajdonságait tanulja, hanem a mondat szavai
között fennálló szerkezeti függőségeket is megpróbálja kimutatni. Az ADIOS egyszerű és kevés



prekoncepciót tartalmazó modellt használó általános mintakinyerő algoritmus, amelyet a
nyelvelsajátítás modellezésén kívül más, például bioinformatikai problémák megoldására is használtak.
Az algoritmust először egy környezetfüggő szabályokkal leírt mesterséges nyelvtan segítségével
tesztelték, ahol sikerült 95%-os fedést (vagyis a nyelvtan által generált mondatok 95 százalékát fogadta
el az ADIOS) és 86%-os pontosságot (vagyis az ADIOS által generált mondatok 86 százaléka felelt meg
a nyelvtannak) elérni. Tehát az ADIOS viszonylag kiegyensúlyozott tanulónak tűnik, nem is általánosít
túl, és nem is túl konzervatív, így a felismerés és a generálás hasonlóan jó eredményekkel sikerült.
Az ADIOS rendszer olyan tanulóalgoritmus, amely a nyers szöveg alapján generálásra is alkalmas
környezetfüggő mintarendszert állít elő a szöveg nyelvtanának reprezentálására. Mivel a
mintarendszer környezetfüggő, ezért szavakat egyszerre képes külön konstrukciókban sajátosan
kezelni és nagy létszámú kategóriákba sorolva általános szabályokba illeszteni. Mindez rokoníthatóvá
teszi Goldberg konstrukciós nyelvtanának szemléletével. Így egyszerre tud jól általánosítani és furcsa
egyedi eseteket kezelni. Ez a tulajdonsága kognitív modellként különösen elfogadhatóvá teszi.
A konnekcionista megközelítés
A konnekcionizmus szakítani próbál a hagyományos szimbolikus modellekkel, és az idegrendszer
természete által inspirált modellel dolgozik. Elveti a soros működést, és az agyhoz hasonlóan egymással
masszívan párhuzamosan működő objektumokat feltételez. Nem szerepeltet explicit szimbólumokat a
modelljeiben, hanem reméli, hogy olyan idő- és térbeli mintázatok jönnek létre, amelyeknek a kifejező
ereje előrekódolás nélkül is meghaladja a szimbólumokét. Ezenfelül minél kevesebb tudást próbál
előre beprogramozni a rendszerbe, és inkább gépi tanulási módszereket használva próbálja
automatikussá tenni a tudás rendszerbe vitelét.
A konnekcionista (vagy neurális) hálózatok alapegysége a mesterséges neuron. Ez egy egyszerű
feldolgozó egység, amely kap valamennyi bemeneti ingert (ezeket valós számokkal írjuk le), és kibocsát
egy kimeneti ingert. Minden bemenethez tartozik egy súly, és a neuron aktivációját a bemenetek
súlyozott összege valamilyen nemlineáris függvénye (aktivációs függvény) határozza meg. A kimenet
ezek után csatlakozik egy másik neuronhoz (amelyhez ezen kívül tipikusan több másik neuron kimenete
is kapcsolódik), amelynek így egyik bemenetét képezi. Az aktivációs függvény nemlinearitása teszi
lehetővé, hogy a neuronháló ne csak folytonos jellegű, hanem élesebb, kategoriális jellegű döntéseket
is tudjon hozni. A hálózat tudása a neuronok közötti kapcsolatok súlyaiban fejeződik ki, az aktuális
belső állapota pedig a neuronok aktivációs szintjében.
Az első nagy hatású pszicholingvisztikai tárgyú konnekcionista modell Rumelhart és McClelland múlt
idejű ragozást tanuló rendszere volt. A többrétegű perceptront használó modell azon felül, hogy
elsajátította az angol igék múlt idejű alakjait, természetes módon reprodukálta a gyerekek fejlődése
során megfigyelt U alakú fejlődési görbét: a leggyakoribb rendhagyó igéket először helyesen jelenítette
meg, ezután kiterjesztette rájuk a szabályos múlt időt, mielőtt végül a célnak megfelelő teljesítményt
ért el. Ezzel mintáját adta annak a többször megfigyelhető jelenségnek, amikor egy konnekcionista
rendszer spontán, rendszerbeli sajátosságai folytán mutat olyan, az életben megfigyelhető működési
jellegzetességeket, amelyeket a formális szimbolikus modellek csak erre a célra kitalált plusz
komponensek segítségével tudnak reprodukálni. Rumelhart és McClelland azt bizonyította be a
modellel, hogy a szabályszerű viselkedés mögött nem feltétlenül húzódik meg valódi explicit szabály,
hanem lehet különböző általános információfeldolgozási folyamatok eredménye is.



Jeffrey Elman úgynevezett rekurrens vagy visszacsatolt neurális hálózattal modellezte a
nyelvelsajátítás és -feldolgozás több jelenségét. A rekurrens hálózatok olyan rétegelt neurális hálók,
ahol az egyik réteg visszakapcsolódik egy korábbihoz, ezzel egy hurkot hozva létre. A hálózat elemei
így egy bemenet hatására tetszőleges ideig aktivációban maradhatnak. A rekurrens hálók
használatának sajátossága, hogy minden időegységben beadunk nekik egy bemeneti ingert, miközben
Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


a visszacsatolás miatt még a korábbi ingerek feldolgozása is folyik. Ezek a hálózatok tehát az egymás
utáni ingereket nem elkülönült folyamatok során dolgozzák fel, hanem a működésükre mindig
közvetett hatással vannak a korábbi bemeneti minták, így a neurális hálók ezen osztálya egyfajta rövid
távú memóriamodellt valósít meg.
A mondatfeldolgozás és a nyelvtan elsajátításának modellezése mellett Elman ezzel a hálótípussal,
mintegy melléktermékként, a nyelvelsajátítás egy érdekes és vitatott kérdésére, a kritikus periódus
okára és mechanizmusára is egy lehetséges magyarázatot adott.
Elman egy, az angolhoz hasonlító, de erősen leegyszerűsített nyelv nyelvtanát próbálta a rekurrens
hálónak megtanítani. A nyelvben főnevek és igék voltak, ezeket egymással számban egyeztetni kellett,
illetve az igék az argumentumszerkezetük szerint három kategóriába tartozhattak (intranzitív,
opcionálisan tranzitív vagy kötelezően tranzitív). A mondatokban többszörös beágyazások is lehettek,
így az egymással egyeztetendő elemek egymástól távol kerülhettek. A szavakon formailag nem volt
jelölve sem a szintaktikai kategória, sem a szám, sem más információ, és a hálóba sem volt beépítve
ezekkel kapcsolatban semmilyen előzetes tudás.
A tanítás célja, hogy a háló jósolja meg a mondat következő szavát a kimeneti rétegen. Az első
szimulációs próbálkozás teljes kudarccal végződött, a háló semmiféle predikcióra nem volt képes.
A második szimulációs sorozat során először csak egyszerű mondatokat kapott a háló, majd
fokozatosan növekedett az összetett mondatok aránya, míg végül már csak összetett mondatok
képezték a bemenetet. A háló így már sikeresen működött, hasonló valószínűséggel folytatta a
mondattöredékeket a különböző szavakkal, mint ahogy azok a tanító mondatkészletben szerepeltek.
Elman következő szimulációjában ezért nem a bemenet bonyolultságát korlátozta, hanem magát a
hálózatot tette időben változóvá. Az ötlet abból állt, hogy az elvileg korlátlan (bár időben fokozatosan
halványuló) memória időbeli terjedelmét kezdetben korlátozta. A szimuláció első szakaszában minden
harmadik-negyedik szó után megszüntette a visszacsatolást a rejtett rétegről a kontextusrétegbe, és
csak fokozatosan engedte meg a folyamatos visszacsatolást. Mivel az egyszerű mondatok hossza
három-négy szó, ezért az egyszerű mondatokat a korlátozott memóriával is jól feldolgozhatta a
rendszer. A hosszú összetett mondatoknak azonban csak töredékeit tudta feldolgozni. Ezeken sokszor
nincs mit megtanulni, egyszerűen zajnak minősülnek. Szerencsére a neurális hálók egyik erőssége,
hogy zajra nem érzékenyek, azt hatékonyan ki tudják szűrni a bemenetből. Az eredmények ezt
igazolták is, a háló az előző esethez (növekvő bemenet) hasonlóan jól megtanulta a nyelv sajátosságait,
mindössze annyi volt a különbség, hogy a kezdeti „legbutább” szakaszt hosszabbra kellett venni, mint
az előző tréning során a legrövidebb bemenetes szakaszt. Ez teljesen megfelel az elvárásainknak, mert
míg a növekvő bemenet esetében minden mondat helyes volt, értékes adatnak minősült, addig a
növekvő memória esetében csak az egyszerű mondatok alkottak hasznos bemenetet, a
mondattöredékek pusztán zajt alkottak, és így lassabban gyűlt össze a megfelelő mennyiségű tanító
példa.



Elman rávilágít a neurális hálók néhány, a nyelvelsajátítás szempontjából különösen fontos
tulajdonságára:
A neurális hálózatok tanulásának alapja a bemenetben lévő statisztikai törvényszerűségek felismerése.
Mindezen felül a neurális hálók az adatok alapján általánosítanak, ezért képesek sokszor olyan
bemenethez is megfelelő kimenetet rendelni, amellyel korábban még nem találkoztak. Chomsky ezért
tévedett, amikor azt gondolta, rendkívül sok példa kellene ahhoz, hogy statisztikai tanulással
elsajátíthatóak legyenek a nyelvtan törvényszerűségei.
A neurális hálózatok semmilyen módon nem tárolják a korábbi tapasztalatokat, csupán a súlyok
mintázata, rekurrens hálók esetén pedig a belső állapotuk, tehát neuronok aktivációja őrzi a korábbi
tapasztalatok hatását. Így a háló a jelenben él, mindig van egy aktuális hipotézise, de már nem tud
visszanyúlni azokhoz a tapasztalatokhoz, amelyek alapján ezt a hipotézist megalkotta. Ez azt jelenti,
hogy a háló a friss tapasztalatok birtokában nem tudja a régi ingereket egy alternatív hipotézis
fényében újraértékelni.
A hipotézisek keresési terében (ami konkrétan a súlyok mintázatával van megvalósítva) csak kis
lépésekben lehet haladni, nem lehet hirtelen egy nagyon más alternatív hipotézisre átugrani.
A hálózat tanulási képessége az idő előrehaladtával fokozatosan csökken, ahogy a rendszer egyre
többet tud, egyre nehezebben változtatja meg súlyait az új ingerek hatására.
Ebből a négy sajátosságból együtt következik a konnekcionista hálózatok gyengesége: ha a kezdeti
adatok alapján a rendszer elkötelezi magát egy hibás hipotézis mellett, akkor ezen később már nagyon
nehezen tud változtatni. Ha ráadásul a kezdeti adatok túl bonyolultak, akkor a súlyok mintázata nem
fog tartani sehová, a rendszer egyszerűen nem tanul meg semmit.
Christiansen és Chater részletesebben a kielemezte az Elman-féle rekurrens háló képességeit, különös
tekintettel a rekurzív szerkezetek, azaz az azonos típusú frázisok egymásba ágyazásának felismerésére.
Azt figyelték meg, hogy a rekurrens hálók teljesítménye gyorsan leromlott a beágyazások mélységének
növelésével, és ezen nem lehetett javítani sem a rejtett réteg méretének növelésével, sem a sokszoros
beágyazások intenzívebb tanításával. Mindez azt jelzi, hogy a sokszoros beágyazások elsajátítása
strukturálisan korlátozott a rekurrens hálók számára, és nem csak szerencsétlen paraméterbeállítások
Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


következménye. A szerzők szerint a háló működésének az emberi performanciát és nem a
kompetenciát kell modelleznie, ezért nem kell hátránynak tekintenünk, ha a beágyazások számával
romlik a rendszer teljesítménye, hiszen ugyanezt a jelenséget embereknél is megfigyelhetjük. Az
eredmények eszerint támogatják azt a nézetet, hogy a rekurrens hálók megfelelő modelljei lehetnek a
természetes emberi nyelvelsajátításnak (pontosabban a szintaxis elsajátításának) és
mondatfeldolgozásnak.

Szemantikai és pragmatikai tudás: a metaforák feldolgozása
Számítógépes szempontból a problémát tekinthetjük úgy, mint a többértelműség feloldásának egy
speciális formáját, ahol egyes szavak vagy kifejezések átvitt értelemben szerepelnek a szövegben.
A metaforák azonosítására leginkább statisztikai megoldások léteznek, de valamilyen mértékű előzetes
tudásra minden modellnek szüksége van.



Kérdés, hogy milyen mértékben jósolható meg egy-egy metaforikus kifejezés előfordulása a
szövegkörnyezet alapján. Martin (2006) tanulmánya pénzügyi metaforákat (pl. emelkedett az
infláció) vizsgált, ahol a fizikai mozgást kifejező forrástartomány és a pénzügyi jelenségre utaló
céltartomány egymástól szemantikailag távol esik (a forrás- és céltartomány magyarázatát l. a könyv
17. fejezetében). A metafora forrástartományának konkrét értelmű szemantikai szomszédjait
(pl. emelkedik, nő, ugrik) és céltartományának szemantikai szomszédjait (pl. infláció, ár,
kamat)azonosította egy korpuszban és ezek előfordulásához viszonyította a pénzügyi metafora
valószínűségét. Az eredmények azt mutatják, hogy a metaforák a semleges szövegkörnyezethez képest
kisebb valószínűséggel fordulnak elő akkor, ha a szövegkörnyezetben a forrástartomány szemantikai
szomszédjai konkrét értelemben szerepelnek, és nagyobb valószínűséggel fordulnak elő akkor, ha a
szövegkörnyezet a céltartomány szemantikai szomszédjait tartalmazza. Például az emelkedik szó
kisebb valószínűséggel metaforikus értelmű, ha a környékén az ugrik szó fizikai értelemben szerepel,
és nagyobb valószínűséggel metaforikus, ha a környékén előfordul mondjuk a kamat szó. A kísérlet
eredményei arra mutatnak rá, hogy már a szövegkörnyezet egyszerű lexikális összetétele is segíthet a
metaforikus kifejezések értelmezésében, illetve gépi feldolgozásában.
Egy másik felvetés szerint a kritikus szavak együttes előfordulásán túl a szintaktikai szerkezetet is
érdemes figyelembe venni a metaforák felismeréséhez. A British National Corpus egy részének kézi
elemzése szerint az itt előforduló 241 metaforikus kifejezésből 164-et, vagyis jóval több, mint a felét,
ige vezeti be. Erre a megfigyelésre épül Fass met* elnevezésű, félig-meddig gépesített rendszere,
amely szó szerinti, metaforikus, metonimikus és anomáliás igealapú kifejezéseket kísérel meg
megkülönböztetni egymástól. A rendszer három lépésben működik. Először egy kézi erővel alkotott
szelekcióspreferencia-szótár és részontológia segítségével különíti el a szó szerinti jelentést (ahol az
argumentumok megfelelnek az ige szelekciós preferenciáinak) minden nem szó szerinti jelentéstől
(ahol az argumentumok nem felelnek meg a szelekciós preferenciáknak). Ezt a lépést az emberi
nyelvfeldolgozásban párhuzamba vonhatjuk a konkrét értelmű ige vonzatkeretének ismeretével a
mentális lexikonban. A második lépésben a rendszer egy forrás- és céltartomány-részontológiával veti
össze a vonzatszerkezetet, és ha megfelelést talál, metaforikusnak címkézi a kifejezést. A harmadik
lépésben a metonimikus és az anomáliás kifejezéseket próbálja hasonló módszerrel elkülöníteni.
A modell problémája az, hogy a jelentős kézi beavatkozás ellenére vagy erősen alulgenerál (nem találja
meg a metaforákat) vagy erősen túlgenerál (mindent metaforának ítél). Az eredmények szinte
kizárólag azon múlnak, hogy mi szerepel a kézileg megalkotott ontológiában. Ezzel szemben az emberi
metaforafeldolgozásról tudjuk, hogy ennél sokkal rugalmasabban működik.
Shutova és munkatársai új munkájukban az argumentumstruktúra módszerét a korpuszból kinyert
forrás- és céltartománybeli szólistakeresési módszerrel kombinálták: olyan kifejezéseket kerestek, ahol
az ige jelöli a forrástartományt és az alany vagy a tárgy a céltartományt. A forrás- illetve céltartományi
szavakat klaszteralgoritmusok segítségével korpuszból állították össze. Az igék közül kiszűrték azokat,
amelyek – szintén korpuszelemzések szerint – gyenge szelekciós preferenciákat mutatnak, vagyis sok
különböző típusú alannyal vagy tárggyal is előfordulhatnak konkrét értelmükben. A szerzők hipotézise
szerint az olyan kifejezések, ahol erős szelekciós preferenciájú forrástartományi igék céltartományi
vonzatokkal fordulnak elő, metaforikusnak tekinthetők. A módszer eredményeként 79 százalékos
pontosságot értek el.



Végül Baumer és munkatársai még több előzetes tudás bevonásával próbálkoztak: egy hasonló
klaszteralapú megoldást egészítettek ki szemantikaiszerepcímkézéssel (semantic role labelling,
SRL). Az SRL segítségével a szintaktikai elemzéssel ellátott korpuszban különböző szintaktikai
szerkezetekből is ki tudták vonni a tematikus szerepeket (pl. az angol passzív szerkezet alanyáról
megállapítható, hogy az ige páciens típusú argumentuma). A rendszer jelenleg kísérleti stádiumban
van.
Összefoglalás
A számítógépes nyelvészet modelljei az emberi nyelvelsajátítást, illetve nyelvfeldolgozást igyekeznek
szimulálni. A modellek ötvözik a nyelvtechnológiában bevált módszereket a pszicholingvisztikai
kutatásokban feltárt folyamatok gépi megvalósításaival, miközben arra törekszenek, hogy a modellek
eredményei minél jobban közelítsenek a pszicholingvisztikai kísérletek és elemzések mintázataihoz.
Figyelem! Ez itt a doksi tartalma kivonata.
Kérlek kattints ide, ha a dokumentum olvasóban szeretnéd megnézni!


A célok megvalósítására – a pszicholingvisztika elméleti modelljeihez hasonlóan – két gyökeresen
különböző, de egymást nem feltétlenül kizáró megközelítést találunk: szabályalapú és mintaalapú
(statisztikai) megoldásokat. Az elmúlt időszakban a statisztikai módszerek kerültek előtérbe, és ezek
bizonyulnak sikeresebbnek, ami főként annak köszönhető, hogy a nyelvről ma már nem csak intuíciók
alapján tudunk elmélkedni, hanem hatalmas természetes korpuszok állnak rendelkezésünkre, valamint
olyan informatikai eszközök, amelyekkel ezeket a korpuszokat fel tudjuk dolgozni.
A statisztikai modelleknél is kulcskérdés azonban, hogy ha nem feltételezünk is velünk született nyelvi
szabályrendszereket, mégis fel tudjuk fedezni, hogy a nyelvfeldolgozás egyes szintjei milyen előzetes
tudást feltételeznek, amelynek pszicholingvisztikai realitása is van, és megfelelően precízen
meghatározható ahhoz, hogy implementálható is legyen. Talán nem meglepő módon, minél feljebb
megyünk a nyelvfeldolgozás szintjein, annál nehezebbnek tűnik ez a probléma. Míg a beszédfelismerés,
szófaji kategorizálás és morfológiai elemzés szintjén ma már jól működő és a pszicholingvisztikai
eredményekkel is kompatibilis számítógépes modelleket találunk, addig a mondatok szintaktikai
feldolgozása és a szemantikai elemzés terén eddig csak részfeladatokat sikerült megoldani.
Ugyanakkor már ezek a részmegoldások is hasznos információkkal szolgálnak ahhoz, hogy jobban
megértsük a nyelvelsajátítás és nyelvfeldolgozás mechanizmusait.



Felhasznált irodalom:
Csáji Balázs Csanád (2002) A mesterséges intelligencia filozófiai problémái. Budapest, ELTE-BTK
(szigorlati dolgozat)
http://old.sztaki.hu/~csaji/CsBCs_MI.pdf (Letöltés: 2019.03.02.)
Dudás László (2011). Alkalmazott mesterséges intelligencia. Miskolci Egyetem
https://www.tankonyvtar.hu/hu/tartalom/tamop425/0046_alkalmazott_mesterseges_intelligencia/a
datok.html (Letöltés: 2019.05.11)
Kristóf Tamás (2002) A mesterséges neurális hálók a jövőkutatás szolgálatában. Budapesti
Közgazdaságtudományi és Államigazgatási Egyetem Jövőkutatási Kutatóközpont Budapest
https://www.researchgate.net/publication/283463205_A_mesterseges_neuralis_halok_a_jovokutat
as_szolgalataban_Artificial_neural_networks_in_Futures_Studies (Letöltés: 2019.03.02)
Négyesi Imre (2017) A mesterséges intelligencia és a hadsereg III. Beszédfelismerő szoftverek II.
Hadtudományi Szemle 2017. 10: 142-155
http://epa.oszk.hu/02400/02463/00037/pdf/EPA02463_hadtudomanyi_szemle_2017_04_142-155.pdf
(Letöltés: 2019.03.02)
Pléh Csaba – Lukács Ágnes (2014). Magyar pszicholingvisztikai kézikönyv. Akadémiai Kiadó, Budapest
Stuart Russell – Norvig, Peter (2005).Mesterséges Intelligencia Modern megközelítésben. Bp. Panem
https://people.inf.elte.hu/fekete/algoritmusok_msc/wumpus/Russel_Norvig_MI_2ed.pdf
(Letöltés: 2019.03.02)
Varjú Zoltán (2017) Hogyan tanuljon a mesterséges intelligencia. Nyelv és Tudomány 2017
https://www.nyest.hu/hirek/hogyan-tanuljon-a-mesterseges-intelligencia
(Letöltés: 2019.03.02)