Grammatica of Lexicon 8

Over de vraag op wat voor kennis we onze correctheid van vorm baseren

Aflevering 8: De verwerving van waarschijnlijkheidskennis

In het voorafgaande bleek het cognitieve voordelen te hebben om gebruik te maken van kennis over de statistical tendency to co-occur van woorden en vormen. Ik heb dat waarschijnlijkheidskennis genoemd. De vraag was hoe zulke kennis tot stand komt. Om dat uit te leggen moet ik even uitweiden over de werking van ons geheugen. Met name over de vraag hoe de daarin aanwezige kenniselementen ‘in elkaar zitten’. Over dit soort processen heb ik uitvoeriger geschreven in Westhoff (2009) https://www.stedelijkonderwijs.be/sites/default/files/bestand/het%20geheim%20van%20de%20flipperkast.pdf

Heel in het kort gezegd komt dat op het volgende neer:

Anders dan lang is aangenomen, bestaan de dingen die wij weten niet uit afzonderlijke min of meer afgeronde gehelen. Wij hebben niet een plaatje in ons hoofd van het concept ‘roos’ of ‘slag bij Waterloo’. Wat we weten hebben we opgeslagen in de vorm van een soort netwerken van aan elkaar verbonden eigenschappen of kenmerken. Zulke kenmerken zijn nogal ongelijksoortig. Ze kunnen iets zeggen over de betekenis van zo’n kenniselement (semantische kenmerken). Zo weten we dat een roos een plant is, lekker ruikt, doorns heeft, etc., maar ook dat hij als symbool voor de arbeidersstrijd wordt gebruikt (roos in de vuist) en in de poëzie vaak staat voor schoonheid en liefde. Maar van het concept ‘roos’ kennen we ook morfologische eigenschappen. Bv dat het een meervoud heeft op –en ( “één roos, een bos rozen”) en dat die –s- dan een –z- wordt. We kennen er syntactische eigenschappen van, zoals dat het in zinsverband als onderwerp en als lijdend voorwerp kan voorkomen maar niet als gezegde of als bijvoeglijk naamwoord. En zo zijn er nog een aantal categorieën van eigenschappen die samen het netwerk ‘roos’ vormen. Een in dit verband zeer relevante  categorie is onze kennis dat je ‘roos’ goed kunt combineren met het woord ‘rood’ en slecht met ‘vloeibaar’, enz. (collocatie-kennis) Wat algemener geformuleerd: van de woorden die we kennen weten we ook iets over de waarschijnlijkheid van mogelijke combinaties met andere woorden (en vormen).

In een netwerk zijn de verschillende kenmerken met elkaar verbonden. Daardoor kan een concept vanuit elk kenmerk geactiveerd worden. Om het concept ‘roos’ op het beeldscherm te krijgen kun je dus beginnen met het wakker maken van het kenmerk ‘heeft doorns’, maar je kunt ook beginnen bij het kenmerk ‘geur en maneschijn’ of bij ‘1 mei’. Maar wat uiteindelijk opdoemt wordt niet alleen bepaald door de samenstellende onderdelen. Met name de dikte ertussen is bepalend voor het uiteindelijk resultaat. Wat kort door de bocht: hoe dikker de verbinding, des te pregnanter wordt dat kenmerk in de betekenis die we aan dat netwerk hechten en des te sneller wordt het kenmerk opgeroepen. Dat maakt de vraag interessant hoe die dikte ontstaat.

Een verbinding tussen verschillende kenmerken ontstaat doordat er in het werkgeheugen aan die kenmerken in combinatie met elkaar wordt gewerkt. Die bewerking laat een spoor na in de vorm van een verbinding. Elke keer als een bepaalde combinatie in zo’n netwerk in het werkgeheugen wordt bewerkt, wordt de verbinding van die combinatie met het netwerk dikker.

Kort en simpel gezegd: kennis over de waarschijnlijkheid van combinaties van woorden  met woorden en van woorden met vormen, ontstaat doordat ons brein bijhoudt hoe vaak een bepaalde combinatie in het werkgeheugen is bewerkt. Dwz. dat een combinatie makkelijker correct geproduceerd zal worden, naarmate hij in de input vaker is voorgekomen. Omgekeerd, als we hem weinig zijn tegengekomen, dan is de combinatie moeilijk terug te vinden. We moeten dan terugvallen op creative speech en dat levert vaak weinig op.

Een voorbeeld van dat fenomeen is, dat een vorm als “Gib mal her!” door Nederlanders bijna altijd zonder nadenken goed wordt gezegd, terwijl je aarzeling ziet in de zeer zeldzame gevallen waarin er van die gebiedende wijs de meervoudsvorm gevraagd wordt. (Is het nu “Gibt –  of Gebt mal her”?). Met behulp van de netwerktheorie is dat als volgt te verklaren: Je hebt voor e/i-Wechsel bij sterke werkwoorden in de gebiedende wijs enkelvoud en meervoud ooit een regel gehad. Maar die ben je al lang vergeten, want die heb je na die ene invuloefening nooit meer gebruikt.  “Gib mal” construeer je op grond van waarschijnlijkheidskennis die je hebt opgebouwd doordat die vorm vaak in de input aanwezig is geweest en daardoor een dikke verbinding heeft veroorzaakt. Maar die gebiedende wijs meervoud komt in gangbare input nauwelijks voor. Voor die spreekintentie wordt in het Duitse taalgebruik bijna altijd de beleefdheidsvorm gebruikt. Dus is er voor de vorm van het meervoud geen of nauwelijks een verbinding gevormd. Bij gevolg maakt die vorm niet of nauwelijks deel uit van het netwerk ‘geben’.

Zo kun je ook verklaren waarom Nederlanders moeiteloos “Verstehst du?” zeggen en desgevraagd vaak pas na enig aarzelen, wat onzeker “Stiehlst du?” weten te produceren (als al). Als je denkt dat we zulke vormen via creative speech construeren is dat onlogisch. “Verstehst du?” is immers een ingewikkelde uitzondering (wél sterk werkwoord, toch geen e/i-Wechsel), terwijl “Stiehlst du?”  volkomen regelmatig is (sterk, dus e/i-Wechsel).  Als je er van uitgaat van we taal construeren via het toepassen van grammaticaregels zou dat laatste dus makkelijker moeten zijn. In de praktijk blijkt het omgekeerde. Het is in cognitieve zin veel voordeliger om de regels maar de regels te laten en je vanwege de cognitieve economie te beperken tot ‘kennis’ over de waarschijnlijkheid van combinaties.

Dat geldt niet alleen in zulke specifieke gevallen. Het kan ook in wat algemenere vorm. Zo ´leren´ we bv. door de verwerking van veel input dat de kans dat in het Duits “zu ” met “der”, “dem” of “den” wordt gecombineerd oneindig veel groter is dan met “die”, of “das”. Bij dit laatste type, op grond van veel inputverwerking opgebouwde waarschijnlijkheidskennis begin je al aardig in de buurt te komen van wat we grammaticaregels plegen te noemen, al zijn dat nog steeds niet de systematische overzichten van verschijnselen zoals wij die achtereenvolgens in onze schoolboeken plegen te behandelen.

Er is kortom tussen chunks aan de ene kant en aan de andere kant het toepassen van ingewikkelde regels zoals die over het gebruik van de Engelse werkwoordstijden of het kiezen tussen ser en estar een heel groot gebied van tussenvormen die door ons brein deels als chunk, deels als quasi-chunk, op basis van waarschijnlijkheidskennis, deels als creative speech worden behandeld. Voor één en dezelfde vorm kan dat ook nog per persoon verschillen. Als een bepaalde constructie bij iemand telkens weer voorkomt wordt het voordeliger om die als chunk in het lexicon op te slaan, terwijl dat bij iemand anders niet lonend is, omdat hij bij die persoon zo weinig voorkomt dat het efficiënter is om hem in die zelden voorkomende gevallen maar even langs de ingewikkelde weg in elkaar te zetten.

Dat brengt ons bij de vraag of er ook iets te zeggen valt over wanneer je beter voor het één dan wel voor het ander kunt kiezen. Daarover in de volgende aflevering.

Literatuur

Westhoff, G. (2009). Leren overdragen of het geheim van de flipperkast. Elementaire leerpsychologie voor de onderwijspraktijk. Biezenmortel: MesoConsult.

 

Grammatica of Lexicon 7

Over de vraag op wat voor kennis we onze correctheid van vorm baseren

Aflevering 7: De rol van waarschijnlijkheidskennis

Wat voor kennis gebruiken we bij het produceren van formeel ‘correcte’ taaluitingen? Dat was de vraag. In veel gevallen bleken we dat te doen zonder toepassing van regels. Uit efficiency-overwegingen bleek ons brein telkens te proberen of het niet langs een directere weg, zonder die regels kan. Regels alleen voor zover het echt niet anders kan. Het Needs Only Analysis (NOA) principe.

Het duidelijkst lukt dat bij ‘echte’ chunks van het type ‘Je vous en prie’, ‘How do you do’ of ‘Herzlichen Dank’. Combinaties die één geheel vormen, als zodanig zijn te begrijpen en niet variabel zijn. Maar zulke Morpheme Equivalent Units bleken ook een soort open einde te kunnen hebben waar je dingen aan vast kon plakken. Type ‘Sauriez-vous me dire …’, of  ‘Ich wüsste gern …. ‘ Voor de aanvulling tot een hele zin moet je misschien wel nog een regel gebruiken, maar de eerste helft kan zonder.

Maar ook voor de combinatie zelf bleek ‘niet variabel’ een rekbaar begrip. In op zich variabele gevallen kunnen bepaalde combinaties veel frequenter zijn dan overige mogelijkheden. Zo veel frequenter dat het interessant begint te worden zo’n combinatie, hoewel geen ‘echte’ chunk, toch als zodanig te behandelen. Quasi-chunks als Zell am See of ‘Können Sie mir helfen’.

In dit soort gevallen gaat het om bundles of words that show a statistical tendency to co-occur  (Jones & Haywood, 2004, p. 274f.). Oftewel: kennis over de waarschijnlijkheid van te verwachten combinaties. In veel gevallen gaat het er dan om met hoeveel waarschijnlijkheid een bepaald woord zal volgen.  Concreet: we weten dat na “May I ask you a …” met aan zekerheid grenzende waarschijnlijkheid het woord “question” of het woord “favour” zal volgen. Dat na “Darf ich Sie etwas …” weinig anders kan komen dan “fragen”. Dat hoeft niet zo veel implicaties voor de vorm te hebben.

Maar soms is dat wél het geval. Na “Mit freundlich…” komt onder een brief met zeer grote waarschijnlijkheid “…en Grüssen”. Hoe groot die waarschijnlijkheid is kan iedereen makkelijk nagaan door te kijken wat er op Google verschijnt als je die eerste woorden intypt. Ook hier is het voor ons werkgeheugen minder belastend om  “Mit freundlichen Grüssen” kant en klaar uit de opgeslagen kennis over de waarschijnlijkheid van combinaties op te diepen, dan om alle regels rond de voorzetsels met de derde naamval te raadplegen en toe te passen.

Maar onze kennis van de genoemde tendency to co-occur heeft niet alleen betrekking op het met-elkaar-voorkomen van een woord met een ander woord in een bepaalde vorm. We hebben ook kennis van de waarschijnlijkheid van de co-occurance van woordcombinaties met de vorm van elk woord dat er op volgt. Gries (2008) noemt als voorbeelden o.a. onze kennis dat na de frase “Would you mind…” een werkwoord in de –ingvorm staat (bv. “closing the window”).  Je kunt voor het Nederlands ook denken aan “Ik ben aan het …” waarop altijd een infinitief zal volgen. Kennis over dit soort waarschijnlijkheid is een vorm van kennis óver taal. In feite gaat het daarbij dus om regels. Volgens sommigen dus gewoon “just another grammar”.

Tussen die regels en die uit onze schoolgrammatica’s zijn overeenkomsten en verschillen. Enerzijds voorspellen ze, net als in de schoolgrammatica wel wat er in een onbepaald aantal voorkomende gevallen met de vorm moet gebeuren. Maar, anders dan bij de taalkundige grammatica bieden ze geen absolute zekerheid en vormen ze geen logisch systeem. Ze staan op zich en zijn gebaseerd op ervaren waarschijnlijkheid, niet door taalkundige logica.

Er is nog een wezenlijk verschil. Bij grammaticaregels gaat het om (algoritmische) kennis over wetmatigheden. Regels van het type: “In geval zus, doe zo.” Bij kennis over co-occurance gaat het om (heuristische) kennis over de waarschijnlijkheid waarmee je iets kunt verwachten. Doordat we combinaties als “Zell am See” vaak zijn tegen gekomen, ontwikkelen we bv. de verwachting dat “Frankfurt am Main”, maar ook “ein Haus am Markt”  waarschijnlijker is dan bv. “Frankfurt ans Main” resp. “Haus ans Markt”. Dat weten we minder zeker dan in het geval “Darf ich Sie etwas…” plus fragen of bitten. Hoe groot de rol van dit soort waarschijnlijkheidskennis is bij lezen, is al heel lang bekend (Zie bv Westhoff, 1981). Maar het lijkt dus erg waarschijnlijk dat het bij het produceren van taal niet veel anders is.

Maar met dit soort toepassing van kennis over de waarschijnlijkheid van te verwachten vormen beginnen we toch aardig in de buurt van kennis en toepassing van gangbare schoolgrammaticaregels te komen. Gegeven het regelkarakter, zou je je kunnen afvragen in hoeverre dit soort kennis in het lexicon zit of in het grammatica-compartiment is opgeslagen. Misschien valt de grens tussen lexicaal en grammaticaal wel niet zo scherp te trekken. Misschien zijn de hierboven achtereenvolgens beschreven stations op Wray’s continuum van formulaic naar creative speech (Wray, 2008) ook te zien als stadia op een schaal van lexicaal naar regelkennis.

Maar eerst even terug naar de beschreven kennis over de waarschijnlijkheid van combinaties. Als dit soort kennis zo’n belangrijke rol speelt wordt het interessant na te gaan hoe we die verwerven. Het lijkt geen expliciet onderwezen kennis van het type: ‘Pas op: Na het woord x is de kans 83% dat woord y zal volgen met als vorm z. Maar hoe dan wel? Daarover in de volgende aflevering meer.

Literatuur

Gries, S. T. (2008). Phraseology and linguistic theory: A brief survey. In S. Granger & F. Meunier (Eds.), Phraseology  An interdisciplinary perspective (pp. 3-25). Amsterdam: John Benjamins.

Jones, M., & Haywood, S. (2004). Facilitating the acquisition of formulaic sequences: An exploratory study in EAP context. In N. Schmitt (Ed.), Formulaic Sequences. Acquisition, processing and use (pp. 269-292). Amsterdam Benjamins.

Westhoff, G. J. (1981). Voorspellend lezen. Een didactische benadering van de leesvaardigheidstraining in het moderne-vreemdetalenonderwijs. Groningen: Wolters Noordhoff.

Wray, A. (2008). Formulaic Language: Pushing the Boundaries. Oxford: Oxord University Press.

 

 

Grammatica of Lexicon 6

Over de vraag op wat voor kennis we onze correctheid van vorm baseren

Aflevering 6: Het cognitief voordeel van quasi-chunks

 Voor het begrijpen en produceren van sommige, grammaticaal gezien ingewikkelde combinaties van woorden bleek het cognitief voordeliger om de grammatica te negeren. Door zulke combinaties als één geheel te behandelen en ze, alsof het telkens om één enkel woord ging, in het lexicon op te bergen (formulaic speech), bespaar je in het werkgeheugen een hoop capaciteit. En dus, waarom zou je gecompliceerde grammaticaregels overhoophalen als de betreffende combinatie toch nooit anders dan in één bepaalde vorm voorkomt? Bij een keuze voor formulaic speech kun je de ingewikkeldste combinaties zonder gepuzzel kant en klaar uit het lexicon halen. Die keuze tussen formulaic of creative speech maak je volgens het Need Only Analysis principe (NOA). Oftewel: voor constructie via grammaticaregels kies je alleen als het echt niet zonder kan. De voordelige route kies je volgens Wray (2002) onder twee voorwaarden: 1 De combinatie is als geheel te begrijpen (bv trotzdem) en 2 Hij is niet variabel (bv Thank you very much).

Maar als het zo veel voordeel oplevert om de grammatica de grammatica te laten, is de volgende vraag of dat voordeel niet vaker te behalen is. Moet een combinatie echt altijd helemaal aan die twee voorwaarden voldoen om een keuze voor formulaic speech te rechtvaardigen? Ten eerste kun je denken aan combinaties als Guten Abend. Die valt strikt genomen eigenlijk niet onder voorwaarde 2 vanwege de variatiemogelijkheden als Guten Morgen of Guten Tag. Toch lijkt het cognitieve voordeel van een formulaic behandeling hier evident. Dat maakt het interessant om te kijken of er nog meer cognitief voordeel te behalen valt buiten die twee strikte voorwaarden.

Hoe zit het bv. als een bepaalde combinatie wel variabel is maar in feite vooral in een heel beperkt aantal specifieke combinaties heel veel voorkomt. Je kunt hier denken aan frasen als “ins (Kino/ Theater/Schwimmbad, etc.) gehen”. Die kun je heel veel gebruiken. Maar de grammaticaregel m.b.t de voorzetsels plus accusatief of datief (het beruchte rijtje an, auf, hinter, neben, in, etc.) is behoorlijk lastig voor Nederlanders. In zulke gevallen lijkt het gewoon uit je hoofd leren van die veel voorkomende vormen (in dit geval ‘gehen ins …’) dus een tamelijk groot cognitief gebruiksvoordeel op te leveren. Dat geldt noch sterker voor combinaties als “Zell am See”, ”Frankfurt am Main”, e.d.

Maar ook bij veel voorkomende combinaties als “Können Sie mir helfen”, “Kann ich Ihnen helfen?”,  “Ich danke dir”, is het uit oogpunt van cognitieve economie voordeliger om ze gewoon als chunk te behandelen dan ze te construeren vanuit grammaticale kennis over het rijtje werkwoorden dat, anders dan in het Nederlands, een datief krijgt i.p.v. een te verwachten accusatief. Zelfs in minder frequente gevallen zoals “… is supposed to have been murdered/asked/helped, etc. by …” heeft het cognitieve-efficiencyvoordelen om voor een formulaic behandeling te kiezen. Die combinatie kun je natuurlijk telkens als je hem nodig hebt construeren volgens in sommige schoolboeken bij de ‘passive’ gegeven transformatieregels. Maar in zo’n geval is het vaak veel efficiënter die frase maar gewoon ook als ‘chunk-met-open-plekken’ te behandelen en uit je hoofd te leren.

Of het loont om een combinatie van woorden via analyse of als chunk te leren en te produceren is dus telkens een afweging waarbij de frequentie waarin zo’n combinatie voorkomt een belangrijke rol speelt. Is die hoog, dan heb je weliswaar geen ‘echte’ chunk, maar heeft het voordelen hem toch maar wel zo te behandelen. Want hoe meer van zulke “quasi-chunks” je in je lexicon hebt, des te kleiner de belasting van het werkgeheugen. En des te meer ruimte voor de inhoud.

Maar er zijn dus duidelijk graduele verschillen tussen ‘echte’ chunks en ‘quasi-chunks’ als “Frankfurt am Main” en “ins Kino gehen”. Wray (2008) suggereert dan ook om ons een continuüm voor te stellen met aan het ene uiterste de echte chunks en aan het andere uiterste de taaluitingen die geheel zijn geconstrueerd door kale elementen uit het lexicon te halen en “met behulp van regels in de goede vorm te brengen”. Daar tussenin alle mogelijke gradaties, waarbij de chunk-kenmerken afnemen en de rol van toepassing van een grammaticaregel groter wordt.

Gedacht vanuit de behoefte aan cognitieve efficiency is het altijd het voordeligst om zoveel mogelijk kennis te hebben aan het uiteinde van de kant en klare constructies. Wat technischer gezegd: om zo veel mogelijk elementen in het lexicon te hebben die hun ‘morfologische vorm’ al hebben. Die ‘quasi-chunks’ uit het grijze middengebied onderscheiden zich van chunks doordat ze variabel zijn, ze onderscheiden zich van creative speech doordat de combinatie zo frequent is dat het niet loont om elke keer weer de regel toe te passen. Meestal is het toch die ene vorm. De plaats van zulke quasi-chunks op het continuüm wordt bepaald door de verhouding tussen enerzijds de frequentie van een bepaalde, specifieke combinatie afgezet tegen, anderzijds, de complexiteit van de regel en de zeldzaamheid waarmee je die in andere gevallen kunt toepassen.

De lengte van zulke quasi-chunks kan aanzienlijk zijn. In wetenschappelijke teksten, maar ook bv. in het sociaal verkeer gebruik je niet zelden hele zinnen die als formule in je hoofd zitten (“Einen schönen Tag wünsch’ ich Ihnen” ). In sommige gevallen kan het zelfs om combinaties van meerdere zinnen gaan. (“Das ist eine schwierige Frage. Die lässt sich nicht so leicht beantworten. Einerseits könnte man sagen, dass (….), aber anderseits ließe sich auch den Standpunkt vertreten, es sei (..)“. Het is ontzettend handig als je zulke stukken tekst moeiteloos en zonder enige analyse uit je lexicon kunt halen. Je maakt een buitengewoon taalcompetente indruk terwijl je werkgeheugen relatief veel ruimte over heeft voor de resterende ingewikkelder operaties met kennis uit het rule-based system.

Interessant is hoe je zulke taaluitingen inschaalt in het Europees ReferentieKader (ERK). Hoe sophisticated zo’n riedel ook moge klinken, zolang het om gememoriseerde (quasi) chunks gaat is het produceren van zulke taaluitingen in termen van het ERK in feite A1. Enerzijds maakt de vaststelling dat in dit soort gevallen leerlingen ingewikkelde vormen blijken te kunnen produceren zonder de verondersteld onderliggende grammaticaregel te kennen duidelijk, dat het niet goed mogelijk is om beheersing van bepaalde grammaticale structuren te koppelen aan ERK-niveaus. Anderzijds is ook duidelijk hoe nuttig het is om aan het inprenten van zulke frasen ook en met name op de lagere ERK-niveaus veel aandacht te besteden. Bv. door er met leerlingen een sport van te maken zo veel mogelijk tekst te produceren zonder gebruik te maken van creative speech.

Het gebruik van quasi chunks heeft niet alleen cognitief voordeel in een betrekkelijk formele context. Ik vond het om begrijpelijke redenen zelf bv. praktisch om de Spaanse zin “Donde estan los servicios” (Waar zijn de toiletten?) als geheel en zonder nadere analyse uit mijn hoofd te leren en daarmee niet te wachten tot ik de voor Nederlanders lastige Spaanse grammaticaregels over het gebruik van “ser” dan wel “estar”  voor het Nederlandse werkwoord ‘zijn’ had doorgrond.

Het gebruik van chunks en quasi-chunks speelt een grote rol in het leren en gebruiken van taal. Als we ze samen nemen, dan bestaat volgens berekeningen van  Erman & Warren (2000) bijna 60% van onze gesproken taal uit zulke formulaic speech. En ik ken politici die ik wat dit betreft op een nog veel hoger percentage schat. Het feit dat je bij quasi chunks in voorkomende gevallen moet beslissen wanneer je ze kunt gebruiken en wanneer je toch maar beter en beroep op regelkennis kunt doen, roept nieuwe vragen op. Daarover volgende keer meer.

Literatuur

Erman, B., & Warren, B. (2000). The idiom principle and the open-choice principle. Text(20), 29-62.

Wray, A. (2002). Formulaic language and the lexicon. Oxford: Oxford University Press.

Grammatica of Lexicon 5

Over de vraag op wat voor kennis we onze correctheid van vorm baseren

Aflevering 5: Chunks als eerste keuze, regels alleen als noodzakelijk

In het voorgaande bleek dat we in een aantal gevallen morfologisch correcte taaluitingen produceren zonder de onderliggende grammaticale regels te gebruiken of zelfs te kennen. Dat was te verklaren uit de beperkte capaciteit van het werkgeheugen (WG). Het toepassen van regels legt beslag op zoveel ruimte dat het WG al gauw aan de inhoud nauwelijks meer toekomt en plat dreigt te gaan. Om dat te voorkomen blijkt het efficiënter een veel voorkomende combinatie van vormen al bij binnenkomst niet op zijn grammaticale regelmatigheid te analyseren, maar als één geheel te behandelen alsof het één enkel woord is en ook als zodanig op te slaan. Zo kun je hem als je hem nodig hebt ook weer kant en klaar oproepen, zonder een beroep te hoeven doen op schaarse geheugenruimte.

Zulke combinaties worden chunks genoemd. Omdat ze, hoe lang ze ook zijn, worden geleerd, opgeslagen en geproduceerd alsof ze één enkel woord zijn, worden ze in de vakliteratuur ook wel aangeduid als Morpheme Equivalent Unit of MEU. Het gebruik ervan wordt formulaic speech genoemd. Dit ter onderscheiding van creative speech waarbij de ‘kale’ vormen uit het lexicon wordt gehaald en met behulp van regels in de goede vorm en volgorde worden gezet. Voor het onderwijs is het natuurlijk interessant om meer te weten over de verhouding tussen die twee. In de vreemde talenlessen gaat het overgrote deel van de energie naar aanleren en toepassen van creative speech. Klopt dat een beetje met wat ons brein doet in de werkelijkheid van het dagelijks taalgebruik?

In de literatuur vind je ook de opvatting dat taalgebruikers ‘by default’ formulaic speech gebruiken. Als ze de keus hebben kiezen native speakers er volgens Wray (2002) bv. “overwelmingly” voor om boodschappen volgens bestaande, vaste uitdrukkingen te formuleren, ook al zouden ze best in staat zijn om dat ook via het volgens regels in elkaar zetten van losse onderdelen te doen. Dat wil zeggen dat niet alleen beginners, maar in principe alle taalgebruikers altijd eerst kijken hoever ze met het combineren van chunks kunnen komen en pas als dat niet lukt terugvallen op creative speech (Wray, 2008).

Dat klinkt logisch. Maar de volgende vraag is natuurlijk of er aanwijzingen zijn dat het ook echt zo gebeurt. Zulke aanwijzingen zijn er. Niet alleen uit onderzoek (Ellis, 2003; Erman & Warren, 2000; Jones & Haywood, 2004; Meunier & Granger, 2008; Schmitt, 2004; Wray, 2002), waaruit ook veel van de in het navolgende gegeven voorbeelden afkomstig zijn.

Maar het is ook betrekkelijk makkelijk om uit eigen taalgebruik allerlei voorbeelden te vinden waarbij het uitermate onwaarschijnlijk is dat  we die, toen we er mee werden geconfronteerd op hun grammaticale structuur hebben geanalyseerd. Je kunt hier denken aan frasen als “te elfder ure”. Gezien het geslacht van uur (onzijdig) is die –r- grammaticaal erg raar. Maar dat valt je pas op als je erop wordt gewezen. Iets dergelijks zie je bij “uwe majesteit”. Hoezo “uwe“? Dat is grammaticaal toch eigenaardig? Van wie is die majesteit dan? En in het Duits: waarom “trotzdem”? “Trotz” heeft toch de genitief? Waarom is het dan niet “trotzdessen”? Dat daar grammaticaal iets niet aan klopt valt bijna niemand op. Kennelijk hebben we die stukken taal zonder grammaticale analyse ooit tot ons kennisbezit gemaakt en ze ook zonder enig grammaticaal besef geproduceerd.

Ook is het niet moeilijk om voorbeelden te vinden van tamelijk frequente frasen of zelfs hele zinnen waarvan moeilijk voorstelbaar is dat het überhaupt mogelijk is dat ze langs de ‘creative’ weg zijn geconstrueerd. D.w.z. dat ze in elkaar zouden zijn gezet door de ‘kale’ vormen uit het  langetermijngeheugen te halen en die vervolgens met behulp van regelkennis in de juiste vorm te brengen. Probeer dat maar eens met uitingen als:  “What’s the wheather like to day?”,  “Have you got a…”, “As a matter of fact, …”, “Das grenzt ans …(bv. Unvorstellbare)”, “Wie dem auch sei, …”, “Nicht, dass ich wüsste”. En toch is het vaak juist het gebruik van dit soort frasen die het gebruik van de vreemde taal een nativelike karakter geven.

Er is nog iets interessants aan de laatste voorbeelden. Kennelijk kunnen chunks voorkomen in de vorm van een compleet en afgesloten geheel (“Thank you very much”, “Je vous en prie”), maar ze komen ook vaak voor als ‘halfproduct’. Als woordcombinatie met een open plek, die met variabele onderdelen kan worden aangevuld (“Sauriez-vous me dire …“, e.d)

De vraag is nu natuurlijk wanneer we de input waaraan we worden blootgesteld wél analyseren en wanneer we dat niet doen. Volgens Wray (2002) is het antwoord dat iemand die een taal aan het leren is (moedertaal of vreemde taal) bij het verwerken van input in principe niet analyseert, tenzij daar een speciale reden voor is. Dit verschijnsel wordt Needs Only Analysis (NOA) genoemd. Dat roept natuurlijk de vraag op wat die specifieke redenen dan wel zouden kunnen zijn. Wray geeft er twee. Volgens haar zal bij inputverwerking niet worden geanalyseerd

  1. zolang de taaluiting waaraan we worden blootgesteld als geheel kan worden begrepen ‘zoals hij is’ (d.w.z. zonder analyse, vgl. trotzdem) en
  2. als er geen reden is om aan te nemen dat je de combinatie met kleine veranderingen ook voor andere toepassingen kunt gebruiken. (De combinatie is niet variabel)

Voor dat laatste geeft ze als voorbeeld: “How do you do”. Dat kom je alleen in die vorm tegen. Variaties als “How does he do” of “How did you do?” zul je niet snel aantreffen. Dat zelfde geldt ook voor een woordcombinatie als “Thank you very much”. Die vormt één geheel en is niet variabel. Pas als variaties wel regelmatig in input gaan opduiken begint het voordelig te worden enige analyse toe te passen. Wray geeft als voorbeeld “Have you seen Daddy’s sock?”, waarbij in volgende gevallen in plaats van “sock” ook “coat”, “phone”, e.d. kan voorkomen. In dat geval is het dus handiger om niet de hele zin als chunk op te slaan, maar alleen het eerste stuk.

Dat zou kunnen verklaren waardoor je tto-leerlingen uit het eerder geciteerde onderzoek van Verspoor e.a. (2010) die “de taal (…) zonder veel expliciete aandacht voor grammatica” hadden geleerd, niet gauw zult betrappen op fouten van het type “he cans”. Die vorm is bij hen immers nooit aanwezig geweest in de input die ze hebben verwerkt. En er is op grond van de NOA-theorie voor hen nooit reden geweest om de wél vaak voorkomende combinatie “he can” nader te analyseren. Bv. door zich te realiseren dat, anders dan bij de regelmatige werkwoorden, voor to can dezelfde regels gelden als voor de andere modale hulpwerkwoorden ‘to will’, ‘may’, ‘must’ en ‘shall’ (geen -s- bij h/she/it). Fouten als “he cans” ga je pas maken als je die analyse wél doet. Uit zulke fouten blijkt dus niet een gebrek aan grammaticatraining, ze zijn er het gevolg van.

 De volgende vraag is of de NOA-theorie betekent dat er altijd wordt geanalyseerd zodra er niet aan beide voorwaarden (als één geheel begrijpelijk en niet variabel) is voldaan. Daarover meer in de volgende aflevering.

Literatuur

Ellis, N. (2003). Constructions, Chunking, and Connectionisme: The Emergence of Second Language Structure. In C. Doughty, J & M. Long, H (Eds.), The Handbook of Second Language Acquisition (pp. 63-103). Malden,Oxford,Melbourne,Berlin: Blackwell.

Erman, B., & Warren, B. (2000). The idiom principle and the open-choice principle. Text(20), 29-62.

Jones, M., & Haywood, S. (2004). Facilitating the acquisition of formulaic sequences: An exploratory study in EAP context. In N. Schmitt (Ed.), Formulaic Sequences. Acquisition, processing and use (pp. 269-292). Amsterdam Benjamins.

Meunier, F., & Granger, S. (Eds.). (2008). Phraseology in Foreign Lanaguage Learning and Teaching. Amsterdam: John Benjamins.

Schmitt, N. (Ed.). (2004). Formulaic Sequences. Acquisition, processing and use. Amsterdam/Philadelphia: Benjamins.

Verspoor, M. H., Schuitemaker – King, J., van Rein, E. M. J., de Bot, K., & Edelenbos, P. (2010). Tweetalig onderwijs: vormgeving en prestaties. Onderzoeksrapportage RUG.

Wray, A. (2002). Formulaic language and the lexicon. Oxford: Oxford University Press.

Wray, A. (2008). Formulaic Language: Pushing the Boundaries. Oxford: Oxord University Press.

 

 

Grammatica of Lexicon 4

Over de vraag op wat voor kennis we onze correctheid van vorm baseren

Aflevering 4: De werking van ons brein: woekeren met de beschikbare ruimte

In het voorgaande werd duidelijk dat we kennis bezitten over ‘hoe het hoort’ met betrekking tot de morfologische kant van de taal. Maar het bleek twijfelachtig of dat kennis is in de vorm van een min of meer autonoom systeem van apart van het lexicon opgeborgen regels: de grammatica. Het leek er eerder op dat het gaat om een betrekkelijk ongeordende verzameling nogal ongelijksoortige ervaringskennis. Kennis die soms lexicaal van aard lijkt te zijn, en soms ook wel een regelkarakter lijkt te hebben. Dat leidde tot de vraag of in wat bekend is over de werking van ons brein aanknopingspunten te vinden zijn die dit nader kunnen verklaren.

Over hoe kennis tot stand komt heb ik elders al wat uitvoeriger geschreven (Westhoff, 2009) (bereikbaar via https://www.stedelijkonderwijs.be/sites/default/files/bestand/het%20geheim%20van%20de%20flipperkast.pdf.) Hier een korte samenvatting van de relevantste aspecten:

Kennisvorming vindt plaats in een intensieve, interactieve samenwerking tussen twee ‘geheugens’: het zogenaamde lange-termijngeheugen (LTG)  en het werkgeheugen (WG).  Het WG is een instantie waar via de zintuigen binnenkomende losse stukjes informatie gedurende een beperkte tijd (max. 6 sec.) kunnen worden vastgehouden voor analyse en bewerking. Bij die ‘stukjes’ kun je je van alles voorstellen: letters, klanken, vormen, allerlei betekenisaspecten, enz.

In die maximaal 6 sec. (meestal is het in feite veel korter) kan die informatie worden bestudeerd op bruikbaarheid. Als die analyse positief uitpakt, worden de losse informatiedeeltjes gecombineerd tot zinvolle gehelen met een bepaalde betekenis,  die ‘het onthouden waard zijn’. De aldus geconstrueerde kennis  wordt doorgegeven aan het LTG en daar opgeborgen. Daarbij kun je denken aan dingen als: lettergrepen, woorden, combinaties van woorden, weten “hoe het klinkt” of moet worden uitgesproken, e.d., maar ook met welke andere woorden het pleegt voor te komen en welke vorm het dan heeft. Vanuit het LTG wordt die kennis ook weer opgehaald als we hem nodig hebben.

In een metafoor: het WG is de werkplaats waar kennis  ‘in elkaar wordt gezet’, het LTG de zolder waar we al die producten opslaan. Als we ons in taal willen uitdrukken, wordt de benodigde kennis ‘van zolder gehaald’ en, opnieuw in het WG, tot bruikbare taaleenheden gecombineerd.

Dit proces kent een vervelende bottleneck: de capaciteit van het WG is beperkt. En niet alleen de inhoud, ook het bewerken ervan kost capaciteit. Ingewikkelde bewerkingen gaan ten koste van de ruimte die je voor inhoud overhoudt. Je zou het met het geheugen van een computer kunnen vergelijken. Hoe meer geheugen het besturingssysteem (zoals Windows) voor zijn bewerkingen vraagt, des te minder ruimte is over voor data zoals documenten en afbeeldingen.  Zo’n besturingssysteem vreet ruimte. Anders dan bij je computer is het niet mogelijk om voor het menselijk brein een nieuw WG aan te schaffen met meer geheugenruimte voor gecompliceerde bewerkingen.

Die beperkte capaciteit, gecombineerd met het feit dat je je cognitieve geld maar één keer kunt uitgeven, verklaart de uitkomsten van de onderzoekingen van Skehan (1998). Skehan onderscheidt globaal twee kennissystemen: het exemplar-based system en het rule-based system. In het eerste systeem zitten de lexicale eenheden, allemaal dingen die met inhoud, met betekenis te maken hebben (in de computer-metafoor: de documenten). In het tweede systeem zit de kennis met een regelkarakter. Zeg maar: het ‘besturingssyteem’.

Uit Skehans onderzoek blijkt dat, als je je op de inhoud, op de betekenis van wat je wilt zeggen concentreert, er minder ruimte is voor het toepassen van regelkennis en omgekeerd. Het gebruik van beide kennissystemen tegelijk slokt zoveel capaciteit op dat er voortdurend een soort kortsluiting dreigt door overbelasting, waardoor het hele systeem ‘plat gaat’. Dit resulteert, vooral bij nog niet zo ver gevorderden, nogal eens in een gevoel van onmacht en verlamming, in het gevoel voortdurend wegens gebrek aan snelheid ‘van je fiets te vallen’.

Aangezien het menselijk brein moet roeien met de riemen die het heeft, is het daarom voortdurend bezig om na te gaan wat in termen van benodigde geheugenruimte de ‘voordeligste’ manier is om de boel  te combineren en op te slaan. Onderzoek bevestigt dan ook dat het met name beginners al zo veel moeite kost om voldoende inhoud te activeren, dat ze, als ze de keus hebben, die regels maar even de regels laten en zo veel mogelijk gebruik maken van kant en klare combinaties (chunks by default) (zie bv. De Keyzer, 2005).

Je kunt hieruit afleiden wat dit betekent voor het type kennis dat in dat beginnerstadium in het WG wordt aangelegd bij het verwerken van taalelementen. In die periode van voortdurend dreigende kortsluiting levert het maken kennis ‘met weinig regelkarakter’ het meeste voordeel op. Het leren of oproepen van een woord als “Abend” kost maar één denkstap. Dat geldt ook als het WG de combinatie “guten Abend” niet beschouwt als een grammaticale constructie, maar als een lexicale eenheid van één woord.

Zou je het wel als een regelgeleide constructie behandelen, dan zou je je moeten realiseren dat het hier gaat om het lijdend voorwerp van een elliptische zin waarvan het onderwerp, persoonsvorm en meewerkend voorwerp (“Ich wünsche dir/Ihnen/euch …”) zijn weggelaten, dat daardoor in de 4e naamval staat, dat het gaat om een manlijk woord, dat hier geen Bestimmwort heeft waardoor het bijvoeglijk naamwoord “gut” de uitgang van dat Bestimmwort (“-en”) krijgt. Het is in termen van cognitieve economie veel voordeliger om in plaats daarvan net te doen of die hele combinatie helemaal geen constructie met een onderliggende grammatica is, maar het gewoon gewoon als één enkel woord te behandelen en het als zodanig te leren en te produceren. Net als al die andere uit combinaties van uit meerdere woorden bestaande, ingewikkelde grammaticale constructies zoals “trotzdem”,  “infolgedessen”,  “maybe”, “desondanks”, “uitermate”, “insgelijks”, “tegelijkertijd”, “dientengevolge”, e.d. Allemaal combinaties die niet alleen als één enkel woord worden waargenomen, maar ook sinds jaar en dag als zodanig in het woordenboek staan.

Kortom: het heeft grote voordelen om in ons lexicon niet alleen ‘kale vormen’ op te bergen, maar ook zo veel mogelijk ‘voorgevormde combinaties’. Kant en klare producten en halfproducten, zodat we in gevallen die veel voorkomen ons de moeite van het telkens weer from scratch construeren kunnen besparen. Dat brengt ons op de vraag of er meer te zeggen valt over zulke chunks en wanneer het gebruik ervan voordeel oplevert. Daarover meer in de volgende aflevering.

Literatuur

DeKeyser, R. M. (2005). What Makes Learning Second Language Grammar Difficult? A Review of Issues. Language Learning, 55(s1), 1-25.

Skehan, P. (1998). A cognitive approach to language learning. Oxford: Oxford U.P.

Westhoff, G. (2009). Leren overdragen of het geheim van de flipperkast. Elementaire leerpsychologie voor de onderwijspraktijk. Biezenmortel: MesoConsult