Maandelijks archief: februari 2018

Grammatica of Lexicon 7

Over de vraag op wat voor kennis we onze correctheid van vorm baseren

Aflevering 7: De rol van waarschijnlijkheidskennis

Wat voor kennis gebruiken we bij het produceren van formeel ‘correcte’ taaluitingen? Dat was de vraag. In veel gevallen bleken we dat te doen zonder toepassing van regels. Uit efficiency-overwegingen bleek ons brein telkens te proberen of het niet langs een directere weg, zonder die regels kan. Regels alleen voor zover het echt niet anders kan. Het Needs Only Analysis (NOA) principe.

Het duidelijkst lukt dat bij ‘echte’ chunks van het type ‘Je vous en prie’, ‘How do you do’ of ‘Herzlichen Dank’. Combinaties die één geheel vormen, als zodanig zijn te begrijpen en niet variabel zijn. Maar zulke Morpheme Equivalent Units bleken ook een soort open einde te kunnen hebben waar je dingen aan vast kon plakken. Type ‘Sauriez-vous me dire …’, of  ‘Ich wüsste gern …. ‘ Voor de aanvulling tot een hele zin moet je misschien wel nog een regel gebruiken, maar de eerste helft kan zonder.

Maar ook voor de combinatie zelf bleek ‘niet variabel’ een rekbaar begrip. In op zich variabele gevallen kunnen bepaalde combinaties veel frequenter zijn dan overige mogelijkheden. Zo veel frequenter dat het interessant begint te worden zo’n combinatie, hoewel geen ‘echte’ chunk, toch als zodanig te behandelen. Quasi-chunks als Zell am See of ‘Können Sie mir helfen’.

In dit soort gevallen gaat het om bundles of words that show a statistical tendency to co-occur  (Jones & Haywood, 2004, p. 274f.). Oftewel: kennis over de waarschijnlijkheid van te verwachten combinaties. In veel gevallen gaat het er dan om met hoeveel waarschijnlijkheid een bepaald woord zal volgen.  Concreet: we weten dat na “May I ask you a …” met aan zekerheid grenzende waarschijnlijkheid het woord “question” of het woord “favour” zal volgen. Dat na “Darf ich Sie etwas …” weinig anders kan komen dan “fragen”. Dat hoeft niet zo veel implicaties voor de vorm te hebben.

Maar soms is dat wél het geval. Na “Mit freundlich…” komt onder een brief met zeer grote waarschijnlijkheid “…en Grüssen”. Hoe groot die waarschijnlijkheid is kan iedereen makkelijk nagaan door te kijken wat er op Google verschijnt als je die eerste woorden intypt. Ook hier is het voor ons werkgeheugen minder belastend om  “Mit freundlichen Grüssen” kant en klaar uit de opgeslagen kennis over de waarschijnlijkheid van combinaties op te diepen, dan om alle regels rond de voorzetsels met de derde naamval te raadplegen en toe te passen.

Maar onze kennis van de genoemde tendency to co-occur heeft niet alleen betrekking op het met-elkaar-voorkomen van een woord met een ander woord in een bepaalde vorm. We hebben ook kennis van de waarschijnlijkheid van de co-occurance van woordcombinaties met de vorm van elk woord dat er op volgt. Gries (2008) noemt als voorbeelden o.a. onze kennis dat na de frase “Would you mind…” een werkwoord in de –ingvorm staat (bv. “closing the window”).  Je kunt voor het Nederlands ook denken aan “Ik ben aan het …” waarop altijd een infinitief zal volgen. Kennis over dit soort waarschijnlijkheid is een vorm van kennis óver taal. In feite gaat het daarbij dus om regels. Volgens sommigen dus gewoon “just another grammar”.

Tussen die regels en die uit onze schoolgrammatica’s zijn overeenkomsten en verschillen. Enerzijds voorspellen ze, net als in de schoolgrammatica wel wat er in een onbepaald aantal voorkomende gevallen met de vorm moet gebeuren. Maar, anders dan bij de taalkundige grammatica bieden ze geen absolute zekerheid en vormen ze geen logisch systeem. Ze staan op zich en zijn gebaseerd op ervaren waarschijnlijkheid, niet door taalkundige logica.

Er is nog een wezenlijk verschil. Bij grammaticaregels gaat het om (algoritmische) kennis over wetmatigheden. Regels van het type: “In geval zus, doe zo.” Bij kennis over co-occurance gaat het om (heuristische) kennis over de waarschijnlijkheid waarmee je iets kunt verwachten. Doordat we combinaties als “Zell am See” vaak zijn tegen gekomen, ontwikkelen we bv. de verwachting dat “Frankfurt am Main”, maar ook “ein Haus am Markt”  waarschijnlijker is dan bv. “Frankfurt ans Main” resp. “Haus ans Markt”. Dat weten we minder zeker dan in het geval “Darf ich Sie etwas…” plus fragen of bitten. Hoe groot de rol van dit soort waarschijnlijkheidskennis is bij lezen, is al heel lang bekend (Zie bv Westhoff, 1981). Maar het lijkt dus erg waarschijnlijk dat het bij het produceren van taal niet veel anders is.

Maar met dit soort toepassing van kennis over de waarschijnlijkheid van te verwachten vormen beginnen we toch aardig in de buurt van kennis en toepassing van gangbare schoolgrammaticaregels te komen. Gegeven het regelkarakter, zou je je kunnen afvragen in hoeverre dit soort kennis in het lexicon zit of in het grammatica-compartiment is opgeslagen. Misschien valt de grens tussen lexicaal en grammaticaal wel niet zo scherp te trekken. Misschien zijn de hierboven achtereenvolgens beschreven stations op Wray’s continuum van formulaic naar creative speech (Wray, 2008) ook te zien als stadia op een schaal van lexicaal naar regelkennis.

Maar eerst even terug naar de beschreven kennis over de waarschijnlijkheid van combinaties. Als dit soort kennis zo’n belangrijke rol speelt wordt het interessant na te gaan hoe we die verwerven. Het lijkt geen expliciet onderwezen kennis van het type: ‘Pas op: Na het woord x is de kans 83% dat woord y zal volgen met als vorm z. Maar hoe dan wel? Daarover in de volgende aflevering meer.

Literatuur

Gries, S. T. (2008). Phraseology and linguistic theory: A brief survey. In S. Granger & F. Meunier (Eds.), Phraseology  An interdisciplinary perspective (pp. 3-25). Amsterdam: John Benjamins.

Jones, M., & Haywood, S. (2004). Facilitating the acquisition of formulaic sequences: An exploratory study in EAP context. In N. Schmitt (Ed.), Formulaic Sequences. Acquisition, processing and use (pp. 269-292). Amsterdam Benjamins.

Westhoff, G. J. (1981). Voorspellend lezen. Een didactische benadering van de leesvaardigheidstraining in het moderne-vreemdetalenonderwijs. Groningen: Wolters Noordhoff.

Wray, A. (2008). Formulaic Language: Pushing the Boundaries. Oxford: Oxord University Press.

 

 

Advertenties

Grammatica of Lexicon 6

Over de vraag op wat voor kennis we onze correctheid van vorm baseren

Aflevering 6: Het cognitief voordeel van quasi-chunks

 Voor het begrijpen en produceren van sommige, grammaticaal gezien ingewikkelde combinaties van woorden bleek het cognitief voordeliger om de grammatica te negeren. Door zulke combinaties als één geheel te behandelen en ze, alsof het telkens om één enkel woord ging, in het lexicon op te bergen (formulaic speech), bespaar je in het werkgeheugen een hoop capaciteit. En dus, waarom zou je gecompliceerde grammaticaregels overhoophalen als de betreffende combinatie toch nooit anders dan in één bepaalde vorm voorkomt? Bij een keuze voor formulaic speech kun je de ingewikkeldste combinaties zonder gepuzzel kant en klaar uit het lexicon halen. Die keuze tussen formulaic of creative speech maak je volgens het Need Only Analysis principe (NOA). Oftewel: voor constructie via grammaticaregels kies je alleen als het echt niet zonder kan. De voordelige route kies je volgens Wray (2002) onder twee voorwaarden: 1 De combinatie is als geheel te begrijpen (bv trotzdem) en 2 Hij is niet variabel (bv Thank you very much).

Maar als het zo veel voordeel oplevert om de grammatica de grammatica te laten, is de volgende vraag of dat voordeel niet vaker te behalen is. Moet een combinatie echt altijd helemaal aan die twee voorwaarden voldoen om een keuze voor formulaic speech te rechtvaardigen? Ten eerste kun je denken aan combinaties als Guten Abend. Die valt strikt genomen eigenlijk niet onder voorwaarde 2 vanwege de variatiemogelijkheden als Guten Morgen of Guten Tag. Toch lijkt het cognitieve voordeel van een formulaic behandeling hier evident. Dat maakt het interessant om te kijken of er nog meer cognitief voordeel te behalen valt buiten die twee strikte voorwaarden.

Hoe zit het bv. als een bepaalde combinatie wel variabel is maar in feite vooral in een heel beperkt aantal specifieke combinaties heel veel voorkomt. Je kunt hier denken aan frasen als “ins (Kino/ Theater/Schwimmbad, etc.) gehen”. Die kun je heel veel gebruiken. Maar de grammaticaregel m.b.t de voorzetsels plus accusatief of datief (het beruchte rijtje an, auf, hinter, neben, in, etc.) is behoorlijk lastig voor Nederlanders. In zulke gevallen lijkt het gewoon uit je hoofd leren van die veel voorkomende vormen (in dit geval ‘gehen ins …’) dus een tamelijk groot cognitief gebruiksvoordeel op te leveren. Dat geldt noch sterker voor combinaties als “Zell am See”, ”Frankfurt am Main”, e.d.

Maar ook bij veel voorkomende combinaties als “Können Sie mir helfen”, “Kann ich Ihnen helfen?”,  “Ich danke dir”, is het uit oogpunt van cognitieve economie voordeliger om ze gewoon als chunk te behandelen dan ze te construeren vanuit grammaticale kennis over het rijtje werkwoorden dat, anders dan in het Nederlands, een datief krijgt i.p.v. een te verwachten accusatief. Zelfs in minder frequente gevallen zoals “… is supposed to have been murdered/asked/helped, etc. by …” heeft het cognitieve-efficiencyvoordelen om voor een formulaic behandeling te kiezen. Die combinatie kun je natuurlijk telkens als je hem nodig hebt construeren volgens in sommige schoolboeken bij de ‘passive’ gegeven transformatieregels. Maar in zo’n geval is het vaak veel efficiënter die frase maar gewoon ook als ‘chunk-met-open-plekken’ te behandelen en uit je hoofd te leren.

Of het loont om een combinatie van woorden via analyse of als chunk te leren en te produceren is dus telkens een afweging waarbij de frequentie waarin zo’n combinatie voorkomt een belangrijke rol speelt. Is die hoog, dan heb je weliswaar geen ‘echte’ chunk, maar heeft het voordelen hem toch maar wel zo te behandelen. Want hoe meer van zulke “quasi-chunks” je in je lexicon hebt, des te kleiner de belasting van het werkgeheugen. En des te meer ruimte voor de inhoud.

Maar er zijn dus duidelijk graduele verschillen tussen ‘echte’ chunks en ‘quasi-chunks’ als “Frankfurt am Main” en “ins Kino gehen”. Wray (2008) suggereert dan ook om ons een continuüm voor te stellen met aan het ene uiterste de echte chunks en aan het andere uiterste de taaluitingen die geheel zijn geconstrueerd door kale elementen uit het lexicon te halen en “met behulp van regels in de goede vorm te brengen”. Daar tussenin alle mogelijke gradaties, waarbij de chunk-kenmerken afnemen en de rol van toepassing van een grammaticaregel groter wordt.

Gedacht vanuit de behoefte aan cognitieve efficiency is het altijd het voordeligst om zoveel mogelijk kennis te hebben aan het uiteinde van de kant en klare constructies. Wat technischer gezegd: om zo veel mogelijk elementen in het lexicon te hebben die hun ‘morfologische vorm’ al hebben. Die ‘quasi-chunks’ uit het grijze middengebied onderscheiden zich van chunks doordat ze variabel zijn, ze onderscheiden zich van creative speech doordat de combinatie zo frequent is dat het niet loont om elke keer weer de regel toe te passen. Meestal is het toch die ene vorm. De plaats van zulke quasi-chunks op het continuüm wordt bepaald door de verhouding tussen enerzijds de frequentie van een bepaalde, specifieke combinatie afgezet tegen, anderzijds, de complexiteit van de regel en de zeldzaamheid waarmee je die in andere gevallen kunt toepassen.

De lengte van zulke quasi-chunks kan aanzienlijk zijn. In wetenschappelijke teksten, maar ook bv. in het sociaal verkeer gebruik je niet zelden hele zinnen die als formule in je hoofd zitten (“Einen schönen Tag wünsch’ ich Ihnen” ). In sommige gevallen kan het zelfs om combinaties van meerdere zinnen gaan. (“Das ist eine schwierige Frage. Die lässt sich nicht so leicht beantworten. Einerseits könnte man sagen, dass (….), aber anderseits ließe sich auch den Standpunkt vertreten, es sei (..)“. Het is ontzettend handig als je zulke stukken tekst moeiteloos en zonder enige analyse uit je lexicon kunt halen. Je maakt een buitengewoon taalcompetente indruk terwijl je werkgeheugen relatief veel ruimte over heeft voor de resterende ingewikkelder operaties met kennis uit het rule-based system.

Interessant is hoe je zulke taaluitingen inschaalt in het Europees ReferentieKader (ERK). Hoe sophisticated zo’n riedel ook moge klinken, zolang het om gememoriseerde (quasi) chunks gaat is het produceren van zulke taaluitingen in termen van het ERK in feite A1. Enerzijds maakt de vaststelling dat in dit soort gevallen leerlingen ingewikkelde vormen blijken te kunnen produceren zonder de verondersteld onderliggende grammaticaregel te kennen duidelijk, dat het niet goed mogelijk is om beheersing van bepaalde grammaticale structuren te koppelen aan ERK-niveaus. Anderzijds is ook duidelijk hoe nuttig het is om aan het inprenten van zulke frasen ook en met name op de lagere ERK-niveaus veel aandacht te besteden. Bv. door er met leerlingen een sport van te maken zo veel mogelijk tekst te produceren zonder gebruik te maken van creative speech.

Het gebruik van quasi chunks heeft niet alleen cognitief voordeel in een betrekkelijk formele context. Ik vond het om begrijpelijke redenen zelf bv. praktisch om de Spaanse zin “Donde estan los servicios” (Waar zijn de toiletten?) als geheel en zonder nadere analyse uit mijn hoofd te leren en daarmee niet te wachten tot ik de voor Nederlanders lastige Spaanse grammaticaregels over het gebruik van “ser” dan wel “estar”  voor het Nederlandse werkwoord ‘zijn’ had doorgrond.

Het gebruik van chunks en quasi-chunks speelt een grote rol in het leren en gebruiken van taal. Als we ze samen nemen, dan bestaat volgens berekeningen van  Erman & Warren (2000) bijna 60% van onze gesproken taal uit zulke formulaic speech. En ik ken politici die ik wat dit betreft op een nog veel hoger percentage schat. Het feit dat je bij quasi chunks in voorkomende gevallen moet beslissen wanneer je ze kunt gebruiken en wanneer je toch maar beter en beroep op regelkennis kunt doen, roept nieuwe vragen op. Daarover volgende keer meer.

Literatuur

Erman, B., & Warren, B. (2000). The idiom principle and the open-choice principle. Text(20), 29-62.

Wray, A. (2002). Formulaic language and the lexicon. Oxford: Oxford University Press.