Ga direct naar de content

Vijftig jaar econometrie: de waarde van het model

Geplaatst als type:
Gepubliceerd om: juni 30 2006

ontwikkeling

Vijftig jaar econometrie:
de waarde van het model
Een halve eeuw geleden werd in Rotterdam het Econometrisch Instituut opgericht. Naar aanleiding van dit
jubileum kijken we in dit artikel naar hoe het gebruik van
modellen in de econometrie is geëvolueerd.

R

eeds in de jaren dertig bouwde Tinbergen
zijn eerste modellen voor de Nederlandse
en de Amerikaanse economie. Na de
oorlog werd hij de eerste directeur van het
Centraal Planbureau, waar hij aan de hand van
modellen adviezen gaf aan de overheid. Econometristen die verbonden waren aan de Cowles Commission in Chicago bedachten in de jaren veertig
geavanceerde schattingsmethoden die tegemoet
kwamen aan Haavelmo’s kritiek op Tinbergens werkwijze. Deze methoden waren bij gebrek aan computers echter te ingewikkeld voor dagelijks gebruik. In
1953 ontwikkelde Theil, die toen op het planbureau
werkzaam was, een veel eenvoudigere methode
die in beginsel dezelfde gunstige eigenschappen
had als de methode van de Cowles Commission.

Philip Hans Franses
en Teun Kloek
Beide auteurs zijn verbonden aan het Econometrisch
Instituut van de Erasmus
Universiteit Rotterdam.
Franses is hoogleraar
Toegepaste Econometrie in
de Marketing en Financiering. Kloek is emeritus
hoogleraar.

Over economische politiek schreef Tinbergen twee
boeken. Hij, en velen met hem, dachten de economie te kunnen sturen met behulp van instrumenten
als overheidsuitgaven en belastingen. De econometrist maakte het model, de beleidsmaker stelde
waarden vast voor de beleidsinstrumenten en het
model gaf aan wat de gevolgen waren. Omgekeerd
kon ook. De beleidsmaker stelde de gewenste
waarden voor de doelvariabelen vast, waarna uit het
model kon worden afgeleid welke waarden voor de
instrumentvariabelen moesten worden gekozen.
Een tijd lang leek dit goed te werken. Het Nederlandse werkloosheidspercentage was in 1964 voor
het vijfde achtereenvolgende jaar kleiner dan één
procent van de beroepsbevolking. De druk op de
ketel werd echter te groot waarna er een loonexplosie
volgde. Deze maakte in een aantal stappen arbeid
zoveel duurder dat gevolgen voor de werkgelegenheid
niet konden uitblijven. Zo werden de mijnen gesloten
en verdwenen de conducteurs van de tram.
In de Verenigde Staten werden in de jaren vijftig en
zestig een aantal modellen gebouwd met het doel
de economie te sturen. De ontwikkeling van die
modellen begon in de Cowles Commission en de
belangrijkste pionier hiervan was Lawrence Klein.
Tegen het eind van de jaren zestig werd er echter
door Edmund Phelps en Milton Friedman kritiek
uitgeoefend op de manier waarop de toen gangbare

franses@few.eur.nl

302

ESB 30

juni 2006

econometrische modellen omgingen met het verband
tussen werkloosheid en inflatie (de zogenaamde Phillipscurve). Zij propageerden de veronderstelling van
een ‘natuurlijk werkloosheidspercentage’, tegenwoordig meestal aangeduid als NAIRU.
In de periode 1965-1975 werd de wereld blootgesteld aan een aantal grote (deels samenhangende)
schokken. Allereerst was er de oorlog in Vietnam, die
door de Amerikaanse regering inflatoir gefinancierd
werd. Daarnaast waren er landbouwcrises (vooral in
de Sovjet-Unie), de devaluatie van de dollar en de
oliecrisis van 1973. De stagflatie die daaruit resulteerde, kon door de toen bestaande econometrische
modellen niet voorspeld of verklaard worden. Met
simpele tijdreeksmodellen bleek men beter te kunnen
voorspellen dan met grote econometrische modellen.
In 1976 kwam Robert Lucas met meer fundamentele
kritiek. Hij ging ervan uit dat het bedrijfsleven en de
consumenten er rationele verwachtingen op na houden en dus in staat zijn toekomstige ontwikkelingen
gemiddeld correct te voorspellen. (Deze hypothese
was al in 1961 in de context van micromarkten voorgesteld door John Muth). Hij kwam tot de volgende
conclusie. Uit het gegeven dat de structuur van een
econometrisch model bestaat uit optimale beslissingsregels van economische actoren, volgt dat elke
verandering in overheidsbeleid de structuur van econometrische modellen systematisch zal veranderen.
Sinds dat ogenblik zijn de macro-economen sterk
verdeeld. Velen prefereren kleine, nogal abstracte
theoretische modellen, hetzij nieuw-klassieke, hetzij
nieuw-Keynesiaanse. Deze modellen zijn in de
regel zo abstract, dat ze slecht bij de waargenomen
tijdreeksen passen. Deze onderzoekers ‘calibreren’
hun modeleconomie zo dat zij lijkt op de werkelijke
economie ‘langs een zorgvuldig gespecificeerde verzameling dimensies’ (Kydland & Prescott, 1996).
De meer empirisch ingestelde econometristen zijn
ook verdeeld. Sommigen kiezen voor ‘atheoretische’
tijdreeksmodellen. Bekend werd de methode van
vector-autoregressies (VAR), die sterk werd gepropageerd door Christopher Sims. Omdat in een VAR het
aantal parameters evenredig is met het kwadraat van
het aantal variabelen, zijn deze modellen noodzakelijk klein (meestal niet veel meer dan zes variabelen)
en dus veelal ongeschikt voor het onderbouwen
van concrete beleidsadviezen. Daarom bestaat er
behoefte aan middelgrote tot zeer grote econometrische modellen, afhankelijk van het beleidspro-

bleem. Deze worden dan ook nog steeds gebouwd, onderhouden en herzien door
overheidsorganisaties, centrale banken en commerciële adviesbureaus. In de
academische wereld zijn ze minder populair, maar ook daar komen ze nog steeds
voor. Het meest opmerkelijke voorbeeld is dat van Ray Fair (Fair, 2004). Fair
heeft reeds sinds 1974 een aantal boeken en artikelen op dit terrein gepubliceerd. Vermeldenswaard is ook dat iedereen Fair kan narekenen. De bijdragen
van Lucas en andere in dit artikel genoemde Nobelprijswinnaars zijn te vinden
via de prize lectures op http://nobelprize.org/economics/laureates. Hij bouwt
voort op de traditie van de Cowles Commission. Economische theorie is voor hem
belangrijk, maar hij baseert zich niet op veronderstellingen als rationele verwachtingen of een NAIRU. Wel toetst hij deze veronderstellingen en concludeert dat
ze verworpen moeten worden. Verder vergelijkt hij zijn voorspellingen onder meer
met die van VAR-modellen en scoort hij beter.
In de jaren tachtig vond een belangrijke ontwikkeling in de tijdreeksanalyse plaats.
Reeds in 1926 had Yule erop gewezen dat onafhankelijke maar niet-stationaire
tijdreeksen schijncorrelatie (of nonsenscorrelatie) kunnen vertonen. De meest
voor de hand liggende manier om dit probleem te lijf te gaan was over te gaan op
eerste verschillen. Veelal was dit genoeg om variabelen stationair te maken. Een
belangrijke doorbraak op dit terrein vond plaats toen Granger in 1981 het begrip
coïntegratie invoerde. Als een lineaire combinatie van twee of meer niet-stationaire
variabelen stationair is, dan noemen we die variabelen gecoïntegreerd. Dit is een
voor de hand liggende manier om evenwichtsrelaties op lange termijn te beschrijven. De laatste 25 jaar is dit een veelgebruikte aanpak geworden om de relaties
tussen tijdreeksen empirisch te exploreren, waarbij vooral toepassingen bij de
vraag naar geld en de relatie tussen consumptie en inkomen centraal staan.

Micro-econometrie
In de jaren zestig maakte de computer zijn entree aan de universiteiten en de
onderzoeksinstituten. Daarmee werd het mogelijk veel grotere databestanden
econometrisch te onderzoeken. Het bleek al gauw dat men met kleinste kwadraten
(al dan niet in twee ronden) niet altijd uit de voeten kon. Zo stuitte McFadden bij
het bestuderen van de keuze tussen vervoerswijzen (bijvoorbeeld auto versus trein
versus bus) op kwalitatief te verklaren variabelen. Aldus deed het multinomiale
logitmodel, dat in een enigszins andere vorm al in de psychologie gebruikt was,
zijn intrede in de econometrie. Het model vereiste niet-lineaire schattingsmethoden, maar in het tijdperk van de computer bleek dat geen bezwaar meer.
Andere microdatabestanden hadden betrekking op de arbeidsmarkt. Als men
alleen de lonen waarneemt van hen die werken, dan geven de resultaten van
een arbeidsaanbodvergelijking een vertekend beeld. Als we proberen het loon te
verklaren uit opleiding en we beperken ons tot de werkenden wier loon geobserveerd is, dan onderschatten we systematisch het effect van opleiding als gevolg
van (zelf)selectie. Heckman was de eerste die erin slaagde een model en een
bijpassende schattingsmethode te ontwerpen die met deze partiële observeerbaarheid rekening hielden. Er was nog een ander probleem op de arbeidsmarkt dat
Heckman met succes aanpakte en dat was het effect van de duur van werkloosheid op de kans werk te vinden. Als we een aantal personen gedurende een zekere
periode waarnemen, dan zal een deel van hen aan het eind van de waarnemingsperiode werkloos zijn. De duur van de werkloosheid kunnen we in die gevallen niet
vaststellen. We kennen alleen een benedengrens. Stel dat we de werkloosheidsduren gedurende de waarnemingsperiode nemen in plaats van de voltooide werkloosheidsduren, dan maken we systematische meetfouten met als gevolg vertekende
resultaten. Stel dat we om die reden deze gevallen zouden weglaten uit onze
analyse dan resulteert opnieuw een systematische fout. Ook op het terrein van de
duurmodellen heeft Heckman pionierswerk verricht. Ook de analyse van paneldata
wordt meestal tot de micro-econometrie gerekend. Gedacht moet worden aan
bijvoorbeeld panels bestaande uit duizenden (soms zelfs miljoenen) consumenten,
die tussen de vijf en vijftien jaar waargenomen worden. Dit type data brengt zijn
eigen mogelijkheden en problemen met zich mee (Granger, 1998).

Van beleid maken tot beleid ondersteunen
Econometrie is meer dan techniek alleen, het model
moet ook worden gebruikt. Zoals gezegd, in de vroege jaren werd door sommigen gedacht dat een model
bijzonder veel mogelijkheden kende. Het was een
eenvoudige machine, waar je de economie als het
ware mee kon sturen. Deze gedachte heeft men lang
geleden laten varen. Er zijn stromingen die zeggen
dat een model een economie niet noodzakelijk goed
hoeft te beschrijven, als de voorspellingen maar correct zijn. Immers, met die voorspellingen in de hand
kan men bedenken welke ombuiging gewenst is en
door die ombuigingen in het voorspelmodel op te nemen, kan men de effecten van beleid doorrekenen.
Wetenschappers als James Stock en Mark Watson
(Stock & Watson, 1999) alsmede Hashem Pesaran
en Allan Timmermann (Pesaran & Timmermann,
1995) geven enkele goede voorbeelden daarvan.
Een kerngedachte achter deze stroming en eigenlijk
de huidige stand van de econometrie, is dat het
model niet zaligmakend is. Een econometrist probeert zo goed mogelijk een economisch fenomeen te
beschrijven, maar weet ook dat de gegevens meetfouten hebben, dat er gaten in de database zitten,
dat gedrag verandert, kortom, dat het model op zijn
best bij benadering nuttig is. De uitkomsten van dit
model zijn dan input in een volgende ronde, waarin
beleidsmakers die uitkomsten aanvullen met eigen
inzicht en zo samen met het model tot beleidsuitspraken komen. Dit inzicht is al jaren gemeengoed
bij het Centraal Planbureau en bij talloze bedrijven
die graag modellen gebruiken (denk aan banken,
energiebedrijven, organisaties voor goede doelen,
fabrikanten van duurzame en fast-moving producten). Modellen worden steeds beter en met meer
oog voor detail. De meest geavanceerde technieken
worden bijvoorbeeld gebruikt om te bepalen wat er
precies waar in het winkelschap staat.
De uitdaging waar het vakgebied nu voor staat is om
de steeds verfijndere modellen te combineren met
inzicht van beleidsmakers (die bijvoorbeeld weten
dat er iets staat te gebeuren dat niet in het model
zit). Het vertrouwen in het model is nog steeds erg
groot. De modellen worden ook steeds beter, maar
aan de extra eisen van de gebruiker wordt steeds
meer aandacht besteed.

Literatuur
Fair, R.C. (2004) Estimating how the macroeconomy works,
Cambridge, MA: Harvard University Press.
Granger, C.W.J. (1998) Extracting information from megapanels and high-frequency data, Statistica Neerlandica, 52,
258-272.
Kydland, F.E. & E.C. Prescott (1996) The computational experiment: an econometric tool. Journal of Economic Perspectives, 10,
69-85.
Pesaran, M.H. & A. Timmermann (1995) Predictability of stock
returns: Robustness and economic significance. Journal of
Finance, 50, 1201-1228.
Stock, J.H. & M.W. Watson (1999) Forecasting inflation, Journal
of Monetary Economics, 44, 293-335.

ESB 30

juni 2006

303

Auteurs