View
24
Download
1
Category
Preview:
Citation preview
M. Hashem Pesaran. 1987. Econometría. Artículo publicado en
John Eatwell, Murray Milgate y Peter Newman; editores. 1987.
The New Palgrave: A Dictionary of Economics. Londres:
Macmillan: Tomo II, páginas 8-22. Traducción del Dr. Rafael
Núñez Zúñiga, Facultad de Economía, UNAM, 2007.
Índice
1. ¿Qué es la econometría?, 1
2. Primeros intentos de investigación cuantitativa en economía, 1
3. El nacimiento de la econometría, 3
4. Avances tempranos en los métodos econométricos, 5
5. Consolidación y desarrollos ulteriores, 6
6. Desarrollos recientes, 8
6.1 Expectativas racionales y la crítica de Lucas, 9
6.2 Macroeconometría ateórica, 10
6.3 Microeconometría, 10
6.4 Evaluación de modelos, 11
7. Resultados y perspectivas, 13
Referencias bibliográficas, 14
1. ¿QUÉ ES LA ECONOMETRÍA?
1
La econometría es una rama de la economía, rama que está
sufriendo un proceso de crecimiento acelerado y que, en términos
amplios, tiene por objetivo proporcionar contenido práctico a las
relaciones económicas, políticas y sociales. La palabra “econome-tría”
parece haber sido usada por primera vez por Pavel Ciompa en 1910,
aunque fue Ragnar Frisch, uno de los fundadores de la Sociedad
Econométrica, quien acuñó el término y lo estableció como símbolo de
una materia en el sentido en el que se emplea hoy (véase Frisch, 1939:
95). La econometría se puede definir de manera general como “la
aplicación de los métodos matemáticos y estadísticos al análisis de los
datos económicos”, políticos y sociales o, de forma más precisa, como lo
señalaron Samuelson, Koopmans y Stone (1954): “... Como el análisis
cuantitativo de fenómenos económicos (, políticos y sociales) reales,
basado en el desarrollo concurrente de la teoría y de la observación,
relacionadas mediante métodos de inferencia adecuados” (op. cit.: 142).
Otras descripciones similares de lo que implica la econometría se hallan
en los prefacios o en las introducciones de la mayoría de los textos de
econometría. Malinvaud (1966), por ejemplo, interpreta a la econometría
en términos amplios para incluir en ella “toda aplicación de los métodos
matemáticos o estadísticos al estudio de fenómenos económicos”(,
políticos y sociales). Christ (1966) considera que el objetivo de la
econometría es “la producción de afirmaciones económicas cuantitativas
2
que expliquen el comportamiento de variables que ya hemos visto o que
predigan (es decir, pronostiquen) el comportamiento que no hemos
visto, o ambas cosas”. Chow (1983), en un libro más reciente, define
sucintamente a la econometría “como el arte y la ciencia de usar
métodos estadísticos para la medición de relaciones económicas” (,
políticas y sociales).
Al enfatizar los aspectos cuantitativos de los problemas económicos (,
políticos y sociales), la econometría llama a una “unificación” de la
medición y de la teoría en las disciplinas sociales. La teoría sin medición,
siendo básicamente una rama de la lógica, sólo puede tener relevancia
limitada para el análisis de los problemas económicos reales. Mientras
que la medición sin teoría, al estar desposeída de un marco de
referencia necesario para la interpretación de las observaciones
estadísticas, no es probable que produzca una explicación satisfactoria
del modo en que las fuerzas económicas (, políticas y sociales)
interactúan entre sí. Ni la “teoría” ni la “medición”, por cuenta propia,
resultan suficientes para avanzar nuestra comprensión de los
fenómenos económicos(, políticos y sociales). Frisch estaba
completamente consciente de la importancia de tal unificación para el
desarrollo a futuro de la disciplina económica completa y es el
reconocimiento de este hecho lo que está en el corazón de la
econometría. Esta perspectiva de la econometría se expone del modo
más elocuente en Frisch (1933A) en su comentario editorial y vale la
3
pena citarlo en su totalidad: “... la econometría de ningún modo es lo
mismo que la estadística económica. Tampoco resulta idéntica a lo que
denominamos teoría económica general, aunque una porción
considerable de esta teoría tiene un carácter definitivamente
cuantitativo. Tampoco la econometría debería ser tomada como
sinónimo de la aplicación de la matemática a la economía. Nuestra
experiencia ha demostrado que cada uno de esos tres puntos de vista,
el de la estadística, el de la teoría económica y el de la economía
matemática es necesario para una comprensión real de las relaciones
económicas cuantitativas en la vida moderna. Lo poderoso es la
unificación de los tres puntos de vista y esta unificación es lo que
constituye la econometría.
Esta unificación es más necesaria ahora que en cualquier etapa previa
de la disciplina económica. La información estadística se está
acumulando en la actualidad a una tasa sin precedente. Pero ninguna
cantidad de información estadística, por más completa y exacta que sea,
puede por sí misma explicar los fenómenos económicos. Si no deseamos
perdernos en la abrumadora y monstruosa masa de datos estadísticos
que hoy está disponible, se requiere de la guía y ayuda de un poderoso
marco teórico de referencia. Sin él, será imposible realizar la
interpretación relevante y la coordinación de nuestras observaciones.
La estructura teórica que nos ayudará en esta situación debe, sin
embargo, ser más precisa, más realista y, en muchos aspectos, más
4
compleja de lo que antes se podía. La teoría, al formular sus nociones
cuantitativas abstractas, debe inspirarse en gran medida con la técnica
de observación. Y los estudios estadísticos y de otros tipos prácticos
recientes deben ser el sano elemento perturbador que constantemente
amenace e inquiete al teórico y le evite descansar en algún conjunto de
supuestos heredado y obsoleto.
Esta mutua compenetración entre la teoría económica cuantitativa y la
observación es, precisamente, la esencia de la econometría” (Página 2).
Es debatible si otros miembros de la Sociedad Econométrica
compartieron la opinión de Frisch con el mismo grado de convicción e
incluso hoy no queda duda de que hay economistas que piensan que esa
opinión está mal concebida o es impráctica. Empero, en esta revisión
sigo a Frisch y considero la evolución de la econometría desde su punto
de vista.
2. PRIMEROS INTENTOS DE INVESTIGACIÓN CUANTITATIVA EN
ECONOMÍA.
El análisis aplicado en economía ha tenido una larga y fructífera historia,
cuyos orígenes pueden rastrearse hasta el trabajo de los aritméticos
5
políticos del siglo XVI, como William Petty, Gregory King y Charles
Davenant. Los aritméticos políticos, conducidos por Sir William Petty,
fueron el primer grupo que usó de modo sistemático los hechos y las
cifras en sus estudios (véase, por ejemplo, Stone (1984) sobre los
orígenes de la contabilidad del ingreso nacional). A ellos les interesaban
sobre todo los problemas prácticos de su tiempo, mismos que iban
desde las cuestiones de los impuestos y del dinero hasta las del
comercio y de las finanzas internacionales. La característica más
distintiva de su enfoque era indudablemente cuantitativa y fue ello lo
que los diferenció del resto de sus contemporáneos. La aritmética
política, de acuerdo con Davenant (1698, Parte I: 2) era “el arte de
razonar, por medio de cifras, las cosas relacionadas con el gobierno”,
definición que tiene una asombrosa semejanza con lo que hoy podría
aseverarse acerca del análisis econométrico de la política. No obstante
que los aritméticos políticos estaban básica y comprensiblemente
preocupados por la medición estadística de los fenómenos económicos,
el trabajo de Petty y sobre todo el de King, tal vez representaron los
primeros ejemplos de un enfoque unificado entre lo cuantitativo y lo
teórico en la disciplina económica. Así es como Schumpeter, en su
Historia del análisis económico (1954), llegó a afirmar que las obras de
los aritméticos políticos ejemplifican a la perfección “lo que es la
econometría y lo que los econometristas tratan de lograr” (Schumpeter,
1954: 209).
6
El primer intento de análisis económico cuantitativo se le atribuye a
Gregory King, quien es reconocido por un esquema de precios y
cantidades que representa la relación entre las deficiencias en las
cosechas de trigo y las variaciones asociadas en los precios de dicho
producto. Este esquema de demanda, por lo común conocido por el
nombre de la “ley de Gregory King”, fue publicado por Charles Davenant
en 1699. Los datos de King son notables no sólo porque resultan ser los
primeros de su tipo, sino también porque generan un ajuste perfecto,
con una regresión cúbica, de los cambios en las cantidades sobre los
cambios en los precios, tal como posteriormente descubrieron, de
manera independiente, Whewell (1850), Wicksteed (1889) y Yule (1915).
Una interesante explicación acerca de los orígenes y naturaleza de la
“ley de King”, la ofrece Creedy (1985).
Otra consideración importante en el trabajo aplicado de King y otros en
este período inicial parece haber sido el descubrimiento de “leyes” en la
disciplina económica, semejantes a las de la física y otras ciencias
naturales. Esta búsqueda de leyes económicas tuvo, y en gran medida
todavía tiene, sus raíces en el deseo de ofrecerle a la disciplina
económica el estatus que Newton logró darle a la física. Ello, a su vez, se
reflejó en la adopción consciente de la investigación aplicada en la
disciplina económica. La revolución de Newton en física y la filosofía del
“determinismo físico” que vino a ser aceptada, por lo general, como
resultado de la primera, tuvo consecuencias de largo alcance para el
7
método así como para los objetivos de la investigación en la disciplina
económica. La naturaleza incierta de las relaciones económicas sólo
comenzó a ser considerada por completo con el nacimiento de la
estadística moderna a finales del siglo diecinueve y a medida que más
observaciones estadísticas sobre variables económicas empezaron a
aparecer. La ley de King, por ejemplo, fue considerada en términos
favorables por casi dos siglos antes de que fuera criticada por Ernest
Engel hacia 1861 en un estudio de la demanda por centeno en Prusia
(véase Stigler, 1954, pág. 104).
El desarrollo de la teoría estadística en manos de Galton, Edgewort y
Pearson fue adoptado en la disciplina económica con velocidad y
diligencia. Las primeras aplicaciones del análisis de correlación simple
en la disciplina económica parecen haber sido efectuadas por Yule
(1895, 1896) respecto a la relación entre la pobreza y el método de
aportar ayuda, así como por Hooker (1901) respecto a la relación entre
la tasa de matrimonio y el nivel general de prosperidad en el Reino
Unido, medido a través de una serie de indicadores económicos tales
como las importaciones, las exportaciones y el movimiento de los
precios de trigo. En sus aplicaciones, Hooker muestra estar claramente
consciente de las limitaciones del método del análisis de correlación, en
especial cuando se usan series económicas de tiempo y comienza su
contribución con una importante advertencia que sigue teniendo un
peso directo sobre el modo en que la econometría se practica hoy: “La
8
aplicación de la teoría de la correlación a los fenómenos económicos,
con frecuencia presenta muchos obstáculos más especialmente donde el
elemento de tiempo está implícito y, por ello, de ninguna forma se sigue
que un alto coeficiente de correlación sea una prueba de la conexión
causal entre dos variables o que un coeficiente bajo debe ser
interpretado como demostración de que no existe dicha vinculación”
(pág. 485).
También es importante observar que Hooker parece haber sido el
primero en usar los desfases de tiempo y los métodos de eliminación de
tendencia en la disciplina económica para cumplir con el propósito
específico de evitar problemas de correlación espúrea u oculta en series
de tiempo que, después, fueron destacados y analizados por Yule
(1926).
Benini (1907), el estadígrafo italiano, en opinión de Stigler (1954) fue el
primero en usar el método de regresión múltiple dentro de la disciplina
económica. Él estimó una función de demanda por café en Italia como
una función de los precios de este producto y del azúcar. Empero, como
observó Stigler (1954, 1962) y en forma más reciente detalló Christ
(1985), fue Henry Moore (1914, 1917) quien fue el primero en poner a la
estimación estadística de las relaciones económicas en el centro del
análisis cuantitativo en la disciplina económica. A través de sus
incesantes esfuerzos, así como de los de sus discípulos y seguidores
Paul Douglas, Henry Schultz, Holbrook Working, Fred Waugh y otros,
9
Moore creó efectivamente los fundamentos de la “economía
estadística”, la disciplina precursora de la econometría. Sin embargo, el
propio trabajo de Moore estuvo vinculado a su tratamiento más
caballeresco sobre las bases teóricas de sus regresiones y, por lo tanto,
fue dejado a otros proporcionar un marco de referencia teórico y
estadístico más satisfactorio para realizar el análisis de datos
económicos. El libro monumental de Schultz, La teoría y la medición de
la demanda (1938), en Estados Unidos, junto con el de Allen y Bowley,
Gasto familiar (1935), en el Reino Unido, así como las obras pioneras de
Lenoir (1913), Wright (1915, 1928), Working (1927), Tinbergen (1930) y
Frisch (1933b) sobre el problema de la “identificación”, representaron
avances decididos hacia ese objetivo. El libro de Schultz fue notable por
el modo en que pensó unificar la teoría con la medición en el análisis de
la demanda; mientras que la obra sobre el problema de la identificación
[econométrica] resaltó la importancia de la “estimación estructural” en
econometría y fue un factor crucial en los desarrollos subsecuentes de
los métodos econométricos bajo los auspicios de la Comisión Cowles
para la Investigación en Economía de Estados Unidos.
La investigación empírica inicial en la disciplina económica de ninguna
manera estuvo confinada al análisis de la demanda. Otra zona
importante fue la investigación sobre los ciclos económicos, la cual
efectivamente proporcionó las bases para el desarrollo posterior en
análisis de series de tiempo y la construcción de modelos
10
macroeconométricos así como su uso para efectos de pronóstico. A
pesar de que, gracias al trabajo de Sir William Petty y de otros escritores
pioneros, los economistas han estado conscientes de la existencia de
ciclos en las series económicas de tiempo, no fue sino hasta principios
del siglo diecinueve que el fenómeno de los ciclos económicos comenzó
a atraer la atención que merece. (Un interesante relato de los primeros
desarrollos en el análisis de las series económicas de tiempo lo ofrecen
Nerlove, Grether y Carvalho, 1979). Clement Juglar (1819-1905), el
médico francés que se volvió economista, fue el primero en usar de
modo sistemático datos en series de tiempo con el propósito específico
de estudiar los ciclos económicos y está considerado el descubridor de
un ciclo de inversión de alrededor de 7 a 11 años de duración,
comúnmente conocido como el ciclo de Juglar. Otros economistas. Como
Kitchin, Kuznets y Kondratieff, siguieron la obra de Juglar y descubrieron
el ciclo de inventarios (de 3 a 5 años de duración), el ciclo del sector de
la construcción (de 15 a 25 años de duración), y la onda larga (de 45 a
60 años de duración), respectivamente. El énfasis de esta investigación
inicial fue en la morfología de los ciclos y la identificación de las
periodicidades. Poca atención se prestó a la cuantificación de las
relaciones que podrían subyacer a los ciclos. En realidad, los
economistas que trabajaron en la Oficina Nacional de Investigación
Económica, en Estados Unidos, bajo la dirección de Wesley Mitchell,
consideraron que cada ciclo económico era un fenómeno único y, por lo
11
tanto, se rehusaron a usar métodos estadísticos excepto en forma no
paramétrica y exclusivamente para fines descriptivos (véase por
ejemplo Mitchell, 1928, así como Burns y Mitchell, 1947). Esta visión de
la investigación en ciclos económicos se puso en claro contraste con el
enfoque de Frisch y Tinbergen y culminó con el famoso intercambio
metodológico entre Tjalling Koopmans y Rutledge Vining acerca de los
roles de la teoría y de la medición en la disciplina económica aplicada en
general y en la investigación sobre ciclos económicos en particular. (Este
intercambio apareció en la Review of Economics and Statistics, agosto
de 1947 y mayo de 1949).
3. EL NACIMIENTO DE LA ECONOMETRÍA
Aunque, como expliqué antes, el análisis económico cuantitativo ya
tiene tres siglos de antigüedad, la econometría como rama reconocida
en la disciplina económica sólo comenzó a surgir en las décadas de 1930
y 1940 con la creación de la Sociedad Econométrica y de la Comisión
Cowles de Investigación Económica, en Estados Unidos, así como del
Departamento de Economía Aplicada (DAE), dirigido por Richard Stone,
en el Reino Unido. (Una narración paso a paso y muy amena sobre la
fundación de las primeras dos organizaciones puede ser encontrada en
Christ (1952, 1983), mientras que la historia del DAE está descrita en
12
Stone, 1978). Las razones del paso de más de dos siglos entre el trabajo
pionero de Petty y el reconocimiento de la econometría como una rama
de la disciplina económica son complejas y es posible que se
comprendan mejor en conjunción con, y a la luz de, las historias del
desarrollo de la teoría económica, la contabilidad del ingreso nacional, la
estadística matemática y la computación. Tal tarea claramente va más
allá de los objetivos de este trabajo. Sin embargo, una cosa resulta
evidente: dada la naturaleza multidisciplinaria de la econometría,
hubiese sido altamente improbable que hubiera aparecido como una
rama seria de la disciplina económica si no hubiese sido por el desarrollo
casi sincronizado de la economía matemática y las teorías sobre la
estimación y la inferencia estadística a fines del siglo diecinueve y la
parte inicial del siglo veinte. (Una interesante descripción de la historia
de los métodos estadísticos puede hallarse en Kendall, 1968).
De los cuatro componentes de la econometría, a saber, la teoría a
priori, los datos, los métodos econométricos y las técnicas de cómputo,
fue, y hasta una medida muy grande todavía lo es, el problema del
método econométrico el que ha llamado casi toda la atención. El primer
debate importante con relación al método econométrico se desarrolló
respecto al grado de aplicación del cálculo de probabilidades y de la
recién establecida teoría muestral de R. A. Fisher al análisis de los datos
económicos. Como Morgan (1986) explicó con cierto detalle, antes de la
década de 1930 la aplicación de las teorías matemáticas de la
13
probabilidad a los datos económicos era rechazada por la mayoría de los
economistas, independientemente de si estaban interesados en la
investigación del análisis de la demanda o de los ciclos económicos.
Inclusive Frisch era muy escéptico sobre el valor de la teoría muestral y
de las pruebas de significancia estadística en econometría. No obstante,
su objeción al uso de pruebas de significancia estadística no estaba
fundada en las razones epistemológicas que se encontraban detrás de
las críticas a la econometría formuladas por Robbins y Keynes. No, Frisch
estaba más preocupado por los problemas de multicolinealidad y por los
errores de medición que él creía, junto con muchos otros, que afectaban
a todas las variables económicas observadas en condiciones
experimentales no controladas. Al llamar la atención sobre la
determinación ficticia creada por los errores aleatorios en las
observaciones estadísticas, Frisch (1934) lanzó un severo ataque al
análisis de regresión y correlación que sigue siendo válido tanto ahora
como entonces. Con su característica claridad y arrojo, Frisch afirmó:
“Como una cuestión de hecho, creo que una parte sustancial de los
análisis de regresión y de correlación que se han efectuado con datos
económicos en los años recientes carece totalmente de sentido por esta
misma razón [los errores de medición aleatorios]” (1934: 6).
Para poder manejar este problema de los errores de medición, Frisch
desarrolló su análisis de confluencia y el método de los “mapas de
conglomerados”. Aunque su método fue usado por algunos
14
econometristas, sobre todo Tinbergen (1939) y Stone (1945), no
encontró mucho favor de parte de toda la profesión. Esto se debió,
primero, a la naturaleza indeterminada del análisis de confluencia y,
segundo, a las racionalizaciones probabilísticas alternativas del análisis
de regresión que fueron especificadas por Koopmans (1932) y Haavelmo
(1944). Koopmans propuso una síntesis de los dos enfoques a la
estimación de relaciones económicas, es decir, el enfoque de errores en
las variables de Frisch y el enfoque de errores en las ecuaciones de
Fisher, usando el marco de referencia de la verosimilitud; así, rechazó la
idea prevaleciente en ese tiempo respecto a que la presencia de errores
de medición, por sí misma, invalida la aplicación de la “teoría muestral”
al análisis de los datos económicos. En sus propias palabras: “Es
convicción del autor que lo esencial de la crítica de Frisch al uso de la
especificación de Fisher en el análisis económico también puede
formularse y ejemplificarse a partir del esquema conceptual y de la
terminología de la teoría muestral, por lo que esta investigación es un
intento de hacer precisamente eso (Koopmans, 1937: 30). La
formulación del modelo de errores en las variables en términos de un
modelo probabilístico no significó, pese a ello, que las críticas de Frisch
contra el análisis de regresión no fueran importantes o que pudieran ser
ignoradas. Lo opuesto resultó ser exactamente el caso. La formulación
probabilística ayudó a concentrar la atención en las razones de la
indeterminación de la solución al problema propuesta por Frisch.
15
Además mostró que sin contar con alguna información a priori o previa,
por ejemplo, respecto a la importancia relativa de los errores de
medición en diferentes variables, no sería posible una solución
determinada al problema de estimación paramétrica. Lo importante y
totalmente novedoso de la contribución de Koopmans fue el hecho de
que demostró las características de las relaciones económicas incluso en
circunstancias donde se requerían, por la naturaleza específica de los
datos económicos, desviaciones fundamentales respecto al marco de
referencia tradicional de la regresión.
Sin embargo, Koopmans no enfatizó la cuestión más amplia del uso de
modelos estocásticos en econometría. Fue Haavelmo quien explotó la
idea por completo y forzosamente defendió un enfoque probabilístico
explícito para la estimación y prueba de hipótesis con referencia a las
relaciones entre variables económicas. En su artículo clásico, publicado
como suplemento de Econométrica en 1944, Haavelmo defendió al
enfoque probabilístico con base en dos cuestiones: primera, afirmó que
el uso de medidas estadísticas, como las medias aritméticas, los errores
estándar y los coeficientes de correlación, para propósitos de inferencia
estadística, se justifica sólo si el proceso que genera los datos puede ser
esquematizado en términos de un modelo probabilístico: “Porque
ninguna herramienta desarrollada en la teoría estadística tiene
significado –excepto, tal vez, para propósitos descriptivos– sin ser
referida a algún esquema estocástico” (Haavelmo, 1944: iii). Segunda, el
16
autor afirmó que el enfoque probabilístico, lejos de tener aplicación
limitada a datos económicos, debido a su generalidad es, de hecho,
particularmente adecuado para el análisis de observaciones
“dependientes” y “no homogéneas”, mismas que con frecuencia están
presentes en la investigación económica. Haavelmo estaba convencido
de que lo que se necesitaba era: “Suponer que todo el conjunto de, por
ejemplo, n observaciones, fuera considerado como una observación de n
variables (o un ‘punto muestral’) que sigue una ley de probabilidad
conjunta de n dimensiones, cuya existencia puede ser puramente
hipotética. Entonces uno puede probar hipótesis respecto de esta ley de
probabilidad conjunta, y obtener inferencias acerca de su forma posible,
a través de un punto muestral (en n dimensiones)” (Haavelmo, 1944: iii).
Aquí el autor en cuestión usa el concepto de distribución probabilística
conjunta como herramienta de análisis y no necesariamente como una
representación de la “realidad”. El modelo probabilístico es considerado
como una abstracción conveniente que tiene el objetivo de comprender
o explicar o predecir eventos del mundo real. Empero, no se afirma que
ese modelo representa a la realidad en todos sus detalles. Para proceder
a realizar análisis cuantitativo en cualquier esfera científica, incluida la
economía, es inevitable contar con cierto grado de formalización y el
modelo probabilístico es una de tales formalizaciones. Por supuesto,
esta perspectiva no evita muchos de los problemas epistemológicos que
se encuentran alrededor del concepto de “probabilidad” en cualquiera
17
de sus variados sentidos (subjetiva, frecuencial, lógica, etcétera), donde
el término ha sido usado, ni pretende evitarlos. Tal como afirma el
propio Haavelmo (1944: 43): “La pregunta no es si existen las
probabilidades o no sino –si procedemos como si existieran– si somos
capaces de realizar afirmaciones acerca de fenómenos reales que son
“correctas para todo propósito práctico”.
El atractivo del modelo probabilístico como un método de abstracción
se deriva de su generalidad y de su flexibilidad, así como del hecho de
que no existe una alternativa viable disponible.
La contribución de Haavelmo también fue importante porque
constituyó la primera defensa sistemática contra las muy influyentes
críticas de J. M. Keynes (1939) a la investigación pionera de Tinbergen
en materia de ciclos económicos y modelística macroeconométrica. El
objetivo de esa investigación de Tinbergen era doble: Primero, mostrar
cómo un modelo macroeconométrico podía construirse para después
usarlo en simulación y en evaluación de políticas económicas
(Tinbergen, 1937). Segundo, “someter a pruebas estadísticas algunas de
las teorías que habían sido adelantadas respecto al carácter y causas de
las fluctuaciones cíclicas en la actividad económica” (Tinbergen, 1939:
11). Tinbergen supuso un papel bastante limitado para el o la
econometrista en el proceso de someter a las teorías económicas a
pruebas estadísticas y afirmó que era responsabilidad del o de la
“economista” especificar las teorías a ser sometidas a pruebas
18
estadísticas. Observaba, igualmente, que el papel del o de la
econometrista era pasivo puesto que consistía en estimar los
parámetros de una relación económica ya especificada por el o la
economista sobre antecedentes a priori o previos. Por lo que respecta a
los métodos estadísticos, Tinbergen usó, de modo complementario, el
método de regresión y el método de análisis de confluencia propuesto
por Frisch. Aunque Tinbergen discutió los problemas de la determinación
de los desfases de tiempo, de la estabilidad estructural y de la selección
de formas funcionales, no adelantó ninguna metodología para su
tratamiento. En breve, Tinbergen enfocó el problema de probar teorías
desde una posición metodológica bastante débil. Keynes observó estas
debilidades y las atacó con su introspección característica (Keynes,
1939). Una gran parte de la revisión de Keynes estaba, de hecho,
interesada en las dificultades técnicas asociadas con la aplicación de los
métodos estadísticos a los datos económicos. Aparte de los problemas
de las observaciones “dependientes” y “no homogéneas” antes
mencionadas, Keynes también enfatizó los problemas de mala
especificación del modelo, multicolinealidad, forma funcional,
especificación dinámica, estabilidad estructural, así como las dificultades
asociadas con la medición de variables teóricas. Ante estas dificultades
técnicas y las advertencias previas de Keynes respecto a la
“generalización inductiva”, propuestas en su Tratado sobre probabilidad
(1921), no resulta sorprendente que Keynes centrara su ataque contra el
19
intento de Tinbergen por probar teorías acerca de los ciclos económicos
y que casi ignorara por completo la importancia práctica del trabajo de
Tinbergen sobre la construcción de modelos econométricos y el análisis
de las políticas económicas (para mayores detalles, véase Pesaran y
Smith, 1985A).
En su propia revisión sobre la obra de Tinbergen, Haavelmo reconoció
la carga principal de las críticas a Tinbergen por Keynes y otros autores,
y afirmó que era necesario que se consideraran estas críticas dentro de
un marco de referencia estadístico general. Como hemos visto, la
respuesta de Haavelmo, a pesar de las opiniones expresadas por Keynes
y otros autores, fue apoyarse más, y no menos, en el modelo
probabilístico como la base de la metodología econométrica. Los
problemas técnicos observados por Keynes y otros autores podrían ser
entonces tratados de una manera sistemática a través de modelos
probabilísticos formales. Una vez que se especificara el modelo
probabilístico, podría obtenerse una solución a los problemas de
estimación paramétrica y de inferencia estadística mediante los
métodos clásicos o los Bayesianos. Por lo tanto, quedaba poco frente al
avance de un rápido desarrollo de los métodos econométricos.
4. AVANCES TEMPRANOS EN LOS MÉTODOS ECONOMÉTRICOS
20
La contribución de Haavelmo marcó el principio de una nueva era en
econometría y limpió el camino hacia un rápido desarrollo de la
econometría a ambos lados del Atlántico. El método de verosimilitud
pronto se convirtió en una importante herramienta de estimación
paramétrica y de inferencia estadística, aunque inicialmente fue usado
sobre todo en la Comisión Cowles, donde el propio Haavelmo había
estado un corto período como investigador asociado.
La primera ruptura importante llegó con una solución formal al
problema de identificación econométrica que ya había sido formulada
por E. Working (1927). Al definir el concepto de “estructura” en términos
de la distribución de las observaciones de probabilidad conjunta,
Haavelmo (1944) presentó un concepto muy general acerca de la
identificación econométrica y obtuvo las condiciones necesarias y
suficientes para la identificación del sistema de ecuaciones completo,
incluyendo los parámetros de la distribución probabilística de las
perturbaciones estocásticas. Aunque general, su solución fue bastante
difícil de ser aplicada en la práctica. Koopmans, Rubin y Leipnik, en un
trabajo presentado en una conferencia organizada por la Comisión
Cowles en 1945, usaron el término “identificación” por vez primera en
econometría y aportaron las hoy conocidas condiciones de orden y
rango para la identificación de una sola ecuación en un sistema de
ecuaciones lineales simultáneas. La solución al problema de
identificación propuesta en Koopmans (1949) así como en Koopmans,
21
Rubin y Liepnik (1950), se obtuvo en el caso donde existen restricciones
lineales a priori [es decir, aportadas por la teoría económica] sobre los
parámetros estructurales. Ellos obtuvieron las condiciones de orden y
rango para la identificación de una sola ecuación perteneciente a un
sistema de ecuaciones completo sin referencia a la manera en que las
variables del modelo se clasifican en endógenas y exógenas. Otras
soluciones al problema de la identificación, que también permiten
restricciones sobre los elementos de la matriz de varianzas y
covarianzas de las perturbaciones estructurales, fueron ofrecidas
después por Wegge (1965) y por Fisher (1966). Una revisión completa
de algunos de los desarrollos más recientes en este tema pueden
encontrarse en Hsiao (1983).
Hablando en términos generales, se dice que un modelo está
identificado si todos sus parámetros estructurales pueden obtenerse a
partir del conocimiento de su distribución probabilística conjunta
subyacente. En el caso de los modelos de ecuaciones simultáneas que
prevalecen en econometría, la solución al problema de identificación
depende de si existe un número suficiente de restricciones a priori para
obtener los parámetros estructurales a partir de los parámetros de la
forma reducida del sistema en cuestión. Aunque el propósito del modelo
y el foco de atención del análisis en explicar las variaciones de algunas
variables en términos de las variaciones no explicadas de las otras
variables es una consideración importante, en última instancia la
22
especificación de un mínimo número de restricciones de identificación
fue visto por los investigadores de la Comisión Cowles como la función y
la responsabilidad de la “teoría económica”. Esta actitud fue mucho muy
reminiscente respecto al enfoque adoptado antes por Tinbergen sobre
su investigación del ciclo de negocios: la función de la teoría económica
era proporcionar la especificación del modelo econométrico y la de la
econometría era aportar métodos estadísticos óptimos para la
estimación de los parámetros estructurales de un sistema de ecuaciones
simultáneas estocásticas especificado a priori.
Al principio, bajo la influencia de la contribución de Haavelmo, se puso
énfasis en el método de estimación por máxima verosimilitud (MV)
debido a que era el que generaba estimaciones consistentes. Koopmans
y otros autores (1950) propusieron el “método de máxima verosimilitud
para conservar toda la información”, conocido más comúnmente como
el método de Máxima Verosimilitud con Información Completa (MVIC) y
Anderson y Rubin (1949), con base en una idea de M. A. Girshick,
desarrollaron el método de Máxima Verosimilitud con Información
Limitada (MVIL). Ambos métodos se apoyan en la distribución
probabilística conjunta de las variables endógenas y generan
estimaciones paramétricas consistentes, donde el primero utiliza todas
las restricciones a priori disponibles y el segundo sólo aquéllas
relacionadas con la ecuación que se está estimando. Pronto aparecieron
otros métodos de estimación menos estrictos en términos
23
computacionales, tanto para la estimación totalmente eficiente de un
sistema de ecuaciones completo como para la estimación de una sola
ecuación perteneciente a un sistema de ecuaciones. El procedimiento
denominado Mínimos Cuadrados Bietápicos (MC2E), que implica un
orden de magnitud de cómputo parecido al del método mínimo
cuadrático, fue propuesto en forma independiente tanto por Theil (1954,
1958) como por Basmann (1957). Más o menos en ese mismo tiempo, el
método de variables instrumentales (VI), que había sido desarrollado
una década antes por Reiersol (1941, 1945) y por Geary (1949) para
estimar modelos de errores en las variables, fue aplicado por Sargan
(1958) a la estimación de modelos en ecuaciones simultáneas.La
principal contribución de Sargan consistió en proporcionar una técnica
asintóticamente eficiente para utilizar instrumentos excedentes en la
aplicación del método VI a problemas econométricos. Una clase de
estimadores relacionados, conocidos como los estimadores de la clase k,
también fueron propuestos por Theil (1961). Los métodos para estimar
sistemas de ecuaciones completos que fueran menos complicados que
el método MVIL también comenzaron a aparecer en las revistas
especializadas. Ellos incluyeron al método Mínimos Cuadrados
Trietápicos (MC3E) elaborado por Zellner y Theil (1962); el método de
variables instrumentales iterativos (VII), basado en el trabajo de
Lyttkens (1970), Brundy y Jorgenson (1971), Dhrymes (1971); y los
estimadores de la clase k para sistemas (CkS) aportados por Srivastava
24
(1971) y Savin (1973). Una síntesis interesante sobre distintos
estimadores para sistemas en ecuaciones simultáneas fue
proporcionada por Hendry (1976). Las obras sobre estimación de
modelos en ecuaciones simultáneas son numerosas y siguen
apareciendo. Se han hecho importantes contribuciones en las áreas de
estimación de modelos simultáneos no lineales, el modelo de regresión
para ecuaciones aparentemente no relacionadas propuesto por Zellner
(1962) y los modelos de expectativas racionales simultáneas, mismos
que son explicados con más detalle después. Los estudios recientes se
han enfocado también a trabajar con las propiedades muestrales finitas
de los estimadores alternativos en el modelo de ecuaciones simultáneas.
Quienes estén interesados deben consultar las definiciones respectivas
en Eatwell, Milgate y Nerlove; editores, 1987, o los excelentes artículos
de síntesis, elaborados por Hausman (1983), Amemiya (1983) y Phillips
(1983).
Aunque la iniciativa de la Comisión Cowles condujo a una rápida
expansión de las técnicas econométricas, su aplicación a problemas
económicos concretos fue bastante lenta. Esto se debió, en parte, a una
falta de aparatos de computación adecuados pero una razón más
fundamental fue el énfasis de toda la Comisión Cowles en el problema
de simultaneidad, al punto de que casi se excluyó por completo el
análisis de otros problemas que ya se sabía que afectaban al análisis de
regresión. Desde las primeras aplicaciones del análisis de correlación a
25
los datos económicos, efectuadas por Yule y Hooker, el factor más
importante que explica el escepticismo de la profesión respecto al valor
del análisis de regresión en la disciplina económica fue la llamada
dependencia serial en las series económicas de tiempo y el problema de
la correlación espúrea al cual habría dado lugar. Una solución
satisfactoria al problema de la correlación espúrea, por lo tanto, se
necesitaba antes de que el análisis de regresión para series económicas
de tiempo pudiera ser tomado en serio. La investigación en este
importante tópico comenzó a mitad de la década de 1940 bajo la
dirección de Richard Stone en el Departamento de Economía Aplicada
(DAE) de la Universidad de Cambridge, Inglaterra, como parte de una
investigación más amplia acerca de la medición y análisis del gasto en
consumo del Reino Unido (véase Stone y otros autores, 1954A). Stone
había iniciado este trabajo durante la guerra de 1939-1945 en el
Instituto Nacional de Investigación Económica y Social. Aunque los
primeros pasos para resolver el problema de la correlación espúrea ya
habían sido dados por Aitken (1934/35) y Champernowne (1948), la
investigación en el DAE presentó el problema, y su posible solución, a
los economistas prácticos. Orcutt (1948) estudió el patrón de
autocorrelación de series económicas de tiempo y demostró que la
mayoría de este tipo de series se puede representar mediante procesos
autorregresivos simples con coeficientes de regresión similares,
resultado que fue un precursor importante para el trabajo de Zellner y
26
Palm (1974) que se explica después. Subsecuentemente, en un artículo
clásico, Cochrane y Orcutt (1949) señalaron la importancia de reconocer
que la consideración fundamental en el análisis de series de tiempo
estacionarias era la autocorrelación del término de perturbación
estocástica estimado o error en la ecuación de regresión, y no la
autocorrelación de la propia serie económica de tiempo en cuestión. De
esta forma, cambiaron el centro de atención a la autocorrelación de las
perturbaciones estocásticas como la principal fuente de interés. En
segundo lugar, propusieron su propio método iterativo, hoy bien
conocido, para calcular los coeficientes de regresión bajo el supuesto de
que los errores de regresión siguen un proceso autorregresivo de primer
orden.
Otro desarrollo importante y relacionado, en el DAE, fue el trabajo de
Durbin y Watson (1950, 1951) sobre el método para probar la
autocorrelación residual en el modelo de regresión clásico. La nueva
propuesta inferencial para probar la existencia o no de correlación serial
en el caso de datos observados en series de tiempo, ya había sido
sugerida en von Neumann (1941) y en Hart y von Neumann (1942).
Empero, la aportación de Durbin y Watson fue esencial desde un punto
de vista práctico porque generó una prueba de límites para la
autocorrelación serial, que puede aplicarse sin importar los valores
reales de los regresores.La independencia de los límites críticos para el
estadístico Durbin Watson en la matriz de regresores permitió la
27
aplicación del estadístico como una prueba de diagnóstico general, la
primera en su tipo dentro de la econometría. Las contribuciones de
Cochrane y Orcutt y de Durbin y Watson, bajo la dirección de Stone,
marcaron el inicio de una nueva etapa en el análisis de datos
económicos en series de tiempo y sentaron la base de lo que ahora se
conoce como el enfoque econométrico de series de tiempo.La
independencia de los límites críticos para el estadístico Durbin Watson
en la matriz de regresores permitió la aplicación del estadístico como
una prueba de diagnóstico general, la primera en su tipo dentro de la
econometría. Las contribuciones de Cochrane y Orcutt y de Durbin y
Watson, bajo la dirección de Stone, marcaron el inicio de una nueva
etapa en el análisis de datos económicos en series de tiempo y sentaron
la base de lo que ahora se conoce como el enfoque econométrico de
series de tiempo.
La importancia de la investigación en el DAE [Departamento de
Economía Aplicada, siglas en inglés] no se confinó al desarrollo de
métodos econométricos. El trabajo de Stone sobre los sistemas de gasto
lineal representó uno de los primeros intentos de usar la teoría de modo
directo y explícito en la investigación econométrica aplicada. Esto fue un
evento importante. Antes, la teoría económica tenía que ser usada a
todo lo ancho y largo de la investigación aplicada sólo de manera
indirecta y como un método general de decidir sobre la lista de variables
a ser incluidas en los modelos de regresión y, de manera ocasional, de
28
asignar signos a los parámetros del modelo [estática comparativa]. (Para
una excepción notable, véase Marschak y Andrews, 1944). En su trabajo
seminal, que apareció en The Economic Journal, Stone (1954b) hizo una
ruptura significativa con esta tradición y usó a la teoría no como un
substituto del sentido común, sino como un marco de referencia formal
para obtener restricciones “comprobables” sobre los parámetros del
modelo empírico. Esto resultó un avance destacado hacia la unificación
formal de la teoría y la medición demandada por Frisch y buscada
previamente por Schultz.
5. CONSOLIDACIÓN Y DESARROLLOS ULTERIORES
El trabajo en la Comisión Cowles sobre la identificación y la estimación
del modelo en ecuaciones simultáneas y el desarrollo de técnicas
adecuadas para manejar el problema de la regresión espúrea en el DAE
abrió el camino a su amplia aplicación a los problemas económicos. Esto
fue apoyado en forma significativa por la rápida expansión de las
computadoras, la aceptación generalizada de la teoría keynesiana y la
disponibilidad aumentada en materia de datos estadísticos en series de
tiempo para las cuentas de ingreso nacional. Como dijo Klein (1971): «la
teoría keynesiana estaba, sencillamente, “pidiendo” ser vaciada en un
molde empírico» (p. 416). La versión IS-LM de la teoría keynesiana
proporcionó un marco de referencia flexible y conveniente para la
construcción de los modelos macroeconómicos para una diversidad de
29
propósitos, desde los pedagógicos, los de pronósticos a corto y mediano
plazo, hasta la evaluación de políticas. En vista de las críticas de Keynes
a la econometría, tal vez sea irónico que su teoría macroeconómica
viniera a jugar un papel tan central en el avance de la econometría en
general y en el de la modelística macroeconométrica en particular.
Inspirado por la teoría keynesiana y por la obra pionera de Tinbergen,
Klein (1947, 1950), fue el primero en construir un modelo
macroeconométrico en la tradición de la Comisión Cowles. Pronto otros
autores siguieron la guía de Klein: ejemplos notables de modelos
macroeconométricos iniciales incluyen el modelo Klein-Goldberger y el
modelo Brookings- SSRC para la economía estadunidense así como el
modelo de la Escuela de Negocios de Londres y el modelo del Proyecto
Crecimiento de la Universidad de Cambridge para la economía del Reino
Unido. Durante un breve espacio de tiempo se construyeron modelos
macroeconométricos para casi todos los países industrializados e incluso
para algunas economías subdesarrolladas y economías de planificación
centralizada. Los modelos macroeconométricos se convirtieron en una
herramienta importante para el pronóstico ex ante y para el análisis de
política económica y comenzaron a crecer tanto en tamaño como en
nivel de sofisticación. El ambiente económico relativamente estable de
las décadas de 1950 y 1960 fue un factor importante del éxito inicial
disfrutado por los modelos macroeconométricos. Por supuesto, es una
cuestión distinta descubrir si el uso de modelos macroeconométricos en
30
la formulación de políticas contribuyó a la estabilidad económica de este
lapso o no.
La construcción y utilización de modelos a gran escala presentó un
buen número de problemas computacionales importantes, cuya solución
fue de significación fundamental no sólo para el desarrollo de la
modelística macroeconométrica sino también para la práctica
econométrica general. En este aspecto, los avances en la tecnología de
cómputo fueron claramente instrumentales y es difícil imaginar cómo
podrían haberse resuelto sin ellos los complejos problemas de cómputo
implícitos en la estimación y simulación de modelos a gran escala. La
disponibilidad aumentada en materia de mejores y más veloces
computadoras fue también instrumental respecto a los tipos de
problemas estudiados y a los tipos de soluciones ofrecidas por la teoría
económica. Por ejemplo, los recientes desarrollos en el área de la
macroeconometría (véase la sección 6.3 más adelante) difícilmente
podrían haber sido posibles si no fuera por los muy importante avances
recientes en materia de computación.
No obstante, el desarrollo de modelos económicos para análisis de
política no quedó confinado a los modelos macroeconométricos. Los
modelos de insumo producto interindustriales que se originaron a partir
del trabajo seminal de Leontief (1936, 1941, 1951), y los modelos de
simulación microanalítica iniciados por Orcutt y sus colegas (1961),
fueron algunos de los otros enfoques determinantes que deberían
31
mencionarse aquí. Empero, fue el surgimiento del interés en la
modelística macroeconométrica el que proporcionó el ímpetu simple
más importante para el desarrollo posterior de los métodos
econométricos. Ya he mencionado algunos de los avances que
ocurrieron en el campo de la estimación del modelo en ecuaciones
simultáneas. Otras áreas en las que la econometría atestiguó desarrollos
importantes incluyen la especificación dinámica, las variables latentes,
la formación de expectativas, las variables dependientes limitadas, los
modelos de selección discreta, los modelos de coeficientes aleatorios,
los modelos de desequilibrio, y la estimación no lineal. El enfoque
bayesiano en econometría también se ha desarrollado muy
vigorosamente, gracias a los esfuerzos incansables de Zellner, Drèze y
sus colegas (véase Drèze y Richard (1983), y Zellner (1984, 1985) para
las referencias relevantes a los estudios teóricos y aplicados en
econometría bayesiana). Sin embargo, el problema de la especificación
dinámica fue el que inicialmente atrajo la mayor atención. En un trabajo
importante, Brown (1952) modeló la hipótesis de persistencia de hábitos
en la conducta del consumidor mediante la introducción de valores
desfasados en los gastos de consumo a lo que de otra forma no era sino
una función de consumo keynesiana estática. Este fue un paso
fundamental hacia la incorporación de la dinámica en la investigación
econométrica aplicada y permitió la notable distinción entre los
impactos de corto y de largo plazos de los cambios en el ingreso sobre el
32
consumo. Pronto otros investigadores siguieron la guía de Brown y
emplearon su especificación autorregresiva en sus trabajos aplicados.
El siguiente desarrollo importante en el área de la especificación
dinámica fue el modelo de desfases distribuidos. Aunque la idea de los
desfases distribuidos ya era familiar a los economistas gracias al trabajo
pionero de Irving Fisher (1930) sobre la relación entre la tasa de interés
nominal y la tasa de inflación esperada, su aplicación en econometría no
se tomó en serio sino hasta mediados de la década de 1950. El modelo
de desfase geométrico distribuido fue usado por vez primera por Koyck
(1954) en un estudio sobre la inversión. Koyck llegó al modelo de
desfase geométrico distribuido vía la hipótesis de expectativas
adaptativas. Esta misma hipótesis fue empleada después por Cagan
(1956) en un estudio sobre la demanda por dinero en condiciones de
hiperinflación, por Friedman (1957) en un trabajo sobre el
comportamiento del consumo agregado y por Nerlove (1958a) en una
investigación sobre el fenómeno económico conocido como el teorema
de la telaraña [cómo se logra en forma dinámica el equilibrio de precios
y cantidades en un mercado, de acuerdo con la teoría neoclásica (nota
del traductor)]. El modelo de desfase geométrico distribuido después fue
generalizado por Solow (1960), Jorgenson (1966) y otros, y fue ocupado
de manera extensa en los estudios aplicados sobre la inversión y el
comportamiento del consumo agregado. Fue aproximadamente
entonces cuando Almon (1965) aportó una generalización polinómica de
33
la distribución desfasada aritméticamente, misma que propuso Fisher en
1937. Dicha generalización después fue perfeccionada por Shiller
(1973). Otras formas de especificación dinámica consideradas en esta
línea incluyeron el modelo de ajuste parcial (Nerlove, 1958b; Eisner y
Strotz, 1963) así como el modelo de acelerador flexible multivariado
(Treadway, 1971) y el trabajo de Sargan (1964) sobre el análisis
econométrico de series de tiempo que discutiremos con mayor detalle
más adelante. Una excelente revisión sobre todas estas obras que tratan
acerca de los modelos de desfase distribuido y ajustes parciales es
aportada por Griliches (1967).
Otra aportación al desarrollo de la modelística dinámica en
econometría también fue un resurgimiento del interés en los métodos
para analizar series de tiempo, usados principalmente en la predicción
del comportamiento de los negocios a corto plazo. El trabajo dominante
en este campo fue el de Box y Jenkins (1970), quienes, al elaborar sobre
las obras pioneras de Yule (1921, 1926), Slutsky (1927), Wold (1938),
Whittle (1963) y otros, propusieron métodos de cálculo operativos y
asintóticamente eficientes para la estimación y predicción de procesos
autorregresivos y de medias móviles univariados (conocidos como
procesos ARMA). Los modelos para series de tiempo proporcionaron una
atalaya importante y relativamente barata para evaluar la precisión
predictiva de los modelos econométricos. Al inicio, los modelos para
series de tiempo univariadas fueron vistos como modelos mecánicos de
34
“caja negra”, con poca o ninguna base en teoría económica. Su uso fue
considerado fundamentalmente relevante en la predicción a corto plazo.
El valor potencial de los modernos métodos para el análisis de series de
tiempo en econometría fue, empero, subrayado en la obra de Cooper
(1972) y Nelson (1972), quienes demostraron la buena ejecución
predictiva de modelos Box-Jenkins univariados comparados con la de los
modelos econométricos grandes [o sea, de más de 100 ecuaciones (nota
del traductor)]. Estos resultados dieron lugar a una pregunta importante
sobre la adecuación de los modelos econométricos grandes para la
predicción así como para la evaluación de políticas económicas. Se
señaló que un modelo econométrico estructural especificado
correctamente, por lo menos en teoría, debería arrojar pronósticos más
precisos que los generados por un modelo univariado para series de
tiempo. La justificación teórica de esta opinión fue aportada por Zellner
y Palm (1974), seguidos por Trivedi (1975), Portero y Wallis (1976),
Wallis (1977) y otros. Estos estudios mostraron que los modelos Box-
Jenkins de hecho podían ser obtenidos como soluciones en formas
finales univariadas para los modelos econométricos estructurales
lineales siempre y cuando a los segundos se les permitiera tener una
especificación dinámica lo suficientemente rica. En teoría, el modelo
para series de tiempo puro siempre se puede incorporar dentro de la
estructura de un modelo econométrico y en este sentido no representa
una alternativa que rivalice con la modelística econométrica. Estos
35
documentos además resaltaron la importancia de la especificación
dinámica en los modelos econométricos y, en particular, evidenciaron el
hecho de que los modelos econométricos cuya ejecución [en términos
predictivos (nota del traductor] es mejorada por modelos para series de
tiempo univariados simples probablemente deben sufrir de graves
errores de especificación.
La respuesta de la profesión econométrica a esta crítica del análisis
para series de tiempo fue bastante confusa y adoptó distintas formas.
De un lado, una plena integración de los métodos para series de tiempo
y del análisis econométrico tradicional ha sido defendida por Zellner y
Palm, Wallis y otros. Esta mezcla de los métodos econométricos que
Zellner ha llamado SEMTSA (siglas en inglés de Análisis para Series de
Tiempo y Modelística Econométrica Estructural: Structural Econometric
Modelling Time-Series Analysis) es un enfoque que se discute con cierto
detalle en Zellner (1979). El enfoque SEMTSA enfatiza que los modelos
econométricos estructurales lineales dinámicos son un caso especial de
los procesos de series de tiempo multivariados y señala que los métodos
para series de tiempo deben ser usados para verificar la adecuación
práctica de las formas finales de las ecuaciones y de las formas de los
desfases distribuidos (o funciones de transferencia) implícitas en el
modelo estructural supuesto por cada investigación econométrica. El
proceso modelístico continúa hasta que las estimaciones implícitas de
las formas finales de las ecuaciones y las formas de los desfases
36
distribuidos del modelo son compatibles en la práctica con las
estimaciones de las series de tiempo directas para estas ecuaciones. Un
“matrimonio” alternativo de la econometría y las series de tiempo fue
desarrollado por Sargan, Hendry y otros que trabajan en la London
School of Economics and Political Science [Escuela de Economía y
Ciencia Política de Londres, LSE]. Este matrimonio se basa en las
siguientes dos premisas: (i) Las consideraciones económicas teóricas
pueden proporcionar mejor la especificación de las relaciones de
equilibrio o relaciones a largo plazo entre variables. Poco puede inferirse
a partir de un razonamiento a priori respecto a los desfases temporales
y la especificación dinámica de las relaciones econométricas. Y (ii) El
mejor enfoque para la identificación de los desfases en los modelos
econométricos es usar los métodos para series de tiempo, modificados
apropiadamente para permitir la existencia de relaciones a largo plazo
entre las variables económicas que son relevantes según la teoría
económica.
A pesar de que el enfoque es general y de que en principio puede sea
aplicado a sistemas de ecuaciones, en la práctica ha sido básicamente
usado para modelar una variable a la vez. Los orígenes de este enfoque
se pueden hallar en dos artículos sumamente influyentes de Sargan
(1964) sobre la modelística de los salarios monetarios, así como de
Davidson y otros (1978) sobre la modelística de los gastos en consumo
de bienes no durables. Al enfocar la modelística de una variable
37
endógena a la vez, el enfoque LSE representa una ruptura parcial con el
enfoque estructural defendido por la Comisión Cowles pero en un
sentido esencial el enfoque LSE sigue aceptando el énfasis que la CC
coloca sobre un razonamiento económico a priori, pese a tener la forma
de relaciones de equilibrio o de relaciones a largo plazo.
6. DESARROLLOS RECIENTES
A partir de la década de 1970, el ambiente económico mundial comenzó
a tener cambios creados en gran parte por la eliminación del sistema
BrettonWoods y por la cuadruplicación de los precios del petróleo. Así, el
desarrollo econométrico entró en una nueva era. Los modelos
macroeconométricos dominantes construidos durante las décadas de
1950 y 1960, en una época de relativa estabilidad económica con
precios estables para los energéticos y tipos de cambio fijos, ya no
fueron capaces de capturar en forma adecuada las realidades
económicas de la década de 1970 y siguientes. Como resultado, de
manera no sorprendente, los modelos macroeconométricos y la teoría
keynesiana que se encontraba detrás de ellos recibieron severos
ataques tanto desde la perspectiva teórica como desde la práctica.
Mientras que las críticas al intento pionero de Tinbergen en materia de
modelística macroeconométrica fueron recibidas con gran optimismo y
38
condujeron al desarrollo de nuevas y sofisticadas técnicas de estimación
así como a modelos más grandes y más complejos, el brote de
desencanto más reciente, respecto a los modelos macroeconométricos,
disparó una reevaluación más fundamental respecto a la modelística
cuantitativa como herramienta para pronósticos y análisis de política. A
nivel teórico, se argumenta que las relaciones econométricas
invariablemente carecen de los “microfundamentos” necesarios, en el
sentido de que no pueden obtenerse en forma consistente a partir de la
conducta optimizadora de los agentes económicos. A nivel práctico, el
enfoque de la Comisión Cowles respecto a la identificación y estimación
de modelos macroeconométricos en ecuaciones simultáneas han sido
cuestionadas por Robert Lucas Jr., Sargent y Sims, aunque desde
distintos puntos de vista. También ha habido un movimiento centrífugo
respecto a los modelos macroeconomé-tricos y centrípeto respecto a la
investigación microeconométrica donde se espera que puedan evitarse
algunas de las fallas del análisis macroeconométrico para series de
tiempo. La respuesta de la profesión econométrica en conjunto ante la
crítica reciente ha sido enfatizar el desarrollo de técnicas más
adecuadas, utilizar nuevos conjuntos de datos y buscar un mejor control
de calidad en la investigación econométrica, poniendo atención especial
en la validación de modelos y en la prueba de diagnósticos.
Lo que sigue es una breve panorámica de algunos de los desarrollos
más importantes en las dos décadas previas (Este ensayo se publicó en
39
1987. Nota del traductor). Dadas las limitaciones de espacio y mis
intereses propios (prosigue Pesaran), inevitablemente existen huecos
importantes. Estos incluyen las contribuciones esenciales de Granger
(1969), Sims (1972) así como Engle y otros autores (1983) respecto a
distintos conceptos de “causalidad” y “exogeneidad”, así como la
inmensa cantidad de escritos sobre modelos de desequilibrio (Quandt,
1982; Maddala, 1983 y 1986); modelos de coeficientes aleatorios (Chow,
1984); modelos para datos con tiempo continuo (Bergstrom, 1984);
series de tiempo no estacionarias y prueba de raíz unitaria (Dickey y
Fuller, 1979, 1981; Evans y Savin, 1981, 1984; Phillips, 1986, 1987;
Phillips y Durfault, 1986); y teoría para muestras pequeñas o finitas
(Phillips, 1983; Rothenberg, 1984); por no mencionar los desarrollos en
el área de evaluación de políticas y de aplicación de la teoría de control
a los modelos econométricos (Chow, 1975, 1981; Aoki, 1976).
6.1 Expectativas racionales y la crítica de Lucas
La hipótesis de expectativas racionales (HER) fue especificada por Muth
en 1961 pero no fue sino hasta principios de la década de 1970 cuando
comenzó a tener un impacto importante para la econometría de series
de tiempo y, en general, para la teoría económica dinámica. Lo que vino
a destacar la hipótesis de expectativas racionales fueron los trabajos de
Lucas (1972, 1973), Sargent (1973), Sargent y Wallace (1975) y otros
40
autores sobre la nueva explicación clásica respecto a la evidente
invalidez de la curva de Phillips. El mensaje de la hipótesis de
expectativas racionales para la econometría fue claro. Al postular que
los agentes económicos forman sus expectativas de manera endógena,
con base en el modelo de la economía verdadero y una comprensión
correcta del proceso que genera las variables exógenas del modelo,
incluyendo la política gubernamental, la hipótesis de expectativas
racionales elevó serias dudas acerca de la constancia de los parámetros
estructurales en los modelos macroeconométricos del enfoque
económico dominante frente a los cambios en la política gubernamental.
Este hecho fue subrayado por la crítica de Lucas a la evaluación de la
política macroeconométrica. Mediante ejemplos simples, Lucas (1976)
mostró que en los modelos con expectativas racionales, los parámetros
de las reglas de decisión de los agentes económicos, tales como las
funciones de consumo o de inversión, usualmente son una mezcla de los
parámetros de las funciones objetivo de loa agentes económicos y de los
procesos estocásticos que enfrentan como históricamente dados. Por lo
tanto, señala Lucas, no existe razón para pensar que la “estructura” de
las reglas de decisión (o de las relaciones económicas) permanezca
constante ante la intervención de la política gubernamental. La
implicación de la crítica de Robert Lucas para la investigación
econométrica no fue, empero, que se deje de llevar a cabo evaluación
de políticas sino, más bien, que los modelos y métodos econométricos
41
tradicionales no son adecuados para tal propósito. Lo que se necesitaba
era una separación entre los parámetros de política económica y los
parámetros del modelo económico. Sólo cuando estos parámetros
pueden ser identificados por separado, dado el conocimiento de la
distribución probabilística conjunta de las variables (tanto políticas como
no políticas; es decir, tanto las que son afectadas por el gobierno como
las que no lo son), es posible desarrollar un análisis econométrico de las
opciones de políticas alternativas.
Ha habido numerosas reacciones al advenimiento de la hipótesis de
expectativas racionales y a la crítica de Lucas que la acompaña. La
menos controversial ha sido la adopción de la hipótesis de expectativas
racionales como una de las posibles hipótesis de formación de
expectativas en un modelo macroeconométrico por lo demás
convencional y que contiene variables de expectativas. En este
contexto, la hipótesis de expectativas racionales, al imponer
restricciones paramétricas adecuadas, garantiza que sean consistentes
las “expectativas” y los “pronósticos” generados por el modelo. El
modelo económico subyacente de ninguna manera se restringe a tener
características keynesianas o monetaristas específicas ni tampoco
contiene supuestos acerca de que las relaciones del modelo económico
necesariamente tengan que corresponder con las reglas de decisión de
los agentes económicos. En este enfoque, la hipótesis de expectativas
racionales se considera un método conveniente y efectivo para imponer
42
restricciones paramétricas, a través de las ecuaciones, en los modelos
econométricos para series de tiempo y se aprecia mejor como la
hipótesis de expectativas “consistentes con el modelo”. Las
implicaciones econométricas de tal mecanismo de expectativas
consistentes con el modelo, han sido extensamente analizadas en los
trabajos econométricos. Por ejemplo, Wallis (1980), Wickens (1982) y
Pesaran (1987) han discutido acerca de los problemas de identificación y
de estimación de modelos lineales con expectativas racionales. Estos
estudios muestran cómo pueden adaptarse los métodos econométricos
tradicionales al análisis econométrico de modelos de expectativas
racionales.
Otra reacción a la crítica de Lucas ha sido tratar el problema del
“cambio estructural” enfatizado por él como un “problema”
econométrico más bien potencial (Lawson, 1981). Se dice que no es
nuevo el problema del cambio estructural que surge de cambios
tratados o esperados en la política gubernamental
Además, se argumenta que tales cambios son conocidos por los
economistas de la Comisión Cowles (Marschak, 1953) y que pueden ser
fácilmente considerados mediante un monitoreo más cuidadoso en los
posibles cambios en la estructura de los modelos econométricos. No
obstante, esta opinión es rechazada por Lucas y Sargent y otros
proponentes de la escuela de las expectativas racionales quienes
43
señalan que es necesario llevar a cabo una ruptura más fundamental
con el enfoque tradicional de la modelística macroeconométrica.
El enfoque optimizador de Lucas y Sargent se basa en la premisa de
que las relaciones estructurales “verdaderas” contenidas en el modelo
económico y las reglas de política del gobierno pueden obtenerse
directamente como soluciones a problemas de optimización dinámica
bien definidos, los cuales son enfrentados tanto por los agentes
económicos como por el gobierno. La tarea de las y de los
econometristas consiste entonces en desentrañar cuáles son los
parámetros de los procesos estocásticos que enfrentan los agentes a
partir de los parámetros de sus funciones objetivo. Tal como lo advierten
Hansen y Sargent (1980): “Cumplir con esta tarea [la identificación
separada de los parámetros del proceso exógeno y de los parámetros de
las funciones de preferencias y tecnológicas] es un prerrequisito
indispensable para el uso seguro de la evaluación de políticas en los
modelos econométricos. La ejecución de esta estrategia implica estimar
las reglas de decisión de los agentes conjuntamente con modelos para
los procesos estocásticos que enfrentan, sujeta a las restricciones de
todas las ecuaciones que están implícitas en la hipótesis de expectativas
racionales” (pág. 8).
Hasta ahora (1987), este enfoque sólo se ha aplicado a marcos de
referencia relativamente simples que involucran datos agregados a nivel
de una empresa “representativa” o de una unidad familiar
44
“representativa”. Una causa importante de este hecho se encuentra en
los modelos econométricos bastante restrictivos e inflexibles que surgen
de la adhesión estricta al marco de referencia optimizador y a la
hipótesis de expectativas racionales. Para que sea posible desarrollar el
análisis con frecuencia se ha requerido confinar la investigación
econométrica a funciones objetivo cuadráticas y a procesos estocásticos
lineales. Este problema hasta cierto punto se ha mitigado gracias a
recientes desarrollos en el área de la estimación de las ecuaciones de
Euler (véase Hansen y Singleton, 1982). Empero, todavía existen
importantes dificultades técnicas que tienen que ser resueltas antes de
que el enfoque optimizador pueda usarse de modo flexible en
econometría. Además de estas dificultades técnicas, existen cuestiones
fundamentales respecto al problema de agregación a través de los
agentes económicos, información heterogénea, el proceso de
aprendizaje y el efecto que estas complicaciones tienen sobre el
establecimiento del programa de investigación siguiendo los
lineamientos de Lucas y Sargent (cf. Pesaran, 1987).
6.2 Macroeconometría ateórica
45
La crítica de Robert Lucas a la modelística macroeconométrica
dominante también condujo a algunas y a algunos econometristas, en
particular a Sims (1980, 1982), a dudar de la validez del estilo seguido
por la Comisión Cowles para alcanzar la identificación de los modelos
econométricos. La opinión de que la teoría económica no puede ser
obligada a generar la identificación de los modelos estructurales no es
nueva y ha sido enfatizada en el pasado, por ejemplo, por Liu (1960). El
desencanto más reciente con respecto al enfoque de la Comisión Cowles
tiene sus orígenes en la hipótesis de expectativas racionales y en la
incomodidad con las restricciones a priori sobre las longitudes de
desfase que se necesitan si se desea que los modelos de expectativas
racionales estén identificados (véase Pesaran, 1981). Sims (1980, pág.
7) escribió: «Sin embargo soy de la opinión de que las expectativas
racionales es más profundamente subversiva para la identificación de lo
que se ha reconocido hasta ahora». Luego procede a decir que «en
presencia de que de expectativas, resulta ser indispensable la muleta
del conocimiento a priori respecto a las longitudes de desfase, incluso
cuando tenemos variables distintivamente exógenas que cambian los
patrones de oferta y demanda» (pág. 7). Aunque es cierto que la
hipótesis de expectativas racionales complica las condiciones necesarias
para la identificación de los modelos estructurales, la cuestión básica en
el debate sobre la identificación se sigue centrando alrededor de la
46
validez de la dicotomía clásica entre las variables endógenas y
exógenas. Resulta, así, controvertible si es posible probar los supuestos
de “exogeneidad” de los modelos macroeconométricos y ello está muy
acotado por lo que realmente significa exogeneidad. En ciertas
aplicaciones, la exogeneidad es considerada como una propiedad de un
modelo propuesto (à la Koopmans, 1950) y en otras situaciones se le
define en términos de un grupo de variables para propósitos de
inferencia respecto a “parámetros de interés” (Engle y otros autores,
1983). En el enfoque de la Comisión Cowles, se supone que la
exogeneidad es la propiedad del modelo estructural, obtenida a partir de
teoría a priori y sujeta a prueba sólo en presencia de restricciones
sostenidas por él. Así, no fue posible probar las propias restricciones de
identificación.
El enfoque defendido por Sims y sus colaboradores se aparte de la
metodología de la Comisión Cowles en dos importantes aspectos. Niega
que una teoría a priori pueda alguna vez generar las restricciones
necesarias para la identificación de los modelos estructurales y señala
que no se requiere la identificación estructural para propósitos de
pronóstico y análisis de políticas (Sims, 1980, pág. 11). En concordancia,
este enfoque, llamado por Cooley y Le Roy (1985) «Macroeconometría
ateórica», sostiene que sólo los sistemas de vectores autorregresivos
irrestrictos (VAR), que no permiten una clasificación a priori de las
variables en endógenas y exógenas, son admisibles para el análisis
47
macroeconométrico. El enfoque VAR representa una importante opción a
los modelos macroeconométricos convencionales de gran escala y ha
sido usado con algún éxito en el área de predicción (Litterman, 1985). Si
tales sistemas VAR irrestrictos también pueden usarse en evaluaciones
de política y ejercicios de formulación de políticas, queda como una
materia controvertible. Cooley y LeRoy (1985) en su crítica a estos
trabajos señalan que incluso si pueden ser desarrollados con éxito, su
relevancia será todavía limitada excepto como una herramienta de
predicción y de descripción de datos estadísticos ex ante (sobre este
tema, véase también Leamer, 1985A). Ellos opinan que no permite la
prueba directa de teorías económicas, que es de poca utilidad para el
análisis de la política y que, sobre todo, no aporta una comprensión
estructural sobre el sistema económico que intenta representar. Sims y
otros autores (Doan, Litterman y Sims, 1984; Sims, 1986), empero,
sostienen que los modelos VAR pueden ser usados para el análisis de la
política y que el tipo de supuestos de identificación necesario para este
propósito no resulta menos creíble que los supuestos por los modelos
macroeconométricos convencionales o de expectativas racionales.
6.3 Microeconometría
El uso de microdatos en economía no es, claro está, nuevo y su origen
data del trabajo pionero de Ruggles y Ruggles (1956) para desarrollar un
48
marco de referencia de contabilidad social basado en la microeconomía,
en la ya mencionada obra de Orcutt y sus colegas, y en el estudio de
Prais y Houtthakker (1955) sobre encuestas de gasto familiar. No
obstante, sólo es hasta hace poco, debido en parte a la insatisfacción
con la investigación de series de tiempo macroeconométricas y en parte
ante la creciente disponibilidad de datos microeconómicos y facilidades
computacionales, que el análisis de microdatos empezó a ser
considerado seriamente por parte de los y de las econometristas, En
especial en Estados Unidos se han puesto a disposición del público en
general importantes conjuntos de datos microeconómicos en áreas
tales como vivienda, transporte, mercados de trabajo y energía. Estos
conjuntos de datos incluyen distintas encuestas longitudinales (por
ejemplo, el Panel de Estudio sobre la Dinámica del Ingreso, de la
Universidad de Michigan, y las encuestas NLS del Estado de Ohio),
encuestas de corte transversal sobre los gastos familiares y las
encuestas sobre la población y la fuerza de trabajo. Esta disponibilidad
creciente de microdatos, aunque ha dado lugar a nuevas posibilidades
para el análisis, también ha abierto nuevas, numerosas e interesantes
cuestiones econométricas originadas, principalmente, a partir de la
naturaleza de los microdatos. Es más probable que los errores de
medición con microdatos sean más graves que con macrodatos. El
problema de la heterogeneidad de los agentes económicos en el nivel
micro no puede ser eliminado con tanta facilidad como con frecuencia es
49
posible hacerlo en el nivel macro recurriendo a la idea de una “empresa
representativa” o de una “familia representativa”.
Como señala Griliches: “Variables tales como la edad, la calidad de la
tierra, o la estructura ocupacional de una empresa, son mucho menos
variables en el agregado. Empero, ignorar este hecho a nivel micro
puede ser muy fácil. De modo similar, los errores de medición que
tienden a compensarse cuando se promedian a través de miles e incluso
millones de respuestas se magnifican cuando la unidad de análisis es
una persona” (pág. 1469)
La naturaleza de los microdatos, los cuales a menudo son cualitativos o
están limitados a un rango particular de variación, también ha sido
requerida por los nuevos modelos y técnicas econométricas. Los
modelos y temas considerados en los trabajos microeconométricos tiene
una gran diversidad e incluyen modelos de efecto fijo y aleatorio (por
ejemplo, Mundlak, 1961 y 1978), los modelos de selección discreta o de
respuesta cuantitativa (Manski y McFadden, 1981), y los modelos
microeconométri-cos para datos por conteo (Hausman y otros autores,
1984, así como Cameron y Trivedi, 1977), la selección de ocupaciones
(Boskin, 1974), la ubicación de trabajos o empresas (Duncan, 1980),
etcétera. Los modelos de variable dependiente limitada se encuentran
por lo común en el análisis de datos obtenidos por medio de en cuestas
y con frecuencia se categorizan como modelos de regresión truncados y
modelos de regresión censurados. Si todas las observaciones para la
50
variable dependiente así como para las variables exógenas se pierden
cuando la variable dependiente cae fuera de un rango específico, el
modelo se denomina truncado y si sólo las observaciones para la
variable dependiente se pierden, el modelo se denomina censurado. Los
trabajos sobre modelos de regresión censurados y truncados son muy
numerosos y se sobrelapan con los desarrollos en otras disciplinas, en
particular con la biometría y la ingeniería. El modelo de regresión
censurado fue presentado por vez primera en la economía por Tobin
(1958) en su estudio pionero sobre el gasto de las familias en bienes
duraderos cuando consideró el hecho de que la variable dependiente, o
sea, el gasto en bienes duraderos, no puede ser negativo. El modelo
sugerido por Tobin y sus diferentes generalizaciones son conocidas en
economía como modelos Tobit y son estudiados en detalle por Amemiya
(1984).
Los modelos de duración temporal continua, también conocidos como
modelos de supervivencia han sido usados en el análisis de la duración
del desempleo, el periodo de tiempo transcurrido entre dos trabajos, la
duración del matrimonio, etcétera. La aplicación de los modelos de
supervivencia en el análisis de datos económicos genera una serie de
cuestiones importantes, las cuales surgen básicamente de la naturaleza
de las observaciones económicas respecto a que no son experimentales
ni controlados, de los tamaños muestrales (es decir, periodos de tiempo)
y del carácter heterogéneo del ambiente económico dentro del cual
51
operan los agentes. Estas cuestiones claramente no se confinan a los
modelos de duración y también están presentes en el cado de otras
investigaciones microeconómicas que utilizan datos en series de tiempo
o en corte transversal o en datos combinados (para revisar los primeros
trabajos sobre el análisis de datos combinados o en panel, véase el
modelo de componentes de error desarrollado por Kuh, 1959, y por
Balestra y Nerlove, 1966). Una solución satisfactoria a estos problemas
es de importancia crucial para el éxito del programa de investigación
microeconométrica. Como lo señaló adecuadamente Hsiao (1985) en
una reciente revisión de los trabajos al respecto: “A pesar de que los
datos en panel ha abierto líneas de investigación que simplemente no
podrían haberse seguido de otra manera, no es una panacea para la
investigación econométrica. El poder de los datos en panel depende del
grado y confiabilidad de la información que contienen así como de la
validez de las restricciones sobre las que se construyen los métodos
estadísticos” (pág. 163).
En parte como respuesta a las incertidumbres inherentes a los
resultados econométricos apoyados en datos no experimentales,
también ha habido un movimiento importante hacia la “experimentación
social”, sobre todo en Estados Unidos, como un posible método para
reducir estas incertidumbres. Ello ha conducido a una numerosa serie de
trabajos que analizan datos “experimentales”, algunos de los cuales han
sido revisados recientemente por Hausman y Wise (1985). A pesar de
52
que todavía es muy pronto para llegar a un juicio definitivo acerca del
valor de la experimentación social en su conjunto, desde un punto de
vista econométrico los resultados no han sido muy estimulantes. La
evaluación de los experimentos del tiempo de uso de la electricidad en
casas habitación (Aigner, 1985), los experimentos del programa de
asignaciones para vivienda (Rosen, 1985) y los experimentos de
impuestos negativos al ingreso (Stafford, 1985), todos ellos señalan el
hecho de que los resultados experimentales podrían haber sido
igualmente predichos por medio de estimaciones econométricas
convencionales. La llegada de la experimentación social a la economía
ha puesto, empero, a discusión varios problemas interesantes en las
áreas de diseño de experimentos, métodos estadísticos (por ejemplo,
véase Hausman y Wise (1979) sobre el problema de la atribución del
sesgo) y del análisis de políticas, mismas que es probable que tengan
importantes consecuencias para el desarrollo futuro de la
microeconometría (una revisión, que se estudia fácilmente, de la
experimentación social en economía fue proporcionada por Ferber y
Hirsch, 1982).
Otro aspecto importante de los desarrollos recientes en los trabajos
microeconométricos se relaciona con el uso de modelos de simulación
microanalítica para el análisis de política y la evaluación a fin de
reformar paquetes presupuestales en áreas tales como atención a la
salud, tributación, sistemas de seguridad social y redes de transporte.
53
Algunos de estos trabajos son revisados en Orcutt y otros autores
(1986).
6.4 Evaluación de modelos
Mientras que, en las décadas de 1950 y 1960, la investigación en
econometría se orientó básicamente hacia la identificación y estimación
de modelos econométricos, la insatisfacción con la econometría durante
el decenio de 1970 cambió hacia problemas de evaluación y prueba de
modelos. Este cambio en parte fue provocado por un esfuerzo
concertado para restaurar la confianza en la econometría y recibió la
atención tanto del enfoque tradicional como del bayesiano. Ambos
enfoques rechazan el “axioma de la especificación correcta” que se
encuentra en la base de la mayoría de las prácticas econométricas
tradicionales pero difieren marcadamente entre sí respecto a la cuestión
de cuál es el mejor procedimiento para solucionar el rechazo de dicho
axioma.
El enfoque bayesiano, entre cuyos exponentes destacan Leamer (1978)
y Zellner (1985), apunta a la amplia disparidad existente entre el
método econométrico y la práctica econométrica que se supone está
fundada sobre el primero y aboga por el uso de procedimientos
bayesianos “informales” tales como el “análisis de límites extremos”
(ALE o EBA por sus siglas en inglés: extreme bounds analysis) o, de
54
modo más general, como el “análisis de sensibilidad global”. La idea
básica detrás del ALE es explicada por Leamer y Leonard (1983) así
como por Leamer (1983) y ha sido sujeta a crítica por McAleer, Pagan y
Volker (1985). En su forma más general, la estrategia de investigación
avanzada por Leamer involucra una clase de gran análisis de
sensibilidad bayesiano. Los resultados en la práctica o, de acuerdo con
la terminología bayesiana, las distribuciones a posteriori, se evalúan
según su “fragilidad” o su “persistencia”, verificando qué tan sensibles
son esos resultados a cambios en las distribuciones a priori (los datos y
la teoría especificada en el modelo). Como explica Leamer (1985b):
“Como no puede aceptarse que ninguna distribución a priori es una
representación exacta de la opinión, se lleva a cabo un análisis de
sensibilidad global para determinar cuáles inferencias son frágiles y
cuáles son persistentes” (pág. 311).
El objetivo del análisis de sensibilidad en el enfoque de Leamer es, en
sus propias palabras, “combatir la arbitrariedad asociada con la
selección de una distribución a priori” (Leamer, 1986, pág. 74).
Se acepta en términos generales, tanto por los bayesianos como por
los no bayesianos, que la evaluación modelística implica consideraciones
distintas al examen de las propiedades estadísticas de los modelos por
lo que los juicios personales entran inevitablemente en el proceso de
evaluación. Los modelos deben cumplir con múltiples criterios que, con
frecuencia, se contradicen entre sí. Deben ser relevantes en el sentido
55
de que deben ser capaces de responder las preguntas para las que
fueron construidos. Deben ser consistentes con la estructura de
medición y/o teórica dentro de la cual funcionan. Por último, deben
proporcionar representaciones adecuadas de la realidad con la cual
están interesados. Estos criterios y su interacción se discuten en
Pesaran y Smith (1985b). Desgloses más detallados de los criterios de
evaluación modelística se pueden encontrar en Hendry y Richard (1982)
así como en McAleer y otros autores (1985). No obstante, en
econometría es el criterio de la “adecuación” el que debe enfatizarse,
con frecuencia incluso a costa de la relevancia y de la consistencia.
La cuestión de la adecuación del modelo en la econometría dominante
se enfoca como un problema de selección de modelo o como un asunto
de inferencia estadística donde la hipótesis de interés se prueba contra
alternativas generales o específicas. El uso de criterios absolutos tales
como medidas de ajuste/parsimonia o de análisis bayesiano formal
basado en información a posteriori son ejemplos notables de
procedimientos de selección modelística, mientras que la razón de
verosimilitud, las pruebas sobre los multiplicadores de Wald y Lagrange
de hipótesis no anidadas y las pruebas de Cox centradas en la razón de
verosimilitud logarítmica son ejemplos de procedimientos bajo el
segundo enfoque. La distinción entre estos dos enfoques generales
básicamente surge a partir de la manera en que son tratados modelos
alternativos. En el caso de la selección de modelos (o discriminación
56
modelística), todos los modelos bajo consideración disfrutan del mismo
estatus y la investigación no está comprometida a priori con ninguno de
ellos. El objetivo consiste en seleccionar el modelo que es probable que
se comporte mejor con respecto a una particular función de pérdida. Por
contraste, en el marco de referencia de prueba de hipótesis, la hipótesis
nula (o el modelo sostenido) se prueba de manera diferente que el resto
de las hipótesis (o modelos). Una característica importante de la
estrategia de selección de modelos es que su aplicación siempre
conduce a un modelo seleccionado preferentemente con respecto a
otros. Pero en el caso de la prueba de hipótesis, el rechazo de todos los
modelos bajo consideración no está excluido cuando los modelos no
están anidados. Una discusión más detallada de este punto se
proporciona en Pesaran y Deaton (1978).
Mientras que el enfoque de selección modelística ha recibido alguna
atención en esta rama de la disciplina económica, el marco de referencia
de las pruebas de hipótesis es el que se ha utilizado básicamente para
obtener procedimientos estadísticos adecuados para juzgar la
adecuación de un modelo estimado. En este segundo marco de
referencia, hablando en términos generales, pueden identificarse tres
distintas versiones, dependiendo de qué tan específicas sean las
hipótesis alternativas. Estas son las pruebas de especificación general,
las pruebas de diagnóstico y las pruebas no anidadas. La primera de
ellas, presentada en econometría por Ramsey (1969) y por Hausman
57
(1978) y, en épocas más recientes, desarrollada por White (1981, 1982),
y por Hansen (1982), está diseñada para circunstancias donde la
naturaleza de una hipótesis alternativa se mantiene (a veces de modo
intencional) bastante vaga, siendo el propósito probar la hipótesis nula
contra una amplia clase de hipótesis alternativas. Entre los ejemplos
importantes de las pruebas de especificación general están la prueba
del error de especificación y regresión de Ramsey (RESET por sus siglas
en inglés: Ramsey’s regression specification error test) para variables
omitidas y/o formas funcionales mal especificadas. Y la prueba
Hausman-Wu para la mala especificación en el contexto de los modelos
de errores de medición y/o modelos en sistemas de ecuaciones
simultáneas. Tales pruebas de especificación general son
particularmente útiles en las etapas preliminares del trabajo modelístico.
En el caso de las pruebas de diagnóstico, el modelo bajo consideración
(visto como una hipótesis nula) se prueba contra alternativas más
específicas incorporándolo dentro de un modelo general. Las pruebas de
diagnóstico entonces pueden ser construidas usando la razón de
verosimilitud, o el principio de los multiplicadores de Wald o de
Lagrange para probar las restricciones paramétricas impuestas sobre el
modelo general. La aplicación del principio de los multiplicadores de
Wald o de Lagrange a problemas econométricos se revisa en los trabajos
de Breusch y Pagan (1980), Godfrey y Wickens (1982) así como Engle
(1984). Ejemplos de las restricciones interesantes como verificaciones
58
de diagnóstico para adecuación modelística incluyen las restricciones
nulas (o sea, parámetros que, según la teoría usada, deben ser iguales a
cero dado que reflejan la ausencia de variables en una ecuación del
modelo pero presentes en otra u otras ecuaciones del mismo),
estabilidad paramétrica, correlación serial, heterosce-dasticidad, formas
funcionales y normalidad de los errores de regresión. Como se muestra
en Pagan y Hall (1983) la mayoría de las pruebas de diagnóstico
existentes pueden ser calculadas por medio de regresiones auxiliares
que incluyen los residuos estimados. Así, las pruebas de diagnóstico
también pueden observarse como una clase de análisis residual donde
se verifica si los residuos calculados bajo la hipótesis nula se explican
más bien con base en las fuentes hipotéticas de mala especificación. La
distinción que aquí se hace entre pruebas de diagnóstico y pruebas de
especificación general es más aparente que real. En la práctica, algunas
pruebas de diagnóstico tales como las pruebas para la correlación serial
también pueden ser consideradas como una prueba de especificación
general. Sin embargo, la distinción ayuda a centrar la atención en el
propósito detrás de las pruebas y en la dirección en la que se busca su
mayor potencial.
La necesidad de pruebas no anidadas surge cuando los modelos bajo
consideración pertenecen a familias paramétricas distintas en el sentido
de que ningún modelo en sí puede obtenerse de los otros por medio de
un proceso limitante adecuado. Esta situación, que prevalece sobre todo
59
en la investigación econométrica, puede surgir cuando los modelos
difieren con respecto a sus ejes teóricos y/o con respecto a sus
supuestos auxiliares. A diferencia de las pruebas de especificación
general y de las pruebas de diagnóstico, la aplicación de pruebas no
anidadas es apropiada cuando se adelantan hipótesis específicas pero
rivales para explicar el mismo fenómeno económico. A pesar de que las
pruebas no anidadas también pueden ser utilizadas como pruebas de
especificación general, básicamente están diseñadas con el propósito de
tener alta potencia frente a modelos específicos que se han sostenido
con seriedad en los trabajos econométricos. Elaboraciones posteriores a
los documentos pioneros de Cox (1961, 1962), han propuesto
numerosas pruebas de este tipo para modelos uniecuacionales y
sistemas de ecuaciones simultáneas (para más referencias, consúltese
el ensayo sobre Hipótesis no anidadas en el diccionario que contiene
este trabajo: The New Palgrave, A Dictionary of Economics).
No obstante, el uso de pruebas estadísticas en econometría, no es una
cuestión directa y la mayoría de las aplicaciones no admite una
interpretación precisa. Esto resulta ser especialmente el caso en
circunstancias donde los estadísticos de prueba no sólo se usan para
verificar la adecuación de un modelo dado sino también como guías en
la construcción de modelos. Tal proceso de construcción modelística
implica investigaciones sobre la especificación del tipo enfatizado por
Leamer y presenta problemas previos a la prueba que no han sido
60
solucionados hasta ahora y que, en general, tienden a producir modelos
econométricos cuya “adecuación” es más aparente que real. Como
resultado, en la evaluación de modelos econométricos debería tenerse
menos confianza en aquellos índices sobre la adecuación del modelo
que son usados como guías para la construcción modelística y debería
darse más énfasis en el comportamiento del modelo con base en otros
conjuntos de datos esta dísticos y frente a otros modelos. La evaluación
de modelos econométricos es un proceso complicado que involucra
consideraciones prácticas, teóricas y econométricas. Los métodos
econométricos claramente han ofrecido una importante contribución
para poder efectuar dicho proceso. Empero, no deben ser confundidos
con el total de la actividad modelística econométrica que, además de las
técnicas econométricas y de cómputo, requiere de datos estadísticos,
intuición considerable, conocimiento acerca de las instituciones
involucradas y, sobre todo, comprensión de los fenómenos económicos.
7. RESULTADOS Y PERSPECTIVAS
La econometría ha recorrido un largo camino durante un lapso
relativamente corto. Se han hecho avances importantes en la
recolección de datos económicos y en el desarrollo de conceptos, teorías
y herramientas para construir y evaluar una amplia variedad de modelos
econométricos. Se pueden encontrar aplicaciones de los enfoques
61
econométricos en casi todos los campos de la disciplina económica. Los
modelos econométricos han sido usados extensamente por las oficinas
gubernamentales, las organizaciones internacionales y las empresas de
negocios. Modelos macroeconométricos de distintos grados de
complejidad y tamaño se han construido para casi todos los países del
mundo. Empero, en la teoría y en la práctica, la econometría también ya
ha ido más allá de lo que sus fundadores soñaron. No obstante, el
tiempo y la experiencia han generado un número de dificultades que
tampoco eran claras en los comienzos de esta rama de la economía.
La econometría surgió en las décadas de 1930 y 1940 en un clima de
optimismo, en la creencia de que la teoría económica podía hacerse
responsable de identificar la mayoría, si no todos, los factores
importantes involucrados en modelar la realidad económica y en la idea
de que los métodos de la inferencia estadística clásica podían ser
adaptados fácilmente para el propósito de ofrecer contenido aplicado a
la teoría económica recibida. Esta panorámica inicial sobre la interacción
entre la teoría y la medición en econometría, empero, resultó ser
bastante ilusoria. La teoría económica, sea neoclásica, keynesiana o
marxista, invariablemente se formula con cláusulas ceteris paribus [todo
lo demás permanece constante] e involucra variables latentes
inobservables así como formas funcionales generales; tiene poco que
decir acerca de los procesos de ajuste y de las longitudes de desfase.
Incluso en la selección de variables a ser incluidas en las relaciones
62
econométricas, el papel de la teoría económica resulta bastante más
limitado de lo que al principio se creía En un modelo de equilibrio
general walrasiano, por ejemplo, donde todo depende de todo lo demás,
existe poco espacio para una exclusión a priori de variables en las
ecuaciones de un modelo econométrico. Están también las
características institucionales y las convenciones contables que tienen
que ser incluidas en los modelos econométricos pero que, o bien, son
ignoradas, o bien, sólo son consideradas en forma parcial en el nivel
teórico. Todo esto significa que la especificación de modelos
econométricos inevitablemente implica importantes supuestos auxiliares
acerca de las formas funcionales, las especificaciones dinámicas, las
variables latentes, etcétera, con respecto a los cuales la teoría
económica permanece en silencio o sólo proporciona una guía
incompleta.
El reconocimiento de que no puede esperarse que, por sí sola, la teoría
económica ofrezca una especificación modelística completa tiene
importantes consecuencias tanto para someter a prueba a teorías
económicas distintas como para la evaluación de los modelos
econométricos estimados. La falta de completitud de las teorías
económicas provoca que la tarea de someterlas a prueba resulte una
labor formidable. En general, no será posible decir si los resultados de
las pruebas estadísticas tienen un impacto sobre la teoría económica o
sobre los supuestos auxiliares. Esta ambigüedad para probar teorías,
63
mejor conocida como la tesis Duhem-Quine, no está limitada a la
econometría y surge siempre que las teorías son conjuntos de hipótesis
(sobre este tema, véase por ejemplo, Cross, 1982). No obstante, el
problema es especialmente grave en econometría porque la teoría está
mucho menos desarrollada en la disciplina económica que en las
ciencias naturales. Por supuesto, existen otras dificultades que rodean al
uso de los métodos econométricos con el propósito de someter a prueba
a las teorías económicas. Como regla, las estadísticas económicas no
son los resultados de experimentos diseñados sino que se obtienen
como productos colaterales de las actividades empresariales y
gubernamentales que tienen, con frecuencia, más consideraciones
legales que económicas. Los métodos estadísticos disponibles por lo
general son apropiados para muestras grandes mientras que los datos
económicos (sobre todo las series de tiempo económicas) tienen una
cobertura bastante limitada. También existen problemas de agregación
a lo largo del tiempo, de las mercancías y de los individuos que
complican aún más las pruebas de teorías microeconómicas.
La falta de completud de las teorías económicas también introduce un
elemento importante e inevitable de las investigaciones instigadas por
los datos en el proceso de la construcción modelística el cual, a su vez,
crea dificultades metodológicas fundamental para los métodos
econométricos establecidos a fin de realizar evaluación de modelos.
Resulta evidente que esta área completa de investigaciones sobre la
64
especificación merece mucha mayor atención, en especial por parte de
los y las econometristas no bayesianos, de lo que hasta ahora ha
sucedido.
No cabe duda de que la econometría está sujeta a limitaciones
importantes que surgen en buena porción por la falta de completitud de
las teorías económicas y por la naturaleza no experimental de los datos
económicos. Empero, estas limitaciones no deberían distraernos del
reconocimiento al papel fundamental que la econometría ha llegado a
jugar en el desarrollo de la economía como disciplina científica. Tal vez
no sea posible rechazar de forma concluyente a teorías económicas por
medio de los métodos econométricos pero eso no significa que nada útil
de los intentos de probar formulaciones particulares de una teoría dada
contra alternativas rivales posibles. De manera similar, el hecho de que
la modelística econométrica está inevitablemente sujeta al problema de
las investigaciones de especificación no significa que toda esa actividad
carezca de sentido. Los modelos econométricos son herramientas
importantes para el pronóstico y el análisis de políticas y no es probable
que sean descartados en el futuro. El reto consiste en reconocer sus
limitaciones y trabajar hacia el objetivo de convertirlos en herramientas
más confiables y efectivas. Además, parece que no existen alternativas
viables a este simple hecho.
REFERENCIAS BIBLIOGRÁFICAS
65
Aigner, D. J. 1985. The residential electricity timeofuse pricing
experiments: what have we learned? In Social Experimentation, ed. J.
A. Hausman and D. A. Wise, Chicago: University of Chicago Press.
Aitken, A. C. 19345. On least squares and linear combinations of
observations. Proceedings of The Royal Society of Edinburgh 55, 4-28.
Allen, R. G. D. and Bowley, A. L. 1935. Family Expenditure. Londres: P. S.
King.
Almon, S. 1965. The distributed lag between capital appropriations and
net expenditures. Econometrica 33, 178-96.
Amemiya, T. 1983. Nonlinear regression models. In Handbook of
Econometrics, ed. Z. Griliches and M. D. Intriligator, Vol. 1,
Amsterdam: NorthHolland.
Amemiya, T. 1984. Tobit models: a survey. Journal of Econometrics 24-
31.
Anderson, T. W. and Rubin, H. 1949. Estimation of the parameters of a
single equation in a complete system of stochastic equations. Annals
of Mathematical Statistics 20, 46-63.
Aoki, M. 1976. Dynamic Economic Theory and Control in Economics.
Nueva York: American Elsevier.
Balestra, P. and Nerlove, M. 1966. Pooling cross section and time series
data in the estimation of a dynamic model: the demand for natural
gas. Econometrica 34, 585-612.
66
Basmann, R.L. 1957. A generalized classical method of linear estimation
of coefficients in a structural equation. Econometrica 25, 77-83.
Benini, R. 1907. Sull'uso delle formole empiriche a nell'economia
applicata. Giornale degli economisli, 2nd series, 35, 105-363.
Bergstrom, A.R. 1984. Continuous time stochastic models and issues of
aggregation over time. In Handbook of Econometrics, ed. Z. Griliches
and M.D. Intriligator, Vol. 2, Amsterdam: North Holland.
Boskin, M.J. 1974. A conditional logit model of occupational choice.
Journal of Political Economy 82, 389-98.
Box, G.E.P. and Jenkins, G.M. 1970. Time Series Analysis: Forecasting
and Control. San Francisco: Holden-Day.
Breusch, T.S. and Pagan, A.R. 1980. The Lagrange multiplier test and its
applications to model specification in econometrics. Review of
Economic Studies 47, 239-53.
Brown, T.M. 1952. Habit persistence and lags in consumer behaviour.
Econometrica 20, 355-71.
Brundy, J.M. and Jorgenson, D.N. 1971. Efficient estimation of
simultaneous equations by instrumental variables. Review of
Economics and Statistics 53, 207-24.
Burns, A.F. and Mitchell, W.C. 1947. Measuring Business Cycles. Nueva
York: Columbia University Press for the National Bureau of Economic
Research.
67
Cagan, P. 1956. The monetary dynamics of hyperinflation. In Studies in
the Quantity Theory of Money, ed. M. Friedman, Chicago: University of
Chicago Press.
Cameron, A.C. and Trivedi, P.K. 1986. Econometric models based on
count data: comparisons and applications of some estimators and
tests. Journal of Applied Econometrics I, 29-53.
Champernowne, D. G. 1948. Sampling theory applied to autoregressive
sequences. Journal of The Royal Statistical Society Series B, 10, 204-
31.
Chow, G.C. 1975. Analysis and Control of Dynamic Economic Systems.
Nueva York: John Wiley.
Chow, G.C. 1981. Econometric Analysis by Control Methods. Nueva York:
John Wiley.
Chow, G.C. 1983. Econometrics. Nueva York: McGrawHill.
Chow, G.C. 1984. Random and changing coefficient models. In Handbook
of Econometrics, ed. Z. Griliches and M. D. Intriligator, Vol. 2,
Amsterdam: North Holland.
Christ, C.F. 1952. Economic Theory and Measurement: a twenty year
research report, 193252. Chicago: Cowles Commission for Research in
Economics.
Christ, C.F. 1966. Econometric Models and Methods. Nueva York: John
Wiley.
68
Christ, C.F. 1983. The founding of the Econometric Society and
Econometrica. Econometrica 51, 35.
Christ, C.F. 1985. Early progress in estimating quantitative economic
relations in America. American Economic Review, December, 39-52
(supplementary information and statistical summaries).
Cochrane, P. and Orcutt, G.H. 1949. Application of least squares
regression to relationships containing autocorrelated error terms.
Journal of Ihe American Statistical Association 44, 32-61.
Cooley, T.F. and Leroy, S.F. 1985. Atheoretical macroeconometrics: a
critique. Journal of Monetary Economics 16, 283368.
Cooper, R.L. 1972. The predictive performance of quarterly econo metric
models of the United States. In Economelric Models of Cyclical
Behaviour, ed. B.G. Hickman, Studies in Income and Wealth 36, Vol. 2,
813-925.
Cox, D.R. 1961. Tests of separate families of hypotheses. Proceedings of
Ihe Fourlh Berkeley Symposium on Malhemalical Slalislics and
Probability, Vol. I, Berkeley: University of California Press, 105-23.
Cox, D.R. 1962. Further results of tests of separate families of
hypotheses. Journal of Ihe Royal Statistical Society, Series B, 24, 406-
24.
Creedy, J. 1986. On the King-Davenant 'law' of demand. Scottish Journal
of Political Economy 33, August, 193-212.
69
Cross, R. 1982. The Duhem-Quine thesis, Lakatos and the appraisal f of
theories in macroeconomics. Economic Journal 92, 320-40.
Davenant, C. 1698. Discourses on the Publick Revenues and on the 1
Trade of England, Vol. I. Londres.
Davidson, J.E.H., Hendry, D.F., Srba, F. and Yeo, S. 1978. Econometric
modelling of the aggregate timeseries relationship between
consumers' expenditure and income in the United Kingdom. The
Economic Journal 88, 66-192.
Dhrymes, P. 1971. A simplified estimator for largescale econometric
models. Australian Journal of Statistics 13, 168-75. I
Dickey, D.A. and Fuller, W.A. 1979. Distribution of the estimators for
autoregressive time series with a unit root. Journal of the American
Statistical Association 74, 427-31.
Dickey, D.A. and Fuller, W.A. 1981. The likelihood ratio statistics for
autoregressive time series with a unit root. Econometrica 49, 105-222.
Doan, T., Litterman, R. and Sims, C.A. 1984. Forecasting and conditional
projection using realistic prior distributions. Econometric Reviews 3, 1-
100.
Domenich, T. and McFadden, D. 1975. Urban Travel Demand: A
Behavioural Analysis. Amsterdam: North Holland.
Dreze, J.H. and Richard, JF. 1983. Bayesian analysis of simultaneous
equation systems. In Handbook of Econometrics, ed. Z. Griliches and
M. D. Intriligator, Vol. I. Amsterdam: North Holland.
70
Duncan, G. 1980. Formulation and statistical analysis of the mixed
continuous/discrete variable model in classical production theory.
Econometrica 48, 839-52.
Durbin, J. and Watson, G.S. 1950. Testing for serial correlation in least
squares regression I. Biometrika 37, 409-28.
Durbin, J. and Watson, G.S. 1951. Testing for serial correlation in least
squares regression II. Biometrika 38, 159-78.
Eisner, R. and Strotz, R.H. (1963). Determinants of business investment.
In Commission on Money and Credit, Impacts of Monetary Policy,
Englewood Cliffs, NJ: Prentice-Hall, 593-37.
Engle, R.F. 1984. Wald likelihood ratio and Lagrange multiplier tests in
econometrics. In Handbook of Econometrics, Vol. 2, ed. Z. Griliches
and M. D. Intriligator, Amsterdam: North Holland.
Engle, R. F., Hendry, D.F. and Richard, J.F. 1983. Exogeneity.
Econometrica 51, 277-304.
Evans, G.B.A. and Savin, N.E. 1981. Testing for unit roots I. Econometrica
49, 753-77.
Evans, G.B.A. and Savin, N.E. 1984. Testing for unit roots II.
Econometrica 52, 124-170.
Ferber, R. and Hirsch, W.Z. 1982. Social Experimentation and Economic
Policy. Cambridge: Cambridge University Press.
Fisher, F.M. 1966. The Identification Problem in Econometrics. Nueva
York: McGraw-Hill.
71
Fisher, I. 1930. The Theory of Interest. Nueva York: Macmillan.
Reprinted, Philadelphia: Porcupine Press, 1977.
Fisher, I. 1937. Note on a shortcut method for calculating distributed
lags. Bulletin de l'Institut International de Statistique 29, 32-37.
Friedman, M. 1957. A Theory of the Consumption Function. Princeton:
Princeton University Press.
Frisch, R. 1933a. Editorial. Econometrica I, 14.
Frisch, R. 1933b. Pitfalls in the Statistical Construction of Demand and
Supply Curves. Leipzig: Hans Buske Verlag.
Frisch, R. 1934. Statistical Confluence Analysis by Means of Complete
Regression Systems. Oslo: University Institute of Economics.
Frisch, R. 1936. Note on the term 'Econometrics'. Econometrica 4, 95.
Geary, R.C. 1949. Studies in relations between economic time series.
Journal of the Royal Statistical Society, Series B 10, 14058.
Godfrey, L.G. and Wickens, M.R. 1982. Tests of misspecification using
locally equivalent alternative models. In Evaluation and Reliability of
Macroeconomic Models, ed G.C. Chow and P. Corsi, Nueva York: John
Wiley.
Granger, C.W.J. 1969. Investigating causal relations by econometric
models and cross-spectral methods. Econometrica 37, 42438.
Griliches, Z. 1967. Distributed lags: a survey. Econometrica 35, 16-49.
72
Griliches, Z. 1986. Economic data issues. In Handbook of Econometrics,
ed. Z. Griliches and M.D. Intriligator, Vol. 3, Amsterdam: North
Holland.
Haavelmo, T. 1943. Statistical testing of business cycle theories. Review
of Economics and Statistics 25, 13-18.
Haavelmo, T. 1944. The probability approach in econometrics.
Econometrica 12, Supplement, 11-18.
Hansen, L.P. 1982. Large sample properties of generalized method of
moments. Econometrica 50, 102-54.
Hansen, L.P. and Sargent, T.J. 1980. Formulating and estimating dynamic
linear rational expectations models. Journal of Economic Dynamics
and Control 2, 7-46.
Hansen, L.P. and Singleton, K.J. 1982. Generalized instrumental variables
estimation of nonlinear rational expectations models. Econometrica
50, 126-86.
Hart, B.S. and von Neumann, J. 1942. Tabulation of the probabilities for
the ratio of mean square successive difference to the variance. Annals
of Mathematical Statistics 13, 207-14.
Hausman, J.A. 1978. Specification tests in econometrics. Econometrica
46, 125-172.
Hausman, J.A. 1983. Specification and estimation of simultaneous
equation models. In Handbook of Econometrics, Vol. 1, ed. Z. Griliches
and M. D. Intriligator, Amsterdam: North Holland.
73
Hausman, J. and Wise, D.A. 1979. Attrition bias in experimental and
panel data: the Gary income maintenance experiment. Econometrica
47, 45-57.
Hausman, J.A. and Wise, D.A. 1985. Social Experimentation. Chicago:
University of Chicago Press for the National Bureau of Economic
Research.
Hausman, J.A., Hall, B.H. and Griliches, Z. 1984. Econometric models for
count data with application to the patents R & D relationship.
Econometrica 52, 909-1038.
Heckman, J.J. and Singer, B. 1984. Econometric duration analysis. Journal
of Econometrics 24, 631-32.
Heckman, J.J. and Willis, R. 1977. A betalogistic model for the analysis of
sequential labour force participation by married women. Journal of
Political Economy 85, 27-58.
Hendry, D.F. 1976. The structure of simultaneous equations estimators.
Journal of Econometrics 4, 51-88.
Hendry, D.F. and Richard, JF. 1982. On the formulation of empirical
models in dynamic econometrics. Journal of Econometrics 20, 3-33.
Hooker, R.H. 1901. Correlation of the marriage rate with trade. Journal of
the Royal Statistical Society 44, 485-92.
Hsiao, C. 1983. Identification. In Handbook of Econometrics, Vol. I, ed. Z.
Griliches and M.D. Intriligator, Amsterdam: North Holland.
74
Hsiao, C. 1985. Benefits and limitations of panel data. Econometric
Reviews 4, 121-74.
Jorgenson, D.W. 1966. Rational distributed lag functions. Econometrica
34, 135-49.
Kendall, M.G. 1968. The history of statistical methods. In International
Encyclopedia of the Social Sciences, ed. D.L. Sills, Vol. 15, Nueva York:
Macmillan and The Free Press, 224-32.
Keynes, J.M. 1921. A Treatise on Probability. Londres: Macmillan. Keynes,
J.M. 1939. The statistical testing of business cycle theories. Economic
Journal 49, 558-68.
Klein, L.R. 1947. The use of econometric models as a guide to economic
policy. Econometrica 15, 111-51.
Klein, L.R. 1950. Economic Fluctuations in the United States 1921-1941.
Cowles Commission Monograph No.11, Nueva York: John Wiley.
Klein, L.R. 1971. Whither econometrics? Journal of the American
Statistical Society 66, 415-21.
Klein, L.R. and Goldberger, A.S. 1955. An Econometric Model of the
United States, 1929-1952. Amsterdam: North Holland.
Koopmans, T.C. 1937. Linear Regression Analysis of Economic Time
Series. Haarlem: De Erven F. Bohn for the Netherlands Economic
Institute.
Koopmans, T.C. 1949. Identification problems in economic model
construction. Econometrica 17, 125-44.
75
Koopmans, T.C. 1950. When is an equation system complete for
statistical purposes? In Statistical Inference in Dynamic Economic
Models, ed. T.C. Koopmans, Cowles Commission Monograph No.10,
Nueva York: John Wiley.
Koopmans, T.C., Rubin, H. and Leipnik, R.B. 1950. Measuring the
equation systems of dynamic economics. In Statistical Inference in
Dynamic Economic Models, ed. T.C. Koopmans, Cowles Commission
Monograph No. 10, Nueva York: John Wiley.
Koyck, L.M. 1954. Dislribuled Lags and Investment Analysis. Amsterdam:
North Holland.
Kuh, E. 1959. The validity of cross-sectionally estimated behaviour
equations in time series applications. Econometrica 27, 197-214.
Lawson,T. 1981. Keynesian model building and the rational expectations
critique. Cambridge Journal of Economics 5, 311-26.
Leamer, E.E. 1978. Specification Searches: Ad Hoc Inference with
Nonexperimental Data. Nueva York: John Wiley.
Leamer, E.E. 1983. Let's take the con out of Econometrics. American
Economic Review 73, 31-43.
Leamer, E.E. 1985a. Vector autoregressions for causal inference. In
Carnegie-Rochester Conference Series on Public Policy 22, ed. K.
Brunner and A.H. Meltzer, Amsterdam: NorthHolland, 255-304.
Leamer, E.E. 1985b. Sensitivity analyses would help. American Economic
Review 85, 308-13.
76
Leamer, E.E. 1986. A Bayesian analysis of the determinants of inflation.
In Model Reliability, ed. D.A. Belsley and E. Kuh, Cambridge, Mass: MIT
Press.
Leamer, E.E. and Leonard, H. 1983. Reporting the fragility of regression
estimates. Review of Economics and Statistics 65, 306-17.
Lenoir, M. 1913. Études sur la formation et le mouvement des prix. Paris:
Giard et Briere.
Leontief, W.W. 1936. Quantitative input-utput relations in the economic
system of the United States. Review of Economic Slalislics 18, 105-25.
Leontief, W.W. 1941. The Struclure of American Economy, 1919-1929.
Cambridge, Mass: Harvard University Press.
Leontief, W.W. 1951. The Struclure of American Economy, 1919-1939.
2nd edn, Oxford: Oxford University Press.
Litterman, R.B. 1985. Forecasting with Bayesian vector autoregressions:
five years of experience. Journal of Business and Economic Slalislics 4,
25-38.
Liu, T.C. 1960. Underidentification, structural estimation and forecasting.
Economelrica 28, 855-65.
Lucas, R.E. 1972. Expectations and the neutrality of money. Journal of
Economic Theory 4, 103-24.
Lucas, R.E. 1973. Some international evidence on output-inflation
tradeoffs. American Economic Review 63, 326-34.
77
Lucas, R.E. 1976. Econometric policy evaluation: a critique. In The
Phillips Curve and Labor Markels, ed. K. Brunner and A.M. Meltzer,
Carnegie-Rochester Conferences on Public Policy, Vol. I, Amsterdam:
North Holland, 1986 [Traducción al español: Dr. Rafael Núñez Zúñiga,
2006].
Lyttkens, E. 1970. Symmetric and asymmetric estimation methods. In
Interdependent Systems, ed. E. Mosback and H. Wold, Amsterdam:
North Holland.
McAleer, M., Pagan, A.R. and Volker, P.A. 1985. What will take the con
out of econometrics? American Economic Review 75, 293-307.
Maddala, G.S. 1983. Limited Dependent and Qualilative Variables in
Econometrics. Cambridge: Cambridge University Press.
Maddala, G.S. 1986. Disequilibrium, self-selection, and switching models.
In Handbook of Econometrics, Vol. 3, ed. z. Griliches and M. D.
Intriligator, Amsterdam: North Holland.
Malinvaud, E. 1966. Statistical Methods of Econometrics. Amsterdam:
North Holland.
Manski, C.F. and McFadden, D. 1981. Structural Analysis of Discrete Data
with Econometric Applications. Cambridge, Mass: MIT Press.
Marschak, J. 1953. Economic measurements for policy and prediction. In
Studies in Econometric Melhod, ed. W.C. Hood and T.C. Koopmans,
Cowles Commission for Research in Economics Monograph No.14,
Nueva York: John Wiley.
78
Marschak, J. and Andrews, W.H. 1944. Random simultaneous equations
and the theory of production. Economelrica 12, 143-205.
Mitchell, W.C. 1928. Business Cycles: Ihe Problem in ils Selling. Nueva
York: National Bureau of Economic Research.
Moore, H.L. 1914. Economic Cycles: Their Law and Cause. Nueva York:
Macmillan Press.
Moore, H.L. 1917. Forecasting the Yield and the Price of Cotton. Nueva
York: Macmillan Press.
Morgan, M.S. 1986. Statistics without probability and Haavelmo's
revolution in econometrics. In The Probabilistic Revolution: Ideas in
the Social Sciences, ed. L. Kruger, G. Gigerenzer and M. Morgan,
Cambridge, Mass: M1T Press.
Mundlak, Y. 1961. Empirical production function free of manage ment
bias. Journal of Farm Economics 43, 44-56.
Mundlak, Y. 1978. On the pooling of time series and cross section data.
Econometrica 46, 69-85.
Muth, 1.F. 1961. Rational expectations and the theory of price
movements. Econometrica 29, 315-35.
Nelson, C.R. 1972. The prediction performance of the FRB-MIT-Penn
model of the US economy. American Economic Review 62, 902-17.
Nerlove, M. 1958a. Adaptive expectations and the cobweb phenom ena.
Quarterly Journal of Economics 72, 227-40.
79
Nerlove, M. 1958b. Distributed Lags and Demand Analysis. USDA,
Agriculture Handbook No.141, Washington, DC.
Nerlove, M., Grether, D. M. and Carvalho, E. L. 1979. Analysis of
Economic Time Series: A Synthesis. Nueva York: Academic Press.
Neumann, I. von. 1941. Distribution of the ratio of the mean square
successive difference to the variance. Annals of Mathematical
Statistics 12, 367-95.
Neumann, I. von. 1942. A further remark on the distribution of the ratio
of the mean square successive difference to the variance. Annals of
Mathematical Statistics 13, 86-8.
Orcutt, G.H. 1948. A study of the autoregressive nature of the time
series used for Tinbergen's model of the economic system of the
United States, 1919-1932. Journal of the Royal Statistical Society,
Series B 10, 145 (Discussion, 46-53).
Orcutt, G.H., Greenberger, M., Korbel, I. and Rivlin, A.M. 1961.
Microanalysis of Socioeconomic Systems: A Simulation Study. Nueva
York: Harper & Row.
Orcutt, G.H., Merz, I. and Quinke, H. (eds) 1986. Microanalytic Simulation
Models to Support Social and Financial Policy. Amsterdam: North
Holland.
Pagan, A.R. and Hall, A.D. 1983. Diagnostic tests as residual analysis.
Econometric Reviews 2, 152-18.
80
Paris, S.1. and Houthakker, H.S. 1955. The Analysis of Family Budgets.
Cambridge: Cambridge University Press.
Pesaran, M.H. 1981. Identification of rational expectations models.
Journal of Econometrics 16, 375-98.
Pesaran, M.H. 1987. The Limits to Rational Expectalions. Oxford: Basil
Blackwell.
Pesaran, M.H. and Deaton, A.S. 1978. Testing nonnested nonlinear
regression models. Econometrica 46, 677-94.
Pesaran, M.H. and Smith, R.P. 1985a. Keynes on econometrics. In
Keynes' Economics: methodological issues, ed. T. Lawson and M.H.
Pesaran, Londres: Croom Helm.
Pesaran, M.H. and Smith, R.P. 1985b. Evaluation of macroeconometric
models. Economic Modelling, April, 125-34.
Phillips, P.C.B. 1983. Exact small sample theory in the simultaneous
equations model. In Handbook of Econometrics, ed. Z. Griliches and
M.D. Intrilgator, Vol. I, Amsterdam: North Holland.
Phillips, P.C.B. 1986. Understanding spurious regressions in
econometrics. Journal of Econometrics 33, 31140.
Phillips, P.C.B. and Durlauf, S.N. 1986. Multiple time series regression
with integrated processes. Review of Economic Studies 53, 473-95.
Phillips, P.C.B. 1987. Time series regression with unit roots.
Econometrica (forthcoming).
81
Prothero, D.L. and Wallis, K.F. 1976. Modelling macroeconomic time
series. Journal of Ihe Royal Statistical Society, Series A 139, 468-86.
Quandt, R.E. 1982. Econometric disequilibrium models. Econometric
Reviews 1, 163.
Ramsey, 1.B. 1969. Tests for specification errors in classical linear least
squares regression analysis. Journal of the Royal Statislical Sociely,
Series B 31, 350-71.
Reiersol,O. 1941. Confluence analysis by means of lag moments and
other methods of confluence analysis. Econometrica 9, 1-24.
Reiersol, 0. 1945. Confluence Analysis by Means of Inslrumental Sels of
Variables. Stockholm.
Rosen, H.S. 1985. Housing behaviour and the experimental housing
allowance program: what have we learned? In Social Experimentation,
ed. J.A. Hausman and D.A. Wise, Chicago: University of Tin Chicago
Press.
Rothenberg, T.J. 1984. Approximating the distributions of economet Tin
ric estimators and test statistics. In Handbook of Econometrics, ed. Z
Griliches and M.D. Intriligator, Vol. 2, Amsterdam: North Holland.
Ruggles, R. and Ruggles, N. 1956. National Income Account and Income
Analysis. 2nd edn, Nueva York: McGraw-Hill.
Samuelson, P.A., Koopmans, T.C. and Stone, J.R.N. 1954. Report of the
evaluative committee for Econometrica. Econometrica 22, 14-16.
82
Sargan, J.D. 1958. The estimation of economic relationships using
instrumental variables. Econometrica 26, 393-415.
Sargan, J.D. 1964. Wages and prices in the United Kingdom: A Study in
Econometric Methodology. In Econometric Analysis for National
Economic Planning, ed. P.E. Hart, G. Mills and J.K. Whitaker, Londres:
Butterworths.
Sargent, T.J. 1973. Rational expectations, the real rate of interest and W,
the natural rate of unemployment. Brookings Papers on Economic
Activity No.2, 429-72.
Sargent, T.J. and Wallace, N. 1976. Rational expectations and the theory
of economic policy. Journal of Monetary Economics 2, 169-84.
Savin, N. E. 1973. Systems k-class estimators. Econometrica 41, W 112-
536.
Schultz, M. 1938. The Theory and Measurement of Demand. Chicago:
University of Chicago Press.
Schumpeter, J. A. 1954. History of Economic Analysis. Londres: George
Allen & Unwin.
Shiller, R. J. 1973. A distributed lag estimator derived from smoothness
priors. Econometrica 41,775-88.
Sims, C.A. 1972. Money, income and causality. American Economic
Review 62, 540-52.
Sims, C.A. 1980. Macroeconomics and reality. Econometrica 48, 14-8.
83
Sims, C.A. 1982. Policy analysis with econometric models. Brookings
Papers on Economic Activity No.1, 107-64.
Sims, C.A. 1986. Are forecasting models usable for policy analysis? W
Federal Reserve Bank of Minneapolis Review 10,2-16.
Slutsky, E. 1927. The summation of random causes as the source of v.
cyclic processes. In Problems of Economic Conditions, Vol. 3, Moscow.
English trans. in Econometrica 5, (1937), 105-46.
Solow, R.M. 1960. On a family of lag distributions. Econometrica 28, 393-
406.
Srivastava, V.K. 1971. Three-stage leastsquares and generalized double
kclass estimators: a mathematical relationship. International Economic
Review 12,312-16.
Stafford, F.P. 1985. Income maintenance policy and work effort: learning
from experiments and labour market studies. In Social
Experimentation, ed. J.A. Hausman and D.A. Wise, Chicago: University
of Chicago Press.
Stigler, G.J. 1954. The early history of empirical studies of consumer
behaviour. Journal of Political Economy 62, 95-113.
Stigler, G.J. 1962. Henry L. Moore and statistical economics.
Econometrica 30, 1-21.
Stone, J.R.N. 1945. The analysis of market demand. Journal of the Royal
Statistical Society Series A 108, 286-382.
84
Stone, J.R.N. et al. 1954a. Measurement of Consumers' Expenditures and
Behaviour in the United Kingdom, 192038, Vols. I and 2. Londres:
Cambridge University Press.
Stone, J.R.N. 1954b. Linear expenditure systems and demand analysis:
an application to the pattern of British demand. Economic Journal
64,51-127.
Stone, J.R.N. 1978. Keynes, political arithmetic and econometrics. British
Academy, Seventh Keynes Lecture in Economics.
Stone, J.R.N. 1984. The accounts of society. Nobel Memorial lecture.
Reprinted in Journal of Applied Econometrics I, (1986), 5-28.
Theil, H. 1954. Estimation of parameters of econometric models. Bulletin
of International Statistics Institute 34, 12-28.
Theil, H. 1958. Economic Forecasts and Policy. Amsterdam: North
Holland; 2nd edn, 1961.
Tinbergen, J. 192930. Bestimmung und Deutung von Angebotskurven:
ein Beispiel. Zeitschrift fur Nationalokonomie 1, 669-79.
Tinbergen, J. 1937. An Econometric Approach to Business Cycle
Problems. Paris: Herman & Cie Editeurs.
Tinbergen, J. 1939. Statistical Testing of Business Cycle Theories. Vol. I:
A Method and its Application to Investment activity; Vol. 2: Business
Cycles in the United States of America, 1919-1932. Geneva: League of
Nations.
85
Tobin, J. 1958. Estimation of relationships for limited dependent
variables. Econometrica 26, 24-36.
Treadway, A.B. 1971. On the multivariate flexible accelerator.
Econometrica 39, 845-55.
Trivedi, P.K. 1975. Time series analysis versus structural models: a case
study of Canadian manufacturing behaviour. International Economic
Review 16, 587-608
Wallis, K.F. 1977. Multiple time series analysis and the final form of
econometric models. Econometrica 45, 148-197.
Wallis, K. 1980. Econometric implications of the Rational Expectations
Hypothesis. Econometrica 48, 49-73.
Wegge, L.L. 1965. Identifiability criteria for a system of equations as a
whole. Australian Journal of Statistics 3, 67-77.
Whewel\, W. 1850. Mathematical Exposition of some Doctrines of
Political Economy: Second Memoir. Cambridge: Cambridge
Philosophical Society, 1856, Transaction 9, Pt. I. Philosophical Society.
White, H. 1981. Consequences and detection of misspecified nonlinear
regression models. Journal of the American Statistical Association 76,
4-33.
White, H. 1982. Maximum likelihood estimation of misspecified models.
Econometrica 50, 1-26.
Whittle, P. 1963. Prediction and Regulation by Linear Leastsquares
Methods. Londres: English Universities Press.
86
Wickens, M. 1982. The efficient estimation of econometric models with
rational expectations. Review of Economic Studies 49, 55-68.
Wicksteed, P.H. 1889. On certain passages in Jevons's theory of political
economy. The Quarterly Journal of Economics 3, 293-314.
Wold, H. 1938. A Study in the Analysis of Stationary Time Series.
Stockholm: Almqvist and Wiksel.
Working, E.J. 1927. What do statistical 'demand curves' show? Quarterly
Journal of Economics 41, 212-35.
Wright, P.G. 1915. Review of economic cycles by Henry Moore. Quarterly
Journal of Economics 29, 631-41.
Wright, P.G. 1928. The Tariff on Animal and Vegetable Oils. Londres.
Macmillan for the Institute of Economics.
Yule, G.U. 1895, 1896. On the correlation of total pauperism with
proportion of outrelief. Economic Journal 5, 60311; 6, 61-123.
Yule, G.U. 1915. Crop production and price: a note on Gregory King's
law. Journal of the Royal Statistical Society 78, March, 29-68.
Yule, G.U. 1921. On the timecorrelation problem, with special reference
to the variatedifference correlation method. Journal of the Royal
Statistical Society 84, 497-526.
Yule, G.U. 1926. Why do we sometimes get nonsense correlations
between timeseries? A study in sampling and the nature of timeseries.
Journal of the Royal Statistical Society 89, 1-64.
87
Zellner, A. 1962. An efficient method of estimating seemingly unrelated
regressions and tests for aggregation bias. Journal of the American
Statistical Association 57, 348-68.
Zellner, A. 1979. Statistical analysis of econometric models. Journal of
the American Statistical Association 74, 628-43.
Zellner, A. 1984. Basic Issues in Econometrics. Chicago: University of
Chicago Press.
Zellner, A. 1985. Bayesian econometrics. Econometrica 53, 253-70.
Zellner, A. and Palm, F. 1974. Time series analysis and simultaneous
equation econometric models. Journal of Econometrics 2, 17-54.
Zellner, A. and Theil, H. 1962. Three stage least squares: simultaneous
estimation of simultaneous equations. Econometrica 30, 54-78.
TÉRMINOS RELACIONADOS
- Análisis de series de tiempo
- Economía matemática
- Estimación
- Modelos macroeconométricos
88
- Problemas de especificación en
econometría
- Prueba de hipótesis
F I N
89
Recommended