109
ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE MINAS PROYECTO FIN DE CARRERA DEPARTAMENTO DE MATEMÁTICA APLICADA Y MÉTODOS INFORMÁTICOS ESTUDIO DE LA APLICABILIDAD DE LAS APROXIMACIONES UNIFORMES AL ANÁLISIS DE SERIES HISTÓRICAS. APLICACIÓN AL CASO DE LOS PRECIOS DEL COBRE RAFAEL BARAÑANO MUÑOZ SEPTIEMBRE DE 2013

ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE …oa.upm.es/22446/1/PFC_Rafael_Baranano_Munoz.pdf · es suficientemente potente para desarrollar los ... suficiente una aproximación por

Embed Size (px)

Citation preview

ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE MINAS

PROYECTO FIN DE CARRERA

DEPARTAMENTO DE MATEMÁTICA APLICADA

Y MÉTODOS INFORMÁTICOS

ESTUDIO DE LA APLICABILIDAD DE LAS APROXIMACIONES

UNIFORMES AL ANÁLISIS DE SERIES HISTÓRICAS.

APLICACIÓN AL CASO DE LOS PRECIOS DEL COBRE

RAFAEL BARAÑANO MUÑOZ SEPTIEMBRE DE 2013

TITULACIÓN: INGENIERO DE MINAS PLAN: 1996

Autorizo la presentación del proyecto

ESTUDIO DE LA APLICABILIDAD DE LAS APROXIMACIONES

UNIFORMES AL ANÁLISIS DE SERIES HISTÓRICAS

APLICACIÓN AL CASO DE LOS PRECIOS DEL COBRE

Realizado por

Rafael Barañano Muñoz

Dirigido por

Julián Alonso Martínez Carlos Macías Evangelista

Firmado: Prof. Julián Alonso Martínez Fecha: 11/10/2013

AGRADECIMIENTOS

Al profesor Julián Alonso, mi tutor de la Escuela Técnica Superior de Ingenieros de

Minas, por proporcionarme la oportunidad de realizar el Proyecto Fin de Carrera.

Al profesor Carlos Macías Evangelista, mi cotutor en la Escuela Técnica Superior de

Ingenieros de Minas.

A Manuel Hervás Maldonado, Secretario académico de la Escuela Técnica Superior

de Ingenieros de Minas, quien siempre me ha estado orientando, y asesorando en

cualquier tipo de duda referente al proyecto.

Y, por último, a mis familiares, y especialmente a mi padre, quien con sus

conocimientos en las áreas de matemáticas e informática, nos ha ayudado a

solventar las distintas dudas que nos han ido surgiendo a lo largo del proyecto.

i

Contenido

DOCUMENTO Nº1: Memoria

1 OBJETIVO Y ALCANCE. 2

2 DEFINICIÓNDELPROBLEMATRATADO . 5

2.1 Introducción. 10

2.2 Sensibilidad de la muestra. 10

3 ANTECEDENTES. 13

3.1 Introduccion a la teoría de aproximación. 13

3.1.1 Concepto de aproximación. 13

3.1.2 Mejor aproximación en un espacio métrico. _________________________________ 16

3.1.3 Mejor aproximación en un espacio vectorial normado. _______________________ 16

3.1.4 Mejor aproximación enun espacio prehibertiano. ____________________________ 17

3.2 Ortogonalización. ______________________________________________________ 23

3.3 Aproximación de funciones. ___________________________________________________ 24

3.3.1 Teorema de Weierstrass. _________________________________________________ 26

3.4 Interpolación. _________________________________________________________ 31

3.5 Aproximaciones uniformes. ___________________________________________________ 34

3.5.1 Soporte de Tchebichef. ___________________________________________________ 35

3.5.2 Ortogonalidad de los polinomios de Tchebichef. ____________________________ 40

3.6 Aproximaciones uniformes. ___________________________________________________ 41

3.6.1 Teorema de Haar. ________________________________________________________ 42

3.6.2 Teorema de La Vallée Poussin. ___________________________________________ 45

3.6.3 Teorema de Tchebichef. _________________________________________________ 46

4. ANÁLISIS DE LA MUESTRA. 53

5. ANÁLISIS DE RESULTADOS. 65

5.1 Resultados obtenidos. 65

6. CONCLUSIONES. 66

7. REFERENCIAS Y BIBLIOGRAFÍA. 68

ii

DOCUMENTO Nº 2: ESTUDIO ECONÓMICO

1 ESTUDIO ECONÓMICO. 73

DOCUMENTO Nº 3: ANEXOS

ANEXO A: TEORÍA DE MÍNIMOS CUADRADOS. 77

ANEXO B : GRÁFICOS . 88

iii

Resumen

El objetivo de este proyecto de investigación es comparar dos técnicas matemáticas

de aproximación polinómica, las aproximaciones según el criterio de mínimos

cuadrados y las aproximaciones uniformes (“minimax”). Se describen tanto el

mercado actual del cobre, con sus fluctuaciones a lo largo del tiempo, como los

distintos modelos matemáticos y programas informáticos disponibles.

Como herramienta informática se ha seleccionado Matlab®, cuya biblioteca

matemática es muy amplia y de uso muy extendido y cuyo lenguaje de programación

es suficientemente potente para desarrollar los programas que se necesiten.

Se han obtenido diferentes polinomios de aproximación sobre una muestra (serie

histórica) que recoge la variación del precio del cobre en los últimos años. Se ha

analizado la serie histórica completa y dos tramos significativos de ella. Los

resultados obtenidos incluyen valores de interés para otros proyectos.

Abstract

The aim of this research project is to compare two mathematical models for

estimating polynomial approximation, the approximations according to the criterion

of least squares approximations uniform (“Minimax”). Describes both the copper

current market, fluctuating over time as different computer programs and

mathematical models available.

As a modeling tool is selected main Matlab® which math library is the largest and

most widely used programming language and which is powerful enough to allow you

to develop programs that are needed.

We have obtained different approximating polynomials, applying mathematical

methods chosen, a sample (historical series) which indicates the fluctuation in copper

prices in last years. We analyzed the complete historical series and two significant

sections of it. The results include values that we consider relevant to other projects.

ESTUDIO DE LA APLICABILIDAD DE LAS APROXIMACIONES

UNIFORMES AL ANÁLISIS DE SERIES HISTÓRICAS.

APLICACIÓN AL CASO DE LOS PRECIOS DEL COBRE

DOCUMENTO Nº 1: MEMORIA

2

1 Objetivo y alcance

En el mundo actual, más que nunca, es de vital importancia establecer

predicciones fiables, respecto a comportamientos futuros, de magnitudes variables

(físicas, económicas, etc…), a partir de la información, sobre dichas magnitudes,

recogida, en forma de series históricas, más o menos extensas en el tiempo. Tales

predicciones se llevan a cabo mediante metodologías muy distintas, basadas todas

ellas, en el establecimiento de unos modelos que, no siempre, han demostrado su

eficacia. No hay más que remitirnos a la actual crisis económica para constatar la

ineficacia que han demostrado muchos de estos modelos dada la inexactitud; a veces,

enorme, de las predicciones realizadas.

Muchos de estos modelos terminan estableciendo, o al menos hacen uso de

funciones (casi siempre polinómicas) calculadas para que aproximen

“suficientemente bien” un conjunto de valores históricos conocidos de las

magnitudes objeto del estudio y es, a partir de dichas expresiones, mediante técnicas

de análisis, más o menos sofisticadas, como se deducen valores para el futuro.

En la mayor parte de los casos, el concepto de aproximación “suficientemente

buena” se apoya en, o incluso termina siendo, un ajuste de la nube de puntos de la

serie histórica, mediante la técnica de mínimos cuadrados. Un ejemplo,

extremadamente simplificado, de lo anterior es el caso de la conocida “recta de

regresión” que, como es sabido, no es más que un ajuste mínimo-cuadrático de tipo

lineal mediante un polinomio de grado uno.

En todo lo que sigue nos preguntamos si dicha técnica de aproximación es tan buena

como creemos o, dicho de otra manera, si el criterio mínimo-cuadrático es preferible

o no a otros criterios de medición de bondad de ajuste. Es sabido que dicha técnica

de ajuste utiliza, como criterio de bondad, el que la suma de los cuadrados de las

desviaciones entre los datos conocidos y la curva representativa de la función de

ajuste, sea la mínima posible. Parece, a primera vista, un criterio razonablemente

bueno y, no en vano, dispone de un amplísimo bagaje matemático y consideraciones

de naturaleza estadística que lo sustenta. Pero también es cierto que los errores,

3

medidos como desviaciones entre los datos y la curva de ajuste, si bien, en media

(media cuadrática), podrían ser aceptables, analizados individualmente, pueden ser

en algunos casos de una magnitud inaceptable.

La situación descrita se hace especialmente patente cuando existen irregularidades

puntuales en los datos o dicho de otra manera, aparecen puntos atípicos, lo que

ocurre cuando nos enfrentamos a series históricas que reflejan la evolución de una

variable medida en períodos de tiempo en el que existen momentos de gran

fluctuación como; por ejemplo, ocurre con las magnitudes de índole económica en

los momentos actuales. ¿ No sería deseable que dispusiésemos de una metodología

que limitase el error máximo que se produce en el ajuste de los datos de la serie

histórica a nuestra curva de ajuste ?. O mejor aún, ¿ no convendría utilizar una

metodología que minimizase, en el peor de los casos, dicho error ?.

Afortunadamente, tal metodología existe en el arsenal matemático del que hoy día

disponemos. Se trata de las aproximaciones uniformes, también denominadas

aproximaciones “minimax”, que se basan en considerar, como criterio de bondad de

un ajuste, la minimización del error absoluto máximo o, planteando el problema de

otra manera: elegir, del conjunto de las infinitas funciones de ajuste, de un tipo

predeterminado, aquella que nos garantice que el error máximo, definido como antes

hemos hecho; es decir, como la mayor desviación, ahora en valor absoluto, entre los

valores-dato y sus valores ajustados, sea mínima en el conjunto de todos los datos.

En lo que sigue nos proponemos, tras un breve repaso de las restantes técnicas de

aproximación, llevar a cabo un estudio exhaustivo de las aproximaciones uniformes

para datos de tipo discreto, a sabiendas de que la obtención de dichas curvas de

aproximación se basan en algoritmos muchísimo más complicados que en el caso

mínimo-cuadrático y conocedores del escaso desarrollo matemático que tales

aproximaciones han merecido hasta la fecha, si lo comparamos con la metodología

del ajuste mediante el criterio de los mínimos cuadrados.

4

En concreto, en nuestro proyecto, partiremos de un conjunto de datos

relativos a la evolución del precio del cobre, en los últimos años y, sobre dicha serie

histórica, elaboraremos nuestros estudios. Individualizaremos las curvas de ajuste de

un tipo (mínimos cuadrados) y otro (minimax) y analizaremos, comparativamente,

los resultados obtenidos tratando de llegar a conclusiones respecto a la conveniencia

o no de utilizar una u otra metodología.

Como paso previo a todos los estudios, se ha realizado un pretratamiento de los

datos con el fin de homogeneizarlos, eliminando de la muestra, aquellos puntos que

se han considerado poco relevantes o que alteraban en exceso la homogeneidad de la

serie histórica. Hay que añadir, no obstante, que la fiabilidad de los resultados es

limitada puesto que la muestra no ha sido calibrada ni validada como hubiese sido

deseable. No obstante, dado el carácter marcadamente teórico de este proyecto y el

tipo de conclusiones a que esperamos llegar, el hecho de la no absoluta fiabilidad de

los datos de la serie histórica, podría considerarse irrelevante.

Como parte fundamental de este proyecto se ha desarrollado un programa

informático que implemente a el algoritmo de obtención de aproximaciones

uniformes de tipo polinómico, sobre datos de naturaleza discreta. Dicha aplicación

informática, soportada, tanto en el entorno de desarrollo MATLAB® como en el

entorno de OCTAVE, llevará a cabo la obtención numérica del polinomio

aproximante, mediante las dos metodologías ya indicadas, y llevar a cabo la

presentación gráfica de los resultados que se obtengan.

5

2 Definición del problema tratado

2.1 Introducción

Antes de realizar las estimaciones y el estudio detallado con los dos métodos

mencionados anteriormente, conviene explicar algunos antecedentes relevantes del

mercado del cobre y hacer algunas precisiones conceptuales.

El mercado del cobre, así como el de otros metales y productos primarios se

caracteriza por fuertes oscilaciones y por tendencias persistentes. Estas últimas

sugieren que el nivel de equilibrio del mercado es cambiante en el tiempo.

Por ejemplo, si consideramos promedios móviles del precio del cobre de veinte años

para el periodo 1920-2013, encontramos un mínimo de aproximadamente 125 c/lb, y

un máximo de aproximadamente 250 c/lb. Esto es un claro indicio de que el

equilibrio del mercado no ha sido constante y sugiere, además, que usar el promedio

histórico para formarse una idea del precio futuro es una mala estrategia.

El crecimiento del consumo de cobre ha sido altamente volátil año a año, y ha

presentado niveles de crecimiento desiguales en distintos periodos. Considerando el

crecimiento anual en periodos de veinte años, encontramos un mínimo de

aproximadamente 1,2% y un máximo de 5,4% para el periodo 1946-2013. En

resumen, el precio del cobre, ha presentado fuertes oscilaciones, y tendencias

persistentes y diferentes a lo largo del tiempo.

Es por esto último, por lo que debemos analizar a conciencia la muestra con sus

posibles fluctuaciones en el tiempo y estudiar el comportamiento de las dos técnicas

de aproximación (mínimos cuadrados y aproximaciones minimax) que deseamos

contrastar.

Podemos afirmar, en un primer análisis del problema tratado, que según sea el

intervalo considerado de la series históricas objeto de nuestro estudio, podría ser

suficiente una aproximación por mínimos cuadrados en la zona en que dicha serie se

comporta de manera suave, sin fluctuaciones importantes, lo que ocurre en los

primeros años estudiados. En concreto, desde el año 2000 hasta el año 2006 la nube

de puntos tiene un comportamiento muy regular lo que nos permite la utilización de

6

este método. Es a partir del año 2006, donde la serie presenta fuertes irregularidades

(fluctuaciones) y es, precisamente en esta zona de la serie donde el método por

mínimos cuadrados tiene una gran carencia en cuanto a precisión se refiere

presentando errores (desviaciones) muy grandes. A raíz de lo anterior surge la idea

de escoger un método que aproxime con mayor rigor este tipo de puntos.

Afortunadamente las aproximaciones uniformes, también denominadas

aproximaciones minimax, proporcionan una aceptable respuesta, notablemente

mejor que la que se obtiene de la aplicación de aproximaciones mínimo-cuadráticas.

Ya veremos en los diferentes estudios efectuados como existe una gran diferencia de

error cometido cuando la elección del método es uno u otro, haciendo especial

hincapié en los puntos atípicos (zona fluctuante).

Sin desviarnos de nuestro objetivo principal, vamos a continuar haciendo un pequeño

análisis del mercado del cobre tratando de analizar el comportamiento del precio del

cobre a lo largo de los últimos años y el porqué, a partir de 2006, ha surgido tanta

variabilidad en el precio.

En lo que sigue, vamos a analizar los valores del precio del cobre a largo plazo y

como han ido variando con el tiempo, lo que nos va ayudar a entender mejor que

componentes inciden de manera directa en la determinación de dichos precios.

Las estimaciones del precio de largo plazo han sido también variables en el tiempo,

como puede apreciarse en la siguiente gráfica realizada por la comisión chilena del

cobre (Cochilco) y que presenta las estimaciones anuales frente a valores de

“consenso” (trimestrales) obtenido como el promedio de varias proyecciones , y

proyecciones puntuales de Brook Hunt (experto analista en la determinación del

precio en minería) al final del periodo.

7

Estimaciones del precio del cobre a largo plazo

El precio de equilibrio de largo plazo es aquel para el cual no existen

incentivos para la entrada o salida de empresas. En el caso de la minería esto implica

que los factores de producción reciben su pago y que los retornos de las empresas en

producción son suficientes, mientras que los retornos que obtendrían los proyectos

que no están en producción serían insuficientes en el largo plazo.

Cuando el precio está alejado de este equilibrio, y en ausencia de impactos (o

“shocks”) a la demanda o la oferta, el precio del cobre converge hacia el equilibrio

de largo plazo, a través de la entrada o salida de empresas de la producción, un

proceso que; sin embargo, no es instantáneo, generándose así oscilaciones

persistentes en la serie de precios.

Es importante distinguir impactos de corto y largo plazo. Un alza puntual del precio

del petróleo, por ejemplo, no llevará inmediatamente a la salida de empresas de

producción, pero si la visión de largo plazo del precio del petróleo sube

sustancialmente, algunas compañías dejarán de ser rentables y se verán forzadas

a salir del mercado, disminuyendo la oferta y afectando el precio de equilibrio.

8

De lo anterior se desprende que el precio de equilibrio no es estático, y que diversos

impactos pueden moverlo en una y otra dirección, como la difusión de nuevas

tecnologías, variaciones en las reservas, o la calidad de los yacimientos, y también

cambios de largo plazo en el crecimiento de la demanda.

Lo que generalmente se denomina “precio de largo plazo” es un resumen de la

proyección del precio de equilibrio de largo plazo del mercado. Cuando la

proyección del precio de equilibrio es estable, podemos resumirla en un único

número, algo que implícitamente se hace al evaluar proyectos con un precio fijo. Si

el precio de equilibrio sigue una trayectoria, el uso de un solo precio de largo plazo

no es recomendable, pues será un promedio que depende del horizonte considerado.

En la figura siguiente se presentan estos conceptos de modo ilustrativo (no son

estimaciones). El gráfico de la izquierda presenta un precio de equilibrio con

una clara tendencia (en este caso una tendencia cuadrática), que se proyecta hacia el

futuro. Una tendencia cuadrática tiene algún sustento económico en el caso de los

metales. En la primera parte primarían el aumento de las reservas y las mejoras

tecnológicas, mientras que en la segunda parte primaría la escasez. El gráfico de la

derecha presenta un precio de equilibrio de largo plazo variable, pero sin una

tendencia determinada, de modo que la proyección es una línea horizontal.

9

En ambos casos el precio observado oscila en torno al precio de equilibrio de largo

plazo. El carácter cíclico de dichas oscilaciones es reflejo de la persistencia

antes descrita. El precio de equilibrio de largo plazo no se observa

directamente, y debe ser estimado. Es este en último punto, donde nosotros vamos a

incidir, tratando de determinar el precio futuro del cobre, apoyándonos al máximo

del histórico de puntos ya conocidos puesto que, nuestros modelos matemáticos, y en

concreto, más especialmente el método por aproximaciones Mininax será tanto más

rico, en cuanto a precisión se refiere, cuanto mayor sea el historial de puntos en el

que se apoye.

Otro aspecto importante que se desprende de estas ilustraciones es que la proyección

del precio de equilibrio de largo plazo es la proyección óptima del precio cuando el

horizonte es mayor. La proyección del precio observado converge rápidamente hacia

el equilibrio de largo plazo. En la evaluación de proyectos mineros, los primeros

años suelen corresponder a la construcción, por lo que corresponde usar el precio de

equilibrio para el momento en que el proyecto entraría en producción. De

cualquier manera, si el proyecto comenzara a producir en un horizonte cercano,

puede usarse una proyección del precio observado para los primeros años.

Un último aspecto conceptual a considerar es la influencia del crecimiento de la

demanda en el precio de equilibrio de largo plazo.

Una curva de oferta de largo plazo horizontal implicaría que el nivel de la demanda

no tiene efectos de largo plazo. Sin embargo, en el caso de la producción de cobre, la

diferencia en la calidad de los yacimientos conduce a una oferta que no es

horizontal sino creciente. En otras palabras, aún cuando se use la misma

tecnología y los mismos precios de factores, el costo marginal será diferente en

minas diferentes debido a factores técnicos como las reservas, la ley del mineral, el

tipo de mineral, la razón lastre mineral, y otras particularidades de cada yacimiento.

10

2.2 Sensibilidad de la muestra

Puede apreciarse que las proyecciones tienen una tendencia ligeramente decreciente

hasta el 2006, y a partir de entonces se incrementan abruptamente. El precio del

cobre había experimentado su mínimo en 2001, lo que sugiere que ante la

persistencia de los precios altos, lo que en un principio fue considerado como

variaciones cíclicas, más adelante ha sido interpretado como un cambio de nivel

permanente.

Al respecto, puede notarse que ha existido una tendencia decreciente en el

crecimiento del consumo de cobre en el periodo considerado (1946-2008),

reflejo de una caída sistemática en la intensidad de uso del cobre (la razón entre

consumo de cobre y producto), que; sin embargo, se ha estabilizado en los

últimos años con la irrupción de China como importante consumidor de cobre a altas

tasas de crecimiento. Esto ha llevado a una visión más optimista sobre la trayectoria

futura del consumo de cobre en el mediano y largo plazo.

El crecimiento del consumo en China ha sido elevado y significativo sobre el

promedio mundial. Sin embargo, al mismo tiempo puede observarse que el

crecimiento del resto del mundo ha presentado una tendencia decreciente, de modo

que China ha compensado en parte esa caída. A pesar del alto nivel de crecimiento

de China, el crecimiento anual del consumo mundial en los últimos diez años ha

sido de 3,2%, que se ha considerado como el escenario central de la proyección.

Esto se justifica porque, aun cuando pueda observarse una estabilización del

consumo de otras regiones consumidoras, existe consenso en que la trayectoria

del crecimiento en China será a tasas elevadas, pero menos que en el periodo

reciente. BGRIMM (Beijin General Research Institute Mineral Metallurgy) ha

proyectado un consumo en China más cercano al 6-7% para los próximos años,

cayendo hacia un nivel de aproximadamente 5,4% hacia el 2015.

Esta visión, comparativamente pesimista, se basa en que el estudio atribuye

importancia creciente al uso de chatarra, a los efectos de la sustitución, y a poco

crecimiento en el uso de cobre en productos de uso final, así como a una

11

moderación en otros sectores de uso final. Brook Hunt, por su parte, ha ido

disminuyendo progresivamente sus proyecciones de crecimiento del consumo Chino.

A finales de 2007 proyectaba una tasa de crecimiento para China de 7,1% para el

periodo 2008-2020, mientras que en el tercer trimestre de 2008, esa proyección ha

caído a 6,3% anual.

Como vemos, el precio del cobre ha fluctuado mucho en diversos momentos a lo

largo de estos años. Todos estos cambios responden a diferentes causas de

distinta índole y que en la siguiente gráfica quedan, de manera sintetizada

reflejados.

Entre 1972 y 1978, por ejemplo, la desaceleración mundial a causa de la crisis

petrolera, significó una fuerte caída en el precio real del cobre, que no ha llegado a

recuperar los altísimos valores que alcanzó en 1966 cuando registró un fuerte

aumento.

Asimismo, entre 1997 y el 2003, el precio del cobre volvió a experimentar una caída

afectada por una desaceleración de la economía mundial y por los envites de la crisis

asiática.

12

Posteriormente, el cobre experimentó un "boom", sufriendo un alza significativa

explicada fundamentalmente, por la irrupción de China y su fuerte demanda de

cobre.

No obstante, entre 2008 y 2009 el precio del cobre registró una caída producto de la

recesión mundial causada por” la crisis subprime”.

En 2010 el precio siguió avanzando, superando en un 46% el precio del año anterior.

Este desempeño fue impulsado por unas bases sólidas en el mercado y por el

respaldo de China como principal motor en el crecimiento de la demanda de metales.

Por último, en 2011 el precio del cobre disminuyó, afectado por las bajas

expectativas de crecimiento de diversos países.

En lo anteriormente comentado, se pone de manifiesto que la irrupción del

mercado chino ha tenido una influencia directa en el mercado del precio del cobre

empezando en el año 2004 y haciéndose claramente notoria a partir del año 2006.

Vamos por tanto, a hacer especial hincapié en este intervalo, que será motivo de

discusión en cuanto a la elección del método se refiere. Asímismo, no hemos

hablado hasta ahora, pero, si antes hacíamos referencia al fuerte crecimiento del

precio del cobre a partir del año 2006, también debemos reflejar en este apartado

el fuerte decrecimiento que se produjo en el mercado del cobre en el año 2008,

llegando a alcanzar un precio de 2,267 dólares por libra, en el precio del cobre.

Este descenso tan acusado se debe en gran medida a la crisis mundial financiera,

si bien es cierto que otros agentes influyeron de manera también notoria. Tal es el

caso del mercado chino que en el primer trimestre de 2008 tuvo un crecimiento

económico inferior al esperado aunque este descenso ya lo reflejaba Cochilco

desde el año anterior, llegando a producirse un descenso del 11,87% con respecto

a 2007. Además, El ánimo en el mercado se vio sacudido por el temor a un

debilitamiento de la demanda en China, el recrudecimiento de la crisis europea y la

timidez de la recuperación en EEUU.

13

Todo lo anterior queda reflejado en la gráfica siguiente en la que hemos

diferenciado, para nuestro estudio dos zonas: una zona de comportamiento suave.

que hemos marcado en azul y una zona claramente fluctuante que se muestra

marcada en color rojo.

3. Antecedentes

3.1 Introducción a la teoría de la aproximación

3.1.1 Concepto de aproximación

Definido un elemento ƒ de un conjunto E, el Análisis Numérico trata de los

procedimientos para su obtención práctica. La necesidad de este estudio surge del

hecho de que los elementos del conjunto E no son, en el caso más general, fácilmente

manejables. Nos encontramos por tanto, con un primer problema, consistente en la

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450PRECIOS DEL COBRE (Enero/1996 - Enero/2013). Zonas suave y fluctuante

Meses desde Enero/1996

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →

14

definición del elemento ƒ, estudio de sus características para poder situarlo en un

conjunto E cuyas propiedades puedan ser estudiadas con generalidad, o lo hayan

sido anteriormente, por tratarse de un conjunto conocido. El segundo problema,

obtención práctica del elemento ƒ, tratará, si ésta no es inmediata, de su sustitución

por otro Φ de un conjunto F, cuyos elementos presenten especiales características de

manejabilidad. Esta sustitución convendrá hacerla de forma que Φ sea en cierta

forma lo más próximo a ƒ.

Este concepto de proximidad nos lleva a definir el conjunto E como un espacio

métrico, es decir, un conjunto en el que se ha definido una distancia, aplicación

numérica

� ∶ �ƒ, Φ� ∈ E × E → �ƒ, Φ� ∈ ℝ

Tal que ∀ ƒ , Φ , h ∈ �

��ƒ, Φ� = 0 ƒ = Φ ��ƒ, Φ� = ��Φ, ƒ� ��ƒ, Φ� ≤ ��ƒ, h� + d�h, Φ�

Asimismo, consideraremos que F es un subconjunto de E.

Podemos ahora enunciar el principio de la aproximación:

Dado un elemento ƒ∈ E, obtener un elemento Φ* ∈F, siendo E un espacio métrico

con la distancia ��ƒ, Φ� y F ⊂ E, tal que

��ƒ, Φ∗� ≤ ��ƒ, Φ� ∀� ∈ F

Se nos plantea entonces varios problemas

- Existe el elemento Φ*?

- Si existe, es único ?

15

- Existe un procedimiento para su obtención?

- El valor de la distancia ��ƒ, ϕ∗�, es lo suficientemente pequeño, para que la

sustitución de ƒ por Φ* sea aceptable?

No existe una respuesta para todos estos problemas, ya que en el caso más general,

ésta sería negativa. Sin embargo, dependiendo de las características de los conjuntos

E y F, podemos en unos casos asegurar la existencia de Φ*, aunque no pueda

garantizarse su unicidad y será también posible en otros, elegir un subconjunto F ⊂

E, denso en E de forma que ��ƒ, Φ∗� sea tan pequeña como se quiera.

Respecto al procedimiento de obtención, éste debe comportar un número finito de

operaciones. Asimismo, el procedimiento debe ser tal que si ƒ∈ E, el elemento

obtenido sea el mismo ƒ

Φ* = ƒ

El elemento Φ* que cumple la condición se denomina mejor aproximación de ƒ∈ E

en F, según la distancia ��ƒ, Φ�, o también proyección de ƒ sobre F. A la distancia ��ƒ, Φ∗� se le denomina distancia de ƒ a F.

Conviene aclarar que la existencia de la mejor aproximación no garantiza la validez

de la sustitución de ƒ por Φ*, si

��ƒ, Φ∗� > �

donde � representa la desviación máxima admisible. Por otra parte puede no existir

la mejor aproximación y, sin embargo, existir un elemento Φ*∈F, tal que

��ƒ, Φ∗� < �

en cuyo caso, la sustitución de ƒ por Φ* sería perfectamente válida.

16

3.1.2 Mejor aproximación en un espacio métrico

Teorema.- Si F es un subconjunto compacto del espacio métrico E, existe al

menos un elemento Φ*∈F tal que

��ƒ, Φ∗� = min"∈# d�ƒ, Φ�

En efecto la función numérica continua

$: � ∈ F → D�Φ� = d�ƒ, Φ� ∈ ℝ

definida en un conjunto compacto alcanza su cota inferior.

3.1.3 Mejor aproximación en un espacio vectorial

normado

Consideremos el caso de que E sea un espacio vectorial normado, es decir, un

espacio vectorial en el que se ha definido una norma, aplicación numérica

‖ · ‖: ) ∈ E → ‖)‖ ∈ ℝ

tal que ∀* ∈ ℝ y ∀), + ∈ �

‖)‖ = 0 ) = ,

‖) + +‖ ≤ ‖)‖ + ‖+‖

‖*)‖ = │*│ · ‖)‖

Podemos definir en él la distancia

��), +� = ‖) − +‖), + ∈ �

Teorema.- Si F es un subespacio vectorial de dimensión finita, del espacio vectorial

normado E, para todo ) ∈ �, existe al menos un elemento Φ*∈F, tal que

17

‖) − Φ∗‖ = min"∈# ‖) − Φ∗‖

En efecto, si existe el elemento Φ* , ha de encontrarse en la bola cerrada ./(0,2‖)‖� de radio r= 2‖)‖ y centro en el elemento neutro del espacio vectorial, es decir, ‖1 ∗ ‖ ≤ 2, ya que para todo elemento Φ exterior a la bola

‖1‖ > 2

se tendría

‖) − 1‖ ≥ |‖)‖ − ‖1‖| > 2 2⁄

y puesto que si 0∈ � es el elemento neutro del espacio vectorial

‖) − ,‖ = 2 2⁄

sería

‖) − 1‖ > ‖) − ,‖

Se deduce que Φ* sólo puede encontrarse en un subconjunto compacto de F, por lo

que de acuerdo con el teorema anterior Φ* existe.

3.1.4 Mejor aproximación en un espacio prehibertiano

Se ha demostrado la existencia de la mejor aproximación en los espacios

mencionados. Sin embargo, han quedado sin contestación algunas de las preguntas

formuladas al principio de esta exposición, así como al valor de la distancia entre f y

Φ* , medida del error de la aproximación y que permitiría decidir sobre la validez de

la misma.

Un espacio que merece un tratamiento específico, por su gran importancia en el

estudio de los problemas del Cálculo numérico y en el cual las preguntas planteadas

tienen respuesta afirmativa, es el prehilbertiano.

Sea (f,g) el producto escalar definido en el espacio vectorial E

18

�), +�: 6), 78 ∈ � × � → �), +� ∈ ℝ

tal que ∀), +, 9 ∈ �, :∀* ∈ ℝ

�), +� = �+, )� �), + + 9� = �), +� + �), 9� �*), +� = *�), +� �), )� ≥ , �), )� = , ) = ,

Puede entonces definirse la norma

‖)‖ = ;�), )�

La existencia de un elemento Φ*∈ < en el subespacio vectorial F de dimensión finita

de E, está garantizada por el teorema anterior. El siguiente teorema, uno de los más

importantes de la teoría del Análisis Numérico, indica las condiciones que ha de

cumplir Φ* .

Teorema.- Una condición necesaria y suficiente para que Φ*∈ < sea una mejor

aproximación de ) ∈ =, siendo F un subespacio vectorial de dimensión finita, del

espacio prehilbertiano E, según la norma es que se cumpla

�) − >∗, >� = 0∀> ∈ <

La condición es necesaria. Supongamos que

∃>@ ∈ <:�A − >∗, >@� = * ≠ 0

Definamos el elemento >C ∈ <

>C = >∗ + D‖EF‖G >@

Se tiene

‖A − >C‖C = HA − >∗ − *‖>@‖C >@, A − >∗ − *‖>@‖C >@I = ‖A − >∗‖C − *C‖>@‖C

19

es decir

‖A − >C‖C < ‖A − >∗‖C

y Φ* no sería la mejor aproximación.

La condición es suficiente. Sea >@ ∈ < tal que

�) − >@, >� = 0∀> ∈ <

Puesto que > − >@ ∈ < se tiene

‖A − >‖C = ‖�) − >@� − �> − >@�‖C= J�) − >@� − �> − >@�, �) − >@� − �> − >@�K= ‖) − >@‖C + ‖> − >@‖C

es decir

‖) − >@‖C ≤ ‖) − >‖C

lo que indica que >@es una mejor aproximación de d∈ � en F.

Teorema.-La mejor aproximación Φ*∈ < de ) ∈ � en un espacio prehilbertiano es

única.

En efecto, supongamos que ∃>@∗, >C∗ ∈ <, tales que

‖) − >@∗‖ = ‖) − >C∗‖ < ‖) − >‖E∈L

Debe tenerse ∀> ∈ <

�) − >@∗, >� = 0 �) − >C∗ , >� = 0

y puesto que M = >@∗ − >C∗ ∈ <

‖>@∗ − >C∗‖ = �>@∗ − >C∗ , M� = �>@∗ − ) + ) − >C∗ , M�= −�) − >@∗, M� + �) − >C∗ , M� = 0

20

lo que implica >@∗ = >C∗.

Si la dimensión de F es n+1 y NOP, Q = 0. . ST es una base de dicho espacio la

condición se cumple si se cumplen las n+1 condiciones

�>∗, OP� = �), OP�Q = 0. . S

como puede verse, dado que todo elemento > ∈ < puede expresarse como

combinación lineal de los elementos NOPT. Sea

>∗ = U VWOWXY

Sustituyendo esta expresión en se obtiene el sistema

U VWJOW, OPK = �), OP�XY Q = 0. . S

Si NOPT es una base ortogonal resulta

VP = �), OP�‖OP‖C Q = 0. . S

y en el caso de ser una base ortonormal

VP = �), OP�Q = 0. . S

Los coeficientes NVPT, se denominan coeficientes de Fourier del elemento ) según el

sistema NOPT. Es importante notar que la base en la que se expresa >∗ puede ser distinta de a

utilizada para expresar la condición, de forma que la expresión más general es

U VWJOW , MPK = �), MP�XY Q = 0. . S

21

En la que NOPT, NMPT son dos bases de F y las VP los coeficientes de Fourier respecto a NOPT De acuerdo con lo expuesto, se deduce que en un espacio prehilbertiano, existe la

mejor aproximación, ésta es única y se dispone de un procedimiento para su

obtención. Falta determinar si la distancia

��), >∗� = ‖) − >∗‖

puede hacerse tan pequeña como se quiera.

Se ve en primer lugar que

‖) − >∗‖C = Z) − U VPOPZC = [) − U VPOP , ) − U VPOP\= ‖)‖C − 2 U VP�), OP�P + U VPVW�OP, OW�PW

pero si el sistema NOPT es ortonormal, se deduce teniendo en cuenta además

‖) − >∗‖C = ‖)‖C − U VPCXY

de donde resulta la desigualdad de Bessel

U VPCXY < ‖)‖C

Esta desigualdad se cumple para cualquier valor de n, luego la serie ∑ VPC converge.

Sin embargo, la serie ∑ VP OP puede no converger a ). Se deduce que para ello es

necesario que sea una igualdad

22

U VPC = ‖)‖C∞

Y

denominada igualdad de Parseval. Cuando esta igualdad se cumple ∀) ∈ �, el

sistema NOY, O@, … , OXT se denomina cerrado. El recíproco viene dado por el

siguiente.

Teorema (Riesz-Fisher).- Sea NOPT un sistema ortonormal en un espacio de

Hilbert. Dado un conjunto de números NVPT tales que la serie

U VPC

converge, existe un elemento ) ∈ �, tal que

VP = �), OP� y

U VPC = ‖)‖C

Sea

> = U VPOPXY

La sucesión N>XT es una sucesión fundamental en virtud de la convergencia de la

serie ∑ VPC , puesto que

‖>X _ − >X‖C = ` U VPOPX _X @ `C = U VPC

X _X @

23

Puesto que le espacio E es completo, esta sucesión tiende a un elemento ) ∈ �. Por

otra parte

J),φaK = J>X, φaK + J) − >X,φaK

Tomando n≥ Q resulta

J),φaK = VP + J) − >X,φaK

pero por la desigualdad de Cauchy-Buniakowsky

bJ) − >X,φaKb ≤ ‖) − >X‖ · cφac

tiende a cero cuando S → ∞. Por tanto

J),φaK = VP Los NVPT son los coeficientes de Fourier del elemento ) ∈ � y puesto que la serie ∑ VP φa converge a ), ha de verificarse la igualdad de Parseval.

3.2 Ortogonalización

La importante simplificación que se introduce en la solución del sistema cuando la

base del espacio prehilbertiano F es una base ortonormal, hace conveniente proceder

a la búsqueda de una base ortonormal a partir de una base cualquiera. Esto puede

conseguirse con el algoritmo de ortogonalización de Schmidt.

Sea N>P , Q = 0. . ST una base de F. Hagamos

Md = e>Yf = 0>Y − U�>d, OP�OP

dg@Y f ≠ 0h

Od = Md‖Md‖

Evidentemente para cualquier valor de k, es ‖Od‖ = 1. Además

24

�O@, OY� = 1‖M@‖ �>@ − �>@, >Y�OY, OY� = 0

Supongamos que se verifica

�Oj, O_� = 0k = 0. . l − 1∀l < f

Se tiene entonces

�Od, O_� = 1‖Md‖ �Od, O_� = 1‖Md‖ m>d − U�>d, OP�dg@Y OP, O_n

= 1‖Md‖ 6�>d, O_� − �>d, OP�8 = 0

Luego

�O@, O_� = o1pQk = 10pQk ≠ 1h El sistema NOPT definido por las fórmulas es, por tanto, un sistema ortonormal.

3.3 Aproximación de funciones

Los conceptos expuestos son válidos, cualesquiera que sean los elementos que

constituyan el conjunto E. Uno de los casos más importantes, dentro del Análisis

Numérico, es aquel que en dicho conjunto, es el espacio vectorial de funciones

continuas en un intervalo (a,b). Pueden considerarse distintos subconjuntos F⊂E,

siendo uno de los más utilizados el de los polinomios de grado igual o menos que n.

Es posible también elegir entre un conjunto de distintas normas, según el tipo de

problema estudiado. Señalemos en particular

a) ‖A‖ = maxs∈�t,u�|A�v�|

25

utilizada en las aproximaciones uniformes,

b) ‖A‖ = ∑|A�vP�| en la que NvPT representa un conjunto discreto de puntos.

En realidad se trata de una seminorma, por no cumplir la primera de las condiciones.

No obstante es posible, a partir de la misma, definir una norma en el espacio cociente

E/R, respecto de la relación de equivalencia

Awx ⇔ ‖A − x‖ = 0

se utiliza en las aproximaciones obtenidas por interpolación.

Si E es el espacio z@�V, {�, de funciones integrables�V, {�, puede definirse la norma

‖A‖ = | |A�v�|�vut

La norma definida en b) es un caso particular de ésta, cuando el intervalo�V, {� se

sustituye por el conjunto discreto de puntos NvPT ‖A‖ = }U AC�vP�

en la que NvPT representa un conjunto discreto de puntos.

Se trata como en el caso b) de una seminorma. Es la utilizada en las aproximaciones

efectuadas con el criterio de los mínimos cuadrados en conjuntos de puntos.

Si E es el espacio zC�V, {�, de funciones de cuadrados integrable, resulta un espacio

prehilbertiano, con el producto escalar

�A, x� = | A�v�x�v��vut

y la norma

26

‖A‖ = }~ AC�v��vut

Las aproximaciones obtenidas son como en el caso anterior las conocidas, como de

la media cuadrática, o mínimos cuadrados, para intervalos continuos.

Las razones que justifican la utilización de los polinomios en la aproximación de

funciones son fundamentalmente las dos siguientes.

La facilidad del cálculo de expresiones polinómicas en un ordenador digital.

La posibilidad de aproximar uniformemente una función, por un polinomio con la

precisión deseada. Quiere esto decir que con la distancia uniforme, el conjunto de los

polinomios es siempre denso en el de las funciones continuas, lo que se demuestra en

el siguiente teorema.

3.3.1 Teorema de Weierstrass

Teorema. Si A�v� es una función continua en el intervalo �V, {�, puede ser

aproximada uniformemente en dicho intervalo, con la precisión deseada, por un

polinomio, es decir: Dado un valor positivo cualquiera �, existe un polinomio de

grado S��� tal que

maxs��t,u�|A�v� − �X�v�| < �

Puede demostrarse este teorema utilizando los polinomios de Bernstein.

Supondremos, sin restringir la generalidad, que el intervalo �V, {� se ha transformado

previamente en el �0,1�. Los polinomios de Bernstein se definen por

.@�v� = A�0��1 − v� + A�1�v

.C�v� = A�0��1 − v�C + 2A�1 2⁄ �v�1 − v� + A�1�vC

.��v� = A�0��1 − v�� + 3A�1 3⁄ �v�1 − v�C + 3A�2 3⁄ �vC�1 − v� + A�0�v�

27

y en general

.X�v� = U [Sf\ A HfSI vd�1 − v�XgdXd�Y

Consideremos la identidad

�� + ��X = U [Sf\Xd�Y �d�Xgd

Derivando dos veces respecto a p resulta

S�� + ��Xg@ = U [Sf\Xd�Y f�dg@�Xgd = 1� U f [Sf\X

Y �d�Xgd

S�S − 1��� + ��XgC = U [Sf\ f�f − 1��dgCXd�Y �Xgd

= 1�C U fCXY [Sf\ �d�Xgd − 1�C U fX

Y [Sf\ �d�Xgd

y sustituyendo el segundo término del segundo miembro por su valor deducido de la

igualdad anterior

S�S − 1��� + ��XgC = 1�C U fCXY [Sf\ �d�Xgd − S� �� + ��Xg@

Haciendo en las tres igualdades anteriores � = v, � = 1 − v

U [Sf\ vd�1 − v�XgdXY = 1

U fS [Sf\ vd�1 − v�XgdXY = v

28

U fCSC [Sf\ vd�1 − v�XgdXY = vC − vCS + vS

Puesto que A�v� es una función continua

∃�: ∀v@, vC ∈ �0,1�|v@ − vC| < � ⇨ |A�v@� − A�vC�| < �2

Por otra parte en virtud de la primera de las y de la definición de .X

A�v� − .X�v� = A�v� U [Sf\ vd�1 − v�XgdXY

− U [Sf\ A HfSI vd�1 − v�XgdXY

= U [Sf\ mA�v� − A HfSIn vd�1 − v�XgdXY

Consideremos todos los términos de la suma anterior para los que

|f − Sv| < S�

y sea ∑ ´ su suma. Sea ∑ ´ ´ la suma del resto de los términos

|A�v� − .X�v�| = �U � < �U ´� + �U ´ ´� puesto que

�fS − v� < �

para todos los términos de ∑ ´ es

�A�v� − A HfSI� < �2

y por tanto

29

�U ´� ≤ U ´ [Sf\ �A�v� − A HfSI� vd�1 − v�Xgd < �2 U ´ [Sf\ vd�1 − v�Xgd≤ �2 U [Sf\ vd�1 − v�XgdX

Y

�U ´� ≤ �2

Por otra parte si M es una cota superior de |A�v�| en el intervalo �0,1� |A�v@� − A�vC�| ≤ 2�∀v@, vC ∈ �0,1�

por lo que

�U ´ ´� ≤ U ´ ´ [Sf\ �A�v� − A HfSI� vd�1 − v�Xgd ≤ 2� U ´ ´ [Sf\ vd�1 − v�Xgd

Ahora bien por ser, para todos los términos de ∑ ´ ´

�f − Sv�S � ≥ 1

�f − Sv�C�CSC ≥ 1

y por tanto

�U ´ ´� < 2�SC�C U ´ ´ [Sf\ �f − Sv�Cvd�1 − v�Xgd< 2�SC�C U [Sf\ �f − Sv�Cvd�1 − v�XgdX

Y

30

Desarrollando �f − Sv�C y teniendo en cuenta

U�f − Sv�C [Sf\ vd�1 − v�XgdXY

= SC U HfSIC [Sf\ vd�1 − v�XgdXY

− 2SCv U fS [Sf\ vd�1 − v�Xgd +XY SCvC U [Sf\ vd�1 − v�XgdX

Y= SCvC − SvC + Sv − 2SCvC + SCvC = Sv�1 − v�

y, puesto que v�1 − v� ≤ 1 4⁄ ∀v ∈ �0,1� �U ´ ´� < 2�SC�C Sv�1 − v� ≤ �2S�C

finalmente

|A�v� − .X�v�| < �U ´� + �U ´ ´� < �2 + �2S�C

por lo tanto, tomando

S > ���C

se cumple

kVv|A�v� − .X�v�| < �∀v ∈ �0,1�

como quería demostrarse

Si las funciones N>P�v�T forman una base linealmente independiente en el espacio de

los polinomios, el teorema sigue siendo válido, de forma que una función continua A�v� en el intervalo �V, {� puede aproximarse uniformemente por la expresión

:�v� = U VPXY >P�v�

31

3.4 Interpolación

Consideramos el problema de obtener la mejor aproximación de una función F Є E

en un subconjunto F с E, según la distancia

d(f, g)=Σ |f(xi ) – g(xj) |

Siendo i = { x i ,i=0…m} un conjunto discreto de puntos.

Supondremos que F es un espacio vectorial de dimensión finita, lo que asegura, la

existencia de al menos una solución. Sea n+1 la dimensión de F y { φ i, i=0…n}

una base de F.

Podemos distinguir tres casos:

a) m>n. La solución puede obtenerse utilizando los algoritmos de la

programación lineal

b) m<n. El problema tiene infinitas soluciones y para todas ellas resulta

d(f ,y)=0

c) m=n. Igual que en el caso anterior resulta

d(f, y)=0

Este último caso es el que corresponde a los problemas, que se estudian bajo la

denominación general de interpolación.

Dado el conjunto de funciones coordenadas {φi(x), i=0…n} denominado base y

dado un conjunto de puntos {xi ,i=0…n} denominado soporte se denomina función

de interpolación, a

y(x) = a0 φ0(x)+ a1φ1(x)+……..+ anφn(x)

que cumple las condiciones

y(xi) = f(xi) i=0….n

32

Estas condiciones se escriben

∑ a�ɸ��xa� = f�xa�XW�Y i=0….n

sistema de n+1 ecuaciones que definen los n+1 coeficientes {ai, i=0…n}.

Teorema Para que un problema de interpolación tenga solución única para

cualquier conjunto de valores {xi, yi, i=0….n}, es condición necesaria y suficiente

que se cumpla la condición de Haar, que establece que ninguna función y∈F puede

tener más de n ceros en el intervalo [a,b], definido por el menor y el mayor de los

puntos {xi}.

A una base {φi}, de un espacio vectorial de funciones F, que cumple la condición de

Haar, se le denomina sistema de Tchebichef.

La condición es suficiente. En efecto, si se cumple la condición de Haar, no existe

ninguna función y(x)∈F

y(x) = ∑ a�ɸ��xa�W

tal que

∑ a�ɸ��xa� = 0W i=0…n

por lo que el determinante del sistema es distinto de cero y el problema de la

interpolación tiene solución única. La condición es también necesaria, pues si existen

n+1 valores { x i ,i=0…n}, que anulasen la función

y(x) = ∑ a�ɸ��xa� ∈F

el determinante del sistema resultante, para el problema de interpolación con el

soporte { xi }, sería nulo, por lo que el sistema sería incompatible o con infinitas

soluciones.

Por tanto, si { φ i, i=0…n} es un sistema de Tchebichef, es posible encontrar los

coeficientes{ ai } de la expresión, que cumple las condiciones .

La solución se obtiene resolviendo el sistema

33

∑ a�ɸ��xa� = f�xa�XW�Y i=0….n

Puede asimismo obtenerse la expresión de y(x), escribiendo la condición para que el

sistema de n+2 ecuaciones formado por la y las n+1 ecuaciones tenga solución. ��

:�v�∅Y�x0� ∅@�x0� … ∅n�x0�A��Y�∅Y�x1� ∅@�x1� … ∅��x1�A�v@�∅Y�x1�∅@�x1� …∅��x1�… … … … … … … … … … … … . . … …A�vX�∅Y�xn�∅@�xn� …∅��x����=0

Es evidente que si F es el espacio de los polinomios de grado menor o igual que n, se

cumple la condición de Haar, por lo que el problema de la interpolación tiene

solución única en el. El sistema {xi, i=0…n}es un sistema de Tchebichef y es

posible encontrar los coeficientes {ai} del polinomio

y(x)=∑ a�xaXY

la ecuación se convierte en

��:�v�1 xxC …vXA��Y�1 xYxYC … xY�A�v@�1v@v@C …x@�… … … . … … … … …A�vX�1v�vXX …x��

��=0

y a y(x) se le denomina polinomio de interpolación respecto al soporte {xi, i=0…n}

El determinante del sistema de ecuaciones es el determinante de Vandermonde

��1 x� v�C vYX1 v@ v@C v@X1 vC vCC vCX… … … …1 vX vXC vXX

�� Si todos los puntos del soporte son distintos, ese determinante no es nulo, por lo que

el sistema tiene solución única, como ya se había demostrado por otra parte.

34

No obstante, dados los valores tan diferentes de los coeficientes de las incógnitas,

resultan en general sistemas mal condicionados. Por este motivo era preferible elegir

un conjunto de funciones coordenadas que permitan una solución más directa del

sistema.

3.5 Aproximaciones uniformes

Se obtienen estas aproximaciones cuando la distancia utilizada es la distancia

uniforme

��ƒ, Φ∗� = mins∈6�.�8 |f�x� − y�x�|

Es decir, son aquellas en las que el valor máximo del error absoluto es un mínimo.

Por este motivo se les denomina asimismo aproximaciones con el criterio del

Minimax.

De acuerdo con lo expuesto anteriormente , si F es un subespacio vectorial de

dimensión finita, de un espacio vectorial E con la norma

‖A‖ = mins∈6�,�8 |f�x�|

existe la mejor aproximación de F de todo elemento de E. Más adelante se establecen

las condiciones para la unicidad de la solución.

Las aproximaciones obtenidas con el criterio del Minimax o de la

convergencia uniforme son, sin duda, las más adecuadas para la representación de

una función en un determinado intervalo. Sin embargo su obtención es muy

laboriosa. No es posible, en general, llegar directamente a las expresión de y(x),

siendo preciso la realización de una serie de aproximaciones sucesivas.

Para aquellos casos, en que no está justificado este trabajo, existen métodos

simplificados que proporcionan una aproximación cercana a la teórica. En el caso de

35

que F sea el espacio de los polinomios de grado igual o menor que n (E representa el

de las funciones continuas en [a, b]), figuran los siguientes:

1. Interpolaciones realizadas con un soporte de Tchebichef. Como más

adelante se verá, al exponer el teorema de Tchebichef, se deduce que toda

aproximación uniforme es un polinomio de interpolación de la función a

aproximar con todos los puntos del soporte en el intervalo de aplicación

de la aproximación. El problema está, por tanto, en efectuar una buena

elección de los puntos de soporte.

2. Algoritmo de Lanczos. Conocido también como economización de una

serie, es menos eficaz del anterior, pero más simple.

3.5.1 Soporte de Tchebichef

El error de una interpolación viene dado por la formula

E(x) = ���F����X @�! π(x-xi)

donde ξ es un valor del intervalo [min(xi), máx(xi)].

Si el valor de f (n+1) (x) en este intervalo acotado y M es una cota superior, se verifica

|E(x) | ≤ ��X @�!|π(x-xi) |

El valor máximo de |π(x-xi) | depende de los valores de {xi}. Cuando este conjunto

está definido, la formula anterior permite estimar el valor máximo del error. Por otra

parte, si es posible efectuar una selección de los puntos xi, un criterio razonable para

la elección de los mismos consistirá en conseguir que el valor máximo de |π(x-xi) |

sea un mínimo.

36

Este criterio no proporciona exactamente la mejor aproximación de f(x) según la

distancia uniforme, es decir, el mínimo de ||E||, sino que minimiza el valor máximo

del segundo miembro de la desigualdad anterior. Por otra parte es el que permite

acotar más estrictamente el error absoluto máximo.

El conjunto de puntos {xi}, para el que el valor de ||π|| es minimo, se denomina

soporte de Tchebichef y corresponde a los ceros del polinomio de grado n+1, de un

conjunto de polinomios denominados de Tchebichef.

Se considera que el intervalo [a, b] es el [-1, 1] lo que no supone una restricción a la

generalidad, puesto que con un adecuado cambio de variable puede llegarse a la

hipótesis anterior.

Polinomios de Tchebichef

Sea Tn(x) la función definida por

Tn(x)=cos(n arc cos x)

Tn(x) es un polinomio de grado n. En efecto, puesto que

cos(n+1)O+cos(n-1)O=2cosO��pSO

se deduce haciendo x = cosO

Tn+1(x)+Tn-1(x) = 2xTn(x)

o sea

Tn+1(x) = 2xTn(x) - Tn-1(x)

37

de lo anterior se deduce que T0(x)=1, T1(x)=x, luego utilizando la fórmula se

concluye por inducción que Tn(x) es un polinomio de grado n. En la gráfica adjunta

se muestran los primeros polinomios de Tchebichef (hasta el grado 8).

Este conjunto de polinomios Tn(x) denominamos polinomios de Tchebichef tiene

importantes aplicaciones en el cálculo numérico. Los primeros polinomios

calculados, utilizando la ecuación recurrente, a partir de T0 y T1 son

T0(x)=1

T1(x)=x

T2(x)=2x2-1

T3(x)=4x3-3x

T4(x)=8x4-8x2+1

T5(x)=16x5- 20x3+5x

-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1El dibujo corresponde al caso n = 8

38

T6(x)=32x6-48x4+18x2-1

Se demuestra fácilmente, teniendo en cuenta las expresiones, que:

a) El coeficiente de xn+1 en Tn+1 (x) es 2n.

b) Tn+1 (x) tiene n+1 ceros distintos en el intervalo [-1,1] dados por

(n+1) arc cos v =  C + f¡

es decir

vd = ��p Cd @CX C ¡, k=0..n

c) Tn+1 (x) oscila entre -1 y +1 .Los extremos de Tn+1(x) en [-1,1]

ocurren en los n+2 puntos definidos por

�S + 1�V2���pv = f¡

es decir

v = ��p d X @ f = 0. . S + 1

En estos puntos

¢X @�vd� = £= 1�V2Vf = 2¤= −1�V2Vf = 2¤ + 1h

Teorema. El polinomio 2-nTn+1(x) es, de entre todos los polinomios de

grado n+1, en los que el coeficiente de xn+1 es igual a la unidad (polinomios

mónicos), el que proporciona el menor valor de su máximo valor absoluto en [-1,1].

39

Sea P(x) = xn+1 + … un polinomio de grado n+1, cuyo valor máximo en [-1,1] sea

p < 2-n. En tal caso el polinomio.

Q(x)=2-nTn+1(x)-P(x)

de grado n, por anularse el término en xn+1 , tendría en los n+2 puntos definidos por

la fórmula anterior, el mismo signo que Tn+1(X), es decir

¥�v� £> 0�V2Vf = 2¤< 0�V2Vf = 2¤ + 1h y puesto que xi≠xj,∀i, j i≠j se llega al absurdo de que Q(x) tendría n+1 ceros en el

intervalo [-1,1]. Por tanto el teorema es cierto.

Consecuentemente con el criterio expuesto se obtiene

π(x)=2-nTn+1(x)

El primer método simplificado para la obtención de una aproximación cercana a la

uniforme, se basa en la fórmula anterior y consiste en una interpolación con el

soporte de Tchebichef.

En el caso de que f(x) sea un polinomio de grado n+1, el valor de f(n+1)(x) es

an+1(n+1)! Siendo an+1(n+1)! siendo an+1 el coeficiente del término de mayor grado,

por lo que

E(x)= f(x)-y(x)=an+1 π(x)

En este caso ‖�‖ y ‖VX @¡‖ coinciden y la aproximación obtenida resulta ser la

uniforme.

Por otra parte, y también en este caso, el polinomio y(x) se obtiene directamente por

la expresión , es decir

y(x)=f(x)- an+12-nTn+1(x)

y el máximo error en el intervalo [-1,1] es ‖�‖= 2-n an+1.

40

3.5.2 Ortogonalidad de los polinomios de Tchebichef

Una importante propiedad de los polinomios de Tchebichef es que el conjunto {Tn}

es ortogonal respecto al producto escalar

J¢W , ¢dK = U ¢W�v¦�¢d�v¦�X¦�Y

En la que {xr} representa al conjunto de los ceros del polinomio de Tchebichef, de

grado n+1. Debe hacerse la aclaración de que no se trata estrictamente de un

producto escalar, ya que no cumple la condición.

(f,f)=0 � f=0

no obstante, puede resolverse este problema considerando definido el producto

escalar en el conjunto cociente F/R de las funciones f§F, respecto a la relación de

equivalencia

f R g � f(x)=g(x) ∀v§NvPT Esta propiedad de ortogonalidad se demuestra y haciendo xr=cosO¦

O¦ = C¦ @CX C 2 = 0. . S [5.11]

Con lo que

∑ ¢W�v¦�¢d�v¦� = ∑ cos�«O¦� cos�fO¦� = @C ∑ cos�« + f� O¦ +X¦�YX¦�YX¦�Ycos«−fO2«,f§N0..ST

Para calcular el valor de esta expresión comencemos por obtener

U cos�kO¦� ,k = 0. .2SX¦�Y

41

Para ello se considera la igualdad

U cos�kO¦� + Qp¬S�kO¦� = U ¬P_­®X¦�Y X

¦�Y

Teniendo en cuenta

U ea°φ± = ea°C� @C� Cπ±ea °� @π − ea °C� Cπea °� @π − 1 = ea°π − 12Qp¬S k¡2S + 2 ¡X

¦�Y

Igualando la parte real de los dos miembros se obtiene

U cos�kO¦� = p¬Sk¡2p¬S k¡2S + 2X

¦�Y

Si como ocurre en este caso es m<2n+2, la expresión anterior es nula para todo valor

de m distinto de cero. La evaluación directa del primer miembro de un valor igual a

n+1 para m=0.Teniendo en cuenta este resultado se obtiene de la expresión [

J¢W , ¢dK = ² 0�V2V« ≠ fX @C �V2V« = f ≠ 0S + 1�V2V« = f ≠ 0h

3.6 Aproximaciones uniformes

Vamos a demostrar a continuación, que si E es el espacio de las funciones continuas

en el intervalo [a,b] y la dimensión del subespacio vectorial F⊂E es n+1, la unicidad

de la solución se garantiza si se cumple la condición de Haar, que establece que

ninguna función y ∈ F se puede tener más de S¤ ceros en el intervalo [a,b].

Es evidente que si F es el espacio de los polinomios de grado igual o menor que n,

esta condición se cumple. En este espacio hemos encontrado anteriormente una

aproximación que cumple el criterio de la aproximación uniforme. Nos referimos al

42

caso de ser f un polinomio de grado n+1, siendo entonces el polinomio que cumple

la condición del mínimas o aproximación uniforme en el intervalo [-1.1] el

polinomio yn de grado n, cuyos valores coinciden con los de f(x), en los ceros del

polinomio del Tchebichef de grado n+1. El error de la aproximación viene dado por

la fórmula.

En(x)=f(x)-yn(x)=an+12–n Tn+1(x)

que tiene n+2 extremos alternados, iguales en valor absoluto en el intervalo [-1,1].

Esta es una propiedad característica de las aproximaciones obtenidas con el criterio

de la aproximación uniforme o minimax, como vamos a ver enseguida.

Estudiaremos el problema en el caso general de que E sea el espacio de las funciones

continuas en [a,b] y F un espacio vectorial de dimensión n+1.

3.6.1 Teorema de Haar

Una condición necesaria y suficiente para que en un espacio vectorial de dimensión

n+1, la aproximación uniforme de una función continua, en el intervalo [a,b], sea

única, es que cualquier función del espacio F tenga n ceros a lo sumo, en el intervalo

[a,b]

Demostremos en primer lugar que la condición es necesaria, y para ello supongamos

que la misma no se cumple, es decir,

∃y0(x)∈F: y0(x i)=0 i=0..n

Con esta hipótesis, y si {∅i} es una base de F, resulta nulo el determinante ∅0(x0)

³ ∅Y�xY� ∅@�xY� … ∅��xY�∅Y�x@� ∅@�x@� … ∅��x@�… … … … … … … … . . … … .∅Y�x��∅@�x�� …∅X�x��³ y, por tanto,∃bo,b1,…,bn no todos nulos, tales que

43

U {PX

P�Y ∅W�vP� = 0« = 0. . S

entonces ∀y(x) ∈ <

U {P:�vP� = U {PX

P�YX

P�Y U VW∅W�vP� = U VW U {PX

P�YX

W�YX

W�Y ∅W�vP� = 0

Definamos una función g(x), tal que

x�v� = ´ 1, pQ{P > 0−1, pQ{P ≤ 0h ‖x − :‖=1

se tiene

‖x − :‖>1 ∀y ∈ <

ya que en otro caso y(x) tendría el mismo signo que g(x) en cada uno de los puntos

{ vi}, lo que implicaría

biy(xi)>o ∀bi≠0

y, por tanto, no podría cumplirse

U {P:�vP� = 0

La función

f(x)=g(x)(1-λ |yY�x�|) cumple las condiciones, impuestas a la función g(x), siempre que

λ | y0| ≤ 1

44

En efecto, por anularse y0(x) en los puntos {xi, i=0..n}, es

f(x i)=g(xi) i=0..n

Mientras que la condición garantiza que ‖A‖=1. La función f debe, por ello, cumplir

la condición

‖A − :‖≥1 ∀y ∈ <

Entonces, si o≤�≤1

|f(x)- λ�yo(x)| ≤ |f(x)|+ λ�|y0(x)| ≤ 1-λ|y0(x)|+ λ�|y0(x)| = 1- λ(1-�)|y0(x)| <1

por tanto

‖f − λ�yY‖≤1

De donde teniendo en cuenta que y∈ <

‖f − λ�yY‖=1

Lo que demuestra que ∀�: 0≤� < 1, la función

y(x) = λ�yo(x)

es una aproximación uniforme de f(x). Así, pues, es posible encontrar infinitas

soluciones al problema de la aproximación uniforme de la función f(x), lo que

demuestra que la condición de Haar es una condición necesaria.

Supondremos, por tanto, que el espacio F cumple la condición de Haar y vamos a

demostrar entonces la unidad de la solución, así como las condiciones que la

caracterizan.

La obtención de una cota superior del error máximo de una aproximación uniforme

y* es simple, ya que por definición

D = ‖A − :∗‖ ≤ ‖A − :‖ , ∀y ∈ <

Por otra parte, el siguiente teorema permite obtener una cota inferior:

45

3.6.2 Teorema de La Vallée Poussin

Si en los n+2 puntos {x i, i=0..n+1}

a≤ xo≤ x1≤ x2≤…≤ xn+1≤ b

se tiene

f(x i)-y(xi)=(-1) iλi i=0..n+1

con todos los λi positives o negativos, entonces la aproximación uniforme y* es tal

que

‖A − :∗‖>min| λi |

En efecto si

‖A − :∗‖ <min| λi |

podríamos poner

|f(xi) - y*(x i) |<| λi |=|f(xi) - y(xi)|, i=0..n+1

y por tanto

y*(x i) - y(xi) = (f(xi)-y(xi)) - (f(xi)-y*(x i))

tendría el signo de f(xi)-y(xi), es decir, el de (-1) iλi , luego por hipótesis cambiaría de

signo n+1 veces, lo que está en contradicción con el hecho de que y(x)-y*(x)∈ <

debe cumplir la condición de Haar.

Expuesto el teorema de La Vallée Poussin, podemos enunciar el siguiente Teorema,

que caracteriza a las aproximaciones uniformes:

46

3.6.3 Teorema de Tchebichef

Una condición necesaria y suficiente para que y(x) sea una aproximación uniforme

(y ∈ <) de f(x) en [a,b] es que

E=f(x)-y(x)

tenga al menos n+2 extremos alternados en [a,b] iguales en valor absoluto, es decir, ∃xi , i=0..n+1

a≤xo≤x1≤x2≤…≤xn+1≤b

tales que

E(xi) = (-1) i∅‖A − :‖

Siendo ∅=±1

Las condiciones son suficientes, puesto que de acuerdo con el teorema de La Vallée

Poussin se tendrá

‖A − :∗‖ ≥ ‖A − :‖

pero puesto que ha de ser

‖A − :∗‖ < ‖A − :‖

resulta

‖A − :∗‖=‖A − :‖

y por tanto y(x) es una aproximación uniforme.

Las condiciones son necesarias. Sea k el número de extremos alternados. Al menos

hay dos, puesto que en otro caso la función g(x)∈ <

g(x)=y+_ás�·g¸� _íX�·g¸�C

47

sería una mejor aproximación, puesto que

máx(f-g) = -mín(f-g) = _ás�·g¸�g_íX�·g¸�C < ‖A − :‖

y por tanto

‖A − x‖ < ‖A − :‖

Supongamos sin restringir la generalidad ∅=−1 en la fórmula y designemos por D a ‖A − :∗‖y definamos los puntos {¹i,i=0..k} de forma que

¹0=a≤x0< ¹1<x1< ¹2<…< ¹k-1< xk-1≤b=¹k

y que en los intervalos [¹0,¹1], [¹1,¹2], …,[¹k-1,¹k], se cumpla alternativamente, para

algún valor * >0

-D ≤ E(x) ≤D−* si x ∈ [¹2i,¹2i+1]

-D+* ≤ E(x) ≤D si x∈ [¹2i+1,¹2i+2]

lo que indica que en cada intervalo [¹j,¹j+1] existe un extremo y con signo alternado.

Sea ¡(x) una función de F, tal que

¡(¹i) =0, i=1..k-1

Esta función existe siempre que k<n+2, según se demostró anteriormente por

cumplirse en F la condición de Haar.

Consideramos la función q(x) ∈ <

q(x) = y(x)+º¡(x)

entonces

f(x)-q(x) = (f(x)-y(x)) -º¡(x)

puesto que ¡(x) cambia consecutivamente de signo en los intervalos considerados y

su valor está acotado, puede elegirse º de forma que

48

|º¡�x�|<*

y que el signo de º¡(x) coincida en cada uno de los intervalos con el del extremo

correspondiente. Se tendrá entonces ∀x ∈[a,b]

|f(x)-q(x)|-|f(x)-y(x)-º¡(x)| < D

luego y(x) no sería la mejor aproximación y, por tanto, la hipótesis k<n+2 debe de

ser falsa, es decir,

k>n+2

podemos ya demostrar que la condición de Haar es una condición suficiente para la

unidad de la aproximación uniforme. En efecto, si y1 y y2 son dos aproximaciones

uniformes

ZA − ¸�@� ¸�C�C Z<@C ‖f − y@‖+

@C ‖f − yC‖=‖f − y∗‖

Por lo que (y1+y2)/2 es también una aproximación uniforme, y existen n+2 puntos en

los que f(x)-(y1(x)+y2(x))/2 toma valores extremos alternados.

En dichos puntos

[@C �AvP� − :@�vP�� + @C �A�vP� − :C�vP��\=D

pero puesto que

|f�xi� − y@�xa�| ≤D, |f�xa� − yC�xa�| ≤D

debe de ser

f(x i)-y1(xi)=f(x i)-y2(xi)=±D

luego y1(x) - y2(x) s e anula en n+2 puntos. Ahora bien y1(x)-y2(x)∈ < y debe

cumplir la condición de Haar, luego

y1(x)≡y2(x)

49

Una conclusión del Teorema de Tchebichef es que si F es el espacio de los

polinomios de grado igual o menor que n, una aproximación uniforme resulta ser un

polinomio interpolante de la función a aproximar con todos los puntos del soporte en

el intervalo de definición de la función. El primer procedimiento simplificado para la

obtención de una aproximación próxima a la uniforme partía de este hecho, buscando

el soporte más adecuado para la interpolación, que resultaba ser un soporte de

Tchebichef.

Situación de los extremos alternados

El Teorema de Tchebichef garantiza la existencia de al menos n+2 extremos

alternados de la función de error E(x). En general serán exactamente n+2 extremos,

aunque el cumplimiento estricto de las hipótesis establecidas para la demostración

del teorema no permita asegurarlo. Una situación distinta a la anterior ocurre

frecuentemente para funciones con simetría respecto a la ordenada en el punto medio

del intervalo [a,b], en cuyo caso aparecen 2n+3 extremos.

Tampoco garantiza el Teorema de Tchebichef, que dos de los extremos alternados se

produzcan necesariamente en a y b, aunque ésta sea la situación normal. Se da, a

continuación, una condición suficiente, aunque no necesaria, para que se dé la

situación mencionada

Teorema

Si las n+2 funciones

{f, ∅i,i=0..n}

son linealmente independientes y el espacio vectorial ℰ generado por las mismas

cumple la condición de Haar en el intervalo [a,b], entonces la mejor aproximación

uniforme y∈ < es tal que la función

50

E(x)=f(x)-y(x)

a) Presenta exactamente n+2 extremos alternados.

b) Los extremos del intervalo [a,b] pertenecen al conjunto de extremos

alternados.

c) E(x) es estrictamente creciente o decreciente entre dos extremos alternados.

Por tanto en [a,b] no existen otros extremos que los alternados.

En efecto:

a) Si existiesen más de n+2 extremos alternados, E(x) se anularía en al menos

n+2 puntos. Ahora bien E*(x)∈ ℰ, por lo que no se cumpliría la hipótesis

efectuada.

b) Si en a y b no se produjeran dos de los extremos alternados, sería posible

encontrar *, de forma que la función

E(x)-*

del espacio vectorial de funciones ℰ, tuviera al menos n+2 ceros en [a,b].

c) Si E(x) no fuese estrictamente creciente o decreciente entre dos extremos

alternados consecutivos, sería posible asimismo encontrar *, de forma que la

E(x)-* tuviera al menos n+3 extremos en [a,b].

Obtención de la solución

La obtención de la mejor aproximación uniforme de una función continua no puede

efectuarse, salvo en condiciones muy particulares, por un procedimiento directo. Es

necesario, en general, utilizar un procedimiento iterativo que obtiene una sucesión de

funciones que tienden en el límite a la solución buscada.

En lo que sigue, nos referiremos al caso de que F sea el espacio de los polinomios de

grado igual o menor que n.

El procedimiento iterativo mencionado parte de un conjunto de n+2 puntos, en los

que se supone se verifica la condición

51

f(x i) - y(xi)=(−1) iD, i=0..n+1

es decir, que corresponden a los extremos alternados.

Este conjunto de n+2 ecuaciones permite obtener los n+1 coeficientes del polinomio

y1(x)=∑ VPvPXP�Y

así como el valor de D. El polinomio y1(x) cambia n+1 veces de signo en [a,b], por lo

que tiene n+2 extremos en este intervalo. Sin embargo, éstos no serán en general

iguales en valor absoluto, ni se producirán en los n+2 puntos que se definieron.

Se modifican por ello los puntos {xi}, sustituyéndolos por los correspondientes a los

extremos de f(x)-y1(x), repitiendo el proceso para obtener un nuevo polinomio y2(x).

De forma idéntica se obtienen nuevos polinomios y3(x),…, y m(x) hasta conseguir

que todos los extremos sean iguales en valor absoluto. El conjunto inicial de los

puntos {xi} se elige arbitrariamente. Una buena elección sería

xi=t uC + ugtC cos

 PX @ i=0..n+1

hipótesis que correspondería al caso ideal, si f(x) fuese un polinomio de grado n+1.

Procedimiento operativo

En la hipótesis de que el conjunto de puntos {xi} corresponda a los extremos

alternados, entonces si d(x) es una función, tal que

d(xi)=(−1)i, i=0..n+1

resulta

y(x)=f(x)+D∙d(x)

por tanto, y(x) pasa por los n+2 puntos

{x i,f(x i)+(−1)iD }, i=0..n+1

52

Estos n+2 puntos definen un polinomio de grado n+1, cuya expresión puede

obtenerse utilizando la fórmula de interpolación de Newton con la función

f(x)+Dd(x). Resulta

y(x)=a0+a1(x-x0)+a2(x-x0)(x-x1)+…+an+1(x-x0)…(x-xn)

siendo

ak =f[x0,x1,…,xk]+D∙d[x0,x1,…,xk]

El valor de D debe calcularse de forma que y(x) degenere en un polinomio de grado

n. Para ello

an+1 =0

es decir

D=−�6¾Y,¾@,…,¾� @8¿6¾Y,¾@,…,¾� @8

Con este valor de D se calcula la expresión de y(x), sustituyendo en cada coeficiente

ak por el resultante de introducir en el valor D deducido. Se calcula a continuación la

situación de los extremos de f(x)-y(x), que en general no coincidirán con los

iniciales. Se repite de nuevo el proceso sustituyendo el conjunto de puntos extremos

iniciales por los nuevos y así sucesivamente hasta conseguir que todos los extremos

sean iguales.

53

4 Análisis de la muestra

A continuación, vamos a analizar en profundidad la muestra que hemos seleccionado

para nuestro estudio y sobre la cual realizaremos nuestras conclusiones. Hemos

tomado los datos desde el año 1996 hasta septiembre de 2013, siendo cada punto de

la muestra el valor del precio del cobre en cada mes contando desde enero del primer

año en estudio. Esto último, nos proporciona un conjunto total de 204 puntos, que si

bien es cierto no refleja todo el histórico del cobre, pero refleja un gran período la

evolución del precio del cobre.

Sobre estos puntos, adoptaremos diferentes criterios en la elección del método de

aproximación analizando, en cada caso, si es más conveniente aplicar una u otra

metodología. Distinguiremos para tal fin, tres partes dentro de nuestro estudio. Una

primera será la evaluación de la muestra conjunta, aplicando sobre ella ambos

métodos y determinar cuál de ellos se aproxima mejor a nuestra muestra. Luego,

dividiremos la muestra en dos partes, una que la denominaremos zona suave y otra

zona fluctuante. Cabe señalar en este último punto, que cuando nos referimos a zona

suave, no nos referimos estrictamente al sentido económico del término ya que, en

dichas zona existen unas variaciones en el precio del cobre. Cuando hablemos de la

zona suave, queremos decir que tiene un comportamiento matemático suave o

regular y que; por tanto, las aproximaciones serán más fiables en cualquiera de los

dos métodos elegidos.

Por otra parte, nuestra principal preocupación será la zona fluctuante, pues es ahí,

donde la elección del método tiene una repercusión mayor en la aproximación

realizada y; por tanto, un error cometido mayor o menor.

En ambos métodos, iremos realizando diferentes variaciones en cuanto al grado del

polinomio se refiere, siendo, a priori, mejor la aproximación cuanto mayor sea el

grado del polinomio, aunque más adelante, veremos que tiene sus limitaciones.

54

En esta primera gráfica el conjunto de datos estudiados ha sido la totalidad de la

muestra, abarcando un total de 204 puntos.

Sobre ella, hemos aplicado ambos métodos, tanto aproximación por mínimos

cuadrados como aproximación Minimax.

Para esta primera gráfica, hemos querido hacer una aproximación con un polinomio

de primer grado, con objeto de ilustrar el caso más simple de una aproximación.

Como se observa en la gráfica, el error cometido global en uno y en otro modelo son

muy similares. En este primer gráfico; por tanto, será indistinta la aplicación de uno

u otro método; si bien parece ser más conveniente, la aplicación del método por

aproximaciones Minimax ya que nos proporciona un menor error.

Cabe observar, que en los meses en torno al 2006 las aproximaciones por uno y por

otro modelo matemático son muy parecidas, llegando a producirse casi un error nulo

en ese punto, pareciendo mostrarnos la separación entre zona suave y zona fluctuante

a la que estamos aludiendo.

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 1

Meses desde Enero/1996

Desviaciones máximas: 135.28 (minimax) y 146.63 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

55

Para esta segunda gráfica, hemos querido hacer una aproximación con un polinomio

de segundo grado.

Como observamos en la gráfica, al aplicar una aproximación de segundo grado, las

diferencias se hacen más notorias en uno y otro método, siendo el error máximo

cometido global muy diferente. De hecho, si el error cometido en la aproximación

por el método Minimax se ve reducida con respecto al polinomio de grado uno, en el

caso del método por mínimos cuadrados, lejos también de verse reducido, ocurre

todo lo contrario, llegando aumentar en un 11,3% el error. En este segundo gráfico,

por tanto, será clara la aplicación del método Minimax ya que nos proporciona un

menor error.

Cabe destacar, que el fenómeno antes mencionado de “mínimo error”, en torno a los

meses del 2006, en la aproximación por el método Minimax, se sigue conservando y

como veremos en las posteriores gráficas mantendrá dicha singularidad. Parece

indicar, que existe algún tipo de relación entre el error cometido por el modelo y la

posición de determinados puntos. En nuestro caso el intervalo de tiempo

comprendido en los meses de 2006.

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 2

Meses desde Enero/1996

Desviaciones máximas: 132.93 (minimax) y 163.19 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

56

Para esta tercera gráfica, hemos querido hacer una aproximación con un polinomio

de tercer grado, y ver si se produce una gran diferencia de error con respecto al

polinomio de segundo grado.

Como observamos en la gráfica, al aplicar una aproximación de tercer grado las

diferencias se hacen aún más notorias en uno y otro método, provocando un

diferencia de error global mucho más abrupta que en el anterior caso. Quizás, lo más

destacable de esta aproximación, es constatar algo que ya podíamos divisar en el

anterior caso, y es la gran diferencia de error que se produce al aumentar el grado del

polinomio con uno y otro método. De hecho, todo hace pensar que cuanto mayor

está siendo el grado del polinomio para realizar la aproximación, mayor es la

precisión alcanzada. Si nos fijamos como antes en el error cometido, podemos ver

que la aproximación por el método Minimax es prácticamente la misma que con un

polinomio de segundo grado, mientras que el método por mínimos cuadrados sigue

aumentando con respecto al polinomio de 1º grado hasta llegar a un 18,3% el error.

En este tercer gráfico, por tanto, será igualmente clara la aplicación del método

Minimax, ya que el error se siguen manteniendo a diferencia del otro modelo.

Las dos siguientes gráficas corresponden a aproximaciones de cuarto y quinto grado

y las analizaremos de manera conjunta por reproducir un error similar.

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 3

Meses desde Enero/1996

Desviaciones máximas: 132.26 (minimax) y 173.46 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

57

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 4

Meses desde Enero/1996

Desviaciones máximas: 128.46 (minimax) y 178.68 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 5

Meses desde Enero/1996

Desviaciones máximas: 127.65 (minimax) y 180.94 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

58

Para esta cuarta y quinta gráfica, hemos adoptado unas aproximaciones con

polinomios de cuarto y quinto grado respectivamente.

Este análisis que podría parecer redundante con respecto a sus predecesores no es ni

mucho menos en vano su estudio, puesto que sacamos valiosas conclusiones. Una de

ellas, es dar un nuevo escalón, en cuanto precisión se refiere, con respecto a los

anteriores polinomios. Además, como ya veremos en la zona de fluctuación, este

orden de polinomios tan alto se adapta, en el caso de las aproximaciones uniformes,

relativamente bien a estas fuertes oscilaciones. En concreto, las que presenta el

precio del cobre desde el año 2006.

Sí seguimos haciendo hincapié en el error cometido, podemos ver que la

aproximación por el método Minimax es prácticamente la misma aplicando

polinomios de cuarto y quinto grado, pero, con un pequeño salto de precisión con

respecto a los polinomios de grado tres. Esto mismo ocurre de manera opuesta con el

modelo por mínimos cuadrados donde se ve incrementado el error con respecto al

polinomio original (de grado 1) hasta llegar a un 23,4%. En estos gráficos, por tanto,

se aprecia, igualmente, la conveniencia de la aplicación del método Minimax como

ya venimos aplicando en los anteriores casos ya que el error se sigue rebajando en

contraposición al otro modelo.

Como curiosidad, cabe mencionar, que si bien es cierto que la precisión se va

mejorando cada vez más, a medida que el grado del polinomio aumenta, observamos

que la estimación que se realizara, mediante extrapolación, para los siguientes

puntos, en definitiva, para la predicción del precio del cobre, parece distar mucho

con respecto al último conocido. Esto, además, parece tener una relación más o

menos ligada con el fenómeno antes mencionado de separación entre zona suave y

zona fluctuante, ya que si nos fijamos en estos dos últimos gráficos se hace palpable

la separación de la curva con respecto al intervalo antes mencionado. Esta

singularidad, podría ser objeto de un estudio más profundo y deberse a otros factores

que puedan influir en los resultados obtenidos de dichos modelos.

59

Para esta última gráfica, hemos querido hacer una aproximación con un polinomio de

sexto grado, y estudiar con minuciosidad esta aproximación ya que será objeto de

comparación cuando tratemos la zona fluctuante.

Tiene como principal particularidad, que es la aproximación con el orden de

polinomio de mayor grado y, es, a partir de este polinomio, donde el parámetro que

estamos evaluando (el error), se dispara tanto, en las aproximaciones por mínimos

cuadrados como en las aproximaciones Minimax. El motivo de tan significante

cambio en el error cometido, lo hallamos en la matriz del correspondiente sistema de

ecuaciones y su mal condicionamiento a partir de un polinomio de grado seis. Luego,

aunque en un principio podríamos llegar a pensar que podemos obtener un error nulo

con un grado de polinomio muy elevado, la práctica, nos indica la limitación que

tienen este tipo de aproximaciones (algo análogo a lo que ocurre con la

interpolación).

En cuanto al error cometido, podemos ver que la aproximación por el método

Minimax continúa con una leve mejora de precisión mientras que el método por

mínimos cuadrados sigue disparando el error cometido.

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 6

Meses desde Enero/1996

Desviaciones máximas: 121.71 (minimax) y 181.33 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

60

En las próximas gráficas correspondientes a la zona suave de la muestra el conjunto

de datos estudiados ha sido un total de 126 puntos.

Sobre ella, hemos aplicado ambos métodos, tanto aproximación por mínimos

cuadrados como aproximación Minimax

Para esta primera gráfica de la zona suave, hemos querido hacer una aproximación

con un polinomio de primer grado, como en el caso de la primera gráfica global.

Como se observa en la gráfica, el error cometido en uno y en otro modelo es muy

inferior si los comparamos con la primera gráfica global evaluada, llegando a ser

menor de la mitad el error cometido con el método Minimax y de un sustancial

descenso también por mínimos cuadrados. Esto último, ya nos hace plantear la idea

de la conveniencia de estudiar, separadamente, ambas zonas (zona suave / zona

fluctuante). En este primer gráfico, de nuevo se ve la conveniencia de aplicar el

método Minimax.

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 1

Meses desde Enero/1996

Desviaciones máximas: 61.92 (minimax) y 100.08 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

DatosMinimaxMin.Cuad

61

Para esta segunda gráfica suave, hemos querido hacer una aproximación con un

polinomio de segundo grado, observando un error muy inferior con respecto a la

obtenida con el polinomio de grado 1. En concreto, con esta aproximación se

cometen, en ambos casos, errores muy inferiores a la mitad que con la aproximación

lineal.

Como se observa en la gráfica, esta aproximación se ajusta muy bien a esta zona

suave de puntos tanto en un método como en otro. Pese a todo, la calidad al aplicar el

método Minimax sigue siendo mejor que con el método por mínimos cuadrados.

Quizás, en este caso, no sería del todo inconveniente aplicar el método de mínimos

cuadrados ya que no existe una diferencia sustancial en este caso.

Es en esta gráfica es donde se ve más claro o mejor dicho se intuye mejor el concepto

de suavidad de una muestra. Cuando nos referimos a una zona suave, desde el punto

de vista matemático, estamos haciendo referencia a un comportamiento regular, que

hace que la aproximación sea muy satisfactoria lo que se traduce en descenso brusco

del error.

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 2

Meses desde Enero/1996

Desviaciones máximas: 27.22 (minimax) y 39.48 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

DatosMinimaxMin.Cuad

62

Las dos siguientes gráficas corresponden a aproximaciones de tercer y cuarto grado y

las analizaremos de manera conjunta para reproducir un error prácticamente idéntico.

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 3

Meses desde Enero/1996

Desviaciones máximas: 19.95 (minimax) y 25.01 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

DatosMinimaxMin.Cuad

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 4

Meses desde Enero/1996

Desviaciones máximas: 19.72 (minimax) y 29.61 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

DatosMinimaxMin.Cuad

63

Para esta tercera y cuarta gráfica, hemos adoptado unas aproximaciones con

polinomios de tercer y cuarto grado respectivamente.

En ambas aproximaciones, tanto con polinomios de tercer como de cuarto grado los

modelos matemáticos se ajustan bastante bien al intervalo considerado (zona suave)

si bien el error, en el caso de mínimos cuadrados parece comenzar a subir

(probablemente por un mal condicionamiento del correspondiente problema

numérico) mientras que en la aproximación minimax continúa descendiendo.

Podemos deducir de lo anterior, que la aproximación en la zona suave de la muestra

podemos ajustarla tanto con un modelo matemático como con otro.

Por último, vamos analizar las gráficas correspondientes a la zona fluctuante de la

muestra. El conjunto de datos estudiados ha sido un total de 78 puntos. Partiendo del

punto representativo de Marzo de 2006

Sobre ella, hemos aplicado ambos métodos, tanto aproximación por mínimos

cuadrados como aproximación Minimax

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 4

Meses desde Enero/1996

Desviaciones máximas: 105.77 (minimax) y 134.90 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

64

Para esta primera gráfica de la zona fluctuante, hemos querido hacer una

aproximación con un polinomio de cuarto grado, ya que nos parecía innecesario

mostrar polinomios de menor grado por carecen de importancia matemática, a la luz

de los resultados anteriormente obtenidos.

Como vemos, el polinomio de grado cuatro se ajusta bastante bien a la zona

fluctuante, siendo notablemente recomendable la aplicación del modelo el modelo

Minimax, pues consigue una aproximación bastante buena en comparación con el

otro método.

Por último, hemos considerado un polinomio de grado seis con objeto de intentar

conseguir una precisión mayor. Efectivamente, con este polinomio se consigue una

mejor precisión siendo mayor en el caso Minimax.

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 6

Meses desde Enero/1996

Desviaciones máximas: 89.40 (minimax) y 113.25 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

65

5. Análisis de resultados

5.1 Resultados obtenidos.

A continuación se muestra una tabla con el fin de ver de manera numérica los

resultados obtenidos con uno y otro método según se estudie la gráfica global o las

zonas suave y fluctuante, de la muestra.

GRÁFICA GLOBAL (Toda la serie histórica)

Grado del polinomio Desv.Mínimos Cuadrados Desv.Aprox.minimax

1 146,63 135,28

2 163,19 132,93

3 173,46 132,26

4 178,68 128,46

5 180,94 127,65

6 181,33 121,71

GRÁFICA: ZONA SUAVE

Grado del polinomio Desv.Mínimos Cuadrados Desv.Aprox.minimax

1 100,08 61,92

2 39,48 27,22

3 25,01 19,95

4 29,61 19,72

GRÁFICA: ZONA FLUCTUANTE

Grado del polinomio Desv.Mínimos Cuadrados Desv.Aprox.minimax

4 134,90 105,77

6 113,25 89,40

66

6. Conclusiones

La utilización de la metodología para la obtención de aproximaciones uniformes, en

contraste con la de mínimos-cuadrados nos ha deparado mejores resultados de los

que, en principio, esperábamos (veánse los gráficos expuestos y la tabla resumen de

resultados numéricos). Es evidente que a igualdad de datos (misma serie histórica) y

utilizando un mismo polinomio de aproximación para representarla, la desviación

absoluta máxima entre la curva-dato y nuestro polinomio aproximante es

notablemente mejor, por su propia definición, en el caso de una aproximación

uniforme que en cualquier otro caso.

Es cierto que la obtención del polinomio mediante la técnica de mínimos cuadrados

es directa (resolución del sistema de ecuaciones normales) mientras que el algoritmo

para obtener la aproximación polinómica, en el sentido minimax, es iterativo y de

difícil implementación. En nuestro caso, en que, como hemos dicho, hemos escogido

MATLAB® como soporte matemático y como lenguaje de programación, no

disponíamos de una función para obtención de aproximaciones uniformes (a

diferencia de Maple y Mathematica que, al parecer, sí lo tienen incorporado). En

consecuencia, ha sido necesaria la realización de un programa que, siguiendo las

directrices del algoritmo de Remez, principal referente en la literatura matemática al

respecto, nos permitiese, actuando sobre datos discretos (el algoritmo de Remez está

previsto para aproximaciones de funciones continuas), llevar a cabo nuestro objetivo.

En ambos casos, no obstante, ha sido necesario enfrentarnos a un problema común al

proceso de obtención de ambos tipos de aproximación. Nos referimos al mal

condicionamiento de las matrices que definen los correspondientes sistemas de

ecuaciones lineales que terminan apareciendo en la formulación numérica de ambas

metodologías de aproximación. Sin embargo, pese a ser, el método de mínimos

cuadrados, un método directo que involucra la resolución de un único sistema de

ecuaciones lineales para obtener la solución y que, por el contrario, en el método de

obtención de la aproximación uniforme, por tratarse de un algoritmo iterativo que

conlleva la resolución de un sistema de ecuaciones lineales en cada iteración, el mal

condicionamiento que se observa al ir aumentando el grado del polinomio de

aproximación, es mucho mayor en el caso de mínimos cuadrados, lo que limita el

67

grado del polinomio elegido como función de aproximación. Se podría haber

reducido la influencia del citado mal condicionamiento eligiendo una expresión

alternativa del polinomio de aproximación (elección de polinomios ortogonales)

pero, en este estudio, no se ha considerado necesario dado el carácter eminentemente

teórico del mismo y la dificultad adicional que conllevaría la obtención de dicho tipo

de polinomios.

La serie histórica del cobre presenta unas características que la hacen especialmente

adecuada para poner de manifiesto el contraste entre ambos métodos y, a la luz de los

resultados obtenidos, mostrar la bondad de las aproximaciones obtenidas con método

de aproximaciones uniformes sobre las que se obtienen mediante la técnica de

mínimos-cuadrados. Se trata, como hemos visto a lo largo de este proyecto, de una

serie que presenta una primera parte suave y regular y otra parte, aproximadamente

desde la mitad de la serie hasta el final, caracterizada por la presencia de fuertes

fluctuaciones. Tanto en el estudio conjunto de las dos partes de la serie como en cada

una de las partes y, sobre todo en la zona de fluctuaciones, ha resultado nítidamente

preferible la aproximación minimax frente a la de mínimos-cuadrados, obteniéndose

una desviación máxima mucho mayor en esta última que en aquella, para los

diferentes polinomios que hemos ensayado.

En base a todo lo anterior nos mantenemos en nuestra idea inicial, que ha dado vida a

este proyecto, y proponemos la utilización de las aproximaciones uniformes si no

como reemplazo de las actuales técnicas de aproximación (basadas principalmente en

la metodología de mínimos cuadrados) sí como método a tener en cuenta, al menos,

como contraste, en los estudios matemáticos y estadísticos de análisis de series

históricas, tanto explicativos como predictivos, que se lleven a cabo en el futuro.

68

7. Referencias bibliográficas

N. L. Carothers, A Short Course on Approximation Theory.

http://personal.bgsu.edu/carother/Approx.html, 1998.

L. Veidinger, “On the numerical determination of the best approximations in the

Chebychev sense,” Numerische Mathematik, vol. 2, pp. 99–105, 1960.

Harry H. Denman, "Computer generation of optimized subroutines," J. Assoc.

Comput. Mach., v. 8,1961, pp. 104-116.

N. I. Achieser, Theory of Approximation, (English translation), Ungar, New York,

956, p. 57. MR 20 #1872.

E. P. Novordovskiï & I S. Pinsker, "The process of equating maxima," Uspehi Mat.

Nauk, v. 6, 1951, no. 6 (46), pp. 174-181. MR 13, 728.

A. Shenitzer, "Chebyshev approximation of a continuous function by a class of

functions," J. Assoc. Comput. Mach., v. 4, 1957, pp. 30-35.

W. Fraser & J. F. Hart, "On the computation of rational approximations to

continuous functions," Comm. ACM, v. 5, 1962, pp. 401^03.

F. D. Murnaghan & J. W. Wrench, "The determination of the Chebyshev

approximating polynomial for a differentiable function," MTAC, v. 13, 1959, pp.

185-193. MR 21 #4526.

A. H. TURECKII, Theory of Interpolation in Problem Form, (Russian) Minsk, 1968,

MR 41, #5840.

J. R. CANNON AND K. MILLER, Bounds for the ratio between the fit of

interpolation and the best fit, unpublished manuscript, 1964.

W. ARMSTRONGP, Point systems for Lagrange interpolation, Duke Math. J. 21

(1954).511-516.

69

S. BERNSTEINS, sur la limitation des valeurs d’un polynome P(x), de degrée n sur

tout un segment par ses valeurs en n + 1 points du segment, Bull, Acad. Sci. URSS

Leningrad (1931), 1025-1050. Zbl. 4 (1932), 6.

M. J. D. POWELL, On the maximum errors of polynomial approximations defined

by interpolation and by least squares criteria, Computer J. 9 (1967), 404-407.

F. W. LUTTMAN AND T. J. RIVLIN, Some numerical experiments in the theory of

polynomial interpolation, IBM J. Res. Develop. 9 (1965), 187-191.

T. J. RIVLIN, The Lebesgue constants for polynomial interpolation, IBM Research

Report RC 4165, December 1972.

H. EHLICH AND K. ZELLER, Auswertung der Normen von Interpolations-

operatoren, M&h. Ann. 164 (1966), 105-112.

E. NEUMAN, Projections in uniform polynomial approximations, Zustos. Mar.

1(1974), 99-125.

E. W. CHENEY AND K. H. PRICE:, Minimal projections, “Proceedings of

Symposium Held at Lancaster, July, 1969” (A. Talbot, Ed.), pp. 261-289, Academic

Press, London, 1970.

P. D. MORRIS AND E. W. CHENEY, On the existence and characterization of

minimal projections, J. Reine Angew. Math. 270 (1974), 61-76.

E. Ya. Remez, "Sur la détermination des polynômes d'approximation de degré

donnée", Comm. Soc. Math. Kharkov 10, 41 (1934);

"Sur un procédé convergent d'approximations successives pour déterminer les

polynômes d'approximation, Compt.

Rend. Acad. Sc. 198, 2063 (1934);

"Sur le calcul effectiv des polynômes d'approximation des Tschebyscheff", Compt.

Rend. Acade. Sc. 199, 337 (1934).

70

Fraser, W. (1965). "A Survey of Methods of Computing Minimax and Near-

Minimax Polynomial Approximations for Functions of a Single Independent

Variable". J. ACM 12: 295. (http://dx.doi.org/10.1145%2F321281.321282).

Kilgore, T. A. (1978). "A characterization of the Lagrange interpolating projection

with minimal Tchebycheff norm". J. Approx. Theory 24: 273.

(http://dx.doi.org/10.1016%2F0021-9045%2878%2990013-8).

de Boor, C.; Pinkus, A. (1978). "Proof of the conjectures of Bernstein and Erdös

concerning the optimal nodes for polynomial interpolation". Journal of

Approximation Theory 24: 289. (http://dx.doi.org/10.1016%2F0021-

9045%2878%2990014-X).

Luttmann, F. W.; Rivlin, T. J. (1965). "Some numerical experiments in the theory of

polynomial interpolation".IBM J. Res. Develop. 9: 187.

T. Rivlin, "The Lebesgue constants for polynomial interpolation", in Proceedings of

the Int. Conf. on Functional Analysis and Its Application, edited by H. G. Garnier et

al. (Springer-Verlag, Berlin, 1974), p. 422; The Chebyshev polynomials (Wiley-

Interscience, New York, 1974).

Brutman, L. (1978). "On the Lebesgue Function for Polynomial Interpolation".

SIAM J. Numer. Anal. 15: 694. doi:10.1137/0715046

(http://dx.doi.org/10.1137%2F0715046).

Andersen, R. (2008). Modern Methods for Robust Regression. Sage University Paper

Series on Quantitative Applications in the Social Sciences, 07-152.

Ben-Gal I., Outlier detection (http://www.eng.tau.ac.il/~bengal/outlier.pdf), In:

Maimon O. and Rockach L. (Eds.) Data Mining and Knowledge Discovery

Handbook: A Complete Guide for Practitioners and Researchers," Kluwer Academic

Publishers, 2005, ISBN 0-387-24435-2.

Breiman, L. (2001). «Statistical Modeling: the Two Cultures». Statistical Science 16

(3): pp. 199–231. doi:10.1214/ss/1009213725

(http://dx.doi.org/10.1214%2Fss%2F1009213725).

71

Faraway, J. J. (2004). Linear Models with R. _ Chapman & Hall/CRC.

Draper, David (1988). «Rank-Based Robust Analysis of Linear Models. I. Exposition

and Review». Statistical Science 3 (2): pp. 239–257. doi:10.1214/ss/1177012915

(http://dx.doi.org/10.1214%2Fss%2F1177012915).

McKean, Joseph W. (2004). «Robust Analysis of Linear Models». Statistical Science

19 (4): pp. 562–570.

Hampel, F. R.; E. M. Ronchetti, P. J. Rousseeuw and W. A. Stahel (1986, 2005).

Robust Statistics: The Approach Based on Influence Functions. Wiley.

Maronna, R.; D. Martin and V. Yohai (2006). Robust Statistics: Theory _ and

Methods. Wiley.

Ryan, T. P. (1997, 2008). Modern Regression Methods. Wiley.

Seber, G. A. F.; A. J. Lee (2003). Linear Regression Analysis (Second Edition).

Wiley.

Strutz, Tilo (2010). Data Fitting and Uncertainty - A practical introduction to

weighted least squares and beyond. Vieweg+Teubner. ISBN 978-3-8348-1022-9.

ESTUDIO DE LA APLICABILIDAD DE LAS APROXIMACIONES

UNIFORMES AL ANÁLISIS DE SERIES HISTÓRICAS.

APLICACIÓN AL CASO DE LOS PRECIOS DEL COBRE

DOCUMENTO Nº 2: ESTUDIO ECONÓMICO

73

1 Estudio Económico

Los costes de este proyecto, son bastante bajos, si los comparamos con otros, en los

cuales requieren de obras civiles, y por consiguiente, de maquinarias pesadas.

En este caso, al tratarse de un proyecto de investigación, no lleva consigo unos costes

elevados, puesto que en su gran mayoría el coste principal será de un buen equipo

informático, que sea capaz de tratar grandes volúmenes de información, y a ser

posible, en el menor tiempo posible.

Aunque, si bien es cierto, deberemos proveernos de un gran material didáctico, que

nos permita documentarnos sobre el tema en estudio, para lo cual, tendremos que

comprar varios libros de carácter matemático, que en su mayoría son de un coste

elevado. Asímismo, ha sido necesario recopilar una gran cantidad de datos referentes

al precio del cobre, con el tiempo y esfuerzo que ello conlleva.

Por otro lado, para el desarrollo de este proyecto hemos usado como herramienta

principal de trabajo, el Matlab. Esta aplicación, aunque su coste es, también, alto, es

tremendamente útil cuando se abordan problemas matemáticos.

Es por esta última razón, que hemos recurrido a dicha aplicación, y no a otros

programas del mercado, que si bien nos hubieran permitido abaratar el coste, ya que

no es necesaria la adquisición de una licencia, por el contrario no habríamos podido

disfrutar de la enorme potencia y versatilidad de Matlab.

Finalmente, he creído conveniente, introducir una partida presupuestaria adicional, la

cual consistiría en la necesidad de formación, durante un periodo aproximado de

doce meses, en dicha aplicación. Esto es bastante importante, ya que el manejo con

esta aplicación, resulta en ocasiones bastante difícil. Deberemos contratar, al menos,

a un empleado, con un nivel de estudios superiores, que sea capaz de abordar, con

ciertas garantías, el problema que se plantea en este proyecto.

74

Como consecuencia hará falta la asignación de un sueldo durante doce meses, lo que

supondrá, con toda seguridad, la mayor partida presupuestaria.

A continuación, recogeré lo anterior en una tabla, con el objetivo de facilitar todos

los puntos descritos:

Costes del proyecto

Costes Del Proyecto

Licencia de Matlab (Anual) 60,00 €

Datos del precio del cobre 0,00 €

Meses de trabajo 6

Número de ingenieros 1

Sueldo 1500,00 € / mes

Ordenador de sobremesa 1200,00 €

TOTAL PROYECTO 10260,00 €

ESTUDIO DE LA APLICABILIDAD DE LAS APROXIMACIONES

UNIFORMES AL ANÁLISIS DE SERIES HISTÓRICAS.

APLICACIÓN AL CASO DE LOS PRECIOS DEL COBRE

DOCUMENTO Nº 3: ANEXOS

ANEXO A: TEORÍA MÍNIMOS CUADRADOS

77

Teoría Mínimos Cuadrados

En muchos problemas de hoy en día es necesario trabajar a menudo con conjuntos

de datos experimentales (x1,y1),..., (xN,yN), donde las abscisas {xk} (distintas entre

sí) representan la variable independiente, y las ordenadas {yk} la medida realizada.

Interesa entonces determinar la función y = f (x) que mejor se aproxime a los datos,

proceso matemático que se denomina aproximación discreta en consonancia con el

número finito N de puntos (xi,yi) que se utilizan como datos de partida.

En ocasiones la representación gráfica de los datos puede ser fuente de

información que nos permita elegir el tipo de función f que mejor se ajusta a los

mismos; pero también puede ocurrir que, conociendo suficientemente el fenómeno

físico en estudio, dispongamos de un modelo matemático y de la forma de la

función f que lo describe, a falta de mayor concreción en parámetros físicos del

modelo o, simplemente, de mayor precisión en las medidas tomadas por

limitaciones instrumentales y humanas. En ambos casos, lo que queda es hallar los

valores más adecuados de los M parámetros {cj (j = 1,...,M)} que definen la

función matemática f (x,c1,...,cM) que mejor aproxima el cumplimiento de las N

condiciones estipuladas:

yi = f (xi,c1,...,cM) (i = 1,...,N)

Estas condiciones representan un sistema algebraico de ecuaciones lineales que

habrá que resolver para determinar los parámetros {cj (j = 1,...,M)}.

La aproximación discreta y la interpolación de funciones son conceptos

cercanos pero en el primero no se exige como en el segundo que la función

aproximante verifique exactamente los datos discretos del problema; esta

diferencia evita las dificultades observadas en la interpolación de grandes

cantidades de datos, especialmente si éstos muestran algún tipo de ruido o

perturbación proveniente de los errores experimentales.

78

Común a ambos tipos de aproximación, discreta o continua, es el carácter

lineal o no lineal de la misma, que definiremos a continuación, como paso previo

al desarrollo del capítulo; así, diremos que un método de aproximación es

lineal si la función aproximante f (x,c1,...,cM) es lineal en los parámetros

{ cj (j = 1,...,M)}; y no lineal en el caso contrario. El siguiente ejemplo pone de

manifiesto el caso lineal.

El ajuste polinomial mediante la función

f (x) = c1 + c2x + c3x2 + …+ cnxn−1

es un problema de aproximación lineal, porque un polinomio es lineal en sus

coeficientes, aunque no lo es en general en la variable independiente x. Sin embargo,

el ajuste exponencial mediante la función.

f (x) =c1¬ÀCs+ c3¬ÀÁs+…+ c2n-1¬ÀCXs

es un problema de aproximación no lineal.

APROXIMACIÓN DISCRETA.

¿Cómo se determina la mejor aproximación f (x) que pase cerca (no por cada

uno) de los N puntos dato (xk,yk)? Para responder esta pregunta hay que

considerar los errores (también llamados desviaciones) que se definen a

continuación:

e k = f (xk) −yk (k = 1,...,N)

Hay varias normas (formas de medir estos errores) que podemos usar para

medir la distancia entre la curva y = f (x) y los datos. Las más utilizadas son:

79

Error máximo: E∞(f) = max1≤f≤ÂbA�vf� − :fbǀ

Error medio: E1(f) = 1Â ∑ ǀbA�vf� − :fbÂÄ=1 ǀ

Error cuadrático medio: E2(f) = 1Â }∑ ÅA�vf� − :fÆǀÂÄ=1 ǀ2

La función mejor aproximación es aquélla que minimiza la función error y,

por tanto, dependerá, fundamentalmente, de la norma que elijamos para la

definición del mismo

APROXIMACIÓN DISCRETA MÍNIMO-CUADRÁTICA:

CASO LINEAL.

Dados N puntos {(xk,yk) (k = 1,...,N)} con abscisas distintas, y M funciones

linealmente independientes { fj (x) (j = 1,...,M)}, se trata de encontrar M

coeficientes {cj} tales que la función f (x) definida como la combinación lineal

f(x)=∑ �«A«�v��«=1

minimice la suma de los cuadrados de los errores cometidos en cada punto:

E(c1,c2,…,cM)=∑ JA�vf� − :fK2 = ∑ ��∑ �«A«�vf�� − :f�2«=1Âf=1Âf=1

80

es decir, E = N [E2( f )]2. Minimizar E es equivalente a minimizar E2( f ), y para

que la magnitud escalar E alcance un mínimo relativo para un conjunto dado de

valores de los parámetros {c1,..., cM}, es necesario que se verifiquen las

condiciones Ç E /Ç ci = 0 para i = 1, 2,..., M. Calculando estas derivadas e igualando

a cero se obtiene un sistema de ecuaciones lineales cuya

solución es {cj}. En efecto,

Ç�Ç�Q=0=∑ 2��∑ �«A«�vf�� − :f�«=1Âf=1 �A«�vf�

⇨∑ ∑ �«A«�vf�AQ�vf� = ∑ :fAQ�vf�Âf=1�«=1Âf=1

y permutando los signos de sumatorio queda el siguiente sistema de ecuaciones en

cj :

∑ �∑ A«�vf�AQ�vf���« = ∑ AQ�vf�:fÂf=1Âf=1�«=1 (i=1,2,…,M)

que reciben el nombre de ecuaciones normales o ecuaciones normales de Gauss.

A pesar de su carácter aproximado, la solución obtenida mediante mínimos

cuadrados alisa (filtra) los errores aleatorios de los datos y permite captar la

tendencia de fondo mostrada por el fenómeno medido. Precisamente, el método fue

desarrollado por Gauss para calcular las órbitas celestes de planetas y cometas. Las

órbitas elípticas de estos cuerpos quedan determinadas por cinco parámetros, es

decir, en principio, por cinco observaciones de su posición. Sin embargo, debido a la

imprecisión de los instrumentos de medida y del factor humano, el cálculo de una

órbita a partir de tan solo 5 observaciones es escasamente fiable, y la solución

correcta se obtiene mediante el ajuste por mínimos cuadrados de numerosas

observaciones.

81

Obsérvese que hemos pasado del sistema rectangular de ecuaciones de dimensión

NxM al sistema final cuadrado de dimensiones MxM . Entonces el sistema de

ecuaciones es equivalente a:

∑ �«A«�vQ� ≈ :Q�«=1 (i=1,..,N) → Éc≈b £VQ« = A«�vQ�{Q = :Q h

En la fila genérica i se establece que la función f (x) verifica (aproximadamente) el

dato (xi,yi). Las dimensiones de la matriz de coeficientes A y del vector b son NxM y

Nx1 respectivamente, y estaremos tratando con un sistema lineal de ecuaciones

rectangular sobredeterminado si, como ocurre en general, N > M.

Para obtener la solución de mínimos cuadrados del sistema rectangular A c ≈ b

definiremos el vector residuo y minimizaremos el cuadrado de su norma euclídea:

Ê = Ë − ÌÍ;‖Ï‖CC = ÏÐÏ = �Ñ − ÌÒ�Ð�Ñ − ÌÒ� = ÑÐÑ − 2ÒÐÌÐÑ + ÒÐÌÐÒ

anulando las derivadas con respecto a los parámetros c, para obtener: −2 AT b + 2 AT Ac=0 → ÉÐÉÍ = ÉÐË

Éste es un sistema de M ecuaciones con M incógnitas (matriz de coeficientes ATA

de dimensión MxM ) que se conoce como sistema de ecuaciones normales. Si el

rango de la matriz A es M (las columnas de A son linealmente independientes), el

sistema de ecuaciones obtenido es no singular y tiene solución única.

Efectivamente, entonces A c representa un vector del espacio generado por las

columnas de A (dimensión M en general; el plano en la figura) que en el caso

habitual del método de los mínimos cuadrados (N > M ) no incluye al vector b de

82

dimensión N. Por tanto en lugar de una solución exacta buscaremos el vector A c

(del espacio generado por las columnas de A) más cercano a b (en la norma

euclídea); entonces, este vector A c deberá coincidir con la proyección ortogonal de

b en el espacio columna de A (el plano), como se muestra en la figura:

b r = b − A c

Ac

Figura

Por tanto, el vector residuo r = b − A c será perpendicular al espacio columna de

A, y se verificará la condición de ortogonalidad (producto escalar nulo) de todos

las vectores columnas de A con el vector (columna) r; en formato matricial:

0 = AT r = AT (b − Ac) AT Ac = AT b

que es el mismo sistema de ecuaciones normales obtenido anteriormente.

Aproximación polinomial.

Es un caso particular de la aproximación discreta mínimo-cuadrática

lineal. Veremos aquí su formulación y características específicas. Cuando en el

método general descrito se tienen de nuevo N puntos, pero se utilizan M funciones

{ fj (x) = xj (j = 0,1, .., M1)}, la función aproximante f (x) ser· un polinomio de

grado menor o igual que M−1:

f(x)=c1+ c1x+c1x2+…+ cM-1=∑ �«v«�−1«=0

83

Entonces, procediendo análogamente al caso anterior:

E=∑ JA�vf� − :fK2 = ∑ ��∑ �«vf« � − :f�2 = ���0, … , Ó�−1��−1«=0Âf=1Âf=1

y minimizando E:

Ç�Ç�Q = 0 = U 2��U �«vf« � − :f�−1«=0

Âf=1 �vfQ ⇨

∑ �∑ vdW @��W =ÔW�@�g@W�Y ∑ :dvdPÔW�@ (i=0,1,….,M-1)

Obsérvese que la matriz de coeficientes de este sistema es simétrica, pues VPW = VWP; además, aij es cte. para i+j = cte., con lo que también son iguales todos

los elementos alineados perpendicularmente a la diagonal principal.

Aproximación polinómica lineal. Determinación de la recta de regresión.

Se trata del caso particular en que el grado del polinomio es 1 y el número

de coeficientes a determinar es M = 2. La recta de regresión o recta óptima en (el

sentido de los) mínimos cuadrados es la de ecuación

y = f (x) = Ax + B

que minimiza el error cuadrático medio E2( f ). Recordemos que la cantidad E2( f )

será mínima sí lo es el valor E = N [E2( f )]2; en este caso:

� = Â6�C�<�8C U�Ìvd + . − :d�CÔÕ�@

84

valor que puede visualizarse geométricamente como la suma de los cuadrados de

las distancias verticales desde los puntos hasta la recta. Particularizando a este caso

las fórmulas generales para polinomios (4), los coeficientes de la recta de regresión

resultan ser la solución del siguiente sistema lineal de ecuaciones normales:

Ö×Ø×Ù�U vdC�Ì + �U vd�. = U :dvd

Ôd�@

Ôd�@

Ôd�@�U vd�Ì +Ô

d�@ Â. = U :dÔ

d�@h

Recuérdese que el sistema de ecuaciones normales también puede obtenerse

matricialmente.

Aproximación polinómica cuadrática

Eligiendo como función de aproximación un polinomio de grado 2, y M = 3

coeficientes a determinar, la parábola óptima en el sentido de los mínimos

cuadrados:

y = f (x) = Ax2 + Bx + C

se determina sustituyendo los coeficientes A = c3, B = c2 y C = c1 en el sistema

de ecuaciones normales (4):

Ö××××Ø××××Ù �U vdÁ�Ì + �U vd��. + �U vdC�ÓÔ

d�@ = U :dvdCÔ

d�@Ô

d�@Ô

d�@ �U vd��Ì + �U vdC�. + �U vd�Ó = U :d

Ôd�@ vd

Ôd�@

Ôd�@ Ô

d�@�U vdC�Ì + �U vd�. + ÂÓ = U :d

Ôd�@

Ôd�@

Ôd�@

h

85

y resolviendo el sistema de tres ecuaciones para las incógnitas A, B y C. Obsérvense

las simetrías en la matriz de coeficientes, y recuérdese que el sistema de ecuaciones

normales también puede obtenerse matricialmente según.

Inconvenientes de la aproximación polinomial.

Ortogonalización

Si los datos no muestran una naturaleza polinomial, puede ocurrir que la

curva resultante presente oscilaciones grandes. Este fenómeno, llamado oscilación

polinomial, se hace más pronunciado conforme aumenta el grado del polinomio,

y por esta razón no se suelen usar polinomios de grado seis o mayor a no ser que

se sepa que la función de la que provienen los datos es un polinomio.

Por otra parte el sistema de ecuaciones normales es un sistema mal

condicionado, que se ve muy afectado por los errores de redondeo. De hecho, se

puede demostrar que, al formar el sistema de ecuaciones normales, el número de

condición de la matriz A de coeficientes original (que empeora sensiblemente al

aumentar el grado del polinomio de aproximación) queda elevado al cuadrado en

la matriz de coeficientes ATA resultante.

cond( AT A) = [cond( A)]2

86

APROXIMACIÓN MÍNIMO-CUADRÁTICA:

CASOS NO LINEALES.

El ajuste exponencial: y = Ce Ax .

Lo mismo que en el caso anterior, en muchos procesos, como por ejemplo

los de desintegración radiactiva, los datos experimentalmente obtenidos siguen

exponenciales decrecientes. Supongamos de nuevo que queremos aproximar N

puntos (xk,yk) mediante una función

exponencial de la forma y = CeAx, donde los parámetros a determinar son C y A.

Se trata de una aproximación no lineal en el coeficiente A; el método de los

mínimos cuadrados consiste en minimizar la función:

E�A, C� = U�Ceܾݖ yß�Càß�@

Para ello hallamos las derivadas parciales de E(A,C) respecto de A y C:

Ö×Ø×Ù

Ç�ÇÌ = 0 = U 2�Ó¬ásâ − :d�Ó¬ásâvdÔ

Õ�@Ç�ÇÓ = 0 = U 2Ôd�@ �Ó¬ásâ − :d�¬ásâ

h

y tras simplificar se obtiene el siguiente sistema de ecuaciones normales:

87

Ö×Ø×ÙÓ U vd¬Cásâ − U vd:d¬ásâ

Ôd�@ = 0Ô

Õ�@Ó U ¬Cásâ

Ôd�@ − U :d¬ásâ

Ôd�@ = 0 h

que es un sistema algebraico no lineal de ecuaciones cuya resolución no es

inmediata como en los casos lineales, sino que se obtiene a través de un proceso

iterativo. Para evitar esta dificultad se puede utilizar el procedimiento de

linealización de los datos que se describe a continuación:

Linealización de los datos.

Muchos casos en los que se desea ajustar los datos a una curva no lineal en sus

parámetros, pueden transformarse en un problema de aproximación lineal mediante

adecuados cambios de variable. Veamos a continuación algunos caso

Linealización de los datos para y = Ce Ax .

Sean N datos (xk,yk) a los que queremos ajustar una curva exponencial de la forma:

y= CeAx Tomando logaritmos:

ln(y) = ln(C) + A x Cambio de variable:

Y = ln(y), X = x Ecuación linealizada

(B = ln(C)): Y = A X + B

Los datos originales (xk,yk) se han transformado en (Xk,Yk) = (xk,ln(yk)); el

problema ahora es calcular la recta de regresión de los puntos (Xk,Yk), para lo que

planteamos las correspondientes ecuaciones normales definidas por

88

Ö×Ø×Ù�U vdC�Ì + �U vd�. = U ãd�d

Ôd�@

Ôd�@

Ôd�@�U vd�Ì +Ô

d�@ Â. = U ãdÔ

d�@h

Éste es un sistema de ecuaciones lineal más sencillo de resolver que el sistema no

lineal correspondiente a los datos iniciales no transformados. Calculados A y B, se

obtiene el par·- metro original C = eB, y con ello la función a determinar y = CeAx.

Este procedimiento minimiza el error cuadrático calculado en las variables X, Y

(es decir, el de la recta Y = A X + B respecto a los puntos (Xk,Yk)), pero, tras

deshacer el cambio, el error cuadrático de la exponencial y = CeAx respecto a los

datos (xk,yk) originales no es el mínimo. No obstante, la diferencia suele ser

pequeña, lo cual permite utilizar a menudo el proceso de linealización por ser

computacionalmente más sencillo.

Otros casos de linealización.

La técnica de linealización mostrada en el apartado anterior se puede emplear en

otros casos de aproximación no lineal a funciones tales como

y = A ln(x) + B o y = A/x + B.

El tipo de función de aproximación se puede elegir a la vista de la representación

gráfica del conjunto de datos. Una vez elegida dicha función, si Ésta es no lineal en

los parámetros que la definen, hay que realizar el cambio de variables adecuado de

manera que las nuevas variables se relacionen linealmente. La siguiente tabla

muestra algunos de los cambios más utilizados.

89

Función: y=f(x) Linealización: Y=AX+B Cambios

: = Ìv + . : = Ì. 1� + . � = 1v ; ã = :

: = $v + Ó : = −1Ó . �v:� + $Ó � = v. :; ã = :

: = 1Ì. v + . 1: = Ì. v + . � = v; ã = 1:

: = vÌ. � + . 1: = Ì + .. 1� � = 1v ; ã = 1:

: = Ì. ln�v� + . : = Ì. ln�v� + . � = ln��� ; ã = :

: = Ó. ¬á.s ln�:� = Ì. v + ln�Ó� � = v; ã = ln�:�

ANEXO B: GRÁFICOS

91

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450PRECIOS DEL COBRE (Enero/1996 - Enero/2013)

Meses desde Enero/1996

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →

92

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 1

Meses desde Enero/1996

Desviaciones máximas: 135.28 (minimax) y 146.63 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

93

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 2

Meses desde Enero/1996

Desviaciones máximas: 132.93 (minimax) y 163.19 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

94

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 3

Meses desde Enero/1996

Desviaciones máximas: 132.26 (minimax) y 173.46 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

95

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 4

Meses desde Enero/1996

Desviaciones máximas: 128.46 (minimax) y 178.68 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

96

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 5

Meses desde Enero/1996

Desviaciones máximas: 127.65 (minimax) y 180.94 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

97

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 6

Meses desde Enero/1996

Desviaciones máximas: 121.71 (minimax) y 181.33 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

98

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 1

Meses desde Enero/1996

Desviaciones máximas: 61.92 (minimax) y 100.08 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

DatosMinimaxMin.Cuad

99

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 2

Meses desde Enero/1996

Desviaciones máximas: 27.22 (minimax) y 39.48 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

DatosMinimaxMin.Cuad

10

0

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 3

Meses desde Enero/1996

Desviaciones máximas: 19.95 (minimax) y 25.01 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

DatosMinimaxMin.Cuad

10

1

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 4

Meses desde Enero/1996

Desviaciones máximas: 19.72 (minimax) y 29.61 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

DatosMinimaxMin.Cuad

10

2

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 4

Meses desde Enero/1996

Desviaciones máximas: 105.77 (minimax) y 134.90 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad

10

3

0 6 12 18 24 30 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126 132 138 144 150 156 162 168 174 180 186 192 198 2040

50

100

150

200

250

300

350

400

450

PRECIOS DEL COBRE (Enero/1996 - Enero/2013)Ajustes Minimax y Mínimos Cuadrados

Grado del polinomio = 6

Meses desde Enero/1996

Desviaciones máximas: 89.40 (minimax) y 113.25 (min.cuad)

Cen

tavo

s de

dól

ar (

US

D)

por

libra

Marzo/2006 →

Abril/2008 →

Dicbre/2008 →

Febrero/2011 →DatosMinimaxMin.Cuad