You are on page 1of 13

UNIVERSIDAD NACIONAL AGRARIA DE LA SELVA

“PLAN DE ESTUDIO DE MERCADO DE CARAMELOS A BASE DE LICORES EXOTICOS DE


LA SELVA”

INTEGRANTES:

 BRAVO FERNANDEZ, YERSON JEAN PAUL


 GARCIA GARCIA, ALEXIS LUIS
 MARTINEZ VASQUEZ, JUNIOR
 SALDAÑA ALVARADO, MARIA DEL CARMEN
 SANCHEZ MENA, WENDY

TINGO MARÍA, PERÚ


INTRODUCCIÓN

La Econometría, es la rama de la economía, que utiliza métodos y modelos matemáticos, los


cuales son utilizados para analizar, interpretar y predecir diversos sistemas y variables
económicas, sin embargo, el mayor problema con el que se enfrenta la investigación es la
escasez de datos, los sesgos (Diferencia entre el valor esperado de un estimador y el verdadero
valor del parámetro) que pueden causar los mismos y la ausencia o insuficiencia de una teoría
económica adecuada.

Aun así, la econometría es la única aproximación científica al entendimiento de los fenómenos


económicos.

Es por ello que en este informe se quiere lograr el objetivo, a través de la econometría, de poder
estimar el modelo a través de mínimo cuadrado ordinario y hallar por distintas vías si existe
colinealidad y efectuar posibles soluciones ante ello. El modelo lineal general es un instrumento
estadístico muy eficaz y de uso amplio. Sin embargo, como en todas las aplicaciones estadísticas
la eficacia del método depende de que se cumpla las hipótesis básicas en cada aplicación
concreta (J. JOHNSTON).

El modelo utilizado en esta investigación es el de Regresión lineal, el cual considera ciertos


supuestos, los cuales corroboraremos por medio de los análisis de Multicolinealidad y
autocorrelación.
I. REVISION LITERARIA:
Generalmente en las variables económicas de un modelo econométrico existe un problema
de falta de independencia entre ellas. En el caso de que esta dependencia sea linealmente
exacta es imposible estimar al modelo por medio de los método de MCO debido a que la
matriz X’X es singular y por lo tanto no invertible. Si por el contrario la dependencia no es
exacta el problema es que no se conozca la aportación individual de las variables explicativas
para con la variable explicada.
1.1. Causas de la Multicolinealidad:
- La mala toma de información
- Restricciones del modelo o en la población objeto del modelo
- Mala especificación del modelo
- La sobredimensión o exagerado número de variables explicativas
- Errores en el uso de las unidades de medida de las variables
1.2. Consecuencias de la Multicolinealidad:
- Si existe Multicolinealidad perfecta entre las variables Xs, entonces, sus coeficientes
de regresión son indeterminados y sus errores estándares infinitos.
- Con Multicolinealidad perfecta los tc serian cero y si fuera no perfecta los tc muy
cercanos a cero, por lo que no serían significativos.
- Si la Multicolinealidad es alta pero no perfecta la estimación de los coeficientes de
regresión es posible, pero sus errores estándares tienen a ser grandes y por
consiguiente los valores poblaciones de los parámetros no pueden estimarse de
manera precisa.
1.3. Métodos de detección de Multicolinealidad:
La detección de estos problemas de colinealidad puede hacerse de varias formas:
a) Modelo globalmente bien estimado y regresores individualmente no significativos:
este es uno de los indicadores más empleados para justificar la existencia de
Multicolinealidad ya que es considerado como un “Síntoma Clásico”. Según este
análisis la Multicolinealidad se da cuando se observa un R2 alto y unos tc no
significativos.
b) Análisis de la matriz de correlaciones de los regresores: En este tipo de análisis se
puede observarlo de dos formas: si la determinante de la matriz de correlación de
los regresores es igual a cero se dice que existe correlación; tambien podemos
observar si el R2 entre los regresores es alto (Mayor a 0.8) se considera que hay
colinealidad entre dichos regresores.
c) Índice de condición de Belsley, Kuck y Welsch: Este índice se obtiene con de la
siguiente formula:
√𝝀𝒎𝒂𝒙
𝑲(𝒙) =
√𝝀𝒎𝒊𝒏
Los valores 𝝀 se obtiene a través de los auto valores de la matriz X’X que se
obtiene de la siguiente forma:
|𝑿′ 𝑿 − 𝜆𝑰| = 0

d) Índice de Klein o Factor De Inflación De La Varianza: Esta medida está basada en


regresiones auxiliares en las que se estima cada una de las variables explicativas en
función de las demás. De esta forma es posible conocer, por una parte el grade en
que cada uno de los regresores está explicado por el resto y, por otra, tener una
aproximación de la redundancia de información que se produce cuando todos
participan en conjunto en el modelo.
e) Medida de Theil: Para calcular se utiliza la siguiente expresión
𝒌

𝒎 = 𝑹 − ∑( 𝑹𝟐 − 𝑹𝟐𝒉 )
𝟐

𝒉=𝟏

1.4. Corrección de la Multicolinealidad:


a) Suprimir variables: Esto es posible cuando el coeficiente de la variable
supuestamente causante de la colinealidad se obtenga con signo contrario al
esperado y cuando la supresión de la variable no modifique significativamente el
ajuste global.
El mayor inconveniente de esta solución se plantea cuando la especificación teórica
del modelo precisa la inclusión de la variable que proporciona información
redundante.
b) Utilización de información adicional o externa: puede ser de dos tipos: información
extramuestral o restricciones en el modelo.
c) Utilización de primeras diferencias: Se desplaza un periodo las variables y se calcula
la diferencia entre dos observaciones sucesivas. El inconveniente de esta corrección
es que puede surgir autocorrelación en la perturbación del modelo.
d)
II. Resultados:

Disponemos de 20 observaciones con respecto al consumo interno (CONS), rentas salariales


agrarias (WA), rentas no salariales no agrarias (RNA) y rentas agrarias (RA), para el periodo
de 1928 – 1941 y 1945 – 1950; la razón por la que no se incluyen a los datos del periodo 1942
- 1944 es debido a los conflictos de la segunda guerra mundial que hizo que los datos no
sean idóneos para el modelo.

Obs. CONS RA WA RNA


1 55.2 4.39 39.21 17.73
2 62.2 4.6 42.31 20.29
3 58.6 3.25 40.37 18.83
4 56.6 2.61 39.15 17.44
5 51.1 1.67 34 14.76
6 51.1 2.44 33.59 13.39
7 54 2.39 36.88 13.33
8 57.2 5.08 39.27 14.67
9 62.8 3.93 45.51 17.2
10 65 5.48 46.06 15.92
11 63.9 4.37 44.16 17.57
12 67.5 4.51 47.68 18.49
13 71.3 4.9 50.79 18.49
14 76.6 6.37 57.78 19.18
15 86.3 8.42 78.97 19.12
16 95.7 9.27 73.54 19.76
17 98.3 8.87 71.92 17.55
18 100.3 9.3 74.01 19.17
19 103.2 6.95 75.51 20.2
20 108.9 7.15 80.97 22.12
MODELO INICIAL

𝑪𝑶𝑵𝑺 = 𝜷𝟏 + 𝜷𝟐 𝑹𝑨𝒊 + 𝜷𝟑 𝑾𝑨𝒊 + 𝜷𝟒 𝑹𝑵𝑨𝒊 + 𝝁𝒊

Analizando los datos con el programa Eviews tenemos obtuvimos los siguientes resultados

Dependent Variable: CONS


Method: Least Squares
Date: 06/08/18 Time: 11:22
Sample: 1 20
Included observations: 20

Variable Coefficient Std. Error t-Statistic Prob.

C 7.797043 8.898983 0.876172 0.3939


RA 0.031506 1.093757 0.028806 0.9774
WA 1.085019 0.175523 6.181621 0.0000
RNA 0.408724 0.649673 0.629122 0.5381

R-squared 0.952673 Mean dependent var 72.29000


Adjusted R-squared 0.943799 S.D. dependent var 19.25581
S.E. of regression 4.564909 Akaike info criterion 6.051531
Sum squared resid 333.4143 Schwarz criterion 6.250677
Log likelihood -56.51531 Hannan-Quinn criter. 6.090406
F-statistic 107.3583 Durbin-Watson stat 1.381412
Prob(F-statistic) 0.000000

Podemos ver con el F estadístico que las variables en conjunto son significativas para el
modelo, pero al analizar la significancia individual de cada variables explicativas podemos
observar que las Rentas Agrarias y las Rentas No Salariales no Agrarias no son significativas
para el modelo ya que al tener un 𝑅 2 y un estadístico “t” bajo puede que exista colinealidad
entre ellas por lo que utilizaremos diferentes medios para probar su existencia.

2.1. Detección de la Multicolinealidad:


a) Análisis de la matriz de correlaciones de los regresores.-

A partir de la matriz de correlaciones de los regresores Rxx puede profundizarse en


el proceso de detección de Multicolinealidad en el modelo. Si los regresores fueran
ortogonales, esto es, en ausencia de colinealidad, el determinante de esta matriz
tomaría el valor de 1.

Correlation RA RNA WA
RA 1.000000 0.604030 0.913933
RNA 0.604030 1.000000 0.703625
WA 0.913933 0.703625 1.000000

Hallando la determinante de la matriz de correlaciones obtenemos que esta es igual


a |𝑅𝑥𝑥 | = 0.0816485 lo cual nos indica la presencia de Multicolinealidad
especialmente entre las variables RA y WA ya que la correlación entre estas supera
el 0.8.
b) Medida de Belsley, Kuck y Welsch.-
Para hallar los índices de condición tenemos que hallar los auto valores (λ) máximos
y mínimos de la matriz X’X normalizada que lo obtendremos por la forma.
𝑋′𝑋𝑛 = 𝑆 ∗ (𝑋 ′ 𝑋) ∗ 𝑆
Donde “S” es una matriz diagonal cuyos elementos son la inversa de la diagonal
principal de X’X elevada a la ½.

Tenemos a la siguiente matriz:


1 4.39 39.21 17.73
1 4.60 42.31 20.29
1 3.25 40.37 18.83
1 2.61 39.15 17.44
1 1.67 34.00 14.76
1 2.44 33.59 13.39
1 2.39 36.88 13.33
1 5.08 39.27 14.67
1 3.93 45.51 17.20
𝑋= 1 5.48 46.06 15.92
1 4.37 44.16 17.57
1 4.51 47.68 18.49
1 4.90 50.79 18.49
1 6.37 57.78 19.18
1 8.42 78.97 19.12
1 9.27 73.54 19.76
1 8.87 71.92 17.55
1 9.30 74.01 19.17
1 6.95 75.51 20.20
(1 7.15 80.97 22.12)𝟒𝒙𝟐𝟎
Para poder hallar la matriz X’X Ingresamos el comando “Sym xx=@inner(grp)” lo
cual nos generó la siguiente matriz, cabe aclarar que grp es la matriz X

20.0000 105.9500 1051.680 355.8100


𝑋′𝑋 = (105.950 668.9881 6259.322 1947.471)
1051.68 6259.322 60563.16 19219.30
355.810 1947.471 19219.30 6429.645

Hallamos la raíz cuadrada de los elementos de la matriz X’X por medio del comando
“Sym m=sqr(XX)”; cabe aclarar que XX es la matriz X’X. Ahora la matriz que
tendremos será

4.472136 10.29320 32.42962 18.86293


𝑚 = (10.29320 25.86480 79.11587 44.13016)
32.42962 79.11587 246.0958 138.6337
18.86293 44.13016 138.6337 80.18507

Ahora generamos el vector de las diagonales de “m” ingresando el comando


“Vector a=@getmaindiagonal(m)” con lo cual obtendremos el siguiente vector
4.472136
𝑎 = [25.86480]
246.0958
80.18507
Luego generamos una matriz diagonal con el vector “a” ingresando el comando
“sym b=@makediagonal(a)” con lo cual obtendremos el siguiente vector

4.472136 0 0 0
𝑏=( 0 25.86480 0 0 )
0 0 246.0958 0
0 0 0 80.18507

Ahora para obtener la matriz “S” tenemos que invertir la matriz “b” ingresando el
siguiente comando “sym s=@inverse(b)” con lo cual obtendremos:

0.223607 0 0 0
𝑆=( 0 0.038663 0 0 )
0 0 0.004063 0
0 0 0 0.012471

Con esta matriz ya podemos hallar nuestra matriz X’X normalizada ingresando el
comando “Sym xxn=s*xx*s” con lo cual obtendremos.

1.000000 0.915961 0.955574 0.992224


𝑋𝑋𝑛 = (0.915961 1.000000 0.983363 0. 939006)
0.955574 0.983363 0.004063 0.973957
0.992224 0.939006 0.973957 0.012471

Por ultimo para obtener los valores propios de esta matriz ingresaremos el
comando “vector vp=@eigenvalues(xxn)” con lo cual obtendremos los siguientes
datos:
0.004582
𝑣𝑝 = [0.009412]
0.105722
3.880283
Entonces tomaremos los valores de máximos y mínimos de λ para hallar el índice
de condición

√𝝀𝒎𝒂𝒙 √3.880283
𝑲(𝒙) = = = 29.100748
√𝝀𝒎𝒊𝒏 √0.004582

Como podemos observar que 10 < 𝑲(𝒙) < 30 entonces concluimos que hay una
colinealidad media entre las variables.

c) Contraste de Multicolinealidad de Farrar – Glauber


Planteamiento
Ho: |Rxx|=1; los regresores son ortogonales entre sí; eso quiere decir ausencia de
colinealidad entre los regresores
Ha: |Rxx|≠1; los regresores son no ortogonales entre sí; eso quiere decir que existe
colinealidad entre los regresores
El estadístico es:
1
𝐺𝑒𝑥𝑝 = [𝑁 − 1 − (2𝑘 + 5)] ∗ 𝐿𝑛|𝑅𝑥𝑥|
6
𝐺𝑒𝑥𝑝 ~𝑋 2 𝑛 ; Es decir se asemeja a una distribución Chi2 donde
𝐾−1
𝑛=𝐾
2
Matriz de Correlación:

Correlation RA RNA WA
RA 1.000000 0.604030 0.913933
RNA 0.604030 1.000000 0.703625
WA 0.913933 0.703625 1.000000

La determinante de la matriz es: 0.081648714


1
𝐺𝑒𝑥𝑝 = [20 − 1 − (2(4) + 5)] ∗ 𝐿𝑛(0.081648714)
6
𝐺𝑒𝑥𝑝 = 24.4282133 ~ 𝑋 2 6𝑔𝑙
4−1
𝑛=4
2
𝑛=6

Gráfica de distribución
Chi-cuadrada, df=5
0.1 6

0.1 4

0.1 2

0.1 0
Densidad

0.08

0.06

0.04

0.02
0.05
0.00
0 11.07
X

Como el 𝐺𝑒𝑥𝑝 = 24.4282133 ~ 𝑋 2 6𝑔𝑙 se encuentran dentro de la región de


rechazo, entonces se acepta la Hipótesis alternante, los regresores son no
ortogonales entre sí; eso quiere decir que existe colinealidad entre los regresores
d) Factor de la inflación de la varianza
Para desarrollar esta metodología se requiere previamente, realizar ciertas
regresiones auxiliares, en concreto, se considera cada uno de los regresores como
función de los demás. De cada una de estas regresiones se necesita el valor de 𝑅 2
y a partir de ello pueden calcularse los aumentos de las varianzas causadas por la
Multicolinealidad midiendo el factor de inflación de la varianza según la siguiente
expresión.
2
𝜎𝑏𝑖 1
2 =
𝜎𝑏𝑜𝑟𝑡 1 − 𝑅𝑗 2

- Estimación de la primera regresión auxiliar:

Dependent Variable: RA
Method: Least Squares
Date: 06/13/18 Time: 08:56
Sample: 1 20
Included observations: 20

Variable Coefficient Std. Error t-Statistic Prob.

C -0.557717 1.968667 -0.283297 0.7804


WA 0.138551 0.019639 7.054870 0.0000
RNA -0.080399 0.142736 -0.563266 0.5806

R-squared 0.838291 Mean dependent var 5.297500


Adjusted R-squared 0.819266 S.D. dependent var 2.381043
S.E. of regression 1.012248 Akaike info criterion 2.999705
Sum squared resid 17.41897 Schwarz criterion 3.149064
Log likelihood -26.99705 Hannan-Quinn criter. 3.028861
F-statistic 44.06355 Durbin-Watson stat 1.413273
Prob(F-statistic) 0.000000

Puede calcularse el factor de inflación de la varianza:


1
=
1 − 0.838291
= 6.183948
- Estimación de la segunda regresión auxiliar:

Dependent Variable: WA
Method: Least Squares
Date: 06/13/18 Time: 08:56
Sample: 1 20
Included observations: 20

Variable Coefficient Std. Error t-Statistic Prob.

C -6.775079 12.18620 -0.555963 0.5855


RA 5.379976 0.762590 7.054870 0.0000
RNA 1.734558 0.793032 2.187248 0.0430

R-squared 0.871449 Mean dependent var 52.58400


Adjusted R-squared 0.856326 S.D. dependent var 16.64113
S.E. of regression 6.307724 Akaike info criterion 6.658908
Sum squared resid 676.3854 Schwarz criterion 6.808268
Log likelihood -63.58908 Hannan-Quinn criter. 6.688064
F-statistic 57.62170 Durbin-Watson stat 1.205199
Prob(F-statistic) 0.000000

Calculo del factor de inflación de la varianza:


1
=
1 − 0.871449
= 7.7790137

- Estimación de la tercera regresión auxiliar:

Dependent Variable: RNA


Method: Least Squares
Date: 06/13/18 Time: 08:56
Sample: 1 20
Included observations: 20

Variable Coefficient Std. Error t-Statistic Prob.

C 12.34001 1.442000 8.557566 0.0000


RA -0.227877 0.404563 -0.563266 0.5806
WA 0.126610 0.057886 2.187248 0.0430

R-squared 0.504339 Mean dependent var 17.79050


Adjusted R-squared 0.446026 S.D. dependent var 2.289644
S.E. of regression 1.704169 Akaike info criterion 4.041513
Sum squared resid 49.37124 Schwarz criterion 4.190873
Log likelihood -37.41513 Hannan-Quinn criter. 4.070669
F-statistic 8.648822 Durbin-Watson stat 0.780295
Prob(F-statistic) 0.002565

Calculo del factor de inflación de la varianza:


1
=
1 − 0.504339
= 2.0175079

Los factores multiplicativos alcanzar valores no tan elevados en los 3


casos, por lo que se considera que la varianza de los coeficientes del
modelo original se encuentran significativamente inflado.
A partir de estas regresiones podemos comparar los 𝑅𝑖 2 con el 𝑅 2de la
regresión original.
 𝑅𝑖(𝑟𝑎)2 = 0.838291
 𝑅𝑖(𝑤𝑎)2 = 0.871449
 𝑅𝑖(𝑟𝑛𝑎)2 =0.504339
Como podemos observar tenemos valores de R2 bajos; siendo el más alto
el de la variable WA aunque siguen siendo bajos.
e) MEDIDA DE THEIL: Esta medida refleja la diferencia entre la variabilidad
explicada ´por el modelo completo y la suma de cada una de las aportaciones de
los regresores del modelo

- Omitiendo la variable RA
Dependent Variable: CONS
Method: Least Squares
Date: 06/09/18 Time: 10:21
Sample: 1 20
Included observations: 20

Variable Coefficient Std. Error t-Statistic Prob.

C 7.779472 8.613198 0.903204 0.3790


WA 1.089384 0.085923 12.67854 0.0000
RNA 0.406191 0.624492 0.650435 0.5241

R-squared 0.952671 Mean dependent var 72.29000


Adjusted R-squared 0.947103 S.D. dependent var 19.25581
S.E. of regression 4.428727 Akaike info criterion 5.951583
Sum squared resid 333.4316 Schwarz criterion 6.100942
Log likelihood -56.51583 Hannan-Quinn criter. 5.980739
F-statistic 171.0930 Durbin-Watson stat 1.388987
Prob(F-statistic) 0.000000

La variable RA aporta: 0.9526763 – 0.952671 = 0.000002 valor muy


próximo a cero.
- Omitiendo la variable RNA

Dependent Variable: CONS


Method: Least Squares
Date: 06/09/18 Time: 12:11
Sample: 1 20
Included observations: 20

Variable Coefficient Std. Error t-Statistic Prob.

C 12.84070 3.793381 3.385028 0.0035


RA -0.061632 1.064259 -0.057911 0.9545
WA 1.136768 0.152276 7.465172 0.0000

R-squared 0.951502 Mean dependent var 72.29000


Adjusted R-squared 0.945797 S.D. dependent var 19.25581
S.E. of regression 4.483054 Akaike info criterion 5.975967
Sum squared resid 341.6621 Schwarz criterion 6.125327
Log likelihood -56.75967 Hannan-Quinn criter. 6.005124
F-statistic 166.7667 Durbin-Watson stat 1.456912
Prob(F-statistic) 0.000000

La variable RNA aporta: 0.9526763 - 0.951502 = 0.001171 valor también


muy próximo a cero

- Omitiendo la variable WA

Dependent Variable: CONS


Method: Least Squares
Date: 06/09/18 Time: 10:31
Sample: 1 20
Included observations: 20

Variable Coefficient Std. Error t-Statistic Prob.

C 0.445954 15.74899 0.028316 0.9777


RA 5.868883 0.985544 5.954971 0.0000
RNA 2.290753 1.024885 2.235131 0.0391

R-squared 0.839644 Mean dependent var 72.29000


Adjusted R-squared 0.820778 S.D. dependent var 19.25581
S.E. of regression 8.151868 Akaike info criterion 7.171852
Sum squared resid 1129.700 Schwarz criterion 7.321212
Log likelihood -68.71852 Hannan-Quinn criter. 7.201009
F-statistic 44.50696 Durbin-Watson stat 0.669241
Prob(F-statistic) 0.000000

La variable WA aporta: 0.9526763 -0.839644 = 0.113029 tambien muy


próximo a cero. Para calcular la medida de theil se ejecuta la siguiente
operación

0.9526763 – (0.000002 + 0.001171 + 0.113029)

= 0.838471
Calculando la medida de Theil se obtiene que este valor si dista mucho del
coeficiente de determinación de la regresión completa entonces se
puede admitir que si existe colinealidad. Aunque no sea mucho pero si
hay porque está por encima del 80%.

2.2. Corrección de la Multicolinealidad:


Como pudimos observar a través de las diferentes pruebas de Multicolinealidad, si bien
esta está presente en el modelo, el grado de la misma no es alta; por lo que no
consideramos necesario que el modelo sea corregido.

You might also like