You are on page 1of 73

| 

 |
  

 

Universidad Torcuato Di Tella


2002

1
| 
 |
  

Análisis Discriminante
‡ Muchos problemas en marketing implican la
investigación de diferencias entre grupos.
‡ Pueden compararse dos o más grupos y el
problema principal es determinar si ellos difieren,
y en el caso de que difirieran entender la
naturaleza de esa diferencia.
‡ Ejemplos en los que estamos interesados en
comprender las diferencias entre grupos son:
± Clientes leales a una marca y no-leales
2
| 
 |
  

Análisis Discriminante
± Representantes de venta buenos, mediocres y malos.
± Grandes consumidores y pequeños consumidores de un
producto.
± Consumidores que asisten a diferentes puntos de venta
(shoppings, negocios barriales, outlets etc.)

‡ Una alternativa es comparar estos grupos


utilizando sus características socio-económicas.
‡ Por ejemplo calculando los promedios de ingreso,
edad, nivel educativo etc. y determinar que grupo
ß
tiene los mayores valores por ejemplo.
| 
 |
  

Análisis Discriminante
‡ Un problema con esta metodología es que no toma en
cuenta la relación que existe entre las variables. Por
ejemplo, si los grupos muestran diferencias en ingreso
promedio es muy probable que también muestren
diferencias en los niveles educativos ya que existe una
correlación positiva entre ingresos y educación.
‡ Si utilizamos ingreso y educación para segmentar el
mercado de consumidores estamos interesados en el
efecto total de estas variables combinadas. Además de
estar interesados en cual de las variables es más
importante o tiene mayor impacto. Ë
| 
 |
  

Análisis Discriminante
‡ Necesitamos un mecanismo que nos permita
considerar a las variables en forma simultánea.
‡ Una alternativa consiste en construir una
combinación lineal de las variables (una suma
ponderada) de forma tal que esta combinación
—   — 
  a los grupos.
‡ Podemos luego comparar como difieren los grupos
con respecto a esta combinación lineal y también
observar los pesos relativos de cada variable para
determinar su importancia relativa. Š
| 
 |
  

Análisis Discriminante
‡ El Análisis Discriminante es el método por el cual
se determina la combinación lineal.
‡      .
± Supongamos que tenemos información para dos grupos
de consumidores de þ variables X1, X2, «, Xk y
queremos investigar las diferencias entre los individuos
de los dos grupos.
± Tenemos n1 consumidores en el primer grupo y n2 en el
segundo grupo tal que:
1,
  1 1,   2 2 ,  K  þ þ , ,  1, 2, K , 1

2,
  1 1,   2 2,
 K  þ þ,
,  1, 2, K , 2
| 
 |
  

Análisis Discriminante
‡ La separación de estos dos conjuntos de valores se
establece en función de:


 ù.. 1 2

‡ Donde:
2
1

 1,
 1

1
 
2

2

1
2,
 2 
2



 
1 2
2 â
| 
 |
  

Análisis Discriminante
‡ El método de Fisher se basa en la maximización
de la distancia promedio entre los dos grupos en
términos del desvío estándar.
x1
oo o o o
oo x x ox
y1 o
oo x x o
x
½(y1+y2) x x
Clasificar xx
en 1 x x
xx
x2 l
Clasificar en 2 y2 y
| 
 |
  

Análisis Discriminante
‡ El análisis discriminante toma la información de
todas las variables (las Xs) y las reduce a una
nueva variable (y) mediante una combinación
lineal.
‡ Esta nueva variable se construye de forma tal que
su distribución provee la mayor separación posible
entre los dos grupos en términos de sus
promedios.
‡ Los coeficientes discriminantes (los Vs)
representan la contribución relativa de cada ±
variable a la separación.
| 
 |
  

Análisis Discriminante
‡ Ejemplo: Considere los siguientes grupos de
consumidores. El grupo 1 (G1) realiza sus
compras en shoopings y el grupo 2 (G2) en
outlets. Queremos establecer las diferencias de
comportamiento entre estos dos grupos en base al
ingreso y al número de compras que realizan en el
año para poder decidir si un consumidor con un
ingreso de 0,000 y que realiza 2Š compras por
año puede clasificarse en alguno de los grupos.
‡ La siguiente tabla muestra los datos para estas 10
variables:
| 
 |
  

Análisis Discriminante
÷÷÷÷÷÷÷÷÷÷÷ ÷ ÷÷÷÷÷÷÷÷÷÷ ÷

 

  
 
O  O  O
  O   
 O  O
 O    
     O
OOO O  O
 O O  O
   O
    O 
O   O
OO O  O O
O O  O
11
| 
 |
  

Análisis Discriminante
‡ Maximizando la función discriminante de Fisher
tenemos los coeficientes V1= 0.0±l y V2=0.âl

‡ Además  2ß.ß,  1±.1â


1 2

Ö    0.0±l 0  0.âl 2Š  2Š.0l


1 1
Ö  (  )  (2ß.ß  1±.1â)  21.2â
2 1 2 2
‡ Como 2Š.0l > 21.2â Entonces el nuevo
consumidor puede clasificarse como proveniente 12
del G1
| 
 |
  

  
‡ El propósito fundamental del análisis por factores
es describir las relaciones subyacentes entre las
muchas variables de una investigación en términos
de unas pocas variables no observadas que se
denominan 4  .

‡ Las relaciones entre las variables se describen a


través de la estructura de covarianzas
(correlaciones) de las mismas.

| 
 |
  

  
‡ El modelo de factores es motivado por el siguiente
argumento: Supongamos que las variables pueden
ser agrupadas por sus correlaciones. Esto es,
supongamos que todas las variables agrupadas
dentro de un grupo particular están altamente
correlacionadas entre ellas pero tienen muy poca
correlación con las variables de grupos diferentes.
‡ Entonces, es posible que cada grupo de variables
represente un solo ³factor´ responsable de las
correlaciones observadas. 1Ë
| 
 |
  

  
‡ Supongamos que observamos ð variables
agrupadas en el vector  [ 1 , 2 , K , ð ]
con media y matriz de varianzas y covarianzas
.
‡ El modelo de factores postula que X se relaciona
en forma lineal con unas pocas variables no
observables F1, F2, «, Fm, llamadas factores
comunes, y ð fuentes adicionales de variación p1,
p2, «, pp denominadas 4  ð4  .

| 
 |
  

  
‡ En particular,
1  1 Y
11  1  Y12  2  K  Y1    p 1
2  2 Y21  1  Y22  2  K  Y2    p 2

ð ð  Yð1  1  Yð 2  2  K  Yð    p ð
‡ ó, en notación matricial:
    @   p
( ð @ 1) ( ð @ ) ( @ 1) ( ð @ 1) 1
| 
 |
  

  
‡ El coeficiente Y
se denomina carga de la
variable sobre el factor
. Por lo tanto, la matriz L
es la matriz de las cargas factoriales.
‡ Note que el factor específico pi esta asociado
solamente con la variable Xi.
‡ Los ð desvíos X1 - V1, X2 - V2,«, Xp - Vp estan
expresados en términos de p+m variables
aleatorias no observables: F1, F2,«, Fm, p1, p2,«,
pp.

| 
 |
  

  
‡ Supuestos:
V( )  0 ,  (  )  V[  ' ]  
( @ 1) ( @ )

 0 K 0 
 1 ß
V (İ )  0 ,
0
 (İ)  V[pp ' ]    
 K 0 ß
ß
2

 ß
0 0 K ß
 p

1l
| 
 |
  

  
‡ Además:

  (p ,  )  V[İF ]  0
(p m)

‡ Ya que F y p son independientes.


| 
 |
  

  
‡ Estructura de Covarianzas del Modelo
1.   ( )     , 
2 2
  ( )  Y1 Y 
K  

  ( , )  YY  K  YY
þ 1 þ1  þ

2.   ( ,  )  , 

  ( , 
)  Y
20
| 
 |
  

  
‡ La porción de varianza de la variable explicada
por los  factores comunes se denomina la
O  de .

‡ La porción de la varianza de la variable explicada


por el factor específico se denomina varianza
específica.
2 2 2 2

ü
 Y  Y K  Y 
 ® ®® ® ® ®
1 2 
ü
 (  )    — — 
2
   V ð4  21
| 
 |
  

  
‡ Solución del Modelo por Componentes
Principales (CP):
± La solución del método de CP se puede obtener de la
especificación de la matriz de varianzas y covarianzas
muestrales S en función de sus autovalores y
autovectores

(_Ö , 
Ö1 ), (_Ö , Ö2 ),K , (_Ö , Ö ð ),
1 2 ð

  _Ö j _Ö j K j _Ö
1 2 ð
22
| 
 |
  

  
‡ Sea 
ð el número de factores comunes.
Entonces, la matriz de cargas factoriales estimada
«  esta dada por
 Y

!
«  
 
 Ö
_ Ö

1
, Ö
_
1 Ö
 , K
2 2
, Ö
_ Ö
  ß

Las varianzas específicas estimadas vienen dadas


por los elementos de la diagonal principal de la
~~
matriz     '

| 
 |
  

  
~ 0 K 0 
 1 ~ ß
~ 0  K 0 ß ~
 
2
~
2
 2
 ß ,   Y

 ß
1

0 0 ~
K  ß
 ð

y las comunalidades se estiman como:

« 2 « «
 Y Y K
2 2 «
 Y
2

 1 2 

| 
 |
  

  
‡ Cualquier transformación ortogonal de la matriz
de cargas de factores tiene la capacidad de
reproducir la matriz de varianzas y covarianzas de
las variables del estudio.
‡ La transformación ortogonal se denomina
³rotación factorial´ y se la utiliza para poder
interpretar los factores obtenidos.
‡ La rotación factorial es necesaria debido a que el
método de resolución del modelo siempre da un
primer factor con cargas altas en todas las 2Š
variables y los siguientes factores bipolares.
| 
 |
  

  
‡ Si Ö es la matriz (p×m) de cargas estimada,
entonces,

Ö  Ö  ,    '   '   
es una matriz (p×m) de cargas factoriales rotadas.
‡ Note que la matriz de varianzas y covarianzas
permanece sin cambios.

Ö Ö '  
Ö  Ö  ' Ö  
Ö  Ö Ö '  
Ö
2
| 
 |
  

  
‡ Por lo tanto, la matriz de varianzas específicas y
las comunalidades permanecen inalteradas.
‡ Existen diversos métodos que permiten rotar los
factores. Para utilizarlos uno debe decidir de
alguna forma cuantos factores va a rotar.
‡ El método más comun de rotación es una rotación
hacia lo que se denomina una ³estructura simple´.
‡ Una estructura simple se caracteriza por que cada
variable solo tiene una carga alta en un factor
determinado y en el resto cargas bajas. 2â
| 
 |
  

  
Factor 1

Nuevo Factor 1
.â
. x
.
.Š x

.Ë .
.2 Factor 2
.ß

Nuevo Factor 2

2l
| 
 |
  

  ! 
‡ En un estudio de preferencias, a una muestra
aleatoria de consumidores se le pidió que evaluara
varios atributos de un nuevo vino tinto en una
escala de 1 a â. Los resultados fueron tabulados y
se construyó la siguiente matriz de correlaciones:

 ( 
 )  1 2 ß Ë Š 
 ð 1 1.00 .02 .± .Ë2 .01 ß
 .± ß
 2  .02 1.00 .1ß .â1 .lŠ
.lŠ ß
 ß
  ð   ß  .± .1ß 1.00 .Š0 .11 ß
 Ë  .Ë2 .â1 .Š0 1.00 .â±
.â± ß
 ß 2±
  Š  .01 .lŠ .11 .â± 1.00 ß
| 
 |
  

  ! 
Ô  
   
    Ô    


« «  «
  « 

Y        

 




  0.±±
  
   !
0.±Ë "  
#$
 %
 # 0.±l
  
!$ !
0.lË !#  
&Ô '
0.±â " # '

$ (  & 


    )


  &' #

ß0
| 
 |
  

  ! 
.02 .±±  .02 0 0 0 0
.±Ë  .01ß  0 .12 0 0 0 ß
~~ ~  ß .02 .±Ë .1ß .lË .±â   ß
  '    .1ß .±l ß  0 0 .02 0 0ß
 ß .±±  .01 .±l .Ëß  .02ß  ß
.lË .Ëß ß  0 0 0 . 11 0 ß
.±â  .02ß  0 0 0 0 .0â ß
1.00 .01 .±â .ËË .00 
 .01 1.00 .11 .â± .±1 ßß

  .±â .11 1.00 .Šß .11 ß
 ß
 .ËË .â± .Šß 1.00 .l1 ß
 .00 .±1 .11 .l1 1.00ß

ß1
| 
 |
  

  ! 
‡ Note que la última matriz reproduce con bastante
aproximación la matriz de correlaciones
originales.

‡ Utilizando el método de los componentes


principales los factores obtenidos fueron: F1 =
[.Š, .âl, .Š, .±Ë, .l0]; F2 = [.l2, -.Šß, .âŠ, -
.10, -.ŠË]. Verifique los valores obtenidos en el
ejercicio con los factores rotados.
ß2
| 
 |
  

  
  
‡ Las cargas de los factores son las correlaciones
entre las variables y el factor.

‡ Los cuadrados de las cargas de los factores para


cada variable indican el porcentaje de la varianza
explicada por el factor. (â0. en el caso de la
variable Aroma del ejemplo anterior)

ßß
| 
 |
  

  
  
‡ El promedio de las cargas al cuadrado de un factor
muestra el procentaje de la varianza, en la matriz
de correlación, explicada por ese factor. En
nuestro ejemplo, el primer componente principal
explica 2.lŠŠ = 0.Šâ, Šâ de la varianza.
‡ La suma de los promedios de las cargas al
cuadrado sobre todos los factores es la proporción
de la varianza, en la matriz, explicada por esos
factores. En nuestro ejemplo los dos componentes
principales explican el Šâ + ß = ±ß de la ßË
varianza.
| 
 |
  

  
  
‡ Las cargas en las filas de una matriz de factores
pueden elevarse al cuadrado y sumarse. La suma
de los cuadrados de las cargas en cada fila indica
la proporción de la varianza de cada variable que
es explicada por los factores. En nuestro caso si
tomamos por ejemplo la variable Aroma, tenemos
que la suma de las cargas al cuadrado de los
factores explica el l± de la varianza de la
variable.
ߊ
| 
 |
  

  "#
 $

‡ 1. Análisis por Factores Principales

‡ El análisis por factores principales es idéntico al


de los componentes principales excepto que en
lugar de poner un valor unitario en la diagonal
principal de la matriz de correlaciones se estiman
valores para las comunalidades de cada variable.

ß
| 
 |
  

  "#
 $
‡ El procedimiento es el siguiente. Se estiman las
comunalidades, por ejemplo utilizando una
regresión múltiple con cada una de las variables de
la matriz como variables dependientes y el resto
como independientes y se toma el R2 de cada
regresión como la comunalidad correspondiente a
la variable que actúa como variable dependiente.
Es decir que en lugar de poner el valor unitario en
la diagonal de la matriz de correlación se pone este
R2. Luego se aplica el método de componentes
ßâ
principales.
| 
 |
  

  "#
 $
‡ Una vez que tenemos la matriz de factores,
calculamos las comunalidades para cada variable y
las comparamos con las comunalidades con las
que empezamos. A menos que las diferencias sean
pequeñas, lo que hacemos es poner estas nuevas
comunalidades en la diagonal principal de la
matriz de correlaciones y volvemos a aplicar el
método de los componentes principales y a extraer
el mismo número de componentes que antes.
ßl
| 
 |
  

  "#
 $
‡ Este ciclo se repite hasta que los valores de h2 no
difieran en dos iteraciones sucesivas. Las cargas
de los factores de la última iteración son las cargas
finales.

ß±
| 
 |
  

  "#
 $
‡ 2. Análisis por Factores de Residuos Mínimos

‡ En el análisis por factores de residuos mínimos no


se hace uso de los elementos de la diagonal
principal de la matriz de correlaciones. En el
método de los componentes principales, cada
factor se extraía de tal forma que explicara tanta
varianza como pudiera.

Ë0
| 
 |
  

  "#
 $
‡ En el método de los residuos mínimos, los factores
se extraen de forma de minimizar la suma de los
residuos al cuadrado de los elementos fuera de la
diagonal principal después de que los factores se
extrajeron.
‡ El algoritmo utilizado para extraer los factores de
esta manera es muy similar al de los componentes
principales pero no hace uso de los elementos de
la diagonal de la matriz.
Ë1
| 
 |
  

   %
&  '(
‡ El análisis de conglomerados es una técnica
estadística para agrupar a los elementos de la
muestra en grupos, denominados conglomerados,
de forma tal que, respecto a la distribución de los
valores de las variables, por un lado, cada
conglomerado sea lo más homogéneo posible y,
por otro, los conglomerados sean muy distintos
entre sí.

Ë2
| 
 |
  

   %
&  '(
‡ En marketing esta técnica es de particular interés
porque muchas veces las firmas necesitan
clasificar consumidores de forma tal de poder
segmentar su mercado en grupos de consumidores
que sean lo más homogeneos posibles (es decir
que se comporten de forma similar).
‡ Esta segmentación luego sirve para que las
empresas testeen nuevos productos, precios,
campañas de promoción etc.
Ëß
| 
 |
  

   %
&  '(
‡ La segmentación puede basarse en muchas
características: socioeconómicas, comportamiento
del comprador, psicológicas, etc.
‡ En general, la segmentación se basa en un gran
número de variables lo que representa un
problema para quién realiza la clasificación.
‡ El análisis de conglomerados ofrece una forma
posible de clasificación. Este análisis trata
específicamente de como asignar objetos a grupos
tales que — de los grupos exista mucha ËË
similaridad y  grupos mucha diferencia.
| 
 |
  

   %
&  '(
‡   ) Si  es el número de
observaciones en la muestra y ð es el número de
variables observadas, la tabla de datos que
contiene las  ð observaciones tendrá  filas y ð
columnas.
‡ Cada fila se considera como como un punto en el
espacio de ð dimensiones. Las coordenadas de
cada punto se obtienen a partir de los valores de
las ð variables de la observación correspondiente.
ˊ
| 
 |
  

   %
&  '(
‡ A partir de la representación de los  puntos en el
espacio, teniendo en cuenta la distancia entre ellos,
se tratará de agruparlos en conglomerados de
forma tal que, por un lado, las distancias dentro de
un mismo conglomerado sean pequeñas y, por el
otro, las distancias entre conglomerados sean
grandes.

Ë
| 
 |
  

   %
&  '(
‡ Ejemplo: supongamos que una agencia de venta de
autos quiere promocionar la venta de un nuevo
automovil deportivo. El problema que enfrenta es
seleccionar clientes potenciales similares. Para ello
recurre a sus archivos donde encuentra información
acerca de 1Ë clientes anteriores sobre los cuales tiene
la siguiente información: Ingreso annual (Y), edad
(E), número de hijos (H).
‡ Además tiene información acerca de la importancia de
los siguiente atributos de un automovil: velocidad (V),
seguridad (S), espacio (P), diseño del auto (D). Ëâ
| 
 |
  

   %
&  '(
‡ Por lo tanto, cada cliente puede ser considerado
como un punto en un espacio de ð dimensiones
(una dimensión por cada variable).
‡ A partir de la representación de los   puntos,
se trata de, teniendo en cuenta la distancia entre
ellos, agruparlos en conglomerados de tal forma
que, respecto del resultado de las variables, las
personas pertenecientes a un mismo conglomerado
sean semejantes entre sí y diferentes de las que
pertenecen a otros conglomerados. Ël
| 
 |
  

   %
&  '(
‡ Antes de poder agrupar a los clientes en
conglomerados, debemos definir que es lo que se
entiende por distancia entre los mismos.
‡ Existen diferentes medidas de distancia entre
observaciones, pero la más común es la  
*.
‡ La distancia euclídea entre dos observaciones se
define como la raíz cuadrada de la suma de los ð
cuadrados de las diferencias entre los valores
observados de las ð variables para las dos ˱
observaciones correspondientes.
| 
 |
  

   %
&  '(
‡ Es decir, esta distancia será positiva cuando las
dos observaciones (en nuestro caso clientes)
difieran en al menos un valor de los resultados de
las variables y será cero cuando los dos individuos
presenten los mismos resultados en las ð
variables.

Š0
| 
 |
  

   %
&  '(
‡ En nuestro ejemplo, consideremos los individuos
+ y !. Cada una de estas personas está representada
por un punto de siete dimensiones de la forma:
‡ k = {Yk, Ek, Hk, Vk, Sk, Pk, Dk}
‡ j = {Yj, Ej, Hj, Vj, Sj, Pj, Dj}

‡ La distancia euclídea entre ellos se define como:

‡ d(k,j) = {( Yk - Yj)2 + « + (Dk - Dj)2}12 Š1


| 
 |
  

   %
&  '(
‡ Como puede observarse, el número de variables
implicadas en el cálculo de la distancia puede ser
grande. Si algunas de estas variables brindan
información similar, estarán relacionadas de
alguna manera, esto es, estarán correlacionadas.
‡ Al calcular la distancia entre dos personas, la
componente debida a una variable tendrá la misma
ponderación que cada una de las restantes
variables.
Š2
| 
 |
  

   %
&  '(
‡ Por lo tanto si, por ejemplo, tres variables
contienen la misma información, dicha
información tendrá una ponderación tres veces
mayor al de otra variable que no tenga la misma
información y, en consecuencia, en el proceso de
formación de los grupos, la primera información
será más determinante que la segunda.
‡ Para evitar este tipo de situaciones, lo que se hace
es reducir el conjunto original de variables a un
subconjunto de variables que no esten Šß
correlacionadas entre sí.
| 
 |
  

   %
&  '(
‡ Una forma de hacer esto es simplemente calcular
la matriz de correlaciones entre las â variables
originales y agrupar las variables de acuerdo a esa
matriz.
‡ Otra forma de hacer esto es partiendo de la teoría.
Si la teoría me dice que dos variables me dan la
misma información entonces pertenecen al mismo
grupo.

ŠË
| 
 |
  

   %
&  '(
‡ Supongamos que en nuestro ejemplo los tres
conjuntos de variables no correlacionadas entre sí
son:

‡ {S, P, H}, {Y, E} y {V, D}

‡ De estos tres grupos, el subconjunto de variables


elegidas es: S, Y y V.

ŠŠ
| 
 |
  

   %
&  '(
‡ La distancia euclídea entre dos personas
considerando únicamente la información del
subconjunto de variables es:

‡ d(k,j) = {(Sk - Sj)2 + (Yk - Yj)2 +


+ (Vk - Vj)2}12

Š
| 
 |
  

   %
&  '(
‡ Observe que esta medida tiene el inconveniente de
que su valor depende de las unidades de medida
de las variables.
‡ Si esto ocurre el problema que se presenta es que
si, por ejemplo, dos personas tienen iguales
medidas en dos de las variables y difieren en una
unidad en la tercera, si las variables no están
medidas en las mismas unidades esa diferencia de
una unidad puede ser una cantidad muy grande o
muy pequeña. Šâ
| 
 |
  

   %
&  '(
‡ Para solucionar este inconveniente, lo que
hacemos en la práctica es considerar a las
variables en forma estandarizada.
‡ Esto es, la variable original menos su media
dividida por la desviación estándar. Creamos
nuevas variables de la siguiente forma:
      
     
—  —  — 

Šl
| 
 |
  

   %
&  '(
‡ Estas nuevas variables tendrán media cero y
varianza igual a uno. En esta nueva situación la
distancia euclídea entre las personas k y j es:
‡ d(k,j) = {(ZSk - ZSj)2 + (ZYk - ZYj)2 +
+ (ZVk -ZVj)2}12

‡ Una vez establecida la distancia entre las


observaciones, el siguiente paso consiste en
definir el criterio para la formación de los
conglomerados. Š±
| 
 |
  

   %
&  '(
‡ Existen varios métodos para la formación de los
conglomerados, a continuación se expondrán dos
de esos métodos.

‡  "#   ,-


‡ Este método de formación de conglomerados
realiza una partición de las observaciones en K
grupos, donde K es un número que debe ser fijado
ð  .
0
| 
 |
  

   %
&  '(
‡ El procedimiento del método de las K-medias es:
± Paso 1: Elegir el número de conglomerados, K.
± Paso 2: Especificar los centros de los K
conglomerados iniciales (en el caso de que sean
desconocidos estimarlos)
± Paso ß: En función del centro más próximo, agrupar a
los individuos en conglomerados.
± Paso Ë: Calcular los nuevos centros de los
conglomerados obtenidos en el Paso ß.
± Paso Š: Repetir los pasos ß y Ë hasta que llegue un
punto en el que los centros en dos pasos sucesivos sean1
iguales.
| 
 |
  

   %
&  '(
‡ En la práctica, lo que se hace es representar
gráficamente las observaciones (cuando las
variables estandarizadas son menores a cuatro) en
función de los valores de las variables
estandarizadas y se realiza un primer
agrupamiento de acuerdo a la proximidad de las
observaciones.
‡ Supongamos que se detectan Ë grupos diferentes,
entonces K se fija en Ë. Si no fuera posible
representar gráficamente los valores, entonces K 2
se fija arbitrariamente.
| 
 |
  

   %
&  '(
‡ El segundo paso consiste en determinar los centros de
estos K conglomerados.
‡ La solución adopatada en la práctica consiste en
estimar centros iniciales temporales a partir de los
primeros K casos del archivo de datos. A partir de
estos centros y a partir de un proceso iterativo se trata
de mejorar la solución inicial procediendo de la
siguiente forma: si la menor distancia de una
observación a un centro es mayor que la menor
distancia entre dicho centro y los restantes o que la
distancia entre los dos centros más cercanos, se ß
sustituirá la observación por el centro más próximo.
| 
 |
  

   %
&  '(
‡ En nuestro caso, la solución inicial corresponde a los
valores de las tres variables para las cuatro primeras
personas de la muestra. Supongamos que los valores
son:
°    

°    
°       
°      
°     

| 
 |
  

   %
&  '(
‡ Teniendo en cuenta que los valores de las tres
variables están estandarizados se puede considerar
que un valor mayor a 1 (en valor absoluto)
corresponde a un valor extremo de la variable.
‡ Hecha esta consideración, se observa que el
primer centro (Conglomerado 1 ó Cluster 1)
corresponde a una persona con alto valor en ZY.
‡ Análogamente, los centros dos, tres y cuatro
tienen valores bajos de ZV, ZY y ZS,
respectivamente. Š
| 
 |
  

   %
&  '(
‡ A partir de esta solución inicial, se procede con las
iteraciones indicadas más arriba hasta obtener
centros finales.
‡ Obviamente, hay programas econométricos que
realizan estas iteraciones automáticamente y nos
brindan la solución final.
‡ Estimados los centros finales, el siguiente paso
consiste en calcular la distancia de cada
observación con cada uno de ellos.

| 
 |
  

   %
&  '(
‡ En función de la mínima distancia obtenida, las
observaciones se agruparán en cuatro
conglomerados.
‡ Cada grupo estará formado por la persona
correspondiente al centro inicial y todos aquellos
tales que la distancia a dicho centro sea la mínima
entre las cuatro posibles.


| 
 |
  

   %
&  '(
‡ Agrupadas las observaciones en conglomerados, el
paso siguiente consiste en estimar centros de cada
uno de los conglomerados para proceder a la
siguiente agrupación.
‡ El centro de un conglomerado es el vector de las
medias de las variables para el grupo de
observaciones correspondientes. Es decir, se
toman las personas pertenecientes a un
determinado conglomerado y se calcula la media
de las tres variables para esas personas. Esto sel
repite para cada uno de los conglomerados.
| 
 |
  

   %
&  '(
‡ Calculados los centros de los conglomerados, el
siguiente paso es agrupar a las observaciones con
respecto a estos nuevos centros, obteniendo una nueva
solución de conglomerados.
‡ Para esto se calcula la distancia entre cada
observación y cada uno de los cuatro centros. En
función de la mínima distancia obtenida, las
observaciones se agruparán en cuatro nuevos
conglomerados.
‡ Cada grupo estará formado por todos aquellos clientes
tales que la distancia al centro sea la mínima de las ±
cuatro posibles.
| 
 |
  

   %
&  '(
‡ Este proceso se repite tantas veces como sea
necesario hasta que ninguno de los centros
obtenidos en una iteración se despalce respecto al
de la iteración anterior.

‡ La solución final nos agrupará a las observaciones


en cuatro aglomerados con las características
deseadas.

â0
| 
 |
  

   %
&  '(
‡  "# ./  0  
 
‡ En los métodos jerárquicos aglomerativos, el
análisis comienza con tantos conglomerados como
observaciones (cada observación es un
conglomerado inicial).
‡ A partir de esas unidades se van formando nuevos
conglomerados de forma ascendente, agrupando
en cada etapa a los individuos de los dos
conglomerados más próximos. â1
| 
 |
  

   %
&  '(
‡ Al final del proceso todos los individuos deberían
estar agrupados en un único conglomerado.
‡ La diferencia entre los diversos métodos
jerárquicos reside en la distancia considerada para
medir la proximidad entre conglomerados.
‡ En el método del Promedio entre Grupos se define
la distancia entre dos conglomerados como el
promedio de las distancias entre todos los pares de
individuos, en los que cada componente del par
pertenece a un conglomerado distinto. â2
| 
 |
  

   %
&  '(
‡ La ventaja de este método radica en que el proceso
de formación de conglomerados se puede seguir
etapa por etapa.
‡ En consecuencia, el número de conglomerados
que se desea formar se puede elegir ð   ,
en función de la solución obtenida en cada etapa.

âß

You might also like