You are on page 1of 9

1

FORMULARIO
ESTADÍSTICA DESCRIPTIVA
Población
N n M m

x
i 1
i x
i 1
i  ( xi  μ ) 2 n i ( x  x ) i
2
ni
i 1 i 1
μ= x= σ =
2 2
S =
N n N n -1
n n

n
( x i μ )3
n(n  1)
( x i μ)4
(n - 1) 2
3 = i 1 ; 4 = i 1
-3
(n - 1)(n - 2) s3 (n - 1)(n - 2)(n - 3) s4 (n - 2)(n - 3)

PROBABILIDADES
CASO: Fórmula
Regla de probabilidad total (marginal) P(B) = P(E1)P(B/E1) +P(E2)P(B/E2) + . . . + P(En)P(B/En)
Teorema de Bayes P(Ei/B)=p(Ei)p(B/Ei)/p(B)

Distribuciones conjuntas de probabilidad


F(a,b) = p(X≤a, Y≤b) - ∞ <a, b < ∞
FX(a) = p(X≤a) = p(X≤a, Y≤ ∞) = F(a, ∞) FY(b) = p(Y≤ b) = p(X≤∞, Y≤ b) = F(∞, b)

Función de probabilidad conjunta, marginal y condicional


Caso discreto
Conjunta: P(x, y) = p(X=x, Y=y)
Marginal: 𝑝𝑋 (𝑥) = ∑𝑌:𝑝(𝑥,𝑦)>0 𝑝(𝑥, 𝑦) 𝑝𝑌 (𝑦) = ∑𝑋:𝑝(𝑥,𝑦)>0 𝑝(𝑥, 𝑦)
Otra notación: 𝑓𝑋 (𝑥) = 𝑃(𝑋 = 𝑥) = ∑𝑅𝑥 𝑓𝑋𝑌 (𝑥, 𝑦) Rx: puntos (X,Y) para los que X=x
𝐸(𝑋) = ∑𝑥 𝑥𝑓𝑋 (𝑥)
𝑝(𝑋=𝑥|𝑌=𝑦) 𝑝(𝑥,𝑦)
Condicional: 𝑝𝑋|𝑌 (𝑥|𝑦) = = 𝐹𝑋|𝑌 (𝑥|𝑦) = 𝑃(𝑋 ≤ 𝑥|𝑌 ≤ 𝑦 ≤) = ∑𝑥≥𝑎 𝑃𝑋|𝑌 (𝑎|𝑦)
𝑝(𝑌=𝑦) 𝑝𝑌 (𝑦)

𝐸𝑋|𝑌 (𝑋|𝑌 = 𝑦) = ∑ 𝑥𝑝(𝑋 = 𝑥|𝑌 = 𝑦) = ∑ 𝑥𝑃𝑋|𝑌 (𝑥|𝑦)


𝑥 𝑥≥𝑎

Caso continuo

Conjunta: 𝑝(𝑥 ∈ 𝐴, 𝑦 ∈ 𝐵) = ∫𝐵 ∫𝐴 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦


+∞
𝑝(𝑥 ∈ 𝐴) = 𝑝(𝑥 ∈ 𝐴, 𝑦 ∈] − ∞, +∞[) = ∫−∞ ∫𝐴 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫𝐴 𝑓𝑋 (𝑥)𝑑𝑥
+∞ +∞
Marginal: 𝑓𝑋 (𝑥) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑦 , 𝑓𝑌 (𝑦) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥

Otra notación: 𝑓𝑋 (𝑥) = ∫𝑅𝑥 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦 Rx: puntos (X,Y) para los que X=x

𝑓(𝑥,𝑦) 𝑏
Condicional: 𝑓𝑋|𝑌 (𝑥|𝑦) = 𝑓𝑌 (𝑦)
donde: 𝑓𝑌 (𝑦) = ∫𝑎 𝑓(𝑥, 𝑦)𝑑𝑥
+∞
𝐹𝑋|𝑌 (𝑥|𝑦) = ∫𝑎 𝑓𝑋|𝑌 (𝑥|𝑦)𝑑𝑥
+∞

𝐸𝑋|𝑌 (𝑋|𝑌 = 𝑦) = ∫ 𝑥𝑓𝑋|𝑌 (𝑥|𝑌 = 𝑦)𝑑𝑥


𝑎
2

DISTRIBUCIONES DE PROBABLIDAD
Modelo Función de densidad f(x)=P(X=x) Media E(x) Varianza V(x)
Bernoulli 1 p
𝑓(𝑥) = {
0
Binomial f(x)= nCxpx(1-p)n-x, X=0,…n) np npq
Poisson eλ λ x  
f(x)  P(X  x λ)  x = 0, 1, 2,...
x!
Hipergeométrico Cx C n x np np(1-p)(N-n)/(N-
f(x)  p(X  x)  r Nr
1)
N Cn
Uniforme discreta 1 ab (b  a  1) 2  1
f(x) 
n 2 12
Geométrica f(x) = (1 – p)x-1p, x=1,2,… 1/p (1 – p)/p2

Multinomial 𝑛! 𝑥 𝑥 npi npi(1-pi)


𝑃(𝑋1 = 𝑥1 , … , 𝑋𝑘 = 𝑥𝑘 ) = 𝑝 1 … 𝑝𝑘 𝑘
𝑥1 ! … 𝑥𝑘 ! 1
Uniforme continua 1 ab b2  a 2
f(x) 
ba 2 12
Normal estándar  1 2
1   2 z 
f Z (z)  e  0 1

Exponencial f(x)  λe  λx 1/ 1/2
𝐹(x) = p(X ≤ x) = 1 − e−x
Weibul 𝛽 𝑥 𝛽−1 −(𝑥 )𝛽
𝑓(𝑥, 𝛿, 𝛽) = ( ) 𝑒 𝛿 , 𝑝𝑎𝑟𝑎 𝑥 > 0
𝛿 𝛿
𝑥 𝛽
𝐹(𝑥) = 1 − 𝑒 −(𝛿)
Gamma λ r x r-1e  λx
f(x,  , r)  ,x0 r/ r/2
(r)
+∞

(𝑟) = ∫ 𝑥 𝑟−1 𝑒 −𝑥 = 𝑦)𝑑𝑥 , 𝑟 > 0


0

Distribución Exponencial: Propiedad de carencia de memoria.- Para una v.a. exponencial X, se cumple que:
P(X< t1+t2X> t1) = p(X< t2).
Este resultado se explica por la independencia de los eventos, en el sentido de que el resultado de un evento anterior
no influye en el resultado de un evento futuro.
3

TÉCNICAS DE MUESTREO
Parámetros Varianza estimada de la media Varianza estimada de la Tamaños de muestra
x̅ proporción p̂
M. Aleatorio S2  N  n   p̂q̂  N  n  Nσ 2
simple Var( x)    Var( p̂)     n
n  N   n  1  N  B2
(N - 1)  σ2
4
M. n n
Nσ c2
conglomerados 
 N  n  i 1
(x i  xm i ) 2 
 N  n  i 1
(a i  p̂m i ) 2 n
B M2
2
V̂(x)    V̂(p̂)    N  σ c2
 NnM 
2
n 1  NnM 
2
n 1 4
M. Sistemático Para estimar la media y la proporción usar las mismas fórmulas del muestreo aleatorio simple.
Si N es desconocido tomar un valor aproximado. Una vez determinados N y n, entonces k ≤ N/n

Muestreo Estratificado
Estimación de parámetros
Descriptivas Estimadores los parámetros Varianzas estimadas Límite para el error de
estimación e I.C.
Media
1 L 1 L Si2  Ni  n i  2 B  2 V(yst )
yst   Ni yi ;
N i1
V̂(yst )  2  
N i1 n i  Ni 
 Ni
y st  2 V(y st )
(y ik  y i )
ni ni 2
y ik
donde yi   Si2  
k 1 n i k 1 n i 1
1 L p̂ i q̂ i  N i  n i  2
Proporción
1 L p̂st  2 V(p̂st )
p̂st   Ni p̂i
N i1
V̂(p̂ st )   
N 2 i 1 n i  1  N i 
N i
p̂1  p̂ 2  2 V(p̂1 )  V(p̂ 2 )
ni
y ik S  p̂i * q̂ i
2
B  2 V(p̂st )
p̂ i  
i
 1 exito
y ik  
k 1 n i 0 fracaso

Si2  Ni  n i  2
Total
B  2 V(τ̂st )
L
τ̂st  Nyst   Ni yi
L
V̂(τ̂st )  V̂(Nyst )  N 2 V̂(yst )     Ni
i1 i1 n i  Ni 
(y ik  y i ) 2
ni
S 
2

n i 1
i
k 1
L

 N σ /w 2
i
2
i i
Tamaño de muestra para estimar u y p: Fórmula general: n  i 1
2 L
B
N2 D   N i σ i2
4 i

Tamaño de muestra por tipo de asignación


Descriptivas Asignación Proporcional Asignación de Neyman Asignación Óptima
Peso de los
Ni Niσi N i σi / ci L
estratos wi wi L wi ; CT   n i ci
N σ
L
N
i 1
i i N σ /
i 1
i i ci
i 1

Tamaño estratos ni = nwi ni = nwi ni = nwi


Tamaño de la L
L 
2
L  L 
muestra N σ i
2
i   Niσi    N i σ i / c i   N i σ i c i 
n n   i1 L  n   i1  i1 
i 1
1 L

L
ND  N i σ i2 N 2 D   N i σ i2 N 2 D   N i σ i2
N i
i 1 i 1

MUESTREO EN POBLACIOES INFINITAS


Zα/2 2 p.q n∞
n∞ = n= n
e2 1+ ∞
N
4

INTERVALOS DE CONFIANZA y TAMAÑO DE MUESTRA

s s p̂q̂ p̂q̂
x  t α/2,n 1  μ  x  t α/2,n 1 (n<30)
p̂  Zα/2  p  p̂  Zα/2
n n n n
x1  x 2  Zα/2Sx1x2  μ1  μ 2  x1  x 2  Zα/2Sx1x2 p̂1  p̂ 2  Zα/2Sp̂1p̂2  p  p̂  Zα/2Sp̂1p̂2
m

Z σ 2 2 ( x  x )i
2
ni
n α/2
, donde: S2 =
2
i 1 cuando se va a estimar u; pero 2 = pq; cuando se va a estimar p
e n -1

Pruebas de hipótesis paramétricas


CASO: Estadístico de prueba y grados de libertad
Media, muestras x μ ;
Zo 
grandes σ/ n
Media, muestras x μ
To  g.l. = n-1
pequeñas s/ n
Diferencia de medias, x1  x 2
Zo 
muestras grandes σ12 σ 22

n1 n 2
Diferencia de medias, x1  x 2 (n 1  1)S12  (n 2  1)S22 ; g.l. = n +n – 2
muestras pequeñas, To  ; S p2  1 2
1 1 n1  n 2  2
σ12  σ 22 Sp 
n1 n 2
Diferencia de medias,
x1  x 2 g.l. 
σ 2
1 / n 1  σ 22 / n 2 
2

2;
To 
σ   
muestras pequeñas, 2 2
s2
s 2 2
/ n1 σ / n2 2

σ12  σ 22 1
 2 1
 2

n1 n 2 n1  1 n2 1
Varianza (n  1)S 2 g.l. = n – 1
χ 20 
σ 20
Igualdad de Varianzas s 12
Fo  ; g.l. numerador = n1 –1; g.l. denominador = n2 –1
s 22
Datos pareados n n

d
d i  (di - d) 2

To  ; d i 1 ; Sd2 
j1 ; g.l. = n-1
sd / n n n 1
Proporción p̂  p 0
Zo 
p 0 (1  p 0 )/n

donde: p̂  x 1  x 2
Diferencia de
p̂1  p̂ 2 ; o p̂1  p̂ 2
proporciones Zo  Zo  n1  n 2
p̂1q̂1 p̂ 2 q̂ 2
 1 1 
p̂(1  p̂)  
n1 n2
 n1 n 2 
Chi – cuadrado de (Oij  E ij ) 2 (Oi  E i ) 2
independencia y  02    02  
Bondad de Ajuste E ij Ei

P-valor para tomar decisiones en la prueba de hipótesis


P-valor
Bilateral Unilateral Superior Unilateral inferior
2*p(Z>Zo) P(Z>Zo) P(Z<Zo)
5

REGRESIÓN SIMPLE
Modelos de regresión simple, ecuaciones de predicción, parámetros y cambios de variables:

Regresión Lineal Simple: Y  β̂ 0  β̂1X Exponencial: Y  β̂ 0 exp(β̂1X) x=x; y=lny

n  X i Yi   X i  Y i n  x i .lny i -  x i . lny i
R R
[n X   X  ] *[n Y
2
i i
2
i
2
  Yi  ]
2
 n x 2
i 
-  x i  n  (lny i ) 2 -
2
 lny  
i
2

; n  x i .lny i -  x i . lny i
β1 
n  X i Yi   X i  Y i n  x i2 -  x i 
2
β̂1 
 X 
;
n  X i2 
2
1
i  lnyi β1  xi 
β̂ 0 
1
n
 Y  β̂  X 
i 1 i
β0  e n

El cambio en Y implica cambio en 0


Logarítmico Y  β̂ 0  β̂1lnX x=lnx; y=y Potencial Y  β̂ 0 Xβ̂1 x=logx; y=logy

n  lnx i .yi -  lnx i . yi n  log x i .log y i -  log x i . log y i


R R
n lnx -  lnx  n (y ) -  y  
2
i i
2
i
2
i
2
n (log x ) -  log x  n (log y ) -  log y  
i
2
i
2
i
2
i
2

n  lnx i .y i -  lnx i . y i n  log x i .log y i -  log x i . log y i


β1  β1 
n  (log x i ) 2 -  log x i 
n  lnx i2 -  lnx i 
2
2

1

 logyβ1  logx
β 0   yi  β1  lnx i 
1
β 0  10 n
n
El cambio en Y implica cambio en 0

INFERENCIAS EN LA REGRESIÓN SIMPLE


Prueba de hipótesis sobre el coeficiente de correlación
1. Ho:  = 0 X y Y no están correlacionadas H1: 0 ≠ 0 X y Y si están correlacionadas
2. tcrítico = t/2, n – 2 =
R n2
3. T0  4. Ho se rechaza |To| > |trítico |
1- R 2

Prueba de hipótesis sobre 0


1. Ho: 0 = 0 La recta pasa por el origen H1: 0 ≠ 0 La recta no pasa por el origen
2. tcrítico = t/2, n – 2 =
̂0
𝛽
3. To = (ver las fórmula abajo) 4. Ho se rechaza |To| > |trítico |
̂ 2 c00
√𝜎

Prueba de hipótesis sobre 1


1. Ho: 1 = 0 La variable X no predice a la variable Y
H1: 1 ≠ 0 La variable X si predice a la variable Y
2. tcrítico = t/2, n – 2 =
̂1
𝛽
3. To = (ver las fórmula abajo) 4. Ho se rechaza |To| > |trítico |
̂ 2 c11
√𝜎

Matriz de 𝑐00 𝑐01


𝐶 = (𝑋 𝑇 𝑋)−1 = (𝑐 𝑐11 )
varianzas - covarianzas 01
Intervalo de confianza para los j ̂βj ∓ t α ̂
∗ Se (βj ) j=0, j=1
,n−2
2
6

En la regresión lineal simple:


1 𝑥11
𝑋 = (⋮ ⋮ )
1 𝑥𝑛1 𝑛𝑥2
1 … . 𝑥1𝑝
En la regresión lineal múltiple: 𝑋 = (⋮ ⋱ ⋮ )
1 … 𝑥𝑛𝑝 𝑛,(𝑝+1)

REGRESIÓN LINEAL MÚLTIMPLE


Prueba de hipótesis sobre 0
1. Ho: 0 = 0 El hiperplano pasa por el origen
H1: 0 ≠ 0 El hiperplano no pasa por el origen
2. tcrítico = t/2, n – p – 1 =
̂j
𝛽
3. To = (ver las fórmula abajo)
̂ 2 cjj
√𝜎

4. 4. Ho se rechaza |To| > |trítico |

Prueba de hipótesis sobre j j=1, 2, …, p


1. Ho: 0 = 0 La recta Xi no predice a la variable Y
H1: 0 ≠ 0 La recta Xi si predice a la variable Y
2. tcrítico = t/2, n – p – 1 =
̂j
𝛽
3. To = (ver las fórmula abajo)
̂ 2 cjj
√𝜎

4. 4. Ho se rechaza |To| > |trítico |

Matriz de 𝑐00 …. 𝑐0𝑝


varianzas - covarianzas 𝐶 = (𝑋 𝑋) 𝑇 −1
=( ⋮ ⋱ ⋮ )
𝑐𝑝0 … 𝑐𝑝𝑝

SSE
Varianza Residual: σ2 = n−p−1
̂ p es el número de variables independientes

Error estándar de
estimación ̂2 cjj
Se (βj ) = √σ
Estadístico de prueba 𝛽̂j
To =
√𝜎̂ 2 cjj
Intervalo de confianza β̂j ∓ t α,n−p−1 ∗ Se (β̂j )
para los i 2
7

ANOVA DE UN FACTOR
1. Ho: u1 = u2 = … = uk
H1: al menos una media difiere de las demás
2. Fcrítico = F, k – 1, n – k =
3. Fo = (ver Tabla Anova de un factor)
4. Ho se rechaza si Fo > Fcrítico

Fuente de Variación SS g.l. MS Fo


Tratamientos (“entre” muestras = columnas ) SST = k–1= MST=SST/(k–1) = MST/MSE=
Error (“dentro” de las muestras) SSE = n–k= MSE =SSE/(n–k) =
Total SS Total = n–1=

̅i∗ = 1 ∑ni Y
̅ = ∑ni k Yij 1 k
̅
Yi∗ = ∑ni
j=1 Yij Y Y = nii∗ Y j=1 ∑i=1 n = n ∑i=1 ni ∗ Yi∗
ni j=1 ij
2
k ni
1
CM = (∑ ∑ Yij )
n
i=1 j=1
k ni k ni
2
SSTotal = ∑ ∑(Yij − ̅
Y) = ∑ ∑ Yij2 − CM
i=1 j=1 i=1 j=1
Y2i∗
SST = ̅i∗
∑ki=1 ni (Y −Y ̅) 2 = ∑ki=1 − CM
ni
SSE= SStotal – SST,

Estimación en un diseño de un factor


̂
σ 1 1
̅
Yi∗ ± t α,n−k ∗ ̅
Yi∗ − ̅
Yi′ ∗ ± t α,n−k ∗ √σ
̂2 (ni + ni′) ̂2 = √MSE
̂ = √σ
σ
2 √ni 2
y̅i − y̅i′
ToT =
1 1
√σ
̂2 (ni + )
ni′

ANOVA DE DOS FACTORES

Tratamientos (k columnas) Bloques (b filas)


1. Ho: u1 = u2 = … = uk 1. Ho: u1 = u2 = … = ub
H1: No Ho H1: No Ho
2. Fcrítico = F, k – 1, (k – 1)(b – 1) = 2. Fcrítico = F, b – 1, (k – 1)(b – 1) =
3. FoT = Fo = (ver Tabla Anova 2 factores) 3. FoB = (ver Tabla Anova 2 factores)
4. Ho se rechaza si FoT > Fcrítico 4. Ho se rechaza si FoB > Fcrítico

Fuente de variación SS g.l. MS Fo


Tratamientos (entre muestras) SST = k–1= MST =SST/(k –1) = MST/MSE= FoT
Bloques SSB = b–1= MSB =SSB/(b –1) = MSB/MSE= FoB
Error (dentro de las muestras) SSE = (k–1)(b–1) = MSE =SSE/(k –1)(b–1)=
Total SSTotal = n –1 =

2
̅) = ∑ki=1 ∑ni
SSTotal = ∑ki=1 ∑bj=1(Yij − Y 2
j=1 Yij − CM =SSB+SST+SSE
2 Y2∗j
̅∗j − Y
SSB = k ∑bj=1(Y ̅) = ∑bj=1 − CM
k
Y2i∗
̅i∗ − ̅
SST = b ∑ki=1(Y Y)2 = ∑ki=1 − CM
b
8

SSE = SS total – SSB – SST

̅ = 1 ∑ni
Y ∑k Y
bk j=1 i=1 ij
2
k ni
1
CM = (∑ ∑ Yij )
bk
i=1 j=1

Estimación en un diseño de dos factores


2
Tratamientos: ̅
Yi∗ − ̅ ̂2 (b)
Yi′ ∗ ± t α,(k−1)(b−1) ∗ √σ
2

2
̅∗j − Y
Y ̅∗j′ ± t α √σ2
Bloques: ,(k−1)(b−1) ∗ ̂ (k)
2

Estadísticos de prueba para tratamientos y bloques

̅i −y
y ̅i′ ̅j −y
y ̅j′
ToT = 1 1
ToB = 1 1
̂2( + )
√σ ̂2( + )
√σ
ni ni′ nj nj′

Covarianza
Cov(X, Y) = E[(X – E(X))(Y – E(Y)] = E(XY) – E(X)E(Y); Si X, Y son independientes, Cov(X, Y) = 0

Propiedades de la covarianza (fuente: Wikipedia)


i. Cov(X,a) = 0
ii. Cov(X,X) = Var(X), la varianza de X
iii. Cov(X,Y) = Cov(Y,X)
iv. Cov(aX,bY) = abCov(X,Y)
v. Cov(X+a,Y+b) = Cov(X,Y)
vi. Cov(aX+bY,cW+dV) = acCov(X,W) + adCov(X,V) + bcCov(Y,W) + bdCov(Y,V)
vii. Cov(X,Y)=E(XY)−E(X)E(Y)
Más propiedades:
i. Simetría: Cov(X, Y) = Cov(Y, X)
ii. Es un operador positivo definido: Var(X) = Cov(X, X) ≥ 0;

PROCESO ESTOCÁSTICOS
Un proceso estocástico X(t), tT, es de segundo orden si E[X2(t)] < ∞  tT
Sea X(t), tT, se dice que es un proceso de segundo orden, entonces
1.1. µx(t) = E[X(t)]
1.2. rx(s, t) = cov (X(s), X(t)) = E[X(s) – E(X(t))*(Y(s) – E(Y(t))] = E[X(s)X(t)] – E[X(s)]E[X(t)]
Cov[ X (t ), X ( s)]
Autocorrelación:  x (t ) : T  T   (t , s)   x (ts ) 
 (t ) (s)
X(t), es un p.e.s.o., si , el p.s.o. Y(t) = X(t + ), tiene la misma media y covarianza que X(t)
9

rx(s, t) = rx(0, t - s), -∞< s, t <∞ (4)


rx(t) = rx(0, t), -∞< s, t <∞ (5)
rx(s, t) = rx(t-s), - ∞ < s, t < ∞. (6*)
rx(- t) = rx(t), (7*)
Var[X(t)] = rx(0), (8*)

VARIOS 

1
∑ 𝑍𝑛 = = 1 + 𝑧 + 𝑧2 + ⋯ + 𝑧𝑛
1−𝑍
𝑛=0
∞ 𝑘
λ
∑ =𝑒 λ
𝑘!
𝑛=0
𝑛
λ
(1 − ) ≈ 𝑒 − λ
𝑛
Desigualdad de Markov
Si X es v.a. de valores no negativos, luego a>0, entonces:
𝐸(𝑋)
𝑝(𝑋 ≥ 𝑎) ≤
𝑎
Desigualdad de Chebyshev
Si X es v.a. con media u y varianza 2 para algún k >0, entonces:
𝜎2
𝑝(|𝑋 − 𝜇| ≥ 𝑘) ≤
𝑘
Ley fuerte de los grandes números
Sea X1, X2, …, Xn, v.a. i.i.d., y sea E(Xi) = , con probabildad 1. Entonces:
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛
𝑋̅ = → 𝜇 𝑠𝑖 𝑛 → ∞
𝑛
Teorema del límite central
Sea X1, X2, …, Xn, v.a. i.i.d., con media , y varianza 2, entonces:
𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 − 𝑛𝜇
𝜎√𝑛
Tiene distribución normal estándar cuando n∞

Xi tiene cualquier distribución

Pero si Xi tiene distribución binomial, entonces:


𝑋 − 𝐸(𝑋) 𝑋 − 𝑛𝑝
=
√𝑉𝑎𝑟(𝑋) √𝑛𝑝(1 − 𝑝)

You might also like