You are on page 1of 91

Compressed Sensing

Miguel A. Hern andez-Medina


de Matem atica Aplicada a las Tecnolog as de la Informaci on ETSIT, Universidad Polit ecnica de Madrid
1 Departamento

Abril 2010

Indice

Qu e es el Compressed Sensing?

Ejemplo

Medidas. Propiedad RIP

Aproximaci on

Qu e es el Compressed Sensing?

Compresi on

x (n)

Tx

q (Tx )

Se nal

Transformada

Cuantizaci on

Compresi on

1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1

1000 900 800 700 600 500 400 300 200 100 0

K << N

DFT

Coeficientes significativos

2000

4000

6000

8000

10000

12000

14000

2000

4000

6000

8000

10000

12000

14000

T revela la estructura de la se nal

Qu e es el Compressed Sensing?

Compresi on

x (n)

Tx

q (Tx )

Se nal

Transformada

Cuantizaci on

Compresi on

1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1

1000 900 800 700 600 500 400 300 200 100 0

K << N

DFT

Coeficientes significativos

2000

4000

6000

8000

10000

12000

14000

2000

4000

6000

8000

10000

12000

14000

T revela la estructura de la se nal

Qu e es el Compressed Sensing?

Compresi on

x (n)

Tx

q (Tx )

Se nal

Transformada

Cuantizaci on

Compresi on

400

350

300

DFT

250

200

150

100

50

4 0 2000 4000 6000 8000 10000 12000

0 0 2000 4000 6000 8000 10000 12000

T revela la estructura de la se nal

Qu e es el Compressed Sensing?

Compresi on. Transformada


1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 1000 900 800 700 600 500 400 300 200 100 0

K << N

DFT

Coeficientes significativos

2000

4000

6000

8000

10000

12000

14000

2000

4000

6000

8000

10000

12000

14000

T Se nales objeto

00000 11111 00000 11111 000000000 111111111 00000 11111 111111111 000000000 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111

Subespacios coordenados

Compressed Sensing Podemos medir directamente la parte signicativa de la se nal?

Qu e es el Compressed Sensing?

Compresi on. Transformada


1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 1000 900 800 700 600 500 400 300 200 100 0

K << N

DFT

Coeficientes significativos

2000

4000

6000

8000

10000

12000

14000

2000

4000

6000

8000

10000

12000

14000

T Se nales objeto

00000 11111 00000 11111 000000000 111111111 00000 11111 111111111 000000000 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 000000000000000 111111111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111 00000 11111 000000000 111111111

Subespacios coordenados

Compressed Sensing Podemos medir directamente la parte signicativa de la se nal?

Qu e es el Compressed Sensing?

Compressed Sensing
Adquisici on de la se nal (SENSING)

Muestreo j = [0, . . . , 0, 1, 0 . . . , 0] j , x = x[j ]

Qu e es el Compressed Sensing?

Compressed Sensing
Adquisici on de la se nal (SENSING)

Muestreo j = [0, . . . , 0, 1, 0 . . . , 0] j , x = x[j ]

Medidas generalizadas = [1 , 2 , . . . , n ] , x = m

Qu e es el Compressed Sensing?

Compressed Sensing
Adquisici on de la se nal (SENSING)

yk = k , x , M
y
1 2

N.

matriz de medidas El vector dato es y Cuestiones C omo reconstruir la se nal a partir de y ?, M ?, ?


N 1

M N

Qu e es el Compressed Sensing?

Compressed Sensing
Adquisici on de la se nal (SENSING)

yk = k , x , M
y
1 2

N.

matriz de medidas El vector dato es y Cuestiones C omo reconstruir la se nal a partir de y ?, M ?, ?


N 1

M N

Qu e es el Compressed Sensing?

Compressed Sensing
Adquisici on de la se nal (SENSING)

yk = k , x , M
y
1 2

N.

matriz de medidas El vector dato es y Cuestiones C omo reconstruir la se nal a partir de y ?, M ?, ?


N 1

M N

Ejemplo

Ejemplo

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Construcci on de la se nal

% N % K

longitud de la se~ nal = 2048; Se~ nal K-dispersa = 50;

% se~ nal aleatoria +/- 1 x = zeros(N,1); q = randperm(N); x(q(1:K)) = sign(randn(K,1));

Ejemplo

N umero minimo de medidas

x es K -disperso x
0

= {j | |xj | = 0} K

K + K = 2K inc ognitas M 2K
N 1

Ejemplo

N umero minimo de medidas

x
i1 xi1

i2

xi2

x es K -disperso x
0

= {j | |xj | = 0} K

K + K = 2K inc ognitas
iK xi

M 2K

N 1

Ejemplo

N umero minimo de medidas

x
i1 xi1

i2

xi2

x es K -disperso x
0

= {j | |xj | = 0} K

K + K = 2K inc ognitas
iK xi

M 2K

N 1

Ejemplo

Condici on necesaria sobre la matriz de medidas

x K = {u RN | u

K }, x es K -dispersa

matriz de medidas. x = y vector informaci on

Ejemplo

Condici on necesaria sobre la matriz de medidas

x K = {u RN | u

K }, x es K -dispersa

matriz de medidas. x = y vector informaci on


x + ker

Ejemplo

Condici on necesaria sobre la matriz de medidas


x , x K = {u RN | u
0

K }, x , x son K -dispersas

matriz de medidas. x = y = x
x + ker x

x x ker 2K No se puede reconstruir x

Ejemplo

Condici on necesaria sobre la matriz de medidas


x K = {u RN | u

K }, x son K -dispersa

matriz de medidas. x = y = x
x + ker x

Reconstrucci on = ker 2K = {0}

Ejemplo

Condici on necesaria sobre la matriz de medidas


: RN RM (M 2K )
N

Ejemplo

Condici on necesaria sobre la matriz de medidas


: RN RM (M 2K )
N

i1

i2

i2K

Condici on necesaria ker 2K = {0} todo conjunto de 2K columnas es l.i.

Ejemplo

Condici on necesaria sobre la matriz de medidas


: RN RM (M 2K )
N

i1

i2

i2K

Condici on necesaria ker 2K = {0} todo conjunto de 2K columnas es l.i.

Ejemplo

Condici on necesaria sobre la matriz de medidas


: RN RM (M 2K )

Condici on necesaria ker 2K = {0} todo conjunto de 2K columnas es l.i. Para una reconstrucci on efectiva no es suciente

Ejemplo

Condici on necesaria sobre la matriz de medidas


: RN RM (M 2K )
N

i1

i2

i2K

Posible soluci on

Todo conjunto de 2K columnas de sea casi ortonormal

Ejemplo

Esfera M-dimensional

Sea v = [0, . . . , 0, 1] RM

f (w) = v, w para w S M 1 (continua) P (|f (w)| < )?

Ejemplo

Esfera M-dimensional

Sea v = [0, . . . , 0, 1] RM f (w) = v, w para w S M 1 (continua) P (|f (w)| < ) = Area Area Total

Ejemplo

Esfera M-dimensional

Sea v = [0, . . . , 0, 1] RM f (w) = v, w para w S M 1 (continua) Ap. desigualdad de Brunn-Minkowsky P (f (w) > 0) = P (f (w) < 0) =
1 2

Ejemplo

Esfera M-dimensional

Sea v = [0, . . . , 0, 1] RM f (w) = v, w para w S M 1 (continua) Ap. desigualdad de Brunn-Minkowsky P (f (w) > 0) = P (f (w) < 0) =
1 2
2 /4

Entonces P (|f (w)| < ) 1 2e M

Ejemplo

Esfera M-dimensional

Sea v = [0, . . . , 0, 1] RM f (w) = v, w para w S M 1 (continua) Ap. desigualdad de Brunn-Minkowsky P (f (w) > 0) = P (f (w) < 0) =
1 2
2 /4

Entonces P (|f (w)| < ) 1 2e M Si = ( > 1), M P (|f (w)| < ) 1 2e

2 /4

Ejemplo

Esfera M-dimensional

Sea v = [0, . . . , 0, 1] RM f (w) = v, w para w S M 1 (continua) Ap. desigualdad de Brunn-Minkowsky P (f (w) > 0) = P (f (w) < 0) =
1 2
2 /4

Entonces P (|f (w)| < ) 1 2e M

Utilizar el azar para que todo conjunto de 2K columnas de sea casi ortonormal

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Medidas

Matriz de medidas % M % A % % A Numero de medidas = 300; A matriz gaussiana = randn(M,N); Ortogonalizaci on filas de A = orth(A);

Vector de informaci on % medidas y = A*x;

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Reconstrucci on

Datos y = x vector informaci on x es K -dispersa

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Reconstrucci on

Datos y = x vector informaci on x es K -dispersa

Si ker 2K = {0} x es la u nica se nal K -dispersa tal que x = y

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Reconstrucci on

Datos y = x vector informaci on x es K -dispersa

Si ker 2K = {0} x es la u nica se nal K -dispersa tal que x = y Reconstrucci on argminz RN z


0

tal que z = y

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Reconstrucci on

Datos y = x vector informaci on x es K -dispersa

Si ker 2K = {0} x es la u nica se nal K -dispersa tal que x = y Reconstrucci on argminz RN z


0

tal que z = y

()

El problema (*) es NP-hard!

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Normas
p

p p

= |x1 |p + + |xN |p 1

Las normas

con 0 p 1 favorecen soluciones dispersas

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Normas
p

p p

= |x1 |p + + |xN |p 1

Las normas

con 0 p 1 favorecen soluciones dispersas


Soluci on no dispersa x + ker x + ker

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Minimizaci on
1

N 1

M N

K disperso

x K x = argminz RN z
1

tal que z = x

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Minimizaci on
1

x K x = argminz RN z
1

tal que z = x

Ejemplo

Ejemplo: recuperaci on se nal discreta dispersa


Minimizaci on
1

x K x = argminz RN z
1

tal que z = x

x =x

Medidas. Propiedad RIP

Un poco de Teor a

Sensing. Propiedad RIP


cs
x d x d

Aproximaci on
x + ker

cs

Medidas. Propiedad RIP

Sensing. Propiedad RIP


cs
x d x d

cs

Medidas. Propiedad RIP

Medidas. Propiedad RIP


x

1 2

M N

N 1

Objetivo Contruir matrices capaces de codicar la informaci on del mayor conjunto posible de se nales

Medidas. Propiedad RIP

Medidas. Propiedad RIP

N = {i }N i =1 base ortonormal de R

Para todo vector x RN se tiene


N

x=
i =1

i i ,

i = x , i

Medidas. Propiedad RIP

Medidas. Propiedad RIP

N = {i }N i =1 base ortonormal de R

no tiene necesariamente que ser una base ortonormal


Base, Frame

Para todo vector x RN se tiene


N

x=
i =1

i i ,

i = x , i

Medidas. Propiedad RIP

Medidas. Propiedad RIP

N = {i }N i =1 base ortonormal de R

no tiene necesariamente que ser una base ortonormal


Base, Frame

Para todo vector x RN se tiene


N

x=
i =1

i i ,

i = x , i

Medidas. Propiedad RIP

Medidas. Propiedad RIP

N = {i }N i =1 base ortonormal de R

Para todo vector x RN se tiene


N

x=
i =1

i i ,

i = x , i

Medidas. Propiedad RIP

Medidas. Propiedad RIP


N = {i }N i =1 base ortonormal de R

Para todo vector x RN se tiene


N

x=
i =1

i i ,

i = x , i

K () se nales K -dispersas respecto de Si x K (), 1 2 N 0 x1 i 1 x2 . . = . . . . iK xN 0

Medidas. Propiedad RIP

Medidas. Propiedad RIP


Supongamos que disponemos de M < N medidas del vector x RN i , x , i = 1, 2, . . . M . Matricialmente lo anterior se puede expresar como y = x matriz de medidas, base de dispersi on cs = matriz CS

Medidas. Propiedad RIP

Medidas. Propiedad RIP


Supongamos que disponemos de M < N medidas del vector x RN i , x , i = 1, 2, . . . M . Matricialmente lo anterior se puede expresar como y = x matriz de medidas, base de dispersi on cs = matriz CS
M
y
1 2

M N

N 1

Medidas. Propiedad RIP

Medidas. Propiedad RIP


Supongamos que disponemos de M < N medidas del vector x RN i , x , i = 1, 2, . . . M . Matricialmente lo anterior se puede expresar como y = x = = cs matriz de medidas, base de dispersi on cs = matriz CS
M
y
1 2

M N

N 1

Medidas. Propiedad RIP

Propiedad RIP. Isometr as restingidas


Sea cs CM N . (Matriz CS, M N)

s Para T {1, 2, . . . , N } con |T | = S c on de cs formada T es la secci por las columnas T . Si T = {i1 , i2 , . . . , iS }


N

i1 i2

cs

iS

Para cada entero 1 S M sea S el n umero m as peque no que verica s c Tz 2 (1 S ) (1 + S ), z RS z 2 para cada subconjunto T {1, 2, . . . , N } de cardinalidad S . Si 0 < S < 1 cs es una isometr a restringida de orden S .

Medidas. Propiedad RIP

Propiedad RIP. Isometr as restingidas

Sea cs CM N . (Matriz CS, M

N)

s Para T {1, 2, . . . , N } con |T | = S c on de cs formada T es la secci por las columnas T .

Para cada entero 1 S M sea S el n umero m as peque no que verica s c Tz 2 (1 + S ), z RS (1 S ) z 2 para cada subconjunto T {1, 2, . . . , N } de cardinalidad S . Si 0 < S < 1 cs es una isometr a restringida de orden S .

Medidas. Propiedad RIP

Propiedad RIP. Isometr as restingidas

Sea cs CM N . (Matriz CS, M

N)

s Para T {1, 2, . . . , N } con |T | = S c on de cs formada T es la secci por las columnas T .

Para cada entero 1 S M sea S el n umero m as peque no que verica s c Tz 2 (1 + S ), z RS (1 S ) z 2 para cada subconjunto T {1, 2, . . . , N } de cardinalidad S . Si 0 < S < 1 cs es una isometr a restringida de orden S .

Medidas. Propiedad RIP

Propiedad RIP
Geometr a de la propiedad RIP

Cuanto menor sea S m as cerca c s estar an las secciones T de ser isometr as

z 2
s c T

z 2

RS

RM

Medidas. Propiedad RIP

Propiedad RIP
Geometr a de la propiedad RIP

Cuanto menor sea S m as cerca s de ser estar an las secciones c T isometr as S mide la ortonormalidad de las columnas de las secciones s c T con |T | = S
Si S = 0 todos los conjuntos de columnas de S elementos son ortonormales. Si S = 1 existe una submatriz s tal que rank c T < S.
RS

z 2
s c T

z 2

RM

Medidas. Propiedad RIP

Propiedad RIP
Geometr a de la propiedad RIP

Cuanto menor sea S m as cerca s de ser estar an las secciones c T isometr as S mide la ortonormalidad de las columnas de las secciones s c T con |T | = S
Si S = 0 todos los conjuntos de columnas de S elementos son ortonormales. Si S = 1 existe una submatriz s tal que rank c T < S.
RS

z 2
s c T

z 2

RM

Medidas. Propiedad RIP

Propiedad RIP
Geometr a de la propiedad RIP

Cuanto menor sea S m as cerca c s estar an las secciones T de ser isometr as S mide la ortonormalidad de las columnas de las secciones s c T con |T | = S Una isometr a restringida puede permitir una reconstrucci on robusta
x d x

cs

cs

Medidas. Propiedad RIP

CS y matrices RIP

cs RM N isometr a restringida de orden S Objetivos

Medidas. Propiedad RIP

CS y matrices RIP
cs RM N isometr a restringida de orden S Objetivos

S K

+ Se nales codicadas

Medidas. Propiedad RIP

Propiedad RIP
C alculo de S

T {1, 2, . . . , N } con |T | = S .
s cs 2 2 ((c T ) T ) [(1 S ) , (1 + S ) ]

Medidas. Propiedad RIP

Propiedad RIP
C alculo de S

T {1, 2, . . . , N } con |T | = S .
s cs 2 2 ((c T ) T ) [(1 S ) , (1 + S ) ]

s Para calcular S : SVD de todas las submatrices c T con |T | = S .

Medidas. Propiedad RIP

Propiedad RIP
C alculo de S

T {1, 2, . . . , N } con |T | = S .
s cs 2 2 ((c T ) T ) [(1 S ) , (1 + S ) ]

s Para calcular S : SVD de todas las submatrices c T con |T | = S .

Hay

N S

N! S !(N S )!

s matrices c T con |T | = S

Medidas. Propiedad RIP

Propiedad RIP
C alculo de S

No hay forma efectiva de comprobar si una matriz cs verica RIP

Medidas. Propiedad RIP

Propiedad RIP
C alculo de S

No hay forma efectiva de comprobar si una matriz cs verica RIP No hay algoritmos deterministas que construyan matrices RIP con S grande (de Vore 07)

Medidas. Propiedad RIP

Propiedad RIP
C alculo de S

No hay forma efectiva de comprobar si una matriz cs verica RIP No hay algoritmos deterministas que construyan matrices RIP con S grande (de Vore 07) Soluci on: hacer intervenir al azar

Medidas. Propiedad RIP

Matrices RIP
Matrices gaussianas y de Rademacher

Si RM N , Matriz gaussiana ij = Xij i.i.d. N (0, 1/M ) Matriz de Rademacher 1 ij = Xij N Xij i.i.d. P (Xij = 1) = 1 2

Medidas. Propiedad RIP

Matrices RIP
Matrices gaussianas y de Rademacher

Si RM N , Matriz gaussiana ij = Xij i.i.d. N (0, 1/M ) Matriz de Rademacher 1 ij = Xij N Xij i.i.d. P (Xij = 1) = 1 2

Medidas. Propiedad RIP

Matrices RIP
Matrices gaussianas y de Rademacher

Si RM N , Matriz gaussiana ij = Xij i.i.d. N (0, 1/M ) Matriz de Rademacher 1 ij = Xij N Xij i.i.d. P (Xij = 1) = 1 2 < 1 c1 ( ), c2 ( ) > 0

log(N /S )S c1 M S () <
con probabilidad 1 2e c2 M

Medidas. Propiedad RIP

Matrices RIP
Proyecciones aleatorias

= {i }N i =1 base ortonormal {i1 , i2 , . . . , iM } {1, 2, . . . , N } elegido al azar con probabilidad uniforme en los subconjuntos de M elementos de {1, 2, . . . , N } i1 i 2 = . . . iM

1 .2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . N

Medidas. Propiedad RIP

Matrices RIP
Proyecciones aleatorias

= {i }N i =1 base ortonormal {i1 , i2 , . . . , iM } {1, 2, . . . , N } elegido al azar con probabilidad uniforme en los subconjuntos de M elementos de {1, 2, . . . , N } i1 i 2 = . . . iM

1 2 . . . i1 . . . i2 . . . . . . . . . . . . . . . iM N

i1 i2 . . . . . . iM

Medidas. Propiedad RIP

Matrices RIP
Proyecciones aleatorias

= {i }N i =1 base ortonormal {i1 , i2 , . . . , iM } {1, 2, . . . , N } elegido al azar con probabilidad uniforme en los subconjuntos de M elementos de {1, 2, . . . , N } i1 i 2 = . . . iM < 1 ( ) > 0

M N ( )2 (log(N ))5 S () <

con probabilidad 1 N c

Medidas. Propiedad RIP

Matrices RIP
Proyecciones aleatorias

< 1 ( ) > 0 = {i }N i =1 base ortonormal {i1 , i2 , . . . , iM } {1, 2, . . . , N } elegido al azar con probabilidad uniforme en los subconjuntos de M elementos de {1, 2, . . . , N } i1 i 2 = . . . iM

M N ( )2 (log(N ))5 S () <

con probabilidad 1 N c ( ) = m ax | k , j |
1k ,j N

1 ( ) , 1 N

Medidas. Propiedad RIP

Matrices RIP
Proyecciones aleatorias

Ejemplo F base de Fourier = IdN 1 (F ) = N proyecci on aleatoria obtenida de F escogiendo al azar M las.

< 1 ( ) > 0

M (log(N ))5 S () <

con probabilidad 1 N c

Medidas. Propiedad RIP

Matrices RIP
Proyecciones aleatorias

x R256
6 4 2

50 2 4 6

100

150

200

250

DFT(x)
20

15

10

50

100

150

200

250

x R256 suma de 7 sinusoides

Medidas. Propiedad RIP

Matrices RIP
Proyecciones aleatorias

x R256
6 4 2

y R80
50 100 150 200 250

4
4

2
6

DFT(x)
20

50 2

100

150

200

250

15

10

50

100

150

200

250

y R80 (80 muestras aleatorias de x )

Medidas. Propiedad RIP

Matrices RIP
Proyecciones aleatorias

x R256
6 4 2

y R80
4 2

50 2

100

150

200

250

50 2

100

150

200

250

4
6

DFT(x)
20

Reconstrucci on
6 4 2

15

10
2

50

100

150

200

250

5
4 6

50

100

150

200

250

= argmin z

x[ij] = z[ij], = x

Aproximaci on

Aproximaci on

x + ker

Aproximaci on

Aproximaci on por K t erminos


N x RN , = {i }N i =1 base ortonormal de R N

x=
i =1

x [i ]i

1 2 3

|x |

Aproximaci on

Aproximaci on por K t erminos


N x RN , = {i }N i =1 base ortonormal de R N

x=
i =1

x [i ]i

1 2 3

N 1 2 3

|x |

o| |x

Aproximaci on

Aproximaci on por K t erminos


N x RN , = {i }N i =1 base ortonormal de R N

x=
i =1

x [i ]i

xK

1 2 3

N 1 2 K

|x |

o| |x

xK =
k =1

o x [k ]ik

Aproximaci on

Aproximaci on por K t erminos


N x RN , = {i }N i =1 base ortonormal de R N

x=
i =1

x [i ]i

xK

1 2 3

N 1 2 K

|x |

o| |x

x xK

k >K

o |x [k ]|2

Aproximaci on

Aproximaci on
Teorema Fundamental

Y = x + W Teorema Sea cs = . Supongamos que K es tal que 3K (cs ) < 1/3. Sea X = donde = argminz RN z
1

vericando cs z Y

Existe una constante C ( ) tal que x X


2

C K

o |x [k ]| + C W k >K

o [k ] son los coecientes ordenados de x respecto de . donde x

Aproximaci on

Aproximaci on
Comentarios al teorema

Y = x + W Reconstrucci on exacta W = 0, x K () 3K (cs ) < 1/3 Reconstrucci on perfecta de x x X


2

Aproximaci on sin ruido W =0 3K (cs ) < 1/3 C K


o |x [k ]| k >K

Aproximaci on

Raz on M /K para reconstrucci on exacta

Resumen teorema Una se nal K dispersa puede ser rescontruida de forma exacta si 3K (cs ) < 1/3 K = M /(log N /M )

Aproximaci on

Raz on M /K para reconstrucci on exacta

Resumen teorema Una se nal K dispersa puede ser rescontruida de forma exacta si 3K (cs ) < 1/3 K = M /(log N /M ) Estimaciones de suelen ser pesimistas

Aproximaci on

Raz on M /K para reconstrucci on exacta

Resumen teorema Una se nal K dispersa puede ser rescontruida de forma exacta si 3K (cs ) < 1/3 K = M /(log N /M ) Estimaciones de suelen ser pesimistas

Utilizando t ecnicas estad sticas M = 100, gaussiana N 512 1024 2048 4096 M/K 6,2 7,7 11 16

Aproximaci on

M as informaci on: http://dsp.rice.edu/cs

Aproximaci on

Preguntas?

You might also like