Professional Documents
Culture Documents
192
bO
i:i
...,;:l
"Z
...,
-lC
'ijJ
........
'a
;:l
N
>::
\.)
Cill
..::I
rJ:J
::l
bO
:ol
>::
~I
..d
-+->
.....
11
:
ol
N
;:l
0'
Cl)
<l::
b.O
-lC
<
bO
>::
ol
bO
~
~
~I
c.,
cn
C'l
>::
V
cn
.... ....
::E
::E
I~'"
11
~
11
;rl
';:i
l-<
a;
bO ::;1
.~
;rl
+
::E
'"
~I
00
>::
cn
::E
...
~I
ol
~
0
..>::
Cl)
~
....
...,
Cl)
..>::
....
Cl)
0..
'ijJ
.D
S
S
.S
...,
ol
~
....
....
Cl)
Cl)
bO
>::
:ol
.....:1
I
E--l
"0
....
Cl)
~ ~....
.
..., l?
zu den Simulationen
~
bO
'"
0
0
...,
0..
0
----.
......
Die hier aufgefhrten Aufgaben l und die Simulationen sollen zur Veranschauli
chung und weiteren Vertiefung der Theorie beitragen.
00.
.i.i
::E
Hf
-lC
"'0
::l
I
00.
I-.::l
~
......
VI
Cl)
I-.::l
I ....,
00
..::I
~
0"'"
;31
11
00.
0"'"
;31
::E
'"'"0....
bO
....
iE
......
VI
..0:::
'-'
(/)
g;
lj'"
I
......
11
11
00
....:I
::l..
..>::
I-.::l
bO
HI
-lC
::l
::l..
..c
>::
bO
00
::E
"i
..::I
:::l
>::
..>::
Cl)
>
..., ~'"
.~
.~
ol
<:
'" ...,0
bO
;:l
>::
::1j",
"0
;E
bO
e"
'"~
'"....
....
re,
11
"i
;:l
10
'"
"'~
11
-lC
Cl)
"iii
......
~
~
Cl
...,;:l
'ijJ
'"
~"
-lC
b.O
rJ:J
l-<
>::
Cl)
..0:::
;Ei
I....,
bO
....'-'
"0
Cl)
;:l
~
.
...,
'"
'"
S
0
Cl)
l?
~-<
Die Aufgaben beziehen sich auf die in Kapitel 2 behandelten Grundlagen adap
tiver Filter: Unitre hnlichkeitstransformation, Eigenschaften der Eigenwerte
und -vektoren der Autokorrelationsmatrix R, Wiener-Filter-Theorie, Orthogona
littsprinzip. Ferner wird eine Anwendung adaptiver Filter, die Strgeruschun
terdrckung (u.a. durch einen einfachen adaptiven Beamformer) behandelt.
11
~
bO
:::
Die Simulationen ermglichen es, die Eigenschaften des LMS-, RLS- und FLMS
, Algorithmus experimentell zu untersuchen und die Aussagen zum Konvergenz
verhalten aus den vorhergehenden Kapiteln zu berprfen. Parameter, wie die
Schrittweite {.L, die Anzahl adaptiver Gewichte N u.a., knnen mittels einer Ein
gabemaske variiert und die Auswirkungen auf die Lernkurve, den MSE, die Fehl
einstellung M, die Konvergenzzeit etc. beobachtet werden (siehe Figuren A.3
Cl)
00
00
0..
0
')
bO
')
..0
"'0
-+->
..
Cl)
rJ:J
....
....
0
Cl)
..:
ol
~
..>::
Cl)
...,
.~
...,
..., Ci::
~~
>::
.S
...,
Ei
::l..
V
::l..
...,
...,
...,
Cl)
.~
'':
..0:::
'-'
(/)
11
00
::E
~
bO
>::
;:l
..., ~J
'">:: I1
'(ij
::a ~
~
>::
;:l
....
Cl)
~ "~
'a
-<-<
.S
...,
1I
~
>::
@'
....
Cl)
"0
>::
0
>
><
>::
0
>
..ci
-ci
"~
~
0
00
,.';,
>::
bO
....
.a:;
gj
~
>::
~0 ]
'-'
~
'"~
:::..c:
Q)
bO
Aufgaben
1. Unitre hnlichkeitstransformation
"Cl
>
...,
]
A.l
;;E
Q)
pf
"b.o
: 0>::
Cl)
~
Cf)
.....:l
bO
..0:::
.D
ol
A.~).
..c:
...,
...,
bO .
.... t;
"0
>::
ol
Q)
bO
~o<t:
~
~
~ch
>::
Cl)
eil ....
..0:::
'.,3 ~
0. .....
'-'
Cl)
r:r;
.. ~
S~
a) Lineare Abbildungen
Lineare Abbildungen knnen in Matrixschreibweise ausgedrckt werden:
Der reelle Vektor ;[. soll in ein neues Koordinatensystem transformiert wer
den. Der neue Vektor ;[.' resultiert aus einer Multiplikation mit einer Matrix
Q-l: ;[.' = Q-l;[.. Die Basisvektoren des neuen Koordinatensystems, jeweils
in alten Koordinaten angegeben, bilden die Spalten der Transformations
matrix Q
* ..
1 Lsungen
unter A.2.
194
c) Quadratische Form
Nun folgt eine Anwendung der Teilaufgaben a) und b):
Betrachten Sie die Gleichung
X~
~
X2
"
\
195
A.I AUFGABEN
x~
/7
/\/ a
5xi -
.; I,
6X1X2
+ 5x~ =
Xl
die als quadratische Form (C.14) bezeichnet wird und eine Ellipse be
schreibt. Diese Gleichung soll nun in den Hauptachsenkoordinaten ange
geben werden.
\
\
\
\
\
[Xl
Qt.
R=
[ 5 -3]
-3
X2]
R [
~~ ]
= 8
[X~ X~]'A'[~~]=C
c4) Sie haben die quadratische Form in ihr Hauptachsensystem transfor
miert. Multiplizieren Sie nun die Vektor-Matrixgleichung wieder aus.
Der Term X1X2 muss dabei wegfallen:
a . X~2
+ b . X~2 =
196
197
A.l AUFGABEN
Diese Aufgabe bezieht sich auf das Beispiel aus Abschnitt 1.3.2, in dem die Un
terdrckung eines 50 Hz Netzbrumms n[k], der einem Sensorsignal s[k] berlagert
ist, beschrieben wird. Zur Unterdrckung der Strung wird wieder das Filter aus
Figur A.1 verwendet, jedoch mit folgender Zuordnung:
x[k]
x[k -1]
Wl\
W2l
+ n[k].
e[k]
Abtastfrequenz:
d[k]
Referenzsignal: x[k]
n[k]
+ v[k] ,
~<5[i] + <5[i -
0: <5[0]
cos(27rlnk + i
+ <1.
a) Whlen Sie die normierte Frequenz In so, dass x[k] und n[k] einer 50 Hz
Netzschwingung entsprechen (bei I. = 500 Hz).
1.)
b) Geben Sie den Fehler e[k] in Funktion von Wi, x[k], x[k-1] und d[k] an. Stel
len Sie nun die beiden Orthogonalittsgleichungen (Orthogonalittsprinzip,
(2.61)) E{x[k] e[k]) = 0 und E{x[k - 1] e[k]} = 0 auf und bringen Sie die
Gleichungen auf folgende Matrixform (Wiener-Hopf-Gleichung): R1Qo = E:
Wie lautet der optimale Koeffizientenvektor 1QO?
c) Wie gut ist die Schtzung, d.h. wie gross ist Jmin ?
~'
1] + <5[i + 1]
= cos(27rlnk + <1.
wobei d[k] und v[k] zwei unabhngige Prozesse sind. v[k] sei weisses (mittel
wertfreies) Rauschen mit rv[k] = ~<5[k] und d[k] sei schwach stationr mit der
Autokorrelationsfunktion:
=
a;
Die Beobachtung, die an den Filtereingang x[k] gelegt wird, besteht aus dem
durch v[k] verrauschten Nutzsignal:
rd[i]
mit T
x[k] = d[k]
I. = 500 Hz,
~:
b) Berechnen Sie die Autokorrelationsfunktion von x[k] und daraus die Auto
korrelationsmatrix R. Wie gross ist die Leistung von x[k]?
c) Berechnen Sie die Kreuzkorrelationsfunktion rdx[i] von d[k] und x[k] und
daraus den Vektor E:
d) Berechnen Sie die Wiener-Lsung
1Qo.
e) Berechnen Sie Jmin = E{ 2 [k]} und vergleichen Sie mit der Leistung
Sensorsignals. War der Ansatz erfolgreich?
a; des
198
d[k]
0.5
0)
s[k]
0.5
x[k]
M2
AF
I d[k]
Ausgang
~~
. e[k] :
199
A.l AUFGABEN
b) Berechnen Sie e[k] und J('Jll.) = E{e 2[k]} ausgedrckt durch:!Q = [Wl,W2]t,
d[k] und ~[k] = [x[k], x[k - 1]JI.
c) Substituieren Sie R = Ebjk]~t[k]}, pt = E{d[k]~t[k]} und O'~ = E{d 2[k]} in
b). Sie sollten nun den Ausdruck (2.18) fr J(:!Q) erhalten haben. Berechnen
Sie anschliessend den Gradienten \7 :!!!.{J(:!Q)} und setzen Sie ihn gleich Q.
Auf diese Weise haben Sie die Wiener-Hopf-Gleichung (2.51) hergeleitet.
Berechnen Sie O'~ = E{d 2 [k]} ausgedrckt durch die Leistung des Str- und
Nutzsignals.
0';
0';'
und
Dabei gilt : r[i] =
d) Berechnen Sie Rund p. ausgedrckt durch
E{x[k]x[k - i]} und rdx[i] = E{d[k]x[k - i]}. Verwenden Sie dazu die Re
sultate aus a).
e) Berechnen Sie den optimalen Filterkoeffizientenvektor :!Q0, der J(:!Q) mini
miert.
f) Berechnen Sie J min = J(:!Q0). Das Fehlersignal ist der Systemausgang. Um
welchen Faktor (in dB) verbessert sich das SNR ('signal-to-noise ratio') im
Fehlersignal verglichen mit dem Systemeingang (z.B. das SNR im Mikro
phon MI)?
g) Das Strsignal wurde nur teilweise unterdrckt, weil die Filterlnge N zu
klein ist. Bestimmen Sie mit Hilfe der z-Transformation das Filter H(z) =
~gl, welches durch Filterung von x[k] eine perfekte Schtzung des Strsi
gnalanteils d'[k] in d[k] liefert und somit j[k] im Fehlersignal e[k] vollstndig
unterdrckt. Um was fr einen Filtertyp handelt es sich? Worin liegt das
Problem dieses Filters?
h) Wir begngen uns mit der fr N = 2 erreichbaren Strgeruschunter
drckung. Die in e) analytisch berechnete Wiener-Lsung soll nun durch
ein adaptives Filter, das durch den iterativen LMS-Algorithmus adaptiert
wird, gefunden werden. Geben Sie die LMS-Gleichungen in Funktion der
Mikrophonsignale MIlk] und M 2 [k] an. Whlen Sie mit Hilfe von (3.81)
einen Wert fr die Schrittweite J..l. Es gelte hierbei:
= 1.
0';
200
A.2
201
1. Unitre hnlichkeitstransformation
a1) Aus der Zeichnung sehen wir sofort:
A2 = 8
Al = 2,
=}
lOA + 16 = 0
~l = Al9. l
~2 = A29.2
cosa
r-
a
I
-sma
9.l=V;[~]
sin a
cosa
9.1
= ( cos a ) und
= ( - sin a )
9.2
.
sin a
cos a
Xl
-2
= J2
2
[1 -1]
J2[ 1 1]
J2
C?S a
sma
Q=""2
- sin a ]
cosa
=}
Q-lU
-1 1
Q-lRQ =
[~ ~]
=}
cl)
R= [5 -3]
-3
Beweis:
Xl
Damit gilt:
co~ a
Q-l =""2
u= 14:
Die linke Seite in den neuen Koordinaten:
u' =
Q (a) = [
[ ~1
X2
] [ 5 -3]
.
-3
. [Xl]
X2
= 5x 2l -
6XlX2
+ 5X22
sin a ]
-sma cosa
202
2x l
x? + X 2t2 =
+ 8X2 t2 = 8 ---+ 4
d[k] - d[k]
d[k] - (wlx[k] - w2x[k 1])
e[k]
1
/
X2
x~
E{x[k]e[kn
Xl
,.-f
x~
203
) .. X~
;1(
I;'
.. Xl
E{x[k l]e[kn
c4)
1- Wl
10
3
-W2
(I)
[1 4](:~)
p.
R1Q
Wiener-Lsung:
in
+ v[k - i])}
in + E{d[k] v[k - in
in + E{d[kn . E{v[k - in
in
rdx[i]
.!:-
rx[i]
I .
! /;
rd[i] =
~c5[k] + c5[k -
in
in
10
3c5[k]
+ c5[k -
1]
in
+ c5[k + 1]
91
66
WO
P= ( )
-
) =
2
..!..
182
c)
J min
(52 _
ptwo
_
1] + c5[k + 1]
("
R-
,>
.::~
"
5
2
66
91
5
2
15
182
55
91
------1=
J min ist nicht null, d.h. die Schtzung ist nicht perfekt. Wenn das Nutzsi
gnal d[k] und die Strung v[k] den gleichen Frequenzbereich belegen, kann
nicht durch Filterung des Summensignals x[k] der Anteil v[k] unterdrckt
werden, ohne dabei d[k] anzutasten. Das Wiener-Filter findet einen Kom
promiss im MSE-Sinn. Die Zuordnung (gestrtes Nutzsignal als Eingangssi
gnal x[k] und Nutzsignal als erwnschtes Signal d[k]) ist deshalb ungeeignet
zur Unterdrckung einer additiven Strung. Der Ansatz der Aufgabe 3 mit
der Zuordnung (gestrtes Nutzsignal als erwnschtes Signal d[k] und einem
Referenzstrsignal als Filtereingang x[k]) ist erfolgreicher.
204
Der Erwartungswert E{s[k] x[k - i]} ist null, da s[k] und x[k] unkorreliert
und jeweils mittelwertfrei sind.
fn:
fn
x[k]
n[k]
foT =
1
21ri 1r
Td [i] = -cos(- +-)
j: = 110
21rk
cos ( 10 + <I>
21rk
1r
cos ( 10 +"3
_ (
,.'
+ <I> )}
Mit dem Additionstheorem cos Cl! cos = ~ (cos( Cl! - ) + cos( Cl! + )) ergibt
sich fr Tx[i]:
{I
(A.1)
(A.2)
gung erhalten werden: Zum einen muss Tx[i] die gleiche Frequenz besitzen
wie x[k], zum anderen betrgt die Leistung der Sinusfunktion (Tx[O] = 0.5).
Ferner ist die Phase von Tx[i] null, da eine AKF symmetrisch ist.
R = ~
2
[COSO
cos i
10
~ cos ~
~ cos(i + ~)
) _ (
0.25
)
-0.05226
d) Wiener-Lsung:
l!. -
I'
b)
{I
+ <I>
205
cos i ] = [ 0.5
0.4045 ]
cos 0
0.4045
0.5
WO
-
= (
Wl )
W2
= R-1 = ( 1.69198 )
l!.
-1.47337
e) MMSE:
Jmin = E{d 2 [k]} -l!.t'1Q0
E{d2[k]} = E{S2[k]}
(A.3)
E{d 2 [k]}:
Der Term E{s[k]n[k]} wird null (Begrndung wie in Teilaufgabe c)), somit
erhalten wir:
.
1
E{ d2[~]} = Ts[O] + Tn[O] = 1 + "2 = 1.5
Dazu folgende Erklrung:
Tn[O] = ~, weil n[kj und x[k] bis auf eine Verschiebung gleich sind und
J min
= E{ e2 [kJ} = 1
(A.4)
J min , die Leistung des Fehlersignals, entspricht also der Leistung des Sen
sorsignals Ts[O] = 1. Die Netzstrung wurde erfolgreich entfernt und das
entstrte Sensorsignal steht als Fehlersignal zur weiteren Verwendung zur
Verfgung.
c)
Tdx[i]
d[k] = 0.5(s[kj
1]) = s[k]
x[k] = 0.5(s[kj
+ "2(j[kj + j[k -
1])
206
rdx[l]
~(E{l[k]} -
E{d[k]x[k - I]}
Fehlerfunktion:
4E{j[k - l]j[k]
\7!!L{J(1Q)} = Q = 2R1Qo - 2E
=>
I-R-1Q---:Co-=-E-1
d) Autokorrelationsmatrix:
-I 0
"
= (J~ -
.~ {
".
IR=~[_~
ti
:t".
-;]1
1Q
(J}
4
= 1Qo
= (J~ - EtR-1E
,'"
l.
~ [~
-1
J mln. = J(WO)
= (J2d - 2p_tw
_
_o + wotRwo
_
_
t
= (J~ - E 1Qo
! .)
~(J;
2-1]. (0)
~ ].G) (1)
4
f) MMSE:
j[k - I]?} =
(J} [
=>
=>1Qo=R- 1E=
2
t
{[ x [k]
x[k]x[k - 1] ]} _ [ r[O]
r[I]]
R = E{~[k]~ [k]} = E
x[k _ l]x[k] x2[k _ 1]
r[-I] r[O]
e) Wiener-Hopf-Gleichung:
R1Qo =E
r[l]
(J2 (0)
E=
\7 !!L {J (1Q)}
E{~(j[k] -
1] - j[k - 2])}
1]))~(j[k -
(J;) = 0
Daraus folgt:
I])}
(2.11)
Vi
~((J; -
E{l[k - I]}) =
E{j[k]j[k - i]} = 0
1 2
2
1 2
(Jd2 = E{d 2[ k]} = (J.2 + 4((Jj
+ (Jj)
= (J.2 + 2(Jj
IJ (1Q) = (J~ -
207
Eingang:
Ausgang:
( ~)
(~
(Jd -
~(J; (0
1
(t j2 =
1)
2
(J.
10 lOglO
em
) aus
= 10 lOglO
4.77 dB
(1)
((J~)
(JJ
(~)
.
em
208
a;,
X(z)
2J (z)(I- Z-l)
WO
+ j[k -
1])
D'(z) =
= H(z)X(z)):
(i=O)
h[i]
(i ~ 1)
= {2
(A.5)
Iterationsvorschrift LMS-Algorithmus:
Das Nutzsignal s[kJ wird vom Filter unbeeinflusst im Ausgang e[k] erschei
nen. H(z) ist ein UR-Filter. Das Filter ist nicht BIEO-stabil ('bounded
input bounded-output' [16]), weil der Pol von H(z) bei zp = 1 liegt und die
ROC ('region of convergence') den Einheitskreis Izl = 1 nicht enthlt.
a2
R=---.2..
4
-1
2
-1
-1
-1
-1
P=
-1
-1
Mit N = 2 und
1 0
...
J.Lmax2
l .(0
= -a
~;
und
(i = 1)
(i
~ 2)
2
w k entspricht nun gerade der Impulsantwort 2 h[iJ (A.5) des Filters H(z),
das eine vollstndige Unterdrckung der Strung bewirkt. Fr N ----> 00 ist
w k natrlich nicht mehr ein FIR-, sondern ein UR-Filter, das wie H(z) nicht
BIBO-stabil ist.
(A.6)
-1
{I
Jmin = a s2
2J (z)(1 + Z-l)
Das Filter zur perfekten Schtzung von d'[k] aus x[k] (D'(z)
209
0)
----=-:-----:--;--:-, =
= N. (mittlere Eingangsleistung)
wf=
Jmin(N)
1- N+l
2. (1- N~l)
2
= as
(i = 1)
(2 ::; i ::; N)
a J2
+ N +1
Wi
210
211
.-----11
SI : Darstellung der Fehlerflche im 1Q-, Q- und Q'-Koordinatensystem, Rolle der
Eigenwerte von R, Konditionierung X(R).
unbekanntes
System h
x[k]
matrix R.
.~I~J. __
adaptives ~
FIR-Filter W
S3 : LMS-Algorithmus.
\
S4 : RLS-Algorithmus.
Figur A.2: Identifikation eines unbekannten Systems mit einer (kausalen) FIR- oder !IR
a;
v'
Das unbekannte System (Figur A.2) sei durch eine (kausale) FIR- oder UR
Impulsantwort h[.] charakterisiert. Analog zu (2.2) und (2.4) wird der Gewichts
vektor 11 der Lnge N h definiert (bei UR: N h --> 00), dessen i-tes Element hi
durch
hi = h[i - 1]
i = 1, ... , N h
(A.7)
gegeben ist. Um die Wiener-Lsung und den MSE zu ermitteln, betrachten wir
zunchst eine FIR-Systemimpulsantwort (Nh endlich):
Fall N ?: N h :
t~::
Bitte beachten Sie neben den folgenden Anleitungen auch die zustzlichen HinweiWenn die Anzahl adaptiver Gewichte 1Q die Anzahl der Gewichte der FIR
se und Kommentare in den Textdateien im Verzeichnis der jeweiligen Simulation.
Systemimpulsantwort bersteigt, N ?: N h , gilt fr die Wiener-Lsung:
'.,
~':
1Qo = 11. Dann ist nmlich y[k] = d'[k], e[k] = n[k] und J min =
(das
Messrauschen n[k] ist unkorreliert zu x[k] und bleibt deshalb in e[k] erhal
A.3.1 Vorbereitende berlegungen und Definitionen:
ten.) Bei einer Abweichung 1Q = 1Q - 1Qo = 1Q - 11 von der Systemimpul
santwort
wchst der MSE gemss (2.85) an:
MSE, Jmilll wo, System-Fehler-Mass WdB
Die bentigten MATLAB Skript-Files befinden sich auf der beigelegten CD-ROM.
,~.
a;.
.'~
a~
+ 1Qt R1Q
(A.8)
a~ +
a; L
i=l
IWil 2
(A.9)
212
J = Jmin(N)
= a~ + L
.Ai!/::;'w:1
(A.1O)
i=1
wobei /::;.:!Q' der Abweichungsvektor in Hauptachsenkoordinaten ist: /::;.:!Q' =
QH /::;.:!Q. Zur anschaulichen Erklrung dieser Beziehung ersetzen wir die
unitre Modalmatrix Q durch die DFT-Matrix F H , die gemss den Aus
fhrungen von Abschnitt 5.1.4 ebenfalls eine unitre Matrix ist und die
Autokorrelationsmatrix (nherungsweise) diagonalisiert, und somit (A.8)
entkoppelt. (A.8) bzw. (A.lO) wird dann zu
i:
! .,'
'~'
,
~.
,I
ergibt sich bei einem weissen Eingangssignal fr den MSE mit (A.9):
Nh
= a~ + a; L
IWi - h i l
(A.13)
i=1
N
Nh
a~+a;Llwi-hiI2+a; L
IWi- hil 2
i=1
N
i=N+1
Nh
2
a~+a;Llwi-hiI2+a; L 10-hi 1
i=1
i=N+1
Nh
N
2
2
a~ + a;
Ihi l + a;
IWi hi l
i=N+1
i=1
(A.14)
(A.15)
= a~ + a;
Nh
Ih i l
(A.16)
i=N+1
Ist das Eingangssignal nicht weiss, wird Jmin durch die allgemein gltige
Beziehung (2.58)
J min = a~ - P.t:!Q0
(A.17)
Fall N< N h :
Wenn die Anzahl adaptiver Gewichte kleiner als die Anzahl der Gewichte
der FIR-Systemimpulsantwort ist (N < N h ), kann lJ. nicht direkt nachgebil
det werden. :!Q0 stellt dann die im MSE-Sinn optimale Approximation von
lJ. dar. Mit der Erweiterung des Gewichtsvektors :!Q um (Nh - N) Nullen auf
die Lnge N h
(A.12)
(A.ll)
Jmin(N)
..
wobei /::;. W die DFT von /::;.:!Q ist, (/::;'W = F/::;.:!Q) und der Eigenwert .Ai wegen
(5.44) durch die Leistung des Eingangs bei der i-ten Frequenz ersetzt wurde.
Aus (A.ll) ist ersichtlich, dass sich eine Abweichung /::;,Wi = Wi-Hi von der
Systembertragungsfunktion H bei der i-ten Frequenz jeweils entsprechend
der Gewichtung durch die Leistung PXi des Eingangs bei dieser Frequenz
auf den MSE auswirkt.
:!Q
/Wi - h i l
Der MSE wird minimal, wenn die N Gewichte Wi den ersten N Werten der
Systemimpulsantwort h entsprechen: w? = h i fr 1 ::; i ::; N. Die ersten
beiden Summanden in (A.14) sind durch :!Q nicht beeinflussbar und stellen
den minimalen MSE dar:
~,
Nh
J ~ a~ + LPxJ/::;.WiI2
i=1
+ a; L
i=1
Nh
213
und der MSE durch (2.85) bzw. (A.ll) berechnet. Die N Gewichte Wi sind
optimal (:!Q0 = R- 1p), wenn die Summe der quadrierten Abweichungen
von der Systemimpulsantwort im Frequenzbereich I/::;.Wi I 2 , jeweils gewich
tet mit der Leistung PXi , minimal wird. Wegen der Gewichtung mit PXi
bei der Optimierung kann :!Q0 im Zeitbereich von lJ. verschieden sein. Liegt
beispielsweise am Eingang eine Sinusschwingung an, wird das System nur
bei der Frequenz der Schwingung identifiziert. Betrag und Phase des Sy
stems sind bei dieser Frequenz durch zwei Filtergewichte exakt bestimmt,
so dass hier die untere Schranke
des MSE bereits fr N 2:: 2 erreicht wird:
Jmin(N 2:: 2) =
Ein kleiner MSE-Wert bedeutet also lediglich, dass das
System bei den dominierenden Frequenzen des Eingangssignals gut nach
gebildet wurde. Um eine Systemidentifikation mit gleicher Genauigkeit bei
allen Frequenzen zu erreichen, ist deshalb ein Eingangssignal mit mglichst
flachem Spektrum erforderlich.
a;.
l~
:\~r
a;
a;
214
Verlauf aufweisen, reicht es in der Praxis aus, nur einen endlichen Abschnitt zu
betrachten.
215
a~,
E{ d'2 [k]}
E{h/,'f[k],'ft[k]l!<}
Aus der Fehlersignalleistung und den daraus abgeleiteten Grssen, dem MSE,
dem berschussfehler Jex und der Fehleinstellung M kann nur bedingt (nmlich
nur bei einem weissen Eingangssignal durch (A.15)) auf die Qualitt der Syste
midentifikation geschlossen werden. Ein geeignetes Mass hierfr ist das System
Fehler-Mass.
System-Fehler-Mass:
WdB = 10 10glO
Iw' - hil2 )
L:;:;\ Ih l2
(A.18)
(A.22)
i=1
=
1.
J -
a~
+ lO~~gB
IWi - H;i2)
IHi l2
(A.23)
WdB(i) = 101og1o
(A.21)
Nh
l!<tRl!<
a; 2: Ih l
Das System-Fehler-Mass (eng!. system error norm) beschreibt - normiert auf die
Energie der Systemimpulsantwort - die Genauigkeit der Systemidentifikation:
""Nh
L...-,-1
WdB
;:::,j
10 log1o
;:::,j
(~ IWi - hil2)
(A.24)
(t
(A.25)
(A.19)
J min dB
;:::,j
WdBI!!!=!!!O
101og 1o
Ihil2)
i=N+1
E{d [k]})
= 1010glO
(a~)
J
(A.20)
wobei E{e [k]} = E{ (d[k] - d[k]?}. Ein Wert von ERLE = 30 dB bedeutet
beispielsweise, dass die Echoleistung durch den Einsatz des adaptiven Filters um
30 dB gesunken ist.
Zusammenhang MSE, WdB und ERLE fr weisse Eingangssignale
Bei einem weissen Eingangssignal kann ein einfacher Zusammenhang zwischen
dem MSE und W dB bzw. ERLE angegeben werden. Ohne Verlust der Allge
meinheit nehmen wir an, dass
= 1 und L:;:\ Ihi l2 = 1. Weil fr ein weisses
a;
(~IWi -
h il2 )
(A.26)
, Die erzielte Echounterdrckung hngt wie erwartet von der Genauigkeit der Iden
tifikation des Systems (hier der LRMI) ab.
A.3.2
Simulationsbeschreibung
Zur Simulation des unbekannten Systems h gemss Figur A.2 wird einerseits ein
UR-Filter erster Ordnung (in S3 und S4) und anderseits ein FIR-Filter mit 1500
Koeffizienten (in S5), das als LRMI in einem Seminarraum gemessen worden ist,
verwendet.
x[k] =
~[U[k] + ~cos(21l"fnk)]
1 + a~
(A.27)
216
ulk] ist ein weisses Rauschsignal. Durch Addition der Kosinusschwingung kann die
gangssignal verwendet, das ein sprachtypisches Spektrum aufweist, ein sog. auto
regressiver (AR) Prozess 16. Ordnung: x[k] entsteht durch Filterung eines weissen
Rauschsignals ulk] mit einem Allpol-Filter (16 Pole). Es handelt sich hierbei um
das Synthesefilter H(z) aus Figur 1.12, dessen Koeffizienten durch LPC-Analyse
eines Sprachausschnitts (Laut oe', Figur 1.11) ermittelt wurden. Es gilt wiederum
(J~ = 1.
~~.
1ft
l'
~
~;,i
.r;
..
~,}
l.i '
.~~
\.
~'.
,;-,I,
Der Systemausgang d'[k] entsteht durch Filterung von x[k] mit dem Systemfilter
h. Ohne Verlust der Allgemeinheit wird das Systemfilter derart skaliert, dass
(J~, = 1 gilt. Bei einem normierten weissen Eingangssignal bedeutet dies nach
(A.21): L:~l Ih;j2 = 1. In S4 c) wird das Systemfilter nach Filterung des ersten
Viertels von x[k] negiert (!J. ---+ -!J.), um das Nachfhrverhalten ('tracking') der
Algorithmen bei einer Systemnderung zu untersuchen.
Dem Systemausgang d'[k] wird anschliessend ein weisses Messrauschsignal mit
der Leistung (J~ berlagert um das erwnschte Signal d[k] zu erhalten:
d[k]
d'[k] + n[k]
(A.28)
Das System wird nun durch ein adaptives FIR-Filter mit N Gewichten identi
fiziert. Mittels einer Eingabemaske (Figur A.3) knnen wichtige Parameter wie
z.B. N, p" (J~, die Konditionierung des Eingangs u.a. variiert werden und deren
Einfluss auf den entsprechenden Adaptionsalgorithmus beobachtet werden.
In den Simulationen S3 a) und S4 a) wird der Rekursionverlauf verschiedener
Adaptionsalgorithmen auf der Fehlerflche dargestellt (Figur A.8).
Um Ensemblemittelwerte, wie die Lernkurve, den MSE nach Adaptionsende (ke )
J[keJ, den berschussfehler Jex , und die Fehleinstellung M abzuschtzen, werden
jeweils mehrere Realisationen der Adaption durchgefhrt und gemittelt. Weil
das Eingangssignal knstlich erzeugt wurde, ist die Statistik bekannt, so dass
auch die Wiener-Lsung und Jmin berechnet werden kann. J min wird als untere
Schranke der Lernkurve zusammen mit dem MSE nach Adaptionsende J[keJ, der
durch Mittelung der letzten Werte der Lernkurve ermittelt wird, eingezeichnet
(Figur A.4).
Die adaptiven Gewichte werden nach Adaptionsende ke mit der Systemimpulsant
wort und der Wiener-Lsung verglichen und das System-Fehler-Mass W dB nach
(A.18) angegeben (Figur A.5). Die Darstellung der Filter und des System-Fehler
Masses im Frequenzbereich WdB(i) (A.19) soll den Grund der Abhngigkeit des
LMS-Algorithmus von der Konditionierung verdeutlichen: ungleichmssige Kon
\.
'~r:
;;.'1':
'",\,
217
218
Figur A.4: Lernkurven, J[keJ, J min , M und ERLE beim LMS- und FLMS- Algorithmus (bei
219
t.WdB
220
LM5
1500
2000
2500
221
und WFLMS
3000
3500
4000
Hz
ehler-Mass Im Frequenzbereich
OWdB
CD
:2.
-100 I
500
1000
1500
2000
2500
3000
3500
4000
Hz
FigUf@No
ngureN,
., -
11
...,
LMS
E(LMS) (Ensemblem~teQ
Gradient
Newton
Newton-LMS
-RLS
W2
ce
O~
w,
Figur A.7: Zeitliche Entwicklung der deterministischen Autokorrelationsmatrix 'Rk
222
223
Kommentare zu SI
a,b) Die Eigenwerte sind proportional zur 2. Ableitung der Fehlerfunktion lngs
der Hauptachsen. Bei einer Konditionszahl von X(R) = ~:7: = 1 (bei
in = 0.25) ist die Fehlerflche rotationssymmetrisch. Die Flche nimmt
mit wachsender Konditionszahl die Form einer 'Rinne' an.
c) Zeigerdiagramm von n[k], x[k] und x[k - 1] fr in = ~/f/ l~O (die Zeiger
haben nichts mit den Eigenvektoren zu tun):
x[k - I]
= cos(. -
~)
= sin(.)
x[k - I] = cos(. -
x[k - I] = cos(. -
x[k]
MATLAB-File: siml.m.
( fn
n[k]
= cos(.)
und E. =
1 (
'2 .
cos(i)
)
cos (27rin + i)
(A.29)
Es soll nun die Fehlerflche im !!!.-, :!L- und 1!.'-Koordinatensystem dargestellt und
der Zusammenhang zu den Eigenwerten von R verdeutlicht werden.
Iss
c) Das Filter schtzt das Signal n[k] = cos (27rink + i) (siehe Aufgabe 3 und
Figur A.l) durch Linearkombination des Referenzsignals zur Zeit k, x[k] =
cos (27rink) und zur Zeit (k -1), x[k -1] = cos (27rin(k - 1)). Zeichnen Sie
n[k], x[k] und x[k - 1] fr unterschiedliche in in einem Zeigerdiagramm auf
und erklren Sie, warum die Konditionierung fr in = ~ am besten ist.
_ l~ x[k]
(fn- .0\
~)
= cos(. + ~)
x[k]
R = ~ . [
1
cos (27r in) ]
1
2
cos (27r in)
~)
n[k]
= cos(.)
l~ x[k]
= cos(.)
(rn - 100)
= cos(. + ~)
= cos(21rfnk)
fo)
n[k]
n[k]
= cos(. +~)
= cos(21rfnk + ~)
Der Vektor n[k] ist eine Linearkombination der Vektoren xJk] und x[k - 1]
Das Vektorpaar rechts bentigt dazu grssere Koeffizienten als jenes in der
Mitte. Ideal ist die Linearkombination eines Sinus und eines Kosinus.
wenn E{x[k]x[k - I]} = 0 ist. Ein Sinus ist orthogonal zu einem Kosi
Abtastrate erhht, steigt die Abhngigkeit von x[k] und x[k - 1], und die
Die Autokorrelationsmatrix R ist in der Regel positiv definit. In diesem Fall sind
alle Eigenwerte grsser als null, der Rang von Rist N und R somit invertierbar.
224
Kommentare zu 82
a) Entsprechend (A.30) ist R bei einer Frequenz ab N = 3 positiv semidefinit.
Nur zwei Eigenwerte sind von Null verschieden.
b) Mit jeder neu hinzukommenden Frequenz erhht sich die Anzahl der Ei
genwerte, die nicht null sind, um zwei (entsprechend auch der Rang von
R). R hat vollen Rang N, wenn 2K :2: N. Dann ist R positiv definit und
invertierbar, und es existiert eine eindeutige Wiener-Lsung 1Q.0 = R -Ip.
Da das Wiener-Filter im Frequenzbereich durch Amplitude und Phase bei
jeder Frequenz gegeben ist, sind pro Frequenz nur zwei Parameter festzule
gen. Werden mehr als zwei Parameter pro Frequenz zur Verfgung gestellt
(N > 2K), existieren Freiheitsgrade, was sich in einer singulren Autokor
relationsmatrix ausdrckt.
In der Praxis besteht ein Eingangsignal nicht aus einer endlichen Summe
von Sinusschwingungen (kein Linienspektrum), so dass i.Allg. 2K > N, R
positiv definit ist und alle Eigenwerte von Null verschieden sind. Jedoch
kann die Konditionierung ungnstig sein (grosser Wertebereich der Eigen
werte).
225
83: LM8-Algorithmus
r
.j'
.<
Thema:
S3 a) Verlauf der Rekursion des Newton-, Gradienten- Verfahrens und des LMB
Algorithmus auf der Fehlerflche, abhngig von der Konditionierung X(R).
S3 b) LMB-Algorithmus: Lernkurve, MBE, J min , Einfluss von p" N, X(R) und a~.
MATLAB-Files: sim3a.m, sim3b.m.
83 a)
Systemimpulsantwort: FIR, N h = 2.
83 b)
Algorithmen: LMS-Algorithmus.
1. Welchen Einfluss hat die Schrittweite p, auf Jmin und J[keJ (Eingabe: Liste
fr p" ein Wert fr N)? Wann wird der Algorithmus instabil? Vergleichen
Sie mit der oberen Grenze P,max2 nach (6.21) (hier:
= 1).
a;
2. Welchen Einfluss hat die Filterordnung (N -1) auf J min und J[keJ (Eingabe:
Liste fr N, ein Wert fr p,)? Vergleichen Sie mit (A.15) und (A.16). Was
ist also bei der Wahl von N zu bercksichtigen?
3. Vergleichen Sie fr einen weissen Eingang die Systemimpulsantwort mit den
Gewichten des adaptiven Filters fr variierende N. Wie entwickelt sich das
System-Fehler-Mass ~B (Vergleich mit (A.18))? Welchen Einfluss hat das
Messrauschen a~ auf den Wert des LMS System-Fehler-Masses?
226
4. Wie vergleichen sich die Filtergewichte und die Wiener-Lsung mit der Sy
stemimpulsantwort bei einem farbigen Eingangssignal? Wieso erreicht der
MSE trotz der Abweichung von der Systemimpulsantwort einen relativ klei
nen Wert?
..
t'
:\
227
.i{t
,-Aj~',
84 c)
Thema:
Beginn der Adaption und nach der Systemnderung bei k e /4. Vergleichen
ministische Autokorrelationsmatrix Rk.
fixem
System)? Vergleichen Sie mit (6.31).
Ergnzende Hinweise: README4.ps bzw. README4.pdf
84 a)
Systemimpulsantwort: FIR, N h = 2.
1. Betrachten Sie den Rekursionsverlauf auf der Fehlerflche und die Konver
genzzeiten der Algorithmen bei unterschiedlicher Konditionierung X(R).
Was bewirkt die Vormultiplikation mit der Inversen der Autokorrelations
matrix beim RLS- und Newton-LMS-Algorithmus in (4.55) und (3.188)?
84 b)
Systemimpulsantwort: UR erster Ordnung.
Thema:
Echokompensation durch den FLMS-Algorithmus. Unabhngigkeit von der Kon
ditionierung X(R). Vergleich mit LMS-Algorithmus, Rechenaufwand/-zeit, Lern
kurve, MSE, J min, Fehleinstellung M, Filter und System-Fehler- M ass im Zeit
und Frequenzbereich, Beschleunigung langsamer Modi durch die frequenzabhngi
ge Schrittweite beim FLMS-Algorithmus, erzielte Echounterdrckung ERLE.
MATLAB-File: sim5.m.
Sprache.
Diese Simulation bezieht sich auf die in Abschnitt 1.3.7 beschriebene und in
des akustischen Echos bei einer Freisprecheinrichtung. Die hier verwendete FIR
228
tf.';
t:
B Die lineare
und die zyklische Faltung
.L"'"!,.
'I';
~i
In den Figuren verwenden wir die folgenden Muster fr die verschiedenen Blcke:
4. Beachten Sie auch das Verhltnis des Rechenaufwandes der beiden Algo
rithmen.
I
I
I
'fi"I..
Co,,":i'jt~:~
-s:
~h'2
Nullen
Da t en
Die (diskrete) lineare Faltung der Sequenzen x[n] und w[n] ist wie folgt definiert:
00
~I
y[n]
2:
x[i] w[n - i]
(B.I)
i=-oo
(B.2)
verwendet. 2
Nun nehmen wir an, dass die Sequenzen x[n] und w[n] nur in einem Bereich der
Lnge C (C ist die DFT-Lnge) Werte aufweisen, die von Null verschieden sind,
3Der FLMS-Algorithmus besitzt N FLMS
=C
- L
+ 1 freie
Gewichte (5.36).
* w)[nJ.
'il
230
und wir die Faltung y[n] nur fr eine Verschiebung n im Bereich von 0 S; n S; C-1
berechnen wollen:
~r..
0-1
y[n] =
231
L xli] . w[n -
i]
0S;nS;C-1
(B.3)
.",:~"oI-'.
;=0
Y[n]
C-N+l
x[n]
w[n]
_
Es ist sofort ersichtlich, dass die lineare und die zyklische Faltung fr diejenigen
Werte von n identisch sind, fr welche w[n - i mod Cl bei der zyklischen Faltung
'ungeteilt' vorliegt, d.h. es gilt:
Ilu
__ u_
I
========~L:":::"":''~',L_---rrc
_ 1
o
y[n] = y[n]
u_ _ u_ _ _- I
<-. \
......}
.'t.
C-1
=========
xli]
w[n-i]
u u u -u tt
---------
q: =======
um n _:I
_ _ _ _ _ -Verschiebung
______
:~
I
,-:<~
".\';
y[n]
. I I: u-------u -
I
C-1
Y[n]
Cl
0S;nS;C-1
(BA)
;=0
Y[n]
x[n] w[n]
OS;nS;C-l
N - 1 S; n < C
(B.6)
Es stimmen also die letzten (C - N + 1) Werte der zyklischen Faltung Y[n] mit der
linearen Faltung y[n] berein. Diese Werte werden beim Overlap-Save-Verfahren
weiterverwendet, um blockweise eine lineare Faltung zusammenzusetzen.
fr
(B.5)
:'
,.
~.;
og og
\7Yl.
(C.I)
Er gibt die Ableitung einer skalaren Funktion nach einem Vektor an.
2. Das Skalarprodukt zweier Vektoren 1! und 11. (beide N xI) ist definiert 1
als:
N
(1!,y')
UiVi
(C.2)
i=l
Es gilt also:
(1!,y')
!.
,
\'
= 1!t Y. = Y.t1! =
(Y.,1!)
(C.3)
=9
Das Skalarprodukt ergibt eine skalare Grsse, also kann auch dessen Gra
dient berechnet werden.
3. Der Gradient eines Skalarproduktes zweier Vektoren 1! und 11. nach
einem der Vektoren ergibt den anderen Vektor, also:
\7y'g
1 Wir
r~~i"
J"
\7Y,{1! Y.}
= 1!;
\71!g
.~ ~
/..:Jll-.
-:. i
(.,{~
(Jz
.,
l./
= 1!.
(CA)
234
= \71L{1ft1L} = \71L{UlVl + u2 vd = [
~ ] = [ ~: ] = 1f
\71Y. {g}
4. Der Gradient eines Vektor-Matrix Produktes der Form 1Y.tR nach 1Y.
ergibt die Matrix R, wobei 1Y. von der Dimension N x 1 und R von der
Dimension N x N ist, also:
I\7", {",'R} ~ R I
Beispiel:
[~ ~]
(C.5)
= [aWl
\71Y. {1Y.tR }
8(bwl +dW2)]
8(a~CW2) 8(~'tldw2)
8W2
b]
d
[Wl' W2] :
t
\71Y. {1Y. } =
[ ~~] 8W l
8wl
8W2
8W2
[10]
0 1
(C.7)
erhalten wir:
[Xl,
X2,"" xn]t, Y
(C.12)
anl an 2 ... a nn
(C.13)
LLaijXiYj
i=l j=l
(C.8)
Q = L L aijXiXj
(C.15)
i=l j=l
Weil wir aber nur sinnvoll den Gradienten eines Vektors in seiner transpo
nierten Form berechnen knnen, mssen wir den zweiten Term in (C.8) um
formen. Weil dieser wiederum ein Skalarprodukt darstellt, gilt nach (C.3):
ll(uL)\71Y. {1L(1Y.)} = \71Y. {1Lt (1Y.)} 1f(1Y.)
+ ...
+ anlXnYl + an2XnY2 + ... + annxnYn
5. Gegeben sei das Skalarprodukt 9 zweier Vektoren 1f(1Y.) und 1L(1Y.) , die beide
von einem dritten Vektor 1Y. abhngen. Um den Gradienten von 9 bezglich
1Y. zu berechnen, mssen wir die bekannte Produktregel anwenden. Mit
;f
0;
(C.11)
=R
8W2
Folglich ergibt der Gradient eines transponierten Vektors 1Y.t nach 1Y. die
Einheitsmatrix:
ow t
t
\71Y. {1Y. } =
= \71Y. {1Y.tI } = I
(C.6)
Beispiel: 1Y.t
AJ!.)
(C.lO)
[
8(awl + CW 2)
[~ ~]
235
(C.9)
Fr (i =1= j) haben alle Koeffizienten der Terme XiXj die Form (aij + aji). Wir
ndern den Wert von Q nicht, wenn wir fr (i =1= j) sowohl aij wie auch aji als
~(aij + aji) annehmen. So wird die Koeffizientenmatrix A symmetrisch. Ohne
Einschrnkung der Allgemeinheit kann man also die Matrix Asymmetrisch
236
annehmen. Ist brigens a:j = aji, dann ist die sogenannte Hermitesche Form
H gegeben als:
n
H = J2 AJ2 =
(C.16)
i=l j=l
,.
Literaturverzeichnis
Unter Ausntzung, dass die Koeffizienten der quadratischen Terme in der Dia
gonalen liegen und die brigen Koeffizienten via die Form ~(aij + aji) zu einer
symmetrischen A-Matrix zu ergnzen sind, knnen wir Q direkt in die Form
(C.14) bringen:
Q = [Xl,X2,X3]
[2] P. M. Clarkson. Optimal and Adaptive Signal Processing. CRC Press, 1993.
[113] [Xl]
1 1 2
3 2 1
X2
X3
Mit (2.47) kann der Gradient der quadratischen Form angegeben werden. Zusam
men mit (C.14) folgt:
(C.17)
'VJ2{Q} = 2AJ2
'VJ2{Q}
= [
m]
8X 3
[ 6Xl
+ 4X2 + 2X3
[11] S. Haykin, editor. Unsupervised Adaptive Filtering, Volume II, Blind Decon
volution. John Wiley & Sons, 2000.
238
LITERATURVERZEICHNIS
Index
",
0/
[24] B. Widrow andM. E. Hoff. Adaptive switching circuits. IRE Wescon Conv.
".'
-Ausgangswert, 136
Abtastinvervall, 4
Abtasttheorem, 4
Abtastung, 4
Abweichungsvektor, 56
AD-Wandlung, 5
Adaptionsalgorithmen
blinde -,2
Block-LMS, siehe Block-LMSAlgorithmus
'Fast'-LMS-Algorithmus, 166
'Fast'-RLS-Algorithmus, 154
Klassifikation, 189
Leistungskriterien, 5
Algorithmus
Newton-Verfahren, siehe NewtonVerfahren
189
Modulation' (ADPCM), 18
Filterstrukturen, 38
- im Frequenzbereich, siehe
Frequenzbereichsalgorithmen
Linearitt, 2
adaptive Strgeruschunterdrckung, 10
Analysefilter, 15
Anregungssignal, 16
Anwendungen
Beispiele, 10
Klassifizierung
Inverse ModelIierung, 9
Lineare Prdiktion, 9
Systemidentifikation, 8
Klassifizierung der -, 8
Rechenaufwand
Augendiagramm, 24
Ausgangssignal, 40
Autokorrelationsfunktion, 32
Autokorrelationsmatrix, 6
Definition, 43
deterministische -, 130
Eigenschaften, 44
240
INDEX
INDEX
Eigenvektoren, 61
positiv definite -, 45
Rang, 223
Autokovarianz
-funktion, 33
189,216
Basis, orthonormale, 64
Block
-index, 158
-lnge, 84
-raster, 164
-verarbeitung, 158
-verschiebung, 159
208
charakteristische Gleichung, 62
D
Daten
-rate, 18
-reduktion, 18, 19
Datenbertragung, 21
Dekoder,18
desired signal, 41
deterministische
- Autokorrelationsmatrix, 130
- Fehlerfunktion, 129
deterministischer Kreuzkorrelationsvek
tor, 131
matrix
Ellipsen, konzentrische, 69
Empfangsfilter, 25
Enkoder, 18
Ensemble, 30
Ensemblemittelwert, 32
Entzerrung, 21
Enveloppe, 16
Ergodizitt, 34
Erwartungswert, 32
schussfehler
unitre hnlichkeitstransformation,
65
Dichtefunktion, 31
Differenzfilter, 58
157, 159
-Koeffizienten, 159
-Lnge, 158
-Matrix, 159
'doubletalk'-Phase, 27
E
Echokompensation, 25, 227
akustisches Echo, 28
- bei Freisprecheinrichtungen, 28
elektrisches Echo, 25
Restecholeistung, 214
Echtzeitsystem, 5, 176
Egalisation, 19
matrix
Eigenschaften der -, 61
trix
Eigenschaften der -, 61
eigenvalue spread, 73
Konditionszahl, 73
Eingangssignal
- mit positiv semidefiniter Autokor
relationsmatrix, 60
-leistung, 98
-vektor
Definition, 40
Transformation, 74
210
,.
':1'
F
Faltung
'Fast'-LMS-Algorithmus, 166
'Fast'-RLS-Algorithmus, 154
LMS-,115
siehe auch jeweilige Algorithmen
Fehlerflche, 46
Fehlerfunktion
Definition, 42
deterministische, 129
Fehlersignal, 41
Filter
Impulsantwort
Notch-, 12
Nullstellen, 38
-ordnung, 38
241
Pole, 38
Stabilitt, 39
-strukturen, 38
Filterkoeffizienten, 38
optimale -, 49
Filter
constrained, 166
FehleinsteIlung, 173
Herleitung, 158
Konvergenz
Nachfhrverhalten, 191
Notation, 158
Algorithmus
Rechenaufwand, 173
Rekursionsschema, 164
Schrittweite
frequenzabhngige -, 163
berschussfehler, 176
unconstrained, 166
Algorithmus, 189
Zusammenfassung, 188
Formanten, 16
Freiheitsgrade, 60
Freisprecheinrichtung, 28
Frequency-Domain-LMS-Algorithmus,
siehe FLMS-Algorithmus
Frequenzbereichsalgorithmen, 157
fundamentale Annahmen, 93
Gtemass, 37
Gabelschaltung
INDEX
INDEX
242
aktive -,26
passive -, 26
Gedchtnis, 142
Gewichtsvektor
Definition, 40
optimaler -, 49
Transformation des -, 66
Gradient, 49
approximierter -, 83
Momentan-, 84
Gradienten-Suchalgorithmen fr
Herleitung, 79
Konvergenz
-Analyse, 88
-Bedingung, 98
-Verhalten, 88
Schrittweite, 79
Gradientenrauschvektor, 106
Griffiths-Algorithmus, siehe
P-Vektor-Algorithmus
H
Hauptachsen, 70, 72
hermitesch, 44
Hess'sche Matrix, 47
Inverse ModelIierung,
siehe Anwendungen
J
J, siehe MSE
Jex , siehe berschussfehler
K
Kaiman-Filter, 3
Kammfilter, 59
Kanal, nichtidealer, 21
Karhunen-Loeve-Transformation (KLT),
74
Dekorrelationseigenschaft der -, 74
- der Anwendungen, 8
Konditionierung
- des Eingangssignals, 73
Konditionszahl, 73
schlechte -, 73
Konditionszahl, 73
ge Algorithmen
Konvergenzzeit, 5
Koordinaten
Hauptachsen-, 72
-transformation, 75
Korrelations
-funktion, 32
-funktion, 32
Kreuzkorrelationsfunktion, 33
Kreuzkorrelationsvektor
Definition, 43
deterministischer -, 131
Kreuzkovarianzfunktion, 33
Least-Mean-Square-Algorithmus, siehe
LMS-Algorithmus
Least-Squares-Verfahren, 127, 189
deterministische Wiener
Hopf-Gleichung, 132
243
Recursive Least-Squares-Algorithmus,
siehe RLS-Algorithmus
Lernen
berwachtes, 'supervised', 1
~.
'l.
.~.
~.
.\1.
'.
, .
Lernkurve, 103
Analyse
'Fast'-, 166
komplexer -, 120
Block-,84
FehleinsteIlung, 115
Herleitung, 82
Konvergenz
-Analyse, 92
-Bedingung, 98
- 'im Mittel', 92
Momentangradient, 84
Nachfhrverhalten, 191
Newton-, 121
RechenauBwand, 86
Rekursionsschema, 85
Schrittweite, 85
berschussfehler, 115
Algorithmus, 189
Zusammenfassung, 185
LPC-Analyse, 14
Koeffizienten, 15
LRMI Lautsprecher-Raum-Mikrophon
Impulsantwort, 29
M
MATLAB-Simulationen, siehe Simula
tionsanleitungen
Matrix
hermitesche -, 44
Hess'sche -, 47
negativ definite -, 45
positiv definite -, 45
positiv semidefinite -, 45
singulre, 45
Spur, 97
symmetrische -, 44
-Transposition, 44
Toeplitz-, 45
zirkulre -, 168
Matrixinversions-Lemma, 134
Mehrwegausbreitung, 19
siehe Least-Squares-Verfahren
ler (MMSE), 49
Ensemble-, 32
Zeit-,34
42
Modalmatrix, 65
Modellparameter, 5
Modem, 24
Moment, 32
Momentangradient, 84
ler
Musterfunktion, 30
244
INDEX
Nachfhrverhalten, 5
Netzstrung, Netzbrumm, 12
neuronale Netzwerke, 1
Herleitung, 79
119,189
Notchfilter, 12
Nullstellen, 38
- des Differenzfilters, 59
Nutzsignal, 10
Nyquistkriterium, 22
o
optimale lineare Filterung, siehe lineare
optimale Filterung
Optimalittskriterium, 37
Orthogonalitt, 36
Orthogonalittsprinzip, 52
geometrische Deutung, 53
orthonormale Basis, 64
Overlap-Save-Verfahren, 160
Bedingung, 160
P-Vektor-Algorithmus, 124
Paraboloid, 69
rotationssymmetrisches -, 72
Parameterlsung, 58
Partitioned Frequency-Domain
LMS-Algorithmus (PFLMS),
siehe PFLMS-Algorithmus
Partitionen, 177
Herleitung, 176
Rekursionsschema, 179
Pole, 38
INDEX
Prdiktions
-fehler, 15
-filter, 15
Prdiktorordnung, 15
Produktregel, 234
Prozess, stochastischer
ergodischer -, 34
Musterfunktion, 30
Realisierung, 30
schwach stationrer -, 34
stationrer -, 33
Zufallsvariable, 30
-zeit, 149
Matrixinversions-Lemma, 134
Nachfhrverhalten, 191
Rekursionsschema, 137
Algorithmus, 189
Zusammenfassung, 187
Q
Qualittsverlust, 18
Quantisierung, 5, 18
Quantisierungsbits, 19
quasistationr , 15
R
Rckkopplungspfad, 28
Rauschen
189, 210
Realisierung, 30
Rechenaufwand, 5
-mikrophon, 11
-signal, 10, 11
Resynthese, 17
Fehleinstellung, 150
Gedchtnis, 142
Herleitung, 133
- in LMS-Form, 149
Initialisierung, 141
Konvergenz
-Analyse, 146
on!
b"'
:;.i
",.,
~ ~::!:
j"j
~l:
fit
'1
j~'
\'
'!,
.;\
"
Schtzfehler, 51
Schar, 30
Schrittweite
frequenzabhngige -, 163
normierte -, 103
Sendefilter, 22
Sicherheitskonstante, 120
Simulationsanleitungen, 210
Skalarprodukt, 233
spektrales Theorem, 66
Spektrum
- eines Sprachsignals, 16
Linien-,59
Zusammenhang Kondition
ierung und -, 73
Sprache
Grundfrequenz, 16
LPC-Analyse von -, 14
quasistationr, 15
stimmhaft, 16
stimmlos, 16
Spracherkennung, automatische, 14
Sprachkodierung
ADPCM,18
Vokodersystem, 18
Sprachmodell, 16
245
Sprachspektrum, 16
Sprecherverifizierung, 14
Strsignal, -gerusch, 5, 10
-quelle, 11
-unterdrckung, 10
Stationaritt
schwache -, 34
strenge -, 33
Superpositionsprinzip, 2
System-Fehler-Mass, 214
Systemidentifikation, siehe An
-wendungen
Teilfilter, 178
Telefon
-leitung, 21
-system, 25
Toeplitz-Matrix, 45
Trainingsphase, 1
Transformationsmatrix
- der KLT, 74
Transposition, 44
U
berschussfehler, 77, 104, 111, 112, 186
FLMS-,176
LMS-,115
bersprechen, 23
60
Unabhngigkeit, 35
Unabhngigkeits-Theorie, 93
Unitre hnlichkeitstransformation, 66
Unkorreliertheit, 35
Varianz, 34
246
INDEX
Vokaltrakt, 17
Vokodersystem, 18
Vorfilterung, 138
Vorzeichen-LMS-Algorithmus, 125
W
weisses Rauschen, siehe Rauschen
Wiener-Filter, 3
MMSE,49
MSE,42
Wiener-Hopf-Gleichung, 49
Wiener-Losung,46
Wiener-Hopf-Gleichung, 49
-deterministische, 132
entkoppelte Form, 67
Wiener-Losung, 46
Z
z-Transformation, 38, 199
Zeitkonstante
Zufalls
-variable, 30
-zahl, 30
schaften, 183
Systemvoraussetzungen:
Druck: Mercedes-Druck, Berlin
Verarbeitung: Strtz AG, Wrzburg
."