Aliasing und nichtstationäre Signale.

M

Marte Schwarz

Guest
hallo,
wir haben heute nachmittag eine ganze Weile philosophiert und möchte die NG
mit einladen...

Wir betrachten gerade mal ein EKG-Signal. Es ist ja nicht wirklich ein
streng stationäres Signal. Wenn man ein solches messen will, dann taucht
sofort das Thema Anti-Aliasing-Filter auf. Es sei also z.B. eine Abtastraten
von 100 Sps, was sicher zu wenig ist, um das Signalspektrum in ganzer Breite
erfassen zu können. Trotzdem sehen die gemessenen EKGs ohne Filter besser
aus, als die mit entsprechenden Filtern, die eben das Signal ganz heftig
abrunden. Ich kann mich noch gut an einen schwer umstrittenen Gastvortrag
erinnern (ich weiss leider nicht mehr welcher Prof sich das getraut hatte),
wo ein Prof einen vergleich vorgestellt hatte, wie die entsprechend
"unwissenschaftlich" aufgenommenen Signale mit den gängigen
Approximierungsverfahren rekonstruiert wurden und mit dem (ungefilterten)
Orginal verglichen hatte. Er argumentierte rein Phänomenologisch: "Es ist,
weil es so ist, eine Erklärung hab ich nicht."
Mein Gedanken hierzu heute war, dass ja der Aliasingeffekt ein stationäres
Signal voraussetzt, so dass die Unterabtastung über mehrere Welenzyklen
hinweg das Aliasingsignal aufzubauen vermag. Dies ist in einer Zacke aber
nicht gegeben. Ich kann selbstverständlich ein Fenster über ein Signal
(-teil) legen und meine Mathe draufloslassen und errechnen lassen, wie sich
ein Signal verfälschen wird... tut es ja aber offensichtlich gar nicht, weil
die hohen Frequenzanteile eben nur für wenige ms in einer Sekunde auftreten.
Wie sehen die Fachleute ier im Kreis das?

Ein EKG lässt sich für diese Frage gut anähern als ein Dreieck mit <100 ms
Dauer und eine anschließende Pause von ca. 1 s aber durchaus von Schlag zu
Schlag einige 10-100 ms variierend. Speziell letzteres scheint mir wichtig
zu sein.

Es gibt ja durchaus viele Signale, die auch nicht stationär sind und
Pulsierenden Charakter haben. Vielleicht hat sich da schon mal jemand
darüber gedanken gemacht, wie das dann abtasttheoretisch zu betrachten ist.

Schönes Wochenende

Marte
 
"Marte Schwarz" <marte.schwarz@gmx.de> schrieb im Newsbeitrag
news:dgeop8$lj1$1@news2.rz.uni-karlsruhe.de...

hallo,
wir haben heute nachmittag eine ganze Weile philosophiert und möchte die
NG
mit einladen...

Wir betrachten gerade mal ein EKG-Signal. Es ist ja nicht wirklich ein
streng stationäres Signal. Wenn man ein solches messen will, dann taucht
sofort das Thema Anti-Aliasing-Filter auf. Es sei also z.B. eine
Abtastraten
von 100 Sps, was sicher zu wenig ist, um das Signalspektrum in ganzer
Breite
erfassen zu können. Trotzdem sehen die gemessenen EKGs ohne Filter besser
aus, als die mit entsprechenden Filtern, die eben das Signal ganz heftig
abrunden. Ich kann mich noch gut an einen schwer umstrittenen Gastvortrag
Was heisst denn hier "abrunden" ??
Ein richitges Anti-Aliasing Filter (tm) ist nicht einfache ein 08/15
TRC-Tiefpass 1. Ordnung.
Eher ein Filter 6..8..10. Ordung, natürlich schön ala
BEssel/Tschebytschef/wassweisich entworfen.
Oder eben Brute Force, 100-fache Überabtastung (dann rteicht ein einfacher
Tiefpass als Filter) und den Rest digital filtern.

Mein Gedanken hierzu heute war, dass ja der Aliasingeffekt ein stationäres
Signal voraussetzt, so dass die Unterabtastung über mehrere Welenzyklen
hinweg das Aliasingsignal aufzubauen vermag. Dies ist in einer Zacke aber
nicht gegeben. Ich kann selbstverständlich ein Fenster über ein Signal

;-))
"Zacke" ist in der allgemeinen Signaltheorie eher nicht gebräuchlich. Nochma
die Fouriertransformation anschauen. Und versuchen sie zu verstehen.

(-teil) legen und meine Mathe draufloslassen und errechnen lassen, wie
sich
ein Signal verfälschen wird... tut es ja aber offensichtlich gar nicht,
weil
die hohen Frequenzanteile eben nur für wenige ms in einer Sekunde
auftreten.

Das reicht allzuoft aus um Stress zu machen. Z.b. Handyanruf im Radio,
Fernseher etc.

Ein EKG lässt sich für diese Frage gut anähern als ein Dreieck mit <100 ms
Dauer und eine anschließende Pause von ca. 1 s aber durchaus von Schlag zu
Schlag einige 10-100 ms variierend. Speziell letzteres scheint mir wichtig
zu sein.
In diesem Rechteck sind wahrscheinlich signifikate Anteile bis 1 kHz drin.
Also 100 S/s ist sowieso zu wenig.

MfG
Falk
 
Hallo Falk,

Wir betrachten gerade mal ein EKG-Signal. Es ist ja nicht wirklich ein
streng stationäres Signal. Wenn man ein solches messen will, dann taucht
sofort das Thema Anti-Aliasing-Filter auf. Es sei also z.B. eine
Abtastraten
von 100 Sps, was sicher zu wenig ist, um das Signalspektrum in ganzer
Breite
Was heisst denn hier "abrunden" ??
Wie schon beschrieben, darfst Du ein EKG in diesem Fall als Dreieckspannung
mit <100 ms Breite und einer danach folgenden Pause von nie genau gleich
viel aber ca 1s Dauer betrachten. Ein derartiges Signal werde ordnungsgemäß
gefiltert, dass nach theorie keine Aliasingeffekte dran kommen. Dann gibt es
in dem abzutastenden Signal keine Ecken mehr, sondern es ist "abgerundet".

Ein richitges Anti-Aliasing Filter (tm) ist nicht einfache ein 08/15
TRC-Tiefpass 1. Ordnung.
Ist nicht unbekannt. War auch hier nicht das Thema.

;-))
"Zacke" ist in der allgemeinen Signaltheorie eher nicht gebräuchlich.
Nochma
die Fouriertransformation anschauen. Und versuchen sie zu verstehen.
Was will mir der Autor dieser Zeilen mitteilen?

die hohen Frequenzanteile eben nur für wenige ms in einer Sekunde
auftreten.

Das reicht allzuoft aus um Stress zu machen. Z.b. Handyanruf im Radio,
Fernseher etc.
Darum geht es doch hier wirklich nicht.

Ein EKG lässt sich für diese Frage gut anähern als ein Dreieck mit <100
ms
Dauer und eine anschließende Pause von ca. 1 s aber durchaus von Schlag
zu
Schlag einige 10-100 ms variierend. Speziell letzteres scheint mir
wichtig
zu sein.

In diesem Rechteck sind wahrscheinlich signifikate Anteile bis 1 kHz drin.
Also 100 S/s ist sowieso zu wenig.
Wer hat hier von einem Rechteck gesprochen? Egal, nähere es in einem
Rechteck an, sollte ausfs selbe herauskommen. Und dann hast Du es erfasst:
Es gibt höhere Signalanteile, die in diesem Fall nicht abgetastet werden.
Laut Abtasttheorie erwarte ich also Aliasing, also im rekonstruierten Signal
(Zeitbereich!) störende Frequenzanteile (welcher Art auch immer), die nicht
im Orginal enthalten waren und nun mein Signal verfälschen. Diese zu
reduzieren und damit mein Signal, dem Orginal ähnlicher zu machen war das
Ziel der Übung. Meist stellt man in diesem speziellen Fall fest, dass das
Gegenteil erreicht wird: Es ist das rekonstruierte Signal ohne
Anti-Aliasingfilter dem Orginal ähnlicher, als das ordentlich gefilterete
und aliasingfrei (-arm) diskretisierte.

Diesen Effekt gilt es zu erklären. Mein Ansatz war, dass die Fourieranalyse
ja nur unter der Randbedingung streng stationärer Signale definiert ist,
welche hier zweifelsohne gar nicht vorliegen. Demnach wäre bei einem
einzelnen Impuls gar keine Spektralbetrachtung zulässig, speziell, weil hier
auch keiner auf die Idee käme nach selbiger Theorie eine Interpolation der
Abtastwerte zur Signalrekonstruktion vorzunehmen. Hier wird linear,
höchstens kubisch interpoliert und gut ists. Das Resultat sollte dam Orginal
ähnlich sehen, die Interpretation findet typischerweise im Zeitbereich
statt, zumindest dann, wenn es ein Arzt "zu Fuß" interpretiert ;-)

Marte
 
"Marte Schwarz" <marte.schwarz@gmx.de> schrieb:

Ein EKG lässt sich für diese Frage gut anähern als ein Dreieck mit
100 ms
Dauer und eine anschließende Pause von ca. 1 s aber durchaus von
Schlag zu
Schlag einige 10-100 ms variierend. Speziell letzteres scheint mir
wichtig
zu sein.
Solange man das Originalsignal im Zeitbereich mit der Zeitschrittweite
abtasten und durch Verbinden der Punkte rekonstruieren kann und das so
erhaltene Bild einen guten Wiedererkennungswert hat, sollte es gut
sein. Auch wenn das EKG in seinen "Zacken" höherfrequente Anteile
oberhalb der Shannon-Grenze enthält, so sind sie doch - wie Du schon
treffend sagtest - nur sehr kurzzeitig präsent. Daher wird sich die
Unterabtastung bei der Wiedergabe im Endeffekt dadurch äussern, dass
die Spitzen der Zacken schlimmstenfalls um einen halben Zeitschritt
verschoben und in ihrer Amplitude verfälscht dargestellt erscheinen.

--
Es gibt keine Neue Rechtschreibung. Es gibt eine Rechtschreibung und
eine neue Schreibweise. Ausserdem hätte ich lieber eine
Mathematikreform, dann wäre das Rechnen nicht so schwer.
 
"Marte Schwarz" <marte.schwarz@gmx.de> schrieb im Newsbeitrag
news:dgf2r8$sn8$1@news2.rz.uni-karlsruhe.de...

Nabend,

Was heisst denn hier "abrunden" ??

Wie schon beschrieben, darfst Du ein EKG in diesem Fall als
Dreieckspannung
mit <100 ms Breite und einer danach folgenden Pause von nie genau gleich
viel aber ca 1s Dauer betrachten. Ein derartiges Signal werde
ordnungsgemäß
gefiltert, dass nach theorie keine Aliasingeffekte dran kommen. Dann gibt
es
in dem abzutastenden Signal keine Ecken mehr, sondern es ist "abgerundet".
Du eierst hier ganz schön rum. Entweder, das Signal IST sehr Dreieckähnlich,
d.h. es gibt recht scharfe Spitzen/steile Flanken, dann ENTHÄLT das Signal
sehr hohe Frequenzanteile. Das "abrunden" im AAF (Anti-Aliasing Filter) ist
dann auf ein falsch dimensionierten AAF zurückzuführen.

Ein richitges Anti-Aliasing Filter (tm) ist nicht einfache ein 08/15
TRC-Tiefpass 1. Ordnung.

Ist nicht unbekannt. War auch hier nicht das Thema.
Ich fürchte das du entweder mich oder den AAF nur halb verstanden hast. Oder
beide :-0

;-))
"Zacke" ist in der allgemeinen Signaltheorie eher nicht gebräuchlich.
Nochma
die Fouriertransformation anschauen. Und versuchen sie zu verstehen.

Was will mir der Autor dieser Zeilen mitteilen?
Deine Wortwahl ist recht dispersiv. Zum einen benutzt du recht sachliche
Begriffe wie "stationäre Signale" und dann doch wieder Hausfrauenbegriffe
wie "Zacke".

die hohen Frequenzanteile eben nur für wenige ms in einer Sekunde
auftreten.

Das reicht allzuoft aus um Stress zu machen. Z.b. Handyanruf im Radio,
Fernseher etc.

Darum geht es doch hier wirklich nicht.
Was ich sagen wollte. Wenn die hohen Frequenzen nur für kurze Zeit
auftauchen so sind sie dennoch ein signifikanter Bestandteil des Signals und
können NICHT weggelassen werden. Nur weil die PulsWIEDERHOLRATE niedrig ist
(hier wohl so 1s) heisst das nicht, dass die hochfrequenten Anteile einfach
unter den Teppich gekehrt werden können. Man denke hier z.B. an ein
digitales Oszilloskop im Single-Shot Modus. Dort braucht man die volle
Bandbreite, wenn man einen kuzen, aber sehr selten auftretenden Puls messen
will.

Ein EKG lässt sich für diese Frage gut anähern als ein Dreieck mit <100
ms
Dauer und eine anschließende Pause von ca. 1 s aber durchaus von Schlag
zu
Schlag einige 10-100 ms variierend. Speziell letzteres scheint mir
wichtig
zu sein.

In diesem Rechteck sind wahrscheinlich signifikate Anteile bis 1 kHz
drin.
Also 100 S/s ist sowieso zu wenig.

Wer hat hier von einem Rechteck gesprochen? Egal, nähere es in einem
Niemand, ist irgendwie reingerutscht. Aber auch ein DREIECK hat nennenswerte
Oberwellen.

Rechteck an, sollte ausfs selbe herauskommen. Und dann hast Du es erfasst:
Es gibt höhere Signalanteile, die in diesem Fall nicht abgetastet werden.
Laut Abtasttheorie erwarte ich also Aliasing, also im rekonstruierten
Signal
(Zeitbereich!) störende Frequenzanteile (welcher Art auch immer), die
nicht
im Orginal enthalten waren und nun mein Signal verfälschen. Diese zu
reduzieren und damit mein Signal, dem Orginal ähnlicher zu machen war das
Ziel der Übung. Meist stellt man in diesem speziellen Fall fest, dass das
Gegenteil erreicht wird: Es ist das rekonstruierte Signal ohne
Anti-Aliasingfilter dem Orginal ähnlicher, als das ordentlich gefilterete
und aliasingfrei (-arm) diskretisierte.
Woher willst du das wissen? Vergleichst du analoge Aufzeichnungen (die ja
prinzipiell kein Anti-Aliasing Problem kennen) mit digitalen
Rekonstruktionen?
Vieleicht ist deine Referenz schon falsch (weil ohne AAF aufgenommen?)
Man kann sich dabei sehr schön selbst verarschen. Man kann auch bei der
Rekonstruktion Mist machen (jeder DAC braucht eine analogen
Rekonstruktionsfilter)
Ausserdem ist es nicht so einfach, die Alias-Signal im falsch abgetastetem
Signal zu sehen. vor allem unter der Bedingung, dass nur 1 Periode
aufgezeichnet wird.

Diesen Effekt gilt es zu erklären. Mein Ansatz war, dass die
Fourieranalyse
ja nur unter der Randbedingung streng stationärer Signale definiert ist,
welche hier zweifelsohne gar nicht vorliegen. Demnach wäre bei einem
einzelnen Impuls gar keine Spektralbetrachtung zulässig, speziell, weil
hier
auch keiner auf die Idee käme nach selbiger Theorie eine Interpolation der
Abtastwerte zur Signalrekonstruktion vorzunehmen. Hier wird linear,
??? Warum sollte bei einem Einzelimpuls keine spektrale Analyse möglich
sein? Der Unterschied ist eben, dass ein Einzelimpuls ein kontinuierliches
Spektrum hat (in der Theorie) während periodische Vorgänge Linienspektren
besitzten. Da aber praktisch immer mit diskreten Werten gearbeitet wird und
DFT/FFT betrieben wird, wird das Signal sowieso immer als periodisch
interpretiert (bewusst oder unbewusst).

höchstens kubisch interpoliert und gut ists. Das Resultat sollte dam
Orginal
ähnlich sehen, die Interpretation findet typischerweise im Zeitbereich
statt, zumindest dann, wenn es ein Arzt "zu Fuß" interpretiert ;-)
Die lineare Interpolation reicht aus, wenn die Abtastrate ordentlich hoch
ist.

MfG
Falk
 
Hallo Marte,


Marte Schwarz wrote:
Wer hat hier von einem Rechteck gesprochen? Egal, nähere es in einem
Rechteck an, sollte ausfs selbe herauskommen. Und dann hast Du es erfasst:
Es gibt höhere Signalanteile, die in diesem Fall nicht abgetastet werden.
Laut Abtasttheorie erwarte ich also Aliasing, also im rekonstruierten Signal
(Zeitbereich!) störende Frequenzanteile (welcher Art auch immer), die nicht
im Orginal enthalten waren und nun mein Signal verfälschen. Diese zu
reduzieren und damit mein Signal, dem Orginal ähnlicher zu machen war das
Ziel der Übung. Meist stellt man in diesem speziellen Fall fest, dass das
Gegenteil erreicht wird: Es ist das rekonstruierte Signal ohne
Anti-Aliasingfilter dem Orginal ähnlicher, als das ordentlich gefilterete
und aliasingfrei (-arm) diskretisierte.
ich meine zu verstehen, worauf Du hinaus willst. Im Grunde ist es recht
einfach und auch allgemein bekannt: Ein Antialiasing-Tiefpaß ist 1.
immer analog und 2. verzerrt er nicht nur das Spektrum durch die
gewünschte Filterwirkung, sondern die Zeitfunktion. Als müssen wir das
Filter im Zeitbereich betrachten und da ist das hier wichtige Kriterium
die Gruppenlaufzeit, also d(Phi(Omega))/d(omega), die muß möglichst
konstant sein. Das ist bei Bessel-Filtern höherer Ordnung der Fall. Der
Nachteil bei Bessel-Filtern ist dann wieder, daß der Übergang vom
Durchlaß- zum Sperrbereich nicht ideal rechteckförmig ist wie bei z.B.
Butterworth, sondern immer verrundet.

Im Zeitbereich wird das Besselfilter zwar auch die Ecken verrunden, aber
keine Einschwinvorgänge produzieren und das gefilterte sehr 'ähnliche'
Signal lediglich verzögern.

Man könnte auch ein Filter speziell für diesen Fall optimieren, aber das
schätze ich mal als nicht mehr einfach ein, also eine Wissenschaft für
sich. Im schlimmsten Fall mußt Du die Abtastrate erhöhen, wie anderswo
schon erwähnt.

Diesen Effekt gilt es zu erklären. Mein Ansatz war, dass die Fourieranalyse
ja nur unter der Randbedingung streng stationärer Signale definiert ist,
welche hier zweifelsohne gar nicht vorliegen. Demnach wäre bei einem
Da sehe ich etwas anders. Man kann die FFT (fast fourier analysis, gibt
speziell optimierte Algorithmen dafür) ohne Problem auch für
nichtperiodische Signale einsetzen, um sich das Spektrum auch mit hoher
Auflösung anzusehen. Man muß nur den sogenannten Leakage-Effekt
beseitigen, das ist eben der Nachteil der FFT, dafür gibt es die
sogenannten _Fenstertechniken_. Aber in einem Punkt gebe ich Dir recht:
Nach meinem Verständnis ist das, was die FFT 'sieht' und zeigt, das
Ergebnis einer streng periodischen Funktion. Der Leakage-Effekt läßt die
'Peaks' zu breiten 'Keulen' zerlaufen, die spektrale Komponenten daneben
zudecken.

Vor die FFT mußt Du natürlich auch einen Antialias-Tiefpaß setzen, sonst
siehst Du die Alias-Komponenten mit. Aber damit siehst Deine Probleme im
Frequenzbereich, die Dich jetzt im Zeitbereich stören. Nur sind Spektren
oft unübersichtlich, ich würde hier die Betrachtung im Zeitbereich
vorziehen.

einzelnen Impuls gar keine Spektralbetrachtung zulässig, speziell, weil hier
auch keiner auf die Idee käme nach selbiger Theorie eine Interpolation der
Abtastwerte zur Signalrekonstruktion vorzunehmen. Hier wird linear,
höchstens kubisch interpoliert und gut ists. Das Resultat sollte dam Orginal
ähnlich sehen, die Interpretation findet typischerweise im Zeitbereich
statt, zumindest dann, wenn es ein Arzt "zu Fuß" interpretiert ;-)
Wie bitte? Für den Rekonstruktions-Tiefpaß am Ausgang des DA-Wandlers
gilt genau das gleiche wie für den Antialias-TP vor dem Abtaster, er
interpoliert mehr oder weniger ideal. Die beiden Filter könnten sogar
identisch sein, wenn Du nicht überabtastest.

Eine Interpolation könnte man mit Überabtastung und digitaler Filterung
auch machen, nur weiß ich im Moment nicht wie das Meßsystem genau
aussehen soll.

mfg. Winfried
 
Marte Schwarz wrote:
Wir betrachten gerade mal ein EKG-Signal. Es ist ja nicht wirklich ein
streng stationäres Signal. Wenn man ein solches messen will, dann taucht
sofort das Thema Anti-Aliasing-Filter auf. Es sei also z.B. eine Abtastraten
von 100 Sps, was sicher zu wenig ist, um das Signalspektrum in ganzer Breite
erfassen zu können.
d.h. ihr bemesst das Aliasing Filter nach der Abtastrate. Wenn die so
voregebene Frequenz aber zu niedrig ist um das Signal hinreichend gut zu
erfassen, ist klar das das TP Filter schon entscheidende Anteile vom
analogen Signal wegschneidet und das ganze recht "platt" aussieht.

Trotzdem sehen die gemessenen EKGs ohne Filter besser
aus, als die mit entsprechenden Filtern, die eben das Signal ganz heftig
abrunden.
Mein Gedanken hierzu heute war, dass ja der Aliasingeffekt ein stationäres
Signal voraussetzt, so dass die Unterabtastung über mehrere Welenzyklen
hinweg das Aliasingsignal aufzubauen vermag. Dies ist in einer Zacke aber
nicht gegeben. Ich kann selbstverständlich ein Fenster über ein Signal
(-teil) legen und meine Mathe draufloslassen und errechnen lassen, wie sich
ein Signal verfälschen wird... tut es ja aber offensichtlich gar nicht, weil
die hohen Frequenzanteile eben nur für wenige ms in einer Sekunde auftreten.
Wie sehen die Fachleute ier im Kreis das?
Also so wie das Aliasing immer in Büchern beschrieben wird mit
stationären Sinussignalen die dann wieder zurückgespiegelt werden kannst
du das hier nicht betrachten. Denn schließlich geht es im Kern darum ein
bandbreitenbegrenztes Signal zu digitalisieren und dieses wieder exakt
rekonstrurieren zu können. Wenn du aber dein Signal durch das TP Filter
schon so platt machst, dass es dem Original nicht sehr ähnlich sieht
kann nachher nicht wieder das Original herauskommen.
Wenn du jetzt in deinem Fall kein Aliasing Filter nimmst bekommst du ein
Diagramm aus lauter Punkten, von denen du aber nicht weisst wie es
dazwischen aussieht. Dh es könnte noch höherfrequente Anteile geben, die
du nicht siehst -> dein Signal enthält mehr niederfrequente Anteile als
das Original
Mit Aliasing Filter sind die Signale _nach_ dem TP Filter und nach dem
Rekonstruktionsfilter aber theoretisch exakt gleich (also auch zwischen
den Abtastpunkten).

Ein EKG lässt sich für diese Frage gut anähern als ein Dreieck mit <100 ms
Dauer und eine anschließende Pause von ca. 1 s aber durchaus von Schlag zu
Schlag einige 10-100 ms variierend. Speziell letzteres scheint mir wichtig
zu sein.
Die Pausen verschieben das ganze Spektrum nach oben oder unten und
machen es diskret, denn du kannst dein Signal auch als Faltungsprodukt
deines Dreiecks mit einem Dirac-Kamm, dessen Abstand den Impulsabstand
beträgt darstellen. Da die Faltung aber im Frequenzbereich einer
Multiplikation der beiden Spektren entspricht kommen keine
höherfrequenten Anteile mehr zum Spektrum des Dreiecks hinzu. Denn das
Spektrum eines Dirac-Kamms ist wieder ein Dircac-Kamm mit
Abstand=1/Zeitaband und die Höhe wird mit 1/Zeitabstand multipliziert,
dh das Spektrum wird diskret und die Amplitude der Frequenzanteile
steigt aber mit 1/Zeitabstand.

Es gibt ja durchaus viele Signale, die auch nicht stationär sind und
Pulsierenden Charakter haben. Vielleicht hat sich da schon mal jemand
darüber gedanken gemacht, wie das dann abtasttheoretisch zu betrachten ist.
Also da haben sich sicher schon ne menge Leute Gedanken darüber gemacht.
Eigentlich ganz einfach zuerst muss man mal wissen, wie groß die
Bandbreite das betrachteten Signals ist bzw was davon von Interesse ist.
Danach wählt man geeignete Abtastraten und Filter. Und wenn man alles so
ausgelegt hat sollte man sich nicht wundern, wenn Vorgängen mit
höherfrequenten Anteilen nicht dargestellt werden.

mfg
Thomas
 
Hallo Winfried,

Winfried Salomon schrieb:
[...]
Durchlaß- zum Sperrbereich nicht ideal rechteckförmig ist wie bei z.B.
einen im mathematischen Sinne "rechteckigen" Übergang vom Durchlass-
und den Sperrbereich des Amplitudenfrequenzgangs bietet _kein_ mir
bekanntes Filter. Ist signaltheoretisch (leider) auch nicht möglich.

Butterworth, sondern immer verrundet.
Das sind alle Amplitudenfrequenzgänge. Die einen mehr, die anderen
weniger. Einen steileren Verlauf den Amplitudenfrequenzganges erkauft
man grundsätzlich mit anderen Nachteilen (Gruppenlaufzeit, Welligkeit
im Durchlassbereich etc.)

Im Zeitbereich wird das Besselfilter zwar auch die Ecken verrunden, aber
keine Einschwinvorgänge produzieren und das gefilterte sehr 'ähnliche'
Signal lediglich verzögern.
?

Also "Ecken verrunden": genau _das_ soll ein TP ja auch tun,
denn sonst wäre es kein TP. Da ein Rechtecksignal Frequenzanteile
im gesamten Spektrum (ab der Signalfrequenz) enthält, lässt sich
ein solches Signal niemals vollständig digitalisieren
(und übrigens auch nicht erzeugen, weder analog noch sonstwie).

Ich habe zwar von EKG keine Ahnung, allerdings würde ich mal
schätzen, dass dort Frequenzanteile bis 1kHz im Spiel sind.
Wenn du ein Filter höherer Ordnung nimmst (z.B. Butterworth
4. Ordnung) bei z.B. 1kHz Grenzfrequenz, dann wäre damit
vermutlich eine genügend genau Digitalisierung möglich.

Also ich sehe die Digitalisierung eines EKG-Signals nicht unbedingt
als Herausforderung an die Wissenschaft. Aber vielleicht habe ich
ja den eigentlichen Knackpunkt übersehen (bitte um Aufklärung).

[...]
Nach meinem Verständnis ist das, was die FFT 'sieht' und zeigt, das
Ergebnis einer streng periodischen Funktion. Der Leakage-Effekt läßt die
Sehe ich auch so.

'Peaks' zu breiten 'Keulen' zerlaufen, die spektrale Komponenten daneben
zudecken.

Vor die FFT mußt Du natürlich auch einen Antialias-Tiefpaß setzen, sonst
siehst Du die Alias-Komponenten mit. Aber damit siehst Deine Probleme im
Frequenzbereich, die Dich jetzt im Zeitbereich stören. Nur sind Spektren
oft unübersichtlich, ich würde hier die Betrachtung im Zeitbereich
vorziehen.
?

[...]
mfg. Winfried
ciao
Marcus
 
Es gibt ja durchaus viele Signale, die auch nicht stationär sind und
Pulsierenden Charakter haben. Vielleicht hat sich da schon mal jemand
darüber gedanken gemacht, wie das dann abtasttheoretisch zu betrachten ist.
Das Stichwort ist wohl "uncertainty principle" oder spezieller
"Joint Time Frequency Analysis" und in dem Zusammenhang "Wigner Ville".
Die Verfahren haben aber noch wenig Anwendung.

in einer Zacke
Wie ja schon gesagt ( Gruppenlaufzeit ): typisches brick-wall
Antialiasing-Filter ist IIR und masakriert die Phase am Knickpunkt.
Der Bereich liegt aber noch knapp unterhalb der Abtastfrequenz
man hat damit im digitalen Bereich ein verfälschtes Signal.
Es sei denn die Abtastrate ist derart hoch, daß man eh kein
Antialiasing-Filter braucht, weil die Energie des Pulses
schon abgeklungen ist.
Theoretisch könnte man hinter den D/A-Wandler ein passendes
Allpaßfilter setzen das den Puls wieder rekonstruiert.

MfG JRD
 
Halo Marcus,

Marcus Woletz wrote:
Hallo Winfried,

Winfried Salomon schrieb:
[...]

Durchlaß- zum Sperrbereich nicht ideal rechteckförmig ist wie bei z.B.


einen im mathematischen Sinne "rechteckigen" Übergang vom Durchlass-
und den Sperrbereich des Amplitudenfrequenzgangs bietet _kein_ mir
bekanntes Filter. Ist signaltheoretisch (leider) auch nicht möglich.
jaja ;-). Hab nur etwas flapsig formuliert, wie das eben so ist, wenn
man mal so schnell was hinschreibt. Natürlich gibt es keine idealen
Filter. Bei Butterworth geht der Betrag der Dämpfung in Richtung idealer
Rechteck, erreicht ihn aber nie, bei Bessel gilt das für die
Gruppenlaufzeit. Diese Filterfunktionen sind ja mal nach diesen
Forderungen modelliert worden.

Butterworth, sondern immer verrundet.


Das sind alle Amplitudenfrequenzgänge. Die einen mehr, die anderen
weniger. Einen steileren Verlauf den Amplitudenfrequenzganges erkauft
man grundsätzlich mit anderen Nachteilen (Gruppenlaufzeit, Welligkeit
im Durchlassbereich etc.)
Es geht ja hier um das Überschwingen an Unstetigkeiten. Wenn man sich
mal die Sprungantwort von Butterworth, Tschebyscheff, Cauer und sonstwie
elliptisch ansieht, dann gibt es bei höherer Ordnung einen immer
störenderen Einschwingvorgang, der wie eine wenig gedämpfte
Sinus-Schwingung aussieht. Dieser Einschwingvorgang war aber im Signal
nicht enthalten, sondern wird durch das Filter produziert. Bei
Bessel-Tiefpässen tritt das jedoch nicht auf. Deshalb würde ich hier
einen Bessel-Tiefpaß empfehlen, die Filterfunktion gibt es fertig
tabelliert, Tietze/Schenk oder andere.

Wegen der schlechteren Filterwirkung von Bessel müßte man aber evtl. die
Abtastrate erhöhen. Ein selbst optimiertes Filter würde ich wegen des
Aufwandes mal ausschließen, obwohl früher BurrBrown sowas mal bei
Audiocodecs glaube ich gemacht haben. Da lohnt sich das, wenn man nicht
überabtasten will.

Im Zeitbereich wird das Besselfilter zwar auch die Ecken verrunden,
aber keine Einschwinvorgänge produzieren und das gefilterte sehr
'ähnliche' Signal lediglich verzögern.


?
Beschäftige Dich bitte damit, wenn Du es nicht verstanden hast. Mit den
Einschwingvorgängen meine ich Überschwingen an Unstetigkeiten. Ok, hier
war meine Formulierung wieder nicht ganz exakt.

Also "Ecken verrunden": genau _das_ soll ein TP ja auch tun,
denn sonst wäre es kein TP. Da ein Rechtecksignal Frequenzanteile
im gesamten Spektrum (ab der Signalfrequenz) enthält, lässt sich
ein solches Signal niemals vollständig digitalisieren
(und übrigens auch nicht erzeugen, weder analog noch sonstwie).
s.o. Bessel-Tiefpässe produzieren definitionsgemäß kein Überschwingen.

Ich habe zwar von EKG keine Ahnung, allerdings würde ich mal
schätzen, dass dort Frequenzanteile bis 1kHz im Spiel sind.
Wenn du ein Filter höherer Ordnung nimmst (z.B. Butterworth
4. Ordnung) bei z.B. 1kHz Grenzfrequenz, dann wäre damit
vermutlich eine genügend genau Digitalisierung möglich.

Also ich sehe die Digitalisierung eines EKG-Signals nicht unbedingt
als Herausforderung an die Wissenschaft. Aber vielleicht habe ich
ja den eigentlichen Knackpunkt übersehen (bitte um Aufklärung).
Für mich ist das ganz normale Meßtechnik. Wenn es um die Darstellung
irgendwelcher 'Zacken' geht würde ich Folgendes machen: Mal eine
Modellzacke alleine vom Spektrum mit FFT simulieren und Bandbreite
abschätzen. Dann hat man die Hälfte der minimalen Abtastfrequenz. Mit
anschließender Fouriersynthese der abgebrochenen Fourierreihe sieht man
das Resultat im Zeitbereich. Wenn die 'Zacke' immer noch zu schlecht
ist, Abtastfrequenz weiter erhöhen und nochmal testen. Sowas kann man
mit freier Software selber machen (GNU) und braucht nicht unbedingt was
Teures zu kaufen. Nur selber nachdenken muß man :).

Nachdem man sich so vorgetastet hat, hängt die Qualität der Abtastung
nur noch vom Antialiasing-TP ab.

'Peaks' zu breiten 'Keulen' zerlaufen, die spektrale Komponenten
daneben zudecken.

Vor die FFT mußt Du natürlich auch einen Antialias-Tiefpaß setzen,
sonst siehst Du die Alias-Komponenten mit. Aber damit siehst Deine
Probleme im Frequenzbereich, die Dich jetzt im Zeitbereich stören. Nur
sind Spektren oft unübersichtlich, ich würde hier die Betrachtung im
Zeitbereich vorziehen.


?
Wo hast Du hier Probleme? Was ich schreibe, entstammt meinen Erfahrungen
aus der Praxis.


mfg. Winfried
 
Deshalb würde ich hier einen Bessel-Tiefpaß empfehlen,
Mit hoher Abtastrate digitalisieren ( d.h. jenseits
der Grenze wo das Eingangssignal noch viel Energie hat )
und dann downsamplen. Digital kann man ja ein FIR
nehmen, auch wenns viele Taps hat und das hat lineare
Phase.

MfG JRD
 
Hallo Rafael,

Rafael Deliano wrote:
Deshalb würde ich hier einen Bessel-Tiefpaß empfehlen,

Mit hoher Abtastrate digitalisieren ( d.h. jenseits
der Grenze wo das Eingangssignal noch viel Energie hat )
und dann downsamplen. Digital kann man ja ein FIR
nehmen, auch wenns viele Taps hat und das hat lineare
Phase.
kann man natürlich machen, digital filtern und downsamplen könnte vom
Signal wieder was wegfiltern. Ob das so gewünscht ist, weiß ich nicht.

Bei FIR-Tiefpässen hatte ich trotz hoher Ordnung und prinzipiell
konstanter Gruppenlaufzeit (Parks-McLellan) festgestellt, daß der
Zeitbereich nicht so gut wie erwartet aussieht. Ich meine mich an
Überschwingen zu erinnern, muß das bei Gelegenheit nochmal nachprüfen.
Eine Erklärung habe ich im Moment dafür nicht. Vielleicht waren es auch
nur Aliasing-Anteile, obwohl eigentlich im Codec ein SC-Tiefpaß drin
ist. Ich hatte öfters FIR-Filter mit DSP untersucht, FIR-Länge 85 oder
noch mehr.

mfg. Winfried
 
Hallo Jungs,

Durchlaß- zum Sperrbereich nicht ideal rechteckförmig ist wie bei z.B.

Also ich sehe die Digitalisierung eines EKG-Signals nicht unbedingt
als Herausforderung an die Wissenschaft. Aber vielleicht habe ich
ja den eigentlichen Knackpunkt übersehen (bitte um Aufklärung).
[...]
Nach meinem Verständnis ist das, was die FFT 'sieht' und zeigt, das
Ergebnis einer streng periodischen Funktion. Der Leakage-Effekt läßt die

Vor die FFT mußt Du natürlich auch einen Antialias-Tiefpaß setzen, sonst
siehst Du die Alias-Komponenten mit. Aber damit siehst Deine Probleme im
Wild zusammengezogen... egal.

Ich will gar keine FFT oder sonst welche Transformation machen. Es ist auch
jedem, der ein EKG mit 300 Sps abtastet, klar, dass er damit nicht alle
Frequenzkomponenten erreicht. Und dennoch macht man es oft. Die Frage, um
die es geht, heißt: "Wie mache ich die geringsten Fehler?"
Ziel ist und bleibt eine möglichst orginalgetreue Abbildung des Signals im
Zeitbereich.
Und hier zeigt sich eben, dass man durch ein AAF de facto zu einem Signal
kommt, das nach der Rekonstruktion dem Orginalsignal (ungefiltert) weniger
ähnlich sieht, als ohne dieses Filter, obwohl die Lehre immer behauptet,
dass man ohne dem AAF böse Fehler in das Signal bekäme.

Bis hierher will keiner mit FFT oder DFT oder sonstigen Verfahren auf das
Signal losgehen und auch später eher weniger... Ein Mediziner will nur
einfach das Signal im Zeitbereich sehen und das soll möglichst ähnlich
aussehen, wie das Orginal.
Was ich hier suche, ist eine sinnträchtige Erklärung, warum das Signal ohne
AAF bessser aussieht und ich auch keine Artefakte durch Aliasing sehen kann,
obwohl die nach gängiger Theorie zu erwarten gewesen wären. Wenn ich aber
solche Aliasingfehler im Signal nicht als störend ausmachen kann, dann sehe
ich auch keinen Sinn in einem Filter, nach dem das Signal sichtbar vom
Orginal verschieden aussieht.

Gemäß dem Motto, was nicht sein darf, kann auch nicht so sein, hilft hier in
der Argumentation nicht weiter.

Wenn ich ein bischen mehr Zeit finde, mach ich vielleicht noch ein bischen
Grafiken zum Thema, aber im Moment muss sich das ein bischen als
Hintergrundprozess halten;-)

Marte
 
Hallo Marte,

Bitte keine Kritik wegen "Tofu".

Wenn dein Signal ohne Filter "besser" aussieht als mit Filter,
dann liegt es daran, daß du wenig Signalanteile oberhalb der
halben Abtastfrequenz hast.

Ich gehe davon aus, daß für die Anzeige weitere Werte
zwischen den Abtastpunkten interpoliert werden.

Wie rekonstruierst du deine Signale für die Anzeige/Ausdruck?

Gar keine Interpolation? (Nur die Abtastpunkte werden angeschaut.)

Lineare Interploation?

sin(x)/x Interpolation?

Nur die letzte Methode erlaubt es Signalanteile bis nahe Fabtast/2
zu rekonstruieren.


Wieseo ist jetzt von 300 Abtastungen/s die Rede? Waren das nicht erst 100?

Gruß
Helmut



"Marte Schwarz" <marte.schwarz@gmx.de> schrieb im Newsbeitrag
news:dgm23o$cp9$1@news2.rz.uni-karlsruhe.de...
Hallo Jungs,

Durchlaß- zum Sperrbereich nicht ideal rechteckförmig ist wie bei z.B.

Also ich sehe die Digitalisierung eines EKG-Signals nicht unbedingt
als Herausforderung an die Wissenschaft. Aber vielleicht habe ich
ja den eigentlichen Knackpunkt übersehen (bitte um Aufklärung).

[...]
Nach meinem Verständnis ist das, was die FFT 'sieht' und zeigt, das
Ergebnis einer streng periodischen Funktion. Der Leakage-Effekt läßt die

Vor die FFT mußt Du natürlich auch einen Antialias-Tiefpaß setzen, sonst
siehst Du die Alias-Komponenten mit. Aber damit siehst Deine Probleme im
Wild zusammengezogen... egal.

Ich will gar keine FFT oder sonst welche Transformation machen. Es ist
auch
jedem, der ein EKG mit 300 Sps abtastet, klar, dass er damit nicht alle
Frequenzkomponenten erreicht. Und dennoch macht man es oft. Die Frage, um
die es geht, heißt: "Wie mache ich die geringsten Fehler?"
Ziel ist und bleibt eine möglichst orginalgetreue Abbildung des Signals im
Zeitbereich.
Und hier zeigt sich eben, dass man durch ein AAF de facto zu einem Signal
kommt, das nach der Rekonstruktion dem Orginalsignal (ungefiltert) weniger
ähnlich sieht, als ohne dieses Filter, obwohl die Lehre immer behauptet,
dass man ohne dem AAF böse Fehler in das Signal bekäme.

Bis hierher will keiner mit FFT oder DFT oder sonstigen Verfahren auf das
Signal losgehen und auch später eher weniger... Ein Mediziner will nur
einfach das Signal im Zeitbereich sehen und das soll möglichst ähnlich
aussehen, wie das Orginal.
Was ich hier suche, ist eine sinnträchtige Erklärung, warum das Signal
ohne
AAF bessser aussieht und ich auch keine Artefakte durch Aliasing sehen
kann,
obwohl die nach gängiger Theorie zu erwarten gewesen wären. Wenn ich aber
solche Aliasingfehler im Signal nicht als störend ausmachen kann, dann
sehe
ich auch keinen Sinn in einem Filter, nach dem das Signal sichtbar vom
Orginal verschieden aussieht.

Gemäß dem Motto, was nicht sein darf, kann auch nicht so sein, hilft hier
in
der Argumentation nicht weiter.

Wenn ich ein bischen mehr Zeit finde, mach ich vielleicht noch ein bischen
Grafiken zum Thema, aber im Moment muss sich das ein bischen als
Hintergrundprozess halten;-)

Marte
 
Hallo Helmut

Bitte keine Kritik wegen "Tofu".
von mir sowieso nicht ;-)

Wenn dein Signal ohne Filter "besser" aussieht als mit Filter,
dann liegt es daran, daß du wenig Signalanteile oberhalb der
halben Abtastfrequenz hast.
Das ist wohl richtig.

Wie rekonstruierst du deine Signale für die Anzeige/Ausdruck?
... Lineare Interploation?
meistens

sin(x)/x Interpolation?
ist mit so nicht geläufig. Riecht nach reichlich Rechenaufwand für einen ľC.

Wieseo ist jetzt von 300 Abtastungen/s die Rede? Waren das nicht erst 100?
Zahlen sind doch hier Schall und Rauch. Es geht ums prinzipielle. Das ganze
kannst Du mit fast beliebigen Abtastwerten machen, solange sie eben unteralb
der im Signal vorhandenen höchsten Frequenzanteilen bleiben. Diese liegen
beim EKG so bis 250 Hz, wobei das IMHO auch falsch ist, weil das ja wieder
als Mittelwert über das ganze EKG Signal aufgenommen ist und da fallen die
hohen Frequenzanteile eben wieder relativ unterrepräsentiert aus, weil ja
nur zu einem Bruchteil der Zeit überhaupt aktiv. Der QRS-Komplex alleine
betrachtet birgt sicher stärkere Anteile höherer Frequenten in sich, als
über lange Zeit gesampelt und dann eine FFT drüber gezogen. Das macht die
ganze Sache aber nur noch spannender.

Marte
 
"Marte Schwarz" <marte.schwarz@gmx.de> schrieb im Newsbeitrag
news:dgm23o$cp9$1@news2.rz.uni-karlsruhe.de...

Ich will gar keine FFT oder sonst welche Transformation machen. Es ist
auch
jedem, der ein EKG mit 300 Sps abtastet, klar, dass er damit nicht alle
Frequenzkomponenten erreicht. Und dennoch macht man es oft. Die Frage, um
die es geht, heißt: "Wie mache ich die geringsten Fehler?"
Ziel ist und bleibt eine möglichst orginalgetreue Abbildung des Signals im
Zeitbereich.
Und hier zeigt sich eben, dass man durch ein AAF de facto zu einem Signal
kommt, das nach der Rekonstruktion dem Orginalsignal (ungefiltert) weniger
ähnlich sieht, als ohne dieses Filter, obwohl die Lehre immer behauptet,
dass man ohne dem AAF böse Fehler in das Signal bekäme.
Das klappt immer dann, wenn deine Quelle (der Analogverstärker) keine
Signalanteile oberhalb der Nyquastfrequenz raushat. Kann so sein, ist aber
nicht immer gesichert. Der AAF ist die Versicherung dagegen, dass GARANTIERT
am AD-Wandler nix ankommt.

AAF bessser aussieht und ich auch keine Artefakte durch Aliasing sehen
kann,
obwohl die nach gängiger Theorie zu erwarten gewesen wären. Wenn ich aber
Weil der VErstärker dankenswerterweise keine nennenswerten hochfrequenten
Sachen ausspukt (da der von Hause aus auch eine recht begrenzte Bandbreite
hat)

solche Aliasingfehler im Signal nicht als störend ausmachen kann, dann
sehe
ich auch keinen Sinn in einem Filter, nach dem das Signal sichtbar vom
Orginal verschieden aussieht.
Eine Versicherung, um sicher zu gehen.
Ohne AAF ist wie poppen ohne Gummi. Geht schon, aber es kann bisweilen
unschöne Folgen haben ;-)

MfG
Falk
 
Hallo Falk,
....
kommt, das nach der Rekonstruktion dem Orginalsignal (ungefiltert)
weniger
ähnlich sieht, als ohne dieses Filter, obwohl die Lehre immer behauptet,
dass man ohne dem AAF böse Fehler in das Signal bekäme.

Das klappt immer dann, wenn deine Quelle (der Analogverstärker) keine
Signalanteile oberhalb der Nyquastfrequenz raushat.
Das tut er aber!

am AD-Wandler nix ankommt.
Genau das passiert aber. Genau unter dieser Voraussetzung findet die ganze
Diskussion statt. Die Filter machen mehr kaputt als das Aliasing.

Eine Versicherung, um sicher zu gehen.
Ohne AAF ist wie poppen ohne Gummi. Geht schon, aber es kann bisweilen
unschöne Folgen haben ;-)
Na super. Kein Wunder, dass es kaum noch Kinder gibt. Wer soll denn Deine
Rente mal zahlen? Das ist doch alles Humbug, selbst bei Kapitalgedeckter
Rente. Wer soll denn die vielen Anlagen wieder Aufkaufen, die dann zur Rente
verkauft werden sollen, egal ob Aktien oder Häuser oder...

Schon wieder OT...
Und tschüß

Marte
 

Welcome to EDABoard.com

Sponsor

Back
Top