M
Martin Laabs
Guest
Hallo,
ich möchte mich erst mal für das Subject entschuldigen. Aber mir ist
für meine Fragestellung einfach nichts besseres eingefallen.
Auch die NG passt u.U. nicht so gut aber ich möchte es nicht nach
de.sci.math posten weil es eher ein Problem aus der Nachrichtentechnik
ist.
Ich schreibe gerade ein Programm welches mir für ein OFDM System
eine möglichst günstige Synchronisationssequenz erzeugt.
Dafür betrachte ich das peak average power ratio (PapR) des
Zeitsignales und das PapR der Autokorrelationsfunktion. Um ein
Optimum zu finden arbeitet mein Algorithmus genetisch, verändert
also das Spektrum ein wenig und schaut ob es besser geworden ist.
Die besten 3 (oder wie viel auch immer) kommen durch und mutieren
weiter.
Nun funktioniert dieser Ansatz aber nur dann zufriedenstellen (also
schneller als ein wildes rumprobieren) wenn ich davon ausgehen kann,
das eine kleine Änderung im Spektrum auch nur eine kleine Änderung des
PapR des Zeitsignales erzeugt.
Ich habe dazu eine Versuchsreihe unternommen. Ich habe ein Spektrum S
der Länge L vollständig mit zufälligen BPSK Symbolen (1,-1) gefüllt.
Nun habe ich L mal jeweils ein Symbol in S verändert. Ich habe also
L Versionen des originalen Spektrums in der jeweils nur ein Symbol
geändert ist.
Von diesen L Spektren habe ich das PapR berechnet und das die
maximale Abweichung delta PapR gesucht.
Dies habe ich, da das Originalspektrum S ja zufällig war, jeweils
50 mal gemacht und abermals das Maximum gesucht.
Dabei ist mir aufgefallen, dass das maximale delta PapR von der
Länge L des Spektrums abhängig ist. Das scheint erst mal nachvollziehbar
weil eine Änderung von einem Symbol unter vielen weniger auffällt als
bei wenigeren.
Diese Untersuchungen habe ich für Spektralgrößen von 3-50 gemacht
und erhalte einen Graphen der, ähnlich wie 1/x, asymptotisch gegen
0dB delta PapR läuft.
Nun frage ich mich ob und wie man dies analytisch lösen kann und
ob sich darüber schon mal jemand mehr Gedanken gemacht hat.
Vielen Dank
Martin L.
ich möchte mich erst mal für das Subject entschuldigen. Aber mir ist
für meine Fragestellung einfach nichts besseres eingefallen.
Auch die NG passt u.U. nicht so gut aber ich möchte es nicht nach
de.sci.math posten weil es eher ein Problem aus der Nachrichtentechnik
ist.
Ich schreibe gerade ein Programm welches mir für ein OFDM System
eine möglichst günstige Synchronisationssequenz erzeugt.
Dafür betrachte ich das peak average power ratio (PapR) des
Zeitsignales und das PapR der Autokorrelationsfunktion. Um ein
Optimum zu finden arbeitet mein Algorithmus genetisch, verändert
also das Spektrum ein wenig und schaut ob es besser geworden ist.
Die besten 3 (oder wie viel auch immer) kommen durch und mutieren
weiter.
Nun funktioniert dieser Ansatz aber nur dann zufriedenstellen (also
schneller als ein wildes rumprobieren) wenn ich davon ausgehen kann,
das eine kleine Änderung im Spektrum auch nur eine kleine Änderung des
PapR des Zeitsignales erzeugt.
Ich habe dazu eine Versuchsreihe unternommen. Ich habe ein Spektrum S
der Länge L vollständig mit zufälligen BPSK Symbolen (1,-1) gefüllt.
Nun habe ich L mal jeweils ein Symbol in S verändert. Ich habe also
L Versionen des originalen Spektrums in der jeweils nur ein Symbol
geändert ist.
Von diesen L Spektren habe ich das PapR berechnet und das die
maximale Abweichung delta PapR gesucht.
Dies habe ich, da das Originalspektrum S ja zufällig war, jeweils
50 mal gemacht und abermals das Maximum gesucht.
Dabei ist mir aufgefallen, dass das maximale delta PapR von der
Länge L des Spektrums abhängig ist. Das scheint erst mal nachvollziehbar
weil eine Änderung von einem Symbol unter vielen weniger auffällt als
bei wenigeren.
Diese Untersuchungen habe ich für Spektralgrößen von 3-50 gemacht
und erhalte einen Graphen der, ähnlich wie 1/x, asymptotisch gegen
0dB delta PapR läuft.
Nun frage ich mich ob und wie man dies analytisch lösen kann und
ob sich darüber schon mal jemand mehr Gedanken gemacht hat.
Vielen Dank
Martin L.