Zufallsgenerator durch Auslesen von Messfehlern

  • Thread starter Stefan Weinzierl
  • Start date
S

Stefan Weinzierl

Guest
NatĂźrlich ist mir wie wahrscheinlich jedem, der sich fĂźr dieses Post hier
interessiert, bewusst, wie wichtig "gute" Zufallszahlen fĂźr eine sichere
und starke VerschlĂźsselung sind. Wenn ich fĂźr meine eigenen
Progrqammierprojekte auf mehr entrope Zufallswerte zurßckgreifen hätte
kĂśnnen, als wie sie durch die Zufallsfunktion unter Open Office generiert
werden, wäre ich ja auch recht froh, und kÜnnte so wahrscheinlich die
Angriffsicherheit meiner Produkte noch beträchtlich verbessern. Es ist mir
aber unverständlich, dass es so schwer sein soll, auch wirklich starke
Zufalsswerte zu produzieren. Ich muss doch nur im Rahmen irgendeiner
Messung anstatt den eigentlichen MESSWERTEN die Werte, die durch den
MESSFEHLER entstanden sind, auslesen.

Diese Werte genauer gesagt, diejenigen Werte, welche unterhhalb der
Messgenauigkeit eines Messgerätes ausgelesen werden kÜnnen, sind reine und
eindeutige Zufallsprodukte, und zwar umso mehr, desto mehr man sich von dem
gerade noch sinnvoll messbaren Bereich entfernt. Das ist ganz klar. WĂźrden
nämlich im Bereich unterhalb der Messgenauigkeit eines Messgerätes doch
noch irgendwelche immer wiederkehrende Regelmäßigkeiten auftreten, kann man
dann im Grunde genommen nicht mehr von Messfehlern, die in diesem Bereich
auftreten, sprechen. Das Gerät wßrde in diesem Fall ja auch innerhalb
dieses Bereich replizierbare Daten produzieren. Zwar wĂźrde es vielleicht
nicht mehr das messen, was es eigentlich soll, aber es wĂźrde immer noch
etwas messen. Außerdem, wenn man den Gedanken, dass sich unterhalb des
Messbereiches eines Messgerätes noch irgendwelche Regelmäßigkeiten finden
lassen, ins Undendliche weiterfĂźhrt, wĂźrde diese Annahme mit letzter
Konsequenz beinhalten, dass in der Natur Konzepte wie "Chaos" oder "Zufall"
Ăźberhaupt nicht vorkommen. Man kĂśnnte ja dann immer wieder wiederkehrende
Regeln und Gesetzmäßigkeiten entdecken, ganz gleich, wie weit man sich von
dem Bereich, bei dem die Messgenauigkeit aufhĂśhrt, wegbewegt.

Da jede Messung bekanntlich immer fehlerbehaftet ist, lassen sich Werte von
Messfehleren, im Grunde genommen auch von jeder beliebigen Messung, ganz
gleich wie sie auch immer geartet sein sollte,auslesen. Damit mĂźssten sich
geeignete Zufallswerte mittels einer jeden Messung physikalischer Vorgänge
ermitteln lassen, wobei sich für diesen Fall Aspekte wie z.B. ein großer
Miniaturisierungsgrad oder mangelnde Fertigungspräzision eher als
fĂśrderlich auswirken, als dass sie eine Behinderung darstellen wĂźrden.
Oder, um es einmal krass mit anderen Worten auszudrücken: Je "saumäßiger"
eine Messung durchgefĂźhrt wird, umso hĂśher dĂźrfte die Ausbeute an
Zufallswerten sein.

Wo ist also das Problem, wenn es um die Generierung von Zufallswerten geht?


--
PsyPaM: Neue Hilfsmittel und Methoden zur Benutzeridentifikation-

Stefan Weinzierl; Bambergerstr.31; 96135 Stegraurach
Fon: 0951/2970067; Fax: 0951/2970068
Website: http://www.PsyPaM.com; E-Mail: Stefan.Weinzierl@PsyPaM.com
 
Stefan Weinzierl <stefan.weinzierl@psypam.com> wrote in
news:ccln6o$vv4$4@online.de:

Wo ist also das Problem, wenn es um die Generierung von Zufallswerten
geht?
Wo willst du ein nicht-deterministisches Messsignal herbekommen?

Grüße, Sebastian
 
Stefan Weinzierl <stefan.weinzierl@psypam.com> schrieb im Beitrag <ccln6o$vv4$4@online.de>...
Diese Werte genauer gesagt, diejenigen Werte, welche unterhhalb der
Messgenauigkeit eines Messgerätes ausgelesen werden kÜnnen, sind reine und
eindeutige Zufallsprodukte
Nein. Da ist 50Hz Brumm, der lokale Mobilfunkmast und jede Menge anderer
determinierbarer Werte drin, nicht viel besser als ein guter Pseudozufallszahlengenerator.
Aber das 2t-niedrigste Bit des A/D-Wandlers ist recht zufaellig.

Spielt eh keine Rolle. 99.99% der selbstgemachten Verschuesselungsmethoden sind eh weak.
--
Manfred Winterhoff, reply-to invalid, use mawin at despammed.com
homepage: http://www.geocities.com/mwinterhoff/
de.sci.electronics FAQ: http://dse-faq.elektronik-kompendium.de/
Read 'Art of Electronics' Horowitz/Hill before you ask.
Lese 'Hohe Schule der Elektronik 1+2' bevor du fragst.
 
Stefan Weinzierl schrieb:

Wo ist also das Problem, wenn es um die Generierung von Zufallswerten geht?
Was Du beschreibst, ist nur eingeschränkt nutzbar.

Wenn eine Messreihe aufgezeichnet wird, gibt es einige Einflussgrössen, die die
Messung verfälschen. Die Abweichung vom tatsächlichen Messwert wird sich z.B. bei
einer korrekten A/D-Wandlung nur in den letzten Digits ändern. Wie die Verteilung
des Messfehlers aussieht, hängt von vielen Faktoren ab, im ungünstigsten Fall
wäre der Fehler ein konstantner Offset, der möglicherweise temperaturabhängig
ist. Um grosse Zufallszahlen zu erhalten, müssen Einflussgrössen vorhanden sein,
die zu einer starken Streuung führen. Das kann z.B. ein verrauschtes Signal
leisten.
In letzter Konsequenz würde das bedeuten, ein extrem schlechtes
Signal-/Rauschverhältnis zu produzieren, was im Extremfall auf ein Verschwinden
des Signals unter dem Rauschen bedeuteten würde.

Also reicht hier z.B. eine analoge Rauschquelle, die mit der gewünschten
Auflösung digitalisiert wird.
Es gibt bestimmt auch geeignete Verfahren, die rein digital arbeiten. Die
Rechneruhr läuft beispielsweise unabhängig vom Rechnertakt liefert somit gute
Überlagerungsmöglichkeiten zwischen Rechner- und Uhrtakt.

Gruss Udo
 
Hallo,

http://www.daserste.de/dimensionpsi/gaensehaut_01.asp

wenn ich das so lese, ist mir der Pseudozufall immer noch lieber.
Denn anscheinend lässt sich der "echte" Zufall leicher beeinflussen
als diese Pseudo-Zufall-Chaosformel.

Gruß Andreas
 
Da jede Messung bekanntlich immer fehlerbehaftet ist, lassen sich Werte
von
Messfehleren, im Grunde genommen auch von jeder beliebigen Messung, ganz
gleich wie sie auch immer geartet sein sollte,auslesen. Damit müssten sich
geeignete Zufallswerte mittels einer jeden Messung physikalischer Vorgänge
ermitteln lassen, wobei sich für diesen Fall Aspekte wie z.B. ein großer
Miniaturisierungsgrad oder mangelnde Fertigungspräzision eher als
förderlich auswirken, als dass sie eine Behinderung darstellen würden.
Oder, um es einmal krass mit anderen Worten auszudrücken: Je "saumäßiger"
eine Messung durchgeführt wird, umso höher dürfte die Ausbeute an
Zufallswerten sein.

Wo ist also das Problem, wenn es um die Generierung von Zufallswerten
geht?

Das rein zufällige "Rauschen" von Messwerten ist ja nur eine Komponente.
Sehr oft überwiegen systematische Abweichungen hervorgerufen durch
Linearitätsfehler, Temperaturdrift, Alterung, Netzbrumm, thermische
Schwingungen usw.

Bei Zufallswerten kommt es nicht nur auf den eigentlichen Zufallscharakter
an, sondern vor allem auf die Verteilung, d. h die Zufallszahlen sollen eine
Gaussverteilung haben, die für numerische Anwendungen in eine Boxverteilung
umgerechnet wird. Ob irgendein Mechanismus zur Herstellung von Zufallszahlen
geeignet ist, muss mit statistischen Methoden (Normalverteilungstest)
überprüft werden. Für Sicherheitsanwendungen wird man das Verfahren wohl
auch kryptologisch prüfen müssen.

Einen Hardware-Zufallsgenerator zu bauen, der diesen strengen Anforderungen
genügt, ist m. E. nicht so einfach. Klar, man nimmt irgendeinen
physikalischen Vorgang wie z.B. das thermische Rauschen einer Zenerdiode
oder wenn man etwas expermientierfreudiger ist, radioaktiven Zerfall, und
gewinnt daraus Zufallszahlen. Die Kunst besteht dann darin, jede Systematik
s.o. zu vermeiden.

In jedem Fall ist das ein speziell dafür entwickltes Gerät. Einfach
irgendein Messgerät zu nehmen und den Messfehler in eine Zufallszahl
umzurechnen, wird ziemlich sicher nicht funktionieren.

Georg
 
Dazu:
http://www.randomnumbers.info/content/Generating.htm
Leider ist der Generator aber gerade in Reparatur.
Ich habe hier noch ein paar gebrauchte Zufallszahlen: 3 22 4 19 8 :)
fxl
 
http://www.daserste.de/dimensionpsi/gaensehaut_01.asp

wenn ich das so lese, ist mir der Pseudozufall immer noch lieber.
Denn anscheinend lässt sich der "echte" Zufall leicher beeinflussen
als diese Pseudo-Zufall-Chaosformel.

"Ich spüre einen Erschütterung der Macht"

Georg
 
Andreas Fecht spoke thusly:

http://www.daserste.de/dimensionpsi/gaensehaut_01.asp
Ach Du lieber Himmel. Ich hätte nie gedacht, daß sich die ARD zu
so einem Mist hinreißen läßt.


Tschüs,

Sebastian

--
http://www.baumaschinen-modelle.net

Neu: Schwerlast-FAQ
 
Sebastian Suchanek <sebastian.suchanek@gmx.de> srieb:

Ach Du lieber Himmel. Ich hätte nie gedacht, daß sich die ARD zu
so einem Mist hinreißen läßt.
Wieso dass denn nicht? Beim permanenten Kampf um Einschaltquoten ist
doch jedes Mittel Recht! Wenn eine Mehrheit solchen Humbug hĂśren/sehen
will, dann wird es halt gesendet, vor dem Mutantenstadel schrecken die
ja auch nicht zurĂźck. Oder sieh dir die gequirlte Historienkacke
Sonntags um 19:30 im ZDF an...
Das war Grund genug, meinen Fernseher in die Tonne zu treten um nicht
noch zusehen zu mĂźssen, wie meine GebĂźhren von/fĂźr Hirnamputierte(n)
verpulvert werden, und gelegentliche Fernsehversuche bei Freunden
bestätigen mich immer wieder in dieser Entscheidung.

TschĂźs,
Sebastian
Dito,
Michael

P.S.: Entschuldigung an die Gruppe fĂźr dieses OT, aber das wollte
dringend raus...
 
Stefan Weinzierl schrieb:

Wo ist also das Problem, wenn es um die Generierung von Zufallswerten geht?
Ich weiß nicht, WAS für dich eine gute Zufallszahl ist, aber es gibt
doch genügend Rauschquellen, die man dafür heranziehen kann.

- Carsten

--
Audio Visual Systems fon: +49 (0)2234 601886
Carsten Kurz fax: +49 (0)2234 601887
Von-Werth-Straße 111 email: audiovisual@t-online.de
50259 Pulheim / Germany WGS84:N50°57'50.2" E06°47'28.5"
 
"Stefan Weinzierl" <stefan.weinzierl@psypam.com> schrieb im
Newsbeitrag news:ccln6o$vv4$4@online.de...

.... Diese Werte genauer gesagt, diejenigen Werte, welche unterhhalb
der
Messgenauigkeit eines Messgerätes ausgelesen werden können, sind
reine und
eindeutige Zufallsprodukte, und zwar umso mehr, desto mehr man sich
von dem
gerade noch sinnvoll messbaren Bereich entfernt. Das ist ganz klar.
Nein. Weder 'rein' noch 'eindeutig' IMHO, wobei ich natürlich nicht
exakt weiss was mit diesen Attributen genau von dir gemeint ist.
Jedenfalls: Die von dir angesprochenen 'Werte' enthalten neben den
stochastischen auch immer deterministische Anteile, (etwa durch
Interkorrelation mit exogenen Variablen (ein Beispiel wäre EMI), durch
Autokorrelation der zu messenden Wertes selbst (ein Beispiel wären
etwa Mischprodukte durch Nichtlinearitäten) u.a. Ursachen).

Dass bei einem AD-Wandler z.B. die untersten bits 'kippen' ist ja
nicht gottgegebener (*g*) Zufall sondern Ergebnis von u.A.
Designfehlern, Masseproblemen u.s.w. mit deterministischen
Auswirkungen. Oder denke etwa an Eigenerwärmung --> Temperaturdrift,
da hast du dann einen langfristigen Trend in deinen scheinbar regellos
schwankenden untersten bits...

Wenn die untersten bits dem menschlichen Auge 'scheinbar regellos'
erscheinend kippen, heisst das nicht dass keine systematischen
Komponenten enthalten sind. Man kann das natürlich untersuchen, es
gibt da Verfahren...

Würden
nämlich im Bereich unterhalb der Messgenauigkeit eines Messgerätes
doch
noch irgendwelche immer wiederkehrende Regelmäßigkeiten auftreten,
kann man
dann im Grunde genommen nicht mehr von Messfehlern, die in diesem
Bereich
auftreten, sprechen.
schau mal, wie Messfehler definiert und klassifiziert werden
(systematisch und unsystematische, letztere mit Verteilungsannahmen
u.s.w.)... Deine Argumentation setzt einfach Messfehler=Zufall, das
ist so nicht richtig.

Das Gerät würde in diesem Fall ja auch innerhalb
dieses Bereich replizierbare Daten produzieren.Zwar würde es
vielleicht
nicht mehr das messen, was es eigentlich soll, aber es würde immer
noch
etwas messen.
Mal Butter bei die Fische...: Ja, ein Spannungsmessgerät 'misst'
möglicherweise auch seine Eigenerwärmung, wenn man den Begriff
'messen' so fasst: "Abbildung eines 'empirischen Relativs' auf ein
'numerisches Relativ'". Da es dafür nicht direkt gebaut ist, ist die
Messgenauigkeit (wie immer man die nun exakt spezifiziert) der
Variable 'Eigentemperatur' vielleicht ziemlich lausig und wenn der
Entwickler das Gerät z.B. temperaturkompensiert hat, taucht die
Messvariable 'Eigentemperatur' hoffentlich nur noch sehr stark
gedämpft im angezeigten (Spannungs)Wert auf...

Auch der Begriff 'messen' hat eine spezielle, definierte Bedeutung
(s.o.). Bin mir nicht ganz sicher über den exakten Sinn deines o.a.
Satzes, aber mir scheint deine Argumentation setzt einfach
'Messen=etwas anzeigen' (?). Das stimmt so natürlich nicht.

Außerdem, wenn man den Gedanken, dass sich unterhalb des
Messbereiches eines Messgerätes noch irgendwelche Regelmäßigkeiten
finden
lassen, ins Undendliche weiterführt, würde diese Annahme mit letzter
Konsequenz beinhalten, dass in der Natur Konzepte wie "Chaos" oder
"Zufall"
überhaupt nicht vorkommen.
Ein Messgerät ist aber kein Natur- sondern ein Kunstprodukt. :)

Als Zufallsprodukt wurde in diesem thread ja schon der radioaktive
Zerfall genannt... Auf dem Weg, dieses Naturereignis in Zufallszahlen
zu überführen brauch ich ein Gerät, dass diese Abbildung vornimmt.
Vielleicht ein Zählrohr mit Verstärker und Frequenzzähler oder
sowas --- und da kann es ja schon sein dass das Zählrohr und der
Verstärker irgendwelche Systematik in die zeitliche Repräsentation der
ursprünglich zeitlich unkorreliert irgendwo rausflitzenden
Kernteilchen zuzusagen dazumischt oder draufaddiert oder wie auch
immer. Auch Einflüsse systematischer Eigenfehler des Gerätes
(Temperaturdrift, Bandbreitenbegrenzung, systematische Verzerrung im
Quantisierungsprozess) werden sich wohl nicht komplett eliminieren
lassen...

Zur Begrifflichkeit: Chaos ist was anderes als Zufall...
(Zufallszahlen hätte ich gerne unkorreliert, bei chaotischen Prozessen
aber kann mir sogar die Abbildungsvorschrift bekannt sein...)

Man könnte ja dann immer wieder wiederkehrende
Regeln und Gesetzmäßigkeiten entdecken, ganz gleich, wie weit man
sich von
dem Bereich, bei dem die Messgenauigkeit aufhöhrt, wegbewegt.
Aus falschen Annahmen folgt natürlich im Sinne deiner
Argumentation --- Beliebiges.
D.h.: Ja, irgendwelche Gesetzmässigkeiten werden immer da sein.

Da jede Messung bekanntlich immer fehlerbehaftet ist, lassen sich
Werte von
Messfehleren, im Grunde genommen auch von jeder beliebigen Messung,
ganz
gleich wie sie auch immer geartet sein sollte,auslesen.
Ich nehme den Satz so, wie er da steht.
Nein! Ich kenne nur: Man hat ein Gerät und es lassen auf einer Anzeige
Messwerte ablesen.

Ein Gerät mit zwei Anzeigen, eine für den 'exakten' Messwert und eine
zweite für den geräteinduzierten 'Messfehler' (und womöglich weitere
für die Bedienungsfehler *g*) habe ich noch nicht gesehen.

Bestenfalls habe ich eine Angabe über dem maximal auftretenden
gerätebedingten Fehler im Messintervall unter speziellen Bedingungen,
sagen wir mal sowas wie +/-5% absolute Genauigkeit oder so... Wie
sich dieser Fehler in diesem Intervall verteilt und in welcher Grösse,
weiss ich i.d.R. nicht. Was ausserhalb dieses Intervalls passiert,
weiss ich schon überhaupt gar nicht mehr...

Wo ist also das Problem, wenn es um die Generierung von
Zufallswerten geht?
Das kann man sich klar machen, wenn man erst einmal eine Vorstellung
davon hat, was 'Zufall' ist :)

Gängige physikalische Quellen gehen im Modell davon aus, dass
'unendlich viele mit- und untereinander unkorrelierte
Elementarereignisse' etwas (eine Spannungszeitreihe, einen
stochastischen Prozess) bewirken. Sagen wir mal, dieses etwas, der
generierte Prozess sei zeitlich unkorreliert, dann könnte man das
bewirkte Ergebnis (einfach mal so) e_t nennen.

Dazu gibt es (neben anderen Konzepten von Zufall) die Definition von
Herrn Bayes; in seinem Ansatz findet sich der Ausdruck lim_(n->inf)
von etwas.
Da in der oben genannten physikalischen Quelle nicht wirklich
unendlich viele Isotope vorliegen dürften... Aber gut, natürlich ist
das wie immer eine Frage der Genauigkeitsansprüche :)

Möchte ich dieses physikalische Ergebnis von etwas (könnte man ums
anschaulicher zu machen z.B. 'weisses Rauschen' nennen) nun auf Zahlen
abbilden, d.h. messen, brauche ich ein Gerät dass diese Abbildung
vornimmt. Ein Zufallszahlengenerator also. Der macht mir, so hätte ich
es gerne untereinander zeitlich unkorrelierte Zahlen, eine
Zufallszahlenreihe, ich nenne sie mal y(t).

Das Gerät soll also machen: y(t) = f(e_t)

Dummerweise schaffen das reale Geräte nicht... irgendwie kommt zum
einen immer was dazu (A) und zum anderen wird immer was weggelassen
(B)...

(A)
Hinzu kommt ein deterministischer Anteil. Entweder von aussen oder
durch das Gerät selbst... Beispiele s.o.

(B)
Ein reales Gerät kann den physikalischen Prozess womöglich gar nicht
100%ig erfassen, (schon das Zählrohr könnte eine bauartbedingt max.
Zählrate haben, d.h. Bandbreite nicht unendlich :) e_t wird also nur
als Abbildung g(e_t) erfasst... Verzerrt, gefiltert, wie man es
nennen möchte.

Man bekommt dann nicht y(t) = f(e_t) wie gewünscht sondern halt:
y(t) = f(det. Variablen) + g(e_t) oder so...

Das ist dann das Problem.

Gruss: Rüdiger
 
Ruediger Klenner wrote:

"Stefan Weinzierl" <stefan.weinzierl@psypam.com> schrieb im
Newsbeitrag news:ccln6o$vv4$4@online.de...

.... Diese Werte genauer gesagt, diejenigen Werte, welche unterhhalb
der
Messgenauigkeit eines Messgerätes ausgelesen werden können, sind
reine und
eindeutige Zufallsprodukte, und zwar umso mehr, desto mehr man sich
von dem
gerade noch sinnvoll messbaren Bereich entfernt. Das ist ganz klar.

Nein. Weder 'rein' noch 'eindeutig' IMHO, wobei ich natürlich nicht
exakt weiss was mit diesen Attributen genau von dir gemeint ist.
Jedenfalls: Die von dir angesprochenen 'Werte' enthalten neben den
stochastischen auch immer deterministische Anteile, (etwa durch
Interkorrelation mit exogenen Variablen (ein Beispiel wäre EMI), durch
Autokorrelation der zu messenden Wertes selbst (ein Beispiel wären
etwa Mischprodukte durch Nichtlinearitäten) u.a. Ursachen).

Dass bei einem AD-Wandler z.B. die untersten bits 'kippen' ist ja
nicht gottgegebener (*g*) Zufall sondern Ergebnis von u.A.
Designfehlern, Masseproblemen u.s.w. mit deterministischen
Auswirkungen. Oder denke etwa an Eigenerwärmung --> Temperaturdrift,
da hast du dann einen langfristigen Trend in deinen scheinbar regellos
schwankenden untersten bits...

Wenn die untersten bits dem menschlichen Auge 'scheinbar regellos'
erscheinend kippen, heisst das nicht dass keine systematischen
Komponenten enthalten sind. Man kann das natürlich untersuchen, es
gibt da Verfahren...

Würden
nämlich im Bereich unterhalb der Messgenauigkeit eines Messgerätes
doch
noch irgendwelche immer wiederkehrende Regelmäßigkeiten auftreten,
kann man
dann im Grunde genommen nicht mehr von Messfehlern, die in diesem
Bereich
auftreten, sprechen.

schau mal, wie Messfehler definiert und klassifiziert werden
(systematisch und unsystematische, letztere mit Verteilungsannahmen
u.s.w.)... Deine Argumentation setzt einfach Messfehler=Zufall, das
ist so nicht richtig.

Das Gerät würde in diesem Fall ja auch innerhalb
dieses Bereich replizierbare Daten produzieren.Zwar würde es
vielleicht
nicht mehr das messen, was es eigentlich soll, aber es würde immer
noch
etwas messen.

Mal Butter bei die Fische...: Ja, ein Spannungsmessgerät 'misst'
möglicherweise auch seine Eigenerwärmung, wenn man den Begriff
'messen' so fasst: "Abbildung eines 'empirischen Relativs' auf ein
'numerisches Relativ'". Da es dafür nicht direkt gebaut ist, ist die
Messgenauigkeit (wie immer man die nun exakt spezifiziert) der
Variable 'Eigentemperatur' vielleicht ziemlich lausig und wenn der
Entwickler das Gerät z.B. temperaturkompensiert hat, taucht die
Messvariable 'Eigentemperatur' hoffentlich nur noch sehr stark
gedämpft im angezeigten (Spannungs)Wert auf...

Auch der Begriff 'messen' hat eine spezielle, definierte Bedeutung
(s.o.). Bin mir nicht ganz sicher über den exakten Sinn deines o.a.
Satzes, aber mir scheint deine Argumentation setzt einfach
'Messen=etwas anzeigen' (?). Das stimmt so natürlich nicht.

Außerdem, wenn man den Gedanken, dass sich unterhalb des
Messbereiches eines Messgerätes noch irgendwelche Regelmäßigkeiten
finden
lassen, ins Undendliche weiterführt, würde diese Annahme mit letzter
Konsequenz beinhalten, dass in der Natur Konzepte wie "Chaos" oder
"Zufall"
überhaupt nicht vorkommen.

Ein Messgerät ist aber kein Natur- sondern ein Kunstprodukt. :)
Im dem Sinne, wie ich es meine ist auch ein Messgeraet ein Naturprodukt. Es
ist wie jedes Ding auf dieser Welt den gleichen Naturgesetzen unterworfen.
(Oder wendest du zur Berechnung deines Messgeraetes andere Formeln an, wie
du sie bentuzt, um Berechenungen ueber andere Naturereigenisse
anzustellen ;-)


Als Zufallsprodukt wurde in diesem thread ja schon der radioaktive
Zerfall genannt... Auf dem Weg, dieses Naturereignis in Zufallszahlen
zu überführen brauch ich ein Gerät, dass diese Abbildung vornimmt.
Vielleicht ein Zählrohr mit Verstärker und Frequenzzähler oder
sowas --- und da kann es ja schon sein dass das Zählrohr und der
Verstärker irgendwelche Systematik in die zeitliche Repräsentation der
ursprünglich zeitlich unkorreliert irgendwo rausflitzenden
Kernteilchen zuzusagen dazumischt oder draufaddiert oder wie auch
immer. Auch Einflüsse systematischer Eigenfehler des Gerätes
(Temperaturdrift, Bandbreitenbegrenzung, systematische Verzerrung im
Quantisierungsprozess) werden sich wohl nicht komplett eliminieren
lassen...

Zur Begrifflichkeit: Chaos ist was anderes als Zufall...
(Zufallszahlen hätte ich gerne unkorreliert, bei chaotischen Prozessen
aber kann mir sogar die Abbildungsvorschrift bekannt sein...)

Man könnte ja dann immer wieder wiederkehrende
Regeln und Gesetzmäßigkeiten entdecken, ganz gleich, wie weit man
sich von
dem Bereich, bei dem die Messgenauigkeit aufhöhrt, wegbewegt.

Aus falschen Annahmen folgt natürlich im Sinne deiner
Argumentation --- Beliebiges.
D.h.: Ja, irgendwelche Gesetzmässigkeiten werden immer da sein.
Gesetzmaessigkeiten sind nichts anderes als Zusammenhaenge zwischen
verschiedenen Parametern. Und Zusammenhaenge zwischen zwei Parametern kann
man auch als "Korrelationen" bezeichnen. Da, wie ich gerade gelernt habe,
Zufallsszahlen unkorreliert sein mĂźssen. Gibt es nach deiner Definition
ueberhaupt keine Zufallszahlen.

Da jede Messung bekanntlich immer fehlerbehaftet ist, lassen sich
Werte von
Messfehleren, im Grunde genommen auch von jeder beliebigen Messung,
ganz
gleich wie sie auch immer geartet sein sollte,auslesen.

Ich nehme den Satz so, wie er da steht.
Nein! Ich kenne nur: Man hat ein Gerät und es lassen auf einer Anzeige
Messwerte ablesen.
Genau das meine ich.

Ein Gerät mit zwei Anzeigen, eine für den 'exakten' Messwert und eine
zweite für den geräteinduzierten 'Messfehler' (und womöglich weitere
für die Bedienungsfehler *g*) habe ich noch nicht gesehen.
Doch. Wenn ich auf meinem Multimeter 12.7 Volt angezeigt bekomme, und ich
einen Messfehler von +-5% habe, dann liegt der wahre Wert meiner Messung
irgendwo zwischen 12.1 und 13.3.

Bestenfalls habe ich eine Angabe über dem maximal auftretenden
gerätebedingten Fehler im Messintervall unter speziellen Bedingungen,
sagen wir mal sowas wie +/-5% absolute Genauigkeit oder so...
Tschuldigung. Jetzt erst weiter gelesen.
Wie
sich dieser Fehler in diesem Intervall verteilt und in welcher Grösse,
weiss ich i.d.R. nicht.
Super! Genau das sind doch Eigenschaften von Zufallswerten. So was will ich
haben.
Was ausserhalb
(Ich meine ja innerhalb dieses Intervalls)
dieses Intervalls passiert,
weiss ich schon überhaupt gar nicht mehr...

Wo ist also das Problem, wenn es um die Generierung von
Zufallswerten geht?


Das kann man sich klar machen, wenn man erst einmal eine Vorstellung
davon hat, was 'Zufall' ist :)

Gängige physikalische Quellen gehen im Modell davon aus, dass
'unendlich viele mit- und untereinander unkorrelierte
Elementarereignisse' etwas (eine Spannungszeitreihe, einen
stochastischen Prozess) bewirken. Sagen wir mal, dieses etwas, der
generierte Prozess sei zeitlich unkorreliert, dann könnte man das
bewirkte Ergebnis (einfach mal so) e_t nennen.

Dazu gibt es (neben anderen Konzepten von Zufall) die Definition von
Herrn Bayes; in seinem Ansatz findet sich der Ausdruck lim_(n->inf)
von etwas.
Da in der oben genannten physikalischen Quelle nicht wirklich
unendlich viele Isotope vorliegen dürften... Aber gut, natürlich ist
das wie immer eine Frage der Genauigkeitsansprüche :)

Möchte ich dieses physikalische Ergebnis von etwas (könnte man ums
anschaulicher zu machen z.B. 'weisses Rauschen' nennen) nun auf Zahlen
abbilden, d.h. messen, brauche ich ein Gerät dass diese Abbildung
vornimmt. Ein Zufallszahlengenerator also. Der macht mir, so hätte ich
es gerne untereinander zeitlich unkorrelierte Zahlen, eine
Zufallszahlenreihe, ich nenne sie mal y(t).

Das Gerät soll also machen: y(t) = f(e_t)

Dummerweise schaffen das reale Geräte nicht... irgendwie kommt zum
einen immer was dazu (A) und zum anderen wird immer was weggelassen
(B)...

(A)
Hinzu kommt ein deterministischer Anteil. Entweder von aussen oder
durch das Gerät selbst... Beispiele s.o.
Tschuldigung. Jetzt erst weiter gelesen.

(B)
Ein reales Gerät kann den physikalischen Prozess womöglich gar nicht
100%ig erfassen, (schon das Zählrohr könnte eine bauartbedingt max.
Zählrate haben, d.h. Bandbreite nicht unendlich :) e_t wird also nur
als Abbildung g(e_t) erfasst... Verzerrt, gefiltert, wie man es
nennen möchte.

Man bekommt dann nicht y(t) = f(e_t) wie gewünscht sondern halt:
y(t) = f(det. Variablen) + g(e_t) oder so...

Das ist dann das Problem.
Und das ganze System kaskadieren? Also ich habe Zufallsgenerator 1, sprich
in meinem Fall Meßgerät 1. Dieses Gerät produziert mehr oder weniger gute
Zufallswerte. Die Entropie dieser Werte reicht mir aber noch nicht aus.
Also steuere ich Ăźber diese Zufallswerte Zufallsgenerator 2, sprich wieder
Meßgerät 2, indem ich z.B. steuere wann die Messung durchgeführt wird, oder
darĂźber kontrolliere, welche Stellen unterhalb der Messgenauigkeit
ausgelesen werden u.s.w. Meiner Meinung nach mĂźsste ich auch wenn
Fehlerquellen teilweise periodisch auftreten, Schritt fĂźr Schritt eine
immer hĂśhere Entropie erreichen. Das gleiche mĂźsste warhscheinlich nicht
nur vertikal sondern auch horizontal klappen. Ich also einfach den
Erwartungswert aus mehreren "Messungen" bilde.

Beim Schreiben fällt mir auf. Was hindert einen eigentlich so ein Gerät mit
sich selbst zurückzukopeln. Also die unterhalb des Meßbereiches (übrigens
von verschiedenen Messungen) ausgelesenen Werte, bestimmen z.B. zu welchem
Zeitpunkt weitere Messungen initiiert werden.

Gruss: Rüdiger
--
PsyPaM: Neue Hilfsmittel und Methoden zur Benutzeridentifikation-

Stefan Weinzierl; Bambergerstr.31; 96135 Stegraurach
Fon: 0951/2970067; Fax: 0951/2970068
Website: http://www.PsyPaM.com; E-Mail: Stefan.Weinzierl@PsyPaM.com
 
Georg Meister wrote:

Da jede Messung bekanntlich immer fehlerbehaftet ist, lassen sich Werte
von
Messfehleren, im Grunde genommen auch von jeder beliebigen Messung, ganz
gleich wie sie auch immer geartet sein sollte,auslesen. Damit müssten
sich geeignete Zufallswerte mittels einer jeden Messung physikalischer
Vorgänge ermitteln lassen, wobei sich für diesen Fall Aspekte wie z.B.
ein großer Miniaturisierungsgrad oder mangelnde Fertigungspräzision
eher als förderlich auswirken, als dass sie eine Behinderung darstellen
würden. Oder, um es einmal krass mit anderen Worten auszudrücken: Je
"saumäßiger" eine Messung durchgeführt wird, umso höher dürfte die
Ausbeute an Zufallswerten sein.

Wo ist also das Problem, wenn es um die Generierung von Zufallswerten
geht?


Das rein zufällige "Rauschen" von Messwerten ist ja nur eine Komponente.
Sehr oft überwiegen systematische Abweichungen hervorgerufen durch
Linearitätsfehler, Temperaturdrift, Alterung, Netzbrumm, thermische
Schwingungen usw.

Bei Zufallswerten kommt es nicht nur auf den eigentlichen Zufallscharakter
an, sondern vor allem auf die Verteilung, d. h die Zufallszahlen sollen
eine Gaussverteilung haben, die für numerische Anwendungen in eine
Boxverteilung umgerechnet wird. Ob irgendein Mechanismus zur Herstellung
von Zufallszahlen geeignet ist, muss mit statistischen Methoden
(Normalverteilungstest) überprüft werden. Für Sicherheitsanwendungen
wird man das Verfahren wohl auch kryptologisch prüfen müssen.

Einen Hardware-Zufallsgenerator zu bauen, der diesen strengen
Anforderungen genügt, ist m. E. nicht so einfach. Klar, man nimmt
irgendeinen physikalischen Vorgang wie z.B. das thermische Rauschen einer
Zenerdiode oder wenn man etwas expermientierfreudiger ist, radioaktiven
Zerfall, und gewinnt daraus Zufallszahlen. Die Kunst besteht dann darin,
jede Systematik s.o. zu vermeiden.

In jedem Fall ist das ein speziell dafür entwickltes Gerät. Einfach
irgendein Messgerät zu nehmen und den Messfehler in eine Zufallszahl
umzurechnen, wird ziemlich sicher nicht funktionieren.

Georg
Und das ganze System kaskadieren? Also ich habe Zufallsgenerator 1, sprich
in meinem Fall Meßgerät 1. Dieses Gerät produziert mehr oder weniger gute
Zufallswerte. Die Entropie dieser Werte reicht mir aber noch nicht aus.
Also steuere ich Ăźber diese Zufallswerte Zufallsgenerator 2, sprich wieder
Meßgerät 2, indem ich z.B. steuere wann die Messung durchgeführt wird, oder
darĂźber kontrolliere, welche Stellen unterhalb der Messgenauigkeit
ausgelesen werden u.s.w. Meiner Meinung nach mĂźsste ich auch wenn
Fehlerquellen teilweise periodisch auftreten, Schritt fĂźr Schritt eine
immer hĂśhere Entropie erreichen. Das gleiche mĂźsste warhscheinlich nicht
nur vertikal sondern auch horizontal klappen. Ich also einfach den
Erwartungswert aus mehreren "Messungen" bilde.

Beim Schreiben fällt mir auf. Was hindert einen eigentlich so ein Gerät mit
sich selbst zurückzukopeln. Also die unterhalb des Meßbereiches (übrigens
von verschiedenen Messungen) ausgelesenen Werte, bestimmen z.B. zu welchem
Zeitpunkt weitere Messungen initiiert werden.

--
PsyPaM: Neue Hilfsmittel und Methoden zur Benutzeridentifikation-

Stefan Weinzierl; Bambergerstr.31; 96135 Stegraurach
Fon: 0951/2970067; Fax: 0951/2970068
Website: http://www.PsyPaM.com; E-Mail: Stefan.Weinzierl@PsyPaM.com
 
Sebastian Mathar wrote:
Wo ist also das Problem, wenn es um die Generierung von Zufallswerten
geht?

Wo willst du ein nicht-deterministisches Messsignal herbekommen?
Rauschen? Geigerzähler? Pentium Floating Point Division?
:-]
--
mfg Rolf Bombach
 
Stefan Weinzierl wrote:
Und das ganze System kaskadieren? Also ich habe Zufallsgenerator 1, sprich
in meinem Fall Meßgerät 1. Dieses Gerät produziert mehr oder weniger gute
Zufallswerte. Die Entropie dieser Werte reicht mir aber noch nicht aus.
Also steuere ich Ăźber diese Zufallswerte Zufallsgenerator 2, sprich wieder
Meßgerät 2, indem ich z.B. steuere wann die Messung durchgeführt wird, oder
darĂźber kontrolliere, welche Stellen unterhalb der Messgenauigkeit
ausgelesen werden u.s.w. Meiner Meinung nach mĂźsste ich auch wenn
Fehlerquellen teilweise periodisch auftreten, Schritt fĂźr Schritt eine
immer hĂśhere Entropie erreichen. Das gleiche mĂźsste warhscheinlich nicht
nur vertikal sondern auch horizontal klappen. Ich also einfach den
Erwartungswert aus mehreren "Messungen" bilde.
Seh ich auch so. Ein schneller Pseudozufallszahlengenerator
produziert am Laufmeter Zahlen, welche aber nur beim
Ticken eines Geigerzählers ausgelesen werden. Inhomogene
Verteilungen werden natĂźrlich nicht weggehen.

--
mfg Rolf Bombach
 
Rolf Bombach <rolfnospambombach@bluewin.ch> writes:

Stefan Weinzierl wrote:
Und das ganze System kaskadieren? Also ich habe Zufallsgenerator 1,
[...]

Seh ich auch so. Ein schneller Pseudozufallszahlengenerator
produziert am Laufmeter Zahlen, welche aber nur beim
Ticken eines Geigerzählers ausgelesen werden. Inhomogene
Verteilungen werden natürlich nicht weggehen.
Oder man benutzt gleich einen Quantenmechanischen Prozess, wie man sie
schon fertig kaufen kann: http://www.idquantique.com/qrng.html
--
Dr. Juergen Hannappel http://lisa2.physik.uni-bonn.de/~hannappe
mailto:hannappel@physik.uni-bonn.de Phone: +49 228 73 2447 FAX ... 7869
Physikalisches Institut der Uni Bonn Nussallee 12, D-53115 Bonn, Germany
CERN: Phone: +412276 76461 Fax: ..77930 Bat. 892-R-A13 CH-1211 Geneve 23
 
Rolf Bombach wrote:

Stefan Weinzierl wrote:

Und das ganze System kaskadieren? Also ich habe Zufallsgenerator 1,
sprich in meinem Fall Meßgerät 1. Dieses Gerät produziert mehr oder
weniger gute Zufallswerte. Die Entropie dieser Werte reicht mir aber noch
nicht aus. Also steuere ich Ăźber diese Zufallswerte Zufallsgenerator 2,
sprich wieder Meßgerät 2, indem ich z.B. steuere wann die Messung
durchgefĂźhrt wird, oder darĂźber kontrolliere, welche Stellen unterhalb
der Messgenauigkeit ausgelesen werden u.s.w. Meiner Meinung nach mĂźsste
ich auch wenn Fehlerquellen teilweise periodisch auftreten, Schritt fĂźr
Schritt eine immer hĂśhere Entropie erreichen. Das gleiche mĂźsste
warhscheinlich nicht nur vertikal sondern auch horizontal klappen. Ich
also einfach den Erwartungswert aus mehreren "Messungen" bilde.

Seh ich auch so. Ein schneller Pseudozufallszahlengenerator
produziert am Laufmeter Zahlen, welche aber nur beim
Ticken eines Geigerzählers ausgelesen werden. Inhomogene
Verteilungen werden natĂźrlich nicht weggehen.

Was ich jetzt inzwischen auf meinen AusflĂźgen glaube gelernt zu haben, ist
das aber gerade das Problem. Weil sich ebendiese Inhomogene Verteilung
kryptographisch angreifen lässt, und die MÜglichkeiten, um einen Schlßssel
zu knacken beträchtlich einschränkt
--
PsyPaM: Neue Hilfsmittel und Methoden zur Benutzeridentifikation-

Stefan Weinzierl; Bambergerstr.31; 96135 Stegraurach
Fon: 0951/2970067; Fax: 0951/2970068
Website: http://www.PsyPaM.com; E-Mail: Stefan.Weinzierl@PsyPaM.com
 
Juergen Hannappel wrote:

Rolf Bombach <rolfnospambombach@bluewin.ch> writes:

Stefan Weinzierl wrote:
Und das ganze System kaskadieren? Also ich habe Zufallsgenerator 1,

[...]

Seh ich auch so. Ein schneller Pseudozufallszahlengenerator
produziert am Laufmeter Zahlen, welche aber nur beim
Ticken eines Geigerzählers ausgelesen werden. Inhomogene
Verteilungen werden natĂźrlich nicht weggehen.

Oder man benutzt gleich einen Quantenmechanischen Prozess, wie man sie
schon fertig kaufen kann: http://www.idquantique.com/qrng.html
Geil Und was ist daran dann eine billige einfache LĂśsung
--
PsyPaM: Neue Hilfsmittel und Methoden zur Benutzeridentifikation-

Stefan Weinzierl; Bambergerstr.31; 96135 Stegraurach
Fon: 0951/2970067; Fax: 0951/2970068
Website: http://www.PsyPaM.com; E-Mail: Stefan.Weinzierl@PsyPaM.com
 
----- Original Message -----
From: "Stefan Weinzierl" <stefan.weinzierl@psypam.com>
Newsgroups: de.sci.electronics
Sent: Sunday, July 11, 2004 10:55 AM
Subject: Re: Zufallsgenerator durch Auslesen von Messfehlern



"Stefan Weinzierl" <stefan.weinzierl@psypam.com> schrieb im
Newsbeitrag news:ccln6o$vv4$4@online.de...

Da, wie ich gerade gelernt habe,
Zufallsszahlen unkorreliert sein m??ssen. Gibt es nach deiner
Definition
ueberhaupt keine Zufallszahlen.
Ich glaub schon, dasses die gibt. Die sind m.M. nach genauso existent
wie andere (natürliche, ganze, rationale, reelle, komplexe... gerade,
ungerade, prime, ...) Zahlen auch.

Na ja, ob es Etwas (Abstraktes) gibt bzw. ob ein Gerät eine
Repräsentation dieses Etwas dann auch (mit vertretbarem Aufwand ---
oder überhaupt) generieren kann, sind zwei paar Stiefel.

Wie sich dieser (Mess)Fehler in diesem Intervall verteilt und in
welcher Gr sse,
weiss ich i.d.R. nicht.

Super! Genau das sind doch Eigenschaften von Zufallswerten. So was
will ich
haben.
Nein, das sind nicht die Eigenschaften von Zufallswerten: Wenn du
spezielle Werte nicht weisst, dann heisst das noch lange nicht dass
diese auch zufällig sind. (Oder wesentlich schwächer: auch nur
zufallsverteilt). Ich denke im Gegenteil sogar, dass sich Auswirkungen
etlicher Fehlerquellen durch einfache Polynome recht gut beschreiben
lassen (denke da etwa an thermische Drift) --- warum sollte da
*irgendwas* stochastisch sein?

Ausserdem: Solange die zweite (dritte, vierte...) Extraanzeige für den
Messfehler nicht im Messgerät implementiert ist, liegt der Messfehler
nicht vor deinen Augen, du hast diesen Wert gar nicht. Und dass er,
hättest du ihn, keinesfalls zufällig ist wurde in diesem thread ja
schon mehrfach gesagt.

Also ich habe Zufallsgenerator 1, sprich
in meinem Fall Me??gerät 1. Dieses Gerät produziert mehr oder
weniger gute
Zufallswerte.
Warum? Das haben dich hier auch schon einige gefragt; warum sollte das
so sein? (Alle Antworten gingen in die Richtung, dasses eben gerade
nicht so ist.)

[ Der Teil, der den Wunsch beschreibt Entropie möge sich erhöhen wenn
man 'weisses Rauschen' durch kaskadierte Filter schiebt, einfach mal
weggeschnipselt ]

Ich also einfach den Erwartungswert aus mehreren "Messungen" bilde.
Auf diese Art kommen dann noch zusätzlich 'Interkorrelationsprodukte'
in deine Zahlenreihe, wasses insgesamt nicht besser machen dürfte
bezgl. 'randomness' :)

Beim Schreiben fällt mir auf. Was hindert einen eigentlich so ein
Gerät mit
sich selbst zurückzukopeln.
Ob kaskadiert oder rückgekoppelt... Ob 30 Leute nacheinander beim
Kartenspiel 'einmal abheben' oder einer 30-mal die Karten per Hand
mischt ... du meinst, das Ergebnis wär dann in beiden Fällen 'rein'
zufällig?

Also die unterhalb des Meßbereiches (übrigens
von verschiedenen Messungen) ausgelesenen Werte, bestimmen z.B. zu
welchem
Zeitpunkt weitere Messungen initiiert werden.
Mein alter Taschenrechner macht das glaub ich so: Per Knopfdruck auf
die RND Taste wird ein Zähler gestartet und über ein RC-Glied + Transi
wird der Zähler 'irgendwann' wieder gestoppt. Das gibt dann auch tolle
'Zufallszahlen' :)

(Und wenn man das resetten des Zählers vergisst, hat man ein
rückgekoppeltes System --- ob die generierten Zahlenreihen 'noch
besser zufälliger' wird dadurch?)

---

Aus dem Gedächnis: "The Art of Computer Programming" Bd1 von D.E.Knuth
geht recht ausführlich ein auf Eigenschaften und Generierung von
Zufallszahlen.

Das 'white paper' aus Juergens link (
http://www.idquantique.com/qrng.html ) umreisst die Problematik ja
auch ganz nett und kompakt :)

Gruss: Ruediger
 

Welcome to EDABoard.com

Sponsor

Back
Top