Ford+VW: Argo AI - Robotaxi-Startup eingestellt...

Am 22.12.22 um 12:42 schrieb Volker Bartheld:

Es gibt schon ein paar formal verifizierte Kernel, Compiler und
Betriebssysteme. \"Simpel\" würde ich die nicht mehr nennen.
These techniques can be sound, meaning that the verified properties can
be logically deduced from the semantics, or unsound, meaning that there
is no such guarantee.

Genau. Auch kannst Du z. B. mit Simulink ein Modell entwickeln und Dir
das - unter der Annahme, daß Simulink fehlerfrei sei und ebenfalls Dein
Modell - in ausführbaren Code compilieren lassen. Da passieren die
Fehler dann eben auf einer Metaebene höher.

Da passieren sie ansonsten noch zusätzlich. Die ganzen restlichen Fehler
loszuwerden halte ich schon für recht praktisch.

\"A sound technique yields a result only once it has
covered the entire space of possibilities. An example of an unsound
technique is one that covers only a subset of the possibilities, for
instance only integers up to a certain number, and give a \"good-enough\"
result.\"
Letzteres finde ich eher mau... Korrekt ist die Software doch erst dann,
wenn sie für ALLE MÖGLICHEN Eingaben (und nicht nur alle erwarteten
Eingaben) das jeweils korrekte Ergebnis liefert.

Vielleicht schließt man hier implizit die Existenz eines Filters ein und
setzt \"mögliche Eingaben\" = \"erwartete Eingaben\". Klassischer Fallstrick
bei Buffer Overflows und SQL Injection.

\"Sound\" heißt in diesem Kontext soviel wie \"logisch korrekt\", was
\"unsound\" heißt dürfte damit dann auch klar sein. Ist nicht so toll,
aber wenns nicht anders geht... ich denk mal, wenn man den Aufriß macht,
auch nur für ein Subset der möglichen Eingeben formal zu verifizieren,
wird vielleicht auch noch ein wenig Zeit dafür übrig sein, sich Gedanken
zu machen, ob der Rest in der Praxis wirklich ausgeschlossen ist.

Hanno

--
The modern conservative is engaged in one of man\'s oldest exercises in
moral philosophy; that is, the search for a superior moral justification
for selfishness.
- John Kenneth Galbraith
 
Am 18.12.2022 um 17:59 schrieb Helmut Schellong:
On 12/18/2022 17:09, Christoph Müller wrote:
Am 18.12.2022 um 15:44 schrieb Helmut Schellong:
On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:

Nein, das Kind stirbt wegen des Ausweichens des Autonomen, in dem
es sitzt.
Geradeaus wird die Oma /aufgespießt/.
(Mein Fahrlehrer rief immer vom Aufspießen.)

Wuerde ja nicht passieren, ein menschlicher Fahrer wuerde auch nicht
Selbstmord begehen um jemanden der einen Fehler gemacht hat zu retten.

Die Maschine _muß_ sich allerdings entscheiden!
Fest steht: eine Person muß sterben.
Frage: welche?

War hier irgendein Mitleser jemals in einer solchen Lage?

Die Frage ist irrelevant.

Nein. Mensch wie Maschine können Fehler machen. Es kommt auf das
GESAMTergebnis an! Weniger auf die seltenen Einzelfälle. INSGESAMT muss
die Unfallhäufigkeit und die Schadensbilanz reduziert werden. Auch eine
Treppe ist ein technisches Produkt. Täglich fallen Menschen von Treppen
herunter und verletzen sich teilweise sehr schwer dabei. Müssen Treppen
nun verboten werden?

Es muß in einer _Maschine_ implementiert sein.
Die Maschine _muß_ entscheiden.

So leid es mir auch tut - Fehlentscheidungen sind zu akzeptieren, so
lange INSGESAMT die Schadensbilanz trotzdem deutlich weniger wird. Aber
selbstverständlich sind korrigierbare Fehler auch zu korrigieren. In
Sachen Software muss man halt auch drauf aufpassen, dass Softwarefehler
nicht für gezielte Schädigung ausgenutzt werden können. Oft ist es ja
auch eine eher philosophische Frage, ob man Teilprogramme als fehlerhaft
oder nicht einstufen will/kann.

Wenn so etwas wirklich passieren sollte, dann wird sich ein Mensch
aufgrund der viel zu knappen Entscheidungszeit vermutlich eher nach
Zufall entscheiden. Das ihm auch selbst das Leben kosten. Ob das
Verhalten richtig oder falsch war, wird hinterher manchmal von
Gerichten entschieden. Über eine etwaige Strafe auch. Hinterher
wohlgemerkt! Die Entscheidung muss aber fallen, BEVOR es kracht.
Hinterher ist man meistens schlauer.

Deshalb hat das MIT eine \'Moral Machine\' entwickelt.
Mit einem extra Professor dafür.

Gottseidank wird man solche Moral-Maschinen nur höchst selten benötigen.

Gleichzeitig gilt auch, dass sich der Gesetzgeber schuldig macht, wenn
nachgewiesen wird, dass es mit den Fahrzeugen tatsächlich weniger
Unfälle, Verletzte und Tote gibt und ein entsprechendes Gesetz
verweigert.

Das Problem ist hierbei, daß ein solcher Nachweis erst vorliegt, nachdem
mindestens zehntausende
Vollautonome mindestens 5 Jahre lang uneingeschränkt gefahren sind.
Mathematische Vorausberechnungen können um z.B. 70% daneben liegen.

Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

--
Servus
Christoph Müller
www.astrail.de
 
Am 18.12.2022 um 17:59 schrieb Helmut Schellong:
On 12/18/2022 17:09, Christoph Müller wrote:
Am 18.12.2022 um 15:44 schrieb Helmut Schellong:
On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:

Nein, das Kind stirbt wegen des Ausweichens des Autonomen, in dem
es sitzt.
Geradeaus wird die Oma /aufgespießt/.
(Mein Fahrlehrer rief immer vom Aufspießen.)

Wuerde ja nicht passieren, ein menschlicher Fahrer wuerde auch nicht
Selbstmord begehen um jemanden der einen Fehler gemacht hat zu retten.

Die Maschine _muß_ sich allerdings entscheiden!
Fest steht: eine Person muß sterben.
Frage: welche?

War hier irgendein Mitleser jemals in einer solchen Lage?

Die Frage ist irrelevant.

Nein. Mensch wie Maschine können Fehler machen. Es kommt auf das
GESAMTergebnis an! Weniger auf die seltenen Einzelfälle. INSGESAMT muss
die Unfallhäufigkeit und die Schadensbilanz reduziert werden. Auch eine
Treppe ist ein technisches Produkt. Täglich fallen Menschen von Treppen
herunter und verletzen sich teilweise sehr schwer dabei. Müssen Treppen
nun verboten werden?

Es muß in einer _Maschine_ implementiert sein.
Die Maschine _muß_ entscheiden.

So leid es mir auch tut - Fehlentscheidungen sind zu akzeptieren, so
lange INSGESAMT die Schadensbilanz trotzdem deutlich weniger wird. Aber
selbstverständlich sind korrigierbare Fehler auch zu korrigieren. In
Sachen Software muss man halt auch drauf aufpassen, dass Softwarefehler
nicht für gezielte Schädigung ausgenutzt werden können. Oft ist es ja
auch eine eher philosophische Frage, ob man Teilprogramme als fehlerhaft
oder nicht einstufen will/kann.

Wenn so etwas wirklich passieren sollte, dann wird sich ein Mensch
aufgrund der viel zu knappen Entscheidungszeit vermutlich eher nach
Zufall entscheiden. Das ihm auch selbst das Leben kosten. Ob das
Verhalten richtig oder falsch war, wird hinterher manchmal von
Gerichten entschieden. Über eine etwaige Strafe auch. Hinterher
wohlgemerkt! Die Entscheidung muss aber fallen, BEVOR es kracht.
Hinterher ist man meistens schlauer.

Deshalb hat das MIT eine \'Moral Machine\' entwickelt.
Mit einem extra Professor dafür.

Gottseidank wird man solche Moral-Maschinen nur höchst selten benötigen.

Gleichzeitig gilt auch, dass sich der Gesetzgeber schuldig macht, wenn
nachgewiesen wird, dass es mit den Fahrzeugen tatsächlich weniger
Unfälle, Verletzte und Tote gibt und ein entsprechendes Gesetz
verweigert.

Das Problem ist hierbei, daß ein solcher Nachweis erst vorliegt, nachdem
mindestens zehntausende
Vollautonome mindestens 5 Jahre lang uneingeschränkt gefahren sind.
Mathematische Vorausberechnungen können um z.B. 70% daneben liegen.

Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

--
Servus
Christoph Müller
www.astrail.de
 
Am 18.12.2022 um 17:59 schrieb Helmut Schellong:
On 12/18/2022 17:09, Christoph Müller wrote:
Am 18.12.2022 um 15:44 schrieb Helmut Schellong:
On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:
On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:

Nein, das Kind stirbt wegen des Ausweichens des Autonomen, in dem
es sitzt.
Geradeaus wird die Oma /aufgespießt/.
(Mein Fahrlehrer rief immer vom Aufspießen.)

Wuerde ja nicht passieren, ein menschlicher Fahrer wuerde auch nicht
Selbstmord begehen um jemanden der einen Fehler gemacht hat zu retten.

Die Maschine _muß_ sich allerdings entscheiden!
Fest steht: eine Person muß sterben.
Frage: welche?

War hier irgendein Mitleser jemals in einer solchen Lage?

Die Frage ist irrelevant.

Nein. Mensch wie Maschine können Fehler machen. Es kommt auf das
GESAMTergebnis an! Weniger auf die seltenen Einzelfälle. INSGESAMT muss
die Unfallhäufigkeit und die Schadensbilanz reduziert werden. Auch eine
Treppe ist ein technisches Produkt. Täglich fallen Menschen von Treppen
herunter und verletzen sich teilweise sehr schwer dabei. Müssen Treppen
nun verboten werden?

Es muß in einer _Maschine_ implementiert sein.
Die Maschine _muß_ entscheiden.

So leid es mir auch tut - Fehlentscheidungen sind zu akzeptieren, so
lange INSGESAMT die Schadensbilanz trotzdem deutlich weniger wird. Aber
selbstverständlich sind korrigierbare Fehler auch zu korrigieren. In
Sachen Software muss man halt auch drauf aufpassen, dass Softwarefehler
nicht für gezielte Schädigung ausgenutzt werden können. Oft ist es ja
auch eine eher philosophische Frage, ob man Teilprogramme als fehlerhaft
oder nicht einstufen will/kann.

Wenn so etwas wirklich passieren sollte, dann wird sich ein Mensch
aufgrund der viel zu knappen Entscheidungszeit vermutlich eher nach
Zufall entscheiden. Das ihm auch selbst das Leben kosten. Ob das
Verhalten richtig oder falsch war, wird hinterher manchmal von
Gerichten entschieden. Über eine etwaige Strafe auch. Hinterher
wohlgemerkt! Die Entscheidung muss aber fallen, BEVOR es kracht.
Hinterher ist man meistens schlauer.

Deshalb hat das MIT eine \'Moral Machine\' entwickelt.
Mit einem extra Professor dafür.

Gottseidank wird man solche Moral-Maschinen nur höchst selten benötigen.

Gleichzeitig gilt auch, dass sich der Gesetzgeber schuldig macht, wenn
nachgewiesen wird, dass es mit den Fahrzeugen tatsächlich weniger
Unfälle, Verletzte und Tote gibt und ein entsprechendes Gesetz
verweigert.

Das Problem ist hierbei, daß ein solcher Nachweis erst vorliegt, nachdem
mindestens zehntausende
Vollautonome mindestens 5 Jahre lang uneingeschränkt gefahren sind.
Mathematische Vorausberechnungen können um z.B. 70% daneben liegen.

Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

--
Servus
Christoph Müller
www.astrail.de
 
Am 22.12.22 um 13:07 schrieb Gerrit Heitsch:

Plausibilität nicht vergessen.
Es gibt Wertebereiche, die einfach garantiert nicht vorkommen können,
obwohl
ein betreffender Parameter diese Werte zuläßt.

Diese Garantie muss aber sehr hart bewiesen werden.

Chuck Schellong macht das easy mit ein paar Stichproben.

Und zwar nicht nur
am Source sondern am Compilat. Schliesslich kommen Compilerfehler auch vor.

https://sel4.systems/Info/FAQ/proof.pml

\"Note that this proof statement is much stronger that previous versions
you might have seen. Previously, in 2009, we had only proved functional
correctness between the C code of the kernel and its specification. Now
we have additionally shown binary correctness, that is, the compiler and
linker need not be trusted, and we have shown that the specification
indeed implies strong security properties as intended.\"

Scheint zu gehen.

Hanno

--
The modern conservative is engaged in one of man\'s oldest exercises in
moral philosophy; that is, the search for a superior moral justification
for selfishness.
- John Kenneth Galbraith
 
Am 22.12.22 um 13:07 schrieb Gerrit Heitsch:

Plausibilität nicht vergessen.
Es gibt Wertebereiche, die einfach garantiert nicht vorkommen können,
obwohl
ein betreffender Parameter diese Werte zuläßt.

Diese Garantie muss aber sehr hart bewiesen werden.

Chuck Schellong macht das easy mit ein paar Stichproben.

Und zwar nicht nur
am Source sondern am Compilat. Schliesslich kommen Compilerfehler auch vor.

https://sel4.systems/Info/FAQ/proof.pml

\"Note that this proof statement is much stronger that previous versions
you might have seen. Previously, in 2009, we had only proved functional
correctness between the C code of the kernel and its specification. Now
we have additionally shown binary correctness, that is, the compiler and
linker need not be trusted, and we have shown that the specification
indeed implies strong security properties as intended.\"

Scheint zu gehen.

Hanno

--
The modern conservative is engaged in one of man\'s oldest exercises in
moral philosophy; that is, the search for a superior moral justification
for selfishness.
- John Kenneth Galbraith
 
Am 22.12.22 um 13:07 schrieb Gerrit Heitsch:

Plausibilität nicht vergessen.
Es gibt Wertebereiche, die einfach garantiert nicht vorkommen können,
obwohl
ein betreffender Parameter diese Werte zuläßt.

Diese Garantie muss aber sehr hart bewiesen werden.

Chuck Schellong macht das easy mit ein paar Stichproben.

Und zwar nicht nur
am Source sondern am Compilat. Schliesslich kommen Compilerfehler auch vor.

https://sel4.systems/Info/FAQ/proof.pml

\"Note that this proof statement is much stronger that previous versions
you might have seen. Previously, in 2009, we had only proved functional
correctness between the C code of the kernel and its specification. Now
we have additionally shown binary correctness, that is, the compiler and
linker need not be trusted, and we have shown that the specification
indeed implies strong security properties as intended.\"

Scheint zu gehen.

Hanno

--
The modern conservative is engaged in one of man\'s oldest exercises in
moral philosophy; that is, the search for a superior moral justification
for selfishness.
- John Kenneth Galbraith
 
On 12/19/22 08:09, Christoph Müller wrote:

Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

Wenn man korrekt messen will muss jeder Eingriff der Sicherheitsfahrer
als Unfall gewertet werden. Tut man das sehen die Werte für autonomes
Fahren allerdings nicht mehr besonders gut aus.

Gerrit
 
On 12/19/22 08:09, Christoph Müller wrote:

Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

Wenn man korrekt messen will muss jeder Eingriff der Sicherheitsfahrer
als Unfall gewertet werden. Tut man das sehen die Werte für autonomes
Fahren allerdings nicht mehr besonders gut aus.

Gerrit
 
On 12/19/22 08:09, Christoph Müller wrote:

Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

Wenn man korrekt messen will muss jeder Eingriff der Sicherheitsfahrer
als Unfall gewertet werden. Tut man das sehen die Werte für autonomes
Fahren allerdings nicht mehr besonders gut aus.

Gerrit
 
On 12/22/22 13:47, Hanno Foest wrote:
Am 22.12.22 um 13:07 schrieb Gerrit Heitsch:

Plausibilität nicht vergessen.
Es gibt Wertebereiche, die einfach garantiert nicht vorkommen können,
obwohl
ein betreffender Parameter diese Werte zuläßt.

Diese Garantie muss aber sehr hart bewiesen werden.

Chuck Schellong macht das easy mit ein paar Stichproben.

Und zwar nicht nur am Source sondern am Compilat. Schliesslich kommen
Compilerfehler auch vor.

https://sel4.systems/Info/FAQ/proof.pml

\"Note that this proof statement is much stronger that previous versions
you might have seen. Previously, in 2009, we had only proved functional
correctness between the C code of the kernel and its specification. Now
we have additionally shown binary correctness, that is, the compiler and
linker need not be trusted, and we have shown that the specification
indeed implies strong security properties as intended.\"

Scheint zu gehen.

Ja, sie testen das Binary:

Note that we do not need to trust the compiler and linker any more.
Their output is formally verified for seL4 by an automatic tool if the
kernel is compiled with moderate optimisation levels.

Irgendwie impliziert das, das sie den generierten Maschinencode
verifizieren denn:

The same proof for more aggressive optimisations is under development.

Einschränkungen gibts allerdings auch eine Menge unter \'What we assume\'.

Gerrit
 
On 12/22/22 13:47, Hanno Foest wrote:
Am 22.12.22 um 13:07 schrieb Gerrit Heitsch:

Plausibilität nicht vergessen.
Es gibt Wertebereiche, die einfach garantiert nicht vorkommen können,
obwohl
ein betreffender Parameter diese Werte zuläßt.

Diese Garantie muss aber sehr hart bewiesen werden.

Chuck Schellong macht das easy mit ein paar Stichproben.

Und zwar nicht nur am Source sondern am Compilat. Schliesslich kommen
Compilerfehler auch vor.

https://sel4.systems/Info/FAQ/proof.pml

\"Note that this proof statement is much stronger that previous versions
you might have seen. Previously, in 2009, we had only proved functional
correctness between the C code of the kernel and its specification. Now
we have additionally shown binary correctness, that is, the compiler and
linker need not be trusted, and we have shown that the specification
indeed implies strong security properties as intended.\"

Scheint zu gehen.

Ja, sie testen das Binary:

Note that we do not need to trust the compiler and linker any more.
Their output is formally verified for seL4 by an automatic tool if the
kernel is compiled with moderate optimisation levels.

Irgendwie impliziert das, das sie den generierten Maschinencode
verifizieren denn:

The same proof for more aggressive optimisations is under development.

Einschränkungen gibts allerdings auch eine Menge unter \'What we assume\'.

Gerrit
 
On 12/22/22 13:47, Hanno Foest wrote:
Am 22.12.22 um 13:07 schrieb Gerrit Heitsch:

Plausibilität nicht vergessen.
Es gibt Wertebereiche, die einfach garantiert nicht vorkommen können,
obwohl
ein betreffender Parameter diese Werte zuläßt.

Diese Garantie muss aber sehr hart bewiesen werden.

Chuck Schellong macht das easy mit ein paar Stichproben.

Und zwar nicht nur am Source sondern am Compilat. Schliesslich kommen
Compilerfehler auch vor.

https://sel4.systems/Info/FAQ/proof.pml

\"Note that this proof statement is much stronger that previous versions
you might have seen. Previously, in 2009, we had only proved functional
correctness between the C code of the kernel and its specification. Now
we have additionally shown binary correctness, that is, the compiler and
linker need not be trusted, and we have shown that the specification
indeed implies strong security properties as intended.\"

Scheint zu gehen.

Ja, sie testen das Binary:

Note that we do not need to trust the compiler and linker any more.
Their output is formally verified for seL4 by an automatic tool if the
kernel is compiled with moderate optimisation levels.

Irgendwie impliziert das, das sie den generierten Maschinencode
verifizieren denn:

The same proof for more aggressive optimisations is under development.

Einschränkungen gibts allerdings auch eine Menge unter \'What we assume\'.

Gerrit
 
Volker Bartheld wrote:
On Sun, 25 Dec 2022 18:58:07 +0100, Rolf Bombach wrote:
Volker Bartheld schrieb:
On Fri, 23 Dec 2022 12:04:57 +0100, Carla Schneider wrote:
Ja, in Silizium, aber bei der Kamera muss man GaAs verwenden, damit
der Laserpuls bei einer fuers Auge ungefaehrlichen Wellenlaenge
strahlen kann.
Es gibt schlicht keine \"für das Auge ungefährliche Wellenlänge\".
Das ist ein Allgemeinplatz, solche \"Argumente\" passen immer.

Und \"damit der Laserpuls bei einer fuers Auge ungefaehrlichen
Wellenlaenge strahlen kann.\" wäre keiner?

Der Wellenlängenbereich um 1750 nm ist bei Nanosekunden-Lasern
über 1 Mio mal weniger gefährlich als der sichtbare Bereich.

Ich bin jetzt ein wenig verwirrt. In welchem Wellenlängenbereich
strahlen denn die GaAs-Laser so, die sich Carla gewünscht hatte? Kommt
man da bis auf 1750nm runter und das ginge bei Silizium nicht? Keine
Scherzfrage. Ich bin aus dem Thema schon recht lange raus.

Es geht nicht um den LASER sondern um die TOF-Kamera die die vom
Laserpuls beleuchtete Landschaft beobachtet und fuer jedes
Pixel eine Zeit misst.
 
Volker Bartheld wrote:
On Sun, 25 Dec 2022 18:58:07 +0100, Rolf Bombach wrote:
Volker Bartheld schrieb:
On Fri, 23 Dec 2022 12:04:57 +0100, Carla Schneider wrote:
Ja, in Silizium, aber bei der Kamera muss man GaAs verwenden, damit
der Laserpuls bei einer fuers Auge ungefaehrlichen Wellenlaenge
strahlen kann.
Es gibt schlicht keine \"für das Auge ungefährliche Wellenlänge\".
Das ist ein Allgemeinplatz, solche \"Argumente\" passen immer.

Und \"damit der Laserpuls bei einer fuers Auge ungefaehrlichen
Wellenlaenge strahlen kann.\" wäre keiner?

Der Wellenlängenbereich um 1750 nm ist bei Nanosekunden-Lasern
über 1 Mio mal weniger gefährlich als der sichtbare Bereich.

Ich bin jetzt ein wenig verwirrt. In welchem Wellenlängenbereich
strahlen denn die GaAs-Laser so, die sich Carla gewünscht hatte? Kommt
man da bis auf 1750nm runter und das ginge bei Silizium nicht? Keine
Scherzfrage. Ich bin aus dem Thema schon recht lange raus.

Es geht nicht um den LASER sondern um die TOF-Kamera die die vom
Laserpuls beleuchtete Landschaft beobachtet und fuer jedes
Pixel eine Zeit misst.
 
Volker Bartheld wrote:
On Sun, 25 Dec 2022 18:58:07 +0100, Rolf Bombach wrote:
Volker Bartheld schrieb:
On Fri, 23 Dec 2022 12:04:57 +0100, Carla Schneider wrote:
Ja, in Silizium, aber bei der Kamera muss man GaAs verwenden, damit
der Laserpuls bei einer fuers Auge ungefaehrlichen Wellenlaenge
strahlen kann.
Es gibt schlicht keine \"für das Auge ungefährliche Wellenlänge\".
Das ist ein Allgemeinplatz, solche \"Argumente\" passen immer.

Und \"damit der Laserpuls bei einer fuers Auge ungefaehrlichen
Wellenlaenge strahlen kann.\" wäre keiner?

Der Wellenlängenbereich um 1750 nm ist bei Nanosekunden-Lasern
über 1 Mio mal weniger gefährlich als der sichtbare Bereich.

Ich bin jetzt ein wenig verwirrt. In welchem Wellenlängenbereich
strahlen denn die GaAs-Laser so, die sich Carla gewünscht hatte? Kommt
man da bis auf 1750nm runter und das ginge bei Silizium nicht? Keine
Scherzfrage. Ich bin aus dem Thema schon recht lange raus.

Es geht nicht um den LASER sondern um die TOF-Kamera die die vom
Laserpuls beleuchtete Landschaft beobachtet und fuer jedes
Pixel eine Zeit misst.
 
On 1/4/23 22:40, Rolf Bombach wrote:
Gerrit Heitsch schrieb:
On 12/29/22 14:28, Helmut Schellong wrote:
Der erste Hersteller, der aus Fahrzeit Arbeitszeit, Freizeit oder
Schlafzeit macht, hat

Das mit der Arbeitszeit hätten gewisse Leute gerne. Aber da haben sie
die Rechnung ohne die \'motion sickness\' gemacht.

Die Sensoren erfassen und die Computer berechnen das.
Der Dispenser reicht dir dann die \"Tüte für Reisekranke\".

Arbeit fällt dann für die nächsten Stunden trotzdem aus.

Gerrit
 
On 1/4/23 22:40, Rolf Bombach wrote:
Gerrit Heitsch schrieb:
On 12/29/22 14:28, Helmut Schellong wrote:
Der erste Hersteller, der aus Fahrzeit Arbeitszeit, Freizeit oder
Schlafzeit macht, hat

Das mit der Arbeitszeit hätten gewisse Leute gerne. Aber da haben sie
die Rechnung ohne die \'motion sickness\' gemacht.

Die Sensoren erfassen und die Computer berechnen das.
Der Dispenser reicht dir dann die \"Tüte für Reisekranke\".

Arbeit fällt dann für die nächsten Stunden trotzdem aus.

Gerrit
 
On 1/4/23 22:40, Rolf Bombach wrote:
Gerrit Heitsch schrieb:
On 12/29/22 14:28, Helmut Schellong wrote:
Der erste Hersteller, der aus Fahrzeit Arbeitszeit, Freizeit oder
Schlafzeit macht, hat

Das mit der Arbeitszeit hätten gewisse Leute gerne. Aber da haben sie
die Rechnung ohne die \'motion sickness\' gemacht.

Die Sensoren erfassen und die Computer berechnen das.
Der Dispenser reicht dir dann die \"Tüte für Reisekranke\".

Arbeit fällt dann für die nächsten Stunden trotzdem aus.

Gerrit
 
On Mon, 19 Dec 2022 06:46:13 +0100, Gerrit Heitsch wrote:
On 12/18/22 21:38, Volker Bartheld wrote:
4. Signierter Code und NDAs existieren. Warum nicht auch in der
Automobilbranche und bei der allzweijährlichen HU?
Letzteres heisst aber auch zertifizierter Code. Also nix mit schnell
mal ein Update nachschieben

Genau das und natürlich nicht.

Ich will in einem Gerät, welches 1.5 Tonnen und mehr wiegt und sich mit
200+km/h bewegt nicht \"schnell mal ein Update nachgeschoben\" bekommen.
Wohin sowas führt, kann man an der Boeing 737 MAX bewundern. Wenn es
einen Fehler gibt, der in so erheblichem Umfang die Funktionssicherheit
betrifft, daß man versucht ist, \"schnell mal ein Update
nachzuschieben\", dann soll man eben nicht \"schnell mal ein Update
nachschieben\". Sondern dann bleibt das Fahrzeug und baugleiche,
ebenfalls betroffene Modelle einfach so lange stehen, bis das Update
programmiert, geprüft und eingespielt wurde. Die Kosten zahlt der
Hersteller. Natürlich. Zumindest falls nicht bei der Zertifizierung
geschlampt wurde, was ja der eigentliche Grund ist, solche Fehler
möglichst vorher zu erkennen und zu beheben. *)

weil man einen Fehler gefunden hat der das Auto an einer bestimmten
Kreuzung die Ampel ignorieren lässt.

Oder einen Brückenpfeiler übersieht. Oder in der Garage abbrennt. Jup.
Genau das meine ich.

Das musst erst einmal durch die Zertifizierung laufen und kann erst
danach ausgerollt werden.

Hoffentlich. Ja. Es wird dennoch Fälle wie bei der Boeing 737 MAX geben.
Wo eine unterbezahlte, überforderte Behörde den Bock zum Gärtner macht.
Was aber derzeit in KBA und Automobilbranche passiert, ist ein
Gemüsegarten ohne Gärtner in einem Rehwildgehege. Was kann da wohl groß
schiefgehen?

Volker

*) Daß das was kostet ist mir auch klar. Und schon? Warum sollte das
Vergnügen der motorisierten Individualmobilität ein billiges sein?
 

Welcome to EDABoard.com

Sponsor

Back
Top