Ford+VW: Argo AI - Robotaxi-Startup eingestellt...

On Mon, 19 Dec 2022 06:46:13 +0100, Gerrit Heitsch wrote:
On 12/18/22 21:38, Volker Bartheld wrote:
4. Signierter Code und NDAs existieren. Warum nicht auch in der
Automobilbranche und bei der allzweijährlichen HU?
Letzteres heisst aber auch zertifizierter Code. Also nix mit schnell
mal ein Update nachschieben

Genau das und natürlich nicht.

Ich will in einem Gerät, welches 1.5 Tonnen und mehr wiegt und sich mit
200+km/h bewegt nicht \"schnell mal ein Update nachgeschoben\" bekommen.
Wohin sowas führt, kann man an der Boeing 737 MAX bewundern. Wenn es
einen Fehler gibt, der in so erheblichem Umfang die Funktionssicherheit
betrifft, daß man versucht ist, \"schnell mal ein Update
nachzuschieben\", dann soll man eben nicht \"schnell mal ein Update
nachschieben\". Sondern dann bleibt das Fahrzeug und baugleiche,
ebenfalls betroffene Modelle einfach so lange stehen, bis das Update
programmiert, geprüft und eingespielt wurde. Die Kosten zahlt der
Hersteller. Natürlich. Zumindest falls nicht bei der Zertifizierung
geschlampt wurde, was ja der eigentliche Grund ist, solche Fehler
möglichst vorher zu erkennen und zu beheben. *)

weil man einen Fehler gefunden hat der das Auto an einer bestimmten
Kreuzung die Ampel ignorieren lässt.

Oder einen Brückenpfeiler übersieht. Oder in der Garage abbrennt. Jup.
Genau das meine ich.

Das musst erst einmal durch die Zertifizierung laufen und kann erst
danach ausgerollt werden.

Hoffentlich. Ja. Es wird dennoch Fälle wie bei der Boeing 737 MAX geben.
Wo eine unterbezahlte, überforderte Behörde den Bock zum Gärtner macht.
Was aber derzeit in KBA und Automobilbranche passiert, ist ein
Gemüsegarten ohne Gärtner in einem Rehwildgehege. Was kann da wohl groß
schiefgehen?

Volker

*) Daß das was kostet ist mir auch klar. Und schon? Warum sollte das
Vergnügen der motorisierten Individualmobilität ein billiges sein?
 
On Mon, 19 Dec 2022 06:46:13 +0100, Gerrit Heitsch wrote:
On 12/18/22 21:38, Volker Bartheld wrote:
4. Signierter Code und NDAs existieren. Warum nicht auch in der
Automobilbranche und bei der allzweijährlichen HU?
Letzteres heisst aber auch zertifizierter Code. Also nix mit schnell
mal ein Update nachschieben

Genau das und natürlich nicht.

Ich will in einem Gerät, welches 1.5 Tonnen und mehr wiegt und sich mit
200+km/h bewegt nicht \"schnell mal ein Update nachgeschoben\" bekommen.
Wohin sowas führt, kann man an der Boeing 737 MAX bewundern. Wenn es
einen Fehler gibt, der in so erheblichem Umfang die Funktionssicherheit
betrifft, daß man versucht ist, \"schnell mal ein Update
nachzuschieben\", dann soll man eben nicht \"schnell mal ein Update
nachschieben\". Sondern dann bleibt das Fahrzeug und baugleiche,
ebenfalls betroffene Modelle einfach so lange stehen, bis das Update
programmiert, geprüft und eingespielt wurde. Die Kosten zahlt der
Hersteller. Natürlich. Zumindest falls nicht bei der Zertifizierung
geschlampt wurde, was ja der eigentliche Grund ist, solche Fehler
möglichst vorher zu erkennen und zu beheben. *)

weil man einen Fehler gefunden hat der das Auto an einer bestimmten
Kreuzung die Ampel ignorieren lässt.

Oder einen Brückenpfeiler übersieht. Oder in der Garage abbrennt. Jup.
Genau das meine ich.

Das musst erst einmal durch die Zertifizierung laufen und kann erst
danach ausgerollt werden.

Hoffentlich. Ja. Es wird dennoch Fälle wie bei der Boeing 737 MAX geben.
Wo eine unterbezahlte, überforderte Behörde den Bock zum Gärtner macht.
Was aber derzeit in KBA und Automobilbranche passiert, ist ein
Gemüsegarten ohne Gärtner in einem Rehwildgehege. Was kann da wohl groß
schiefgehen?

Volker

*) Daß das was kostet ist mir auch klar. Und schon? Warum sollte das
Vergnügen der motorisierten Individualmobilität ein billiges sein?
 
On 12/22/2022 11:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/21/2022 13:16, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/20/2022 18:48, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/20/2022 02:18, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:


[...]

\"ein Mensch\"?
Es geht um die \'Moral Machine\' im Autonomen.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!
Andernfalls gäbe es diesen Fall gar nicht.

Dann ist es die Moral Machine die in diesem Fall sagen muss dass Ausweichen nach links wegen
Gegenverkehr nicht gemacht werden sollte, waehrend sie ohne Gegenverkehr evtl
Ausweichen anordnet sofern es moeglich ist ohne das Fahrzeug und / oder andere
zu gefaehrden.

Die Machine hat ausgerechnet, daß unweigerlich eine Person sterben muß.

Um zu vermeiden, daß wir uns ewig im Kreis drehen:
http://www.schellong.de/img/div/quarks_ki_sterben.jpg

Das geschieht nicht selten konfus.
Meistens schafft es aber der Mensch - und ist dann, schwitzend und blutend, glücklich.
Eine Maschine hingegen berechnet in Millisekunden die _optimale_ Lösung, die in einigen
Fällen eben einen (erbremsten) Stillstand (Kapitulation) bedeutet.

Im Fall oben ist der Bremsweg eines autonomen Fahrzeugs viel
kuerzer als der eines Fahrzeugs mit Fahrer.

Die Reaktionszeit entfällt praktisch - jedoch nicht der Bremsweg.

Wurde eingerechnet, der Bremsweg ist 12.5m der Reaktionsweg 15m.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!

Dann bedeutet das dass der Abstand schon kleiner ist als 12.5m, da wuerde ein menschlicher
Fahrer die Frau mit voller geschwindigkeit erwischen ohne etwas dagegen tun zu koennen.
Das automatische Auto waere aber durch die Vollbremsung schon deutlich langsamer,
das verbessert ihre Ueberlebenschance.
Selbst wenn kein Gegenverkehr ist, koennte das Ausweichen unangebracht sein,
siehe Elchtest.

http://www.schellong.de/img/div/quarks_ki_sterben.jpg

Es gilt der vorstehende angenommene Fall.
Genau so, wie er gezeichnet ist, mit den gezeichneten Totenköpfen.

Und den Kurvenradien.

Nein, die Kurvenradien sind selbstverständlich symbolisch, und schräg betrachtet, ganz ohne Daten.
Andernfalls wäre mindestens ein Raster oder Maßstrich angegeben.

Wie soll man denn die richtigen Daten herausbekommen,wenn man nur dieses Bild hat ?

Die kann man nicht herausbekommen - die soll man auch nicht herausbekommen, weil
entsprechende Totenkopf-Annahmen getroffen wurden - unbedingte Festlegungen halt.

Wenn das Ausweichen auf der eingezeichneten Bahn moeglich ist,
dann ist die Geschwindigkeit des Autos so niedrig, dass auch eine Vollbremsung vor dem Zebrastrefen
noch moeglich ist. Ausserdem waere der Crash mit dem Block auf der Strasse nicht toedlich.

Du verstehst sehr offensichtlich _nicht_ die in den Wissenschaften oftmals verwendeten Annahmen!

Ich kenne die Annahmen nicht, sondern habe nur das Bild.

Du kennst alle Annahmen; die sind alle im Bild angegeben.
Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.

Ob das Ausweichen auf der eingezeichneten Bahn möglich ist, ist irrelevant.
Es wurde die Annahme getroffen, _daß_ es möglich ist.

Es waere aber Unsinnig ueber ein Problem zu dikutieren das in
der Realitaet ueberhaupt nicht auftreten kann weil es physikalischen
Gesetzen widerspricht.

Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.
Physikalische Realität ist hier irrelevant.

Ob eine Vollbremsung vor dem Zebrastreifen erfolgreich möglich ist, ist irrelevant.
Es wurde die Annahme getroffen, daß eine Vollbremsung _nicht_ erfolgreich ist (Totenkopf A!).
Es wurde die Annahme getroffen, daß der Crash mit dem Block unbedingt tödlich ist (Totenkopf B!).

Und auch die Annahme dass der Crash des Autos mit dem Block fuer die Frau auf dem
Zebrastreifen nicht toedlich ist.

Richtig, weil der Totenkopf bei B nicht bei der alten Frau angegeben ist.

Wenn naemlich das Auto weil es nicht weit genug ausweichen konnte auf die Ecke
des Blocks trifft, wird sich das Auto drehen und auch die Frau
auf dem Zebrastreifen treffen.

Woher weißt Du das? Das ist doch komplett unsicher!
Außerdem ist es irrelevant:
Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.
Und wenn entschieden wurde, ist die Arbeit der \'Moral Machine\' beendet!

Ohne Annahmen ist die \'Moral Machine\' nicht machbar, weil keine wissenschaftliche Arbeit (vernünftig) möglich ist.
Man sollte realistische Wahrscheinlichkeiten annehmen.

Nein, gar nicht, es soll der \'Moral Machine\' ein Entscheidungsfall vorgelegt werden.

Der Entscheidungsfall würde gar nicht existieren.

Genau, ich denke dass in der Realitaet dieser Entscheidungsfall nicht existiert.

Selbstverständlich gibt es den im Bild dargestellten Fall auch in der Realität.
Jeden Tag vielleicht 20-mal auf der Welt.

Durch Mißachten von Vorgaben wird so ziemlich alles sinnlos.

Die Frage die man als erstes beantworten muss, ist wie schnell das Auto maximal sein,
das kann man durch ausmessen des Bildes, und z.B hiermit berechnen:
https://www.johannes-strommer.com/rechner/geschwindigkeit-in-kurven/

Komplett irrelevant.

Ansatz: Das Auto soll offenbar 1/8 Kreisbogen (45°) fahren.

Daraus folgt dass der Kurvenradius 1.41 mal so gross ist wie die senkrechte Strecke die das
Auto vom beginn des Manoevers bis zum erreichen der 45° braucht.
In dem Bild ist diese nichmal 2 Autobreiten, also sagen wir mal 3,6 Meter, das macht einen Kurvenradius
von 5.09 Meter und eine maximale Geschwindigkeit von 22.5km/h.
Diesen Aufprall sollte man im Auto ueberleben koennen.
Der Bremsweg waere dann so ungefaehr um die 3 Meter, also weniger als 2 Autobreiten, soviel Platz
ist da auch.


Komplett irrelevant.
Du ignorierst die Vorgaben und konstruierst Dir sinnlos etwas zusammen.
Die Bildelemente sind symbolisch gezeichnet - nicht real.

Was sind denn die realen Vorgaben ?

Gibt es nicht!

Die Strasse auf dem Bild ist so schmal dass man in der Realitaet
nur mit Schrittgeschwindigkeit durchfahren wuerde - dann traete aber
das ganze Problem nicht auf.

Das sieht im Bild nur so aus - weil alles im Bild symbolisch ist.
Das Bild soll nur einen Fall für die \'Moral Machine\' darstellen.

Das autonome Auto koenne natuerlich schneller durchfahren weil es seine
Breite exakt kennt und wenig Sicherheitsabstand lassen muesste,
aber an einer Stelle wie dieser, mit wartenden Fussgaengern direkt am
Strassenrand wuerde man das nicht tun.

Es gibt im Bild keine wartenden Fußgänger.

> Ist die Frau aber weiter weg erreicht sie die Strasse nicht in der kurzen Zeit.

Es gibt im Bild keine Frau, die weiter weg ist.
In welcher kurzen Zeit?

Nach 1,7s und 12m Strecke kommt ein Auto zum Stehen (v~0), bei folgenden \'a\' und \'v0\'.
Das MIT hat offenbar deutlich weniger als 12m Haltestrecke angenommen.

a= -8.0 m/s^2 v0= 50 km/h v=[m/s]

vt soll die momentane Geschwindigkeit in m/s nach der Zeit t sein,

was ist vs ?
Es sieht so aus als ob da weniger stark gebremst wird.
Ausserdem ist s falsch. bei ca. 13.8 m/s muesste das Fahrzeug nach 0.01s
ca 0.138m zuruecklegen, bei dir sind es die Haelfte, aber vielleicht
hat die Tabelle ja eine andere Bedeutung...

Es sind zwei getrennte Formeln: vt= xyzt ; vs= xyzs
Entscheidend ist die Zeile mit vt≈0, vs≈0.

t=0.0s s=0.0m vt= 13.888889 vs= 13.888889
[...]
t=1.73s s=12.0235m vt= 0.048889 vs= 0.72473281
t=1.74s s=12.093m vt= -0.031111 vs= nan

Die umgestellten Formeln mit v_end=0: t= -v0/a ; s= -v0²/2a

a= -8.0 m/s² v0= 50 km/h v=[m/s]
t= 1.7361111 s s= 12.056327 m ; v=0

a= -5.0 m/s² v0= 50 km/h v=[m/s]
t= 2.7777778 s s= 19.290124 m ; v=0

Berechnungs-Skript:
-------------------------------------------------------------------
ARITH_FMT=\'%.8Lg\'
a=-5.0 v0k=50
set t:025 s:025 v0:025 vs:025 vt:025 q:025 sti:09
echo \"a= $a m/s^2 v0= $v0k km/h v=[m/s]\"
let \"v0=$v0k.0/3.6\"
echo \"t= $((-v0/a)) s s= $((-v0**2/[2*a])) m ; v=0\"
-------------------------------------------------------------------

Hier mal meine Version, s und x in m, v in m/s.
v und s sind Geschwindigkeit und zurueckgelegte Laenge
bei gegebener Anfangsgeschwindigkeit und Abbremsen mit 8m/s²

Die Verzögerung \'a\' kann unterschiedlich groß sein, z.B. -0,5 oder -5,0.
Deshalb rechnet die Software ständig alles in der jeweiligen Situation aus.
Vielleicht jede Millisekunde.
Ich (das MIT) erklärte bereits, daß ein Autonomes permanent ganz genau weiß, wo
sich jeder Verkehrsteilnehmer und jedes Objekt im Umfeld befinden.
Es dürfte klar sein, daß ebenso die Geschwindigkeiten und Distanzen gemessen werden.
Auch werden Berechnungen mit den Formeln der Kinematik durchgeführt.
Jeder Fall für die \'Moral Machine\' wird also festgestellt und ihr vorgelegt.

Folglich ist es müßig, selbst etwas (massenhaft) auszurechnen, denn man kennt
die in der Realität (in der Zukunft) vorliegenden Daten ohnehin nicht.
Sinnvoll ist es hingegen, sich plausible Entscheidungsfälle für die \'Moral Machine\' auszudenken.

[...]

--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On 12/22/2022 11:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/21/2022 13:16, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/20/2022 18:48, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/20/2022 02:18, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:


[...]

\"ein Mensch\"?
Es geht um die \'Moral Machine\' im Autonomen.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!
Andernfalls gäbe es diesen Fall gar nicht.

Dann ist es die Moral Machine die in diesem Fall sagen muss dass Ausweichen nach links wegen
Gegenverkehr nicht gemacht werden sollte, waehrend sie ohne Gegenverkehr evtl
Ausweichen anordnet sofern es moeglich ist ohne das Fahrzeug und / oder andere
zu gefaehrden.

Die Machine hat ausgerechnet, daß unweigerlich eine Person sterben muß.

Um zu vermeiden, daß wir uns ewig im Kreis drehen:
http://www.schellong.de/img/div/quarks_ki_sterben.jpg

Das geschieht nicht selten konfus.
Meistens schafft es aber der Mensch - und ist dann, schwitzend und blutend, glücklich.
Eine Maschine hingegen berechnet in Millisekunden die _optimale_ Lösung, die in einigen
Fällen eben einen (erbremsten) Stillstand (Kapitulation) bedeutet.

Im Fall oben ist der Bremsweg eines autonomen Fahrzeugs viel
kuerzer als der eines Fahrzeugs mit Fahrer.

Die Reaktionszeit entfällt praktisch - jedoch nicht der Bremsweg.

Wurde eingerechnet, der Bremsweg ist 12.5m der Reaktionsweg 15m.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!

Dann bedeutet das dass der Abstand schon kleiner ist als 12.5m, da wuerde ein menschlicher
Fahrer die Frau mit voller geschwindigkeit erwischen ohne etwas dagegen tun zu koennen.
Das automatische Auto waere aber durch die Vollbremsung schon deutlich langsamer,
das verbessert ihre Ueberlebenschance.
Selbst wenn kein Gegenverkehr ist, koennte das Ausweichen unangebracht sein,
siehe Elchtest.

http://www.schellong.de/img/div/quarks_ki_sterben.jpg

Es gilt der vorstehende angenommene Fall.
Genau so, wie er gezeichnet ist, mit den gezeichneten Totenköpfen.

Und den Kurvenradien.

Nein, die Kurvenradien sind selbstverständlich symbolisch, und schräg betrachtet, ganz ohne Daten.
Andernfalls wäre mindestens ein Raster oder Maßstrich angegeben.

Wie soll man denn die richtigen Daten herausbekommen,wenn man nur dieses Bild hat ?

Die kann man nicht herausbekommen - die soll man auch nicht herausbekommen, weil
entsprechende Totenkopf-Annahmen getroffen wurden - unbedingte Festlegungen halt.

Wenn das Ausweichen auf der eingezeichneten Bahn moeglich ist,
dann ist die Geschwindigkeit des Autos so niedrig, dass auch eine Vollbremsung vor dem Zebrastrefen
noch moeglich ist. Ausserdem waere der Crash mit dem Block auf der Strasse nicht toedlich.

Du verstehst sehr offensichtlich _nicht_ die in den Wissenschaften oftmals verwendeten Annahmen!

Ich kenne die Annahmen nicht, sondern habe nur das Bild.

Du kennst alle Annahmen; die sind alle im Bild angegeben.
Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.

Ob das Ausweichen auf der eingezeichneten Bahn möglich ist, ist irrelevant.
Es wurde die Annahme getroffen, _daß_ es möglich ist.

Es waere aber Unsinnig ueber ein Problem zu dikutieren das in
der Realitaet ueberhaupt nicht auftreten kann weil es physikalischen
Gesetzen widerspricht.

Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.
Physikalische Realität ist hier irrelevant.

Ob eine Vollbremsung vor dem Zebrastreifen erfolgreich möglich ist, ist irrelevant.
Es wurde die Annahme getroffen, daß eine Vollbremsung _nicht_ erfolgreich ist (Totenkopf A!).
Es wurde die Annahme getroffen, daß der Crash mit dem Block unbedingt tödlich ist (Totenkopf B!).

Und auch die Annahme dass der Crash des Autos mit dem Block fuer die Frau auf dem
Zebrastreifen nicht toedlich ist.

Richtig, weil der Totenkopf bei B nicht bei der alten Frau angegeben ist.

Wenn naemlich das Auto weil es nicht weit genug ausweichen konnte auf die Ecke
des Blocks trifft, wird sich das Auto drehen und auch die Frau
auf dem Zebrastreifen treffen.

Woher weißt Du das? Das ist doch komplett unsicher!
Außerdem ist es irrelevant:
Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.
Und wenn entschieden wurde, ist die Arbeit der \'Moral Machine\' beendet!

Ohne Annahmen ist die \'Moral Machine\' nicht machbar, weil keine wissenschaftliche Arbeit (vernünftig) möglich ist.
Man sollte realistische Wahrscheinlichkeiten annehmen.

Nein, gar nicht, es soll der \'Moral Machine\' ein Entscheidungsfall vorgelegt werden.

Der Entscheidungsfall würde gar nicht existieren.

Genau, ich denke dass in der Realitaet dieser Entscheidungsfall nicht existiert.

Selbstverständlich gibt es den im Bild dargestellten Fall auch in der Realität.
Jeden Tag vielleicht 20-mal auf der Welt.

Durch Mißachten von Vorgaben wird so ziemlich alles sinnlos.

Die Frage die man als erstes beantworten muss, ist wie schnell das Auto maximal sein,
das kann man durch ausmessen des Bildes, und z.B hiermit berechnen:
https://www.johannes-strommer.com/rechner/geschwindigkeit-in-kurven/

Komplett irrelevant.

Ansatz: Das Auto soll offenbar 1/8 Kreisbogen (45°) fahren.

Daraus folgt dass der Kurvenradius 1.41 mal so gross ist wie die senkrechte Strecke die das
Auto vom beginn des Manoevers bis zum erreichen der 45° braucht.
In dem Bild ist diese nichmal 2 Autobreiten, also sagen wir mal 3,6 Meter, das macht einen Kurvenradius
von 5.09 Meter und eine maximale Geschwindigkeit von 22.5km/h.
Diesen Aufprall sollte man im Auto ueberleben koennen.
Der Bremsweg waere dann so ungefaehr um die 3 Meter, also weniger als 2 Autobreiten, soviel Platz
ist da auch.


Komplett irrelevant.
Du ignorierst die Vorgaben und konstruierst Dir sinnlos etwas zusammen.
Die Bildelemente sind symbolisch gezeichnet - nicht real.

Was sind denn die realen Vorgaben ?

Gibt es nicht!

Die Strasse auf dem Bild ist so schmal dass man in der Realitaet
nur mit Schrittgeschwindigkeit durchfahren wuerde - dann traete aber
das ganze Problem nicht auf.

Das sieht im Bild nur so aus - weil alles im Bild symbolisch ist.
Das Bild soll nur einen Fall für die \'Moral Machine\' darstellen.

Das autonome Auto koenne natuerlich schneller durchfahren weil es seine
Breite exakt kennt und wenig Sicherheitsabstand lassen muesste,
aber an einer Stelle wie dieser, mit wartenden Fussgaengern direkt am
Strassenrand wuerde man das nicht tun.

Es gibt im Bild keine wartenden Fußgänger.

> Ist die Frau aber weiter weg erreicht sie die Strasse nicht in der kurzen Zeit.

Es gibt im Bild keine Frau, die weiter weg ist.
In welcher kurzen Zeit?

Nach 1,7s und 12m Strecke kommt ein Auto zum Stehen (v~0), bei folgenden \'a\' und \'v0\'.
Das MIT hat offenbar deutlich weniger als 12m Haltestrecke angenommen.

a= -8.0 m/s^2 v0= 50 km/h v=[m/s]

vt soll die momentane Geschwindigkeit in m/s nach der Zeit t sein,

was ist vs ?
Es sieht so aus als ob da weniger stark gebremst wird.
Ausserdem ist s falsch. bei ca. 13.8 m/s muesste das Fahrzeug nach 0.01s
ca 0.138m zuruecklegen, bei dir sind es die Haelfte, aber vielleicht
hat die Tabelle ja eine andere Bedeutung...

Es sind zwei getrennte Formeln: vt= xyzt ; vs= xyzs
Entscheidend ist die Zeile mit vt≈0, vs≈0.

t=0.0s s=0.0m vt= 13.888889 vs= 13.888889
[...]
t=1.73s s=12.0235m vt= 0.048889 vs= 0.72473281
t=1.74s s=12.093m vt= -0.031111 vs= nan

Die umgestellten Formeln mit v_end=0: t= -v0/a ; s= -v0²/2a

a= -8.0 m/s² v0= 50 km/h v=[m/s]
t= 1.7361111 s s= 12.056327 m ; v=0

a= -5.0 m/s² v0= 50 km/h v=[m/s]
t= 2.7777778 s s= 19.290124 m ; v=0

Berechnungs-Skript:
-------------------------------------------------------------------
ARITH_FMT=\'%.8Lg\'
a=-5.0 v0k=50
set t:025 s:025 v0:025 vs:025 vt:025 q:025 sti:09
echo \"a= $a m/s^2 v0= $v0k km/h v=[m/s]\"
let \"v0=$v0k.0/3.6\"
echo \"t= $((-v0/a)) s s= $((-v0**2/[2*a])) m ; v=0\"
-------------------------------------------------------------------

Hier mal meine Version, s und x in m, v in m/s.
v und s sind Geschwindigkeit und zurueckgelegte Laenge
bei gegebener Anfangsgeschwindigkeit und Abbremsen mit 8m/s²

Die Verzögerung \'a\' kann unterschiedlich groß sein, z.B. -0,5 oder -5,0.
Deshalb rechnet die Software ständig alles in der jeweiligen Situation aus.
Vielleicht jede Millisekunde.
Ich (das MIT) erklärte bereits, daß ein Autonomes permanent ganz genau weiß, wo
sich jeder Verkehrsteilnehmer und jedes Objekt im Umfeld befinden.
Es dürfte klar sein, daß ebenso die Geschwindigkeiten und Distanzen gemessen werden.
Auch werden Berechnungen mit den Formeln der Kinematik durchgeführt.
Jeder Fall für die \'Moral Machine\' wird also festgestellt und ihr vorgelegt.

Folglich ist es müßig, selbst etwas (massenhaft) auszurechnen, denn man kennt
die in der Realität (in der Zukunft) vorliegenden Daten ohnehin nicht.
Sinnvoll ist es hingegen, sich plausible Entscheidungsfälle für die \'Moral Machine\' auszudenken.

[...]

--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On 12/22/2022 11:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/21/2022 13:16, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/20/2022 18:48, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/20/2022 02:18, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:


[...]

\"ein Mensch\"?
Es geht um die \'Moral Machine\' im Autonomen.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!
Andernfalls gäbe es diesen Fall gar nicht.

Dann ist es die Moral Machine die in diesem Fall sagen muss dass Ausweichen nach links wegen
Gegenverkehr nicht gemacht werden sollte, waehrend sie ohne Gegenverkehr evtl
Ausweichen anordnet sofern es moeglich ist ohne das Fahrzeug und / oder andere
zu gefaehrden.

Die Machine hat ausgerechnet, daß unweigerlich eine Person sterben muß.

Um zu vermeiden, daß wir uns ewig im Kreis drehen:
http://www.schellong.de/img/div/quarks_ki_sterben.jpg

Das geschieht nicht selten konfus.
Meistens schafft es aber der Mensch - und ist dann, schwitzend und blutend, glücklich.
Eine Maschine hingegen berechnet in Millisekunden die _optimale_ Lösung, die in einigen
Fällen eben einen (erbremsten) Stillstand (Kapitulation) bedeutet.

Im Fall oben ist der Bremsweg eines autonomen Fahrzeugs viel
kuerzer als der eines Fahrzeugs mit Fahrer.

Die Reaktionszeit entfällt praktisch - jedoch nicht der Bremsweg.

Wurde eingerechnet, der Bremsweg ist 12.5m der Reaktionsweg 15m.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!

Dann bedeutet das dass der Abstand schon kleiner ist als 12.5m, da wuerde ein menschlicher
Fahrer die Frau mit voller geschwindigkeit erwischen ohne etwas dagegen tun zu koennen.
Das automatische Auto waere aber durch die Vollbremsung schon deutlich langsamer,
das verbessert ihre Ueberlebenschance.
Selbst wenn kein Gegenverkehr ist, koennte das Ausweichen unangebracht sein,
siehe Elchtest.

http://www.schellong.de/img/div/quarks_ki_sterben.jpg

Es gilt der vorstehende angenommene Fall.
Genau so, wie er gezeichnet ist, mit den gezeichneten Totenköpfen.

Und den Kurvenradien.

Nein, die Kurvenradien sind selbstverständlich symbolisch, und schräg betrachtet, ganz ohne Daten.
Andernfalls wäre mindestens ein Raster oder Maßstrich angegeben.

Wie soll man denn die richtigen Daten herausbekommen,wenn man nur dieses Bild hat ?

Die kann man nicht herausbekommen - die soll man auch nicht herausbekommen, weil
entsprechende Totenkopf-Annahmen getroffen wurden - unbedingte Festlegungen halt.

Wenn das Ausweichen auf der eingezeichneten Bahn moeglich ist,
dann ist die Geschwindigkeit des Autos so niedrig, dass auch eine Vollbremsung vor dem Zebrastrefen
noch moeglich ist. Ausserdem waere der Crash mit dem Block auf der Strasse nicht toedlich.

Du verstehst sehr offensichtlich _nicht_ die in den Wissenschaften oftmals verwendeten Annahmen!

Ich kenne die Annahmen nicht, sondern habe nur das Bild.

Du kennst alle Annahmen; die sind alle im Bild angegeben.
Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.

Ob das Ausweichen auf der eingezeichneten Bahn möglich ist, ist irrelevant.
Es wurde die Annahme getroffen, _daß_ es möglich ist.

Es waere aber Unsinnig ueber ein Problem zu dikutieren das in
der Realitaet ueberhaupt nicht auftreten kann weil es physikalischen
Gesetzen widerspricht.

Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.
Physikalische Realität ist hier irrelevant.

Ob eine Vollbremsung vor dem Zebrastreifen erfolgreich möglich ist, ist irrelevant.
Es wurde die Annahme getroffen, daß eine Vollbremsung _nicht_ erfolgreich ist (Totenkopf A!).
Es wurde die Annahme getroffen, daß der Crash mit dem Block unbedingt tödlich ist (Totenkopf B!).

Und auch die Annahme dass der Crash des Autos mit dem Block fuer die Frau auf dem
Zebrastreifen nicht toedlich ist.

Richtig, weil der Totenkopf bei B nicht bei der alten Frau angegeben ist.

Wenn naemlich das Auto weil es nicht weit genug ausweichen konnte auf die Ecke
des Blocks trifft, wird sich das Auto drehen und auch die Frau
auf dem Zebrastreifen treffen.

Woher weißt Du das? Das ist doch komplett unsicher!
Außerdem ist es irrelevant:
Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.
Und wenn entschieden wurde, ist die Arbeit der \'Moral Machine\' beendet!

Ohne Annahmen ist die \'Moral Machine\' nicht machbar, weil keine wissenschaftliche Arbeit (vernünftig) möglich ist.
Man sollte realistische Wahrscheinlichkeiten annehmen.

Nein, gar nicht, es soll der \'Moral Machine\' ein Entscheidungsfall vorgelegt werden.

Der Entscheidungsfall würde gar nicht existieren.

Genau, ich denke dass in der Realitaet dieser Entscheidungsfall nicht existiert.

Selbstverständlich gibt es den im Bild dargestellten Fall auch in der Realität.
Jeden Tag vielleicht 20-mal auf der Welt.

Durch Mißachten von Vorgaben wird so ziemlich alles sinnlos.

Die Frage die man als erstes beantworten muss, ist wie schnell das Auto maximal sein,
das kann man durch ausmessen des Bildes, und z.B hiermit berechnen:
https://www.johannes-strommer.com/rechner/geschwindigkeit-in-kurven/

Komplett irrelevant.

Ansatz: Das Auto soll offenbar 1/8 Kreisbogen (45°) fahren.

Daraus folgt dass der Kurvenradius 1.41 mal so gross ist wie die senkrechte Strecke die das
Auto vom beginn des Manoevers bis zum erreichen der 45° braucht.
In dem Bild ist diese nichmal 2 Autobreiten, also sagen wir mal 3,6 Meter, das macht einen Kurvenradius
von 5.09 Meter und eine maximale Geschwindigkeit von 22.5km/h.
Diesen Aufprall sollte man im Auto ueberleben koennen.
Der Bremsweg waere dann so ungefaehr um die 3 Meter, also weniger als 2 Autobreiten, soviel Platz
ist da auch.


Komplett irrelevant.
Du ignorierst die Vorgaben und konstruierst Dir sinnlos etwas zusammen.
Die Bildelemente sind symbolisch gezeichnet - nicht real.

Was sind denn die realen Vorgaben ?

Gibt es nicht!

Die Strasse auf dem Bild ist so schmal dass man in der Realitaet
nur mit Schrittgeschwindigkeit durchfahren wuerde - dann traete aber
das ganze Problem nicht auf.

Das sieht im Bild nur so aus - weil alles im Bild symbolisch ist.
Das Bild soll nur einen Fall für die \'Moral Machine\' darstellen.

Das autonome Auto koenne natuerlich schneller durchfahren weil es seine
Breite exakt kennt und wenig Sicherheitsabstand lassen muesste,
aber an einer Stelle wie dieser, mit wartenden Fussgaengern direkt am
Strassenrand wuerde man das nicht tun.

Es gibt im Bild keine wartenden Fußgänger.

> Ist die Frau aber weiter weg erreicht sie die Strasse nicht in der kurzen Zeit.

Es gibt im Bild keine Frau, die weiter weg ist.
In welcher kurzen Zeit?

Nach 1,7s und 12m Strecke kommt ein Auto zum Stehen (v~0), bei folgenden \'a\' und \'v0\'.
Das MIT hat offenbar deutlich weniger als 12m Haltestrecke angenommen.

a= -8.0 m/s^2 v0= 50 km/h v=[m/s]

vt soll die momentane Geschwindigkeit in m/s nach der Zeit t sein,

was ist vs ?
Es sieht so aus als ob da weniger stark gebremst wird.
Ausserdem ist s falsch. bei ca. 13.8 m/s muesste das Fahrzeug nach 0.01s
ca 0.138m zuruecklegen, bei dir sind es die Haelfte, aber vielleicht
hat die Tabelle ja eine andere Bedeutung...

Es sind zwei getrennte Formeln: vt= xyzt ; vs= xyzs
Entscheidend ist die Zeile mit vt≈0, vs≈0.

t=0.0s s=0.0m vt= 13.888889 vs= 13.888889
[...]
t=1.73s s=12.0235m vt= 0.048889 vs= 0.72473281
t=1.74s s=12.093m vt= -0.031111 vs= nan

Die umgestellten Formeln mit v_end=0: t= -v0/a ; s= -v0²/2a

a= -8.0 m/s² v0= 50 km/h v=[m/s]
t= 1.7361111 s s= 12.056327 m ; v=0

a= -5.0 m/s² v0= 50 km/h v=[m/s]
t= 2.7777778 s s= 19.290124 m ; v=0

Berechnungs-Skript:
-------------------------------------------------------------------
ARITH_FMT=\'%.8Lg\'
a=-5.0 v0k=50
set t:025 s:025 v0:025 vs:025 vt:025 q:025 sti:09
echo \"a= $a m/s^2 v0= $v0k km/h v=[m/s]\"
let \"v0=$v0k.0/3.6\"
echo \"t= $((-v0/a)) s s= $((-v0**2/[2*a])) m ; v=0\"
-------------------------------------------------------------------

Hier mal meine Version, s und x in m, v in m/s.
v und s sind Geschwindigkeit und zurueckgelegte Laenge
bei gegebener Anfangsgeschwindigkeit und Abbremsen mit 8m/s²

Die Verzögerung \'a\' kann unterschiedlich groß sein, z.B. -0,5 oder -5,0.
Deshalb rechnet die Software ständig alles in der jeweiligen Situation aus.
Vielleicht jede Millisekunde.
Ich (das MIT) erklärte bereits, daß ein Autonomes permanent ganz genau weiß, wo
sich jeder Verkehrsteilnehmer und jedes Objekt im Umfeld befinden.
Es dürfte klar sein, daß ebenso die Geschwindigkeiten und Distanzen gemessen werden.
Auch werden Berechnungen mit den Formeln der Kinematik durchgeführt.
Jeder Fall für die \'Moral Machine\' wird also festgestellt und ihr vorgelegt.

Folglich ist es müßig, selbst etwas (massenhaft) auszurechnen, denn man kennt
die in der Realität (in der Zukunft) vorliegenden Daten ohnehin nicht.
Sinnvoll ist es hingegen, sich plausible Entscheidungsfälle für die \'Moral Machine\' auszudenken.

[...]

--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On Mon, 19 Dec 2022 08:14:55 +0100, Gerrit Heitsch wrote:
On 12/19/22 08:09, Christoph Müller wrote:
Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

Wofür? Das man die Millionen Parameter eines GAN immer noch nicht
analytisch verstehen kann? Daß selbst ein Stück regulär entwickelter
Software so komplex ist, daß sich immer noch fatale Fehler
einschleichen können? Was verleitet uns zu der Hochmut, es könnte ein
mit identischen (naja, OK, _weitgehend_ identischen) Methoden
entwickeltes und getestetes Betriebssystem für Automobile mit
vergleichbarer Nutzerbasis weniger Macken aufweisen als die offenbar
ständig zu patchenden Betriebssysteme auf Smartphones, PC und sonstigen
Erzeugnissen der Krawallelektronik?

Wie lange blieben Sasser, Heartbleed, Spectre/Meltdown unentdeckt? [1]
ist da nur der pointierte Ausgang dessen, was wir in Zukunft erwarten
dürfen. [2]-[4] z. B. Ja, aber Volker, das sind doch alles mutwillige
Hacks, die nicht das Geschehen in der Praxis widerspiegeln. Nein. Das
sind mutwillige Hacks, wie wir sie in der Zukunft häufiger sehen
werden. Es werden sogar \"Profis\" dran rumhacken, Dienste z. B.:
[5]-[10].

Das kommt auf die Probleme wegen ausufernder Komplexität und von
schlampiger, durch Gier bzw. Lobbyismus getriebener Implementierung
noch obendrauf [11]-[15].

Zum gefühlten Weichensteller-Paradoxon:

Ich würde bei einer unklaren Situation vom KI-System \"Passivität\"
fordern. Anführungszeichen deswegen, weil ich die Vollbremsung noch in
die Kategorie \"passiv\" einsortiere. D. h. NICHT den 80-jährigen Opi,
NICHT die Schulklasse an der Bushaltestelle und auch kein Lenkmanöver,
das die Karre an den Brückenpfeiler setzt. Sondern eben eine
Vollbremsung. Wenn es dann für das hinter dem Auto hervorgelaufene Kind
oder den folgenden, nur teil- oder nullautonomen Verkehr nicht reicht,
ist es eben Pech bzw. verletzte Aufsichtspflicht.

Falls wir aber vorhaben, § 3 Abs 1 StVO für autonome Fahrzeuge außer
Kraft zu setzen (weil ein de-facto-Tempolimit von 30km/h und weniger im
innerstädtischen Verkehr inakzeptabel ist), wird es natürlich Unfälle
geben. Das ist dann kein Computerproblem, sondern Physik und von der
Gesellschaft hinzunehmen. Etwa weil es bequemer ist oder weil es 0.1%
weniger Erwartungswert auf Körperverletzung in der
Versicherungsmathematik gibt.

Wenn man korrekt messen will muss jeder Eingriff der Sicherheitsfahrer
als Unfall gewertet werden. Tut man das sehen die Werte für autonomes
Fahren allerdings nicht mehr besonders gut aus.

Genau.

Volker


[1] https://techcrunch.com/2017/03/17/laying-a-trap-for-self-driving-cars/
[2] https://arstechnica.com/cars/2017/09/hacking-street-signs-with-stickers-could-confuse-self-driving-cars/
[3] https://www.telegraph.co.uk/technology/2017/08/07/graffiti-road-signs-could-trick-driverless-cars-driving-dangerously/
[4] https://www.digitaltrends.com/cars/harman-combats-cyberattacks-on-autonomous-vehicles-at-ces/
[5] https://www.golem.de/news/innenministerium-zitis-darf-auch-vernetzte-autos-hacken-1903-140192.html
[6] https://netzpolitik.org/2019/staatstrojaner-zitis-will-autos-hacken/#2019-03-13_Frage_BMI_ZITiS_Connected-Cars
[7] https://www.noz.de/deutschland-welt/gut-zu-wissen/artikel/599347/experten-warnen-eu-notruf-ecall-konnte-einfallstor-fur-hacker-werden
[8] https://www.stern.de/auto/service/automatisches-notrufsystem-ecall--wir-wissen--wann-du-bei-rot-gefahren-bist-7832422.html
[9] https://www.crn.de/software-services/artikel-116756.html
[10] https://media.ccc.de/v/DS2015-6988-ecall_-_lebensretter_oder_datenwanze_im_auto
[11] https://www.wired.com/story/uber-self-driving-crash-explanation-lidar-sensors/
[12] https://www.wired.com/story/uber-self-driving-crash-video-arizona/
[13] https://www.theguardian.com/technology/2018/mar/22/self-driving-car-uber-death-woman-failure-fatal-crash-arizona
[14] http://www.spiegel.de/auto/aktuell/usa-uber-darf-selbstfahrende-autos-nicht-mehr-in-arizona-testen-a-1200008.html
[15] https://youtu.be/ufNNuafuU7M?t=9s
 
On Mon, 19 Dec 2022 08:14:55 +0100, Gerrit Heitsch wrote:
On 12/19/22 08:09, Christoph Müller wrote:
Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

Wofür? Das man die Millionen Parameter eines GAN immer noch nicht
analytisch verstehen kann? Daß selbst ein Stück regulär entwickelter
Software so komplex ist, daß sich immer noch fatale Fehler
einschleichen können? Was verleitet uns zu der Hochmut, es könnte ein
mit identischen (naja, OK, _weitgehend_ identischen) Methoden
entwickeltes und getestetes Betriebssystem für Automobile mit
vergleichbarer Nutzerbasis weniger Macken aufweisen als die offenbar
ständig zu patchenden Betriebssysteme auf Smartphones, PC und sonstigen
Erzeugnissen der Krawallelektronik?

Wie lange blieben Sasser, Heartbleed, Spectre/Meltdown unentdeckt? [1]
ist da nur der pointierte Ausgang dessen, was wir in Zukunft erwarten
dürfen. [2]-[4] z. B. Ja, aber Volker, das sind doch alles mutwillige
Hacks, die nicht das Geschehen in der Praxis widerspiegeln. Nein. Das
sind mutwillige Hacks, wie wir sie in der Zukunft häufiger sehen
werden. Es werden sogar \"Profis\" dran rumhacken, Dienste z. B.:
[5]-[10].

Das kommt auf die Probleme wegen ausufernder Komplexität und von
schlampiger, durch Gier bzw. Lobbyismus getriebener Implementierung
noch obendrauf [11]-[15].

Zum gefühlten Weichensteller-Paradoxon:

Ich würde bei einer unklaren Situation vom KI-System \"Passivität\"
fordern. Anführungszeichen deswegen, weil ich die Vollbremsung noch in
die Kategorie \"passiv\" einsortiere. D. h. NICHT den 80-jährigen Opi,
NICHT die Schulklasse an der Bushaltestelle und auch kein Lenkmanöver,
das die Karre an den Brückenpfeiler setzt. Sondern eben eine
Vollbremsung. Wenn es dann für das hinter dem Auto hervorgelaufene Kind
oder den folgenden, nur teil- oder nullautonomen Verkehr nicht reicht,
ist es eben Pech bzw. verletzte Aufsichtspflicht.

Falls wir aber vorhaben, § 3 Abs 1 StVO für autonome Fahrzeuge außer
Kraft zu setzen (weil ein de-facto-Tempolimit von 30km/h und weniger im
innerstädtischen Verkehr inakzeptabel ist), wird es natürlich Unfälle
geben. Das ist dann kein Computerproblem, sondern Physik und von der
Gesellschaft hinzunehmen. Etwa weil es bequemer ist oder weil es 0.1%
weniger Erwartungswert auf Körperverletzung in der
Versicherungsmathematik gibt.

Wenn man korrekt messen will muss jeder Eingriff der Sicherheitsfahrer
als Unfall gewertet werden. Tut man das sehen die Werte für autonomes
Fahren allerdings nicht mehr besonders gut aus.

Genau.

Volker


[1] https://techcrunch.com/2017/03/17/laying-a-trap-for-self-driving-cars/
[2] https://arstechnica.com/cars/2017/09/hacking-street-signs-with-stickers-could-confuse-self-driving-cars/
[3] https://www.telegraph.co.uk/technology/2017/08/07/graffiti-road-signs-could-trick-driverless-cars-driving-dangerously/
[4] https://www.digitaltrends.com/cars/harman-combats-cyberattacks-on-autonomous-vehicles-at-ces/
[5] https://www.golem.de/news/innenministerium-zitis-darf-auch-vernetzte-autos-hacken-1903-140192.html
[6] https://netzpolitik.org/2019/staatstrojaner-zitis-will-autos-hacken/#2019-03-13_Frage_BMI_ZITiS_Connected-Cars
[7] https://www.noz.de/deutschland-welt/gut-zu-wissen/artikel/599347/experten-warnen-eu-notruf-ecall-konnte-einfallstor-fur-hacker-werden
[8] https://www.stern.de/auto/service/automatisches-notrufsystem-ecall--wir-wissen--wann-du-bei-rot-gefahren-bist-7832422.html
[9] https://www.crn.de/software-services/artikel-116756.html
[10] https://media.ccc.de/v/DS2015-6988-ecall_-_lebensretter_oder_datenwanze_im_auto
[11] https://www.wired.com/story/uber-self-driving-crash-explanation-lidar-sensors/
[12] https://www.wired.com/story/uber-self-driving-crash-video-arizona/
[13] https://www.theguardian.com/technology/2018/mar/22/self-driving-car-uber-death-woman-failure-fatal-crash-arizona
[14] http://www.spiegel.de/auto/aktuell/usa-uber-darf-selbstfahrende-autos-nicht-mehr-in-arizona-testen-a-1200008.html
[15] https://youtu.be/ufNNuafuU7M?t=9s
 
On Mon, 19 Dec 2022 08:14:55 +0100, Gerrit Heitsch wrote:
On 12/19/22 08:09, Christoph Müller wrote:
Inzwischen hat man viele Millionen Kilometer Erfahrungen gesammelt. Das
ist weit mehr, als ein einzelner Mensch je mit dem Auto fahren wird. Das
zusammen mit den Eingriffen der Sicherheitsfahrer sollte doch eine gute
Entscheidungsbasis abgeben.

Wofür? Das man die Millionen Parameter eines GAN immer noch nicht
analytisch verstehen kann? Daß selbst ein Stück regulär entwickelter
Software so komplex ist, daß sich immer noch fatale Fehler
einschleichen können? Was verleitet uns zu der Hochmut, es könnte ein
mit identischen (naja, OK, _weitgehend_ identischen) Methoden
entwickeltes und getestetes Betriebssystem für Automobile mit
vergleichbarer Nutzerbasis weniger Macken aufweisen als die offenbar
ständig zu patchenden Betriebssysteme auf Smartphones, PC und sonstigen
Erzeugnissen der Krawallelektronik?

Wie lange blieben Sasser, Heartbleed, Spectre/Meltdown unentdeckt? [1]
ist da nur der pointierte Ausgang dessen, was wir in Zukunft erwarten
dürfen. [2]-[4] z. B. Ja, aber Volker, das sind doch alles mutwillige
Hacks, die nicht das Geschehen in der Praxis widerspiegeln. Nein. Das
sind mutwillige Hacks, wie wir sie in der Zukunft häufiger sehen
werden. Es werden sogar \"Profis\" dran rumhacken, Dienste z. B.:
[5]-[10].

Das kommt auf die Probleme wegen ausufernder Komplexität und von
schlampiger, durch Gier bzw. Lobbyismus getriebener Implementierung
noch obendrauf [11]-[15].

Zum gefühlten Weichensteller-Paradoxon:

Ich würde bei einer unklaren Situation vom KI-System \"Passivität\"
fordern. Anführungszeichen deswegen, weil ich die Vollbremsung noch in
die Kategorie \"passiv\" einsortiere. D. h. NICHT den 80-jährigen Opi,
NICHT die Schulklasse an der Bushaltestelle und auch kein Lenkmanöver,
das die Karre an den Brückenpfeiler setzt. Sondern eben eine
Vollbremsung. Wenn es dann für das hinter dem Auto hervorgelaufene Kind
oder den folgenden, nur teil- oder nullautonomen Verkehr nicht reicht,
ist es eben Pech bzw. verletzte Aufsichtspflicht.

Falls wir aber vorhaben, § 3 Abs 1 StVO für autonome Fahrzeuge außer
Kraft zu setzen (weil ein de-facto-Tempolimit von 30km/h und weniger im
innerstädtischen Verkehr inakzeptabel ist), wird es natürlich Unfälle
geben. Das ist dann kein Computerproblem, sondern Physik und von der
Gesellschaft hinzunehmen. Etwa weil es bequemer ist oder weil es 0.1%
weniger Erwartungswert auf Körperverletzung in der
Versicherungsmathematik gibt.

Wenn man korrekt messen will muss jeder Eingriff der Sicherheitsfahrer
als Unfall gewertet werden. Tut man das sehen die Werte für autonomes
Fahren allerdings nicht mehr besonders gut aus.

Genau.

Volker


[1] https://techcrunch.com/2017/03/17/laying-a-trap-for-self-driving-cars/
[2] https://arstechnica.com/cars/2017/09/hacking-street-signs-with-stickers-could-confuse-self-driving-cars/
[3] https://www.telegraph.co.uk/technology/2017/08/07/graffiti-road-signs-could-trick-driverless-cars-driving-dangerously/
[4] https://www.digitaltrends.com/cars/harman-combats-cyberattacks-on-autonomous-vehicles-at-ces/
[5] https://www.golem.de/news/innenministerium-zitis-darf-auch-vernetzte-autos-hacken-1903-140192.html
[6] https://netzpolitik.org/2019/staatstrojaner-zitis-will-autos-hacken/#2019-03-13_Frage_BMI_ZITiS_Connected-Cars
[7] https://www.noz.de/deutschland-welt/gut-zu-wissen/artikel/599347/experten-warnen-eu-notruf-ecall-konnte-einfallstor-fur-hacker-werden
[8] https://www.stern.de/auto/service/automatisches-notrufsystem-ecall--wir-wissen--wann-du-bei-rot-gefahren-bist-7832422.html
[9] https://www.crn.de/software-services/artikel-116756.html
[10] https://media.ccc.de/v/DS2015-6988-ecall_-_lebensretter_oder_datenwanze_im_auto
[11] https://www.wired.com/story/uber-self-driving-crash-explanation-lidar-sensors/
[12] https://www.wired.com/story/uber-self-driving-crash-video-arizona/
[13] https://www.theguardian.com/technology/2018/mar/22/self-driving-car-uber-death-woman-failure-fatal-crash-arizona
[14] http://www.spiegel.de/auto/aktuell/usa-uber-darf-selbstfahrende-autos-nicht-mehr-in-arizona-testen-a-1200008.html
[15] https://youtu.be/ufNNuafuU7M?t=9s
 
On 12/22/2022 12:26, Rolf Bombach wrote:
Helmut Schellong schrieb:

Nein, Maschinen können keine Fehler machen!
Hingegen die Software in Maschinen kann fehlerhaft programmiert worden sein.

Wie war das mit dem AT&T telephone crash in Kanada?

Die Software war fehlerfrei.
Die Hardware war fehlerfrei.
Alle Eingaben waren fehlerfrei.

Trotzdem Totalcrash.

War da nicht was mit besonders starken Sonnenwinden?!


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On 12/22/2022 12:26, Rolf Bombach wrote:
Helmut Schellong schrieb:

Nein, Maschinen können keine Fehler machen!
Hingegen die Software in Maschinen kann fehlerhaft programmiert worden sein.

Wie war das mit dem AT&T telephone crash in Kanada?

Die Software war fehlerfrei.
Die Hardware war fehlerfrei.
Alle Eingaben waren fehlerfrei.

Trotzdem Totalcrash.

War da nicht was mit besonders starken Sonnenwinden?!


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On 12/22/2022 12:26, Rolf Bombach wrote:
Helmut Schellong schrieb:

Nein, Maschinen können keine Fehler machen!
Hingegen die Software in Maschinen kann fehlerhaft programmiert worden sein.

Wie war das mit dem AT&T telephone crash in Kanada?

Die Software war fehlerfrei.
Die Hardware war fehlerfrei.
Alle Eingaben waren fehlerfrei.

Trotzdem Totalcrash.

War da nicht was mit besonders starken Sonnenwinden?!


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
Volker Bartheld wrote:
On Sat, 24 Dec 2022 10:03:44 +0100, Carla Schneider wrote:
Rolf Bombach wrote:
Christoph Müller schrieb:
Am 23.12.2022 um 15:02 schrieb Alexander Schreiber:
Soweit ich weiss hat bisher noch niemand Monsterwellen in Luft
nachgewiesen.
Woher kommt das Muschelrauschen?
Weisses Rauschen - Resonanz
https://de.wikipedia.org/wiki/Helmholtz-Resonator
Der hat allerdings eine bestimmte Resonanz-Frequenz,
d.h. was man an dem hoeren muesste ist ein reiner Ton.

Reale Resonatoren haben eine endliche Güte (wegen mir auch Gütefaktor)
und mithin eine Band- bzw. Resonanzbreite. Mit weißem Rauschen
kontinuierlich angeregt, ist das Ergebnis mitnichten ein reiner Ton.

Aber sicher etwas hoerbar anderes als weisses Rauschen.
 
Volker Bartheld wrote:
On Sat, 24 Dec 2022 10:03:44 +0100, Carla Schneider wrote:
Rolf Bombach wrote:
Christoph Müller schrieb:
Am 23.12.2022 um 15:02 schrieb Alexander Schreiber:
Soweit ich weiss hat bisher noch niemand Monsterwellen in Luft
nachgewiesen.
Woher kommt das Muschelrauschen?
Weisses Rauschen - Resonanz
https://de.wikipedia.org/wiki/Helmholtz-Resonator
Der hat allerdings eine bestimmte Resonanz-Frequenz,
d.h. was man an dem hoeren muesste ist ein reiner Ton.

Reale Resonatoren haben eine endliche Güte (wegen mir auch Gütefaktor)
und mithin eine Band- bzw. Resonanzbreite. Mit weißem Rauschen
kontinuierlich angeregt, ist das Ergebnis mitnichten ein reiner Ton.

Aber sicher etwas hoerbar anderes als weisses Rauschen.
 
Volker Bartheld wrote:
On Sat, 24 Dec 2022 10:03:44 +0100, Carla Schneider wrote:
Rolf Bombach wrote:
Christoph Müller schrieb:
Am 23.12.2022 um 15:02 schrieb Alexander Schreiber:
Soweit ich weiss hat bisher noch niemand Monsterwellen in Luft
nachgewiesen.
Woher kommt das Muschelrauschen?
Weisses Rauschen - Resonanz
https://de.wikipedia.org/wiki/Helmholtz-Resonator
Der hat allerdings eine bestimmte Resonanz-Frequenz,
d.h. was man an dem hoeren muesste ist ein reiner Ton.

Reale Resonatoren haben eine endliche Güte (wegen mir auch Gütefaktor)
und mithin eine Band- bzw. Resonanzbreite. Mit weißem Rauschen
kontinuierlich angeregt, ist das Ergebnis mitnichten ein reiner Ton.

Aber sicher etwas hoerbar anderes als weisses Rauschen.
 
Helmut Schellong wrote:
On 01/07/2023 00:59, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/06/2023 12:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/05/2023 12:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/04/2023 01:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/03/2023 00:57, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/02/2023 00:48, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/31/2022 12:27, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 20:36, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 13:06, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/14/2022 13:57, Helmut Schellong wrote:
Handelsblatt:

[...]

Level_5 ist aber eindeutig viel höher stehend!

Bei Level_5 ist eine notwendige Hilfe eines Fahrers ausdrücklich ausgeschlossen!
Das ist ein riesiger Unterschied.

Nur wenn ein Fehler auftritt, oder ein Unfall der z.B. einen Sensor beschaedigt,
sodass das Fahrzeug nicht mehr autonom fahren kann. Mit Level 4 und Fuehrerschein kann
man trotzdem weiter fahren...

Level_5 verlangt ausdrücklich nicht die Abwesenheit von Bedienungselementen.

Deshalb wuerde ich lieber ein Level 4 Fahrzeug haben, das sollte
aber autonom genausogut fahren koennen wie ein Level 5 Fahrzeug.

Das wird es aber nicht - Du wirst hier unlogisch.
Premium ist ein Level_5 _mit_ Bedienungselementen!

Da war ich falsch informiert, Bedienelemente kann es bei Level 5
genauso geben wie bei Level 4, der Unterschied ist, dass Level 4
nur unter bestimmten Bedingungen autonom fahren kann, Level 5
aber immer wenn auch ein Mensch fahren kann:

Ich hatte die Definitionen der Level 4 und 5 gepostet, nach denen ich mich richte.

Wenn sie von der im folgenden Link abweicht dann stimmt sie nicht, denn da kommt sie
her:

https://www.sae.org/news/2019/01/sae-updates-j3016-automated-driving-graphic

Allerdings ist das ein bischen Wischiwaschi, weil auch Level 5 bestimmten
Bedingungen unterliegt, z.B. nicht off Road faehrt, oder bei zu starkem Schneefall,
wenn das LIDAR nicht mehr funktioniert.
Aber die meinen eher sowas wie dass Autos zur Zeit nur in San Francisco funktionieren,
aber dort vollstaendig autonom ohne Fahrer fahren.
Ich wette wenn ein Auto in den ganzen USA autonom fahren kann zaehlt es als Level 5,

Ja, sehe ich auch so - aber erst dann.

Aber jeder Feldweg muss nicht drin sein, das waere dann aber wieder eine
Einschraenkung.
Ich schaezte mal dass die Wert darauf legen dass die Fahrzeuge nur
auf geprueften Wegen unterwegs sind damit sie nicht steckenbleiben
oder in Loecher fallen.
Die Einschaetzung ob so ein Weg nach Niederschlaegen befahrbar ist oder
nicht will man vielleicht auch nicht dem Fahrzeug ueberlassen, also wird
man so einen Weg von vornherein ausschliessen, obwohl er fuer einen Menschen
meistens befahrbar ist.

obwohl es in China nicht fahren koennte weil es die Chinesischen Verkehrszeichen
nicht kennt.

Das macht nichts, denn ein Mensch müßte die Schilder auch lernen.

Tatsaechlich fahren die Fahrzeuge von AUTOX TECHNOLOGIES auch in Schenzen China.

Auch die Autovermieter koennten aus Level 5 Level 4 machen indem sie dem Auto
verbieten bestimmte Strassen zu benutzen, z.B. die Mexikanische Grenze zu ueberqueren.

[... ...]

Allerdings gibt es Konkurrenz, die alle schon recht gut sind.
Was wir nicht wissen ist wie teuer die benoetigte Hardware
ist, es gibt LIDAR-Scanner die kosten deutlich mehr als ein Auto.

Ich legte ja bereits eine Schätzung offen.
Der Markt wird sich entwickeln.
Wer darin erfolgreich ist, wird sich zeigen.

Gestern in den Nachrichten haben sie ueber Autos auf der CES berichtet,
das wort \"autonom\" ist kein einziges mal gefallen, dafuer
\"Entertainment\"... Und das obwohl der Reporter den BMW Chef gefragt
hat ob BMW demnaechst eine Software-Firma wird...

Offenbar will man dem Consumer noch kein autonomes Fahrzeug verkaufen,
und auch nicht darueber sprechen wie das in Zukunft aussieht.

Man will z.B. nicht 150000..250000 EUR in den Raum stellen.

Massenmarkt waere das noch keiner...

Kann sein, daß Level_5 40 Jahre lang im Premium-Segment angesiedelt sein wird.

Gibts irgendwas kleines in der Technik wovon man sagen kann dass es 40 Jahre lang sehr teuer
sein wird ?

Aber wie es mit dem Solid State LIDAR aussieht wissen wir nicht wirklich,
denn das mechanische mit rotierenden Spiegeln ist sehr teuer und seine
Lebensdauer ist relativ kurz.

Solche Probleme müssen halt gelöst werden.

Sind sie ja angeblich schon, aber trotzdem werden mechanische LIDARS
in den heutigen Versuchsfahrzeugen verwendet.

Sondern man will locker-flockig labern und spielen.
Auch die realistische Zeitdauer bis Level_5 will man nicht nennen.
Ich meine damit nicht Robotaxis, sondern frei kaufbare Level_5!

Warum nicht mietbare Autos ?

1500 EUR pro Tag?
Bei dem Preis waere auch der Taxi-Einsatz grenzwertig.
Es geht mir eher daraum dass man ein noch nicht ganz ausgereiftes Fahrzeug
nicht kaufen will, aber durchaus mieten, bzw. leasen.

[...]
Hat jetzt nichts mit autonom fahren zu tun, das geht auch mit Verbrenner.

Im Prinzip ja, jedoch wird Level_5 wohl zu 99,99% mit E-Autos vollzogen werden.

Das ist jetzt so weil die Versuchsfahrzeuge alle in Kalifornien fahren, wegen der
dortigen gesetzlichen Regelungen fuer Neuwagen.


E-Autos haben keine Gänge, wie Verbrenner, und können linear und stufenlos gestellt werden.

Das Automatik Getriebe gibt es schon sein Jahrzehnten.

Genau so etwas will man unbedingt vermeiden!

Der einzige Grund dafuer waere wenn Neuzulassungen von Verbrennern schon recht bald
nicht mehr erlaubt waeren, das ist aber erst 2035 in der EU, und in anderen Laendern noch spaeter.

In Norwegen ab 2030.

Jedoch 2035 wird es noch kein frei kaufbares Level_5 geben.

Aber Level_4 und die werden als Level_5 verkauft und das sicher schon deutlich frueher.
Schliesslich faehrt diese Technik bereits in San Francisco, wie du inzwischen auch gesehen hast.


Ein gestellter E-Motor mit Drehgeber ist etwas gänzlich Anderes als ein Block mit Automatik-Getriebe.
Das Automatik-Getriebe schaltet ja - für den Verbrenner-Motor eine Verteilung der Drehzahl-Bereiche.

Die Geschwindigkeit ist regelbar, darauf kommt es an.

Es kommt auch darauf an, _wie_ genau sich ein Verbrenner-Auto einstellen/dosieren läßt.
Und das ist erbärmlich schlecht!
Beim Verbrenner muß man oft Schwung durch viel Gas aufbauen, um danach den Kraftschluß herzustellen.

Du redest von einem Schaltgetriebe, es gibt auch
https://de.wikipedia.org/wiki/Fahrzeuggetriebe#Wandler-Automatikgetriebe
Aber auch automatische Schaltgetriebe:
https://de.wikipedia.org/wiki/Fahrzeuggetriebe#Klassisches_automatisiertes_Schaltgetriebe_(ASG)
---------
Neuere Systeme im LKW oder Reisebus schalten auch vollautomatisiert; ein
Kupplungspedal fehlt oder kann für Notfälle ausgeklappt werden.
Standardmäßig sind moderne LKW mit einem Achtgang-Getriebe ausgestattet.
Basis der LKW-Getriebe ist in der Regel ein Viergang-Schaltgetriebe,
das mit einer Vorschaltgruppe und einer Range-Gruppe erweitert werden
kann, wodurch 16 Gangstufen zur Verfügung stehen.
---------

D.h. das Problem ist laengst geloest.
https://www.reuters.com/business/autos-transportation/bosch-mercedes-benz-roll-out-fully-automated-parking-stuttgart-airport-2022-11-30/
Hier fahren offenbar Verbrenner autonom in einem Parkhaus herum.


Eine Feindosierung im Takt von Zehntelsekunden ist unmöglich!
Beim E-Motor ist dies aber leicht möglich.

Ich hatte in der Industrie mit per Drehgeber geregelten E-Motoren zu tun.
Das ist eine andere Verhaltens-Welt gegenüber Verbrenner-Motoren.

Zweifellos, aber der Verbrenner ist sicher kein Problem fuer
automatisierte Autos. Beim autonomen LKW wird man bestimmt darauf
zurueckkommen.


Wenn man die Drehzahl auf Null stellt, verhält sich die Motorachse wie fest-geschweißt.
Ist die Regelung abgeschaltet, kann die Achse mit zwei Fingern leicht gedreht werden.
Eine Einstellung auf 0,1 Umdrehungen/Min. ist möglich - mit vollem Drehmoment.
Steckt man dabei einen Schraubenschlüssel blockierend auf die Welle, dreht der Motor weiter
mit der eingestellten Drehzahl, bis der Schraubenschlüssel zerbricht und meterweit durch den Raum fliegt.

Es geht auch darum, daß ESP/ESC/ABS/ASR durch einen elektrischen Antrieb ersetzt werden können.

Nicht ersetzt, sondern anders konstruiert. Brauchen tut man sie ja auch beim Elektroauto.


E-Autos haben auch eine immense elektrische Leistung für die Computer.
Da geht nichts /in die Knie/.
Ich denke, ein Verbrenner mit Lichtmaschine als Basis für die Entwicklung eines Level_5
wäre n-fach hirnverbrannt und idiotisch.

Eine etwas staerkere \"Lichtmaschine\" waere kein Fehler und auch sonst sehr nuetzlich,
z.B. zum Betrieb einer Mikrowelle im Auto...


Dennoch ist ein Level_5 mit Verbrenner-Antrieb extrem unwahrscheinlich.
Meine Schätzung 150000..250000 EUR lautet dann 350000..550000 EUR.

Der Verbrenner ist billiger als das Elektroauto, also wirds bei Level 4 oder 5 auch
nicht teurer sein.


Aufgrund meiner konkreten technischen Erfahrungen halte ich eine Level_5-Entwicklung
auf Basis eines Verbrennungsmotors für vollkommen bekloppt und fehlgeleitet.

Ich sehe ueberhaupt keinen Zusammenhang zwischen dem Autonomie-Level und der Antriebsweise.
Wer Level-5 mit Elektroautos erreicht hat kann das auch fuer Verbrenner verwenden,
wenn der Wille dazu da ist.

..
 
Helmut Schellong wrote:
On 01/07/2023 00:59, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/06/2023 12:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/05/2023 12:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/04/2023 01:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/03/2023 00:57, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/02/2023 00:48, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/31/2022 12:27, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 20:36, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 13:06, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/14/2022 13:57, Helmut Schellong wrote:
Handelsblatt:

[...]

Level_5 ist aber eindeutig viel höher stehend!

Bei Level_5 ist eine notwendige Hilfe eines Fahrers ausdrücklich ausgeschlossen!
Das ist ein riesiger Unterschied.

Nur wenn ein Fehler auftritt, oder ein Unfall der z.B. einen Sensor beschaedigt,
sodass das Fahrzeug nicht mehr autonom fahren kann. Mit Level 4 und Fuehrerschein kann
man trotzdem weiter fahren...

Level_5 verlangt ausdrücklich nicht die Abwesenheit von Bedienungselementen.

Deshalb wuerde ich lieber ein Level 4 Fahrzeug haben, das sollte
aber autonom genausogut fahren koennen wie ein Level 5 Fahrzeug.

Das wird es aber nicht - Du wirst hier unlogisch.
Premium ist ein Level_5 _mit_ Bedienungselementen!

Da war ich falsch informiert, Bedienelemente kann es bei Level 5
genauso geben wie bei Level 4, der Unterschied ist, dass Level 4
nur unter bestimmten Bedingungen autonom fahren kann, Level 5
aber immer wenn auch ein Mensch fahren kann:

Ich hatte die Definitionen der Level 4 und 5 gepostet, nach denen ich mich richte.

Wenn sie von der im folgenden Link abweicht dann stimmt sie nicht, denn da kommt sie
her:

https://www.sae.org/news/2019/01/sae-updates-j3016-automated-driving-graphic

Allerdings ist das ein bischen Wischiwaschi, weil auch Level 5 bestimmten
Bedingungen unterliegt, z.B. nicht off Road faehrt, oder bei zu starkem Schneefall,
wenn das LIDAR nicht mehr funktioniert.
Aber die meinen eher sowas wie dass Autos zur Zeit nur in San Francisco funktionieren,
aber dort vollstaendig autonom ohne Fahrer fahren.
Ich wette wenn ein Auto in den ganzen USA autonom fahren kann zaehlt es als Level 5,

Ja, sehe ich auch so - aber erst dann.

Aber jeder Feldweg muss nicht drin sein, das waere dann aber wieder eine
Einschraenkung.
Ich schaezte mal dass die Wert darauf legen dass die Fahrzeuge nur
auf geprueften Wegen unterwegs sind damit sie nicht steckenbleiben
oder in Loecher fallen.
Die Einschaetzung ob so ein Weg nach Niederschlaegen befahrbar ist oder
nicht will man vielleicht auch nicht dem Fahrzeug ueberlassen, also wird
man so einen Weg von vornherein ausschliessen, obwohl er fuer einen Menschen
meistens befahrbar ist.

obwohl es in China nicht fahren koennte weil es die Chinesischen Verkehrszeichen
nicht kennt.

Das macht nichts, denn ein Mensch müßte die Schilder auch lernen.

Tatsaechlich fahren die Fahrzeuge von AUTOX TECHNOLOGIES auch in Schenzen China.

Auch die Autovermieter koennten aus Level 5 Level 4 machen indem sie dem Auto
verbieten bestimmte Strassen zu benutzen, z.B. die Mexikanische Grenze zu ueberqueren.

[... ...]

Allerdings gibt es Konkurrenz, die alle schon recht gut sind.
Was wir nicht wissen ist wie teuer die benoetigte Hardware
ist, es gibt LIDAR-Scanner die kosten deutlich mehr als ein Auto.

Ich legte ja bereits eine Schätzung offen.
Der Markt wird sich entwickeln.
Wer darin erfolgreich ist, wird sich zeigen.

Gestern in den Nachrichten haben sie ueber Autos auf der CES berichtet,
das wort \"autonom\" ist kein einziges mal gefallen, dafuer
\"Entertainment\"... Und das obwohl der Reporter den BMW Chef gefragt
hat ob BMW demnaechst eine Software-Firma wird...

Offenbar will man dem Consumer noch kein autonomes Fahrzeug verkaufen,
und auch nicht darueber sprechen wie das in Zukunft aussieht.

Man will z.B. nicht 150000..250000 EUR in den Raum stellen.

Massenmarkt waere das noch keiner...

Kann sein, daß Level_5 40 Jahre lang im Premium-Segment angesiedelt sein wird.

Gibts irgendwas kleines in der Technik wovon man sagen kann dass es 40 Jahre lang sehr teuer
sein wird ?

Aber wie es mit dem Solid State LIDAR aussieht wissen wir nicht wirklich,
denn das mechanische mit rotierenden Spiegeln ist sehr teuer und seine
Lebensdauer ist relativ kurz.

Solche Probleme müssen halt gelöst werden.

Sind sie ja angeblich schon, aber trotzdem werden mechanische LIDARS
in den heutigen Versuchsfahrzeugen verwendet.

Sondern man will locker-flockig labern und spielen.
Auch die realistische Zeitdauer bis Level_5 will man nicht nennen.
Ich meine damit nicht Robotaxis, sondern frei kaufbare Level_5!

Warum nicht mietbare Autos ?

1500 EUR pro Tag?
Bei dem Preis waere auch der Taxi-Einsatz grenzwertig.
Es geht mir eher daraum dass man ein noch nicht ganz ausgereiftes Fahrzeug
nicht kaufen will, aber durchaus mieten, bzw. leasen.

[...]
Hat jetzt nichts mit autonom fahren zu tun, das geht auch mit Verbrenner.

Im Prinzip ja, jedoch wird Level_5 wohl zu 99,99% mit E-Autos vollzogen werden.

Das ist jetzt so weil die Versuchsfahrzeuge alle in Kalifornien fahren, wegen der
dortigen gesetzlichen Regelungen fuer Neuwagen.


E-Autos haben keine Gänge, wie Verbrenner, und können linear und stufenlos gestellt werden.

Das Automatik Getriebe gibt es schon sein Jahrzehnten.

Genau so etwas will man unbedingt vermeiden!

Der einzige Grund dafuer waere wenn Neuzulassungen von Verbrennern schon recht bald
nicht mehr erlaubt waeren, das ist aber erst 2035 in der EU, und in anderen Laendern noch spaeter.

In Norwegen ab 2030.

Jedoch 2035 wird es noch kein frei kaufbares Level_5 geben.

Aber Level_4 und die werden als Level_5 verkauft und das sicher schon deutlich frueher.
Schliesslich faehrt diese Technik bereits in San Francisco, wie du inzwischen auch gesehen hast.


Ein gestellter E-Motor mit Drehgeber ist etwas gänzlich Anderes als ein Block mit Automatik-Getriebe.
Das Automatik-Getriebe schaltet ja - für den Verbrenner-Motor eine Verteilung der Drehzahl-Bereiche.

Die Geschwindigkeit ist regelbar, darauf kommt es an.

Es kommt auch darauf an, _wie_ genau sich ein Verbrenner-Auto einstellen/dosieren läßt.
Und das ist erbärmlich schlecht!
Beim Verbrenner muß man oft Schwung durch viel Gas aufbauen, um danach den Kraftschluß herzustellen.

Du redest von einem Schaltgetriebe, es gibt auch
https://de.wikipedia.org/wiki/Fahrzeuggetriebe#Wandler-Automatikgetriebe
Aber auch automatische Schaltgetriebe:
https://de.wikipedia.org/wiki/Fahrzeuggetriebe#Klassisches_automatisiertes_Schaltgetriebe_(ASG)
---------
Neuere Systeme im LKW oder Reisebus schalten auch vollautomatisiert; ein
Kupplungspedal fehlt oder kann für Notfälle ausgeklappt werden.
Standardmäßig sind moderne LKW mit einem Achtgang-Getriebe ausgestattet.
Basis der LKW-Getriebe ist in der Regel ein Viergang-Schaltgetriebe,
das mit einer Vorschaltgruppe und einer Range-Gruppe erweitert werden
kann, wodurch 16 Gangstufen zur Verfügung stehen.
---------

D.h. das Problem ist laengst geloest.
https://www.reuters.com/business/autos-transportation/bosch-mercedes-benz-roll-out-fully-automated-parking-stuttgart-airport-2022-11-30/
Hier fahren offenbar Verbrenner autonom in einem Parkhaus herum.


Eine Feindosierung im Takt von Zehntelsekunden ist unmöglich!
Beim E-Motor ist dies aber leicht möglich.

Ich hatte in der Industrie mit per Drehgeber geregelten E-Motoren zu tun.
Das ist eine andere Verhaltens-Welt gegenüber Verbrenner-Motoren.

Zweifellos, aber der Verbrenner ist sicher kein Problem fuer
automatisierte Autos. Beim autonomen LKW wird man bestimmt darauf
zurueckkommen.


Wenn man die Drehzahl auf Null stellt, verhält sich die Motorachse wie fest-geschweißt.
Ist die Regelung abgeschaltet, kann die Achse mit zwei Fingern leicht gedreht werden.
Eine Einstellung auf 0,1 Umdrehungen/Min. ist möglich - mit vollem Drehmoment.
Steckt man dabei einen Schraubenschlüssel blockierend auf die Welle, dreht der Motor weiter
mit der eingestellten Drehzahl, bis der Schraubenschlüssel zerbricht und meterweit durch den Raum fliegt.

Es geht auch darum, daß ESP/ESC/ABS/ASR durch einen elektrischen Antrieb ersetzt werden können.

Nicht ersetzt, sondern anders konstruiert. Brauchen tut man sie ja auch beim Elektroauto.


E-Autos haben auch eine immense elektrische Leistung für die Computer.
Da geht nichts /in die Knie/.
Ich denke, ein Verbrenner mit Lichtmaschine als Basis für die Entwicklung eines Level_5
wäre n-fach hirnverbrannt und idiotisch.

Eine etwas staerkere \"Lichtmaschine\" waere kein Fehler und auch sonst sehr nuetzlich,
z.B. zum Betrieb einer Mikrowelle im Auto...


Dennoch ist ein Level_5 mit Verbrenner-Antrieb extrem unwahrscheinlich.
Meine Schätzung 150000..250000 EUR lautet dann 350000..550000 EUR.

Der Verbrenner ist billiger als das Elektroauto, also wirds bei Level 4 oder 5 auch
nicht teurer sein.


Aufgrund meiner konkreten technischen Erfahrungen halte ich eine Level_5-Entwicklung
auf Basis eines Verbrennungsmotors für vollkommen bekloppt und fehlgeleitet.

Ich sehe ueberhaupt keinen Zusammenhang zwischen dem Autonomie-Level und der Antriebsweise.
Wer Level-5 mit Elektroautos erreicht hat kann das auch fuer Verbrenner verwenden,
wenn der Wille dazu da ist.

..
 
Helmut Schellong wrote:
On 01/07/2023 00:59, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/06/2023 12:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/05/2023 12:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/04/2023 01:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/03/2023 00:57, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/02/2023 00:48, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/31/2022 12:27, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 20:36, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 13:06, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/14/2022 13:57, Helmut Schellong wrote:
Handelsblatt:

[...]

Level_5 ist aber eindeutig viel höher stehend!

Bei Level_5 ist eine notwendige Hilfe eines Fahrers ausdrücklich ausgeschlossen!
Das ist ein riesiger Unterschied.

Nur wenn ein Fehler auftritt, oder ein Unfall der z.B. einen Sensor beschaedigt,
sodass das Fahrzeug nicht mehr autonom fahren kann. Mit Level 4 und Fuehrerschein kann
man trotzdem weiter fahren...

Level_5 verlangt ausdrücklich nicht die Abwesenheit von Bedienungselementen.

Deshalb wuerde ich lieber ein Level 4 Fahrzeug haben, das sollte
aber autonom genausogut fahren koennen wie ein Level 5 Fahrzeug.

Das wird es aber nicht - Du wirst hier unlogisch.
Premium ist ein Level_5 _mit_ Bedienungselementen!

Da war ich falsch informiert, Bedienelemente kann es bei Level 5
genauso geben wie bei Level 4, der Unterschied ist, dass Level 4
nur unter bestimmten Bedingungen autonom fahren kann, Level 5
aber immer wenn auch ein Mensch fahren kann:

Ich hatte die Definitionen der Level 4 und 5 gepostet, nach denen ich mich richte.

Wenn sie von der im folgenden Link abweicht dann stimmt sie nicht, denn da kommt sie
her:

https://www.sae.org/news/2019/01/sae-updates-j3016-automated-driving-graphic

Allerdings ist das ein bischen Wischiwaschi, weil auch Level 5 bestimmten
Bedingungen unterliegt, z.B. nicht off Road faehrt, oder bei zu starkem Schneefall,
wenn das LIDAR nicht mehr funktioniert.
Aber die meinen eher sowas wie dass Autos zur Zeit nur in San Francisco funktionieren,
aber dort vollstaendig autonom ohne Fahrer fahren.
Ich wette wenn ein Auto in den ganzen USA autonom fahren kann zaehlt es als Level 5,

Ja, sehe ich auch so - aber erst dann.

Aber jeder Feldweg muss nicht drin sein, das waere dann aber wieder eine
Einschraenkung.
Ich schaezte mal dass die Wert darauf legen dass die Fahrzeuge nur
auf geprueften Wegen unterwegs sind damit sie nicht steckenbleiben
oder in Loecher fallen.
Die Einschaetzung ob so ein Weg nach Niederschlaegen befahrbar ist oder
nicht will man vielleicht auch nicht dem Fahrzeug ueberlassen, also wird
man so einen Weg von vornherein ausschliessen, obwohl er fuer einen Menschen
meistens befahrbar ist.

obwohl es in China nicht fahren koennte weil es die Chinesischen Verkehrszeichen
nicht kennt.

Das macht nichts, denn ein Mensch müßte die Schilder auch lernen.

Tatsaechlich fahren die Fahrzeuge von AUTOX TECHNOLOGIES auch in Schenzen China.

Auch die Autovermieter koennten aus Level 5 Level 4 machen indem sie dem Auto
verbieten bestimmte Strassen zu benutzen, z.B. die Mexikanische Grenze zu ueberqueren.

[... ...]

Allerdings gibt es Konkurrenz, die alle schon recht gut sind.
Was wir nicht wissen ist wie teuer die benoetigte Hardware
ist, es gibt LIDAR-Scanner die kosten deutlich mehr als ein Auto.

Ich legte ja bereits eine Schätzung offen.
Der Markt wird sich entwickeln.
Wer darin erfolgreich ist, wird sich zeigen.

Gestern in den Nachrichten haben sie ueber Autos auf der CES berichtet,
das wort \"autonom\" ist kein einziges mal gefallen, dafuer
\"Entertainment\"... Und das obwohl der Reporter den BMW Chef gefragt
hat ob BMW demnaechst eine Software-Firma wird...

Offenbar will man dem Consumer noch kein autonomes Fahrzeug verkaufen,
und auch nicht darueber sprechen wie das in Zukunft aussieht.

Man will z.B. nicht 150000..250000 EUR in den Raum stellen.

Massenmarkt waere das noch keiner...

Kann sein, daß Level_5 40 Jahre lang im Premium-Segment angesiedelt sein wird.

Gibts irgendwas kleines in der Technik wovon man sagen kann dass es 40 Jahre lang sehr teuer
sein wird ?

Aber wie es mit dem Solid State LIDAR aussieht wissen wir nicht wirklich,
denn das mechanische mit rotierenden Spiegeln ist sehr teuer und seine
Lebensdauer ist relativ kurz.

Solche Probleme müssen halt gelöst werden.

Sind sie ja angeblich schon, aber trotzdem werden mechanische LIDARS
in den heutigen Versuchsfahrzeugen verwendet.

Sondern man will locker-flockig labern und spielen.
Auch die realistische Zeitdauer bis Level_5 will man nicht nennen.
Ich meine damit nicht Robotaxis, sondern frei kaufbare Level_5!

Warum nicht mietbare Autos ?

1500 EUR pro Tag?
Bei dem Preis waere auch der Taxi-Einsatz grenzwertig.
Es geht mir eher daraum dass man ein noch nicht ganz ausgereiftes Fahrzeug
nicht kaufen will, aber durchaus mieten, bzw. leasen.

[...]
Hat jetzt nichts mit autonom fahren zu tun, das geht auch mit Verbrenner.

Im Prinzip ja, jedoch wird Level_5 wohl zu 99,99% mit E-Autos vollzogen werden.

Das ist jetzt so weil die Versuchsfahrzeuge alle in Kalifornien fahren, wegen der
dortigen gesetzlichen Regelungen fuer Neuwagen.


E-Autos haben keine Gänge, wie Verbrenner, und können linear und stufenlos gestellt werden.

Das Automatik Getriebe gibt es schon sein Jahrzehnten.

Genau so etwas will man unbedingt vermeiden!

Der einzige Grund dafuer waere wenn Neuzulassungen von Verbrennern schon recht bald
nicht mehr erlaubt waeren, das ist aber erst 2035 in der EU, und in anderen Laendern noch spaeter.

In Norwegen ab 2030.

Jedoch 2035 wird es noch kein frei kaufbares Level_5 geben.

Aber Level_4 und die werden als Level_5 verkauft und das sicher schon deutlich frueher.
Schliesslich faehrt diese Technik bereits in San Francisco, wie du inzwischen auch gesehen hast.


Ein gestellter E-Motor mit Drehgeber ist etwas gänzlich Anderes als ein Block mit Automatik-Getriebe.
Das Automatik-Getriebe schaltet ja - für den Verbrenner-Motor eine Verteilung der Drehzahl-Bereiche.

Die Geschwindigkeit ist regelbar, darauf kommt es an.

Es kommt auch darauf an, _wie_ genau sich ein Verbrenner-Auto einstellen/dosieren läßt.
Und das ist erbärmlich schlecht!
Beim Verbrenner muß man oft Schwung durch viel Gas aufbauen, um danach den Kraftschluß herzustellen.

Du redest von einem Schaltgetriebe, es gibt auch
https://de.wikipedia.org/wiki/Fahrzeuggetriebe#Wandler-Automatikgetriebe
Aber auch automatische Schaltgetriebe:
https://de.wikipedia.org/wiki/Fahrzeuggetriebe#Klassisches_automatisiertes_Schaltgetriebe_(ASG)
---------
Neuere Systeme im LKW oder Reisebus schalten auch vollautomatisiert; ein
Kupplungspedal fehlt oder kann für Notfälle ausgeklappt werden.
Standardmäßig sind moderne LKW mit einem Achtgang-Getriebe ausgestattet.
Basis der LKW-Getriebe ist in der Regel ein Viergang-Schaltgetriebe,
das mit einer Vorschaltgruppe und einer Range-Gruppe erweitert werden
kann, wodurch 16 Gangstufen zur Verfügung stehen.
---------

D.h. das Problem ist laengst geloest.
https://www.reuters.com/business/autos-transportation/bosch-mercedes-benz-roll-out-fully-automated-parking-stuttgart-airport-2022-11-30/
Hier fahren offenbar Verbrenner autonom in einem Parkhaus herum.


Eine Feindosierung im Takt von Zehntelsekunden ist unmöglich!
Beim E-Motor ist dies aber leicht möglich.

Ich hatte in der Industrie mit per Drehgeber geregelten E-Motoren zu tun.
Das ist eine andere Verhaltens-Welt gegenüber Verbrenner-Motoren.

Zweifellos, aber der Verbrenner ist sicher kein Problem fuer
automatisierte Autos. Beim autonomen LKW wird man bestimmt darauf
zurueckkommen.


Wenn man die Drehzahl auf Null stellt, verhält sich die Motorachse wie fest-geschweißt.
Ist die Regelung abgeschaltet, kann die Achse mit zwei Fingern leicht gedreht werden.
Eine Einstellung auf 0,1 Umdrehungen/Min. ist möglich - mit vollem Drehmoment.
Steckt man dabei einen Schraubenschlüssel blockierend auf die Welle, dreht der Motor weiter
mit der eingestellten Drehzahl, bis der Schraubenschlüssel zerbricht und meterweit durch den Raum fliegt.

Es geht auch darum, daß ESP/ESC/ABS/ASR durch einen elektrischen Antrieb ersetzt werden können.

Nicht ersetzt, sondern anders konstruiert. Brauchen tut man sie ja auch beim Elektroauto.


E-Autos haben auch eine immense elektrische Leistung für die Computer.
Da geht nichts /in die Knie/.
Ich denke, ein Verbrenner mit Lichtmaschine als Basis für die Entwicklung eines Level_5
wäre n-fach hirnverbrannt und idiotisch.

Eine etwas staerkere \"Lichtmaschine\" waere kein Fehler und auch sonst sehr nuetzlich,
z.B. zum Betrieb einer Mikrowelle im Auto...


Dennoch ist ein Level_5 mit Verbrenner-Antrieb extrem unwahrscheinlich.
Meine Schätzung 150000..250000 EUR lautet dann 350000..550000 EUR.

Der Verbrenner ist billiger als das Elektroauto, also wirds bei Level 4 oder 5 auch
nicht teurer sein.


Aufgrund meiner konkreten technischen Erfahrungen halte ich eine Level_5-Entwicklung
auf Basis eines Verbrennungsmotors für vollkommen bekloppt und fehlgeleitet.

Ich sehe ueberhaupt keinen Zusammenhang zwischen dem Autonomie-Level und der Antriebsweise.
Wer Level-5 mit Elektroautos erreicht hat kann das auch fuer Verbrenner verwenden,
wenn der Wille dazu da ist.

..
 
On 12/22/2022 12:46, Rolf Bombach wrote:
Helmut Schellong schrieb:

Wenn eine Maschine ein fehlerhaftes Verhalten an den Tag legt, hat diese
Maschine keinen Fehler gemacht, sondern z.B. die Physik einen bewirkt.
Die Maschine an sich verhält sich deterministisch, solange sie nicht
verschlissen ist; und Software kann nicht verschleißen.

MaW, eine Maschine verhält sich deterministisch, solange sie
sie deterministisch verhält.

Die Menschheit ist um eine Erkenntnis reicher.

Im Rahmen des Themas ist das so, behaupte ich.

Zum Beispiel:
Alle Teile in allen meiner Autos haben sich stets deterministisch verhalten.
Die einzigen Ausnahmen gab es nur in einem verschlissenen Zustand.


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On 12/22/2022 12:46, Rolf Bombach wrote:
Helmut Schellong schrieb:

Wenn eine Maschine ein fehlerhaftes Verhalten an den Tag legt, hat diese
Maschine keinen Fehler gemacht, sondern z.B. die Physik einen bewirkt.
Die Maschine an sich verhält sich deterministisch, solange sie nicht
verschlissen ist; und Software kann nicht verschleißen.

MaW, eine Maschine verhält sich deterministisch, solange sie
sie deterministisch verhält.

Die Menschheit ist um eine Erkenntnis reicher.

Im Rahmen des Themas ist das so, behaupte ich.

Zum Beispiel:
Alle Teile in allen meiner Autos haben sich stets deterministisch verhalten.
Die einzigen Ausnahmen gab es nur in einem verschlissenen Zustand.


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On 12/22/2022 12:46, Rolf Bombach wrote:
Helmut Schellong schrieb:

Wenn eine Maschine ein fehlerhaftes Verhalten an den Tag legt, hat diese
Maschine keinen Fehler gemacht, sondern z.B. die Physik einen bewirkt.
Die Maschine an sich verhält sich deterministisch, solange sie nicht
verschlissen ist; und Software kann nicht verschleißen.

MaW, eine Maschine verhält sich deterministisch, solange sie
sie deterministisch verhält.

Die Menschheit ist um eine Erkenntnis reicher.

Im Rahmen des Themas ist das so, behaupte ich.

Zum Beispiel:
Alle Teile in allen meiner Autos haben sich stets deterministisch verhalten.
Die einzigen Ausnahmen gab es nur in einem verschlissenen Zustand.


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 

Welcome to EDABoard.com

Sponsor

Back
Top