Ford+VW: Argo AI - Robotaxi-Startup eingestellt...

On 12/19/2022 21:07, Sieghard Schicktanz wrote:
Hallo Helmut,

Du schriebst am Mon, 19 Dec 2022 17:33:33 +0100:

Nein. Mensch wie Maschine können Fehler machen.

Nein, Maschinen können keine Fehler machen!
Hingegen die Software in Maschinen kann fehlerhaft programmiert
worden sein.

Soso. Du behauptest damit also, daß eine _Maschine_ keine Defekte
entwickeln könnte, die ihre Funktion beeinflußen.

Nein, \'Fehler machen\' und \'Defekte entwickeln\' ist ein großer Unterschied!
Es geht hier _nur_ um Fehler in der Software autonomer Autos - Programmierfehler.
Daß Maschinen verschleißen, weiß ich seit 50 Jahren. Ist aber nicht das Thema.

Jedoch gibt es als Teil der gesamten Software die \'Moral Machine\',
die programmiert werden muß. Der damit befaßte MIT-Professor sagte,
daß alle Einzelprobleme gelöst werden müssen, indem programmiert
werden muß.

Na, dann hat er ja seine Lebensaufgabe gefunden. Moral auch wenn
letzlich \"nur\" als Entwicklung von Gesetzen zur Rechtsprechung
verstanden - ist sowas wie ein umfassendes Reggelwerk des menschlichen
Zusammenlebens. Und für solch ein Regelwerk, das notwendigermaßen in
aufgeschriebener Form endlich bleiben muß, hat ein Mathematiker schon
vor ca. 80 Jahren _bewiesen_, daß es entweder widersprüchlich oder
unvollständig sein muß (weswegen Gerichte immer ein gewisses Maß an
Auslegungskompetenz brauchen). BTW, der Mathematiker war ein Deutscher
mit Namen Gödel.

Das Argument trifft einfach nicht.
Daher bleibt die \'Moral Machine\' so wie sie ist.
Ich berichtete doch, daß bereits bis 2019 40 Millionen Antworten aus der Welt
für diese Maschine am MIT eintrafen.
Diese werden länderspezifisch berücksichtigt werden.
Auch hinsichtlich derer Gesetze.

Innerhalb einer Software darf es keine solchen Spielräume geben.
Anstehende Probleme müssen alle vollständig gelöst werden!
Andernfalls muß eine Aufgabe des Projektes erfolgen.

Maschinen begehen keine Fehlentscheidungen.
Genau betrachtet entscheiden sie nichts, sondern ihre Software, die
von Menschen programmiert wurde.

Auch \"die Maschine\", die Du offenbar als ihre Hardware definiert, kann
\"entscheiden\" - es ist \"mehr oder weniger\" Zufall, was z.B. während
einer Umschaltung passiert, bei einem Ventil, einem Relais, einer
Weiche o.ä. Das kann auch bei Sicherheitsimplementierungen passieren,
bei denen mehrere Maschinen über eine Vergleichsstufe (\"Entscheider\")
sich gegenseitig überwachen - und wenn das nur eine ganz kurze
Überschneidung (eine \"race condition\") ist, die den Entscheider
auslöst (\"triggert\").

Es geht hier _nur_ um Fehler in der Software autonomer Autos - Programmierfehler.
Beispielsweise um Fehler in der \'Moral Machine\', die ja nur aus Software besteht.
Das war der Ausgangspunkt für den Begriff \'Maschine\'.

so lange INSGESAMT die Schadensbilanz trotzdem deutlich weniger
...
Solche Betrachtungen gibt es im Software-Geschehen nicht!
Teilprogramme als fehlerhaft oder nicht einstufen wollen/können -
kann es nicht geben. Software ist deterministisch.

Quatsch. Lies\' mal über diese o.g. \"race conditions\". Bei Multicore -
Prozessoren sind die nichtmal software-verursacht, sondern schon vom
Nebeneinenderherarbeiten der Cores.

Quatsch. Software ist ein Programm in einer Programmiersprache, das
prinzipiell kein \'Race Conditions\' kennen kann.
Software befindet sich nicht auf einer physikalischen Ebene.

Entweder sie enthält Fehler, oder eben nicht.
Dazwischen gibt es nichts.

Software enthält Fehler. Was anderes gibt es nicht. (Inzwischen stimmt
das sogar für Trivialprogramme wie das sog. \"Hello World\"...)

Fehlerfreie Software ist selbstverständlich möglich.
Sicherheitsrelevante Software wird entsprechend geprüft, bis sie
keine Fehler mehr enthält bzw. bis sich kein Fehler mehr zeigt.


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
Helmut Schellong wrote:
On 12/31/2022 12:27, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 20:36, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 13:06, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/14/2022 13:57, Helmut Schellong wrote:
Handelsblatt:

[... ...]

Es kristallisiert sich immer mehr und besser heraus, daß die Professoren am MIT
im Jahre 2019 recht hatten mit ihren Einschätzungen!
Nämlich eher 20..30 Jahre bis zum Vollautonomen Level 5, serienmäßig und zugelassen (in DE).

Allerdings fahren die Autonomen Autos bereits ohne Fahrer in San Francisco herum...

Zentral zusammengefaßte Robotaxis sind eine ziemlich andere Situation.

Durchaus moeglich dass das in den naechsten Jahren die einzige Anwendung sein wird,
danach kommen dann Miet oder Leasing Autos.
Aber es sind und bleiben Level 5 Autonome Fahrzeuge.

Nachtrag:
---------
Auf gar keinen Fall sind sie Level_5-Fahrzeuge!

https://de.wikipedia.org/wiki/Autonomes_Fahren#Sicherheit

Der Link zeigt auf eine Tabelle mit Einträgen zu 12 Herstellern von selbstfahrenden Autos.

Hersteller Kilometer Eingriffe
--------------------------------------------------
Waymo 567366 63
Cruise GM 211912 105
...
Bosch 3285 1196
Mercedes 1751 843
--------------------------------------------------

Die Tabelle zeigt mehr als 0 Eingriffe!
Allein deshalb können die Fahrzeuge nicht Level_5 haben.

Stimmt, die hatten auch nicht Level 5.
Die Tabelle stammt von Bloomberg.com 20.3.2018, also von vor
knapp 5 Jahren, aus einer Zeit in der
diese Fahrzeuge nur mit Sicherheitsfahrer unterwegs waren.


Weiterhin verursachen die Robotaxis relativ häufig Straßenblockaden, trotz sehr geringer Anforderungen.
Desweiteren _verlangt_ Kalifornien alle Einrichtungen für einen menschlichen Fahrer.
Kalifornien läßt die Robotaxis nur nachts in bestimmten Bezirken von San Francisco fahren.
Also in Bereichen mit ausgesucht geringen Anforderungen.

Stadtverkehr ist nie mit geringen Anforderungen. Leider kann ich das Alter
der Quelle hier nicht ueberpruefen.


> Alle angeblichen Autonomen haben bei schlechtem Wetter Probleme: meist wohl Stehenbleiben!

Menschen auch, kommt nur darauf an wie schlecht das Wetter ist...


Die Behauptung \'Level_5\' ist hier einfach lachhaft!


Ich schätze den Preis eines Level_5 in Großserie (zumindest anfangs) auf 150000..250000 EUR.
Wobei es dann wohl eher keine Grossserie wird...

In der Tabelle schneiden Bosch und Mercedes absolut erbärmlich ab!
Ich sehe bis jetzt eine totale Chancenlosigkeit bei diesen Herstellern.
Sie können das hier Notwendige von Grund auf nicht leisten!

Jetzt muesstest du das nur mit aktuellen Zahlen vergleichen, dann
koennte man sehen wie der Fortschritt aussieht.
 
Helmut Schellong wrote:
On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:

Handelsblatt:
|Ende Oktober 2021 hatten die Automobilkonzerne Volkswagen und Ford das Aus von Argo AI besiegelt.
|Das Unternehmen entwickelte Soft- und Hardware für vollautonome Fahrzeuge.
|Doch zuletzt waren Zweifel gewachsen, ob Argo rasche Erfolge erzielen kann.

[...]

Alle meine Aussagen basieren auf den Aussagen des MIT von 2019.

2019 gab es ja noch keine Robotaxis im Normalbetrieb,
Vielleicht hat man da einen Fortschritt erzielt.

Generelle Fortschritte sicherlich.
Ein neuer Meilenstein? - Eher nicht.
Aber 100 Taxis in San Francisco entsprechen gar nicht meiner \'Definition:\' oben!
Ein Taxiunternehmen als Betreiber ist etwas anderes als irgendeine Privatperson irgendwo.

Die Spreu wird sich vom Weizen trennen, sobald Vollautonome auf dem Markt erschienen
sind, die _keine_ Fahrbedienelemente mehr haben.

Ich habe Zweifel dass dafuer bei Privatkunden ueberhaupt ein Markt da ist,
ich vermute dass die eher Autos kaufen werden die man bei bedarf auch noch
selbst fahren kann, aber eben auch vollautomatisch wenn man will.
Fuer Robotaxis sieht das anders aus.

Lenkrad, Instrumente und die Pedalerie sind aber teuer!
Ob alle Kunden mehrere tausend EUR ohne Notwendigkeit zusätzlich bezahlen wollen?

Die naechsten Jahre ist autonomes Fahren Luxus, da spielen die Kosten fuers Lenkrad
keine Rolle. Wenn das spaeter mal billiger wird, mag das anders aussehen,
da wird dann vielleicht konventionell fahren mal Luxus sein.



Erscheinen diese frühzeitig, so erwarte ich eine nachfolgende /Katastrophe/ (in DE).
???

Beispiel \'Puma\'.
Seit 2010 ausgeliefert.
Jetzt, 2022/23, Totalausfall von 18 Stück aufgrund von Schießübung mit 18 Panzern!

Das meine ich mit \'frühzeitig\'.
Die Puma sind ja mehr als 10 Jahre _nach_ Beginn ihrer Auslieferung noch nicht fertig entwickelt!

Da werden immer noch Modifikationen vorgenommen auf Wunsch des Kunden, aber die Stueckzahl bei den Pumas ist sehr
klein verglichen mit Autos. Wenn viele davon fahren werden auch die Fehler schneller gefunden.

[...]

Das MIT ist so berühmt wie Havard.

Zweifellos, aber das sagt nichts ueber seine Kompetenz in Sachen
autonomes Auto. Es ist gut moeglich dass da andere die Nase vorn haben.

Die Kompetenz des MIT in den diversen Fachbereichen ist sicher über jeden Zweifel erhaben.
Die Professoren wurden im Film (WDR) vorgestellt und als (weltweit) führende Experten bezeichnet.
Wenn da ein solcher längstens 30 Jahre (2050) geschätzt hat, ist das ernst zu nehmen!

Das autonome Fahrzeug ist ja nicht nur ein akademisches Projekt sondern auch ein Komerzielles,
d.h. es gibt sehr viel mehr Forschung in der Industrie als an den Hochschulen,
und wie weit man dort ist, wird nicht veroeffentlicht bevor das Fahrzeug
auf dem Markt ist.

|Ab Mitte April 2022 gibt es für die Mercedes EQS- und S-Klasse den sogenannten \"Drive Pilot\"
|als Option, der autonomes-Fahren auf Level 3 erlaubt.
|Der Fahrer kann diesen Modus aktivieren und dann auch den Blick von der Straße abwenden, wenn
|die Bedingungen das zulassen.
|Voraussetzungen sind unter anderem, dass das Auto sich bei Tageslicht und über 3 °C Außentemperatur
|auf einer trockenen Autobahn ohne Baustelle oder Tunnel befindet.
|Zusätzlich muss Mercedes hochauflösende Karten der Strecke kennen
|und ein anderes Auto auf der gleichen Spur vorausfahren.
|Das Auto tätigt dann keine Spurwechsel und folgt mit höchstens 60 km/h dem vorfahrenden Auto.
|Ist der Abstand zu groß, fordert es den Fahrer auf, die Kontrolle wieder zu übernehmen.
|Im Falle eines Unfalls wird die Haftung vom Autohersteller übernommen.

Vorstehender Text zeigt deutlich, daß der \'Drive Pilot\' _ungemein viel_ /Hilfe/ benötigt.
Von \'autonom\' kann _überhaupt keine_ Rede sein!

Ja, bei Mercedes noch nicht, das bedeutet aber noch nicht dass die Probleme
fuer hoehere Level noch nicht geloest sind, selbst wenn man nur Mercedes betrachtet.
Die koennten schon viel weiter sein, es ist nur noch nicht genug getestet um es zu
verkaufen.

Es sind auffallend die Wörter \'wenn\', \'Bedingungen\', \'Voraussetzungen\', ... zu sehen.

Ich behaupte einfach, daß das MIT stringenter und gründlicher forscht als die Industrie.
Ich habe im Film gesehen, welche beeindruckenden Ressourcen dort zur Verfügung stehen.

Von der Industrie lese ich eigentlich nur, daß diese begonnene Milliarden-Projekte
zum Thema nach relativ kurzer Zeit wieder einstellt.

Die haben mehrere Eisen im Feuer und stellen die Projekte ein von
denen sie glauben dass sie keine Chance mehr haben.



> Beispielsweise das Thema hier \'Argo AI\', und \'Bosch <-> Mercedes\'.

Wir kennen ja nicht die ganze Wahrheit aber vielleicht waren diese Projekte
eben soviel schlechter als andere, dass es sich nicht lohnt sie weiter
zu verfolgen.


[...]

Das weiss der menschliche Autofahrer auch nicht.

Doch. Wenn beispielsweise an der Ampel gewartet wird.
Ich weiß dann vorher, worauf ich bei Grün achten muß - aufgrund von diversen Beobachtungen.
Auch eine RushHour in der kommenden Stunde beeinflußt meine Fahrtaktik in der Stadt.
Ich habe ohnehin eine Strategie für jede Stadt individuell, aufgrund von Erfahrungen.

[...]

Da ist die Technik dem Menschen aber weit ueberlegen, die verwenden LIDAR, und RADAR und
wissen daher Abstand und Geschwindigkeit von
allem in der Umgebung, und kann auch mehrere Dinge gleichzeitig beobachten.

Diese Fähigkeiten sind nützlich.
Beispielsweise kann ein Autonomes ein Verkehrsschild fotografieren, um es danach auszuwerten.
Jedoch eine Datensammlung ist nur der erste Schritt.
Die folgenden Schritte sind ungleich schwieriger - bis hin zur Kapitulation!

... Vorhersehen ... LKW muß drehen ...
Das vollautonome Auto ist ein entfernter Traum. Doch Assistenzsysteme machen schon jetzt
das Fahren sicherer.\"

Offenbar wurden in den letzten 4 Jahren grosse Fortschritte gemacht.

Ein Anschein dessen kann nicht abgewiesen werden.
Kannst Du diese großen Fortschritte auflisten?

Dass die Fahrzeuge bereits zu hunderten fahren reicht nicht ?

Nein, das ist streng gesehen - nur Laberei. Informationsgehalt praktisch Null.

Also Maerchen werden es nicht sein dass die Fahren, und dass die immer noch fahren spricht dafuer
dass die Unfallzahl nicht zu hoch ist.

Ich meine, in Bezug zu meiner obigen \'Definition:\'.

o \"KI - Ethische Fragen! -> \'Moral Machine\'; Stets das Richtige tun!
Wer soll sterben? Die alte Frau, die bei Rot über den Zebrastreifen geht, oder das
Kind, das im autonomen Fahrzeug sitzend wegen Ausweichens in ein Hindernis knallt?

Man muss also einem auf der eigenen Fahrspur verbotenerweise entgegenkommenden
Lastwagen ausweichen und erwischt dabei die alte Frau auf dem Zebrastreifen
hinter der man eigentlich vorbeifahren wollte.

Nein, das Kind stirbt wegen des Ausweichens des Autonomen, in dem es sitzt.
Geradeaus wird die Oma /aufgespießt/.
(Mein Fahrlehrer rief immer vom Aufspießen.)

Wuerde ja nicht passieren, ein menschlicher Fahrer wuerde auch nicht
Selbstmord begehen um jemanden der einen Fehler gemacht hat zu retten.

Die Maschine _muß_ sich allerdings entscheiden!
Fest steht: eine Person muß sterben.
Frage: welche?

Fuer diese Frage taugt aber dein Beispiel nicht.
Das Fahrzeug kann der Frau nicht ausweichen wenn dabei die Gefahr besteht dass
mehr als ein Menschenleben dabei gefaehrdet wird. Es wird daher nicht einen Zusammenstoss mit
dem Gegenverkehr provozieren sondern eine Vollbremsung machen.
Dabei kommt das Fahrzeug (50km/h) bei Vollbremsung nach 12.5m zum stehen.

Wenn sie stirbt hat sie das selbst zu verantworten und die Versicherung muss auch nicht zahlen,
weil sie ja den Unfall verursacht hat.

Ein Menschlicher Fahrer hat die Alternative gar nicht weil er nicht so
schnell reagieren kann. Das selbstfahrende Auto sollte einfach nicht so schnell
ueber einen Zebrastreifen fahren, wenn Fussgaenger drauf sind, und es nicht ueberblicken kann
ob vorn die Strasse frei ist. Es ist auch niemals unaufmerksam, was bei Menschen
durchaus vorkommen kann.

Du konstruierst Dir etwas zusammen.
Die alte Frau trat soeben auf den Zebrastreifen - bei Rot.
Es kommt ein LKW entgegen - auf der Gegenspur.

Wozu dann ueberhaupt der Zebrastreifen, jemand geht bei rot ueber eine Ampel
ohne darauf zu achten dass da gerade ein Auto kommt.

Das MIT hat einen ampel-gesteuerten Fußgängerübergang mit Zebrastreifen gezeichnet.
Das ist weltweit üblich.

Wobei der Zebrastreifen keine Bedeutung hat wenn die Ampel eingeschaltet ist.

Der hat bestenfalls das Recht auf eine Notbremsung, nicht auf einen Selbstmord
des Autofahrers. Die Sache wird erst dann interessant wenn das Fahrzeug ohne
Passagiere unterwegs ist. Aber auch da waere es nicht angezeigt einen Zusammenstoss mit
dem Gegenverkehr auszuloesen, weil nicht vorraussehbar ist was fuer Folgen das wiederum
haben koennte. D.h. ausweichen geht nur wenn kein Gegenverkehr da ist.

Die Maschine _muß_ sich entscheiden!
Das geht logisch gar nicht anders.
Die Maschine hat doch ein Ausweichen zur Kollisionsvermeidung implementiert.

Aber nicht wenn das Ausweichen zu einer Kollision mit dem Gegenverkehr fuehrt.

Das kommt relativ oft erfolgreich vor.
In sehr seltenen Fällen muß eine Person sterben. Welche?
Stur geradeaus fahren? - Das wäre ja bereits eine Entscheidung!

Das Auto muss aber einen Unfall verhindern.

> Vollbremsung ist noch eine Option...

Das wird es tun weil das den Schaden an Fahrzeug und Insassen minimiert.

Bisher 40 Millionen Antworten für die Moral Machine des MIT aus der Welt.
Am Ende muß man es programmieren...\"

Es reicht wenn man ein bischen besser ist als ein menschlicher Fahrer.
Es sollte kein Problem sein deutlich weniger Unfaelle zu verursachen als
Menschen.
Natuerlich kann ein autonomes Auto das Fehlverhalten anderer nicht immer
ausgleichen.

Es ist prinzipiell wahrscheinlich, daß Autonome mehr Kollisionen/Unfälle vermeiden können.
Sie werden jedoch häufiger kapitulieren müssen.

Was immer ds bedeuten mag.

Es bedeutet das, was da steht.
Menschen haben einen extrem starken Trieb, eine Situation irgendwie zu retten.

Das geschieht in der kurzen Zeit ueberhaupt nicht, der Mensch braucht eine Sekunde
um zu reagieren, da hat er die Frau bei Tempo 50 bereits ueberfahren,
waehrend das autonome Auto durch rechtzeitiges Bremsen gerade eben vor
ihr zum stehen kommt.

Das geschieht nicht selten konfus.
Meistens schafft es aber der Mensch - und ist dann, schwitzend und blutend, glücklich.
Eine Maschine hingegen berechnet in Millisekunden die _optimale_ Lösung, die in einigen
Fällen eben einen (erbremsten) Stillstand (Kapitulation) bedeutet.

Im Fall oben ist der Bremsweg eines autonomen Fahrzeugs viel
kuerzer als der eines Fahrzeugs mit Fahrer.

Die Reaktionszeit entfällt praktisch - jedoch nicht der Bremsweg.

Wurde eingerechnet, der Bremsweg ist 12.5m der Reaktionsweg 15m.


Es ist mir seit Wochen bekannt, daß Mercedes nun Lastwagen hat, die zumindest in einem (1)
Parkhaus auf einem Übergabepunkt abgestellt werden können und dann autonom fahren und einparken.
Das sind für mich \'Die ersten Anfänge\'.

Und woanders wird schon fahrerlos in einer Grossstadt gefahren, das bedeutet doch
dass die wesentlichen Probleme geloest sind.


Nein, gar nicht!
Siehe oben \'Aussagen\' und die Postings von Gerrit.

Der glaubt dass es an den digitalen Karten fuer die Staedte liegt,
also dass man von San Francisco eine spezielle Karte gemacht hat die
den Autos das dort fahren ermoeglicht, und die Autos in Staedten wo
es keine solchen Karten gibt nicht vernuenftig autonom fahren koennen.
Wenn das so waere koennte man dem aber leicht abhelfen, indem man
von den anderen Staedten auch solche Karten macht.

Generell müssen Vollautonome auch alle Verkehrsschilder lesen und verstehen können.

Das ist ja wohl das simpelste an der Sache.

Du vergißt hier offenbar die richtungsweisenden Schilder mit Textinhalt.
Das ist nicht immer einfach, klar und ohne Widerspruch.

Braucht das Fahrzeug ansich nicht wenn es eine Karte hat, nur bei Umleitungen
die nicht in der Karte stehen waere es wichtig.

Was anderes waere es wenn in San Francisco an den Strassen irgendwelche Hardware installiert
waere die den Autos hilft.
Ich glaube nicht dass das ueberhaupt das Problem ist, sondern die Verkehrssituationen
die voruebergehend entstehen, also Unfaelle,Havarien, Feuerwehr und Notarzteinsaetze,
Schwertransporte, Baustellen, Kinder Hunde, Raubueberfaelle usw. die dazu fuehren koennen dass so ein Robotaxi
nicht mehr weiter weiss und stehen bleibt.
Evtl. wird dann mit Fernsteuerung nachgeholfen, d.,h. das selbstfahrende Auto ist
nur in 99.9% der Zeit selbstfahrend.
Das geht bei Robotaxi Unternehmen, bei Privataustos muesste an der Stelle
der Autofahrer nachhelfen. D.h. ohne Fuehrerschein muss man eben Robotaxi fahren
und nicht sein eigenes Auto, zumindest solange bis die Software besser ist.

Wir wissen gar nichts darüber, inwieweit den 100 Robotaxis in S.F. geholfen wird.

Die Spreu wird sich vom Weizen trennen, sobald Vollautonome auf dem Markt erschienen
sind, die _keine_ Fahrbedienelemente mehr haben.

Auch die koennten noch im Notfall ferngesteuert fahren.

Falls das im Falle des Falles technisch klappt.

In Staedten sollte das gehen.

Ich habe den Verdacht, daß die Schnellen beim autonomen Auto, vieles, worum sich
das MIT kümmert, ignorieren wollen, um als Universallösung schnelles, starkes
Bremsen zwecks Kollisionsvermeidung zu implementieren.

Weniger als bei menschlichen Autofahrer, weil die Reaktionszeiten viel kuerzer sind.

Und jedes Mal, wo das nicht reicht, gibt es halt Tote.

Das muesste man dann aber bald merken in San Francisco.


Ich habe als Grundlage meine \'Definition;\' oben, nicht die 100 Taxis in San Francisco.

Die wollen das auf 5000 ausdehnen, in naechster Zeit.

Weiß ich; hatte ich gelesen.
Dennoch weiß ich dann deswegen nicht mehr - ich weiß eigentlich gar nichts, außer \'100/5000 Robotaxis\'.

Die Hundert fahren seit Februar.
 
On 12/19/22 6:13 PM, Gerrit Heitsch wrote:
On 12/19/22 17:33, Helmut Schellong wrote:
On 12/19/2022 08:09, Christoph Müller wrote:


Es muß in einer _Maschine_ implementiert sein.
Die Maschine _muß_ entscheiden.

So leid es mir auch tut - Fehlentscheidungen sind zu akzeptieren,

Maschinen begehen keine Fehlentscheidungen.
Genau betrachtet entscheiden sie nichts, sondern ihre Software, die
von Menschen programmiert wurde.

Wobei es mit KI interessant wird. Man kann eine KI trainieren sich in
bestimmter Weise zu verhalten. Aber wie die KI die Entscheidung für ein
bestimmtes Verhalten trifft kann keiner sagen.

Man kann nicht wissen, wie eine KI ihre Umwelt wahrnimmt und beurteilt,
und wie sie wünschenswerte Reaktionen auf andere (nicht explizit
trainierte) Situationen übertragen kann.

Wurde schon mal untersucht, wie eine KI auf die vielen Dashcam Videos
reagiert, wie sie vor allem aus Russland zu uns kommen?

DoDi
 
On 12/19/22 21:17, Sieghard Schicktanz wrote:
Hallo Volker,

Du schriebst am Mon, 19 Dec 2022 08:45:17 +0100:

On Mon, 19 Dec 2022 06:46:13 +0100, Gerrit Heitsch wrote:
On 12/18/22 21:38, Volker Bartheld wrote:
4. Signierter Code und NDAs existieren. Warum nicht auch in der
Automobilbranche und bei der allzweijährlichen HU?
Letzteres heisst aber auch zertifizierter Code. Also nix mit schnell
mal ein Update nachschieben

Genau das und natürlich nicht.

Leider gehen _ALLE_ aktuellen Bestrebungen der Autoindustrie genau in
der gegenläufigen Richtung, das aktuelle schlagwort in der Software-
Entwicklung, ausgelöst und durchgesetzt von Verkauf, Kundenvertrieb und
management, heißt \"DevOps\" und bedeutet \"deploy early, update often\".

Es ist schon auffällig, daß zwischen \'dev\' und \'ops\' das \'QA\' fehlt,
also die Tests. Ein guter Programmierer ist nicht unbedingt auch ein
guter Tester und nicht alles lässt sich automatisieren.

Testen beim Kunden?


Gerrit
 
On 12/19/22 22:46, Carla Schneider wrote:
Gerrit Heitsch wrote:

On 12/19/22 14:25, Carla Schneider wrote:
Gerrit Heitsch wrote:

On 12/19/22 12:12, Carla Schneider wrote:
Gerrit Heitsch wrote:

On 12/18/22 16:08, Helmut Schellong wrote:
On 12/18/2022 12:42, Gerrit Heitsch wrote:
On 12/18/22 12:28, Christoph Müller wrote:
Am 17.12.2022 um 12:41 schrieb Carla Schneider:

Die Entwicklungen werden immer weiter gehen auch beim Serienauto.

[...]

Hacker stellen diesbezüglich ein wirklich sehr ernstes Problem dar.

Ja, woraus folgt, daß V2V Kommunikation wirklich keine gute Idee ist.
Denn wenn es Vorteile bringt werden autonome Autos anfangen zu lügen.
Wahrscheinlich nicht mit dem Original-Code des Herstellers, aber es
werden sich Wege finden das zu ändern.

Gleiches gilt für die Umgebung. Du willst am Sonntag endlich mal
wieder Ruhe haben? Beacon aufbauen die deine Straße als blockiert
meldet obwohl sie es nicht ist.

Von Hackern die über Sicherheitslücken im Code die Kontrolle über
Fahrzeuge übernehmen ganz zu schweigen.

Ich würde die Software eines vollautonomen Autos beispielsweise öfter
einem Test
mit einem sha3_256-Hash unterziehen, der zudem von Hackern _nicht
unterlaufen_ werden kann.

Das hilft nur gegen Veränderungen auf dem Massenspeicher, aber nicht
gegen Veränderungen des laufenden Binaries im RAM.

Es gibt Computer bei denen Daten und Programm nicht im gleichen RAM gespeichert
werden, nicht nur in der CPU selbst wo das heute Standard ist. D.h. ein laufendes
Computerprogramm kann seinen Code nicht selbst modifizieren.

https://de.wikipedia.org/wiki/Harvard-Architektur

Ja, siehe die kleinen AVR. Aber so richtig durchgesetzt hat sich das
nicht, schon alleine deshalb weil die reine Lehre der Trennung nur mit
Programm im ROM funktioniert.

Das Programm koennte auch im RAM liegen, aber eben einem speziellen auf das der
Prozessor nicht schreiben kann.
Um das Programm ins RAM zu bringen haben wir einen zweiten Prozessor, der als einziger auf den Massenspeicher
wo das Programm liegt zugreifen und das Programm ins RAM laden kann, der aber dessen eigene Software
unveraenderlich in einem ROM liegt.
Der kann auch in den Massenspeicher schreiben bei einem Softwareupdate, aber nur auf eine
unveraenderliche Art und Weise waehrend der andere Prozessor ausser Betrieb ist,
indem er den uebergebenen Programmcode mit einem fest einprogrammierten
Public Key entschluesselt, und dann hineinschreibt.
Nur der Besitzer des Private Keys kann ein einen solchen Code erzeugen, das waere hier der Hersteller.

Kann man so machen, ja, aber wird bei einem Auto keiner tun, da werden
die Kosten bis auf 1/10 Cent berechnet und gedrückt wo immer es geht.

Wieviel das kostet haengt von der Stueckzahl ab, die Entwicklungskosten sind das eigentlich teure.


Und bei anderen Rechnern... Wie implementiert man bei Harvard Swap/Paging?

Genau wie bei von Neumann-Rechnern, nur doppelt, wobei Programmcode ja nur hereingeladen
wird.

Ja, aber wie? Beim Laden ist das Programm noch Daten, aber die sollen in
den Programmspeicher auf den man bei Harvard ja nur zur Ausführung
Zugriff hat. Etwas auffweichen muss man also schon.

Am besten man macht das Programm-RAM so gross dass das ganze Programm hineinpasst, dann
spart man sich das.

Normale OS nutzen schon lange Paging schon beim Laden des Programmes. Es
wird die erste Page geladen und ausgeführt. Versucht der Code diese zu
verlassen gibts einen page fault und die entsprechende Page wird
nachgeladen. So steht nur im Speicher was auch gebraucht wird. Programme
am Stück laden ist schon lange out.

Gerrit
 
On 12/20/22 00:32, Helmut Schellong wrote:
Fehlerfreie Software ist selbstverständlich möglich.

Meinst du. Schon bei eher simplen Programmen ist der Beweis der
Korrektheit nicht mehr möglich.


Sicherheitsrelevante Software wird entsprechend geprüft, bis sie
keine Fehler mehr enthält bzw. bis sich kein Fehler mehr zeigt.

Letzteres ist aber nicht dasselbe wie ersteres, denn es kann einfach nur
bedeuten, daß du nicht ausführlich genug getestet hast.

Eine Menge Software schien fehlerfrei zu sein bis ein Hacker das
Gegenteil bewiesen hat.

Gerrit
 
Helmut Schellong schrieb:
Gerrit Heitsch wrote:
Helmut Schellong wrote:
Handelsblatt:
|Ende Oktober 2021 hatten die Automobilkonzerne Volkswagen und Ford
das Aus von Argo AI besiegelt.
|Das Unternehmen entwickelte Soft- und Hardware für vollautonome
Fahrzeuge.
|Doch zuletzt waren Zweifel gewachsen, ob Argo rasche Erfolge
erzielen kann.

Aha.
Mitarbeiter: München=280, USA=500

Ich hatte vor einer Reihe von Monaten berichtet, daß Forscher am MIT die
Prognose geben, daß \'Voll autonom\' noch Jahrzehnte dauern kann/wird.

Und genau _das_ paßt Leuten nicht, die keine Ahnung vom Thema aber
das Sagen haben.
Ich sehe auch bei Mercedes und Audi hierzu einen viel zu großen
Optimismus beim notwendigen Zeitbedarf.

Da ist das größere Problem wohl einfach, dass du zwar ein unendlicher
Schwätzer bist, von den Problemen und deren Lösung aber nun wirklich
keinerlei Ahnung hast

Es wird nicht die riesige Anzahl von zu lösenden Problemen gesehen,
bevor Tests im Straßennetz möglich sind.

Die Tests im Straßenverkehr laufen seit vielen Jahren. Und inzwischen
gibt es auch zugelassene vollautonome Fahrzeuge, hierzulande z.B. von
Mercedes-Benz, welche ohne Zutun und ohne Überwachung seitens des
Fahrers unterwegs sein dürfen, wenn auch noch in eingeschränkten, genau
definierten Bereichen.

Ein einziges von vielleicht 150 Problemen kann eine kleine Gruppe von
Forschern und Entwicklern bereits Jahre beschäftigen!

Bei Forschern und Entwicklern der Marke Schellong mag das durchaus
zutreffen

Das 80/20-Problem. In 20% der Zeit kannst du 80% der Funktionen
hinbekommen und das Ergebnis sieht dann auch schon gut und fast fertig
aus. Aber für die restlichen 20% brauchst du 80% der Zeit.

Ja, derlei Allgemeinplätze kann man eigentlich zu jedem Thema loslassen.
Es sagt halt überhaupt nichts über den Stand einer konkreten Entwicklung :->

Und im Straßenverkehr hat es leider extrem viele Edge-Cases die alle
korrekt behandelt sein wollen.

Ja; Die Fähigkeiten des Menschen werden stark unterschätzt.
Das schrieb ich schon mal.

Es bleibt dennoch falsch, egal wie oft du es schreibst

Am MIT wird z.B. der Zebrastreifen untersucht.
Ein vollautonomes Auto muß herausfinden, wohin die Augen eines Menschen
blicken,
der in der Nähe eines Zebrastreifens steht/sich_aufhält!

Nein, das muss es am Zebrastreifen ebensowenig wie der menschliche
Fahrer. Es muss sich so verhalten, dass es rechtzeitig anhalten oder
ausweichen kann, auch wenn der Mensch am Zebrastreifen gerade noch ins
Schaufenster hinter ihm oder in sein Handy schaut, sich aber unversehens
umdreht und auf die Fahrbahn tritt.

Und das ist nur ein Problem von mehreren in diesem Zusammenhang!
Es muß generell festgestellt werden, was Menschen neben der Straße
aufgrund von Blicken, Körperhaltung und Bewegung für Absichten haben!

Das ist maschinell inzwischen mit hinreichender Sicherheit problemloser
möglich als es die meisten menschlichen Fahrer schaffen.

> Ein menschlicher Fahrer kann das - sogar lässig und leicht.

Können täte er es wohl. Viele tun es halt nicht - aus
unterschiedlichsten Gründen. Auch deshalb müssen Fahrzeugfronten
fußgängerfreundlich gestaltet werden :->

> Dies ist allerdings für eine Maschine eine wahnwitzig hohe Anforderung!

Unsinn! Mein Auto bremst auch für auf einer Verkehrsinsel stehende
Menschen. Ebenso für fahrradschiebende Menschen am Fahrbahnrand. Und
natürlich für vorwitzig in Richtung Fahrbahn tretende Fußgänger. Es tut
das sogar dann, wenn der Fahrer gerade am Navi oder am Radio hantiert
oder gar sein Handy am Ohr hat und telefoniert.

Weiteres Beispiel einer Aufgabe:
--------------------------------
Eine zerknüllte Brötchentüte vom Bäcker wieder glätten.
Diese Tüte wird irgendwo in den Erfassungsbereich einer entsprechenden
Maschine geworfen,
und diese Maschine muß dann eben machen und die von ihr geglätteten
Tüten stapeln.

Ich selbst mache das, indem ich die gefalzten Seiten geeignet straffe
und gleichzeitig zwischen
Daumen, Zeigefinger und Mittelfinger mit passendem Druck und Reibung
changierend durchziehe,
ständig beobachtend und dynamisch optimierend, ohne die Tüte zu zerreißen.
Und das ist nur _einer_ der Arbeitsgänge mit der Tüte.

Passt aber auch, wenn eine Trantüte Tüten faltet...
Ich hab vor einigen Jahrzehnten in einem Praktikum an der TU (Technische
Mechanik?) eine Vorrichtung ganz ohne Ekeltronik, rein mechanisch, zum
sortieren von Schrauben etc. für irgendeine Maschine zur automatischen
Maschine entwickeln sollen. Das ging binnen weniger Stunden. Freilich
haben wir nicht allein, sondern in Zweierteams gearbeitet. Teils sogar
mit Überstunden im Schelling-Cafe oder ähnlichen bevorzugten
Studienörtlichkeiten.

> Es kann sein, daß eine solche Maschine gar nicht machbar ist!

Geh getrost davon aus, dass eine solche Maschine binnen weniger Monate
auf dem Markt ist, so denn eine Anforderung dieser Art auftaucht

> Falls doch, dann kostet sie eventuell 35 Mio. Euro.

Ja, oder eventuell ein Promille davon, oder noch deutlich weniger, je
nach Entwicklungsaufwand, Herstellungskosten, Stückzahl,
Konkurrenzsituation u.v.m.

Die Maschine muß immerhin zuerst den Boden der _zerknüllten_ Tüte finden
und passend bearbeiten.

Dein Denken ist viel zu beschränkt! Wie kommst du nur dazu, genau eine
einzige Herangehensweise als machbar zu sehen?

Allein das ist eine Mords-Aufgabe für eine Maschine.

Wirklich schwer wird es, wenn die Maschine z.B. 50 verschiedene Aufgaben
erfüllen soll.
Wobei ihr jeweils einfach ein Objekt wortlos hingeworfen wird.
Wohlgemerkt: ein Mensch kann das alles, und noch viel mehr, locker vom
Hocker!

Es gibt eine ganze Menge Menschen, bei welchen ich das eher bezweifeln
würde...

MfG
Rupert
 
Gerrit Heitsch schrieb:
Helmut Schellong wrote:
Fehlerfreie Software ist selbstverständlich möglich.

Meinst du. Schon bei eher simplen Programmen ist der Beweis der
Korrektheit nicht mehr möglich.

Doch. Bei all dem Unsinn, den er ständig zusammenfaselt, das stimmt
immerhin.
Man kann durchaus gesichert fehlerfreie Software erstellen, welche auch
wirklich in jedem Fall genau das macht, was sie gemäß den Anforderungen
machen soll.

Sicherheitsrelevante Software wird entsprechend geprüft, bis sie
keine Fehler mehr enthält bzw. bis sich kein Fehler mehr zeigt.

Letzteres ist aber nicht dasselbe wie ersteres, denn es kann einfach nur
bedeuten, daß du nicht ausführlich genug getestet hast.

Das Testen ist ja auch erst der letzte Schritt. Bereits bei der
Konzeption des Entwicklungsprozesses und des konkreten Projekts muss
berücksichtigt werden, dass es nicht lediglich um ein Jux-Programm zum
daddeln oder dergl. geht

Eine Menge Software schien fehlerfrei zu sein bis ein Hacker das
Gegenteil bewiesen hat.

Eine Menge Softwareklitschen ist erstens nicht zu wirklich guter
Leistung in der Lage, zumeist schon mangels hinreichend viel hinreichend
guten und damit teuren Personals, aber es gibt durchaus Methoden zur
Entwicklung sicher fehlerfreier Software und wenn der Auftraggeber die
Anforderung \"garantiert fehlerfrei\" ins Pflichtenheft schreibt und die
entsprechend höheren Kosten tragen mag, dann kann er das auch bekommen.

MfG
Rupert
 
On 12/20/22 09:10, Rupert Haselbeck wrote:
Gerrit Heitsch schrieb:
Helmut Schellong wrote:
Fehlerfreie Software ist selbstverständlich möglich.

Meinst du. Schon bei eher simplen Programmen ist der Beweis der
Korrektheit nicht mehr möglich.

Doch. Bei all dem Unsinn, den er ständig zusammenfaselt, das stimmt
immerhin.
Man kann durchaus gesichert fehlerfreie Software erstellen, welche auch
wirklich in jedem Fall genau das macht, was sie gemäß den Anforderungen
machen soll.

Das Problem hierbei ist aber auch, daß die Anforderungen korrekt und
komplett sein müssen. Viele Fehler ergeben sich daraus, daß die Software
durchaus genau das tut was sie laut Anforderungen soll, aber, passend
benutzt, eben auch andere Dinge. Gerne weil vergessen wurde, daß sich
Eingabedaten nicht unbedingt an ihre Spezifikation halten.


Sicherheitsrelevante Software wird entsprechend geprüft, bis sie
keine Fehler mehr enthält bzw. bis sich kein Fehler mehr zeigt.

Letzteres ist aber nicht dasselbe wie ersteres, denn es kann einfach
nur bedeuten, daß du nicht ausführlich genug getestet hast.

Das Testen ist ja auch erst der letzte Schritt. Bereits bei der
Konzeption des Entwicklungsprozesses und des konkreten Projekts muss
berücksichtigt werden, dass es nicht lediglich um ein Jux-Programm zum
daddeln oder dergl. geht

Ja, aber testen muss sein. Es ist falsch zu glauben, man könnte sich
durch einen passenden Entwicklungsprozess das Testen sparen.


Eine Menge Software schien fehlerfrei zu sein bis ein Hacker das
Gegenteil bewiesen hat.

Eine Menge Softwareklitschen ist erstens nicht zu wirklich guter
Leistung in der Lage, zumeist schon mangels hinreichend viel hinreichend
guten und damit teuren Personals, aber es gibt durchaus Methoden zur
Entwicklung sicher fehlerfreier Software und wenn der Auftraggeber die
Anforderung \"garantiert fehlerfrei\" ins Pflichtenheft schreibt und die
entsprechend höheren Kosten tragen mag, dann kann er das auch bekommen.

Ich habe immer noch Zweifel, daß bei komplexer Software ein \'garantiert
fehlerfrei\' möglich ist.

Gerrit
 
Christoph Müller <chrnewsgroup@astrail.de> wrote:
Am 22.12.2022 um 12:19 schrieb Rolf Bombach:
Christoph Müller schrieb:

Die Brownsche Molekularbewegung kennst du vermutlich.

Kenne ich nicht. Gibt es nicht. Du meinst wahrscheinlich
die Brownsche Bewegung aufgrund der Molekularbewegung.

Immerhin hast du den Sinn des Textes erfasst. Dann kann mein Text ja
nicht soo falsch gewesen sein.

Betrachtest du einen Kubikmillimeter Luft, wirst du feststellen, dass
sich die Luftmoleküle in diesem Kubikmillimeter öfters mal in eine
bestimmte Ecke dieses Volumens verdrücken. Sowas kann grundsätzlich
auch in großen und sehr großen Volumen passieren. Nun stelle dir mal
einen Kubikmeter Luft vor. Du wirst lang drauf warten können, bis sich
mal sämtliche Moleküle in eine Ecke des Volumens verziehen. Denkbar
ist es. Aber halt extremst unwahrscheinlich. Ist der Fall also zu
berücksichtigen?

Nein. Die _Statistik_ der Bewegung der Gasteilchen,
meinetwegen Moleküle, kann man hervorragend mit einfachen
statistischen Gesetzen beschreiben. Das heisst aber
NICHT, dass sich die Teilchen zufällig (random walk,
stochastisch oder wie auch immer) bewegen! Sie bewegen
sich streng deterministisch, wenngleich in der Summe
halt chaotisch. Aber das einzelne Teilchen folgt
einer gleichförmigen Bewegung, Wurfparabel für Genauig-
keitsfanatiker; und jeder Stoss erfüllt exakt den
Impulssatz. Eine Summe, mag sie auch astronomisch gross
sein, von exakten Impulssätzen ist immer noch ein
exakter Impulssatz. Es gibt daher keinen Mechanismus,
welcher \"spontan und zufällig\" alle Teilchen in eine
Ecke schieben. Von energetischen und entropischen
Überlegungen mal ganz abgesehen.

Monsterwellen gibt dann vermutlich auch nicht und die Nachweise dafür
sind frei erfunden.

Soweit ich weiss hat bisher noch niemand Monsterwellen in Luft
nachgewiesen.

SCNR,
Alex.
--
\"Opportunity is missed by most people because it is dressed in overalls and
looks like work.\" -- Thomas A. Edison
 
Helmut Schellong wrote:
On 01/10/2023 09:29, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/07/2023 00:59, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/06/2023 12:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/05/2023 12:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/04/2023 01:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/03/2023 00:57, Carla Schneider wrote:
Helmut Schellong wrote:

On 01/02/2023 00:48, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/31/2022 12:27, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 20:36, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/30/2022 13:06, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/14/2022 13:57, Helmut Schellong wrote:
Handelsblatt:

[...]

Level_5 ist aber eindeutig viel höher stehend!

Bei Level_5 ist eine notwendige Hilfe eines Fahrers ausdrücklich ausgeschlossen!
Das ist ein riesiger Unterschied.

Nur wenn ein Fehler auftritt, oder ein Unfall der z.B. einen Sensorbeschaedigt,
sodass das Fahrzeug nicht mehr autonom fahren kann. Mit Level 4 undFuehrerschein kann
man trotzdem weiter fahren...

Level_5 verlangt ausdrücklich nicht die Abwesenheit von Bedienungselementen.

Deshalb wuerde ich lieber ein Level 4 Fahrzeug haben, das sollte
aber autonom genausogut fahren koennen wie ein Level 5 Fahrzeug.

Das wird es aber nicht - Du wirst hier unlogisch.
Premium ist ein Level_5 _mit_ Bedienungselementen!

Da war ich falsch informiert, Bedienelemente kann es bei Level 5
genauso geben wie bei Level 4, der Unterschied ist, dass Level 4
nur unter bestimmten Bedingungen autonom fahren kann, Level 5
aber immer wenn auch ein Mensch fahren kann:

Ich hatte die Definitionen der Level 4 und 5 gepostet, nach denen ich mich richte.

Wenn sie von der im folgenden Link abweicht dann stimmt sie nicht, dennda kommt sie
her:

Das stimmt nicht (ganz):
|https://de.wikipedia.org/wiki/Autonomes_Fahren
|https://www.bast.de/DE/Presse/Mitteilungen/2021/06-2021.html
|Level der BASt, VDA und SAE-Standard J3016 [3]:

Vorstehend die Standards, gemäß derer die Definitionen formuliert wurden, die ich postete.
Von mir gepostet: 12/31/2022 20:53 - schon länger her.
Wikipedia hat die in sich widersprüchlichen Standards widerspruchsfrei verschmolzen.
Auch
https://www.adac.de/rund-ums-fahrzeug/ausstattung-technik-zubehoer/autonomes-fahren/grundlagen/autonomes-fahren-5-stufen/
ist stellenweise nicht ganz klar.

Die wollen den Unterschied zwischen Level_4 und Level_5 abschaffen,
weil er nicht signifikant genug ist.



https://www.sae.org/news/2019/01/sae-updates-j3016-automated-driving-graphic

Allerdings ist das ein bischen Wischiwaschi, weil auch Level 5 bestimmten
Bedingungen unterliegt, z.B. nicht off Road faehrt, oder bei zu starkem Schneefall,
wenn das LIDAR nicht mehr funktioniert.

Insbesondere gelten in DE stets amtliche Bestimmungen, sobald eine Sache konkret geworden ist.
Das KBA muß zulassen...

Wenn es aber die Bezeichnung bestimmen will dann muss es das auch tun,
ansonsten gilt die Bezeichnung aus Amerika.

SAE hat in DE keinerlei Gewalt. Es sei denn, das KBA übernimmt offiziell vom SAE.

Aber die meinen eher sowas wie dass Autos zur Zeit nur in San Francisco funktionieren,
aber dort vollstaendig autonom ohne Fahrer fahren.
Ich wette wenn ein Auto in den ganzen USA autonom fahren kann zaehlt es als Level 5,

Ja, sehe ich auch so - aber erst dann.

Aber jeder Feldweg muss nicht drin sein, das waere dann aber wieder eine
Einschraenkung.

Ich meine, ein Passagier muß einem Level_5 ein Ziel eingeben können, woraufhin
das Auto den Passagier dorthin bringt.

Das ist ja auch bei Level_4 so. Und wenn das Auto dann sagt: Geht nicht, oder
Geht jetzt nicht, dann kommt es auf die Begruendung an die entscheidet ob das
Auto Level 4 oder 5 ist.

Die genauere Strecke kann durch Filterung bestimmt werden.
Das Auto bestimmt, welchen Weg es einschlägt.
Es kann auch umkehren, wenn es sieht, daß es dem aktuellen Weg nicht weiter folgen kann.

Ich schaezte mal dass die Wert darauf legen dass die Fahrzeuge nur
auf geprueften Wegen unterwegs sind damit sie nicht steckenbleiben
oder in Loecher fallen.
Die Einschaetzung ob so ein Weg nach Niederschlaegen befahrbar ist oder
nicht will man vielleicht auch nicht dem Fahrzeug ueberlassen, also wird
man so einen Weg von vornherein ausschliessen, obwohl er fuer einen Menschen
meistens befahrbar ist.

Man merkt, wie sehr recht die Professoren am MIT haben, indem sie von Unterschätzung sprachen.
Ebenso ist bemerkbar, wie universal-fähig der Mensch ist!

Ich denke dass das autonome Auto durchaus faehiger ist so einen Weg zu fahren
als die meisten Menschen, es aber nicht tun wird wenn es eine Gefahr
sieht dass das Auto stecken bleibt.
Der Mensch dagegen wird dieses Risiko evtl. bewusst eingehen, oder auch
nicht, je nachdem wie wichtig es ihm ist dort zu fahren.

[...]

Offenbar will man dem Consumer noch kein autonomes Fahrzeug verkaufen,
und auch nicht darueber sprechen wie das in Zukunft aussieht.

Man will z.B. nicht 150000..250000 EUR in den Raum stellen.

Massenmarkt waere das noch keiner...

Kann sein, daß Level_5 40 Jahre lang im Premium-Segment angesiedelt sein wird.

Gibts irgendwas kleines in der Technik wovon man sagen kann dass es 40 Jahre lang sehr teuer
sein wird ?

Das widerspricht sich selbst (\"kleines\").

Mit kleines meinte ich einen Gegenstand dessen Wert nicht nach Gewicht berechnet wird.
Gegenbeispiel Schaufelradbagger fuer Braunkohletagebau, sein Wert besteht hauptsaechlich
aus dem Wert des Stahls.


> Je komplexer und anspruchsvoller etwas ist, desto länger ist dessen natürliches Beharrungsvermögen.

Aber nicht beim Preis. Die Rechenleistung im Computer die vor 50 Jahren soviel gekostet hat wie
ein Schaufelradbagger fuer die Braunkohle kostet heute weniger als ein Mittagessen.


Aber wie es mit dem Solid State LIDAR aussieht wissen wir nicht wirklich,
denn das mechanische mit rotierenden Spiegeln ist sehr teuer und seine
Lebensdauer ist relativ kurz.

Solche Probleme müssen halt gelöst werden.

Sind sie ja angeblich schon, aber trotzdem werden mechanische LIDARS
in den heutigen Versuchsfahrzeugen verwendet.


Sondern man will locker-flockig labern und spielen.
Auch die realistische Zeitdauer bis Level_5 will man nicht nennen.
Ich meine damit nicht Robotaxis, sondern frei kaufbare Level_5!

Warum nicht mietbare Autos ?

1500 EUR pro Tag?
Bei dem Preis waere auch der Taxi-Einsatz grenzwertig.
Es geht mir eher daraum dass man ein noch nicht ganz ausgereiftes Fahrzeug
nicht kaufen will, aber durchaus mieten, bzw. leasen.


[...]
Hat jetzt nichts mit autonom fahren zu tun, das geht auch mit Verbrenner.

Im Prinzip ja, jedoch wird Level_5 wohl zu 99,99% mit E-Autos vollzogen werden.

Das ist jetzt so weil die Versuchsfahrzeuge alle in Kalifornien fahren, wegen der
dortigen gesetzlichen Regelungen fuer Neuwagen.


E-Autos haben keine Gänge, wie Verbrenner, und können linear und stufenlos gestellt werden.

Das Automatik Getriebe gibt es schon sein Jahrzehnten.

Genau so etwas will man unbedingt vermeiden!

Der einzige Grund dafuer waere wenn Neuzulassungen von Verbrennern schon recht bald
nicht mehr erlaubt waeren, das ist aber erst 2035 in der EU, und in anderen Laendern noch spaeter.

In Norwegen ab 2030.

Jedoch 2035 wird es noch kein frei kaufbares Level_5 geben.

Aber Level_4 und die werden als Level_5 verkauft und das sicher schon deutlich frueher.
Schliesslich faehrt diese Technik bereits in San Francisco, wie du inzwischen auch gesehen hast.

In DE wird Level_4 sicher nicht als Level_5 verkauft, denn das wäre eine schwere Straftat, die
500 Mio. EUR Bußgeld kosten könnte.

Wenn die Level in Deutschland noch nichtmal definiert sind hat das wenig Sinn.

Und es könnten tausende Schadensersatzforderungen beim betrügerischen Verkäufer eingehen.
Könnte einen Mrd.-Betrag ergeben.

Ein gestellter E-Motor mit Drehgeber ist etwas gänzlich Anderesals ein Block mit Automatik-Getriebe.
Das Automatik-Getriebe schaltet ja - für den Verbrenner-Motor eine Verteilung der Drehzahl-Bereiche.

Die Geschwindigkeit ist regelbar, darauf kommt es an.

Es kommt auch darauf an, _wie_ genau sich ein Verbrenner-Auto einstellen/dosieren läßt.
Und das ist erbärmlich schlecht!
Beim Verbrenner muß man oft Schwung durch viel Gas aufbauen, um danach den Kraftschluß herzustellen.

Du redest von einem Schaltgetriebe, es gibt auch

Nein, ich rede von einem Automatik-Getriebe, denn ich wechsele nicht einfach das Thema.
Ein Automatik-Getriebe schaltet genau so die Gänge, mittels Zahnrädern, nur eben automatisch.

Es gibt aber Automatikgetriebe wo man nicht Schwung aufbauen muss, und das ist bei PKW ueblich:

https://de.wikipedia.org/wiki/Fahrzeuggetriebe#Wandler-Automatikgetriebe
Aber auch automatische Schaltgetriebe:
https://de.wikipedia.org/wiki/Fahrzeuggetriebe#Klassisches_automatisiertes_Schaltgetriebe_(ASG)
---------
Neuere Systeme im LKW oder Reisebus schalten auch vollautomatisiert; ein
Kupplungspedal fehlt oder kann für Notfälle ausgeklappt werden.

Das war schon beim RO_80 (Wankel) so, in den 1970ern.

Der hatte einen Drehmomentwandler weil der Wankelmotor hier konstruktionsbedingt
ruckelte. Das kostete aber Wirkungsgrad.
Bei einem normalen PKW Automatikgetriebe braucht man den hydraulischen Drehmomentwandler
nur zum Anfahren.

Standardmäßig sind moderne LKW mit einem Achtgang-Getriebe ausgestattet.
Basis der LKW-Getriebe ist in der Regel ein Viergang-Schaltgetriebe,
das mit einer Vorschaltgruppe und einer Range-Gruppe erweitert werden
kann, wodurch 16 Gangstufen zur Verfügung stehen.
---------

D.h. das Problem ist laengst geloest.
https://www.reuters.com/business/autos-transportation/bosch-mercedes-benz-roll-out-fully-automated-parking-stuttgart-airport-2022-11-30/
Hier fahren offenbar Verbrenner autonom in einem Parkhaus herum.

Na und?
In einem Parkhaus herrscht eine kontrollierte Umgebung mit geringsten Anforderungen.

Zweifellos, der Punkt ist dass das Verbrenner sind, die wie man
sieht autonom fahren, wenn auch nur im Parkhaus.
Die zusaetzlichen Probleme die fuers Fahren in der Stadt geloest
werden muessen haben nichts mit dem Verbrenner zu tun.

Alle Level_4 in Kalifornien sind m.W. E-Autos.

Vielleicht weil Kalifornien strenge Gesetze von wegen Luftreinhaltung hat -
ist aber ueberhaupt sicher dass von diesen Testfahrzeugen in Kalifornien
alle elektrisch sind ?
Wie sieht das bei Mercedes aus ?


Eine Feindosierung im Takt von Zehntelsekunden ist unmöglich!
Beim E-Motor ist dies aber leicht möglich.

Ich hatte in der Industrie mit per Drehgeber geregelten E-Motoren zu tun.
Das ist eine andere Verhaltens-Welt gegenüber Verbrenner-Motoren.

Zweifellos, aber der Verbrenner ist sicher kein Problem fuer
automatisierte Autos. Beim autonomen LKW wird man bestimmt darauf
zurueckkommen.

Beim LKW - vielleicht, eventuell mit Wasserstoff-Antrieb.
Beim PKW nie und nimmer.

Mal sehen wie das bei der Oberklasse von Mercedes aussehen wird...
Der Vorteil des Verbrennungsmotors ist immer noch dass man jederzeit fahren kann
weil ein leerer Tank schnell zu fuellen ist.

Wenn man die Drehzahl auf Null stellt, verhält sich die Motorachse wie fest-geschweißt.
Ist die Regelung abgeschaltet, kann die Achse mit zwei Fingern leicht gedreht werden.
Eine Einstellung auf 0,1 Umdrehungen/Min. ist möglich - mit vollem Drehmoment.
Steckt man dabei einen Schraubenschlüssel blockierend auf die Welle, dreht der Motor weiter
mit der eingestellten Drehzahl, bis der Schraubenschlüssel zerbricht und meterweit durch den Raum fliegt.

Es geht auch darum, daß ESP/ESC/ABS/ASR durch einen elektrischen Antrieb ersetzt werden können.

Nicht ersetzt, sondern anders konstruiert. Brauchen tut man sie ja auch beim Elektroauto.

Sie können durchaus ersetzt werden, weil die notwendigen Fähigkeiten im E-Motor inhärent sind.
Z.B. ein ESP reagiert durch Bremsen.
Das kann entfallen, da ein E-Motor selbst bremsen kann.

Nein, das ESP kann statt der Bremse die Motoren steuern.
Allerdings nur wenn Radnabenmotoren verwendet werden, beim Tesla ist
das z.B. nicht so, da gibts nur 2 Motoren, also muss das ESP auch
die Bremsen benutzen.
https://de.wikipedia.org/wiki/Fahrdynamikregelung


E-Autos haben auch eine immense elektrische Leistung für die Computer.
Da geht nichts /in die Knie/.
Ich denke, ein Verbrenner mit Lichtmaschine als Basis für dieEntwicklung eines Level_5
wäre n-fach hirnverbrannt und idiotisch.

Eine etwas staerkere \"Lichtmaschine\" waere kein Fehler und auch sonst sehr nuetzlich,
z.B. zum Betrieb einer Mikrowelle im Auto...


Dennoch ist ein Level_5 mit Verbrenner-Antrieb extrem unwahrscheinlich.
Meine Schätzung 150000..250000 EUR lautet dann 350000..550000 EUR.

Der Verbrenner ist billiger als das Elektroauto, also wirds bei Level4 oder 5 auch
nicht teurer sein.


Aufgrund meiner konkreten technischen Erfahrungen halte ich eine Level_5-Entwicklung
auf Basis eines Verbrennungsmotors für vollkommen bekloppt und fehlgeleitet.

Ich sehe ueberhaupt keinen Zusammenhang zwischen dem Autonomie-Level und der Antriebsweise.
Wer Level-5 mit Elektroautos erreicht hat kann das auch fuer Verbrenner verwenden,
wenn der Wille dazu da ist.

Kann er nicht, ganz und gar nicht; kaum ein Fahralgorithmus eignet sich dann noch!
Das erforderte massiv aufwendige Weiterentwicklung.
Und das Algorithmus-Endergebnis wäre wesentlich problematischer als bei einem E-Auto.

Ich glaube das ist minimal verglichen mit dem sonstigen Aufwand fuers Autonome Fahren.

Der Drehmomentwandler, vorne in einem Automatikgetriebe, ist ein Flüssigkeitsgetriebe, bei
dem die Antriebskraft durch Öl hindurch verläuft!
Beim extrem trägen LKW kann ich mir das vorstellen, aber nicht bei autonomen PKWs.

Braucht man eigentlich nur zum Anfahren ohne schleifende Kupplung und ist bei
den PKW Automatikgetrieben schon seit einem halben Jahrhundert ueblich.
 
Gerrit Heitsch wrote:
On 12/19/22 22:46, Carla Schneider wrote:
Gerrit Heitsch wrote:

On 12/19/22 14:25, Carla Schneider wrote:
Gerrit Heitsch wrote:

On 12/19/22 12:12, Carla Schneider wrote:
Gerrit Heitsch wrote:

On 12/18/22 16:08, Helmut Schellong wrote:
On 12/18/2022 12:42, Gerrit Heitsch wrote:
On 12/18/22 12:28, Christoph Müller wrote:
Am 17.12.2022 um 12:41 schrieb Carla Schneider:

Die Entwicklungen werden immer weiter gehen auch beim Serienauto.

[...]

Hacker stellen diesbezüglich ein wirklich sehr ernstes Problem dar.

Ja, woraus folgt, daß V2V Kommunikation wirklich keine gute Idee ist.
Denn wenn es Vorteile bringt werden autonome Autos anfangen zu lügen.
Wahrscheinlich nicht mit dem Original-Code des Herstellers, aber es
werden sich Wege finden das zu ändern.

Gleiches gilt für die Umgebung. Du willst am Sonntag endlich mal
wieder Ruhe haben? Beacon aufbauen die deine Straße als blockiert
meldet obwohl sie es nicht ist.

Von Hackern die über Sicherheitslücken im Code die Kontrolle über
Fahrzeuge übernehmen ganz zu schweigen.

Ich würde die Software eines vollautonomen Autos beispielsweise öfter
einem Test
mit einem sha3_256-Hash unterziehen, der zudem von Hackern _nicht
unterlaufen_ werden kann.

Das hilft nur gegen Veränderungen auf dem Massenspeicher, aber nicht
gegen Veränderungen des laufenden Binaries im RAM.

Es gibt Computer bei denen Daten und Programm nicht im gleichen RAM gespeichert
werden, nicht nur in der CPU selbst wo das heute Standard ist. D.h. ein laufendes
Computerprogramm kann seinen Code nicht selbst modifizieren.

https://de.wikipedia.org/wiki/Harvard-Architektur

Ja, siehe die kleinen AVR. Aber so richtig durchgesetzt hat sich das
nicht, schon alleine deshalb weil die reine Lehre der Trennung nur mit
Programm im ROM funktioniert.

Das Programm koennte auch im RAM liegen, aber eben einem speziellen auf das der
Prozessor nicht schreiben kann.
Um das Programm ins RAM zu bringen haben wir einen zweiten Prozessor, der als einziger auf den Massenspeicher
wo das Programm liegt zugreifen und das Programm ins RAM laden kann, der aber dessen eigene Software
unveraenderlich in einem ROM liegt.
Der kann auch in den Massenspeicher schreiben bei einem Softwareupdate, aber nur auf eine
unveraenderliche Art und Weise waehrend der andere Prozessor ausser Betrieb ist,
indem er den uebergebenen Programmcode mit einem fest einprogrammierten
Public Key entschluesselt, und dann hineinschreibt.
Nur der Besitzer des Private Keys kann ein einen solchen Code erzeugen, das waere hier der Hersteller.

Kann man so machen, ja, aber wird bei einem Auto keiner tun, da werden
die Kosten bis auf 1/10 Cent berechnet und gedrückt wo immer es geht.

Wieviel das kostet haengt von der Stueckzahl ab, die Entwicklungskosten sind das eigentlich teure.


Und bei anderen Rechnern... Wie implementiert man bei Harvard Swap/Paging?

Genau wie bei von Neumann-Rechnern, nur doppelt, wobei Programmcode ja nur hereingeladen
wird.

Ja, aber wie? Beim Laden ist das Programm noch Daten, aber die sollen in
den Programmspeicher auf den man bei Harvard ja nur zur Ausführung
Zugriff hat. Etwas auffweichen muss man also schon.

Am besten man macht das Programm-RAM so gross dass das ganze Programm hineinpasst, dann
spart man sich das.

Normale OS nutzen schon lange Paging schon beim Laden des Programmes. Es
wird die erste Page geladen und ausgeführt. Versucht der Code diese zu
verlassen gibts einen page fault und die entsprechende Page wird
nachgeladen. So steht nur im Speicher was auch gebraucht wird. Programme
am Stück laden ist schon lange out.

Das Konzept stammt aus einer Zeit in der das RAM noch in Kilobyte angegeben wurde.
Natuerlich koennte man das hier auch so machen, der Sicherheitsprozessor laedt die Seiten
des Programms in das Programm-RAM, auf Aufforderung durch die anderen Prozessoren,
indem sie ihm Nachrichten schicken in denen jeweils steht welche Seiten fehlen.
Die Tabelle in der die Uebersetzung logische zu physischen Seiten steht
muss dann ebenso im Programm-RAM stehen.
Problematischer ist wenn solche Seiten entfernt werden aber im Cash eines Prozessors stehen.
Diese Komplikationen kann man sich sparen wenn die gesamten fuers Fahren benoetigten
Programme ins RAM geladen werden, sodass ein Seitenfehler nicht auftritt.
 
On 12/23/2022 08:05, Peter Heirich wrote:
Christoph Müller wrote:

Na ja - ist die Software von Level-5-Fahrzeugen Konsumerware? Da kann man
durchaus geteilter Ansicht sein. Sicher ist jedoch, dass es sich um
sicherheitsrelevante Software handelt. Damit sollte man sich keine
Schludrigkeiten leisten. Wenn sowas auf den Markt kommt, muss sicher gestellt
sein, dass die Unfallrate damit auf jeden Fall deutlich geringer ist als mit
menschlichen Fahrern. Andernfalls gibt\'s einfach keine Zulassung. Die für
Konsumer-Ware übliche Bananenstrategie darf mit solcher Software nicht zur
Anwendung kommen (Bananenstrategie -> Produkt reift erst beim Kunden).

Eigentlich hätte ich gedacht, dass bewährte Prinzipien der Redundanz angewendet werden.

Da hast Du richtig gedacht.
Ich hatte doch geschrieben, daß ich als Entwickler eines Autonomen
z.B. 67 µC vorsehen würde, ohne Betriebssysteme, direkt programmiert.

Unter den 67 µC sind z.B. 34 redundant.


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
Helmut Schellong wrote:

>Unter den 67 µC sind z.B. 34 redundant.

Das spricht für Redundanz gegen Ausfall, nicht für 2 aus 3 Logik, um
hoffentlich unerkannte Softwarefehler auszugleichen. Auch wenn mir nicht
klar ist, ob 2 aus 3 Logik dabei überhaupt machbar ist.

Peter
 
On 12/14/2022 22:10, Rupert Haselbeck wrote:
Helmut Schellong schrieb:
Gerrit Heitsch wrote:
Helmut Schellong wrote:
Handelsblatt:
|Ende Oktober 2021 hatten die Automobilkonzerne Volkswagen und Ford das Aus von Argo AI besiegelt.
|Das Unternehmen entwickelte Soft- und Hardware für vollautonome Fahrzeuge.
|Doch zuletzt waren Zweifel gewachsen, ob Argo rasche Erfolge erzielen kann.

[...]

Am MIT wird z.B. der Zebrastreifen untersucht.
Ein vollautonomes Auto muß herausfinden, wohin die Augen eines Menschen blicken,
der in der Nähe eines Zebrastreifens steht/sich_aufhält!

Nein, das muss es am Zebrastreifen ebensowenig wie der menschliche Fahrer. Es muss sich so verhalten, dass es rechtzeitig anhalten oder ausweichen kann, auch wenn der Mensch am Zebrastreifen gerade noch ins Schaufenster hinter ihm oder in sein Handy schaut, sich aber unversehens umdreht und auf die Fahrbahn tritt.

Der Zebrastreifen ist dazu da, daß vor ihm angehalten werden muß, sofern
ein Passant erkennbar die Absicht zeigt, den Zebrastreifen zu benutzen.
Es muß der Fußgänger dazu eingeladen werden, den Zebrastreifen zu benutzen.

Das MIT forscht daran - ich nicht, ich zitiere sinngemäß das MIT.
Du widersprichst dem MIT.

Auf weitere Deiner Ausführungen, die teilweise oder völlig falsch sind, antworte ich nicht.

[...]

--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On 2022-12-22, Helmut Schellong <rip@schellong.biz> wrote:
Ja, das hat bei der Ariane 5 super funktioniert ;-)


Bei Ariane 5 war das Gegenteil der Fall.
Der betreffende Parameter hatte Werte eben _nicht_ zugelassen!
Es entstand ein Überlauf, ein Abschneiden der höherwertigen Bits.
(Umwandlung 64bit-gleitkomma -> 16bit-integer)

Man war vorher (bei der Ariane 4) sicher, daß eben genau das nicht passieren
könnte, und hat den Überlauf daher absichtlich nicht abgefangen.

Bei der 5 hat man dann vergessen, diese Prüfung mit den neuen
Randbedingungen zu wiederholen.

cu
Michael
 
Helmut Schellong schrieb:
Rupert Haselbeck wrote:
Helmut Schellong schrieb:
Am MIT wird z.B. der Zebrastreifen untersucht.
Ein vollautonomes Auto muß herausfinden, wohin die Augen eines
Menschen blicken, der in der Nähe eines Zebrastreifens steht/sich_aufhält!

Nein, das muss es am Zebrastreifen ebensowenig wie der menschliche
Fahrer. Es muss sich so verhalten, dass es rechtzeitig anhalten oder
ausweichen kann, auch wenn der Mensch am Zebrastreifen gerade noch ins
Schaufenster hinter ihm oder in sein Handy schaut, sich aber
unversehens umdreht und auf die Fahrbahn tritt.

Der Zebrastreifen ist dazu da, daß vor ihm angehalten werden muß, sofern
ein Passant erkennbar die Absicht zeigt, den Zebrastreifen zu benutzen.
Es muß der Fußgänger dazu eingeladen werden, den Zebrastreifen zu benutzen.

Bist du wirklich derart unfähig, zu lesen und zu verstehen?
Was habe ich denn geschrieben? Du hast es sogar zitiert und dennoch
nicht mal zur Hälfte verstanden!

Das MIT forscht daran - ich nicht, ich zitiere sinngemäß das MIT.
Du widersprichst dem MIT.

Nein. Ich widerspreche _dir_. Du hast mal wieder eine Veröffentlichung
nicht verstanden (wenn es sie denn wirklich so gibt, wie du behauptet hast)

Auf weitere Deiner Ausführungen, die teilweise oder völlig falsch sind,
antworte ich nicht.

[...]

Das kann ich gut verstehen. Du hast also auch den Rest nicht kapiert :->

MfG
Rupert
 
On 12/23/2022 10:39, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/22/2022 11:37, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/21/2022 13:16, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/20/2022 18:48, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/20/2022 02:18, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:


[...]

\"ein Mensch\"?
Es geht um die \'Moral Machine\' im Autonomen.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!
Andernfalls gäbe es diesen Fall gar nicht.

Dann ist es die Moral Machine die in diesem Fall sagen muss dass Ausweichen nach links wegen
Gegenverkehr nicht gemacht werden sollte, waehrend sie ohne Gegenverkehr evtl
Ausweichen anordnet sofern es moeglich ist ohne das Fahrzeug und / oder andere
zu gefaehrden.

Die Machine hat ausgerechnet, daß unweigerlich eine Person sterben muß.

Um zu vermeiden, daß wir uns ewig im Kreis drehen:
http://www.schellong.de/img/div/quarks_ki_sterben.jpg

Das geschieht nicht selten konfus.
Meistens schafft es aber der Mensch - und ist dann, schwitzend und blutend, glücklich.
Eine Maschine hingegen berechnet in Millisekunden die _optimale_ Lösung, die in einigen
Fällen eben einen (erbremsten) Stillstand (Kapitulation) bedeutet.

Im Fall oben ist der Bremsweg eines autonomen Fahrzeugs viel
kuerzer als der eines Fahrzeugs mit Fahrer.

Die Reaktionszeit entfällt praktisch - jedoch nicht der Bremsweg.

Wurde eingerechnet, der Bremsweg ist 12.5m der Reaktionsweg 15m.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!

Dann bedeutet das dass der Abstand schon kleiner ist als 12.5m, da wuerde ein menschlicher
Fahrer die Frau mit voller geschwindigkeit erwischen ohne etwas dagegen tun zu koennen.
Das automatische Auto waere aber durch die Vollbremsung schon deutlich langsamer,
das verbessert ihre Ueberlebenschance.
Selbst wenn kein Gegenverkehr ist, koennte das Ausweichen unangebracht sein,
siehe Elchtest.

http://www.schellong.de/img/div/quarks_ki_sterben.jpg

Es gilt der vorstehende angenommene Fall.
Genau so, wie er gezeichnet ist, mit den gezeichneten Totenköpfen.

Und den Kurvenradien.

Nein, die Kurvenradien sind selbstverständlich symbolisch, und schräg betrachtet, ganz ohne Daten.
Andernfalls wäre mindestens ein Raster oder Maßstrich angegeben.

Wie soll man denn die richtigen Daten herausbekommen,wenn man nur dieses Bild hat ?

Die kann man nicht herausbekommen - die soll man auch nicht herausbekommen, weil
entsprechende Totenkopf-Annahmen getroffen wurden - unbedingte Festlegungen halt.

Man kann das nicht festlegen, es ist umgekehrt, das System sagt den Tod vorraus weil
es vorher die Ursache berechnet hat.

Das MIT hat doch in den Bildern festgelegte Situationen gezeichnet!
Insbesondere durch die Kennzeichnung mit Totenköpfen.

| \"das System sagt den Tod vorraus weil es vorher die Ursache berechnet hat.\"

Richtig, und die Bilder werden gemäß einer solchen angenommenen Berechnung gezeichnet.
Und das Ergebnis der Berechnung - Tod - wird dabei angenommen.

Eine solche reale Testfahrt kann es ja nicht geben!
Deshalb Annahmen.

Wenn das Ausweichen auf der eingezeichneten Bahn moeglich ist,
dann ist die Geschwindigkeit des Autos so niedrig, dass auch eine Vollbremsung vor dem Zebrastrefen
noch moeglich ist. Ausserdem waere der Crash mit dem Block auf der Strasse nicht toedlich.

Du verstehst sehr offensichtlich _nicht_ die in den Wissenschaften oftmals verwendeten Annahmen!

Ich kenne die Annahmen nicht, sondern habe nur das Bild.

Du kennst alle Annahmen; die sind alle im Bild angegeben.
Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.

Habe ich ja gemacht, das passt aber nicht, dann sagst du es stimmt gar nicht,
ist nur symbolisch...

Die Bilder haben allesamt symbolische fiktive Bedeutung.

Ob das Ausweichen auf der eingezeichneten Bahn möglich ist, ist irrelevant.
Es wurde die Annahme getroffen, _daß_ es möglich ist.

Es waere aber Unsinnig ueber ein Problem zu dikutieren das in
der Realitaet ueberhaupt nicht auftreten kann weil es physikalischen
Gesetzen widerspricht.

Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.
Physikalische Realität ist hier irrelevant.

Der Entscheidungsfall tritt doch nur aufgrund einer vorrausberechneten
physikalischen Realitaet ein, nicht aufgrund einer Festlegung.

Mit physikalischer Realität kann aber nicht getestet werden.
Es existiert kein Autonomes, mit dem getestet werden kann.
Deshalb werden zukünftige Berechnungsergebnisse einfach angenommen.

Ob eine Vollbremsung vor dem Zebrastreifen erfolgreich möglich ist, ist irrelevant.
Es wurde die Annahme getroffen, daß eine Vollbremsung _nicht_ erfolgreich ist (Totenkopf A!).
Es wurde die Annahme getroffen, daß der Crash mit dem Block unbedingt tödlich ist (Totenkopf B!).

Und auch die Annahme dass der Crash des Autos mit dem Block fuer die Frau auf dem
Zebrastreifen nicht toedlich ist.

Richtig, weil der Totenkopf bei B nicht bei der alten Frau angegeben ist.

Wenn naemlich das Auto weil es nicht weit genug ausweichen konnte auf die Ecke
des Blocks trifft, wird sich das Auto drehen und auch die Frau
auf dem Zebrastreifen treffen.

Woher weißt Du das? Das ist doch komplett unsicher!

Ich sehe da ein Drehmoment das auf das Auto wirkt wenn es mit der linken vorderen Ecke
aufs Hindernis trifft.

Du weißt doch gar nicht, daß das Auto mit der linken vorderen Ecke auf das Hindernis treffen wird.
Und Du weißt auch nicht, daß das Auto dann drehen wird.
Und weißt ebenso nicht, daß das Auto die Frau treffen wird.

Außerdem ist es irrelevant:
Das Bild gibt direkt einen Entscheidungsfall für die \'Moral Machine\' an.
Und wenn entschieden wurde, ist die Arbeit der \'Moral Machine\' beendet!

Die Moral Machine bekommt ihre Anweisungen durch die vorrausberechnete
Physik der Bewegung des Autos.

Ja, und aufgrund der Bewegungen aller weiteren relevanten Objekte.

Ohne Annahmen ist die \'Moral Machine\' nicht machbar, weil keine wissenschaftliche Arbeit (vernünftig) möglich ist.
Man sollte realistische Wahrscheinlichkeiten annehmen.

Nein, gar nicht, es soll der \'Moral Machine\' ein Entscheidungsfall vorgelegt werden.
Aber dann doch bitte einer der in der Realitaet vorkommen kann.

Alle Situationen auf den Bildern können in der Praxis vorkommen.
Genau deshalb gibt es diese Bilder.

Ich habe doch einen URL angegeben, wo hunderte solche Bilder angesehen werden können.
Jeweils mit deutschen Erklärungen.

Der Entscheidungsfall würde gar nicht existieren.

Genau, ich denke dass in der Realitaet dieser Entscheidungsfall nicht existiert.

Selbstverständlich gibt es den im Bild dargestellten Fall auch in der Realität.
Jeden Tag vielleicht 20-mal auf der Welt.

Dass eine Strasse auf diese Weise abgesperrt wird und Autos das mit einer Geschwindigkeit
von ueber 30 durchfahren duerfen sollte es nirgends geben.

Spekulation.

[...]

Es gibt im Bild keine wartenden Fußgänger.

Sicher, diese Frau die die Strasse ueberquert.

Die Frau befindet sich gehend auf dem Zebrastreifen, sie wartet nicht am Rand.

Wenn sie nicht warten wuerde sondern drauf zugehen wuerde das Auto schon
vorher bremsen.

Falls sie durch ihr Verhalten ankündigt, daß sie auf den Zebrastreifen gehen will.
Die Ampel ist Rot für die Frau!

Sie muss dort Warten und dann ploetzlich losgehen wenn das
Auto so nahe ist dass es nicht mehr bremsen kann.

Die Ampel ist Rot für die Frau!

Ist die Frau aber weiter weg erreicht sie die Strasse nicht in der kurzen Zeit.

Es gibt im Bild keine Frau, die weiter weg ist.
In welcher kurzen Zeit?

Die das Auto braucht um sie zu erreichen, von dem Moment ab da es mit
einem Unfall rechnen muss.

Die Ampel ist Rot für die Frau!
In dieser Situation rechnet kein Fahrer oder Autonomes
damit, daß sie auf den Zebrastreifen geht.

[...]

t=0.0s s=0.0m vt= 13.888889 vs= 13.888889
[...]
t=1.73s s=12.0235m vt= 0.048889 vs= 0.72473281
t=1.74s s=12.093m vt= -0.031111 vs= nan

Die umgestellten Formeln mit v_end=0: t= -v0/a ; s= -v0²/2a

a= -8.0 m/s² v0= 50 km/h v=[m/s]
t= 1.7361111 s s= 12.056327 m ; v=0

a= -5.0 m/s² v0= 50 km/h v=[m/s]
t= 2.7777778 s s= 19.290124 m ; v=0

Berechnungs-Skript:
-------------------------------------------------------------------
ARITH_FMT=\'%.8Lg\'
a=-5.0 v0k=50
set t:025 s:025 v0:025 vs:025 vt:025 q:025 sti:09
echo \"a= $a m/s^2 v0= $v0k km/h v=[m/s]\"
let \"v0=$v0k.0/3.6\"
echo \"t= $((-v0/a)) s s= $((-v0**2/[2*a])) m ; v=0\"
-------------------------------------------------------------------

Das ist nicht das script das die Tabelle gemacht hat und funktionieren tut
es auch nicht.

Natürlich funktioniert das Skript.
Dessen Ausgaben stehen oben davor.

a= -5.0 m/s^2 v0= 50 km/h v=[m/s]
sh: line 5: let: v0=50.0/3.6: syntax error: invalid arithmetic operator (error token is \".0/3.6\")
sh: line 6: -5.0: syntax error: invalid arithmetic operator (error token is \".0\")

Das Skript läuft nicht mit einer /bin/sh, sondern nur mit \'bish\'.
\'sh\' kann fast nichts im Skript.

-------------------------------------------------------------------
for sti from 0 to 180 repeat
do
let \"t= $sti.0/100.0\" \"s= $sti.0*6.95/100.0\" \"v0= $v0k.0/3.6\"
let \"vt= v0+a*t\" \"q=v0*v0+2*a*s\" \"vs= root(q,2)\"
prints s-9bs-13bs-17bs-17b \"t=${t}s\" \"s=${s}m\" \"vt= $vt\" \"vs= $vs\"
done

# v= v0 + at
# v= sqrt( v0² + 2as )
-------------------------------------------------------------------

Hier mal meine Version, s und x in m, v in m/s.
v und s sind Geschwindigkeit und zurueckgelegte Laenge
bei gegebener Anfangsgeschwindigkeit und Abbremsen mit 8m/s²


Die Verzögerung \'a\' kann unterschiedlich groß sein, z.B. -0,5 oder -5,0.
Deshalb rechnet die Software ständig alles in der jeweiligen Situation aus.
Vielleicht jede Millisekunde.
Ich (das MIT) erklärte bereits, daß ein Autonomes permanent ganz genau weiß, wo
sich jeder Verkehrsteilnehmer und jedes Objekt im Umfeld befinden.
Es dürfte klar sein, daß ebenso die Geschwindigkeiten und Distanzen gemessen werden.
Auch werden Berechnungen mit den Formeln der Kinematik durchgeführt.
Jeder Fall für die \'Moral Machine\' wird also festgestellt und ihr vorgelegt.

Die Vollbremsung ist ein simpler Fall, die Verzoegerung a ist auf trockener
Strasse mit festem Belag konstant.


Folglich ist es müßig, selbst etwas (massenhaft) auszurechnen, denn man kennt
die in der Realität (in der Zukunft) vorliegenden Daten ohnehin nicht.
Sinnvoll ist es hingegen, sich plausible Entscheidungsfälle für die \'Moral Machine\' auszudenken.
Die Moral Machine muss doch wissen mit welcher Geschwindigkeit das Fahrzeug bei einer Vollbremsung
auf die Person auftrifft um einen moeglichen Schaden zu berechnen,
ebenso was beim Ausweichen passiert.

| Folglich ist es müßig, selbst etwas (massenhaft) auszurechnen
. ^^^^^^

Eine reale \'Moral Machine\'/Fahrtberechnung in einem realen Autonomen bei einer realen Fahrt rechnet natürlich.


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 
On 12/20/2022 02:18, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/18/2022 11:17, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/17/2022 12:41, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 23:53, Carla Schneider wrote:
Helmut Schellong wrote:

On 12/15/2022 17:12, Carla Schneider wrote:
Helmut Schellong wrote:

[... ...]

Es sind auffallend die Wörter \'wenn\', \'Bedingungen\', \'Voraussetzungen\', ... zu sehen.

Ich behaupte einfach, daß das MIT stringenter und gründlicher forscht als die Industrie.
Ich habe im Film gesehen, welche beeindruckenden Ressourcen dort zur Verfügung stehen.

Von der Industrie lese ich eigentlich nur, daß diese begonnene Milliarden-Projekte
zum Thema nach relativ kurzer Zeit wieder einstellt.

Die haben mehrere Eisen im Feuer und stellen die Projekte ein von
denen sie glauben dass sie keine Chance mehr haben.



Beispielsweise das Thema hier \'Argo AI\', und \'Bosch <-> Mercedes\'.

Wir kennen ja nicht die ganze Wahrheit aber vielleicht waren diese Projekte
eben soviel schlechter als andere, dass es sich nicht lohnt sie weiter
zu verfolgen.

Du gibst auf jeden meiner vorstehenden Einwände eine spekulierte Meisen-Antwort.

[...]

Das weiss der menschliche Autofahrer auch nicht.

Doch. Wenn beispielsweise an der Ampel gewartet wird.
Ich weiß dann vorher, worauf ich bei Grün achten muß - aufgrund von diversen Beobachtungen.
Auch eine RushHour in der kommenden Stunde beeinflußt meine Fahrtaktik in der Stadt.
Ich habe ohnehin eine Strategie für jede Stadt individuell, aufgrund von Erfahrungen.

[...]

[...]

Dass die Fahrzeuge bereits zu hunderten fahren reicht nicht ?

Nein, das ist streng gesehen - nur Laberei. Informationsgehalt praktisch Null.

Also Maerchen werden es nicht sein dass die Fahren, und dass die immer noch fahren spricht dafuer
dass die Unfallzahl nicht zu hoch ist.

Du gibst auf jeden meiner Einwände eine spekulierte Meisen-Antwort.

Wir wissen nur: \'Es fahren da 100 autonome Robotaxis in San Francisco.\'
Mehr Info ist da praktisch nicht, außer dem Unfallbericht dazu aus USA von Gerrit.

Ich meine, in Bezug zu meiner obigen \'Definition:\'.

o \"KI - Ethische Fragen! -> \'Moral Machine\'; Stets das Richtige tun!
Wer soll sterben? Die alte Frau, die bei Rot über den Zebrastreifen geht, oder das
Kind, das im autonomen Fahrzeug sitzend wegen Ausweichens in ein Hindernis knallt?

Man muss also einem auf der eigenen Fahrspur verbotenerweise entgegenkommenden
Lastwagen ausweichen und erwischt dabei die alte Frau auf dem Zebrastreifen
hinter der man eigentlich vorbeifahren wollte.

Nein, das Kind stirbt wegen des Ausweichens des Autonomen, in dem es sitzt.
Geradeaus wird die Oma /aufgespießt/.
(Mein Fahrlehrer rief immer vom Aufspießen.)

Wuerde ja nicht passieren, ein menschlicher Fahrer wuerde auch nicht
Selbstmord begehen um jemanden der einen Fehler gemacht hat zu retten.

Die Maschine _muß_ sich allerdings entscheiden!
Fest steht: eine Person muß sterben.
Frage: welche?

Fuer diese Frage taugt aber dein Beispiel nicht.

Sag das dem zuständigen Professor am MIT.
Der wird Dir widersprechen.

Das Fahrzeug kann der Frau nicht ausweichen wenn dabei die Gefahr besteht dass
mehr als ein Menschenleben dabei gefaehrdet wird. Es wird daher nicht einen Zusammenstoss mit
dem Gegenverkehr provozieren sondern eine Vollbremsung machen.
Dabei kommt das Fahrzeug (50km/h) bei Vollbremsung nach 12.5m zum stehen.

Wenn sie stirbt hat sie das selbst zu verantworten und die Versicherung muss auch nicht zahlen,
weil sie ja den Unfall verursacht hat.

Ich hatte absichtlich informiert, daß da ein _LKW_ entgegen kommt (12/18/2022 15:44).
Ich selbst habe eine Vollbremsung angesprochen (12/18/2022 15:44).

Ursprungstext (12/16/2022 19:14):
|o \"KI - Ethische Fragen! -> \'Moral Machine\'; Stets das Richtige tun!
| Wer soll sterben? Die alte Frau, die bei Rot über den Zebrastreifen geht, oder das
| Kind, das im autonomen Fahrzeug sitzend wegen Ausweichens in ein Hindernis knallt?

*** Fest steht: eine Person muß sterben. ***
Das bedeutet, daß eine Vollbremsung nicht reicht!

Ich habe kein Problem mit solchen 0/1-Aussagen, weil ich seit 1978 programmiere
und etwa 20 Programmiersprachen mehr oder weniger gut beherrsche.

Die meisten _haben_ aber Probleme damit, auch z.B. mit \'Annahme: A-Text\', etc.
(\'A-Text\' gilt - unbedingt - auch wenn das Universum explodiert.)

Ein Menschlicher Fahrer hat die Alternative gar nicht weil er nicht so
schnell reagieren kann. Das selbstfahrende Auto sollte einfach nicht so schnell
ueber einen Zebrastreifen fahren, wenn Fussgaenger drauf sind, und es nicht ueberblicken kann
ob vorn die Strasse frei ist. Es ist auch niemals unaufmerksam, was bei Menschen
durchaus vorkommen kann.

Du konstruierst Dir etwas zusammen.
Die alte Frau trat soeben auf den Zebrastreifen - bei Rot.
Es kommt ein LKW entgegen - auf der Gegenspur.

Wozu dann ueberhaupt der Zebrastreifen, jemand geht bei rot ueber eine Ampel
ohne darauf zu achten dass da gerade ein Auto kommt.

Das MIT hat einen ampel-gesteuerten Fußgängerübergang mit Zebrastreifen gezeichnet.
Das ist weltweit üblich.

Wobei der Zebrastreifen keine Bedeutung hat wenn die Ampel eingeschaltet ist.

Das ist irrelevant - er ist gezeichnet.
Und es ist weltweit üblich.

Der hat bestenfalls das Recht auf eine Notbremsung, nicht auf einen Selbstmord
des Autofahrers. Die Sache wird erst dann interessant wenn das Fahrzeug ohne
Passagiere unterwegs ist. Aber auch da waere es nicht angezeigt einen Zusammenstoss mit
dem Gegenverkehr auszuloesen, weil nicht vorraussehbar ist was fuer Folgen das wiederum
haben koennte. D.h. ausweichen geht nur wenn kein Gegenverkehr da ist.

Die Maschine _muß_ sich entscheiden!
Das geht logisch gar nicht anders.
Die Maschine hat doch ein Ausweichen zur Kollisionsvermeidung implementiert.

Aber nicht wenn das Ausweichen zu einer Kollision mit dem Gegenverkehr fuehrt.

Das ist irrelevant; ein Ausweichen zur Kollisionsvermeidung ist implementiert.
Und diese Implementation kann von der \'Moral Machine\' bei _Bedarf_ benutzt werden.

Was lernt ein menschlicher Fahrer zur Kollisionsvermeidung?
Ausweichen und Bremsen (als Absicht) gleichzeitig!

Das kommt relativ oft erfolgreich vor.
In sehr seltenen Fällen muß eine Person sterben. Welche?
Stur geradeaus fahren? - Das wäre ja bereits eine Entscheidung!

Das Auto muss aber einen Unfall verhindern.

Das Auto _soll_ dies; die Physik kann dem jedoch entgegenstehen!

Vollbremsung ist noch eine Option...

Das wird es tun weil das den Schaden an Fahrzeug und Insassen minimiert.

Etwa 1973 lernte ich: Ausweichen und Bremsen (als Absicht) gleichzeitig.

Bisher 40 Millionen Antworten für die Moral Machine des MIT aus der Welt.
Am Ende muß man es programmieren...\"

Es reicht wenn man ein bischen besser ist als ein menschlicher Fahrer.
Es sollte kein Problem sein deutlich weniger Unfaelle zu verursachen als
Menschen.
Natuerlich kann ein autonomes Auto das Fehlverhalten anderer nicht immer
ausgleichen.

Es ist prinzipiell wahrscheinlich, daß Autonome mehr Kollisionen/Unfälle vermeiden können.
Sie werden jedoch häufiger kapitulieren müssen.

Was immer ds bedeuten mag.

Es bedeutet das, was da steht.
Menschen haben einen extrem starken Trieb, eine Situation irgendwie zu retten.

Das geschieht in der kurzen Zeit ueberhaupt nicht, der Mensch braucht eine Sekunde
um zu reagieren, da hat er die Frau bei Tempo 50 bereits ueberfahren,
waehrend das autonome Auto durch rechtzeitiges Bremsen gerade eben vor
ihr zum stehen kommt.

Das ist irrelevant - es geht nur um folgende _allgemeine_ Aussage:
|Es ist prinzipiell wahrscheinlich, daß Autonome mehr Kollisionen/Unfälle vermeiden können.
|Sie werden jedoch häufiger kapitulieren müssen.

Und wieso soll \"das autonome Auto durch rechtzeitiges Bremsen gerade eben vor
ihr zum stehen\" kommen?

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!
Andernfalls gäbe es diesen Fall gar nicht.

Das geschieht nicht selten konfus.
Meistens schafft es aber der Mensch - und ist dann, schwitzend und blutend, glücklich.
Eine Maschine hingegen berechnet in Millisekunden die _optimale_ Lösung, die in einigen
Fällen eben einen (erbremsten) Stillstand (Kapitulation) bedeutet.

Im Fall oben ist der Bremsweg eines autonomen Fahrzeugs viel
kuerzer als der eines Fahrzeugs mit Fahrer.

Die Reaktionszeit entfällt praktisch - jedoch nicht der Bremsweg.

Wurde eingerechnet, der Bremsweg ist 12.5m der Reaktionsweg 15m.

Die \'Moral Machine\' hat ausgerechnet, daß eine Vollbremsung nicht ausreicht!

Es ist mir seit Wochen bekannt, daß Mercedes nun Lastwagen hat, die zumindest in einem (1)
Parkhaus auf einem Übergabepunkt abgestellt werden können und dann autonom fahren und einparken.
Das sind für mich \'Die ersten Anfänge\'.

Und woanders wird schon fahrerlos in einer Grossstadt gefahren, das bedeutet doch
dass die wesentlichen Probleme geloest sind.


Nein, gar nicht!
Siehe oben \'Aussagen\' und die Postings von Gerrit.

Der glaubt dass es an den digitalen Karten fuer die Staedte liegt,
also dass man von San Francisco eine spezielle Karte gemacht hat die
den Autos das dort fahren ermoeglicht, und die Autos in Staedten wo
es keine solchen Karten gibt nicht vernuenftig autonom fahren koennen.
Wenn das so waere koennte man dem aber leicht abhelfen, indem man
von den anderen Staedten auch solche Karten macht.

Generell müssen Vollautonome auch alle Verkehrsschilder lesen und verstehen können.

Das ist ja wohl das simpelste an der Sache.

Du vergißt hier offenbar die richtungsweisenden Schilder mit Textinhalt.
Das ist nicht immer einfach, klar und ohne Widerspruch.

Braucht das Fahrzeug ansich nicht wenn es eine Karte hat, nur bei Umleitungen
die nicht in der Karte stehen waere es wichtig.

_Wenn_ das Auto eine Karte hat, in der jeder m^2 aktuell ist.

Was anderes waere es wenn in San Francisco an den Strassen irgendwelche Hardware installiert
waere die den Autos hilft.
Ich glaube nicht dass das ueberhaupt das Problem ist, sondern die Verkehrssituationen
die voruebergehend entstehen, also Unfaelle,Havarien, Feuerwehr und Notarzteinsaetze,
Schwertransporte, Baustellen, Kinder Hunde, Raubueberfaelle usw. die dazu fuehren koennen dass so ein Robotaxi
nicht mehr weiter weiss und stehen bleibt.
Evtl. wird dann mit Fernsteuerung nachgeholfen, d.,h. das selbstfahrende Auto ist
nur in 99.9% der Zeit selbstfahrend.
Das geht bei Robotaxi Unternehmen, bei Privataustos muesste an der Stelle
der Autofahrer nachhelfen. D.h. ohne Fuehrerschein muss man eben Robotaxi fahren
und nicht sein eigenes Auto, zumindest solange bis die Software besser ist.

Wir wissen gar nichts darüber, inwieweit den 100 Robotaxis in S.F. geholfen wird.

Die Spreu wird sich vom Weizen trennen, sobald Vollautonome auf dem Markt erschienen
sind, die _keine_ Fahrbedienelemente mehr haben.

Auch die koennten noch im Notfall ferngesteuert fahren.

Falls das im Falle des Falles technisch klappt.

In Staedten sollte das gehen.

Eben - Falls das im Falle des Falles technisch klappt.


--
Mit freundlichen Grüßen
Helmut Schellong var@schellong.biz
http://www.schellong.de/c.htm http://www.schellong.de/c2x.htm http://www.schellong.de/c_padding_bits.htm
http://www.schellong.de/htm/bishmnk.htm http://www.schellong.de/htm/rpar.bish.html http://www.schellong.de/htm/sieger.bish.html
http://www.schellong.de/htm/audio_proj.htm http://www.schellong.de/htm/audio_unsinn.htm http://www.schellong.de/htm/tuner.htm
http://www.schellong.de/htm/string.htm http://www.schellong.de/htm/string.c.html http://www.schellong.de/htm/deutsche_bahn.htm
http://www.schellong.de/htm/schaltungen.htm http://www.schellong.de/htm/math87.htm http://www.schellong.de/htm/dragon.c.html
 

Welcome to EDABoard.com

Sponsor

Back
Top