Aussagen von Bündnis 90/Die Grünen zur Energiewende

Am 13.03.2019 um 23:06 schrieb Hartmut Kraus:
Am 13.03.19 um 22:30 schrieb Christoph Müller:

Im Verkehr mitzuschwimmen bedarf keiner externen Sensoren.

Im Neuschnee auch nicht. ;)

https://www.youtube.com/watch?v=0q540Yc3HdI

Das geht aber nicht mit jedem Auto. Mit einem Wartburg schon, das
Fahrwerk war schon nicht ganz schlecht. Mit meinem bin ich auch bei
Glatteis gefahren ...

Die ersten Darpa-Rennen mit fahrerlosen Fahrzeugen gingen auch durch
unwegsames Gelände mitten durch die Wüste. Die damals gesammelten
Erfahrungen dürften noch heute in der Software hinterlegt sein. Genauso,
wie wahrscheinlich "irrwitzige" Fahrmanöver von diversen
Profirennfahrern für den Fall der Fälle...

--
Servus
Christoph Müller
https://www.astrail.de
 
On 3/14/19 11:34 AM, Christoph Müller wrote:
Am 14.03.2019 um 06:48 schrieb Gerrit Heitsch:
On 3/13/19 10:04 PM, Christoph Müller wrote:

Was soll daran so interessant sein? Wenn die externen Sensoren keine
auswertbaren Daten liefern, dann muss sich das Bordsystem eben auf die
eigenen Sensoren verlassen.

Tun sie doch. Nur eben wegen der Linsenwirkung des Wassertropfens eben
keine korrekten Daten weil der Fußgänger unsichtbar ist.

Da gilt §1 der Straßenverkehrsordnung.

Nein, eben nicht, denn die Sensordaten sehen ja gut aus, sind es aber nicht.

Gerrit
 
Am 3/14/19 um 12:01 PM schrieb Ralph A. Schmid, dk5ras:
Horst-Dieter Winzler <horst.d.winzler@web.de> wrote:

Telekomturm? Eigene Antennenkonstruktion? ;-)

Nein, Kraftwerksturm, aber vergleichbar. Antenne professionell
installiert, aber so ein Rechner ist halt einfach zu popelig, den
nimmt sowas gern Ăźbern Jorden. Die andere Hardware Ăźberlebt das
locker.
-ras

Danke. Hätte mich sehr gewundert. Denn bei Telekomiker ist der Aufwand,
um solcherlei Schäden zu verhindern, nicht gerade unbeträchtlich.

--
---hdw---
 
Gerrit Heitsch schrieb:

On 3/14/19 11:34 AM, Christoph MĂźller wrote:
Am 14.03.2019 um 06:48 schrieb Gerrit Heitsch:
On 3/13/19 10:04 PM, Christoph MĂźller wrote:

Was soll daran so interessant sein? Wenn die externen Sensoren keine
auswertbaren Daten liefern, dann muss sich das Bordsystem eben auf die
eigenen Sensoren verlassen.

Tun sie doch. Nur eben wegen der Linsenwirkung des Wassertropfens eben
keine korrekten Daten weil der Fußgänger unsichtbar ist.

Da gilt §1 der Straßenverkehrsordnung.

Nein, eben nicht, denn die Sensordaten sehen ja gut aus, sind es aber
nicht.

Fehler wie ein Wassertropfen auf einer Linse werden auch heute schon
erkannt, auch wenn sowas kaum vorkommen kann. Was aber zu berĂźcksichtigen
ist, sind Schäden, z.B. Steinschlag. Da wird heute einfach der Fahrer
aufgefordert, zu ßbernehmen. Ein vollautonomes Fahrzeug kÜnnte, abhängig
wohl von der Art und Bedeutung des Ausfalls, anhalten und Hilfe rufen oder
die nächste geeignete Werkstatt anfahren.
Was lässt dich eigentlich annehmen, es kÜnne nur einen einzigen Sensor
geben?

MfG
Rupert
 
Am 14.03.2019 um 11:27 schrieb Gerrit Heitsch:
On 3/14/19 11:10 AM, Christoph Müller wrote:

Die fahrerlosen Fahrzeuge scheinen da noch mit zu schwimmen. Noch sind
sie nicht deutlich besser als menschliche Fahrer. Deshalb haben sie auch
noch keine allgemeine Zulassung. An der Verbesserung wird jedoch mit
unglaublichen Aufwand in vielen Teams weltweit gearbeitet. Alleine
deshalb ist schon mit Erfolgen in relativ kurzer Zeit zu rechnen. Es
dürfte durchaus realistisch sein, dass die Fahrautomaten in absehbarer
Zeit in Sachen Unfällen um den Faktor 10 besser sein werden als
Menschen.

Woraus ziehst du den Schluss, daß eine Technik, die es noch gar nicht
gibt

es gibt sie doch schon.

> deutlich weniger Unfälle produzieren wird?

Die Unfallhäufigkeit sehe ich als Maß, das über die allgemeine Zulassung
entscheidet.

Es ist auch denkbar, daß
sich nur die Art der Unfälle ändert, aber nicht die Häufigkeit.

Dann gibt es eben keine allgemeine Zulassung für solche Gefährte und es
müssen immer stets entsprechend ausgebildete Fahrer wach und aufmerksam
und jederzeit eingriffsbereit an Bord sein. Das heißt, dass so das
Fahrlevel 5 nicht erreicht werden kann. Denn Level 5 setzt voraus, dass
eben KEIN solcher Mensch an Bord sein muss.

Siehe
den Tesla der tagsüber bei guter Sicht ungebremst in den Fahrbahnteiler
gefahren ist.

Tesla bietet Level 5 meines Wissens noch nicht an. Die Technik ist zwar
physisch an Bord. Aber die Software/Datenbank ist noch nicht reif für
Level 5. Alles unter Level 5 halte ich für untaugliche Krücken, die
einen ganz neuen Unfalltyp mit sich bringen werden: Fahrer hat nicht
schnell genug übernommen.
Das Fatale an Level unter 5 ist, dass der (mit)fahrende Mensch das
Gefühl bekommt, dass die Kiste ja eh' alles richtig macht. Deshalb lässt
seine Aufmerksamkeit nach. Dann passieren genau solche Unfälle, wie du
beschrieben hast.

Eine Frau, die ihr Fahrrad schiebt, totfahren, weil sie mit einem
umherwehenden Plastikfetzen oder einer Zeitung verwechselt wurde. Und
das nach 50 Jahren Entwicklung. Da kniept's ja wohl.

Jetzt wahrscheinlich nicht mehr. Uber hätte seine Testfahrzeuge sicher
nicht mehr fahren dürfen, wenn dieser Fehler nicht abgestellt worden
wäre.

Das Problem hierbei ist die sichere Erkennung. Es darf jetzt nicht
passieren, daß eine umherwehende Plastiktüte für eine Person gehalten
wird und es zur Vollbremsung deswegen kommt. Schon alleine die Besitzer
eines solchen Autos werden das nicht lange mitmachen, vom Unfallrisiko
mal abgesehen.

Klar. Ich gehe davon aus, dass das Klassifizierungsmodul entsprechend
modifiziert wurde.

--
Servus
Christoph Müller
https://www.astrail.de
 
Christoph MĂźller schrieb:

Am 14.03.2019 um 06:43 schrieb Gerrit Heitsch:
On 3/13/19 10:30 PM, Christoph MĂźller wrote:
Am 13.03.2019 um 16:11 schrieb Gerrit Heitsch:
On 3/13/19 11:02 AM, Christoph MĂźller wrote:

Ein gewisses Restrisiko wird immer bleiben. Einfach weil das Leben
lebensgefährlich ist. Auch heute kann sich jemand Verkehrsschilder
kaufen und sie irgend wo hin stellen. Nur sollte er sich nicht
erwischen
lassen, weil es sonst juristischerseits was auf die Finger gibt. Mit
"elektronischen Verkehrszeichen" wird's nicht viel anders laufen.

Letztere sind allerdings deutlich unauffälliger weil sie eben nur per
Funk zu sehen sind während ein echtes Schild nunmal optisch zu sehen
sein muss.

Unauffällig? Wird sich zeigen. Wer meldet denn heute ßberhaupt falsche
Verkehrszeichen? Die Meisten ignorieren sie einfach. So kann es Tage und
Wochen dauern, bis solche Fehler erkannt werden. Automaten kann man
darauf trimmen, dass sie IMMER eine Meldung absetzen, wenn irgendwas
"nicht ganz sauber ist".

Wenn du hinbekommst, daß die Steuerung des Autos diese Intuition besitzt
bist du wirklich gut... Das etwas nicht ganz sauber ist zu erkennen
kĂśnnen Menschen recht gut, aber warum es ihnen so erscheint kĂśnnen sie
normalerweise nicht erklären.

Wenn du da mal die menschliche Intuition nicht ßberschätzt. Es geht doch
ganz einfach um Umstimmigkeiten. Wenn was nicht plausibel ist, läuft das
Ding auf eine Fehlermeldung. In der Fehlerbehandlungsroutine wird dann
entschieden, wie damit umgegangen wird.

Das Ergebnis dieser menschlichem Fehlerbehandlungsroutine nennt man ggfls.
Unfall, weil dort eben keine wohldefinierten Reaktionen vorgesehen sind. Da
heisst es dann vielfach nur "keine Ahnung, was das soll. Wird schon
gutgehen". Und zum GlĂźck geht es ja auch meistens gut. Entweder, weil gerade
nichts und niemand im Weg steht oder weil der Andere das Malheur vermeidet.
Von der arg mangelhaften menschlichen Intuition, die am Steuer eines
Fahrzeugs absolut keine Rolle spielen darf, Strassenverkehr ist aus guten
GrĂźnden streng regelbasiert, von der Art und Weise, wie Menschen am Steuer
in der KĂźrze der verfĂźgbaren Zeit auf Ungewohntes reagieren, leben ganze
Branchen

MfG
Rupert
 
Christoph MĂźller <chrnewsgroup@astrail.de>:

Die fahrerlosen Fahrzeuge scheinen da noch mit zu schwimmen. Noch sind
sie nicht deutlich besser als menschliche Fahrer.

Bittesehr, es gibt hier keine Kategorie dafĂźr, was alles sich sinnvoll unter
der Vokabel gut gruppieren lassen soll. Die Alltagssprache schlägt der
Analyse hier ins Kreuz, das ist untaugliches gedankliches Werkzeug fĂźr den
Zweck. Die Fahrbahn ist ein Ort, wo Kommunikation zwischen Menschen den
Ablauf diktiert, mit strengem Regelwerk, um die Effizienz des Ablaufs zu
erleichtern. Mit dem Regelwerk wird aber der Ablauf nicht zu einem
technischen Ablauf. Das ist ein Irrtum.
 
Christoph MĂźller <chrnewsgroup@astrail.de>:

Dann wirst du schnell erkennen, weshalb es Autopiloten im Flugzeug schon
lange gibt und in Straßenfahrzeugen fast nur im Labormaßstab.

Im Fahrzeug am Boden wird die knappe Resource geteilt, die sich Fahrbahn
nennt. Und dieser Vorgang ist nicht in erster Linie mittels technischer
Natur charakterisiert, sondern vielmehr mittels Kommunikation zwischen
Menschen. Autopiloten am Boden werden von daher zuerst einmal eine Mimese
menschlichen Verhaltens erbringen mĂźssen. Und die fahrtechnischen Details
sind davon nur eine triviale Untermenge.

Die Interaktion hat zwei Schienen, das eine ist das Nachäffen, wie ein
Papagei, und das andere ist die diskursive Begegnung. Vielleicht sollte fĂźr
letzteres die KI erstmal JĂźrgen Habermas lesen? FĂźr ersteres reicht der
Stand der Technik nun so in etwa bis zum unauffälligen Mitschwimmen - in den
Rollen, wo Menschen miteinander etwas ausmachen, kann KI dann nur einen
passiven Part einnehmen.

FĂźr den Ăźblichen Slapstick-Verstand in den oberen Entscheider-Ebenen
(sonderlich im sich glorreich dĂźnkenden sogenannten Westen) ist leicht schon
auch das zu kompliziert - die schaffen am liebsten totalitäre Verhältnisse,
wohernach dann diskursive Begegnungen den Menschen prinzipiell abzugewĂśhnen
seien. Steht zu hoffen, dass nicht KI eine weitere Ausrede fĂźr politische
Agitation in dieser Richtung ist.

Vorläufig kann man eher beruhigt sein, dass an Berßhrungspunkten die KI auf
die Rolle von dienstbaren Geistern zurĂźckzuschalten hat ... wenn denn solche
BerĂźhrungspunkte nicht vielmehr tabuisiert werden, das ist im Moment ein
wenig in der Schwebe, und der Irrsinn vom Glauben an ewigen Fortschritt darf
ja weiterhin als Wunderglauben nicht infrage gestellt sein. Und wenn dann
solche Knackpunkte plĂśtzlich akut wehtun, und zugleich ist, wie sonst auch
immer, Totschweigen das Maß aller Dinge, für das, was tabuisiert wurde, dann
ist fĂźr den Fall eher mit der (vor allem im sogenannten Westen per
Kolonialisierung sehr gut eingeĂźbten) Methode tyrannischer Diktatur zu
rechnen.

Diese Mechanismen kann man sich auch mit einfachem Verstand an den Fingern
zusammenrechnen. Man sollte nur eben wesentliche Kategorien nicht
ausblenden, von woher Parameter gesetzt werden.
 
Am 14.03.2019 um 11:26 schrieb Axel Berger:
Christoph Müller wrote:

Leider hatten die Verantwortlichen offensichtlich keine
Ahnung, welches Gefahrenpotenzial sie mit der Anlage vor sich hatten.

Das war strikt hierachische sozialistische Planwirtschaft. Des Test
selbst war harmlos und vernünftig. Es sollte tagsüber von gut
ausgebildeten Spezialisten durchgeführt werden. Dann kam der Befehl, den
Reaktor nicht herunter- sondern weitere 12 Stunden auf Halblast zu
fahren.

Von wem kam der Befehl? Hatten die Befehlshaber hinreichend Ahnung von
der Sache? Wussten sie also, welches Pferd sie reiten?

12 Stunden Halblast ist so ziemlich die schlimmste und stärkste
Xenonvergiftung, die man überhaupt erzeugen kann. Der Test fiel dann
mitten in die Nacht bei einem instabilen Reaktor und einer dafür weder
ausgebildeten noch vorbereiteten Mannschaft.

Demnach scheint die Führung versagt zu haben. Mit dem obersten
Management gedeihen und verderben die Unternehmen. Das hat nur höchst
selten mit besonders guten oder schlechten Untergebenen zu tun. Auch
wenn das die obersten Führungskräfte ganz gerne anders sehen.

Und als Spitze hatten die ganz herausgezogenen Regel- und Abschaltstäbe
(was sie nicht hätten werden sollen) am Beginn des Wiedereinfahrens
einen positiven Reaktivitätskoeffizienten. Für einen prompt
überkritischen Reaktor waren sie mit ihrem mechanischen Schneckentempo
nicht schnell genug.

Es ist halt ein Problem, wenn die obersten Führungskräfte ein
Kernkraftwerk nicht von einem Samowar unterscheiden können.

--
Servus
Christoph Müller
https://www.astrail.de
 
Am 14.03.2019 um 11:18 schrieb Gerrit Heitsch:
On 3/14/19 10:55 AM, Christoph Müller wrote:
Am 14.03.2019 um 06:51 schrieb Gerrit Heitsch:

Der ist nur passiert weil man einen bestimmten Test machen wollte und
dafür die Automatik abschalten _musste_.

Schon klar. Leider hatten die Verantwortlichen offensichtlich keine
Ahnung, welches Gefahrenpotenzial sie mit der Anlage vor sich hatten.
Hätten sie es gewusst, hätten sie entsprechende Vorsichtsmaßnahmen
ergriffen oder den Test der Gefahr wegen gleich ganz sausen lassen.

Wobei du dasselbe Problem mit einer Automatik hast wenn deren
Programmierer bzw. seine Auftraggeber sich der Gefahr von bestimmten
Betriebszuständen nicht bewusst sind.

In solchen Fällen fehlen schon die Grundlagen, um das Thema überhaupt
sinnvoll angehen zu können.

In so einem Falle wird die
Automatik das fragliche Gerät zerstören weil ihre Programm nicht
erkennt, daß da was schiefläuft.

Wenn man sich des Gefahrenpotenzials nicht bewusst ist, kann das
natürlich vorkommen.

Die beiden Abstürze einer Boeing 737 Max 8 sehen bisher nach so einem
Fall aus.

Was schließen wir daraus? Dass jedwede Automatik in Flugzeugen künftig
zu unterlassen ist und ihre Tätigkeit wieder Menschen überlassen werden
muss? Wäre das nicht ein Schritt zurück in die Steinzeit? War diese Zeit
besser für uns Menschen?

--
Servus
Christoph Müller
https://www.astrail.de
 
Christoph MĂźller schrieb:

Die fahrerlosen Fahrzeuge scheinen da noch mit zu schwimmen. Noch sind
sie nicht deutlich besser als menschliche Fahrer.

Sie sind es beileibe nicht in jeder Beziehung. Aber es wĂźrde etliches an
Unfällen vermieden werden, hätten menschliche Fahrer beispielsweise bei
Kolonnenfahrt auf der Autobahn oder der Landstraße nur annähernd die
Qualitäten, wie (teil)autonome Steuerungen das bereits aufweisen. Auffahren
auf den Vordermann, zum Überholen ausscheren bei Gegenverkehr, das machen
Menschen

Es
dĂźrfte durchaus realistisch sein, dass die Fahrautomaten in absehbarer
Zeit in Sachen Unfällen um den Faktor 10 besser sein werden als
Menschen.

Das dĂźrfte zu erwarten sein
Es ist auch ein recht deutlicher Unterschied zu den Versuchen, welche ich
vor gut 30 Jahren beobachten konnte zu heute. Damals hat die Universität der
Bundeswehr Versuche auf der (noch nicht für die Öffentlichkeit
freigegebenen) Autobahn A92 mit "selbstfahrenden Experimentalfahrzeugen"
gemacht. Das waren Kleintransporter, welche im Laderaum beidseitig mit Racks
vollgestellt und mit damals modernster Technik (Transputer?) in der Lage
waren, anhand von Kamerasignalen den Leitlinien zu folgen.
Heute schon fährt meine Karre problemlos den anderen hinterher oder auch
allein dahin, bremst bei Auflaufen auf den Vordermann, hhfls. bis zum
Stillstand, fährt wieder an, lässt mich nicht ßberholen, wenn ich beim
Ausscheren einen anderen gefährden wßrde usw.
Es spricht absolut nichts dafĂźr, dass der Funktionsumfang und die Leistung
der eingesetzten Algorithmen binnen 10 Jahren nicht nochmals massiv steigen
kĂśnnte.

Solche Fahrzeuge dann NICHT zuzulassen, wäre dann schon fast
eine Form der fahrlässigen TÜtung. Politik und Juristerei stehen deshalb
schon seit Längerem unter Druck.

ACK
Das ist ein Themenbreich, der seit Jahren immer wieder neu aufgekocht wird.
Seit vielen Jahren sind Einbau und Benutzung von Sicherheitsgurten in
Fahrzeugen gesetzlich vorgeschrieben, weil sie Leben retten und Gesundheit
schĂźtzen. Gleichwohl gibt es Situationen, in welchen sie Schaden anrichten.
Dasselbe gilt fĂźr Airbags, fĂźr ABS und ESP. All diese Sicherheitssysteme
sind dem Menschen in ihrem jeweiligen Anwendungsbereich Ăźberlegen und daher
verpflichtend gemacht worden. Dennoch muss man inkaufnehmen, dass es auch
Situationen gibt, welche ohne ABS, ohne Sicherheitsgurt, ohne Airbag etc,
glimpflicher verlaufen wären

Eine Frau, die ihr Fahrrad schiebt, totfahren, weil sie mit einem
umherwehenden Plastikfetzen oder einer Zeitung verwechselt wurde. Und
das nach 50 Jahren Entwicklung. Da kniept's ja wohl.

Jetzt wahrscheinlich nicht mehr. Uber hätte seine Testfahrzeuge sicher
nicht mehr fahren dßrfen, wenn dieser Fehler nicht abgestellt worden wäre.

Das Problem gerade bei diesem Unfall war, dass er einem menschlichen Fahrer
mit hoher Wahrscheinlichkeit ebenso unterlaufen wäre. Niemand rechnet nachts
auf der mehrspurigen Ausfallstraße damit, dass ein sein Fahrrad schiebender
Fussgänger von links her in seinen Fahrweg läuft. Übrigens erkennen ja
selbst manche heutigen Serienfahrzeuge bereits die Fahrbahn querende
Fussgänger und reagieren ggfls. mit einer automatisch ausgelÜsten
Vollbremsung, wenn der Fahrer nicht oder nicht rechtzeitig reagiert.

Es geht hier doch nicht um gegenwärtigen Stand der Technik, sondern um
den, der demnächst zu erwarten ist und der deshalb auch noch in seiner
Richtung beeinflussbar ist.

Ein Problem fßr die Psyche des Menschen am Steuer mag es tatsächlich sein,
dass solche Systeme dem menschlichen Fahrer in mancher Beziehung Ăźberlegen
sein werden. Schon heute ist das "WahrnehmungsvermĂśgen" deutlich vor dem des
Menschen angesiedelt. Noch deutlich zu verbessern ist allerdings die
Erkennung und Auswertung dessen, was die Sensoren zu liefern vermĂśgen und
die folgerichtige Reaktion darauf.
Ein ganz grundlegender Fehler aber wäre, zu konstatieren, "das geht nicht",
nur weil es mir selber schwer fällt, mir vorzustellen, dass ich nicht selbst
das Maß aller Dinge bin. Es kommt nicht darauf an, ob gerade ich mir
vorstellen kann, dass dies oder jenes Problem einer LÜsung zugänglich sein
kĂśnnte, obgleich ich es selber nicht kĂśnnen mag.
Es hat sich in der Geschichte der Menschheit immer wieder gezeigt, dass das
fßr manche "Experten" vÜllig unmÜgliche ein paar Jahre später Gemeingut war
und es gibt keinerlei Grund anzunehmen, dass gerade wir der absolute
Endpunkt der Entwicklung seien.
Weltuntergangspropheten gabs zu allen Zeiten - die Welt hat sich nicht nach
ihnen gerichtet

MfG
Rupert
 
Gerrit Heitsch <gerrit@laosinh.s.bawue.de>:

Die beiden AbstĂźrze einer Boeing 737 Max 8 sehen bisher nach so einem
Fall aus.

Empfehle dieserthalben, sich beim Analytiker, der unter der Bezeichnung Moon
of Alabama publiziert, schlau zu machen - er hat die Zusammenhänge
recherchiert und zeigt auf, dass hier die FAA bei der Zulassung viel zu sehr
entsprechend Boeing als Lobby agiert hat, als sich um Sicherheit zu bemĂźhen.
Die Konsequenz hier ist, dass USA und Kanada an der Entscheidung der FAA
festhalten, dass ein nachgerĂźsteter Zwangsmechanismus fĂźr die aufgepeppte
737 sicher sei (entsprechend wird nun bei Boeing von weiteren
Softwareverbesserungen gebrabbelt). Immer mehr andere Länder hingegen sind
nun nicht mehr der Ansicht der FAA und verbieten den Betrieb der 737-MAX in
ihrem Wirkradius. Die NachrĂźstung mit einem anderen Triebwerk hatte eine
viel zu gravierende Änderung des Flugverhaltens zur Folge, die ohne
Software-Eingriff kaum mehr sicher (fail safe in einem Fehlerfall) zu
fliegen sei, wie ich das verstehe.
 
Am 14.03.2019 um 13:10 schrieb Rupert Haselbeck:
Christoph Müller schrieb:

Die fahrerlosen Fahrzeuge scheinen da noch mit zu schwimmen. Noch sind
sie nicht deutlich besser als menschliche Fahrer.

Sie sind es beileibe nicht in jeder Beziehung.

Hier konkret geht's ja auch nur ums Mitschwimmen im Verkehr.

Aber es würde etliches an
Unfällen vermieden werden, hätten menschliche Fahrer beispielsweise bei
Kolonnenfahrt auf der Autobahn oder der Landstraße nur annähernd die
Qualitäten, wie (teil)autonome Steuerungen das bereits aufweisen. Auffahren
auf den Vordermann, zum Überholen ausscheren bei Gegenverkehr, das machen
Menschen

Entsprechende Assistenten gibt's ja schon.

Eine Frau, die ihr Fahrrad schiebt, totfahren, weil sie mit einem
umherwehenden Plastikfetzen oder einer Zeitung verwechselt wurde. Und
das nach 50 Jahren Entwicklung. Da kniept's ja wohl.

Jetzt wahrscheinlich nicht mehr. Uber hätte seine Testfahrzeuge sicher
nicht mehr fahren dürfen, wenn dieser Fehler nicht abgestellt worden wäre.

Das Problem gerade bei diesem Unfall war, dass er einem menschlichen Fahrer
mit hoher Wahrscheinlichkeit ebenso unterlaufen wäre.

Na ja - das Video dazu gibt's irgendwo im Netz. Demnach hätte ein
menschlicher Fahrer da vermutlich schon was unternommen. Hupe, bremsen,
ausweichen hätte wohl funktioniert. Die Frau mit ihrem Radl war gut
erkennbar. Das war also sicher ein technischer Fehler.

--
Servus
Christoph Müller
https://www.astrail.de
 
Am 14.03.2019 um 11:45 schrieb Gerrit Heitsch:
On 3/14/19 11:34 AM, Christoph Müller wrote:
Am 14.03.2019 um 06:48 schrieb Gerrit Heitsch:
On 3/13/19 10:04 PM, Christoph Müller wrote:

Was soll daran so interessant sein? Wenn die externen Sensoren keine
auswertbaren Daten liefern, dann muss sich das Bordsystem eben auf die
eigenen Sensoren verlassen.

Tun sie doch. Nur eben wegen der Linsenwirkung des Wassertropfens eben
keine korrekten Daten weil der Fußgänger unsichtbar ist.

Da gilt §1 der Straßenverkehrsordnung.

Nein, eben nicht, denn die Sensordaten sehen ja gut aus, sind es aber
nicht.

Wenn Wasser auf der Optik ist, dann bemerkt man (also auch die Technik)
das und zieht die entsprechenden Konsequenzen daraus. Z.B.
Scheibenwischer einschalten oder Rotationsscheibe drehen oder
Reinigungsmittel aufsprühen - was ein Mensch halt auch tun würde. Sieht
er nichts mehr, bleibt der Mensch stehen. Die Technik wahrscheinlich
auch. Es sei denn, sie bekommt aus anderen Kanälen noch brauchbare
Infos. Z.B. von externen Kameras, Infrarot-Bord-Kameras, TOF-Kameras,
Ultraschall, Radar, Bodenradar, ... So viele Informationsmöglichkeiten
hat ein biologischer Mensch überhaupt nicht.

--
Servus
Christoph Müller
https://www.astrail.de
 
On 3/14/19 1:40 PM, Rupert Haselbeck wrote:
Gerrit Heitsch schrieb:

On 3/14/19 11:34 AM, Christoph MĂźller wrote:
Am 14.03.2019 um 06:48 schrieb Gerrit Heitsch:
On 3/13/19 10:04 PM, Christoph MĂźller wrote:

Was soll daran so interessant sein? Wenn die externen Sensoren keine
auswertbaren Daten liefern, dann muss sich das Bordsystem eben auf die
eigenen Sensoren verlassen.

Tun sie doch. Nur eben wegen der Linsenwirkung des Wassertropfens eben
keine korrekten Daten weil der Fußgänger unsichtbar ist.

Da gilt §1 der Straßenverkehrsordnung.

Nein, eben nicht, denn die Sensordaten sehen ja gut aus, sind es aber
nicht.

Fehler wie ein Wassertropfen auf einer Linse werden auch heute schon
erkannt, auch wenn sowas kaum vorkommen kann. Was aber zu berĂźcksichtigen
ist, sind Schäden, z.B. Steinschlag. Da wird heute einfach der Fahrer
aufgefordert, zu ßbernehmen. Ein vollautonomes Fahrzeug kÜnnte, abhängig
wohl von der Art und Bedeutung des Ausfalls, anhalten und Hilfe rufen oder
die nächste geeignete Werkstatt anfahren.
Was lässt dich eigentlich annehmen, es kÜnne nur einen einzigen Sensor
geben?

Die Kamera sollte ein externer Sensor sein, also irgendwo montiert und
das Auto wertet deren Stream aus.

Anonsten... Mehrere Sensoren? Klar, ist anzunehmen. Neues Problem: Wenn
sich deren Werte widersprechen, welchen traue ich?

Gerrit
 
On 3/14/19 1:33 PM, Christoph Müller wrote:
Am 14.03.2019 um 11:27 schrieb Gerrit Heitsch:
On 3/14/19 11:10 AM, Christoph Müller wrote:

Die fahrerlosen Fahrzeuge scheinen da noch mit zu schwimmen. Noch sind
sie nicht deutlich besser als menschliche Fahrer. Deshalb haben sie auch
noch keine allgemeine Zulassung. An der Verbesserung wird jedoch mit
unglaublichen Aufwand in vielen Teams weltweit gearbeitet. Alleine
deshalb ist schon mit Erfolgen in relativ kurzer Zeit zu rechnen. Es
dürfte durchaus realistisch sein, dass die Fahrautomaten in absehbarer
Zeit in Sachen Unfällen um den Faktor 10 besser sein werden als
Menschen.

Woraus ziehst du den Schluss, daß eine Technik, die es noch gar nicht
gibt

es gibt sie doch schon.

Nein, gibt noch kein Level 5. Es gibt bisher nur Fälle in denen ein
Automat eine Teilfunktion übernehmen kann. Aber der Fahrer selbst muss
jederzeit wieder die Kontrolle übernehmen können.

Daraus kann man keine Unfallhäufigkeit ableiten.



Siehe
den Tesla der tagsüber bei guter Sicht ungebremst in den Fahrbahnteiler
gefahren ist.

Tesla bietet Level 5 meines Wissens noch nicht an. Die Technik ist zwar
physisch an Bord. Aber die Software/Datenbank ist noch nicht reif für
Level 5. Alles unter Level 5 halte ich für untaugliche Krücken, die
einen ganz neuen Unfalltyp mit sich bringen werden: Fahrer hat nicht
schnell genug übernommen.
Das Fatale an Level unter 5 ist, dass der (mit)fahrende Mensch das
Gefühl bekommt, dass die Kiste ja eh' alles richtig macht.

Ja, bis zu dem Moment wo sie es nicht mehr tut. Der Zeitraum vom
Erkennen bis zum Crash kann dann SEHR kurz sein.

Hier ein Video von jemandem dessen Tesla, wenn er ihn hätte machen
lassen, in so einen Teiler gefahren wäre:

https://www.youtube.com/watch?v=TIUU1xNqI8w

Gerrit
 
Christoph Müller wrote:
es
müssen immer stets entsprechend ausgebildete Fahrer wach und aufmerksam
und jederzeit eingriffsbereit an Bord sein.

Auf DDR-Transitstrecken nach Westberlin -- die sich in hervorragendem
Zustand befanden -- war die Unfallhäufigkeit allein unter Transitfahrern
ohne Beteiligung anderer Verkehrsteilnehmer viermal so hoch wie auf
Autobahnen in der BRD. Die überzeugendste Erklärung war, daß viele
Fahrer bei kostanten 100 auf ebener, gerader und übersichtlicher Strecke
schlicht eingeshlafen sind. Mir ging es dort damals so.

--
/Ż\ No | Dipl.-Ing. F. Axel Berger Tel: +49/ 221/ 7771 8067
\ / HTML | Roald-Amundsen-Straße 2a Fax: +49/ 221/ 7771 8069
 X in | D-50829 Köln-Ossendorf http://berger-odenthal.de
/ \ Mail | -- No unannounced, large, binary attachments, please! --
 
On 3/14/19 1:29 PM, Ewald Pfau wrote:
Christoph MĂźller <chrnewsgroup@astrail.de>:

Dann wirst du schnell erkennen, weshalb es Autopiloten im Flugzeug schon
lange gibt und in Straßenfahrzeugen fast nur im Labormaßstab.

Im Fahrzeug am Boden wird die knappe Resource geteilt, die sich Fahrbahn
nennt. Und dieser Vorgang ist nicht in erster Linie mittels technischer
Natur charakterisiert, sondern vielmehr mittels Kommunikation zwischen
Menschen. Autopiloten am Boden werden von daher zuerst einmal eine Mimese
menschlichen Verhaltens erbringen mĂźssen.

Ja, das kommt dazu. Jemanden durchwinken oder per Lichthupe etwas sagen
(extrem kontextabhängig!) dßrfte mit autonomen Autos erstmal interessant
werden.


Gerrit
 
Christoph Müller wrote:
Hatten die Befehlshaber hinreichend Ahnung von
der Sache? Wussten sie also, welches Pferd sie reiten?

Nach meiner einschätzung zweimal nein.

--
/Ż\ No | Dipl.-Ing. F. Axel Berger Tel: +49/ 221/ 7771 8067
\ / HTML | Roald-Amundsen-Straße 2a Fax: +49/ 221/ 7771 8069
 X in | D-50829 Köln-Ossendorf http://berger-odenthal.de
/ \ Mail | -- No unannounced, large, binary attachments, please! --
 
On 3/14/19 1:17 PM, Christoph Müller wrote:
Am 14.03.2019 um 11:18 schrieb Gerrit Heitsch:
On 3/14/19 10:55 AM, Christoph Müller wrote:
Am 14.03.2019 um 06:51 schrieb Gerrit Heitsch:

Der ist nur passiert weil man einen bestimmten Test machen wollte und
dafür die Automatik abschalten _musste_.

Schon klar. Leider hatten die Verantwortlichen offensichtlich keine
Ahnung, welches Gefahrenpotenzial sie mit der Anlage vor sich hatten.
Hätten sie es gewusst, hätten sie entsprechende Vorsichtsmaßnahmen
ergriffen oder den Test der Gefahr wegen gleich ganz sausen lassen.

Wobei du dasselbe Problem mit einer Automatik hast wenn deren
Programmierer bzw. seine Auftraggeber sich der Gefahr von bestimmten
Betriebszuständen nicht bewusst sind.

In solchen Fällen fehlen schon die Grundlagen, um das Thema überhaupt
sinnvoll angehen zu können.

Nur wenn man weiss, daß das man manches nicht weiss. Es gibt allerdings
auch Fälle in denen einem gar nicht bewusst ist, daß hier Kenntnisse
fehlen. Also behebt man das Problem nicht.

Wenns dann schiefgeht hört man in solchen Fällen 'Das hat doch keiner
ahnen können...'.



Die beiden Abstürze einer Boeing 737 Max 8 sehen bisher nach so einem
Fall aus.

Was schließen wir daraus? Dass jedwede Automatik in Flugzeugen künftig
zu unterlassen ist und ihre Tätigkeit wieder Menschen überlassen werden
muss? Wäre das nicht ein Schritt zurück in die Steinzeit? War diese Zeit
besser für uns Menschen?

Wer redet denn gleich von der Steinzeit... Es kann aber sein, daß das
Problem bei der 737 nicht per Software zu beheben ist sondern
zusätzliche Hardware braucht.

Gerrit
 

Welcome to EDABoard.com

Sponsor

Back
Top