Aussagen von Bündnis 90/Die Grünen zur Energiewende

Am 13.03.19 um 16:18 schrieb Gerrit Heitsch:
On 3/13/19 11:19 AM, Marte Schwarz wrote:

Ich bin doch mal gespannt, wie das bei Boing weitergeht... Irgendwie
wusste Boing ja schon, dass es in der Steuerungssoftware zumindest
Optimierungsbedarf gab...
Ob wir es je erfahren werden...

Bitte nicht vergessen, Software im Avionikbereich wird nach deutlich
härteren Kriterien verifiziert als woanders. Wenn das mit autonomen
Autos klappen soll wird das dort nicht viel anders laufen kĂśnnen. Kurz
mal ein Update einspielen ist dann nicht. Und wenn in der Software ein
schwerer Fehler ist der zum Crash fĂźhren kann, oder ein solcher vermutet
wird, dann bleibt das Auto erstmal stehen.

Tja, mit einem Flugzeug kann man nun mal nicht kurz rechts 'ranfahren ...

--
http://hkraus.eu/
 
On 3/13/19 11:55 AM, Christoph Müller wrote:
Am 13.03.2019 um 11:19 schrieb Marte Schwarz:

Vermutlich wird es so laufen, dass im Falle des Ausfalls der externen
Sensoren tatsächlich "übervorsichtig" gefahren wird. Mit den externen
Sensoren kann's dann viel flotter vonstatten gehen. Denn damit sieht das
Fahrzeug ja auch über Bergkuppen und um Kurven herum.

Genau das ist eben der Trugschluß. Kein Fahrzeug weiss sicher, ob hinter
der Kuppe ein Gegenstand steht, oder ob ggfs ein Oldtimer gerade
entgegenkommt, der eben noch keine Telemetrie hat, die dem anderen
Fahrzeg sagen würde, mit welcher Geschwindigkeit es in welcher Richtung
unterwegs ist.

Warum denn nicht? Das hängt doch nur von den Sensoren ab. So könnten
z.B. Kameras in den Straßenlaternen eingebaut werden, die ihre Bilddaten
ständig per Rundfunksignal raus senden. Sie funktionieren dann ähnlich
wie Verkehrsspiegel. Nur eben elektronisch. Die bordeigene
Bildverarbeitung kann den Stream dann auswerten.

Wird interessant bei Regen, durch die Linsenwirkung der Tropfen auf der
Scheibe können Dinge unsichtbar werden.

Gerrit
 
On 3/13/19 11:19 AM, Marte Schwarz wrote:
Ich bin doch mal gespannt, wie das bei Boing weitergeht... Irgendwie
wusste Boing ja schon, dass es in der Steuerungssoftware zumindest
Optimierungsbedarf gab...
Ob wir es je erfahren werden...

Bitte nicht vergessen, Software im Avionikbereich wird nach deutlich
härteren Kriterien verifiziert als woanders. Wenn das mit autonomen
Autos klappen soll wird das dort nicht viel anders laufen können. Kurz
mal ein Update einspielen ist dann nicht. Und wenn in der Software ein
schwerer Fehler ist der zum Crash führen kann, oder ein solcher vermutet
wird, dann bleibt das Auto erstmal stehen.

Gerrit
 
On 3/13/19 10:25 AM, Ralph A. Schmid, dk5ras wrote:
Gerrit Heitsch <gerrit@laosinh.s.bawue.de> wrote:

Wo du den erwähnst... Ich hab noch zwei davon in funktionsfähig und
natĂźrlich mit 64KB.

Meiner ist bei einem Gewitter verstorben, als er im Altenteil auf
einem Funkturm als Textbildgenerator fĂźr einen Fernsehsender stand.

Ja, billiger geht sowas nicht. Videokabel/Antenne ran, Strom ran,
einschalten, lostippen. OS im ROM... Mit welcher aktuellen Hardware
ginge das?

Gerrit
 
On 3/13/19 9:55 AM, Ole Jansen wrote:
Am 12.03.2019 um 16:27 schrieb Gerrit Heitsch:

Es gibt andere Architekturen, aber irgendwie haben die sich immer als
doch nicht so tauglich wie versprochen erwiesen, sonst wären sie
verbreiteter.

Ich kann mich dunkel an eine Achitektur erinnern mit 12bit
Worten. Die unteren 8 bit Daten und die oberen 4 bit Instruktionen.
Und keine nullterminierten Strings und so'n Schweinkram ;-)

Bei Harvard gibt es getrennte Kanäle/Bereiche fßr Programmspeicher und
Daten. Der 8051 z.B. kann nur Instruktionen ausfĂźhren die im code memory
stehen. Buffer Overruns gehen dann nicht.

Die nicht. Aber 'return oriented Programming' mĂźsste funktionieren.

Gerrit
 
On 3/13/19 11:02 AM, Christoph Müller wrote:
Am 12.03.2019 um 16:23 schrieb Gerrit Heitsch:
On 3/12/19 9:03 AM, Christoph Müller wrote:
Am 11.03.2019 um 19:21 schrieb Gerrit Heitsch:
On 3/11/19 6:59 PM, Christoph Müller wrote:
Am 11.03.2019 um 16:22 schrieb Gerrit Heitsch:
On 3/11/19 9:57 AM, Christoph Müller wrote:
Am 10.03.2019 um 19:03 schrieb Gerrit Heitsch:
On 3/10/19 6:42 PM, Hanno Foest wrote:
Am 10.03.19 um 18:31 schrieb Gerrit Heitsch:

Da hilft Car2X. Solche Neuigkeiten können ortsnah aufgespielt werden.

Na, das wird die Hacker freuen wenn man jedem vorbeifahrenden Auto Dinge
erzählen kann die weit von der Realität entfernt sind.

Genau diese Datensicherheit ist in der Branche seit Längerem ein sehr
heißes Thema. Immerhin sollen über die Luftschnittstelle auch Updates
für die Autos aufgespielt werden. Auch für fahrerlose Autos.

Das ist allerdings nicht dasselbe. Bei Updates wird das Auto eine
Verbindung zum Server aufbauen. Es initiiert die Verbindung und kennt
den Schlüssel des Updateservers. Das funktioniert bei SSH schon seit
langem. Aber auch da gab es hier und dort Bugs...

Bei Car2Car hingegen ist das alles nicht gegeben. Woher weiss das Auto,
daß die eingehende Meldung wirklich korrekt ist und vom Auto 2 Straßen
weiter vorne stammt? Es könnte auch ein Piratensender sein der, falls
vorhanden, das Zertifikat eines Schrottautos verwendet.

Ein gewisses Restrisiko wird immer bleiben. Einfach weil das Leben
lebensgefährlich ist. Auch heute kann sich jemand Verkehrsschilder
kaufen und sie irgend wo hin stellen. Nur sollte er sich nicht erwischen
lassen, weil es sonst juristischerseits was auf die Finger gibt. Mit
"elektronischen Verkehrszeichen" wird's nicht viel anders laufen.

Letztere sind allerdings deutlich unauffälliger weil sie eben nur per
Funk zu sehen sind während ein echtes Schild nunmal optisch zu sehen
sein muss.


Um
Lüge von Wahrheit unterscheiden zu können, werden die Fahrzeuge
natürlich auch noch Plausibilitätskontrollen durchführen. Wenn da z.B.
ein Auto meldet, dass sich ein Gefährt in den engen Gassen einer Stadt
grade mit 400 km/h nähert, dann wird dieser Meldung sehr wahrscheinlich
nicht geglaubt. Sie wird ignoriert.

Das ist auch zu einfach. Aber wenn die Meldung kommt, daß die nächste
Straße rechts gesperrt ist? Trotzdem reinfahren?



Denn wenn sie die Zahlen der Unfälle, Verletzten und
Toten nicht deutlich reduzieren können, werden sie ganz einfach keine
Zulassung bekommen.

Sie müssen das auch können ohne als übervorsichtig wahrgenommen zu werden.

Vermutlich wird es so laufen, dass im Falle des Ausfalls der externen
Sensoren tatsächlich "übervorsichtig" gefahren wird.

Nein, du musst ohne externe Sensoren in der Lage sein im aktuellen
Verkehr mitzuschwimmen. Keiner kauft ein Auto welches immer
übervorsichtig unterwegs ist und vom Rest als Verkehrshindernis
wahrgenommen wird.

Gerrit
 
Am 13.03.19 um 15:24 schrieb Christoph MĂźller:
Am 13.03.2019 um 12:46 schrieb Marte Schwarz:

Warum denn nicht? Das hängt doch nur von den Sensoren ab. So kÜnnten
z.B. Kameras in den Straßenlaternen eingebaut werden, die ihre Bilddaten
ständig per Rundfunksignal raus senden. Sie funktionieren dann ähnlich
wie Verkehrsspiegel. Nur eben elektronisch. Die bordeigene
Bildverarbeitung kann den Stream dann auswerten.

Super, dann sitzt eine Spinne auf der Linse und die Kamera wertet ein
Standbild aus... Nein Danke.

Du meinst, dass sich das Bild dann einfach in den Sensor so stark
eingebrannt hat, dass eine Spinne vor der Linse nur noch dieses
eingebrannte Bild sendet?

Was machst du, wenn sich eine Spinne auf einen Verkehrsspiegel setzt?
Oder noch schlimmer - wenn sich dicker Raureif darauf abgesetzt hat?
Bleibst du dann weinend davon stehen, bis wieder alles abgetaut ist oder
versuchst du, dich vorsichtig in die Straße rein zu tasten? Was werden
wohl Automaten tun, die von Menschen programmiert wurden? Solche
Erfahrungen ignorieren?

Am Ende ist das Leben lebensgefährlich. Du kannst vorsichtig sein, wie
du willst. Wenn du Pech hast, fällt dir ein Flugzeug auf den Kopf. Was
willst du dagegen tun?

Nur deswegen, weil das Leben per se lebensgefährlich ist, brauch ich
nicht auch noch zusätzliche Gefahren kleinreden.

Fahrerlose Autos werden voraussichtlich nur dann zugelassen, wenn sie
nachweislich deutlich WENIGER Fehler machen als Menschen. Wenn sie also
auch deutlich weniger Gefahren mit sich bringen als menschliche Fahrer,
deren Unzulänglichkeiten ja längst bekannt sind.

Nun, mit einem menschlichen Fahrer wäre z.B. das wohl kaum passiert:

https://www.tagesspiegel.de/wirtschaft/unfall-von-uber-fahrzeug-autonomes-auto-verwechselte-frau-mit-plastiktuete/21256792.html

Leider hat die Testfahrerin auch gerade geschlafen. Und so wurde eben
eine Frau, die ihr Fahrrad schob, Ăźberfahren. Verwechselt mit einem
„false positive“ Objekt, wie eine Plastiktüte oder eine Zeitung, die
durch die Luft wirbelt.
 
Am 13.03.19 um 10:25 schrieb Ralph A. Schmid, dk5ras:
Gerrit Heitsch <gerrit@laosinh.s.bawue.de> wrote:

Wo du den erwähnst... Ich hab noch zwei davon in funktionsfähig und
natĂźrlich mit 64KB.

Meiner ist bei einem Gewitter verstorben, als er im Altenteil auf
einem Funkturm als Textbildgenerator fĂźr einen Fernsehsender stand.
-ras

Telekomturm? Eigene Antennenkonstruktion? ;-)

--
---hdw---
 
Am 13.03.19 um 16:34 schrieb Gerrit Heitsch:
On 3/13/19 4:30 PM, Hartmut Kraus wrote:
Nein, denn die verbauten Rechner verstehen die Bilder nicht wirklich
sondern sind nur trainiert worden und keiner weiss, wie die Erkennung
intern wirklich abläuft, nur das sie nach genug Training recht gut
funktioniert. Du als Mensch funktionierst beim Erkennen von Schildern
anders. FĂźr dich ist auch ein nur halb sichtbares, teilweise verrostetes
STOP-Schild immer noch ein solches auch wenn du es noch nie vorher
gesehen hast.


Dann reicht ja wirklich ein Staubkorn
auf der Linse.

Oder Salzbelag im Winter, Kratzer...

Na, wenn das so ist, kann mir diese ganze kĂźnstliche sog. "Intelligenz"
mit ihren banalen (teilweise tĂśdlichen) Fehlern trotz "Lernen" aber
gestohlen bleiben. Erst recht, wenn ich dafĂźr noch Geld bezahlen soll.

Mir ist es auf gefĂźhlten > 1/2 Mio km (bei jedem Wetter und zu jeder
Tages- und Nachtzeit) ein einziges Mal passiert, dass ich etwas falsch
(oder eher gar nicht) erkannt habe, so dass es gekracht hätte. (Ein
vorfahrtberechtigtes Fahrzeug, das aber vermutlich viel zu schnell war.
Sonst hätte nicht erst mein Beifahrer "Stop!" brßllen mßssen.) ;)
 
Am 13.03.2019 um 16:11 schrieb Gerrit Heitsch:
On 3/13/19 11:02 AM, Christoph Müller wrote:
Am 12.03.2019 um 16:23 schrieb Gerrit Heitsch:
On 3/12/19 9:03 AM, Christoph Müller wrote:
Am 11.03.2019 um 19:21 schrieb Gerrit Heitsch:
On 3/11/19 6:59 PM, Christoph Müller wrote:
Am 11.03.2019 um 16:22 schrieb Gerrit Heitsch:
On 3/11/19 9:57 AM, Christoph Müller wrote:
Am 10.03.2019 um 19:03 schrieb Gerrit Heitsch:
On 3/10/19 6:42 PM, Hanno Foest wrote:
Am 10.03.19 um 18:31 schrieb Gerrit Heitsch:

Ein gewisses Restrisiko wird immer bleiben. Einfach weil das Leben
lebensgefährlich ist. Auch heute kann sich jemand Verkehrsschilder
kaufen und sie irgend wo hin stellen. Nur sollte er sich nicht erwischen
lassen, weil es sonst juristischerseits was auf die Finger gibt. Mit
"elektronischen Verkehrszeichen" wird's nicht viel anders laufen.

Letztere sind allerdings deutlich unauffälliger weil sie eben nur per
Funk zu sehen sind während ein echtes Schild nunmal optisch zu sehen
sein muss.

Unauffällig? Wird sich zeigen. Wer meldet denn heute überhaupt falsche
Verkehrszeichen? Die Meisten ignorieren sie einfach. So kann es Tage und
Wochen dauern, bis solche Fehler erkannt werden. Automaten kann man
darauf trimmen, dass sie IMMER eine Meldung absetzen, wenn irgendwas
"nicht ganz sauber ist".

Um
Lüge von Wahrheit unterscheiden zu können, werden die Fahrzeuge
natürlich auch noch Plausibilitätskontrollen durchführen. Wenn da z.B.
ein Auto meldet, dass sich ein Gefährt in den engen Gassen einer Stadt
grade mit 400 km/h nähert, dann wird dieser Meldung sehr wahrscheinlich
nicht geglaubt. Sie wird ignoriert.

Das ist auch zu einfach.

Muss aber im Zuge der Plausibilitätskontrollen berücksichtigt werden.
Nicht nur das mit den 400 km/h in den engen Gassen.

Aber wenn die Meldung kommt, daß die nächste
Straße rechts gesperrt ist? Trotzdem reinfahren?

Was machst du, wenn sie gesperrt ist? Trotzdem rein fahren?

Denn wenn sie die Zahlen der Unfälle, Verletzten und
Toten nicht deutlich reduzieren können, werden sie ganz einfach keine
Zulassung bekommen.

Sie müssen das auch können ohne als übervorsichtig wahrgenommen zu
werden.

Vermutlich wird es so laufen, dass im Falle des Ausfalls der externen
Sensoren tatsächlich "übervorsichtig" gefahren wird.

Nein, du musst ohne externe Sensoren in der Lage sein im aktuellen
Verkehr mitzuschwimmen. Keiner kauft ein Auto welches immer
übervorsichtig unterwegs ist und vom Rest als Verkehrshindernis
wahrgenommen wird.

Im Verkehr mitzuschwimmen bedarf keiner externen Sensoren. Dass das
geht, wurde schon 1987 gezeigt.
https://mobilitymag.de/geschichte-der-autonomen-fahrzeuge/

--
Servus
Christoph Müller
https://www.astrail.de
 
Christoph MĂźller schrieb:

Am 13.03.2019 um 17:14 schrieb Hartmut Kraus:
Mir ist es auf gefĂźhlten > 1/2 Mio km (bei jedem Wetter und zu jeder
Tages- und Nachtzeit) ein einziges Mal passiert, dass ich etwas falsch
(oder eher gar nicht) erkannt habe, so dass es gekracht hätte. (Ein
vorfahrtberechtigtes Fahrzeug, das aber vermutlich viel zu schnell war.
Sonst hätte nicht erst mein Beifahrer "Stop!" brßllen mßssen.) ;)

Ich gratuliere zu dieser tollen Leistung. Wäre doch schÜn, wenn sie alle
Anderen auch bringen wĂźrden. Tun sie aber nicht. Taugt also dein Beispiel?
Es taugt schon deshalb nicht, weil autonome Fahrzeuge nicht besoffen (oder
unaufmerksam) sein kĂśnnen.
Und es wird sich im Falle eines Falles nicht damit herausreden wollen, dass
ja der andere, der sogar vorfahrtsberechtigt war(!), viel zu schnell gewesen
sei. Als Vorfahrtsberechtigter ist es recht schwer, gegenĂźber dem
Wartepflichtigen zu schnell zu sein...

MfG
Rupert
 
Am 13.03.19 um 22:00 schrieb Christoph MĂźller:
Am 13.03.2019 um 17:14 schrieb Hartmut Kraus:

Mir ist es auf gefĂźhlten > 1/2 Mio km (bei jedem Wetter und zu jeder
Tages- und Nachtzeit) ein einziges Mal passiert, dass ich etwas falsch
(oder eher gar nicht) erkannt habe, so dass es gekracht hätte. (Ein
vorfahrtberechtigtes Fahrzeug, das aber vermutlich viel zu schnell war.
Sonst hätte nicht erst mein Beifahrer "Stop!" brßllen mßssen.) ;)

Ich gratuliere zu dieser tollen Leistung. Wäre doch schÜn, wenn sie alle
Anderen auch bringen wĂźrden. Tun sie aber nicht. Taugt also dein Beispiel?

Du glaubst doch nicht, ich bilde mir ein, ich bin der einzige, der das
gebracht hat?

Da muss ich an einen alten Schlufreund denken (Fahrlehrer) - der sagte
mal: Er nimmt sich irgend einen alten Trucker, der mehr km unfallfrei
durch aller Herren Länder 'runter hat - den lässt er einmal durch die
Stadt fahren, da ist er dreimal durchgefallen. ;)

Deutschland hält nämlich auch da einen Rekord: Auf deutschen Straßen
steht im Durchschnitt alle 25m ein Schild.

Interessant wäre ja mal, wie eine Automatik in diesem meinem Fall
reagiert hätte. Die hätte wohl um die Ecke gucken mßssen. Wie gesagt,
ich war überzeugt, dass die Hauptstraße frei war. Der muss um die Kurve
geschossen gekommen sein, als ich in die andere Richtung geguckt habe.
 
Am 13.03.2019 um 16:20 schrieb Gerrit Heitsch:
On 3/13/19 11:55 AM, Christoph Müller wrote:

Warum denn nicht? Das hängt doch nur von den Sensoren ab. So könnten
z.B. Kameras in den Straßenlaternen eingebaut werden, die ihre Bilddaten
ständig per Rundfunksignal raus senden. Sie funktionieren dann ähnlich
wie Verkehrsspiegel. Nur eben elektronisch. Die bordeigene
Bildverarbeitung kann den Stream dann auswerten.

Wird interessant bei Regen, durch die Linsenwirkung der Tropfen auf der
Scheibe können Dinge unsichtbar werden.

Was soll daran so interessant sein? Wenn die externen Sensoren keine
auswertbaren Daten liefern, dann muss sich das Bordsystem eben auf die
eigenen Sensoren verlassen. Dann wird eben auch mal "übervorsichtig"
gefahren. Klar kann es dann auch Staus geben. Sind die zuständigen Leute
für die externen Sensoren auf Zack, dann werden sie schnell dafür
sorgen, dass wieder brauchbare Daten kommen. Das dürfte dann so manchen
Stau wieder ziemlich zügig auflösen.

--
Servus
Christoph Müller
https://www.astrail.de
 
Am 13.03.19 um 21:48 schrieb Christoph MĂźller:
Am 13.03.2019 um 16:07 schrieb Hartmut Kraus:
Am 13.03.19 um 15:24 schrieb Christoph MĂźller:

Fahrerlose Autos werden voraussichtlich nur dann zugelassen, wenn sie
nachweislich deutlich WENIGER Fehler machen als Menschen. Wenn sie also
auch deutlich weniger Gefahren mit sich bringen als menschliche Fahrer,
deren Unzulänglichkeiten ja längst bekannt sind.

Nun, mit einem menschlichen Fahrer wäre z.B. das wohl kaum passiert:

https://www.tagesspiegel.de/wirtschaft/unfall-von-uber-fahrzeug-autonomes-auto-verwechselte-frau-mit-plastiktuete/21256792.html


Leider hat die Testfahrerin auch gerade geschlafen. Und so wurde eben
eine Frau, die ihr Fahrrad schob, Ăźberfahren. Verwechselt mit einem
„false positive“ Objekt, wie eine Plastiktüte oder eine Zeitung, die
durch die Luft wirbelt.

Eine Geschichte aus der Anfangszeit der fahrerlosen Fahrzeuge, als diese
nur nur mit Sondergenehmigung fahren durften, weil man um die Gefahren
einer noch nicht ausgereiften Technik wusste.

Ha ha. DAS war das erste fĂźhrerlose Auto - vor 50 Jahren:

https://www.faz.net/aktuell/wirtschaft/unternehmen/vor-50-jahren-testete-continental-ein-fuehrerloses-auto-15747546.html
 
Am 13.03.2019 um 17:14 schrieb Hartmut Kraus:

Mir ist es auf gefühlten > 1/2 Mio km (bei jedem Wetter und zu jeder
Tages- und Nachtzeit) ein einziges Mal passiert, dass ich etwas falsch
(oder eher gar nicht) erkannt habe, so dass es gekracht hätte. (Ein
vorfahrtberechtigtes Fahrzeug, das aber vermutlich viel zu schnell war.
Sonst hätte nicht erst mein Beifahrer "Stop!" brüllen müssen.) ;)

Ich gratuliere zu dieser tollen Leistung. Wäre doch schön, wenn sie alle
Anderen auch bringen würden. Tun sie aber nicht. Taugt also dein Beispiel?

--
Servus
Christoph Müller
https://www.astrail.de
 
Am 13.03.19 um 21:50 schrieb Christoph MĂźller:
Am 13.03.2019 um 16:22 schrieb Gerrit Heitsch:
On 3/13/19 4:07 PM, Hartmut Kraus wrote:

https://www.tagesspiegel.de/wirtschaft/unfall-von-uber-fahrzeug-autonomes-auto-verwechselte-frau-mit-plastiktuete/21256792.html


Leider hat die Testfahrerin auch gerade geschlafen. Und so wurde eben
eine Frau, die ihr Fahrrad schob, Ăźberfahren. Verwechselt mit einem
„false positive“ Objekt, wie eine Plastiktüte oder eine Zeitung, die
durch die Luft wirbelt.

False Positives sind ein weiteres, großes Problem in der Bilderkennung.

Es ist vor allem eine Herausforderung dazu, die Auswerterei zu
verbessern. Nicht, das ganze Projekt hin zu schmeißen und zu jammern
"das geht ja nie". DASS es geht, zeigt doch jeden Tag die ganze Natur.

SchĂśn. Reden wir also in 50 Jahren nochmal drĂźber.

--
http://hkraus.eu/
 
Am 13.03.2019 um 16:34 schrieb Gerrit Heitsch:

Nein, denn die verbauten Rechner verstehen die Bilder nicht wirklich
sondern sind nur trainiert worden und keiner weiss, wie die Erkennung
intern wirklich abläuft, nur das sie nach genug Training recht gut
funktioniert. Du als Mensch funktionierst beim Erkennen von Schildern
anders. Für dich ist auch ein nur halb sichtbares, teilweise verrostetes
STOP-Schild immer noch ein solches auch wenn du es noch nie vorher
gesehen hast.

Dass sie noch nicht genug gelernt haben, ist der Grund dafür, dass
solche Fahrzeuge noch keine allgemeine Zulassung haben. Aber wer sollte
sie aus welchem Grund am Lernen hindern? Es besteht die Möglichkeit,
dass die Unfallzahlen, die Toten und Verletzten im Verkehr deutlich
reduziert werden. Sollen wir diese Chance ungenutzt verstreichen lassen?
Aus welchem Grund denn?

Dann reicht ja wirklich ein Staubkorn
auf der Linse.

Oder Salzbelag im Winter, Kratzer...

Wenn sich die Entwickler konsequent jeder Weiterentwicklung verweigern.
Ihre Auftraggeber werden das als Arbeitsverweigerung verstehen. Was wird
mit solchen Mitarbeitern in den Entwicklungsabteilungen passieren?

--
Servus
Christoph Müller
https://www.astrail.de
 
Am 13.03.19 um 21:51 schrieb Christoph MĂźller:
Am 13.03.2019 um 16:30 schrieb Hartmut Kraus:
Am 13.03.19 um 16:22 schrieb Gerrit Heitsch:
On 3/13/19 4:07 PM, Hartmut Kraus wrote:

https://www.tagesspiegel.de/wirtschaft/unfall-von-uber-fahrzeug-autonomes-auto-verwechselte-frau-mit-plastiktuete/21256792.html


Leider hat die Testfahrerin auch gerade geschlafen. Und so wurde eben
eine Frau, die ihr Fahrrad schob, Ăźberfahren. Verwechselt mit einem
„false positive“ Objekt, wie eine Plastiktüte oder eine Zeitung, die
durch die Luft wirbelt.

False Positives sind ein weiteres, großes Problem in der Bilderkennung.

Schlimmer:

"Denn oft reicht es, schon wenige Pixel in einem Bild auszutauschen, um
die Algorithmen zu verwirren. Japanische Wissenschaftler haben gezeigt,
dass dafĂźr meist nur drei oder fĂźnf Bildpunkte nĂśtig sind, zum Teil
genßgte sogar ein falscher aber farblich besonders auffälliger Pixel."

Ist das so? Schwer vorstellbar. Dann reicht ja wirklich ein Staubkorn
auf der Linse.

Aber nur, wenn man sich jeder Weiterentwicklung konsequent widersetzt.

100% Sicherheit und Fehlerfreiheit wird's nie geben. Und dann muss der
Mensch eingreifen kĂśnnen. Ist ja wohl bei Flugzeugen nicht anders, und
da ist die Technik ein bisschen ausgereifter.

--
http://hkraus.eu/
 
Am 13.03.19 um 21:48 schrieb Christoph MĂźller:
Am 13.03.2019 um 16:07 schrieb Hartmut Kraus:
Am 13.03.19 um 15:24 schrieb Christoph MĂźller:

Fahrerlose Autos werden voraussichtlich nur dann zugelassen, wenn sie
nachweislich deutlich WENIGER Fehler machen als Menschen. Wenn sie also
auch deutlich weniger Gefahren mit sich bringen als menschliche Fahrer,
deren Unzulänglichkeiten ja längst bekannt sind.

Nun, mit einem menschlichen Fahrer wäre z.B. das wohl kaum passiert:

https://www.tagesspiegel.de/wirtschaft/unfall-von-uber-fahrzeug-autonomes-auto-verwechselte-frau-mit-plastiktuete/21256792.html


Leider hat die Testfahrerin auch gerade geschlafen. Und so wurde eben
eine Frau, die ihr Fahrrad schob, Ăźberfahren. Verwechselt mit einem
„false positive“ Objekt, wie eine Plastiktüte oder eine Zeitung, die
durch die Luft wirbelt.

Eine Geschichte aus der Anfangszeit der fahrerlosen Fahrzeuge, als diese
nur nur mit Sondergenehmigung fahren durften, weil man um die Gefahren
einer noch nicht ausgereiften Technik wusste

Aha. Mal auf das Datum geguckt? 08.05.2018 - das ist noch kein Jahr her.
Inzwischen ist diese Technik natĂźrlich vollkommen ausgereift. ;)
 
Am 13.03.2019 um 16:30 schrieb Hartmut Kraus:
Am 13.03.19 um 16:22 schrieb Gerrit Heitsch:
On 3/13/19 4:07 PM, Hartmut Kraus wrote:

https://www.tagesspiegel.de/wirtschaft/unfall-von-uber-fahrzeug-autonomes-auto-verwechselte-frau-mit-plastiktuete/21256792.html


Leider hat die Testfahrerin auch gerade geschlafen. Und so wurde eben
eine Frau, die ihr Fahrrad schob, überfahren. Verwechselt mit einem
„false positive“ Objekt, wie eine Plastiktüte oder eine Zeitung, die
durch die Luft wirbelt.

False Positives sind ein weiteres, großes Problem in der Bilderkennung.

Schlimmer:

"Denn oft reicht es, schon wenige Pixel in einem Bild auszutauschen, um
die Algorithmen zu verwirren. Japanische Wissenschaftler haben gezeigt,
dass dafür meist nur drei oder fünf Bildpunkte nötig sind, zum Teil
genügte sogar ein falscher aber farblich besonders auffälliger Pixel."

Ist das so? Schwer vorstellbar. Dann reicht ja wirklich ein Staubkorn
auf der Linse.

Aber nur, wenn man sich jeder Weiterentwicklung konsequent widersetzt.

--
Servus
Christoph Müller
https://www.astrail.de
 

Welcome to EDABoard.com

Sponsor

Back
Top