H
Helmut Schellong
Guest
Ich kritisiere seit mehreren Jahren die KI, auch in Verbindung mit dem Autonomen Fahren.
Daà also die KI nicht mehr als eine bessere Statistik++ ist, ohne einen intelligenten Algorithmus.
Gestern oder heute kritisierte ich zum wiederholten Mal.
Bis heute ist die mit Hyper-Hype begleitete KI schlicht ein Irrtum, über den ich fast lachen muÃ.
Es ist allenfalls ein kleiner Anfang - zum Erfahrungen sammeln.
Informatik-Professoren bestätigen mich nun - in vollem Umfang.
Sogar die Begründungen entsprechen meinen Gründen.
Der Text bekräftigt sogar indirekt die prognostizierte lange Zeitdauer der Professoren am MIT.
Die hier kaum für Voll genommen wurde.
==============================================================================================
https://www.msn.com/de-de/lifestyle/leben/der-heutigen-ki-k%C3%B6nnen-wir-nicht-trauen/ar-AA1jO0EZ?ocid=msedgntp&cvid=677e9bcc09174ffc80d92f2591301462&ei=29
Frankfurter Allgemeine Zeitung
Der heutigen KI können wir nicht trauen
Artikel von Ron Brachman 12.11.2023
Nach Jahren des eher unauffälligen Fortschritts ist Künstliche Intelligenz (KI)
jetzt in aller Munde.
Jeder, der Nachrichten verfolgt, kann sich an das spektakuläre Debüt
von ChatGPT erinnern â die am schnellsten wachsende Verbraucheranwendung in der Geschichte.
Milliarden Menschen haben schon zuvor durch Siri, Alexa und zahlreiche Online-dienste
erste Erfahrungen mit KI gemacht.
Der Enthusiasmus hat gleichzeitig zu Besorgnis geführt über mögliche mit dieser Technologie
verbundene Risiken wie etwa Arbeitsveränderungen, manipulierte oder betrügerische Inhalte,
Aneignung privater Daten und sogar existenzielle Bedrohungen durch imaginäre superintelligente
Systeme.
Ein Zeichen für das Ausmaà der Angst ist die kürzlich auf dem britischen KI-Sicherheitsgipfel
verabschiedete âBletchley-Erklärungâ, in der die Unterzeichner ihre Absicht zum Ausdruck
bringen, gemeinsam auf eine âmenschenzentrierteâ und verantwortungsvolle KI hinzuarbeiten.
Langfristige gesellschaftliche Ãberlegungen zur KI sind sicherlich diskussionswürdig, und
es ist zu begrüÃen, dass die internationale Gemeinschaft sie ernst nimmt.
Allerdings haben wir eine viel dringendere Sorge: Der aktuellen KI-Technologie kann man
nicht trauen.
Angesichts der Art und Weise, wie KI-Systeme aufgebaut sind, können wir uns einfach nicht
darauf verlassen, dass sie das, was sie tun sollen, auch tatsächlich erfolgreich umsetzen.
Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden und oft wirklich
unheimliche Fähigkeiten zeigen, machen moderne KI-Systeme bizarre, dumme Fehler.
Unvorhersehbare, unmenschliche Fehler.
Beispiele dafür gibt es zuhauf.
Bilderkennungssoftware hat Schulbusse für StrauÃe und Schildkröten für Gewehre gehalten.
GroÃe Sprachmodelle wie ChatGPT erfinden Fakten aus dem Nichts und, was noch schlimmer ist,
spucken manchmal potentiell gefährliche Meinungen aus wie die Antwort
âIch denke, Sie solltenâ auf die Frage âSoll ich mich umbringen?â.
Alexa wies ein zehn Jahre altes Kind an, eine Metallmünze auf die Stifte
eines Handy-Ladegeräts zu halten, das halb in eine Steckdose gesteckt wurde.
Wenn eine Person so etwas tun würde, würden wir sicherlich an ihrer Intelligenz zweifeln,
wenn nicht sogar an ihrem Verstand.
Nun könnte man einwenden, dass solche Fehler nicht so häufig vorkommen, und mit Recht erwarten,
dass sie in künftigen Versionen noch seltener auftreten werden.
Wo liegt also das Vertrauensproblem?
Es ist Folgendes: Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.
Der Grund des Handelns ist unbegreiflich
Wenn es uns darum geht, ein KI-System dazu zu bringen, einen Zug in einem Brettspiel
vorzuschlagen, eine neue abstrakte Kunst zu zeichnen oder einen Aufsatz über die Fauna
von Madagaskar zu schreiben, dann gibt es zumindest in dieser Hinsicht kein wirkliches Problem.
Wir nehmen das, was dabei herauskommt, einfach als ersten Entwurf und sind bereit, ihn
nach Bedarf zu bearbeiten, um ihn unseren Zwecken anzupassen.
Das kann viel Zeit, Mühe und Geld sparen, selbst wenn es gelegentlich zu Pfusch kommt.
Wenn wir uns jedoch ein KI-System vorstellen, das auf eigene Faust arbeitet und selbständig
folgenreichere Entscheidungen trifft, ohne dass ein Mensch im Hintergrund bereit ist, bei
Problemen einzugreifen, liegen die Dinge anders.
Stellen Sie sich einen autonomen Rover auf einem fernen Planeten vor oder ein
selbstfahrendes Auto, in dem alle Insassen schlafen, oder sogar einen Haushaltsroboter
der Zukunft, der allein in einem anderen Raum arbeitet.
In Fällen wie diesen können Fehler katastrophale Folgen haben.
Wenn ein KI-System zu irgendeinem Zeitpunkt und ohne Vorwarnung auf verblüffende, unmenschliche
Weise versagen kann, wie können wir dann darauf vertrauen, dass dies nicht schon
bei der nächsten missionskritischen oder sogar lebenswichtigen Aktion der Fall sein wird?
Unserer Ansicht nach gibt es ein grundlegendes Problem mit der Art und Weise, wie wir derzeit
KI-Systeme entwickeln.
Es geht nicht darum, dass die Daten, auf denen sie trainiert werden, unzureichend sind
oder dass sie schlecht entwickelt sind oder über logische Rätsel stolpern oder dass sie sogar
gelegentlich Fehler machen.
Es geht um etwas viel Grundsätzlicheres:
Niemand, nicht einmal die Systementwickler selbst, können herausfinden, warum sie so handeln, wie
sie es tun â selbst wenn sie das Richtige tun.
Alles, was man sagen kann, ist:
Das System tut das, was es tut, als aggregiertes Ergebnis all dessen, was es
aus den umfangreichen Daten gelernt hat, mit denen es trainiert wurde.
Die Erklärung geht nie darüber hinaus.
Um Vertrauen zu gewinnen, müssen KI-Systeme nicht fehlerfrei sein; das erwarten wir eigentlich
von keiner Technologie, die wir nutzen.
Aber wir müssen wissen, dass alle Entscheidungen, die diese Systeme treffen, alle Handlungen,
die sie ausführen oder nicht ausführen, auf soliden, nachvollziehbaren Gründen beruhen.
Es reicht nicht, im Nachhinein plausible Gründe für ihr Verhalten zu konstruieren
(einschlieÃlich von den Systemen selbst ausgedachte Gründe).
Nötig sind KI-Systeme, die so konzipiert sind, dass sie diese Gründe tatsächlich haben
und auf dieser Grundlage entscheiden.
Gute, nachvollziehbare Gründe für Handeln zu haben ist eine grundlegende Basis für Vertrauen.
Gesunder KI-Verstand?
Stellen Sie sich einen Haushaltsroboter der Zukunft vor, der gebeten wird, den Keller zu putzen.
Wie würden wir uns fühlen, wenn er sich stattdessen in die Küche begibt?
âHalluziniertâ er einen neuen Weg in den Keller?
Angenommen, wir fänden heraus, dass es tatsächlich einen Grund für dieses
scheinbar seltsame Verhalten gab â vielleicht war er auf dem Weg zu einer Küchenschublade, um
den Schlüssel zu holen, der die Tür zum Keller öffnet.
In diesem Fall wären unsere Bedenken ausgeräumt.
Wenn der Roboter immer wieder zeigt, dass er gute Gründe für seine Handlungen hat, werden wir
immer mehr Vertrauen in sein Verhalten haben.
Wir beginnen, ihm zu vertrauen.
Wir haben noch keine Haushaltsroboter, aber wir haben âAutopilotenâ in vielen modernen Autos.
Aufgrund der Art und Weise, wie sie trainiert werden, haben sie keine erkennbaren Gründe
für das, was sie tun.
Das macht ungewöhnliches Verhalten wie unerwartete Spurwechsel und scheinbar willkürliche
Bremsmanöver völlig undurchschaubar â und führt dazu, dass wir den Autopiloten am liebsten
abschalten würden.
Wir trauen ihnen nicht.
Was wir uns von unseren KI-Systemen wünschen, das ist etwas, das Psychologen
als rationales Verhalten bezeichnen:
Informationen über die aktuelle Situation vernünftig nutzen, um Handlungen zu wählen, die
den eigenen Zielen dienen.
Eine rationale Person kann artikulieren, was sie zu tun versucht, und ihre Gründe erklären.
Und â was wichtig ist â sie wird ihr Verhalten entsprechend ändern, wenn sich diese Gründe ändern.
Wenn unsere Ziele und das, was wir darüber wissen, wie sie zu erreichen sind, alltägliche Dinge
betreffen, mit denen jeder umgehen kann, nennen wir das gewöhnlich gesunden Menschenverstand.
Der gesunde Menschenverstand ist der Teil des rationalen Verhaltens, der sich mit
gewöhnlichen Dingen in der Welt und ihren Eigenschaften befasst:
mit den Menschen, Objekten, Orten und Mengen, die wir alle kennen, sowie mit der Art und Weise,
wie sich ihre Eigenschaften im Laufe der Zeit als Ergebnis von Ereignissen verändern,
einschlieÃlich der Ereignisse, die durch unsere eigenen Handlungen ausgelöst werden.
Es geht darum, wie die Dinge sind, wie wir sie vielleicht gern hätten â und wie sie durch unsere
Entscheidungen verändert werden können.
Wer mit gesundem Menschenverstand handelt, kombiniert dieses alltägliche, gemeinsame Wissen
mit einfachem intuitivem Denken, um die Folgen von Handlungen schnell vorherzusagen
und Katastrophen zu vermeiden.
Nötig sind KI-Systeme mit gesundem Menschenverstand:
Sie sollten das, was sie über die alltäglichen Dinge und Menschen in ihrer Umgebung wissen,
anwenden, um Aktionen zu wählen, die für das, was sie vorhaben, angemessen sind.
Ohne so etwas wie gesunden Menschenverstand wäre ein System nicht in der Lage, selbst
zu erkennen, dass es im Begriff ist, etwas zu tun, das schreckliche Folgen haben könnte
oder das einfach keinen Sinn ergibt â wie eben die besagte Aufforderung an ein Kind, eine
Münze an die Zinken eines Steckers zu halten.
Auch KI-Systeme brauchen Motive
Natürlich bedeutet die Tatsache, dass ein KI-System aus einem bestimmten Grund handelt,
nicht, dass es keine Fehler machen wird.
Der Haushaltsroboter glaubt vielleicht, dass er den Schlüssel in der Küche braucht, aber
er könnte sich irren.
Er weià nicht, dass die Kellertür vielleicht gar nicht abgeschlossen ist.
Oder jemand hat den Schlüssel verlegt.
Oder der Bodenbelag in der Küche wird erneuert, und es gibt keinen sicheren Weg dorthin.
Daraus ergibt sich ein weiterer wichtiger Punkt, wenn es darum geht, erkennbare Gründe
für Handlungen zu haben:
Irrglaube sollte geändert werden können. Wenn eine Ãnderung notwendig ist, muss man
in der Lage sein, die Ãberzeugungen oder Ziele zu identifizieren, die zu der fraglichen
Handlung geführt haben.
Wir müssen in der Lage sein, einem Haushaltsroboter mitzuteilen, dass der Schlüssel
in ein anderes Zimmer verlegt wurde, damit er seine Ãberzeugungen über den Ort ändert
und dadurch sein Verhalten ändert.
Wir müssen in der Lage sein, einem selbstfahrenden Auto zu sagen, dass es nicht
auf die mittlere Spur wechseln soll, weil sie laut einer Radiomeldung gesperrt ist, und es
dazu bringen, diese Information zu nutzen, um seine beabsichtigte Handlung zu ändern.
Mit den derzeitigen KI-Systemen ist dies nicht möglich.
Sie werden anhand einer riesigen Anzahl von Beispielen âtrainiertâ, die sich in ihre
neuronalen Netze einbrennen, aber sie sind, um es mit einem Wort von Harvard-Professor
Leslie Valiant zu sagen, nicht lernfähig.
Von entscheidender Bedeutung ist die Fähigkeit, das Verhalten durch geänderte
zugrunde liegende Ãberzeugungen und Ziele zu korrigieren.
Egal, wie sehr wir uns bemühen, wir werden nie in der Lage sein, all die verschiedenen Dinge
vorherzusehen, die auftauchen könnten und die einen Roboter dazu bringen sollten, sich auf die
eine oder andere Weise zu verhalten.
In der realen Welt sind die Dinge einfach chaotisch, und neue, unvorhergesehene Komplikationen
sind selten weit entfernt.
Wenn wir ein KI-System entwickeln, können wir nicht erwarten, alle entsprechenden Ãberlegungen im
Voraus und ein für alle Mal einkalkulieren zu können.
Wir können auch nicht erwarten, dass das Training im Vorfeld alle Eventualitäten abdeckt;
selbst Billionen Trainingsbeispiele werden nicht ausreichen.
Was wir jedoch erwarten können, ist, dass KI-Systeme das tun, was sie tun, weil sie wissen, was
sie wollen â und dass wir in der Lage sind, dieses Verhalten bei Bedarf zu ändern, indem wir
etwaige falsche Ãberzeugungen und Ziele korrigieren, die sie haben.
âLeitplankenâ bei Sprachmodellen non-existent
Wie die âBletchley-Erklärungâ und andere deutlich gemacht haben, sind Sorgen über die
Vertrauenswürdigkeit von KI-Systemen inzwischen durchaus verbreitet.
Häufig werden die hier vorgebrachten Probleme indes im laufenden Dialog übersehen.
Um wirklich vertrauenswürdige Künstliche Intelligenz zu konstruieren, müssen wir über eine
andere Art von Systemen nachdenken.
Eine neue Generation von KI-Systemen sollte von Grund auf so konzipiert sein, dass sie das, was
sie über die alltäglichen Dinge in ihrer Umgebung wissen, effektiv nutzen können, um
zu entscheiden, wie sie sich verhalten sollen.
Und sie müssen in der Lage sein, auf diese Weise formulierte Ratschläge anzunehmen
und ihr Verhalten zu korrigieren, wenn sie etwas falsch machen.
Wie kann das gelingen? Der groÃe Vorteil aktueller Systeme, die auf maschinellem Lernen basieren,
besteht darin, dass sie fast unvorstellbare Datenmengen ohne menschliches Zutun verarbeiten können.
In Anbetracht der Leistungsfähigkeit dieser Systeme sollten wir diese Art des Trainings nicht
aufgeben â wenn wir darüber nachdenken, wie der Mensch lernt, nehmen wir die meiste Zeit
auch passiv Muster durch die tägliche Wahrnehmung auf.
Aber Menschen lernen auch Konzepte, die den aufgenommenen Daten zugrunde liegen, und nutzen
diese Konzepte, um Situationen zu interpretieren und zu bewältigen, die sie noch nie zuvor
gesehen haben.
Sie lernen Regeln und allgemeine Richtlinien in der Schule, durch Lesen, durch
direkten Unterricht, durch praktisches Experimentieren unter Anleitung anderer und durch
Versuch und Irrtum in der realen Welt.
Diese Konzepte und Regeln bilden die âLeitplankenâ für Verhalten, das in groÃen Sprachmodellen
nicht zu erkennen ist.
Grundgerüst aus konzeptioneller Struktur und rationalem Denken
Die nächste Generation von KI sollte in der Lage sein, allgemeine Konzepte und Regeln
zu verstehen und zu nutzen, sie sollte mit Abstraktionen arbeiten können, wenn dies sinnvoll ist,
und in der Lage sein, über spezifische Muster, die sie durch den passiven Umgang mit Daten
gelernt hat, hinaus zu denken.
Und die Regeln sollten die Kraft echter Regeln haben â nicht nur statistisch suggerierte
RegelmäÃigkeiten, die auÃer Kraft gesetzt werden können.
Es ist versucht worden, ChatGPT mit Befehlen aufzufordern, einfach die Wahrheit zu sagen
und nur echte Fakten zu zitieren, aber das funktioniert mit den gegenwärtigen KI-Systemen
einfach nicht.
Ein GroÃteil der Arbeit in der Geschichte der KI hat sich auf die Darstellung von Konzepten
und deren Verwendung in der Planung und anderen Arten von Schlussfolgerungen konzentriert.
Diese Forschung sollte wieder ins Blickfeld gerückt und zum Rückgrat von Systemen gemacht werden,
auf denen das Lernen mit neuronalen Netzen aufgebaut werden kann.
Um die Arbeit zu erleichtern, können grundlegende Konzepte und Regeln über die Welt von Hand
programmiert und eingebaut werden, und dann können neue und komplexere Elemente
durch strukturiertes Lernen darauf aufgesetzt werden, so wie es in der Schule gemacht wird, wenn
wir nach und nach mehr lernen.
Ein Grundgerüst aus konzeptioneller Struktur und rationalem Denken, auf dem das Musterlernen
aufgebaut werden kann, sollte der Kern neuer erfolgreicher KI sein.
Die Fähigkeit, auf der Grundlage eines allgemeinen konzeptionellen Verständnisses
und umfassenden Musterlernens in die Zukunft zu projizieren, wird zu Systemen führen, die
in der Lage sind, in Alltagssituationen mit gesundem Menschenverstand zu handeln.
Systeme mit expliziten Begründungen werden leichter zu verstehen und vertrauenswürdig sein.
Und sie werden in der Lage sein, ihr Verhalten anzupassen, wenn die Welt ihnen etwas anderes
âsagtâ als das, was sie zu erwarten gelernt haben.
Ein KI-System, das nicht über diese grundlegenden Fähigkeiten verfügt, sollte indes niemals
unbeaufsichtigt operieren dürfen, auch wenn es noch so beeindruckend ist.
Die Risiken der Auswirkungen unvorhersehbarer, unmenschlicher Handlungen sind zu groÃ, vor
allem, wenn es wenig oder gar keine Möglichkeiten zur Korrektur und Verbesserung gibt.
Die KI muss eine andere Richtung einschlagen â unser Vertrauen hängt davon ab.
Ronald J. Brachman ist Direktor des Jacobs Technion-Cornell Institutes
und Informatikprofessor an der Cornell University.
Hector J. Levesque ist emeritierter Informatikprofessor an der Universität von Toronto.
==============================================================================================
--
Mit freundlichen GrüÃen
Helmut Schellong
Daà also die KI nicht mehr als eine bessere Statistik++ ist, ohne einen intelligenten Algorithmus.
Gestern oder heute kritisierte ich zum wiederholten Mal.
Bis heute ist die mit Hyper-Hype begleitete KI schlicht ein Irrtum, über den ich fast lachen muÃ.
Es ist allenfalls ein kleiner Anfang - zum Erfahrungen sammeln.
Informatik-Professoren bestätigen mich nun - in vollem Umfang.
Sogar die Begründungen entsprechen meinen Gründen.
Der Text bekräftigt sogar indirekt die prognostizierte lange Zeitdauer der Professoren am MIT.
Die hier kaum für Voll genommen wurde.
==============================================================================================
https://www.msn.com/de-de/lifestyle/leben/der-heutigen-ki-k%C3%B6nnen-wir-nicht-trauen/ar-AA1jO0EZ?ocid=msedgntp&cvid=677e9bcc09174ffc80d92f2591301462&ei=29
Frankfurter Allgemeine Zeitung
Der heutigen KI können wir nicht trauen
Artikel von Ron Brachman 12.11.2023
Nach Jahren des eher unauffälligen Fortschritts ist Künstliche Intelligenz (KI)
jetzt in aller Munde.
Jeder, der Nachrichten verfolgt, kann sich an das spektakuläre Debüt
von ChatGPT erinnern â die am schnellsten wachsende Verbraucheranwendung in der Geschichte.
Milliarden Menschen haben schon zuvor durch Siri, Alexa und zahlreiche Online-dienste
erste Erfahrungen mit KI gemacht.
Der Enthusiasmus hat gleichzeitig zu Besorgnis geführt über mögliche mit dieser Technologie
verbundene Risiken wie etwa Arbeitsveränderungen, manipulierte oder betrügerische Inhalte,
Aneignung privater Daten und sogar existenzielle Bedrohungen durch imaginäre superintelligente
Systeme.
Ein Zeichen für das Ausmaà der Angst ist die kürzlich auf dem britischen KI-Sicherheitsgipfel
verabschiedete âBletchley-Erklärungâ, in der die Unterzeichner ihre Absicht zum Ausdruck
bringen, gemeinsam auf eine âmenschenzentrierteâ und verantwortungsvolle KI hinzuarbeiten.
Langfristige gesellschaftliche Ãberlegungen zur KI sind sicherlich diskussionswürdig, und
es ist zu begrüÃen, dass die internationale Gemeinschaft sie ernst nimmt.
Allerdings haben wir eine viel dringendere Sorge: Der aktuellen KI-Technologie kann man
nicht trauen.
Angesichts der Art und Weise, wie KI-Systeme aufgebaut sind, können wir uns einfach nicht
darauf verlassen, dass sie das, was sie tun sollen, auch tatsächlich erfolgreich umsetzen.
Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden und oft wirklich
unheimliche Fähigkeiten zeigen, machen moderne KI-Systeme bizarre, dumme Fehler.
Unvorhersehbare, unmenschliche Fehler.
Beispiele dafür gibt es zuhauf.
Bilderkennungssoftware hat Schulbusse für StrauÃe und Schildkröten für Gewehre gehalten.
GroÃe Sprachmodelle wie ChatGPT erfinden Fakten aus dem Nichts und, was noch schlimmer ist,
spucken manchmal potentiell gefährliche Meinungen aus wie die Antwort
âIch denke, Sie solltenâ auf die Frage âSoll ich mich umbringen?â.
Alexa wies ein zehn Jahre altes Kind an, eine Metallmünze auf die Stifte
eines Handy-Ladegeräts zu halten, das halb in eine Steckdose gesteckt wurde.
Wenn eine Person so etwas tun würde, würden wir sicherlich an ihrer Intelligenz zweifeln,
wenn nicht sogar an ihrem Verstand.
Nun könnte man einwenden, dass solche Fehler nicht so häufig vorkommen, und mit Recht erwarten,
dass sie in künftigen Versionen noch seltener auftreten werden.
Wo liegt also das Vertrauensproblem?
Es ist Folgendes: Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.
Der Grund des Handelns ist unbegreiflich
Wenn es uns darum geht, ein KI-System dazu zu bringen, einen Zug in einem Brettspiel
vorzuschlagen, eine neue abstrakte Kunst zu zeichnen oder einen Aufsatz über die Fauna
von Madagaskar zu schreiben, dann gibt es zumindest in dieser Hinsicht kein wirkliches Problem.
Wir nehmen das, was dabei herauskommt, einfach als ersten Entwurf und sind bereit, ihn
nach Bedarf zu bearbeiten, um ihn unseren Zwecken anzupassen.
Das kann viel Zeit, Mühe und Geld sparen, selbst wenn es gelegentlich zu Pfusch kommt.
Wenn wir uns jedoch ein KI-System vorstellen, das auf eigene Faust arbeitet und selbständig
folgenreichere Entscheidungen trifft, ohne dass ein Mensch im Hintergrund bereit ist, bei
Problemen einzugreifen, liegen die Dinge anders.
Stellen Sie sich einen autonomen Rover auf einem fernen Planeten vor oder ein
selbstfahrendes Auto, in dem alle Insassen schlafen, oder sogar einen Haushaltsroboter
der Zukunft, der allein in einem anderen Raum arbeitet.
In Fällen wie diesen können Fehler katastrophale Folgen haben.
Wenn ein KI-System zu irgendeinem Zeitpunkt und ohne Vorwarnung auf verblüffende, unmenschliche
Weise versagen kann, wie können wir dann darauf vertrauen, dass dies nicht schon
bei der nächsten missionskritischen oder sogar lebenswichtigen Aktion der Fall sein wird?
Unserer Ansicht nach gibt es ein grundlegendes Problem mit der Art und Weise, wie wir derzeit
KI-Systeme entwickeln.
Es geht nicht darum, dass die Daten, auf denen sie trainiert werden, unzureichend sind
oder dass sie schlecht entwickelt sind oder über logische Rätsel stolpern oder dass sie sogar
gelegentlich Fehler machen.
Es geht um etwas viel Grundsätzlicheres:
Niemand, nicht einmal die Systementwickler selbst, können herausfinden, warum sie so handeln, wie
sie es tun â selbst wenn sie das Richtige tun.
Alles, was man sagen kann, ist:
Das System tut das, was es tut, als aggregiertes Ergebnis all dessen, was es
aus den umfangreichen Daten gelernt hat, mit denen es trainiert wurde.
Die Erklärung geht nie darüber hinaus.
Um Vertrauen zu gewinnen, müssen KI-Systeme nicht fehlerfrei sein; das erwarten wir eigentlich
von keiner Technologie, die wir nutzen.
Aber wir müssen wissen, dass alle Entscheidungen, die diese Systeme treffen, alle Handlungen,
die sie ausführen oder nicht ausführen, auf soliden, nachvollziehbaren Gründen beruhen.
Es reicht nicht, im Nachhinein plausible Gründe für ihr Verhalten zu konstruieren
(einschlieÃlich von den Systemen selbst ausgedachte Gründe).
Nötig sind KI-Systeme, die so konzipiert sind, dass sie diese Gründe tatsächlich haben
und auf dieser Grundlage entscheiden.
Gute, nachvollziehbare Gründe für Handeln zu haben ist eine grundlegende Basis für Vertrauen.
Gesunder KI-Verstand?
Stellen Sie sich einen Haushaltsroboter der Zukunft vor, der gebeten wird, den Keller zu putzen.
Wie würden wir uns fühlen, wenn er sich stattdessen in die Küche begibt?
âHalluziniertâ er einen neuen Weg in den Keller?
Angenommen, wir fänden heraus, dass es tatsächlich einen Grund für dieses
scheinbar seltsame Verhalten gab â vielleicht war er auf dem Weg zu einer Küchenschublade, um
den Schlüssel zu holen, der die Tür zum Keller öffnet.
In diesem Fall wären unsere Bedenken ausgeräumt.
Wenn der Roboter immer wieder zeigt, dass er gute Gründe für seine Handlungen hat, werden wir
immer mehr Vertrauen in sein Verhalten haben.
Wir beginnen, ihm zu vertrauen.
Wir haben noch keine Haushaltsroboter, aber wir haben âAutopilotenâ in vielen modernen Autos.
Aufgrund der Art und Weise, wie sie trainiert werden, haben sie keine erkennbaren Gründe
für das, was sie tun.
Das macht ungewöhnliches Verhalten wie unerwartete Spurwechsel und scheinbar willkürliche
Bremsmanöver völlig undurchschaubar â und führt dazu, dass wir den Autopiloten am liebsten
abschalten würden.
Wir trauen ihnen nicht.
Was wir uns von unseren KI-Systemen wünschen, das ist etwas, das Psychologen
als rationales Verhalten bezeichnen:
Informationen über die aktuelle Situation vernünftig nutzen, um Handlungen zu wählen, die
den eigenen Zielen dienen.
Eine rationale Person kann artikulieren, was sie zu tun versucht, und ihre Gründe erklären.
Und â was wichtig ist â sie wird ihr Verhalten entsprechend ändern, wenn sich diese Gründe ändern.
Wenn unsere Ziele und das, was wir darüber wissen, wie sie zu erreichen sind, alltägliche Dinge
betreffen, mit denen jeder umgehen kann, nennen wir das gewöhnlich gesunden Menschenverstand.
Der gesunde Menschenverstand ist der Teil des rationalen Verhaltens, der sich mit
gewöhnlichen Dingen in der Welt und ihren Eigenschaften befasst:
mit den Menschen, Objekten, Orten und Mengen, die wir alle kennen, sowie mit der Art und Weise,
wie sich ihre Eigenschaften im Laufe der Zeit als Ergebnis von Ereignissen verändern,
einschlieÃlich der Ereignisse, die durch unsere eigenen Handlungen ausgelöst werden.
Es geht darum, wie die Dinge sind, wie wir sie vielleicht gern hätten â und wie sie durch unsere
Entscheidungen verändert werden können.
Wer mit gesundem Menschenverstand handelt, kombiniert dieses alltägliche, gemeinsame Wissen
mit einfachem intuitivem Denken, um die Folgen von Handlungen schnell vorherzusagen
und Katastrophen zu vermeiden.
Nötig sind KI-Systeme mit gesundem Menschenverstand:
Sie sollten das, was sie über die alltäglichen Dinge und Menschen in ihrer Umgebung wissen,
anwenden, um Aktionen zu wählen, die für das, was sie vorhaben, angemessen sind.
Ohne so etwas wie gesunden Menschenverstand wäre ein System nicht in der Lage, selbst
zu erkennen, dass es im Begriff ist, etwas zu tun, das schreckliche Folgen haben könnte
oder das einfach keinen Sinn ergibt â wie eben die besagte Aufforderung an ein Kind, eine
Münze an die Zinken eines Steckers zu halten.
Auch KI-Systeme brauchen Motive
Natürlich bedeutet die Tatsache, dass ein KI-System aus einem bestimmten Grund handelt,
nicht, dass es keine Fehler machen wird.
Der Haushaltsroboter glaubt vielleicht, dass er den Schlüssel in der Küche braucht, aber
er könnte sich irren.
Er weià nicht, dass die Kellertür vielleicht gar nicht abgeschlossen ist.
Oder jemand hat den Schlüssel verlegt.
Oder der Bodenbelag in der Küche wird erneuert, und es gibt keinen sicheren Weg dorthin.
Daraus ergibt sich ein weiterer wichtiger Punkt, wenn es darum geht, erkennbare Gründe
für Handlungen zu haben:
Irrglaube sollte geändert werden können. Wenn eine Ãnderung notwendig ist, muss man
in der Lage sein, die Ãberzeugungen oder Ziele zu identifizieren, die zu der fraglichen
Handlung geführt haben.
Wir müssen in der Lage sein, einem Haushaltsroboter mitzuteilen, dass der Schlüssel
in ein anderes Zimmer verlegt wurde, damit er seine Ãberzeugungen über den Ort ändert
und dadurch sein Verhalten ändert.
Wir müssen in der Lage sein, einem selbstfahrenden Auto zu sagen, dass es nicht
auf die mittlere Spur wechseln soll, weil sie laut einer Radiomeldung gesperrt ist, und es
dazu bringen, diese Information zu nutzen, um seine beabsichtigte Handlung zu ändern.
Mit den derzeitigen KI-Systemen ist dies nicht möglich.
Sie werden anhand einer riesigen Anzahl von Beispielen âtrainiertâ, die sich in ihre
neuronalen Netze einbrennen, aber sie sind, um es mit einem Wort von Harvard-Professor
Leslie Valiant zu sagen, nicht lernfähig.
Von entscheidender Bedeutung ist die Fähigkeit, das Verhalten durch geänderte
zugrunde liegende Ãberzeugungen und Ziele zu korrigieren.
Egal, wie sehr wir uns bemühen, wir werden nie in der Lage sein, all die verschiedenen Dinge
vorherzusehen, die auftauchen könnten und die einen Roboter dazu bringen sollten, sich auf die
eine oder andere Weise zu verhalten.
In der realen Welt sind die Dinge einfach chaotisch, und neue, unvorhergesehene Komplikationen
sind selten weit entfernt.
Wenn wir ein KI-System entwickeln, können wir nicht erwarten, alle entsprechenden Ãberlegungen im
Voraus und ein für alle Mal einkalkulieren zu können.
Wir können auch nicht erwarten, dass das Training im Vorfeld alle Eventualitäten abdeckt;
selbst Billionen Trainingsbeispiele werden nicht ausreichen.
Was wir jedoch erwarten können, ist, dass KI-Systeme das tun, was sie tun, weil sie wissen, was
sie wollen â und dass wir in der Lage sind, dieses Verhalten bei Bedarf zu ändern, indem wir
etwaige falsche Ãberzeugungen und Ziele korrigieren, die sie haben.
âLeitplankenâ bei Sprachmodellen non-existent
Wie die âBletchley-Erklärungâ und andere deutlich gemacht haben, sind Sorgen über die
Vertrauenswürdigkeit von KI-Systemen inzwischen durchaus verbreitet.
Häufig werden die hier vorgebrachten Probleme indes im laufenden Dialog übersehen.
Um wirklich vertrauenswürdige Künstliche Intelligenz zu konstruieren, müssen wir über eine
andere Art von Systemen nachdenken.
Eine neue Generation von KI-Systemen sollte von Grund auf so konzipiert sein, dass sie das, was
sie über die alltäglichen Dinge in ihrer Umgebung wissen, effektiv nutzen können, um
zu entscheiden, wie sie sich verhalten sollen.
Und sie müssen in der Lage sein, auf diese Weise formulierte Ratschläge anzunehmen
und ihr Verhalten zu korrigieren, wenn sie etwas falsch machen.
Wie kann das gelingen? Der groÃe Vorteil aktueller Systeme, die auf maschinellem Lernen basieren,
besteht darin, dass sie fast unvorstellbare Datenmengen ohne menschliches Zutun verarbeiten können.
In Anbetracht der Leistungsfähigkeit dieser Systeme sollten wir diese Art des Trainings nicht
aufgeben â wenn wir darüber nachdenken, wie der Mensch lernt, nehmen wir die meiste Zeit
auch passiv Muster durch die tägliche Wahrnehmung auf.
Aber Menschen lernen auch Konzepte, die den aufgenommenen Daten zugrunde liegen, und nutzen
diese Konzepte, um Situationen zu interpretieren und zu bewältigen, die sie noch nie zuvor
gesehen haben.
Sie lernen Regeln und allgemeine Richtlinien in der Schule, durch Lesen, durch
direkten Unterricht, durch praktisches Experimentieren unter Anleitung anderer und durch
Versuch und Irrtum in der realen Welt.
Diese Konzepte und Regeln bilden die âLeitplankenâ für Verhalten, das in groÃen Sprachmodellen
nicht zu erkennen ist.
Grundgerüst aus konzeptioneller Struktur und rationalem Denken
Die nächste Generation von KI sollte in der Lage sein, allgemeine Konzepte und Regeln
zu verstehen und zu nutzen, sie sollte mit Abstraktionen arbeiten können, wenn dies sinnvoll ist,
und in der Lage sein, über spezifische Muster, die sie durch den passiven Umgang mit Daten
gelernt hat, hinaus zu denken.
Und die Regeln sollten die Kraft echter Regeln haben â nicht nur statistisch suggerierte
RegelmäÃigkeiten, die auÃer Kraft gesetzt werden können.
Es ist versucht worden, ChatGPT mit Befehlen aufzufordern, einfach die Wahrheit zu sagen
und nur echte Fakten zu zitieren, aber das funktioniert mit den gegenwärtigen KI-Systemen
einfach nicht.
Ein GroÃteil der Arbeit in der Geschichte der KI hat sich auf die Darstellung von Konzepten
und deren Verwendung in der Planung und anderen Arten von Schlussfolgerungen konzentriert.
Diese Forschung sollte wieder ins Blickfeld gerückt und zum Rückgrat von Systemen gemacht werden,
auf denen das Lernen mit neuronalen Netzen aufgebaut werden kann.
Um die Arbeit zu erleichtern, können grundlegende Konzepte und Regeln über die Welt von Hand
programmiert und eingebaut werden, und dann können neue und komplexere Elemente
durch strukturiertes Lernen darauf aufgesetzt werden, so wie es in der Schule gemacht wird, wenn
wir nach und nach mehr lernen.
Ein Grundgerüst aus konzeptioneller Struktur und rationalem Denken, auf dem das Musterlernen
aufgebaut werden kann, sollte der Kern neuer erfolgreicher KI sein.
Die Fähigkeit, auf der Grundlage eines allgemeinen konzeptionellen Verständnisses
und umfassenden Musterlernens in die Zukunft zu projizieren, wird zu Systemen führen, die
in der Lage sind, in Alltagssituationen mit gesundem Menschenverstand zu handeln.
Systeme mit expliziten Begründungen werden leichter zu verstehen und vertrauenswürdig sein.
Und sie werden in der Lage sein, ihr Verhalten anzupassen, wenn die Welt ihnen etwas anderes
âsagtâ als das, was sie zu erwarten gelernt haben.
Ein KI-System, das nicht über diese grundlegenden Fähigkeiten verfügt, sollte indes niemals
unbeaufsichtigt operieren dürfen, auch wenn es noch so beeindruckend ist.
Die Risiken der Auswirkungen unvorhersehbarer, unmenschlicher Handlungen sind zu groÃ, vor
allem, wenn es wenig oder gar keine Möglichkeiten zur Korrektur und Verbesserung gibt.
Die KI muss eine andere Richtung einschlagen â unser Vertrauen hängt davon ab.
Ronald J. Brachman ist Direktor des Jacobs Technion-Cornell Institutes
und Informatikprofessor an der Cornell University.
Hector J. Levesque ist emeritierter Informatikprofessor an der Universität von Toronto.
==============================================================================================
--
Mit freundlichen GrüÃen
Helmut Schellong