Folgen abschätzen können: Künstliche Intelligenz

Zur Abschätzung der Folgen von Künstlicher Intelligenz hat sich aktuell Geoffrey Hinton in einem Interview geäußert. Er ist wissenschaftlicher Wegbereiter des Deep Learning und hat mit anderen Forschern Verfahren mitentwickelt, die als Basis moderner künstlicher Intelligenz gelten.

Eliza und mehr …

Alle Kids der Commodore-Generation kennen es, einige davon haben sich die Mühe gemacht, den Programmcode von „Eliza“ abzutippen und sich danach mit ihrem Computer zu unterhalten. Mit Begeisterung – über eine aus heutiger Sicht recht einfach gehaltene Unterhalt.

In Chat der Suchmaschine Bing bringt die Frage „Was ist Eliza, das Computer Programm“ die folgende Antwort und damit ein Beispiel wie Unterhaltungen mit Computern heute aussehen:

„ELIZA ist ein Computerprogramm, das von Joseph Weizenbaum am MIT Artificial Intelligence Laboratory entwickelt wurde. Es ist ein frühes Programm zur Verarbeitung natürlicher Sprache und sollte die Möglichkeiten der Kommunikation zwischen einem Menschen und einem Computer über natürliche Sprache aufzeigen. Der Name ELIZA wurde in Anlehnung an das Schauspiel Pygmalion von George Bernard Shaw gewählt.

Ich hoffe, das hilft Ihnen weiter.“

Verglichen mit den Möglichkeiten einer künstlichen Intelligenz auf Basis sich selbst weiter entwickelnder neuronaler IT-Modelle ware die Konversation mit Eliza geradezu banal.


KI: Künstliche Intelligenz oder Katastrophe?

Geoffrey Hinton:

Die Menschen sind auch geteilter Meinung darüber, ob die Folgen dieser neuen Form von Intelligenz, wenn sie denn existiert, vorteilhaft oder apokalyptisch sein werden. „Ob man glaubt, dass eine solche Superintelligenz gut oder schlecht sein wird, hängt stark davon ab, ob man Optimist oder Pessimist ist“, sagt er. „Wenn man die Leute bittet, das Risiko abzuschätzen, ob etwas Schlimmes passiert – etwa wie hoch die Wahrscheinlichkeit ist, dass jemand in der Familie wirklich krank wird oder von einem Auto angefahren wird –, gibt der Optimist eine Wahrscheinlichkeit von 5 Prozent an und der Pessimist eine von 100.“ Ein leicht depressiver Mensch werde sagen, dass die Wahrscheinlichkeit bei vielleicht 40 Prozent liegt. „Und damit hat er in der Regel recht.“


Urteilen auf Basis falscher Annahmen

Die Annahmen zur Beurteilung der Leistungsfähigkeit, Grenzen aber auch Gefahren von KI sind oft falsch, hierzu wird ausgeführt:

  • „Halbwahrheiten und falsch erinnerte Details seien Kennzeichen der menschlichen Konversation: „Konfabulation ist ein Merkmal des menschlichen Gedächtnisses.“ “ Im Ergebnis muss man das auch einer IT, die auf Basis neuronaler Struktur Antworten liefert, auch zugestehen.
  • „Das Problem ist, dass die meisten Menschen ein hoffnungslos falsches Bild davon haben, wie Menschen tatsächlich arbeiten.“. Damit werden Vergleiche, wie gut ein Computer im Vergleich zu Menschen arbeitet, schwierig oder falsch.
  • KI polarisiert: „Hinton glaubt mittlerweile, dass es zwei Arten von Intelligenz auf der Welt gibt: Gehirne von Tieren und neuronale Netze. „Es ist eine völlig andere Form der Intelligenz“, sagt er. „Eine neue und bessere Form der Intelligenz.“ “ Daher schwanken auch die Ergebnisse in der Bewertung / Diskussion.

Beurteilung der Folgen von Technologie

Eine Beurteilung von Folgen einer Technologie hängt immer auch von der geistigen Vorstellungs- aber auch Urteilskraft des Beurteilers ab. Was ist, wenn die technologische Entwicklung schneller beziehungsweise dynamischer abläuft als die Entwicklung unseres Geistes? Vergleiche hierzu „Hatten wir das nicht schon mal? Die Technik ist dem Geist voraus


Quelle:

Will Douglas Heaven: MIT Technology Review „Erschreckend, wenn man das sieht“: KI-Pionier Geoffrey Hinton über KI-Modelle“, „Erschreckend, wenn man das sieht“: KI-Pionier Geoffrey Hinton über KI-Modelle | heise online


Weitere Informationen:

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert