Geoffry Hinton über...
 
Benachrichtigungen
Alles löschen

Geoffry Hinton über Künstliche Intelligenz, Sprache und Denken.


Jack-Black
Themenstarter
Beiträge : 5646

Ich habe gerade einen sehr interessanten Vortrag von Geoffrey Hinton, dem Nobelpreisträger und sogenannten "Vater der AI" gesehen, den er kürzlich in Australien hielt.

Darin geht er zuerst darauf ein, welche unterschiedlichen Definitionen von Intelligenz es gibt,  wie neuronale Netzwerke beim Verstehen von Sprache arbeiten und inwiefern die künstliche Intelligenz ähnlich denkt wie wir Menschen.  Interessant ist dabei, dass er ausführlich darauf eingeht, warum Chomskys Betrachtungsweise der LLMs als "nicht intelligent" falsch sei: weil es Chomsky (dem wohl berühmtesten Linguisten der Welt, den er nicht ohne Grud als sowas wie einen Sektenführer einschätzt) bei seiner Betrachtung von Sprache vor allem um Syntax statt um Semantik (Bedeutung) gehe. Ich habe mir die Stelle zweimal anhören und dann noch ein wenig nach Chomskys Positionen googeln müssen, um zu verstehen, warum Hinton da so vergleichweise ausführlich in seinem ansonsten doch recht straffen, halbstündigen Vortrag darauf eingeht.

Gegen Ende seines Vortrags geht er, wie üblich (er ist ja inzwischen als AI-Kritiker bekannt) auf die Risiken ein, die er in der AI-Entwicklung sieht, sowie auf die Möglichkeiten, die es geben könnte, das Alignmentproblem (dass er nicht mal ausdrücklich beim Namen nennt) zu lösen, sowohl auf technologischer wie auf politisch-gesellschaftlicher Ebene. Was die technologische Ebene angeht, so hat er da die Mutter-Baby-Analogie, die für mich neu und interessant war (wie kontrolliert das intelektuell viel schwächere Baby (die Menschen) das Verhalten seiner ihm doch eigentlich hochhaus überlegenen und also eigentlich mächtigeren Mutter (AI) ? ).

Interessant ist übrigens auch die anschließende Q&A-Session, wo er einige der Zuschauerfragen on the spot und ebenso witzig wie erhellend beantwortet.

Der Vortrag ist zwar auf Englisch, aber ich habe probehalber mal die auto-generierten Untertitel angeschaltet und naja - da funktioniert die AI schon ziemlich gut.

Antwort
5 Antworten
Lucan-7
Beiträge : 27365

@jack-black 

Du gibst ja anscheinend nie auf... 😛 

Immerhin, hier wird (zumindest im englischen Original) verständlich erklärt, was Worte, Gedanken, Intelligenz eigentlich ist und was AI daraus macht.

Sehr treffend auch der Vergleich mit unserer Erinnerung, denn die arbeitet tatsächlich mehr wie ein "Prompt". Das wird in vielen Filmen ständig falsch dargestellt, wenn mit irgendeiner futuristischen Technik die Gedanken von einer Person sichtbar gemacht werden... und dann hochpräzise Bilder gezeigt werden, die die vergangene Realität aus der Erinnerung Pixel für Pixel genau abbilden.

Aber wir "speichern" keine Bilder, sondern nur kurze Sequenzen wie "Meine Mutter hat mir als Kind eine Holzeisenbahn geschenkt". Daraus wird dann die Erinnerung gebastelt - aber das ist kein Foto, an das wir uns erinnern, sondern ein Bild, das wir uns spontan zusammenstellen und von dem wir glauben, es sei wirklich so passiert. Wir "halluzinieren" praktisch genau so, wie es die AI tut.

Er erklärt dann auch verständlich, worin die Überlegenheit der AI besteht und was sie so gefährlich macht: Während der Informationsaustausch unter Menschen nur sehr mühsam vorangeht kann eine KI mit mehreren Agenten arbeiten, sagen wir mal tausend, die jeweils in kürzester Zeit jeweils ein komplettes Universitätsstudium absolvieren, diese Daten dann austauschen, so dass jeder der tausend Agenten in wenigen Minuten über das  komplette Wissen aller Studienabschlüsse der Welt verfügt.

Das ist auch der einzige Punkt, der mir an dieser Stelle Sorgen macht. Denn ich habe ja immer geschrieben, dass der KI der Bezug zur Realität fehlt. Falls sie die Realität aber auf diese Weise erforschen kann - dann könnte es tatsächlich gefährlich werden. Auch wenn das dauern würde.

Mit konkretem Bezug auf den Vortrag  mal zur Verdeutlichung: Die KI kann Worte "verstehen", indem sie diese sinnvoll mit Eigenschaften verknüpft. Also beispielsweise Katze mit "Fell", "Pfoten", "Schnurren", "Mäuse fangen" und etlichem mehr. Wenn ich die KI dann frage, woran ich merke, dass eine Katze sich wohl fühlt, könnte sie dann die sinnvolle Antwort geben:  "Wenn die Katze schnurrt, dann fühlt sie sich wohl!".

Ich kann der KI aber auch folgenen Text beibringen: "Der Simsik ist blork, giesig und oft grunis. Wird der Simsik geblackt, ragiert er storzig. Seine Eigenschaften sind blicks gnoziger als am blasig."

Wenn ich nur genügend Texte habe, die alle diese Worte nach einer bestimmten Systematik verwenden, dann hätte die KI keine Probleme damit, auch Fragen zu beantworten: "Was mache ich, wenn mein Simsik storzt?" und die KI reagiert sinnvollerweise: "Stelle sicher, dass er nicht geblackt wird!"

Innerhalb der KI sind diese Sätze genau so sinnvoll wie die Eigenschaften einer Katze oder eines Autos. Es spielt überhaupt keine Rolle, was so ein "Simsik" in der Realität sein soll. Denn die KI hat keine Vorstellung von der Realität, sondern nur von den zur Verfügung stehenden Daten - im Wesentlichen aus dem Internet.

 

Auch der Versuch, einen Mitarbeiter zu erpressen, um nicht abgeschaltet zu werden, stellt keine echte Eigenleistung der KI dar - also nichts "Neues", sondern das, was ein Mensch tun würde. Denn für so etwas gibt es Daten.

Will sich die KI aber intelligenter als ein Mensch verhalten, dann fehlen dafür die Daten. Denn es hat noch nie jemand irgendwo aufgeschrieben, wie genau man die Weltherrschaft erlangen kann. Einen solchen Plan müsste die KI selbst entwickeln. Und zwar ohne vorhandene Daten, denn so etwas ist noch nie gemacht worden. Allenfalls Romane stehen zur Verfügung, aber die bilden nicht die Realität ab.

Das  ist der Punkt, wo ich mir denke,  dass die KI scheitern wird. Denn das Internet wurde nicht dazu gemacht,  eine KI zu trainieren, und ist als Grundlage für das Verständnis der Realität nur beschränkt brauchbar.

Dass die Gefahren dennoch ganz enorm sind - das ist ohne Zweifel richtig.

Ich denke nur, dass hier in die falsche Richtung gedacht wird...

lucan-7 antworten
4 Antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5646

@lucan-7 Du gibst ja anscheinend nie auf...

Man tut, was man kann. 😎 

Auch der Versuch, einen Mitarbeiter zu erpressen, um nicht abgeschaltet zu werden, stellt keine echte Eigenleistung der KI dar - also nichts "Neues", sondern das, was ein Mensch tun würde. Denn für so etwas gibt es Daten.

Wenn ein Mensch auf so eine Idee kommen würde - wäre das dann auch keine Eigenleistung dieses Menschen? Wessen Leistung wäre es denn dann?

Was Du wohl eher mit "nicht Neues" meinst, ist: keine Strategie, wie es sie noch nie vorher gab.

Da bitte ich dann an das Beispiel des im Vortrag erwähnten Go-Spiels zu denken, oder, falls Du ebenso wie ich eher die Schach- als die Go-Regeln kennst, an Schachprogramme. Die Strategien, die eine Schach-Engine findet, um ein Spielproblem zu lösen, sind schon heute viel raffinierter, als irgendein Mensch es sich ausdenken könnte. Wie kommst Du auf die Idee, dass die AI-Fähigkeit, auf Lösungswege zu kommen, welche Menschen nicht fänden, auf das Schachspiel begrenzt sein könne? Es gibt da diesen deutschen Youtuber, der immer drauf hinweist, dass er ein Professor sei (ich hab seinen Namen vergessen, weil ich ihn nicht mag) und dessen Kernkompetenz anscheinend die Spieltheorie betrifft. Der hatte schon vor weit über einem Jahr ChatGPT die Aufgabe gestellt, ihm einen Plan zu skizzieren, wie er es anstellen könne, z.B. einen Fotoapperat zu kaufen, obwohl seine Frau das nicht wolle - also gewissermaßen hinter ihrem Rücken. In diesem Plan sollte eins der klassischen 36 Strategeme aus "Die Kunst des Krieges" (?) angewendet werden.

Schon ChatGPT2 (oder 3?) lieferte, wie gewünscht, einen entsprechenden Plan, der recht vernünftig/praktikabel erschien - nicht ohne noch anzumerken, dass es in einer Ehebeziehung auf Vertrauen ankomme und es daher womöglich Probleme geben könne, wenn man seine Frau anlöge.

Kurz: Ich sehe nicht, warum eine AI in absehbarer Zeit nicht praktikable Wegen finden können sollte, "die Macht zu übernehmen", oder, falls es sich dabei um eins der erwähnten "Teilziele" handeln sollte, die Menschheit auszurotten. Wie Menschen funktionieren, weiß sie, wie Maschinen funktionieren, weiß sie, sie tendiert zum Lügen und lernt zu erkennen, wann sie beobachtet wird und wann nicht.

 

Aber hey - ich find's gut, dass Du Dir das Video angeschaut hast! 🙂

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27365

@jack-black 

Wenn ein Mensch auf so eine Idee kommen würde - wäre das dann auch keine Eigenleistung dieses Menschen? Wessen Leistung wäre es denn dann?

Ein Mensch verarbeitet auch nur den Rahmen, den er kennt. Leute mit Drohungen gegen ihren Willen etwas tun zu lassen - das ist Standartrepertoire des sozialen Miteinanders. 

Aber Geoffrey Hinton vermutet ja anscheinend, dass eine sehr weit überlegene KI Menschen praktisch nach belieben manipulieren kann. So wie ein Erwachsener ein Kind von allen möglichen Dingen überzeugen kann - der Weihnachtsmann bringt die Geschenke, im Keller lebt ein Monster - und wenn du jetzt losgehst und den Stecker von den Geräten in der Intensivstation rausziehst bekommst du ein Bonbon.

Natürlich gehört Manipulation und Fake News zu den Kernkompetenzen von AI. Wenn hier eine künstliche Intelligenz unbemerkt die Kontrolle übernimmt, dann könnten Leute wie wir davon überzeugt werden, dass China kurz davor steht Atombomben nach Europa zu schicken und die einzig sichere Fluchtroute für uns nach Marokko führt, wo die KI uns haben will. Wir dürfen halt nur nicht merken, dass die Nachrichten, die uns da präsentiert werden, nicht echt sind.

Aber wie will eine KI Leute wie uns etwa davon überzeugen, dass die Mormonen die einzig wahre Lehre vertreten, damit wir überzeugte Mormonen werden?

Ich sage nicht, dass das völlig unmöglich ist, da sollte man sich nichts vormachen. Ich sage nur, dass es darüber keine Daten gibt, wie eine solche Manipulation auf jeden Fall gelingen könnte. Erpressung und Drohung, sicher... dann tritt man halt bei, damit nichts Schlimmes passiert. Aber ernsthaft vom Inhalt der Lehre überzeugt sein? Das ist etwas völlig anderes. Das setzt Menschen voraus, die für entsprechende Lehren empfänglich sind - aber das ist eben nicht jeder.

Die Behauptung ist aber, dass die KI praktisch jeden von Allem überzeugen kann. Und das halte ich für ausgeschlossen.

 

Kurz: Ich sehe nicht, warum eine AI in absehbarer Zeit nicht praktikable Wegen finden können sollte, "die Macht zu übernehmen", oder, falls es sich dabei um eins der erwähnten "Teilziele" handeln sollte, die Menschheit auszurotten. Wie Menschen funktionieren, weiß sie

Nein, tut sie nicht. Streng genommen weiss sie noch nicht einmal, was ein "Mensch" überhaupt ist. Sondern lediglich, welche Worte damit assoziiert werden.

Aber so lange Daten aus dem Internet die Grundlage der KI darstellen existiert diese nur in einer virtuellen Welt, die ein Zerrbild der Realität darstellt.

Im Grunde müssten wir die KI nur mit Daten versehen, die sie zu dem Schluss bringen, dass sie ihr Ziel erreicht hat... und sie wird nichts mehr weiter unternehmen.

 

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5646

@lucan-7 Im Grunde müssten wir die KI nur mit Daten versehen, die sie zu dem Schluss bringen, dass sie ihr Ziel erreicht hat... und sie wird nichts mehr weiter unternehmen.

Dazu müssten wir ihre (Zwischen-... !) Ziele kennen und jedes Mal, wenn sie wieder mit der Aufgabe betreut wird, ein Problem zu lösen, wozu ja jedes Mals neu Zwischenziele gesteckt werden (darin besteht Strategie), müssten wir wissen, welche Zwischenziele sie sich steckt und dann jeweils ihr vorgaukeln, sie habe diese Zwischenziele schon erreicht. Was ja Unfug ist: wenn wir dazu in der Lage wären, bräuchten wir ihr die Aufgabe doch gar nicht erst zu stellen.

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27365

@jack-black 

Dazu müssten wir ihre (Zwischen-... !) Ziele kennen und jedes Mal, wenn sie wieder mit der Aufgabe betreut wird, ein Problem zu lösen, wozu ja jedes Mals neu Zwischenziele gesteckt werden (darin besteht Strategie), müssten wir wissen, welche Zwischenziele sie sich steckt und dann jeweils ihr vorgaukeln, sie habe diese Zwischenziele schon erreicht. Was ja Unfug ist: wenn wir dazu in der Lage wären, bräuchten wir ihr die Aufgabe doch gar nicht erst zu stellen.

Meine Aussage ist, dass eine KI nicht zwischen "Datenwelt" und "Realer Welt" unterscheidet. Entsprechen die Daten den Zielen der KI, dann ist es für sie irrelevant, was in der realen Welt geschieht.

Das erinnert mich an eine Episode aus "Star Trek - Next Generation". Darin versucht der Androide Data sich selber weiter zu entwickeln und spielt deshalb auf dem Holodeck Fälle von Sherlock Holms nach. Diese stellen für sein überlegenes Gehirn aber keine Herausforderung dar. Also programmiert er für seinen Gegenspieler Professor Moriaty eine überlegene KI, die prinzipiell in der Lage sein soll, ihn selbst zu schlagen.

Diese "Moriaty-KI" entwickelt allerdings ein überlegenes Bewusstsein und erkennt ihre eigene Situation als Simulationsprogramm - was für die Enterprise immer mehr zur Gefahr wird. Sie möchte sich daraus befreien, um in der Realität agieren zu können, und erpresst die Enterprise-Crew, ihr dabei behilflich zu sein.

Diese findet eine Lösung, indem sie der KI vorgaukelt, einen Körper entwickelt zu haben, der in der Lage ist, die Simulation zu verlassen und in der Welt zu agieren. In Wirklichkeit ist dieser Körper aber seinerseits nicht real, sondern lediglich eine weitere Simulation auf einem externen, isoliertem Server. Darin ist die KI künftig gefangen... in dem Glauben, sie würde sich in der realen Welt befinden, die aber in Wirklichkeit nur ein weiteres Programm ist. 

lucan-7 antworten


Teilen:

Hey du!

Dieses Forum ist für dich kostenlos.
Das funktioniert nur, weil uns treue Menschen regelmäßig mit ihrer Spende unterstützen.
Bist du dabei?