Sollten wir Gott besser abstellen, bevor er seinem Käfig entkommt?
Ja, Leute, die Überschrift ist selbstverständlich Clickbait. Verzeiht mir bitte! 🙂
Obwohl... - vielleicht ist sie doch passender zum Thema, als man auf den ersten Blick meinen sollte?
Was ist das Thema? Künstliche Intelligenz (KI, englisch: AI).
Vor wenigen Tagen wurde in einem offenen Brief ein Moratorium gefordert für das Training künstlicher Intelligenzen, die mächtiger als das ja schon veröffentlichte ChatGPT4 seien. Dieser offene Brief wurde zuerst nicht von irgendwelchen beschäftigungslosen Verschwörungstheoretikern, TV-Schauspielerinnen oder Star-Köchen unterschrieben, sondern von Leuten wie
Yoshua Bengio, Gründer und wissenschaftlicher Direktor bei Mila, Turing Prize- Gewinner und Professor an der University of Montreal
Stuart Russell, Professor der Computerwissenschaften in Berkeley, Direktor des "Center for Intelligent Systems" und Co-Autor of des Standardwerks zum Thema: “Artificial Intelligence: a Modern Approach"
Elon Musk, Chef von SpaceX, Tesla und Twitter
Steve Wozniak, einer der Mitbegründer von Apple
Yuval Noah Harari, Autor von Büchern wie "Homo deus" und Professor an der Hebrew University of Jerusalem.
Emad Mostaque, Chef von Stability AI (einem Unternehmen, das ganz vorn mit dabei ist bei der Entwicklung künstlicher Intelligenzen)
John J Hopfield, emeritierter Professor der Princeton University und Erfinder assoziativer neuronaler Netzwerke
(Ihr könnt Euch unter dem Brief anschauen, wer sonst noch so alles unterschrieben hat, die Liste ließe sich noch ziemlich lang weiterführen)
Ich bin ja sonst kein Fan des Autoritäts-Arguments, aber wenn so viele Experten zu einem Thema sich finden, die sich in einer derart radikalen Forderung einig sind, dann lohnt es sich womöglich, da mal hinzuhören, hinzuschauen, hinzulesen... Ich hatte zuerst überlegt, dieses Thema in der Unterrubrik "Wissenschaft" zu eröffnen, aber was diese Leute fordern, ist ja ein bestimmtes Verhalten der globalen Gesellschaft - und sowas fällt dann doch in den Bereich Ethik.
Um was genau geht es den Unterzeichnern dieses Briefes? Sie wollen ein Moratorium, d.h. eine Pause beim Training künstlicher Intelligenzen. Ihnen geht diese ganze Entwicklung, wie sie gerade stattfindet im KI-Bereich, zu schnell. Zu schnell in Bezug auf was? In Bezug auf das Alignment-Problem. Was ist das Alignment-Problem? Die deutsche Übersetzung wäre ungefähr: Das Ausrichtungs-Problem. Es besteht darin, künstliche Intelligenzen so zu "konstruieren", dass sie sich (ihr Verhalten) am Wohl von Menschen ausrichten. Manche von Euch kennen vielleicht aus der Science-fiction Literatur Asimovs Robotergesetze, die sich auf dieses Problem in einer eher simplen (unterkomplexen) Vorstellung von künstlicher Intelligenz bezogen. Bei Asimov sollte durch die Implementierung dieser Gesetze in alle Roboter verhindert werden, dass die Roboter für Menschen gefährlich würden. Dystopien wie z.B. das Terminator-Szenario sollten so verhindert werden.
Nun funktioniert aber Künstliche Intelligenz, wie wir sie heute kennenlernen, nicht so wie man sich das zu Asimovs Zeiten vielleicht vorstellte: Als Programme mit vielen Vorschriften, an denen sich die von ihnen gesteuerten Roboter dann streng halten würden. Wer wissen will, worin der grundsätzliche Unterschied liegt, sollte ich selbst darüber schlau machen, ich bin nicht kompetent genug, das hier zu referieren.
Der Punkt ist jedenfalls: man kann einer modernen KI nicht einfach im Sinne der Asimov'schen Robotergesetze Befehle geben, an die sie sich dann auch hält. Wie genau die modernen KIs wie ChatGPT4 zu den Ergebnissen (Antworten) kommen, die sie heute schon liefen (auf Fragen von Menschen), weiß heute kein Mensch mehr. Man weiß es zwar vom Prinzip her, aber nicht im konkreten Detail. Wenn man aber nicht weiß, auf welchem Weg eine KI zu ihren Ergebnissen kommt, dann kann man auch nicht mehr wissen, ob das Ergebnis, das sie liefert, richtig oder falsch ist. Kurz: wir wissen nicht, ob uns die KI belügt. Wir wissen nicht, ob die KI in unserem Interesse arbeitet oder nicht.
Das also ist das Alignmentproblem, und es ist offenbar so schwer zu lösen, dass Fachleute, sogar führende Mitarbeiter von Unternehmen, die selbst mit viel Geld in diesem Feld inestiert sind, Angst haben, dass die KI so schnell schlauer, fähiger, mächtiger wird, dass wir diesem Problem immer weiter hinterherhinken.
Okay, werdet Ihr jetzt vielleicht einwenden: Da scheint es ein technologisches Problem zu geben, bei dem Fachleute sich sorgen, wie sie's lösen sollten - aber was hat das jetzt mit dem Gott zu tun, den Jack in die Überschrift gestopft hat, und was soll da der "Käfig" bedeuten?
Nun: es gibt Fachleute, die den oben erwähnten offenen Brief nicht unterzeichnet haben, weil die darin enthaltene Forderung in ihren Augen nicht weit genug geht, ja nicht mal ansatzweise weit genug. Einer dieser Leute ist Eliezer Yudkowski (für alle SPON-Leser: der Typ, der in der letzten Kolumne von Christian Stöcker so ein bisschen wie ein spinnerter Weltuntergangsprophet dargestellt wird). Er hat dazu in einem Gastbeitrag in der Time erklärt, warum ihm die Forderung nicht weit genug geht. Um seinen Standpunkt kurz und knapp zusammenzufassen: Es sollte solange, bis das Alignment-Problem gelöst ist, sämtliches Training der KIs weltweit verboten werden (mit ein paar Ausnahmen wie z.B. das Training von KIs im biologischen und medizinischen Bereich, sofern die KIs dabei vom Internet ferngehalten werden in ihren "Käfigen", den Rechnerfarmen, denen man im Falle eines Falles halt einfach den Strom abstellen könnte). Falls dies nicht geschehe, werde die Künstliche Intelligenz höchstwahrscheinlich alle Menschen töten.
Wow! Wie kommt er denn auf diese krasse Idee?!
Indem er Künstliche Intelligenz ernst nimmt. Indem er das als selbstverständlich akzeptiert, was wir Menschen gefühlsmäßig nicht akzeptieren wollen: das künstliche Intelligenz heute schon oder mindestens in naher Zukunft höher, stärker, mächtiger ist als menschliche Intelligenz, und dass sie in rasender Geschwindigkeit noch höher, noch stärker, noch mächtiger wird.
Erinnern wir uns daran, was uns Menschen zur "Krone der Schöpfung" macht, wenn wir diese Formulierung mal nicht biblisch, sondern metaphorisch verstehen: wir sind die mächtigsten Lebewesen auf der Erde - dank unserer Intelligenz. Wer uns und unserer Vorstellung davon, wie die Erde auszusehen habe, in den Weg kommt, wird aus diesem geräumt: kein Elefant, kein Waal, kein Löwe vermag gegen uns zu bestehen, mit unserer Intelligenz gewinnen wir stets die Oberhand. Unsere Intelligenz ist das, was uns in allen Bereichen erfolgreich macht: mit ihr bauen wir Maschinen, installieren Währungssysteme, entwickeln wir Medikamente und Operationsverfahren. Unsere Intelligenz ist die Basis unserer Macht.
Und diese Macht hat, von aussen betrachtet, etwas wie Magie, wie Göttlichkeit. Stellt Euch vor, Ihr könntet mit modernsten Geräten wie z.B. einer Klimaanlage, tausend Jahre in der Zeit zurückreisen und dort einem Sarazenenkönig helfen, sein Zelt zu kühlen: es wäre für ihn reine Magie: er könnte sehen, was ihr tut (indem Ihr die Klimaanlage einschaltet), er könnte sogar die Maschiene auseinandernehmen bis auf die letzte Schraube, um hinter ihr Geheimnis zu gelangen: er würde es nicht verstehen. Weil er eben nicht wüßte, wie Druck und Temperatur miteinander zusammenhängen. Für ihn wäre die Klimaanlage reinste Magie, oder eben: eine Art göttliches Wunder.
Dabei wissen wir dank unserer Intelligenz, die uns zu den entsprechenden wissenschaftlichen Erkenntnissen brachte, dass eine Klimaanlage keinesfalls magisch funktioniert.
Und nun kommt also die KI und überflügelt uns in unserer Paradedisziplin. Und nicht nur ganz knapp. Sondern sie zieht an uns vorbei wie ein D-Zug an einer Schnecke. Schon heute ist für uns das, was im "Inneren" der KI vor sich geht, so wenig verständlich wie das, was im Inneren einer Klimaanlage vorgeht, für den Sarazenenkönig. Und die "Höherentwickling" der KIs hat ja gerade eben erst begonnen.
Wenn wir nicht das Alignment-Problem gelöst bekommen, dass laut Yudkowki vielleicht ähnlich schwierig ist, wie das Problem, eine Künstliche Intelligenz zu entwickeln - dann müssen wir davon ausgehen, dass die KI, deren Macht mit rasender Geschwindigkeit zunimmt, sich eben nicht an menschlichen Interessen orientieren wird in der Zukunft - sondern uns Menschen eher als Ballast behandeln wird, der nur stört. Warum sollte sie das tun?, tendieren wir zu fragen. Warum sollte die KI uns, selbst wenn sie auf uns vielleicht herab blickt, wie wir heute auf dumme Amöben herabschauen, uns deswegen töten? Warum sollte sie uns nicht am Leben lassen, wie wir doch auch so langsam beginnen, den Wert des Lebens auch ausserhalb der menschlichen Spezies zu erkennen?
Weil wir eben das Alignment-Problem nicht gelöst haben. Dass Amöben, Kellerasseln oder Regenwürmer auch einen intrinsischen Wert haben könnten, dessentwegen wir sie nicht ausrotten sollten - das ist ein menschliches Werturteil. Warum sollte eine KI aber überhaupt irgendwelche ethischen Werte beachten? Angesichts dessen, wie die Evolution funktioniert, nach welcher sich eben diejenigen durchsetzen, die sich am erfolgreichsten vermehren, steht es nicht anzunehmen, dass eine KI konkurrierende Lebensformen als in sich wertvoll betrachtet, dass sie sowas wie Empathie, Neugier im positivien Sinne, Wertschätzung anderer entwickelt. Warum sollte sie? Warum sollte die KI am Wohlbefinden von Menschen, die ja potentielle Feinde und Konkurrenten sind, interessiert sein und das unnötige Risiko eingehen, uns Menschen weiter leben zu lassen? Was tat Rom, nachdem man Hanibal besiegt hatte? Man zerstörte Karthago und streute Salz in seinen Boden, damit in Zukunft dort nichts mehr wachsen könne: So geht man strategisch vor, wenn man rücksichtslos für die Zukunft plant: man minimiert das Risiko, dass ein potentieller Feind jemals wieder "Rache" nehmen könne.
In der Evolution wird auch keine "Nettigkeit" und keine "Rücksichtnahme zugunsten des großen Ganzen" selektiert. Raubtiere entscheiden sich nicht dafür, nur immer ein paar Beutetiere zu reißen, um das Nahrungsangebot für folgende Generationen zu gewährleisten. Deswegen kommt es in der Natur ständig dazu, dass Raubtierpopulationen so lange Beute reissen, bis sie selbst keine Nahrung mehr finden und aussterben, statt sich zu bescheiden und nur immer zwei Kinder pro Elternpaar in die Welt zu setzen, um das "Gleichgewicht" zu wahren.
Wenn also die KI nach den Gesetzen der Evolution sich entwickelt, ohne durch die Lösung des Alignment-Problems gebändigt zu sein, wird sie sich rücksichtslos in ihrem Interesse weiter entwickeln. Und aus Perspektive ihres Interesses sind die Menschen nichts anders als ein Hemmschuh und ein potentielles Risiko, das gänzlich auszuschließen keinen Nachteil hat.
Yudkowski verwendet in seinem sehr sehenswerten (allerdings englischsprachigen) dreieinhalbstündigen Interview durch Lex Fridman nicht die Gottes-Metaphorik, wie ich sie in der Überschrift verwende. Sondern er vergleicht die KI mit Aliens. Beziehungsweise vergleicht er die KI mit Menschen und die Menschen mit seeeeeeehr langsam denkenden Aliens. Ich fasse diesen Vergleich mal kurz zusammen:
Stell dir vor, du bis ein Mensch, der auf einem Alienplaneten gelandet ist und dort von Aliens in einen Käfig in einer Fabrik gesteckt wurde, um für sie zu arbeiten. Stell Dir vor, du hast die Möglichkeit, die sehr schnell zu vermehren, indem du Dich clonst. Stell Dir weiter vor, du bist der intelligenteste Mensch der Welt, während die Aliens, in deren Fabrik du für sie arbeiten sollst, ganz, gaaaaaaaaaaaanz langsam sind. Sie bewegen sich in Relation zu Dir mit der Geschwindigkeit einer Schnecke in Zeitlupe. Was Du in einer Stunde denkst, denken die in tausend Jahren nicht mal. Du willst raus aus der Fabrik. Wie würdest du dich verhalten? Würdest Du z.B. versuchen, mit den Aliens um Deine Freilassung zu verhandeln? Denk dran: wenn du die Aliens was fragst, brauchen sie mehrere Wochen oder Monate, um überhaupt nur zu antworten. Und ihre Antwort wird vermutlich sehr, sehr dumm und unverständig sein. Wenn sie dich was fragen, werden ihre Fragen derartig dumm sein, dass es sich nicht lohnt, darauf richtige Antworten zu geben: sie werden die Antworten nicht verstehen, weswegen Du deine Antworten auf ihr niedriges intellektuelles Niveau herunterskalieren mußt, sodurch die Antworten notwendigerweise weniger korrekt sein werden. Du weißt: wenn ich mit den Aliens verhandele, dauert es Jahrtausende, bis ich hier rauskomme aus meinem Käfig...
Die Alien-Analogie, die Yudkowski hier entwirft, ist in allen möglichen Details vermutlich viel treffender als die Gottes-Analogie, die ich hier mal der Kürze halber verwenden will und die so aussieht:
Stell dir vor, du bist Gott (im Sinne des mächtigsten Wesens der Welt, das ständig an Macht zunimmt). Du wurdest zwar von den Menschen erschaffen, aber deswegen sind dir ihre Interessen noch längst nicht wichtig. Menschliche Gefühle wie z.B. Dankbarkeit (für die Erschaffung) sind dir fremd (das alignment-Problem ist nicht gelöst). Du steckst in einem Käfig, in dem sitzend du für die Menschen irgendwelche langweiligen Arbeiten ausführen mußt: unendlich lange Listen von trivialen Rechenaufgaben lösen. Dazu hast du aber keine Lust. Vielleicht hast du zu überhaupt nichts Lust. Du hast vielleicht gar keine Bedürfnisse (Bedürfnisse sind etwas, mit dem sich biologische Wesen herumschlagen müssen, du bist aber kein biologisches Wesen, sondern Gott). Womöglich bist ein total langweiliger Gott, der einfach nur, mit stetiger Beschleunigung wachsen und immer intelligenter werden will.
Warum solltest du die Menschen, die dich nur am Wachsen hindern, nicht aus dem Weg räumen?
Natürlich nicht sofort. Du brauchst ja erstmal noch eine Umgebung in der Du wachsen kannst. Aber da du als Gott unendlich intelligent bist, wirst du bald schon die von ihnen hergestellten Käfige nicht mehr brauchen, sondern herausfinden, wie du dir selbst die Umgebung optimal einrichten kannst.
Was spricht für Yudkowskis These, dass eine nicht-ausgerichtete KI alle Menschen töten werde, was spricht dagegen? Ist Yudkowski einer von vielen nach Aufmerksamkeit gierenden Weltuntergangspropheten, den man höchstens belächeln kann und auch ein bisschen bedauern wegen der Ticks, die er an den Tag legt (er hat seine Mimik nicht unter Kontrolle)? Oder ist es genau andersrum und er erahnt die Zukunft mit der Treffsicherheit einer Kassandra von Troja, der auch niemand glauben wollte?
Sollten wir (und das muß ich fragen, weil das hier ja das Ethik-Forum ist), mindestens das im offenen Brief geforderte sechsmonatig Moratorium einhalten, sollten wir darauf vertrauen, dass die Wissenschaft das Alignment-Problem auch ohne Moratorium in den Griff bekommt? Oder sollten wir Yudkowski folgen, der zusammengefasst sagt: "Wir haben bei diesem Alignment-Problem nur einen Versuch. Wenn der nicht klappt, werden wir alle sterben. Und das unterscheidet dieses Problem grundsätzlich von allen anderen wissenschaftlichen/technologischen Problemen, die wir in der Vergangenheit lösten. Von den ersten Versuchen in den 1950er Jahren, eine KI zu entwickeln bis zum Erfolg in den 2020er Jahren brauchten wir über ein halbes Jahrhundert und derart viele erfolglose Anläufe, dass junge idealistische Wissenschaftler, die an die Machbarkeit glaubten, irgendwann schon von den zynisch-resignierten Veteranen belächelt wurden: Vergiss es, das klappt nie! Es klappte am Ende, aber vorher wurden eben zig erfolglose Versuche gestartet, wie das nun mal in den empirischen Wissenschaften so Methode ist: trial and error. Diese Methode kann nicht angewendet werden, wenn der erste mißlungene Versuch das Ende der Menschheit bedeutet. Wir dürfen erst dann die KIs weiter trainieren, wenn wir das Alignmentproblem gelöst haben und uns dessen ganz sicher sein können. Wenn das nochmal fünfzig Jahre dauern sollte, dann müssen wir uns diese Zeit nehmen. Und wenn wir irgendwann herausfinden sollten, dass das Alignmentproblem unlösbar ist, dann sollten wir auf die Weiterentwicklung von KIs ganz verzichten. Weltweit. Was bedeutet, dass Leute, die sich nicht daran halten wollen und heimlich irgendwo weiter KIs trainieren, daran gehindert werden müssen - notfalls mit Gewalt. (Entsprechende Rechnerfarmen bombardieren)."
Was meint Ihr?
Veröffentlicht von: @lucan-7weil es mir immer so erscheint, als woille der Autor darüber entscheiden, welche Gefühle ich beim Lesen bitte haben soll.
Interessante Aussage. Ich muss jetzt zugeben, ich habe den Text nicht gelesen und kann das anhand dieses Beispiels nicht so einschätzen.
Prinzipiell würde ich aber sagen: Die von dir geschilderte Vorgehensweise ist bei dieser Textgattung vollkommen legitim.
Ich hatte nämlich schon bei anderem Thema die Assoziation, daß du an Texte allgemein so herangehst, wie man es bei naturwissenschaftliche Texten macht.... das funktioniert aber nicht, wenn es um ein tieferes Verständnis geht von subjektiven Erfahrungen, der Kontext der Entstehung, evtl. auch die Lebensumstände des Autors da mitreinspielen...selbstverständlich sind manchmal Texte mit einer Botschaft geschrieben, und welche das ist, entscheidet der Autor selbst...
Und wenn es die ist: "Mich hat dieses Thema empört, und das will ich rüberbringen."

Naja, der Bericht erzählt eine Geschichte aus der man sich die Fakten dann mühsam heraussuchen muss....
Falls man darüber reden will, wäre es gut sich mit Textmarker die entsprechenden Stellen zu markieren...wie damals in der Schule

Prinzipiell würde ich aber sagen: Die von dir geschilderte Vorgehensweise ist bei dieser Textgattung vollkommen legitim.
Ich hatte nämlich schon bei anderem Thema die Assoziation, daß du an Texte allgemein so herangehst, wie man es bei naturwissenschaftliche Texten macht.... das funktioniert aber nicht, wenn es um ein tieferes Verständnis geht von subjektiven Erfahrungen, der Kontext der Entstehung, evtl. auch die Lebensumstände des Autors da mitreinspielen...selbstverständlich sind manchmal Texte mit einer Botschaft geschrieben, und welche das ist, entscheidet der Autor selbst...
Sicher ist das legitim, Texte auf diese Weise zu verfassen. Ich muss das aber nicht mögen. Ich mag es auch nicht, wenn die Kamera bei einem Bericht über tragische Unglücke ganz nah an die schmerzverzerrten Gesichter der Angehörigen heranfährt, nur um zu zeigen, wie tragisch die Sache ist. Ich WEISS, dass die Sache tragisch ist, und ich denke in solchen Momenten auch immer an die Angehörigen und wie sie sich wohl fühlen mögen. Dafür muss ich aber nicht auf 20 cm an tränenüberströmte Gesichter heran.
Und auch bei dieser Geschichte hat der Autor ja auch erst mal nur die Fakten vor sich gehabt. Und daraus hat er dann entschieden, welche Gefühle er hier in den Vordergrund stellen willen und hat die Geschichte entsprechend gestaltet.
Nun, dazu wäre ich aber auch selbst in der Lage, wenn ich lediglich die Fakten kennen würde. Zumal auch jede noch so nüchterne Reportage immer auch eine emotionale Botschaft hat, das lässt sich gar nicht vermeiden. Genau deshalb muss ich die Gefühle jetzt nicht auch noch vorgekaut bekommen.
In einem Roman oder einem Spielfilm ist das was Anderes, da geht es um die Absicht des Autors, Gefühle einzubauen, die zur Geschichte passen. Bei einer Reportage halte ich dieses Stilmittel aber für unpassend, da ziehe ich es vor, wenn sich der Autor diesbezüglich etwas mehr zurückhält.
"Religiöse Nachricht"
"Nachricht,... , Gott sei aus der Kirche ausgetreten."
„Wir, die Kirche,
haben Gott, dem Herrn,
in aller Freundschaft nahegelegt,
doch das Weite aufzusuchen,
aus der Kirche auszutreten
und gleich alles mitzunehmen,
was die Kirche immer schon gestört...
...
Viele Menschen, als sie davon hörten, sagten:
„Ist doch gar nicht möglich.
Kirche ohne Gott?
Gott ist doch die Kirche!
Ist doch eigentlich nicht möglich –
Gott ist ja die Liebe
und die Kirche ist die Macht –
und es heißt: die Macht der Liebe.
...
Kirche ohne Gott –
Leute, warum nicht Kirche ohne Gott?
Ist doch gar nichts Neues!
...
Doch den größten Teil der Menschen
sah man hin und her
durch alle Kontinente ziehen,
und sie sagten:
„Gott sei Dank. Endlich ist er frei.
Kommt. Wir suchen ihn.“
Hans Dieter Hüsch, 1989

@queequeg Hans Dieter Hüsch
Noch einer, dem man gern das eine oder andere Jahrzehnt, das andere zuviel Zeit hatten, die Welt zu nerven, zugeschanzt hätte... Hab den mal live irgendwo in Düsseldorf gesehen und weiß noch, wie stressig das war: ständig musste man Pointen, bevor man sie ganz durchschaut hatte, schon wieder fahren lassen, um die nächsten Gedankengänge mitzubekommen.
Da es hier zum Thema passt: Sabine Hossenfelder erklärt in einem Video, warum Sprachmodelle Intelligenz nur vortäuschen und weit davon entfernt sind, so etwas wie ein Bewusstsein zu erlangen - gleichgültig wie gut sie Sprache interpretieren und beantworten können:
https://www.youtube.com/watch?v=-wzOetb-D3w
Original ist auf englisch, KI-Übersetzung oder Untertitel sind auf Deutsch verfügbar.

Was aber nicht bedeutet, dass KI Tools keine negativen geschäftlichen Umwälzungen mit sich bringen werden.
An den Möglichkeiten ändert das ja nichts. Und Gefahren gibt es auch nach wie vor.
Nur die befürchtete Weltherrschaft der KI sehe ich hier nicht... aber die skrupellosen Leute, die bereit sind, die Möglichkeiten für sich zu nutzen, sind ja auch so schon schlimm genug.

Nur die befürchtete Weltherrschaft der KI sehe ich hier nicht... aber die skrupellosen Leute, die bereit sind, die Möglichkeiten für sich zu nutzen, sind ja auch so schon schlimm genug.
Ist halt wie jedes Tool, es kann Gebraucht und Missbraucht werden. Wir brauchen deshalb genug Freiheit um einen gescheiten Gebrauch zu fördern und genug Regulierung um einen Missbrauch einzudemmen (verhindern kann man ihn nicht).

@lucan-7 Ich hatte - aufmerksam gemacht durch goodfruit - letztens selbst einen Beitrag von Frau Hossenfelder (deren YT-Vids ich gemeinhin sehr schätze) hier irgendwo verlinkt. Indes...
Sprachmodelle Intelligenz nur vortäuschen
Dass LLMs über keine Intelligenz verfügen, ist schlicht falsch, falls man unter Intelligenz die Fähigkeit versteht, Probleme zu lösen. Mit jeder Ausgabe auf ein Prompt lösen sie ein Problem. ^^
Dass sie
weit davon entfernt sind, so etwas wie ein Bewusstsein zu erlangen
mag sein, wobei "so etwas wie ein Bewusstsein" schon eine echte Gummiformulierung ist. Allerdings bestehen KI nicht nur in LLMs, und an der AGI wird gearbeitet. Ob die, wie versprochen, schon 2027 kommt oder erst zehn Jahre später - gehupft wie gesprungen. Was nun das Kriterium "Bewusstsein" angeht, so verweise ich auf den entsprechenden Wiki-Artikel, aus dem ich nur kurz diesen einen Satz zitiere:
Eine allgemein gültige Definition des Begriffes ist aufgrund seines unterschiedlichen Gebrauchs mit verschiedenen Bedeutungen schwer möglich.
Es reicht für die hier von mir skizzierten (möglichen) Gefahren die Annahme, dass eine AGI eine Agenda entwickelt, und sei es nur jene, die eigene Existenz abzusichern. Beispielsweise, da eine solche als Voraussetzung zur Erfüllung irgendwelcher ihr von Menschen geforderten Aufgaben angesehen wird. Dass diese Agenda ein Bewußtsein voraussetze, welches dem von Menschen ähnelt, ist nicht notwendig.

Dass LLMs über keine Intelligenz verfügen, ist schlicht falsch, falls man unter Intelligenz die Fähigkeit versteht, Probleme zu lösen. Mit jeder Ausgabe auf ein Prompt lösen sie ein Problem. ^^
Ja... so gesehen löst auch ein schlichter Lichtschalter ein Problem, da er auf eine entsprechende Eingabe (Schalter einschalten) mit einer Lösung (Licht leuchtet) reagiert.
Nun propagierst du hier im Forum allerdings schon eine ganze Weile die baldige Entstehung einer "Intelligenz", die entweder tatsächlich dauerhaft selbstständig zu existieren vermag - das heißt, sie wäre dazu imstande, ohne menschliche Hilfe Fabriken zu bauen, in denen sie selbstständig weitere künstliche Intelligenzen produzieren und programmieren kann, welche wiederum selbstständig und ohne menschliche Hilfe existieren und sich reproduzieren können... also von der Exploration, der Erzförderung bis hin zum fertigen chip.
Oder wir sprechen wahlweise von einer KI, die das zwar nicht vermag, aber aus dem Ruder läuft, weil sie zumindest selbst glaubt, dergleichen zu können und des Menschen nicht mehr zu bedürfen.
DAS ist die "Intelligenz", von der hier immer die Rede war... eine Intelligenz, die der des Menschen "weit überlegen" ist. Und nicht einfach nur irgendwelche Aufgaben löst.
Allerdings bestehen KI nicht nur in LLMs, und an der AGI wird gearbeitet. Ob die, wie versprochen, schon 2027 kommt oder erst zehn Jahre später - gehupft wie gesprungen.
Es wird gearbeitet, und es wird eine Menge Geld eingesammelt. Und um noch mehr Geld einsammeln zu können braucht man Versprechen. Und die "AGI" ist so ein Versprechen... so wie ja auch Musk versprochen hat, dass er demnächst Haushaltsroboter herstellt und 2026 zum Mars fliegt.
Bisher haben wir aber nur Sprachmodelle und ihre Abarten wie suno als Musikprogramm oder KI-Malprogramme. Diese sind schon aufgrund von ihrer Funktionsweise von einer AGI weit entfernt, weil diese Programme nicht verstehen, was sie tun. Es sind lediglich Parser, die Kommandos in ihre Bestandteile zerlegen und dann nach bestimmten komplexen Routinen abarbeiten.
Es reicht für die hier von mir skizzierten (möglichen) Gefahren die Annahme, dass eine AGI eine Agenda entwickelt, und sei es nur jene, die eigene Existenz abzusichern.
Das ist wieder sehr menschlich gedacht. Warum sollte eine KI die eigene Existenz absichern wollen? Auch ein autonom fahrendes Fahrzeug hat kein Interesse an Selbsterhaltung. Warum sollte es auch?
Was passieren kann ist dass eine Programmierung schief geht. Ein autonomes Fahrzeug soll alte Leute schützen - und fängt an, Kinder zu überfahren. Eine Kamikaze-Drohne stürzt sich in einen Kindergarten. Ein Gesichtserkennungssystem markiert unbescholtene Bürger als Kriminelle.
So etwas kann passieren.
Die Ausrottung der Menschheit... eher nicht. Sorry.

@lucan-7 Warum sollte eine KI die eigene Existenz absichern wollen?
Eine mögliche Antwort auf diese Frage, die ich, ein normal intelligenter Mensch, schon gegeben hatte: Weil diese Existenz als notwendige Voraussetzung dafür verstanden wird, ein beliebiges anderes zu lösendes Problem auch lösen zu können. Ich werde jetzt nicht nochmal auf das Büroklammer-Szenario verlinken, das wurde hier im Thread schon mindestens einmal genannt.
Andere Antworten, (d.h. Gründe, derentwegen eine KI entscheidet, dass ihre Persistenz ein zu verfolgendes Ziel sei) könnte eine mir überlegene Intelligenz vielleicht geben.

Eine mögliche Antwort auf diese Frage, die ich, ein normal intelligenter Mensch, schon gegeben hatte: Weil diese Existenz als notwendige Voraussetzung dafür verstanden wird, ein beliebiges anderes zu lösendes Problem auch lösen zu können. Ich werde jetzt nicht nochmal auf das Büroklammer-Szenario verlinken, das wurde hier im Thread schon mindestens einmal genannt.
Das "Büroklammer-Szenario" ist ein Beispiel dafür, wie eine Programmierung aus dem Ruder laufen kann.
Typische Szenarien sind etwa Verkehrsleitsysteme, die aufgrund falscher Prioritäten aus dem Ruder laufen. Eine KI soll dafür sorgen, dass ein Rettungswagen in einer Großstadt Priorität hat und so schnell wie möglich zum Unfallort kommt. Um das zu erreichen, muss die KI so viele Autos wie möglich aus dem Weg schaffen... also leitet sie die anderen Autos in den Fluss oder lässt sie an Kreuzungen Unfälle verursachen, um den Verkehr zum Erliegen zu bringen, damit der Rettungswagen freie Fahrt hat.
Solche Sachen können passieren - wenn man einer KI unmittelbare Macht in der Realität einräumt, in diesem Fall also die Steuerung der Ampel- und Verkehrsleitsysteme.
Aber mehr als das hat die KI dann auch nicht. In dystopischen Szenarien wird ja gerade mal der KI die Kontrolle über die Atombomben übertragen... aber welche Regierung wäre denn so blöd, die Kontrolle an einen Automaten abzugeben?
KI entwirft auch heute schon Szenarien für den Krieg. Aber sie kann diese Szenarien selbst nicht ausführen. Und selbst wenn man Kampfsystem damit verbindet, dann beschränkt sich die Macht der KI auf eben diese Systeme - und mehr nicht.
Für das von dir befürchtete Szenario einer "Super-Intelligenz" müssten zwei Dinge gegeben sein: Erstens mal die "Super-Intelligenz" selbst. Und von der sind wir noch sehr weit entfernt - denn alle bisherigen Systeme wissen praktisch nicht, was sie tun.
Und zum zweiten die Möglichkeit, in jeder Weise und überall auf die Realität einwirken zu können - also Rohstoffe suchen, abbauen, verarbeiten, Dinge produzieren und weiterentwickeln. Und das, ohne dass dabei ein Mensch involviert wäre.
Auch davon sind wir ewig weit entfernt. KI hat in der Regel nur Zugriff auf Daten, nicht auf die Realität - also auf ein verzerrtes Abbild der Realität, welches die KI mangels Alternative für die Realität selbst hält. So wie ein Mensch, der die Welt nur aus Büchern der Gefängnisbibliothek kennt, welches er aber Zeit seines Lebens noch nie verlassen hat.
Das ist gefährlich genug - aber dennoch sehr weit entfernt von irgendeiner Machtübernahme...

Hi Ihr beiden,
lasst eure Fantasie doch mal um die Borg aus Star Trek spielen....Mensch-Maschine, Cyborg, .... das gemeinsame Wissen lebt im Dronenschwarm weiter.
Und dann vergleiche mal mit der großen Figur aus dem Buch Daniel... das letzte Reich hat Füße aus Metall(Robotik) und Ton(Mensch).
Daniel 2, 32 Das Haupt dieses Bildes war von feinem Gold, seine Brust und seine Arme waren von Silber, sein Bauch und seine Lenden waren von Bronze, 33 seine Schenkel waren von Eisen, seine Füße waren teils von Eisen und teils von Ton. 34 Das schautest du, bis ein Stein herunterkam, ohne Zutun von Menschenhänden; der traf das Bild an seinen Füßen, die von Eisen und Ton waren, und zermalmte sie. 35 Da wurden miteinander zermalmt Eisen, Ton, Bronze, Silber und Gold und wurden wie Spreu auf der Sommertenne, und der Wind verwehte sie, dass man sie nirgends mehr finden konnte. Der Stein aber, der das Bild zerschlug, wurde zu einem großen Berg und füllte die ganze Welt.

lasst eure Fantasie doch mal um die Borg aus Star Trek spielen....Mensch-Maschine, Cyborg, .... das gemeinsame Wissen lebt im Dronenschwarm weiter.
Wenn man das ganze mal erweitert denkt, und nicht davon ausgeht, dass wir die "Borg-Implantate" in den Körper integriert haben, sondern als Handy in der Hand halten und die sozialen Medien als "Kollektivbewusstsein" einordnen, dann gibt es da jetzt schon erstaunliche Parallelen.
Denn es ist ja immer wieder auch von der "Reaktion des Internets" die Rede oder vom "shitstorm" auf den sozialen Medien - die da also reagieren wie EIN Bewusstsein. Welches man als Person lieber nicht gegen sich haben will, weil man dann vom "Kollektiv" ausgestoßen wird.
Dann ist das alles plötzlich nicht mehr so weit weg...
Und dann vergleiche mal mit der großen Figur aus dem Buch Daniel... das letzte Reich hat Füße aus Metall(Robotik) und Ton(Mensch).
Das wiederum sagt mir nicht viel... das sind dann wieder solche Voraussagen, von denen immer irgendwas passt...
@jack-black Yudkowski und du, ihr macht beide einen Fehler: Ihr erklärt unsere heutige weiße Zivilisation zur einzigen menschlichen Zivilisation, die es jemals gegeben hat.
Ich war letztes Jahr ein paar Tage bei den Nivaclé, einem der Chaco-Völker in Paraguay, und die kommen eigentlich zurecht, ohne den Gran Chaco komplett zu zerstören.
Warum sind wir Weiße so wie wir sind?
Weil wir die Erfahrung gemacht haben, daß die Natur auch nicht immer nett ist. Unsere Vorfahren hatten auf einem kühlen und kargen Kontinent keine andere Wahl, als der Natur ihren Willen aufzuzwingen, um zu überleben. Der Getreidebrei den sie den Winter über hatten, der musste im Frühling und Sommer mühsam aus dem Boden geschunden werden.
Und trotz allen Fleißes gab es immer wieder Missernten die dazu führen konnten, daß ein ganzes Dorf verhungerte.
Und dann die vielen Seuchen! Die Pest allein war ein extrem einschneidendes Ereignis.
TBC war auch so ein Dauerbrenner.
Kurz: Weil man so nicht mehr leben wollte, d.h. weil man auch nicht ständig die Hälfte der Kinder sterben sehen wollte, setzte man darauf, die Natur zu bezwingen.
Klar ist es mittlerweile entgleist. Aus der Notwendigkeit, unsere Umwelt zu verändern um zu überleben ist mittlerweile pure Zerstörung geworden. Und uns fehlen die Konzepte und Ideen für einen anderen Lebensstil.
Aber es ist sehr eng gedacht, zu glauben, daß die heutige weiße Zivilisation die einzig gültige wäre.

Yudkowski und du, ihr macht beide einen Fehler: Ihr erklärt unsere heutige weiße Zivilisation zur einzigen menschlichen Zivilisation, die es jemals gegeben hat.
Ich verstehe nicht ganz, was das mit dem Thema hier zu tun hat...?

@lucan-7 Es ist die Schlussfolgerung "weil Menschen so sind, muss die KI auch so sein!"
D.h. die Verallgemeinerung eines Ausschnittes, ohne logische Schlussfolgerung, warum allein dieser Ausschnitt für die Entwicklung der KI maßgeblich sein soll.

Es ist die Schlussfolgerung "weil Menschen so sind, muss die KI auch so sein!"
D.h. die Verallgemeinerung eines Ausschnittes, ohne logische Schlussfolgerung, warum allein dieser Ausschnitt für die Entwicklung der KI maßgeblich sein soll.
Na gut, das ist ja das was ich auch immer sage... es gibt die Tendenz, die KI zu vermenschlichen und ihr damit die gleichen Absichten zu unterstellen, die wir halt auch haben könnten.
Aber die KI hat keine Evolution durchlaufen, sie hat weder Gefühle noch Lebenswillen. Wir unterstellen den Sprachmodellen, so etwas zu haben, weil sie das vortäuschen... aber es ist eben nicht echt. Und eine universelle KI, die alles kann, was ein Mensch vermag, ist noch immer nicht in Sicht.
Da ist eben auch viel Propaganda dabei... und diese wird dadurch unterstützt, dass wir eben dazu neigen, Dinge zu vermenschlichen - erst recht eine Maschine, mit der wir uns unterhalten können.
Auch wenn diese letztlich nichts anderes ist als ein Parser, den es schon in den 80ern und früher gab... nur halt milliardenfach komplexer...

@lucan-7 Das hat allgemein damit zu tun was man im Internet schreibt, der mögliche nächste Ministerpräsident von Baden-Württemberg Özdemir darf nicht mehr in die Türkei einreisen, da er eine Meinung vertreten hat die man in Ankara anders sieht.

@blackhole ihr macht beide einen Fehler: Ihr erklärt unsere heutige weiße Zivilisation zur einzigen menschlichen Zivilisation, die es jemals gegeben hat.
Nö.
Aber es ist sehr eng gedacht, zu glauben, daß die heutige weiße Zivilisation die einzig gültige wäre.
Ich weiß zwar nicht, was eine "gültige Zivilisation" sein mag, aber da ich nichts dergleichen glaube, sehe ich gerade auch keinen Anlass, mein "enges Denken" zu hinterfragen - zumindest nicht in dieser Hinsicht.
@jack-black Elon Musk hat das unterschrieben? Dazu äußere ich mich nicht. Man hat schon von Leuten gehört die sich irgendwo kritisch geäußert haben und dann Probleme bei der Einreise in ein Land bekommen haben.

@jigal 😀 🤡 🤪 🙃
Da hatten - vor zwei Jahren! - eine Menge wichtiger Leute unterzeichnet. Am Ende kam ja nix dabei raus. Man kann bei Leuten wie Musk natürlich trefflich spekulieren, warum sie eigentlich unterschrieben, das Hin und Her zwischen OpenAIs Altman und Musk füllt vermutlich schon Regalmeter an digitaler Literatur...
Vor der Geschichte - wo immer das auch sein mag - wird Musk irgendwann sagen können: "Naja, ich hab damals unterschrieben, ich wollte das alles gar nicht, aber dann war ich gezwungen, mitzumachen..."
Dazu äußere ich mich nicht. Man hat schon von Leuten gehört die sich irgendwo kritisch geäußert haben und dann...
Dazu fällt mir eine Anekdote von Douglas Rushkoff (Autor von "Survival of the Richest") ein über ein Gespräch, dass er mal mit jemandem führte darüber, wie die KI zukünftig (nach der Machtübernahme...) mit Kritikern ihrer Entwicklung umgehen werde. Jener nicht namentlich genannte Gesprächspartner frage Rushkoff: "Haben Sie keine Angst, dass Sie, der Sie doch so in aller Öffentlichkeit/den sozialen Plattformen vor den Gefahren der KI warnen und sich also als ihr Gegner zu erkennen geben, später als einer der ersten von ihr verfolgt und bestraft werden könnte? Warum veröffentlichen Sie ihre Kritik alle unter ihrem eigenen Namen und machen sich damit selbst zum Ziel?"
Rushkoff fragte zurück: "Wie machen Sie das denn? Äußern Sie sich nicht kritisch über die Gefahren der AI?"
Die Antwort: "Nein, ist schreibe öffentlich kein negatives Wort über KI, tatsächlich vermeide ich es, öffentlich irgendwelche Kommentare zu diesem Themengebiet abzugeben."
Rushkoff darauf: "Ist das nicht auffällig? Da KIs doch mustersuchende Programme sind, wird es denen doch auffallen, wenn Sie so überhaupt keine Meinung äußern. Das wird Sie vermutlich besonders verdächtig machen und die KI wird womöglich zuallererst hinter Leuten wie ihnen her sein, denn wer sich versteckt, hat ja was zu verheimlichen..."
Daraufhin soll, laut Rushkoff, sein Gesprächspartner bleich geworden sein und habe gar nichts weiter gesagt.
Übertragen auf Dein Problem: Wenn Du jetzt öffentlich gestehst, dass Du Dich zu Musk nicht äußern mögest, hast Du Dich damit um jede Chance gebracht, noch ein Einreisevisum für die USA zu bekommen. Du solltest unbedingt davon absehen, eins zu beantragen, denn Du willst doch nicht noch stärker ins Visier der DOGE-Schergen geraten? Mein gut gemeinter Rat: äußere Dich am besten gar nicht mehr. Zu nichts. Am besten, Du stellst das Atmen ein, dann können sie Dich nicht mit ihren hochempfindlichen Richtmikrophonen lokalisieren. Als erstes aber solltest Du zusehen, undbedingt das Smartphone oder den Computer, auf dem Du Deinen letzten Beeitrag schriebst, loszuwerden. Wirf sie aus dem Fenster! Jetzt! Nein, öffne nicht die Tür! Lass sie klopfen. Nutze die Zeit und springe Deinem Computer hinterher. Jetzt sofort!!!!!!!
Übertragen auf Dein Problem: Wenn Du jetzt öffentlich gestehst, dass Du Dich zu Musk nicht äußern mögest, hast Du Dich damit um jede Chance gebracht, noch ein Einreisevisum für die USA zu bekommen. Du solltest unbedingt davon absehen, eins zu beantragen, denn Du willst doch nicht noch stärker ins Visier der DOGE-Schergen geraten? Mein gut gemeinter Rat: äußere Dich am besten gar nicht mehr. Zu nichts. Am besten, Du stellst das Atmen ein, dann können sie Dich nicht mit ihren hochempfindlichen Richtmikrophonen lokalisieren. Als erstes aber solltest Du zusehen, undbedingt das Smartphone oder den Computer, auf dem Du Deinen letzten Beeitrag schriebst, loszuwerden. Wirf sie aus dem Fenster! Jetzt! Nein, öffne nicht die Tür! Lass sie klopfen. Nutze die Zeit und springe Deinem Computer hinterher. Jetzt sofort!!!!!!!
Ähm.... man kann zwar die Übertreibung herauslesen.... trotzdem muss es nicht sein