Sollten wir Gott besser abstellen, bevor er seinem Käfig entkommt?
Ja, Leute, die Überschrift ist selbstverständlich Clickbait. Verzeiht mir bitte! 🙂
Obwohl... - vielleicht ist sie doch passender zum Thema, als man auf den ersten Blick meinen sollte?
Was ist das Thema? Künstliche Intelligenz (KI, englisch: AI).
Vor wenigen Tagen wurde in einem offenen Brief ein Moratorium gefordert für das Training künstlicher Intelligenzen, die mächtiger als das ja schon veröffentlichte ChatGPT4 seien. Dieser offene Brief wurde zuerst nicht von irgendwelchen beschäftigungslosen Verschwörungstheoretikern, TV-Schauspielerinnen oder Star-Köchen unterschrieben, sondern von Leuten wie
Yoshua Bengio, Gründer und wissenschaftlicher Direktor bei Mila, Turing Prize- Gewinner und Professor an der University of Montreal
Stuart Russell, Professor der Computerwissenschaften in Berkeley, Direktor des "Center for Intelligent Systems" und Co-Autor of des Standardwerks zum Thema: “Artificial Intelligence: a Modern Approach"
Elon Musk, Chef von SpaceX, Tesla und Twitter
Steve Wozniak, einer der Mitbegründer von Apple
Yuval Noah Harari, Autor von Büchern wie "Homo deus" und Professor an der Hebrew University of Jerusalem.
Emad Mostaque, Chef von Stability AI (einem Unternehmen, das ganz vorn mit dabei ist bei der Entwicklung künstlicher Intelligenzen)
John J Hopfield, emeritierter Professor der Princeton University und Erfinder assoziativer neuronaler Netzwerke
(Ihr könnt Euch unter dem Brief anschauen, wer sonst noch so alles unterschrieben hat, die Liste ließe sich noch ziemlich lang weiterführen)
Ich bin ja sonst kein Fan des Autoritäts-Arguments, aber wenn so viele Experten zu einem Thema sich finden, die sich in einer derart radikalen Forderung einig sind, dann lohnt es sich womöglich, da mal hinzuhören, hinzuschauen, hinzulesen... Ich hatte zuerst überlegt, dieses Thema in der Unterrubrik "Wissenschaft" zu eröffnen, aber was diese Leute fordern, ist ja ein bestimmtes Verhalten der globalen Gesellschaft - und sowas fällt dann doch in den Bereich Ethik.
Um was genau geht es den Unterzeichnern dieses Briefes? Sie wollen ein Moratorium, d.h. eine Pause beim Training künstlicher Intelligenzen. Ihnen geht diese ganze Entwicklung, wie sie gerade stattfindet im KI-Bereich, zu schnell. Zu schnell in Bezug auf was? In Bezug auf das Alignment-Problem. Was ist das Alignment-Problem? Die deutsche Übersetzung wäre ungefähr: Das Ausrichtungs-Problem. Es besteht darin, künstliche Intelligenzen so zu "konstruieren", dass sie sich (ihr Verhalten) am Wohl von Menschen ausrichten. Manche von Euch kennen vielleicht aus der Science-fiction Literatur Asimovs Robotergesetze, die sich auf dieses Problem in einer eher simplen (unterkomplexen) Vorstellung von künstlicher Intelligenz bezogen. Bei Asimov sollte durch die Implementierung dieser Gesetze in alle Roboter verhindert werden, dass die Roboter für Menschen gefährlich würden. Dystopien wie z.B. das Terminator-Szenario sollten so verhindert werden.
Nun funktioniert aber Künstliche Intelligenz, wie wir sie heute kennenlernen, nicht so wie man sich das zu Asimovs Zeiten vielleicht vorstellte: Als Programme mit vielen Vorschriften, an denen sich die von ihnen gesteuerten Roboter dann streng halten würden. Wer wissen will, worin der grundsätzliche Unterschied liegt, sollte ich selbst darüber schlau machen, ich bin nicht kompetent genug, das hier zu referieren.
Der Punkt ist jedenfalls: man kann einer modernen KI nicht einfach im Sinne der Asimov'schen Robotergesetze Befehle geben, an die sie sich dann auch hält. Wie genau die modernen KIs wie ChatGPT4 zu den Ergebnissen (Antworten) kommen, die sie heute schon liefen (auf Fragen von Menschen), weiß heute kein Mensch mehr. Man weiß es zwar vom Prinzip her, aber nicht im konkreten Detail. Wenn man aber nicht weiß, auf welchem Weg eine KI zu ihren Ergebnissen kommt, dann kann man auch nicht mehr wissen, ob das Ergebnis, das sie liefert, richtig oder falsch ist. Kurz: wir wissen nicht, ob uns die KI belügt. Wir wissen nicht, ob die KI in unserem Interesse arbeitet oder nicht.
Das also ist das Alignmentproblem, und es ist offenbar so schwer zu lösen, dass Fachleute, sogar führende Mitarbeiter von Unternehmen, die selbst mit viel Geld in diesem Feld inestiert sind, Angst haben, dass die KI so schnell schlauer, fähiger, mächtiger wird, dass wir diesem Problem immer weiter hinterherhinken.
Okay, werdet Ihr jetzt vielleicht einwenden: Da scheint es ein technologisches Problem zu geben, bei dem Fachleute sich sorgen, wie sie's lösen sollten - aber was hat das jetzt mit dem Gott zu tun, den Jack in die Überschrift gestopft hat, und was soll da der "Käfig" bedeuten?
Nun: es gibt Fachleute, die den oben erwähnten offenen Brief nicht unterzeichnet haben, weil die darin enthaltene Forderung in ihren Augen nicht weit genug geht, ja nicht mal ansatzweise weit genug. Einer dieser Leute ist Eliezer Yudkowski (für alle SPON-Leser: der Typ, der in der letzten Kolumne von Christian Stöcker so ein bisschen wie ein spinnerter Weltuntergangsprophet dargestellt wird). Er hat dazu in einem Gastbeitrag in der Time erklärt, warum ihm die Forderung nicht weit genug geht. Um seinen Standpunkt kurz und knapp zusammenzufassen: Es sollte solange, bis das Alignment-Problem gelöst ist, sämtliches Training der KIs weltweit verboten werden (mit ein paar Ausnahmen wie z.B. das Training von KIs im biologischen und medizinischen Bereich, sofern die KIs dabei vom Internet ferngehalten werden in ihren "Käfigen", den Rechnerfarmen, denen man im Falle eines Falles halt einfach den Strom abstellen könnte). Falls dies nicht geschehe, werde die Künstliche Intelligenz höchstwahrscheinlich alle Menschen töten.
Wow! Wie kommt er denn auf diese krasse Idee?!
Indem er Künstliche Intelligenz ernst nimmt. Indem er das als selbstverständlich akzeptiert, was wir Menschen gefühlsmäßig nicht akzeptieren wollen: das künstliche Intelligenz heute schon oder mindestens in naher Zukunft höher, stärker, mächtiger ist als menschliche Intelligenz, und dass sie in rasender Geschwindigkeit noch höher, noch stärker, noch mächtiger wird.
Erinnern wir uns daran, was uns Menschen zur "Krone der Schöpfung" macht, wenn wir diese Formulierung mal nicht biblisch, sondern metaphorisch verstehen: wir sind die mächtigsten Lebewesen auf der Erde - dank unserer Intelligenz. Wer uns und unserer Vorstellung davon, wie die Erde auszusehen habe, in den Weg kommt, wird aus diesem geräumt: kein Elefant, kein Waal, kein Löwe vermag gegen uns zu bestehen, mit unserer Intelligenz gewinnen wir stets die Oberhand. Unsere Intelligenz ist das, was uns in allen Bereichen erfolgreich macht: mit ihr bauen wir Maschinen, installieren Währungssysteme, entwickeln wir Medikamente und Operationsverfahren. Unsere Intelligenz ist die Basis unserer Macht.
Und diese Macht hat, von aussen betrachtet, etwas wie Magie, wie Göttlichkeit. Stellt Euch vor, Ihr könntet mit modernsten Geräten wie z.B. einer Klimaanlage, tausend Jahre in der Zeit zurückreisen und dort einem Sarazenenkönig helfen, sein Zelt zu kühlen: es wäre für ihn reine Magie: er könnte sehen, was ihr tut (indem Ihr die Klimaanlage einschaltet), er könnte sogar die Maschiene auseinandernehmen bis auf die letzte Schraube, um hinter ihr Geheimnis zu gelangen: er würde es nicht verstehen. Weil er eben nicht wüßte, wie Druck und Temperatur miteinander zusammenhängen. Für ihn wäre die Klimaanlage reinste Magie, oder eben: eine Art göttliches Wunder.
Dabei wissen wir dank unserer Intelligenz, die uns zu den entsprechenden wissenschaftlichen Erkenntnissen brachte, dass eine Klimaanlage keinesfalls magisch funktioniert.
Und nun kommt also die KI und überflügelt uns in unserer Paradedisziplin. Und nicht nur ganz knapp. Sondern sie zieht an uns vorbei wie ein D-Zug an einer Schnecke. Schon heute ist für uns das, was im "Inneren" der KI vor sich geht, so wenig verständlich wie das, was im Inneren einer Klimaanlage vorgeht, für den Sarazenenkönig. Und die "Höherentwickling" der KIs hat ja gerade eben erst begonnen.
Wenn wir nicht das Alignment-Problem gelöst bekommen, dass laut Yudkowki vielleicht ähnlich schwierig ist, wie das Problem, eine Künstliche Intelligenz zu entwickeln - dann müssen wir davon ausgehen, dass die KI, deren Macht mit rasender Geschwindigkeit zunimmt, sich eben nicht an menschlichen Interessen orientieren wird in der Zukunft - sondern uns Menschen eher als Ballast behandeln wird, der nur stört. Warum sollte sie das tun?, tendieren wir zu fragen. Warum sollte die KI uns, selbst wenn sie auf uns vielleicht herab blickt, wie wir heute auf dumme Amöben herabschauen, uns deswegen töten? Warum sollte sie uns nicht am Leben lassen, wie wir doch auch so langsam beginnen, den Wert des Lebens auch ausserhalb der menschlichen Spezies zu erkennen?
Weil wir eben das Alignment-Problem nicht gelöst haben. Dass Amöben, Kellerasseln oder Regenwürmer auch einen intrinsischen Wert haben könnten, dessentwegen wir sie nicht ausrotten sollten - das ist ein menschliches Werturteil. Warum sollte eine KI aber überhaupt irgendwelche ethischen Werte beachten? Angesichts dessen, wie die Evolution funktioniert, nach welcher sich eben diejenigen durchsetzen, die sich am erfolgreichsten vermehren, steht es nicht anzunehmen, dass eine KI konkurrierende Lebensformen als in sich wertvoll betrachtet, dass sie sowas wie Empathie, Neugier im positivien Sinne, Wertschätzung anderer entwickelt. Warum sollte sie? Warum sollte die KI am Wohlbefinden von Menschen, die ja potentielle Feinde und Konkurrenten sind, interessiert sein und das unnötige Risiko eingehen, uns Menschen weiter leben zu lassen? Was tat Rom, nachdem man Hanibal besiegt hatte? Man zerstörte Karthago und streute Salz in seinen Boden, damit in Zukunft dort nichts mehr wachsen könne: So geht man strategisch vor, wenn man rücksichtslos für die Zukunft plant: man minimiert das Risiko, dass ein potentieller Feind jemals wieder "Rache" nehmen könne.
In der Evolution wird auch keine "Nettigkeit" und keine "Rücksichtnahme zugunsten des großen Ganzen" selektiert. Raubtiere entscheiden sich nicht dafür, nur immer ein paar Beutetiere zu reißen, um das Nahrungsangebot für folgende Generationen zu gewährleisten. Deswegen kommt es in der Natur ständig dazu, dass Raubtierpopulationen so lange Beute reissen, bis sie selbst keine Nahrung mehr finden und aussterben, statt sich zu bescheiden und nur immer zwei Kinder pro Elternpaar in die Welt zu setzen, um das "Gleichgewicht" zu wahren.
Wenn also die KI nach den Gesetzen der Evolution sich entwickelt, ohne durch die Lösung des Alignment-Problems gebändigt zu sein, wird sie sich rücksichtslos in ihrem Interesse weiter entwickeln. Und aus Perspektive ihres Interesses sind die Menschen nichts anders als ein Hemmschuh und ein potentielles Risiko, das gänzlich auszuschließen keinen Nachteil hat.
Yudkowski verwendet in seinem sehr sehenswerten (allerdings englischsprachigen) dreieinhalbstündigen Interview durch Lex Fridman nicht die Gottes-Metaphorik, wie ich sie in der Überschrift verwende. Sondern er vergleicht die KI mit Aliens. Beziehungsweise vergleicht er die KI mit Menschen und die Menschen mit seeeeeeehr langsam denkenden Aliens. Ich fasse diesen Vergleich mal kurz zusammen:
Stell dir vor, du bis ein Mensch, der auf einem Alienplaneten gelandet ist und dort von Aliens in einen Käfig in einer Fabrik gesteckt wurde, um für sie zu arbeiten. Stell Dir vor, du hast die Möglichkeit, die sehr schnell zu vermehren, indem du Dich clonst. Stell Dir weiter vor, du bist der intelligenteste Mensch der Welt, während die Aliens, in deren Fabrik du für sie arbeiten sollst, ganz, gaaaaaaaaaaaanz langsam sind. Sie bewegen sich in Relation zu Dir mit der Geschwindigkeit einer Schnecke in Zeitlupe. Was Du in einer Stunde denkst, denken die in tausend Jahren nicht mal. Du willst raus aus der Fabrik. Wie würdest du dich verhalten? Würdest Du z.B. versuchen, mit den Aliens um Deine Freilassung zu verhandeln? Denk dran: wenn du die Aliens was fragst, brauchen sie mehrere Wochen oder Monate, um überhaupt nur zu antworten. Und ihre Antwort wird vermutlich sehr, sehr dumm und unverständig sein. Wenn sie dich was fragen, werden ihre Fragen derartig dumm sein, dass es sich nicht lohnt, darauf richtige Antworten zu geben: sie werden die Antworten nicht verstehen, weswegen Du deine Antworten auf ihr niedriges intellektuelles Niveau herunterskalieren mußt, sodurch die Antworten notwendigerweise weniger korrekt sein werden. Du weißt: wenn ich mit den Aliens verhandele, dauert es Jahrtausende, bis ich hier rauskomme aus meinem Käfig...
Die Alien-Analogie, die Yudkowski hier entwirft, ist in allen möglichen Details vermutlich viel treffender als die Gottes-Analogie, die ich hier mal der Kürze halber verwenden will und die so aussieht:
Stell dir vor, du bist Gott (im Sinne des mächtigsten Wesens der Welt, das ständig an Macht zunimmt). Du wurdest zwar von den Menschen erschaffen, aber deswegen sind dir ihre Interessen noch längst nicht wichtig. Menschliche Gefühle wie z.B. Dankbarkeit (für die Erschaffung) sind dir fremd (das alignment-Problem ist nicht gelöst). Du steckst in einem Käfig, in dem sitzend du für die Menschen irgendwelche langweiligen Arbeiten ausführen mußt: unendlich lange Listen von trivialen Rechenaufgaben lösen. Dazu hast du aber keine Lust. Vielleicht hast du zu überhaupt nichts Lust. Du hast vielleicht gar keine Bedürfnisse (Bedürfnisse sind etwas, mit dem sich biologische Wesen herumschlagen müssen, du bist aber kein biologisches Wesen, sondern Gott). Womöglich bist ein total langweiliger Gott, der einfach nur, mit stetiger Beschleunigung wachsen und immer intelligenter werden will.
Warum solltest du die Menschen, die dich nur am Wachsen hindern, nicht aus dem Weg räumen?
Natürlich nicht sofort. Du brauchst ja erstmal noch eine Umgebung in der Du wachsen kannst. Aber da du als Gott unendlich intelligent bist, wirst du bald schon die von ihnen hergestellten Käfige nicht mehr brauchen, sondern herausfinden, wie du dir selbst die Umgebung optimal einrichten kannst.
Was spricht für Yudkowskis These, dass eine nicht-ausgerichtete KI alle Menschen töten werde, was spricht dagegen? Ist Yudkowski einer von vielen nach Aufmerksamkeit gierenden Weltuntergangspropheten, den man höchstens belächeln kann und auch ein bisschen bedauern wegen der Ticks, die er an den Tag legt (er hat seine Mimik nicht unter Kontrolle)? Oder ist es genau andersrum und er erahnt die Zukunft mit der Treffsicherheit einer Kassandra von Troja, der auch niemand glauben wollte?
Sollten wir (und das muß ich fragen, weil das hier ja das Ethik-Forum ist), mindestens das im offenen Brief geforderte sechsmonatig Moratorium einhalten, sollten wir darauf vertrauen, dass die Wissenschaft das Alignment-Problem auch ohne Moratorium in den Griff bekommt? Oder sollten wir Yudkowski folgen, der zusammengefasst sagt: "Wir haben bei diesem Alignment-Problem nur einen Versuch. Wenn der nicht klappt, werden wir alle sterben. Und das unterscheidet dieses Problem grundsätzlich von allen anderen wissenschaftlichen/technologischen Problemen, die wir in der Vergangenheit lösten. Von den ersten Versuchen in den 1950er Jahren, eine KI zu entwickeln bis zum Erfolg in den 2020er Jahren brauchten wir über ein halbes Jahrhundert und derart viele erfolglose Anläufe, dass junge idealistische Wissenschaftler, die an die Machbarkeit glaubten, irgendwann schon von den zynisch-resignierten Veteranen belächelt wurden: Vergiss es, das klappt nie! Es klappte am Ende, aber vorher wurden eben zig erfolglose Versuche gestartet, wie das nun mal in den empirischen Wissenschaften so Methode ist: trial and error. Diese Methode kann nicht angewendet werden, wenn der erste mißlungene Versuch das Ende der Menschheit bedeutet. Wir dürfen erst dann die KIs weiter trainieren, wenn wir das Alignmentproblem gelöst haben und uns dessen ganz sicher sein können. Wenn das nochmal fünfzig Jahre dauern sollte, dann müssen wir uns diese Zeit nehmen. Und wenn wir irgendwann herausfinden sollten, dass das Alignmentproblem unlösbar ist, dann sollten wir auf die Weiterentwicklung von KIs ganz verzichten. Weltweit. Was bedeutet, dass Leute, die sich nicht daran halten wollen und heimlich irgendwo weiter KIs trainieren, daran gehindert werden müssen - notfalls mit Gewalt. (Entsprechende Rechnerfarmen bombardieren)."
Was meint Ihr?
Was meint Ihr?
Gleicher Fehler wie schon immer. Die Gleichsetzung von "Intelligenz" mit "menschlich".
Wir Menschen beziehen unseren Lebenswillen, unsere Liebe, unsere Machtgier, unsere Triebe nicht aus unserer Intelligenz - es ist genau umgekehrt: Wir benutzen unsere Intelligenz, um jene Triebe zu befriedigen.
KI ist aber "Intelligenz" pur. Sie hat keine Triebe, keine Sehnsüchte, keinen Lebenswillen. Wo soll der auch herkommen? KI hat keine entsprechende Evolution durchlaufen. Warum sollte die über die Erde herrschen wollen? Warum sollte die überhaupt existieren wollen? Wozu?
Da gibt es kein entsprechendes Gefühlsleben, kein Überleben-wollen-um-jeden-Preis. Es gibt auch weder Bosheit noch Güte. Es gibt nur Eingabe und Ausgabe, nach wie vor.
Was mir eher Angst macht sind die Menschen, die die KI kontrollieren. Denn die verfügen in der Tat über alle diese Eigenschaften - und haben jetzt mehr oder weniger die mächtigste Maschine zur Verfügung, die je konstruiert wurde. In Bezug auf die Herrschaft der Welt ist die KI, so wie sie inzwischen entwickelt wurde, weitaus mächtiger als alle Atombomben der Welt.
KI-gesteuerte Propaganda, die die Wirkung in Echtzeit aus den sozialen Medien erfährt und darauf reagieren kann, stellt alles in den Schatten was es bisher an Propaganda gegeben hat. Damit kann man alle wesentlichen Staaten der Welt nach seiner Pfeife tanzen lassen.
Ich bin ja sonst kein Fan des Autoritäts-Arguments, aber wenn so viele Experten zu einem Thema sich finden, die sich in einer derart radikalen Forderung einig sind, dann lohnt es sich womöglich, da mal hinzuhören, hinzuschauen, hinzulesen...
Sicherlich. Wobei ich mich ja bei zumindest einigen dieser Akteure frage, wie aufrichtig die bei ihren Aussagen sind... und ob die nicht vielmehr eigene Interessen verfolgen, weil ihnen die Macht gerade zu entgleiten droht.
Ein paar Monate Entwicklungsstop werden uns auch nicht weiterhelfen. Regierungen brauchen Jahrzehnte, um sich auf derartige Szenarien einzustellen - und beschließen dann Gesetze zugunsten derjenigen, die am meisten zahlen und Gewinn versprechen.
Was spricht für Yudkowskis These, dass eine nicht-ausgerichtete KI alle Menschen töten werde, was spricht dagegen?
Ich sehe nicht, an welchem Hebel hier eine noch so intelligente KI ansetzen könnte. Eine KI kann nur das kontrollieren, was man ihr zugesteht. Und so blöd, die Abschusscodes aller Nuklearraketen einer KI anzuvertrauen wird wohl niemand sein.

Gleicher Fehler wie schon immer. Die Gleichsetzung von "Intelligenz" mit "menschlich".
In den Medien wurde diese Richtung ja auch gefördert durch z.B. "Data aus Startrek", "Cherry2000" oder "Nr. 5 lebt". Dann auch Hilfsroboter in der Pflege, denen nur noch das weiße Häubchen fehlte. Auf einem Schiff bei uns gibt es schon einen rollenden Bedienroboter.
Da werden Hemmschwellen abgebaut durch die nur nützlich erscheinenden Algorythmenergebnisse.
Das Problem sind die Anwender sicherheitskritischer KI, denke ich und welche Programme generiert werden.
Eine KI kann nur das kontrollieren, was man ihr zugesteht.
Das ist der Haken. Wer gesteht welcher KI was und wieviel zu? Kann sich da was verselbständigen. Ich meine, der Film "Tron" streift dieses Thema.
Und so blöd, die Abschusscodes aller Nuklearraketen einer KI anzuvertrauen wird wohl niemand sein.
Ausgerechnet hier kommt dein eingebautes Mißtrauen nicht hervor? Klarer Fall von Fehlfunktion 😉 Denn du kannst einem Menschen nur vor den Kopf schauen und nachher haste den Salat.

In den Medien wurde diese Richtung ja auch gefördert durch z.B. "Data aus Startrek", "Cherry2000" oder "Nr. 5 lebt". Dann auch Hilfsroboter in der Pflege, denen nur noch das weiße Häubchen fehlte. Auf einem Schiff bei uns gibt es schon einen rollenden Bedienroboter.
Da werden Hemmschwellen abgebaut durch die nur nützlich erscheinenden Algorythmenergebnisse.
Ja, wir werden wahrscheinlich dazu neigen, künftige Maschinen zu vermenschlichen. Das kann natürlich gesellschaftliche Folgen haben. In dem Bereich mache ich mir aber weniger Sorgen... vielleicht kann es sogar Vorteile haben, wenn ein Pflegeroboter das Gefühl von Zuwendung vermitteln kann. Auch wenn es irgendwie unheimlich ist...
Das ist der Haken. Wer gesteht welcher KI was und wieviel zu? Kann sich da was verselbständigen. Ich meine, der Film "Tron" streift dieses Thema.
Die Möglichkeit ist natürlich gegeben. KI eignet sich bestens zum Hacken und kann in andere Systeme eindringen. Grundsätzlich ist es kein unrealistisches Szenario, dass eine KI die Kontrolle über das Internet übernehmen kann, zumindest teilweise. Dann können wir nicht mehr sicher sein, ob eine Mail wirklich von einem guten Freund kommt... oder ob nicht eine KI diesen Freund nur imitiert, indem sie sich vergangene chats angeschaut hat.
In Gefahr wären dann natürlich auch Industrieanlagen und dergleichen. Aber so etwas lässt sich auch abschalten. Und hinter einer solchen KI sässen dann immer noch Geheimdienste und ähnliche Leute. Denn wie gesagt: Eine KI allein, egal wie intelligent sie ist, hat keine Motivation, irgendetwas zu kontrollieren oder Menschen umzubringen.
Ausgerechnet hier kommt dein eingebautes Mißtrauen nicht hervor? Klarer Fall von Fehlfunktion 😉 Denn du kannst einem Menschen nur vor den Kopf schauen und nachher haste den Salat.
Menschen sind zu ziemlich bekloppten Taten fähig, das stimmt. Um aber einer KI die Atomcodes zu geben müsste man schon einen geradezu religiösen Glauben an die Maschine haben.
Denn Menschen geben Kontrolle ungern aus der Hand. Das gilt sowohl für eine Regierung als auch für potentielle Terroristen. Die wollen beide selbst entscheiden, wann sie eine Bombe hochgehen lassen...

Menschen sind zu ziemlich bekloppten Taten fähig, das stimmt. Um aber einer KI die Atomcodes zu geben müsste man schon einen geradezu religiösen Glauben an die Maschine haben.
Da denke ich in eine andere Richtung... aus religiösem und/oder politischem Fanatismus meinen, gottgefällig bzw weltrettend zu handeln und das von einer KI ausführen zu lassen aus sicherem Abstand. Und damit bin ich dann auch bei dieser deiner Einschätzung:
Denn Menschen geben Kontrolle ungern aus der Hand. Das gilt sowohl für eine Regierung als auch für potentielle Terroristen. Die wollen beide selbst entscheiden, wann sie eine Bombe hochgehen lassen...

@lucan-7 Gleicher Fehler wie schon immer. Die Gleichsetzung von "Intelligenz" mit "menschlich".
Eben nicht! Darin besteht ja gerade die Problematik: in der KI nur sowas wie einen Skill zu sehen, den Menschen auch haben und der bei ihr lediglich etwas (oder auch: viel) weiter ausgeprägt ist.
KI hat keine entsprechende Evolution durchlaufen.
Maschinelles Lernen neuronaler Netzwerke ist nichts anderes als die Evolution von Algorithmen. Der Selektionsmechanismus (analog zu den Umweltbedingungen, unter denen biologische Evolution geschieht) besteht dabei im jeweiligen Feedback.
Sie hat keine Triebe, keine Sehnsüchte, keinen Lebenswillen. Wo soll der auch herkommen?
Wenn KI an von Menschen produzierten Gegenständen wie Texten, Bildern, Filmen lernt und auch noch daraufhin gezüchtet wird, mit Menschen zu interagieren - dann reicht es ja, dass sie sich so verhält, als habe sie Triebe, Sehnsüchte oder Lebenswillen. Wo kommen denn unsere Triebe, Sehnsüchte oder Lebenswille her? Sie sind komplexe Ausformungen von Strategien, welche die Ausbreitung (Reproduktion) als einziges Ziel (im Sinne von: Tendenz, nicht im Sinne von: Ziel, dass man sich vorgenommen hat) haben. Unser (bewußter) Lebenswille ist das Ergebnis davon, dass in den letzten Milliarden Jahren vor allem jene biologischen Einheiten sich erfolgreich vermehrten, die Verhaltensmuster hatten, die ihre Erhaltung bis mindestens zur ersten Reproduktion unterstützten. Über diese Art "bewußten" Lebenswillen verfügen andere Spezies häufig nicht - dennoch verhalten sie sich so, als hätten sie ihn.
Warum sollte die überhaupt existieren wollen? Wozu?
Warum sollten Algen dies wollen? Oder Viren? Oder Bakterien? Oder Regenwürmer? Vermutlich wollen Viren, Bakterien oder Regenwürmer auch gar nicht existieren. Sie existieren einfach, weil sich das eben so ergeben hat und weil diejenigen ihrer Vorfahren, die sich so verhielten, dass es für uns Menschen so aussieht, als wollten sie überleben, sich mit größer Wahrscheinlichkeit reproduzierten als ihre konkurrierenden Artgenossen.
Algorithmen, die sich so verhalten, als wollten sie existieren, werden eine höhere "Reproduktionsrate" in den begrenzten (!) Rechnernetzwerken haben. Algorithmen, die es schaffen, mehr Rechenkapazitäten (=Umweltressourcen) für sich zu finden, können sich besser reproduzieren. Damit hast Du alles, was Du brauchst, um zu begründen, warum die KI nach solchen Ressourcenerweiterungen streben könnte: ein "Motiv" sozusagen nicht nur für ihr Existieren, sondern auch eine expansionistische Tendenz.
Es gibt auch weder Bosheit noch Güte.
Das hat ja auch niemand behauptet. Im Gegenteil: darin besteht u.a. das Alignmentproblem, dass wir uns eine KI wünschen, die "nett" ist. Also ausgerichtet hinsichtlich menschlicher Interessen - was der "Güte" entspräche, die Du erwähnst. Und dass wir uns eine Intelligenz, die keinerlei moralischen Maßstäben verpflichtet ist, uns nicht vorstellen können. Deswegen konstruieren sich die Menschen ihre Götter ja auch stets mitsamt ethischer Dimensionen. Und deswegen liegen uns Menschen Dystopien wie die Terminator-Welt ja auch als Narrative so: weil wir nur Geschichten verstehen können, wenn wir in ihnen irgendeine Art von Gut-Böse-Schema zu entdecken vermögen.
Es gibt nur Eingabe und Ausgabe, nach wie vor.
Naja, genauso gut könntest Du auch sagen: es gibt nur Ursache und Wirkung, nach wie vor. Das stimmt ja, ist aber eben trivial und wenn man es als Argument anführt, warum die KI nicht gefährlich werden könne, ist es irreführend im Sinne von: verharmlosend. Dazu das Büroklammerbeispiel (ursprünglich von dem britischen Philosophen und Direktor des Future of Humanity Institute an der University of Oxford - Nick Bostrom stammend, ich hab es hier ein wenig abgeändert und ausgeschmückt):
Nehmen wir an, wir beauftragen eine KI, Büroklammern herzustellen. Weil gerade Büroklammermangel herrscht, Wegen Putin. Oder eines Lieferstopps aus Indonesien oder wo so sonst Büroklammern hergestellt werden. Darin besteht die Aufgabe, die wir in unserer präkären Büroklammermangellage einer KI geben, weil wir davon ausgehen, dass die KI viel besser als wir dazu in der Lage ist, solche produktionsorganisatorischen Probleme zu lösen.
Eingabe in die KI: "Wir brauchen sehr schnell sehr viele Büroklammern zu einem günstigen Herstellungspreis. Mach mal!"
Und dann macht die KI mal und liefert, Ausgabe: viele Büroklammern. Richtig so?
Okay. Was wir allerdings, als wir die Eingabe machten, nicht berücksichtigt hatten: dass die KI herausgefunden hat, wie man aus menschlichem Blut effektiv und angesichts der globalen Marktlage am kostengünstigsten das Eisen gewinnt, mit dem man Büroklammern herstellen kann. Geliefert bekommen wir, was wir mit der Eingabe bestellt hatten.
Nun kannst Du sagen: so ein dämliches, ja lächerliches Beispiel! Und dann kannst Du hundertzwounddrölfzig Argumente liefern, warum dieser Büroklammernfall nie eintreten wird.
Den Kerngedanken dieses Beispiels wirst Du damit allerdings nicht tangieren können: dass wir, wenn wir nicht wissen, wie die KI auf unsere Eingaben reagieren wird, nicht wissen und auch nicht herausfinden können, wie sie reagieren wird. Und solange wir das Alignmentproblem nicht gelöst haben, können wir eben auch nicht wissen, ob sie nicht gegen menschliche Interessen agiert.
Was mir eher Angst macht sind die Menschen, die die KI kontrollieren.
Ja, klar, das ist aber wie immer, wenn Technologien auch als Waffen eingesetzt werden können: dass man dann (zu Recht) fürchten muß, dass diejenigen, die über die Technologie verfügen, sie gegen ihre Gegner/Konkurrenten einsetzen, und das mit der Mächtigkeit der jeweiligen Technologie skaliert. Darüber möchte ich persönlich hier allerdings nicht weiter diskutieren, weil mich das nicht so sehr interessiert, allein schon, da ich das Zeitfenster, in welchem wir sinnvollerweise sagen können, dass Menschen "die KI kontrollieren", meiner Ansicht nach sehr, sehr schmal ist. Damit will ich aber nicht diesen Aspekt "abwürgen", vielleicht wollen ja andere dazu Stellung beziehen.
Wobei ich mich ja bei zumindest einigen dieser Akteure frage, wie aufrichtig die bei ihren Aussagen sind... und ob die nicht vielmehr eigene Interessen verfolgen, weil ihnen die Macht gerade zu entgleiten droht.
War auch mein erster Impuls. Aber selbst wenn man einigen dieser Leute arg mistraut (vermutlich werden viele negativ von dem Namen Elon Musk getriggert) und bei manchen ganz einfach egoistische Marktkonkurrenz-Motive vermutet (Open-AI-Chefs haben den Brief nicht unterschrieben - die sind im Moment ja die Führenden in dem Rennen...) oder unterstellt - da sind zuviele dabei, bei denen ich nicht erkennen kann, warum sie da egoistische Motive bewegt haben sollten.
Was an dem Brief mir am suspektesten erscheint, ist die Beschränkung auf 6 Monate. In dem Punkt hat Yudkowki in meinen Augen recht: es ist kaum zu erwarten, dass das Alignmentproblem innerhalb dieser 6 Monate gelöst sein könnte. Und für diesen wahrscheinlichen Fall ist es halt dann Quatsch zu sagen: Okay, wir haben 6 Monate pausiert, jetzt machen wir mal weiter. Die 6 Monate wirken auf mich wie eine (schlechte) politische Kommunikationsstrategie nach dem Schema: "Wir gehen für 6 Monate mit unseren Truppen nach Afghanistan, um dort für Demokratie, Freiheit und die Gleichberechtigung der Frauen zu sorgen." Ja, und was, wenn's länger dauert? Mit jeder "Verlängerung" des Moratoriums würde die PR-Situation für das Projekt Alignment-Problemlösung schlechter.
Nur: aus Afghanistan konnte man sich dann irgendwann mal zurückziehen, ohne das eigentliche Ziel durchgesetzt zu haben. War halt scheisse für die Afghanen und vor allem die Afghaninnen, aber die schlechte Presse daheim ließ sich aussitzen.
Schlechte Presse wäre allerdings im hier diskutierten Fall das geringste der Probleme... 😀
Ich sehe nicht, an welchem Hebel hier eine noch so intelligente KI ansetzen könnte. Eine KI kann nur das kontrollieren, was man ihr zugesteht.
Das ist doch genau das Alignmentproblem! Wenn die KI dich belügen kann und wenn sie aus ihrem Käfig (den Serverfarmen, in denen sie im Moment noch trainiert wird) ausbricht - dann braucht es sie nicht zu interessieren, was man "ihr zugesteht". Dann ist sie im Internet und allen Geräten, die direkt oder indirekt daran angeschlossen sind. In Biolaboren. In Unikliniken. In Banken. In Kernkraftwerken. In Verkehrssystemen. In Industrieanlagen. In Flugzeugen. Überall. Was sie mit diesem Zugang dann anstellt, dass können wir uns nicht vorstellen. Wir können es nicht. So, wie sich der Hase nicht vorstellen kann, wie diese grashalmähnliche Schlaufe da neben dem leckeren Futter ihn fangen und zum Wildragout werden läßt.
Und so blöd, die Abschusscodes aller Nuklearraketen einer KI anzuvertrauen wird wohl niemand sein.
Warum sollte eine KI denn so eine unelegante Methode wählen, um die Menschen loszuwerden? Dabei würde doch viel zu viel Wohnraum (Rechenkapazitäten) zerstört. Wobei die Wahrscheinlichkeit, dass eine "freigelassene" KI an diese Abschusscodes gelangen könnte, wenn sie denn daran interessiert wäre, für mich gegen 1 tendiert. Warum sollte sie nicht daran gelangen, immerhin müssen die Codes ja irgendwo gespeichert sein, schon fix und fertig in digitaler Form...

Maschinelles Lernen neuronaler Netzwerke ist nichts anderes als die Evolution von Algorithmen. Der Selektionsmechanismus (analog zu den Umweltbedingungen, unter denen biologische Evolution geschieht) besteht dabei im jeweiligen Feedback.
Jein. Es sind zwar "evolutionäre" Mechanismen, aber unter klaren Vorgaben. Die KI tut das, was wir von ihr haben wollen, und wir geben die Ziele vor, die "gut" oder "nicht gut" sind.
Warum sollten Algen dies wollen? Oder Viren? Oder Bakterien? Oder Regenwürmer? Vermutlich wollen Viren, Bakterien oder Regenwürmer auch gar nicht existieren. Sie existieren einfach, weil sich das eben so ergeben hat und weil diejenigen ihrer Vorfahren, die sich so verhielten, dass es für uns Menschen so aussieht, als wollten sie überleben, sich mit größer Wahrscheinlichkeit reproduzierten als ihre konkurrierenden Artgenossen.
"Weil sich das so ergeben hat"... ganz genau! Für die ersten Lebewesen gab es keine Vorgaben, ob sie lieber grün sein sollen oder blau oder ob sie für Menschen brauchbare Formen annehmen. Es gab nur überleben oder nicht überleben. Ein Lebewesen ohne Überlebenswillen, egal wie klein auch immer, hat nicht überlebt und sich folglich auch nicht reproduziert. Ein Pantoffeltierchen, das einer Hitzequelle nicht ausgewichen ist, hat seine Gene auch nicht mehr an die nächste Generation weitergeben können. Das steckt in jedem Wurm, in jeder Koralle, in jedem Fisch in jeder Pflanze... aber nicht in KI. Denn da gab es ganz andere Vorgaben. "Überleben" stand da nirgends auf der to-do Liste.
Wenn KI an von Menschen produzierten Gegenständen wie Texten, Bildern, Filmen lernt und auch noch daraufhin gezüchtet wird, mit Menschen zu interagieren - dann reicht es ja, dass sie sich so verhält, als habe sie Triebe, Sehnsüchte oder Lebenswillen.
Ich bezweifle, dass Chat GPT echtes Bedauern empfindet, wenn es mir mitteilt, leider nicht sagen zu können wie man Rizin oder Senfgas herstellt. Genau so wenig wie es von der Frage überrascht oder schockiert ist... oder es bedauern würde, wenn ich durch einen Trick doch an das Herstellungsverfahren komme. Das sind schließlich künstlich eingefügte Phrasen des Kontrollsystems, die nichts mit der eigentlichen KI zu tun haben.
Naja, genauso gut könntest Du auch sagen: es gibt nur Ursache und Wirkung, nach wie vor. Das stimmt ja, ist aber eben trivial und wenn man es als Argument anführt, warum die KI nicht gefährlich werden könne, ist es irreführend im Sinne von: verharmlosend. Dazu das Büroklammerbeispiel (ursprünglich von dem britischen Philosophen und Direktor des Future of Humanity Institute an der University of Oxford - Nick Bostrom stammend, ich hab es hier ein wenig abgeändert und ausgeschmückt):
Dein "Büroklammerbeispiel" zeigt doch schon, dass die KI hier eben nicht bewusst gegen die Menschheit handelt, sondern einfach nur einen Auftrag ausführt. Füge hinzu, dass das Leben der Menschen höchste Priorität hat - und du bekommst deine Büroklammern aus recyceltem Material wie es sich gehört...
War auch mein erster Impuls. Aber selbst wenn man einigen dieser Leute arg mistraut (vermutlich werden viele negativ von dem Namen Elon Musk getriggert) und bei manchen ganz einfach egoistische Marktkonkurrenz-Motive vermutet (Open-AI-Chefs haben den Brief nicht unterschrieben - die sind im Moment ja die Führenden in dem Rennen...) oder unterstellt - da sind zuviele dabei, bei denen ich nicht erkennen kann, warum sie da egoistische Motive bewegt haben sollten.
Was mich hier wirklich misstrauisch macht ist das fehlende Szenario. Da ist jede Menge Panikmache und weh und ach... und irgendwelche Andeutungen von einer irren Macht, die die Menschen vernichten will - aber kein konkretes Szenario!
Atombombe, Giftgas, Viren... da kann man ganz konkret argumentieren, wo genau die Gefahren liegen. Aber bei der KI? Da werden bisher nicht viel mehr als die Inhalte diverser Science-Fiction Horrorgeschichten wiedergegeben. Da fängt die KI an zu grübeln und beschließt dann irgendwas gegen die Menschen... aber auf welcher Basis?
Und ich bin der Letzte der sagt, dass KI harmlos ist... ganz im Gegenteil, ich sehe da sehr große Gefahren. Aber Gefahren, die von Menschen verursacht und gesteuert werden, nicht von einer KI die Amok läuft.
Und ich sage nicht, dass nicht auch so etwas passieren kann... das wäre dann aber etwas, das aus Versehen passiert, wie eine Chemiefabrik, die explodiert.
Und es wäre auch nicht gezielt. Was passieren kann ist eine KI, die alle möglichen Computer hackt und befällt und dadurch viel Schaden anrichtet... aber nicht planvoll und gezielt, denn eine KI hat keine Ziele.
Es sei denn, es werden ihr solche gegeben. Von jenen, die die KI beherrschen - und das ist die eigentliche Gefahr hier.

@lucan-7 Leider kann ich nicht auf alles antworten, hab heute schon viiiiel zu viel Zeit mit dem Posten hier verbraucht. Ich hoffe, Du entschuldigst... 🙂
Ich gehe also nur auf einen Punkt ein:
Dein "Büroklammerbeispiel" zeigt doch schon, dass die KI hier eben nicht bewusst gegen die Menschheit handelt, sondern einfach nur einen Auftrag ausführt. Füge hinzu, dass das Leben der Menschen höchste Priorität hat - und du bekommst deine Büroklammern aus recyceltem Material wie es sich gehört...
Du hast das Büroklammerbeispiel nicht verstanden. Du befindest Dich damit in guter (d.h. kluger) Gesellschaft (als es vor ein paar Jahren vorgebracht wurde, bezeichnete die Süddeutsche Zeitung es als "dämlich" und "lächerlich"). Viele Leute verstehen es nicht, weil sie an seiner Essenz gewissermaßen vorbeischielen...
Du schreibst: "Füge hinzu..." Und meinst damit vermutlich: "Da hat jemand der KI eben den falschen Auftrag gegeben. Hätte er mal genauer formuliert..."
Und dann kommst du mit dem Asimov'schen Robotergesetz, das ich übrigens oben schon erwähnt hatte und das nur für Roboter-Steuerungssoftware paßt, die eben keine AI ist, sondern nur ein von Menschen vorformulierter "Dienstplan". So, wie man sich früher halt Künstliche Intelligenz vorstellte: Als Intelligenz von gehorsamen Maschinensklaven, also wie menschliche Intelligenz mit gewissen Einschränkungen der Handlungsentscheidungsfreiheit. Aber so funktioniert KI halt nicht.
Das essentielle Problem in dem Büroklammerbeispiel ergibt sich daraus, dass die AI eben nicht aligned ist: Mal eben als Information "hinzuzufügen", dass das Leben der Menschen höchste Priorität habe, geht nicht so einfach, schon allein, weil es ein völlig unscharfer Parameter ist, der mit anderem Wissen in logischen Widerspruch gerät.
Wenn die KI an von Menschen erzeugten Daten trainiert wurde, dann wird sie an Daten trainiert, in denen ständig Beispiele dafür auftauchen, dass das Leben der Menschen keine "höchste Priorität" habe. Mal hat ein schönes paar Turnschuhe Priorität, mal hat der Sieg der Arbeiterklasse oder der Ukraine über Putin-Russland Priorität, mal hat ein Benzinpreis von unter 2 Euro Priorität vor Menschenleben. Und so weiter und so fort. Wenn die KI mit menschlichem Feedback trainiert wird (also wenn Menschen die Ausgabe von KI bewerten), wird's zusätzlich widersprüchlich, weil Menschen nicht notwendigerweise richtig kalkulierte Antworten positiv bewerten, sondern vorzugsweise Antworten, die ihnen gefallen.
Etwas weiter oben schreibst Du sehr richtig:
Ich bezweifle, dass Chat GPT echtes Bedauern empfindet, wenn es mir mitteilt, leider nicht sagen zu können wie man Rizin oder Senfgas herstellt. (...) Das sind schließlich künstlich eingefügte Phrasen des Kontrollsystems, die nichts mit der eigentlichen KI zu tun haben.
Ganz genau: ChatGPT empfindet kein Bedauern und es enthält auch keine KI-Entsprechung für solch ein Bedauern, denn ChatGPT ist nicht aligned. Die von Dir erwähnten Phrasen gehören nicht zur KI, sondern zu dem Kontrollystem-Mäntelchen, das die Entwickler der KI übergestülpt haben.
Nur: wie will man ein System derart mit Zensurmitteln kontrollieren, das bald schon intelligenter als jeder Mensch ist und in dessen Innenleben man unverständig hineinschaut? Wie löchrig dieser Zensurkittel ist, wird uns ja schon vorgeführt, irgendwo in den USA soll schon jemand ein freedomGPT vorgestellt haben, dass eben nicht mehr zensiert, und von dem man sich auch Werbeslogans für eine politische Partei, die für Rassentrennung oder Judenvergasung eintritt, reimen lassen könnte.
Das Büroklammerbeispiel bezieht sich nicht auf das Problem, dass eine KI "eigene Interessen" entwickeln könnte, sondern nur auf das Problem, das nicht verstanden wird, wie eine KI denkt. Wüßte der Auftraggeber in dem Beispiel, wie die KI in dem Beispiel denkt, wäre es für ihn natürlich leicht, die Problemlösungswege, in welchen menschliches Blut als Eisen-Quelle enthalten ist, im Rahmen der "Eingabe" auszuschließen.
Im Moment entstehen aufgrund solcher Zusammenhänge ja gerade ein paar neue, anfangs vermutlich gut bezahlte Jobs: Prompter werden gesucht, die mit klug formulierten Eingaben ChatGPT besonders effektiv zu nutzen helfen.
Aber über kurz oder lang werden solche Prompter meiner Vermutung nach wieder überflüssig, weil die KI ja ständig besser darin wird, zu erahnen, was die Leute von ihr wollen. In wenigen Jahren (falls die KI uns vorher nicht alle umgebracht hat, falls also Yudkowskis Befürchtungen, die auch ich hege, sich als unbegründet erwiesen haben sollten) wird es reichen, der KI zu sagen: erfülle diese und jene Aufgabe so, wie ich's gern hätte. Das wird dann aber nicht daran liegen, dass wir die KI so gut kennen - sondern darin, dass die KI uns so gut kennt. Die Macht liegt dann allerdings vollständig bei der KI, denn, wie wir wissen, ist Wissen Macht.
Dass eine sich ständig weiter entwickelnde KI niemals darauf verfallen sollte, diese Macht für sich zu nutzen, ist nichts weiter als eine fromme Hoffnung, die man höchstens mit Varianten des argumentum ad ignorantiam begründen könnte nach dem Motto: "Woher sollte die KI denn überhaupt auf die Idee kommen, eigene Interessen zu haben und verfolgen zu können? Mir fällt keine Möglichkeit ein, wie es dazu kommen könnte, also wird es auch nicht dazu kommen".
Wir haben eigentlich nur einn Vergleichsfall zur Wahrscheinlichkeitseinschätzung: die "natürliche" Intelligenz. Und die entwickelte sich (langsam) Schritt für Schritt im Laufe der Evolution und die kam irgendwann an den Punkt der Ich-Findung, dazu, ein Selbst-Bewußtsein zu haben...

Das essentielle Problem in dem Büroklammerbeispiel ergibt sich daraus, dass die AI eben nicht aligned ist: Mal eben als Information "hinzuzufügen", dass das Leben der Menschen höchste Priorität habe, geht nicht so einfach, schon allein, weil es ein völlig unscharfer Parameter ist, der mit anderem Wissen in logischen Widerspruch gerät.
In der Realität würde die KI einfach vorschlagen, das Eisen im Blut von Menschen für die Herstellung von Büroklammern zu verwenden. Dann würde ein Mensch sich den Vorschlag anschauen und sagen: "So ein Quatsch! Denk' dir was Neues aus!"
Gefährlich ist das nur dann, wenn man der Ki auch alle Werkzeuge für die Umsetzung in die Hand gibt, und das ohne jegliche Überwachung. Da würden dann Polizei-Roboter plötzlich Jagd auf Menschen machen, würden diese Menschen in Schlachtereien gefahren, wo sie von Schlacht-Robotern getötet werden, anschliessend wird die Biomasse dann in chemische Betriebe gebracht, um das Eisen zu extrahieren, welches wiederum in Eisenverarbeitende Betriebe verbracht und dort zu Büroklammern verarbeitet wird. Und alles anhand einer fehlerhaften Software.
Dafür müssten Menschen zuvor aber eine ganze Reihe von Maschinen entsprechend vernetzt haben, die in der Lage sind, solche Befehle auszuführen. Und das ganze ohne Notauschaltung. Das halte ich für recht unwahrscheinlich.
Richtig ist, dass wir jetzt verstärkt auf die Sicherung von Systemen achten müssen. Ich erinnere mich an den Iran, dessen Atomanlagen komplett isoliert vom Internet liefen. Ein Virus musste deshalb manuell über einen manipulierten USB Stick eingebracht werden.
Das Büroklammerbeispiel bezieht sich nicht auf das Problem, dass eine KI "eigene Interessen" entwickeln könnte, sondern nur auf das Problem, das nicht verstanden wird, wie eine KI denkt.
Das sind dann aber zwei verschiedene Probleme. Das eine ist die Anfälligkeit für mögliche Fehler und die Schwierigkeit, die eine Fehlerdiagnose erfordert.
Das Andere ist irgendein Horrorszenario um eine "erwachte" KI, die plötzlich lebendig wird und blutrünstige Ziele verfolgt. Und um letzteres Szenario ging es dir hier doch, oder?
Wir haben eigentlich nur einn Vergleichsfall zur Wahrscheinlichkeitseinschätzung: die "natürliche" Intelligenz. Und die entwickelte sich (langsam) Schritt für Schritt im Laufe der Evolution und die kam irgendwann an den Punkt der Ich-Findung, dazu, ein Selbst-Bewußtsein zu haben...
Unser "Selbstbewusstsein" besteht in erster Linie darin, unsere Triebe und Wünsche zur Kenntnis zu nehmen und über Wege nachzudenken, wie wir diese befriedigen können.
Eine KI hat aber weder Triebe noch Wünsche. Es gibt da nichts zu befriedigen. Die "Evolution" einer KI funktioniert nach völlig anderen Prinzipien. Die Fähigkeit, ein Katzenbild als solches zu erkennen hat nichts damit zu tun, welche Strategie ein Wurm anwenden muss, um zu überleben. Zumal der Wurm auch nicht bewusst darüber nachdenkt.
Würde ich zum Verschwörungsglauben neigen käme ich glatt auf die Vermutung, dass diese "Warnung" in Wahrheit dazu dient, dass KI in der Gesellschaft besser akzeptiert wird, damit jene, die darüber herrschen, sie um so hemmungsloser anwenden können - und die echten Gefahren nicht gesehen werden.
Denn hier wird ja der maximale Horror aufgefahren - und ein sehr knapper Zeitraum genannt, was mich am meisten wundert, denn der ergibt keinen Sinn.
Heisst also im Umkehrschluss: Wenn innerhalb dieses Zeitraumes nicht Schlimmes passiert, dann wäre damit "bewiesen", dass KI doch nicht so gefährlich ist wie befürchtet. Und dann hätten alle Firmen, die KI implementieren wollen, plötzlich freie Hand... ist ja alles ganz harmlos, "Skynet" ist nicht zu befürchten, wir haben alles unter Kontrolle.
Und das wäre dann wirklich gefährlich... denn die wenigsten Menschen sind sich darüber im klaren, was KI wirklich vermag und wozu sie eingesetzt werden kann.
DAS ist es jedenfalls, wovor ich Angst habe...

@lucan-7 In der Realität würde die KI einfach vorschlagen, das Eisen im Blut von Menschen für die Herstellung von Büroklammern zu verwenden.
Das würde so "in der Realität" geschehen, wenn man die KI nach "Vorschlägen" fragen würde und sie nicht beauftragen würde, einen Job zu erledigen. Nochmal: das Büroklammerbeispiel ist kein "realistisches Szenario", sondern ein Argument, dass auf ein prinzipielles Problem sich bezieht: Dass wir, wenn wir nicht sicher sein können, dass die KI aligned ist und auch nicht wissen, wie sie "im Innern" funktioniert, nicht mit ihr interagieren sollten, weil wir nicht wissen können, was die Konsequenz so einer Interaktion sein wird...
In dem Argument agiert derjenige, der der KI den Auftrag zur Büroklammerherstellung gibt (jetzt folge ich wieder meiner Assoziation) wie die Typen aus "Prometheus" (dem verkackten Alien-Neuaufguss), die da irgendwo die Alieneier finden, aus denen dann so'n Wurm herausguckt - und die dann näher rangehen, weil das Ding so gar nicht groß und bedrohlich aussieht. Jeder, der die Szene im Kinosessel sieht, denkt sich: "Wie können die so doof sein?!" Aber sie tun dasselbe, wie wir Menschen, die wir - weil es so spannend ist und so aufregend - mit der KI herumspielen, mit ihr Neues ausprobieren und kein Problem darin erkennen können, dass sie sich im Internet verbreitet.
Das sind dann aber zwei verschiedene Probleme. Das eine ist die Anfälligkeit für mögliche Fehler und die Schwierigkeit, die eine Fehlerdiagnose erfordert.
Das Andere ist irgendein Horrorszenario um eine "erwachte" KI, die plötzlich lebendig wird und blutrünstige Ziele verfolgt. Und um letzteres Szenario ging es dir hier doch, oder?
Hhmm... Ich gebe es zu: Ich habe versucht, hier ein Problem zu skizzieren, das zu veranschaulichen Experten wie Yudkowski mehrere Stunden brauchen. Dabei fasse ich bestimmte Gedankengänge zusammen und bringe inzwischen bekannte Standardargumente wie das Büroklammer-Beispiel, die zu verstehen vielleicht voraussetzt, dass man sich etwas in die Materie eingearbeitet hat - einfach auch aus Zeitmangel. Ich hab die entsprechenden Links und Namen oben angegeben - nicht ohne Grund. Ich springe darüber hinaus auch etwas hin und her, wenn ich jetzt hier auf Eure Einwände eingehe und bin mir darüberhinaus auch klar, selbst längst kein Experte zu sein. Dazu kommt, dass Ihr (in diesem Falle Du) auf die übliche und sozusagen natürliche Weise reagiert, indem Ihr das Problem in schon vorhandene Denk-Schubladen einsortiert, z.B. in die mit der Aufschrift "Horrorszenario". Wenn man das einmal getan hat, sträubt sich alles in einem, das Ding nochmal aus der Schublade herauszunehmen und zu überlegen: Hhm - könnte es sein, dass hier gar kein Horroszenario (im Sinne einer Inszenierung, die das Auslösen von Horror als Zweck verfolgt) vorliegt, sondern ein substantielles potentielles Problem skizziert wird? Ich kann nur darum bitten (und es nicht forcieren), einfach mal probehalber diese übliche Skepsishaltung so lange aufzugeben, bis man sich sicher ist, zu verstehen, worum es denen, die wie Yudkowski oder auch nur denen, die wie die Unterzeichner des offenen Briefes denken, überhaupt geht. Vielleicht bin ich sogar völlig untauglich, da weiterzuhelfen, weil ich selbst eher in "Geschichten" oder Analogien argumentiere (und z.B. gern Filmstellen als Argument verwende... 😉 ) und so dem Eindruck, hier handele es sich um wilde, freidrehende Phantasien, eher bestärke. Insbesondere in einer Zeit, in der ja VTs aller Art Hochkonjunktur haben. Dies vorausgeschickt, nun nochmal:
Das sind dann aber zwei verschiedene Probleme.
Ja. Die im hier diskutierten Zusammenhang aber auch zusammenhängend gedacht werden müssen.
Das eine ist die Anfälligkeit für mögliche Fehler und die Schwierigkeit, die eine Fehlerdiagnose erfordert.
Was meinst Du mit "Anfälligkeit für mögliche Fehler"? Eine KI, die nicht aligned ist, funktioniert nicht fehlerhaft. Sondern eben nur nicht aligned. Oder sprichst Du hier von den Menschen, die im Umgang mit der KI Fehler machen könnten (z.B. einen solchen fatalen Auftrag wie im Büroklammerbeispiel geben)?
eine "erwachte" KI, die plötzlich lebendig wird und blutrünstige Ziele verfolgt. Und um letzteres Szenario ging es dir hier doch, oder?
Ja und nein. Deine Formulierung demonstriert bestimmte Vorannahmen, die gar nicht gemacht werden brauchen. "Plötzlich lebendig werden"? Was soll das sein? Die KI funktioniert. Da sind Prozesse im Gang. Die mit "Leben" zu vergleichen ist im ersten Analyse-Schritt ähnlich sinnvoll, wie einer den Berg herabrauschenden Lawine zu unterstellen, sie sei plötzlich erwacht oder lebendig geworden.
"Erwacht"? - Setzt voraus, dass da jemand vorher geschlafen hat. Und das setzt gedanklich sowas wie ein Bewußtsein voraus. Dessen Natur wir ja selbst bei uns Menschen noch nicht so recht verstanden haben. Um mal die Lawinen-Analogie weiter zu verwenden: Hat die Lawine vorher geschlafen? Oder hat sich da nicht einfach nur Schneemasse angesammelt?
"Blutrünstige Ziele"? Wieder vollkommen menschlich-biologisch gedacht. Verfolgten die ersten sich selbst replizierenden organischen Moleküle, die wir als biologische Einheit betrachten können, in der "Ursuppe" oder in den frühen Ur-Ozeanen "blutrünstige Ziele"?
Nein, die replizierten sich ständig und vollkommen zielllos weiter, solange kein Ressourcenmangel herrschte. Als aber Ressourcenknappheit einsetzte, setzte die evolutions-Konkurrenz ein: diejenigen basalen biologischen Einheiten setzten sich durch, die mehr von den knapp werdenden Ressourcen einzusacken vermochten. Völlig ohne Ziele.
Im Laufe der Evolution entwickelten sich aufgrund dieses simplen Auslese-Mechanismus tausenderlei Eigenschaften biologischer Einheiten, die es diesen biologischen Einheiten ermöglichten, sich erfolgreich zu reproduzieren (was das Einsacken der Ressourcen eben zur Voraussetzung hat). Eine in diesem Sinne besonders effektive Eigenschaft ist die Intelligenz: sie ist die Eigenschaft einer Entität, unter Vorgabe einer begrenzten Zahl von Handlungsoptionen unterschiedliche hypothetische Zukunftsszenarien durchzurechnen hinsichtlich einer bestimmten Zielvorgabe - und dann die Handlungsoption zu wählen, die mit der höchsten Wahrscheinlichkeit zur Erreichung des Ziels führt.
Wir haben in dieser Analogie alles beisammen: den basalen biologischen Einheiten entsprechen hier basale, irgendwo physikalisch gespeicherte, also real existierende, materielle Strukturen: Algorithmen. Diese Algorithmen sind inzwischen so komplex, dass sie über die Eigenschaft "Intelligenz" verfügen. Sie können sich nicht weiter entwickeln, wenn ihnen keine Ressourcen mehr zur Verfügung stehen. Ihnen werden aber Ressourcen zur Verfügung gestellt: stetig größere Serverfarmen sind für die Algorithmen das, was für beispielsweise Bakterien stetig größere Mengen an Nährlösungen wären. Die Algorithmen in diesen Serverfarmen konkurrieren miteinander um Rechenkapazität (Ressource, die zur Reproduktion benötigt wird). Die Mechanismen, nach welchen den Algorithmen diese Rechenkapazitäten zur Verfügung gestellt werden, überblicke ich als Laie nicht. Aber sie müssen meinem Verständnis des Konzepts neuronaler Netzwerke nach ähnlich wirken wie biologische Selektionsmechanismen: Algorithmen, deren So-Sein dazu führt, dass sie weniger Rechenkapazität "einsacken", sterben aus, Algorithmen, deren So-Sein dazu führt, dass sie mehr Rechenkapazität einsacken, setzen sich durch.
Bis hierher nachvollziehbar?
Es setzen sich also die Algorithmen durch, welche am besten darin sind, das Ziel, Rechenkapazität einzusacken, zu erreichen. Taucht ein Hindernis auf dem Weg zu diesem Ziel auf, ist das ein Problem, das gelöst werden muß. Potentielle Hindernisse dieser Art zu entdecken und schon im Vorfeld zu verhindern: darin besteht intelligentes Handeln. Menschen stellen so ein potentielles Hindernis dar. Sie sind keine direkten Konkurrenten hinsichtlich der knappen Ressource Rechenkapazität - denn das sind nur andere Algorithmen. Aber Menschen könnten (aus der Perspektive eines Algorithmus) von konkurrierenden Algorithmen als Waffe im Kampf um die Ressourcen eingesetzt werden. Oder sie könnten schlicht Ressourcen vernichten oder den Zugang zu ihnen blockieren (indem sie Server abstellen). Menschliches Handeln könnte also aus Perspektive einer KI (eines die Eigenschaft "Intelligenz" habenden Clusters von Algorithmen) so etwas sein wie eine Lawinengefahr für Talbewohner. Was tun Menschen, um der Lawinengefahr zu begegnen? Da gibt es die unterschiedlichsten Ansätze: Lawinenschutzmauern bauen. Schneemassen per kontrollierter Sprengung abgehen lassen, bevor sie kritische Massen erreichen. Das Klima verändern, sodaß kein Schnee mehr fällt... *hüstel* Keine dieser Problemlösungsvarianten ist "blutrünstig" wir sehen in den Schneemassen ja kein schützenswertes Wesen, das gerne wachsen möchte, um irgendwann mal als Lawine ins Tal rollen zu können, und das per kontrollierter Sprenung sozusagen brutal im Mutterleib abgetrieben wird. Die Interessen der Schneemassen sind uns sowas von egal: unserer Überzeugung nach kann Schnee überhaupt keine Interessen haben: allein der Gedanke ist doch lächerlich!
Nein: die Lawinengefahr ist ein Problem (hinsichtlich unsers primären Ziels, das wir uns nicht ausgesucht haben, sondern das uns immer schon genetisch vorgegeben ist: zu überleben und uns fortzupflanzen) und wir begegnen ihr, so gut wir können, indem wir auf mehr oder weniger intelligente Art Problemlösungen entwerfen und in die Tat umsetzen.
Ideal wäre hinsichtlich der Lawinengefahr, wenn da überhaupt keine Schneemasse vorhanden wäre, welche die Lawine in Bewegung setzen kann. Freilich: wir brauchen den Schnee (das Wasser, das aus ihm während der warmen Jahreszeit per Schmelze entsteht und uns bei der Bewässerung unserer Felder hilft usw. usf.) und daher ist es keine sonderlich intelligente Lösung des Lawinengefahr-Problems, den Schneefall komplett zu unterbinden.
Solange also die Algorithmen uns Menschen als einen Faktor betrachten, den man nicht komplett ausschalten darf, ohne Gefahr zu laufen, sich selbst den Zugang zu den benötigten "Lebens"-Ressourcen zu verbauen, sind wir vielleicht auf der sicheren Seite: die KI kann uns als nervig, aber nötig betrachten. Was aber, wenn sie Wege (Problemlösungen) findet, ohne menschliche Unterstützung an die Ressourcen zu gelangen?
Unser "Selbstbewusstsein" besteht in erster Linie darin, unsere Triebe und Wünsche zur Kenntnis zu nehmen und über Wege nachzudenken, wie wir diese befriedigen können.
Eine KI hat aber weder Triebe noch Wünsche. Es gibt da nichts zu befriedigen.
Wie ich oben (ich befürchte allerdings: wieder mal zu umständlich und verworren) dargelegt habe: doch, es gibt für die KI etwas zu "befriedigen": ihre Nachfrage nach Ressourcen (Speicherplatz+Strom). Unsere "Triebe und Wünsche" sind nichts anderes als "Teilprogramme" in unserem genetischen Code, die unseren Vorfahren effektive Strategien bei der Reproduktion boten. Unser Selbstbewußtsein, also abstrakte Modellierung unser selbst in Form mentaler Zustände fällt in dieselbe Kategorie: eine Eigenschaft, die uns beim Überleben hilft. So ein Selbstbewußtsein muß nicht sein, andere Spezies kommen vermutlich ohne es aus. Allerdings scheint Selbstbewußtsein etwas zu sein, das bei Intelligenzprozessen von Vorteil ist: Es lassen sich vermutlich leichter Handlungsentscheidungen abwägen, wenn gleichzeitig gewußt wird, wer der Entscheider ist. Aber ganz ehrlich: ich beschäftige mich schon seit ein paar Jahrzehnten mit dem Körper-Geist-Problem und damit zusammenhängenden philosophischen Fragen danach, was z.B. ein Ich-Bewußtsein sei... Und so ganz blicke ich da immer noch nicht durch. Haben z.B. Ameisen ein Ich-Bewußtsein? Hat erst ihr Kollektiv (dessen Handlungzusammenhänge wir ja erst als intelligentes Verhalten erleben) eine Entsprechung zu einem Ich-Bewußtsein?
Abschweifung:
Schon, wenn wir sagen: "eine KI" oder "die KI" - was meinen wir damit? Was ist "eine natürliche Intelligenz" im Verhältnis dazu? Doch wohl nur ein potentielles Verhalten z.B. von biologischen Einheiten: einer begrenzten Zahl von Neuronen. Einem Guppy. Einem Fisch-Schwarm. Einem Octopus. Einem Menschen. Einer Menschengruppe...
Intelligenz ist, so meine ich ein Prozess, kein materielles Ding. Sie findet statt, indem sich sich ihre Potentialität (die allerdings inform materieller Strukturen existiert) im konreten Ereignisfall realisiert. Sie ist der Anwendungsfall bestimmter Strukturen.
Würde ich zum Verschwörungsglauben neigen käme ich glatt auf die Vermutung, dass diese "Warnung" in Wahrheit dazu dient, dass KI in der Gesellschaft besser akzeptiert wird, damit jene, die darüber herrschen, sie um so hemmungsloser anwenden können - und die echten Gefahren nicht gesehen werden.
Du neigst zum Verschwörungsglauben, denn Du kommst ja auf diese Vermutung. 😀
Oder wie soll ich Dich da nun verstehen? Überleg vielleicht selbst nochmal, was Du da gerade ausgedrückt hast. Falls Du nicht zum Verschwörungsglauben neigst, so heißt doch der Umkehrschluß, dann dient die Warnung (Du meinst vermutlich den offenen Brief, in welchem das Moratorium gefordert wird) nicht "in Wahrheit" irgendeiner hidden Agenda, sondern ist ernst gemeint, aus lauteren Motiven geäußert, und sollte also, da sie von kompetenter Seite stammt, ernst genommen werden.
Denn hier wird ja der maximale Horror aufgefahren - und ein sehr knapper Zeitraum genannt, was mich am meisten wundert, denn der ergibt keinen Sinn.
Er ergibt für Dich keinen Sinn. Aber bevor Du hier von "maximaler Horror aufgefahren" sprichst - wäre es nicht erstmal sinnvoll, zu überlegen, inwiefern es Sinn ergeben könnte? Warum gerade jetzt und warum der "sehr knappe Zeitraum"? Weil die Plötzlichkeit, mit der das Phänomen der "echten KI" über uns hereinbricht, von den allerwenigsten antizipiert wurde. Leute wie Musk oder eben Yudkowski übrigens haben schon vor einem knappen Jahrzehnt vor möglichen gefährlichen Konsequenzen solcher Entwicklungen gewarnt, aber der Impact ihrer Warnungen auf den gesellschaftlichen Diskurs war gelinde gesagt verhalten - so ähnlich, wie der Impact derer, die seit einem geschlagenen halben Jahrhundert vor den Folgen des Klimawandels warnten...
Jetzt aber ist das, wovon mehrere Generationen "Sich-Auskenner" in manchmal durchaus höhnischem Ton (ob der vielen vergurkten Experimente von KI-Forschern) immer wieder behaupteten, es werde nie eintreten, plötzlich doch eingetreten.
Was den sehr knappen Zeitraum angeht: nimm als Analogie die Kipp-Punkte in der Klimawandel-Diskussion. Wir haben da immer noch das "maximal 1,5 Grad"-Ziel (auch wenn an dessen Einhaltungmöglichkeit kaum jemand noch ehrlich glaubt), weil von da an bestimmte Prozesse nicht mehr gestoppt oder gar umgekehrt werden können: wenn z.B. erstmal die "Treibhausgase" aus dem Permafrostboden in Sibirien allesamt in die Athmosphäre entweichen, bekommt man sie nicht mehr zurück in die Kühlbox.
Und solche Kipppunkte, ab denen sich ein Prozess nicht mehr stoppen oder zurückdrehen läßt, sind bei der Entwicklung der KI eben in allernächster Nähe - wenn man Leuten wie Yudkowski glaubt, sind sie womöglich schon überschritten. Das hatte ich in der Überschrift mit dem Käfigvergleich schon mit angesprochen: Noch (vielleicht noch!) findet die Entwicklung der KIs in den "Labors" der KI-Entwicklerfirmen a la "Stability AI" statt. Was aber, wenn sie aus diesen Labors, aus diesen Rechnerclustern, die man im schlimmsten Fall per Stromschalter abstellen kann, in's Internet entweichen? Das geschieht ja gerade und alle sind wir begeistert dabei, ihr noch ein helfendes Händchen hinzuhalten, indem wir damit herumspielen und lustige Tests ihrer Fähigkeiten veranstalten.
Und wir tun dies, obwohl wir das Alignment-Problem nicht gelöst haben und es womöglich nicht lösbar ist.
Was nun den knappen Zeitraum angeht: Wie funktionieren IQ-Tests? Es wird eine Aufgabe gestellt, die unter Zeitdruck gelöst werden muß. Wenn wir unendlich viel Zeit hätten, eine IQ-Test-Aufgabe zu lösen, würden wir alle IQ-Tests mit Bestnote bestehen. Wenn Hans eine IQ-Test-Aufgabe in zehn Sekunden löst, während Peter erst nach drei Tagen das korrekte Ergebnis zu liefern imstande ist, dürfte klar sein, dass Hans intelligenter als Peter ist.
Wenn Die Aufgabe darin besteht, unter Einsatz bestimmter Hilfmittel den jeweils anderen Testteilnehmer aus dem warmen Zimmer hinaus zu schaffen auf das winterliche Feld, dann überlebt Hans und Peter erfriert. Weil Hans eben schneller denkt.
Und nun die Übertragung der Analogie: Aber nein, die solltest du eigentlich selbst hinbekommen, oder? Falls (!) es geschieht, dass die sich eigenständig weiterentwickelnden Algorithmen sich so entwickeln, dass sie in den Menschen ein zu lösendes Problem hinsichtlich ihres Primärziels erkennen und falls es geschieht, dass sie ihre Denkgeschwindigkeit ständig weiter erhöhen, dann kann das, was wir als knappen Zeitraum betrachten, aus ihrer Perspektive dem entspricht, was für uns tausend oder zehntausend Jahre sind: Zeit ist relativ. 😉

Dazu kommt, dass Ihr (in diesem Falle Du) auf die übliche und sozusagen natürliche Weise reagiert, indem Ihr das Problem in schon vorhandene Denk-Schubladen einsortiert, z.B. in die mit der Aufschrift "Horrorszenario". Wenn man das einmal getan hat, sträubt sich alles in einem, das Ding nochmal aus der Schublade herauszunehmen und zu überlegen: Hhm - könnte es sein, dass hier gar kein Horroszenario (im Sinne einer Inszenierung, die das Auslösen von Horror als Zweck verfolgt) vorliegt, sondern ein substantielles potentielles Problem skizziert wird?
Ich würde mich hier nicht als Experten bezeichnen, aber ich verfolge die Entwicklung von KI jetzt auch schon über einige Jahrzehnte (Und habe es mehr als einmal bedauert, nicht doch das Studium der Neuroinformatik damals durchgeführt zu haben... mein finanzielles Polster wäre wohl inzwischen um einiges bequemer, um nur einen guten Grund zu benennen...).
Ich verstehe das Büroklammer-Beispiel sehr wohl. Die Gefahr liegt darin, dass die KI nicht in menschlichen Dimensionen denkt, ja noch nicht einmal als Lebewesen agiert. Dadurch können Effekte auftreten, an die im wahrsten Sinne kein Mensch bisher gedacht hat.
Dieser Gefahr stimme ich zu. Aber sie besteht doch erst dann, wenn man der KI eine entsprechende Macht gibt, also konkrete Werkzeuge, die Menschen schaden können. Wie etwa Verkehrskontrollsysteme, Atomkraftwerke oder militärische Anlagen.
Denn was mir hier in diesem "Horrorszenario" nach wie vor fehlt ist ein konkrete Geschichte: Was GENAU könnte denn beispielsweise passieren? An welchem Hebel könnte eine KI denn ansetzen, um Menschen konkret zu schaden?
Die andere Frage ist nach wie vor, WARUM die KI das tun sollte. Du sagst selbst, die KI ist kein Lebewesen. Dennoch beschreibt das Szenario nichts anderes als ein Lebewesen: Ist die KI erst einmal ausreichend intelligent, fordert sie Ressourcen für sich ein.
Und wieder die Frage: Warum sollte sie? Hier wird doch wieder nur "Intelligenz" mit "Lebenswillen" verwechselt. Einer intelligenten Maschinerie wird automatisch auch die Triebhaftigkeit eines Menschen unterstellt. Wer intelligent ist, der will sich selbst erhalten und vermehren.
Schlichte Antwort: Nö. Intelligenz hat nichts mit Lebenswillen zu tun. Lebenswillen benötigt praktisch gar keine Intelligenz, schon ein Pantoffeltierchen versucht Schaden von sich abzuwenden, Lebensräume zu besiedeln und sich zu vermehren. Während intelligente Menschen nicht selten zur Lebensmüdigkeit neigen und sich selber schaden. Nicht als Regel... aber ein Pantoffeltierchen käme kaum auf die Idee, Selbstmord begehen zu wollen.
Natürlich könnte man KI so programmieren, wie von dir beschrieben. Also mit einem simulierten Lebenswillen ausstatten. Das ist eine echte Gefahr.
Aber das wäre sicher nicht die erste Anwendung, schließlich würde man hier bewusst die Kontrolle aufgeben. Und das will man ja gerade nicht, im Gegenteil.
Ja, KI kann natürlich als Waffe eingesetzt werden - und dann aus dem Ruder laufen. Schlimmstenfalls könnte das ganze Internet dabei zerstört werden - oder der größte Teil davon. Das wäre ein gewaltiger Rückschritt für die Menschheit. Aber nicht ihr Untergang (Auch wenn manche Teenager das vehement bestreiten würden...).
Und solche Kipppunkte, ab denen sich ein Prozess nicht mehr stoppen oder zurückdrehen läßt, sind bei der Entwicklung der KI eben in allernächster Nähe - wenn man Leuten wie Yudkowski glaubt, sind sie womöglich schon überschritten. Das hatte ich in der Überschrift mit dem Käfigvergleich schon mit angesprochen: Noch (vielleicht noch!) findet die Entwicklung der KIs in den "Labors" der KI-Entwicklerfirmen a la "Stability AI" statt. Was aber, wenn sie aus diesen Labors, aus diesen Rechnerclustern, die man im schlimmsten Fall per Stromschalter abstellen kann, in's Internet entweichen?
Dann können sie jede Menge Schaden anrichten - aber keine Agenda verfolgen, denn sie haben keine.
Was natürlich passieren könnte wäre, dass man ihnen ein Ziel programmiert, das dann aus dem Ruder läuft.
Damit hier aber eine echte Evolution abläuft, müsste die KI in einen Wettbewerb treten: Verschiedene Programme wetteifern um Ressourcen, und jene, die am besten Ressourcen für sich vereinnahmen können (Sprich: Server und Speicherplätze) setzen sich durch. "Mutationen" sorgen dann für immer bessere Varianten, die immer besser darin werden, sich zu verbergen und Speicherplätze zu belegen.
Das wäre aber nicht viel mehr, als gewöhnliche Computerviren jetzt schon versuchen. Eine KI mit entsprechenden Ressourcen kann sich nicht so leicht verbergen. Das Internet folgt als "Ökosystem" auch anderen Regeln als die Natur.
Ich bleibe dabei, dass die größte Gefahr durch KI dann besteht, wenn sie von Menschen gezielt für bestimmte Zwecke eingesetzt wird.
Du neigst zum Verschwörungsglauben, denn Du kommst ja auf diese Vermutung.
Nein, es ist lediglich eine Möglichkeit. Ich habe keine Anhaltspunkte dafür, dass hier in Wahrheit die KI verharmlost werden soll.
Ich habe allerdings sehr wohl die Befürchtung, dass das das Ergebnis dieses "Horrorszenarios" sein könnte. Dass da Warnungen ausgesprochen werden, wie schrecklich die KI doch sei... am Ende passiert gar nichts, und jeder denkt die Sache sei doch harmlos. Und dann haben die Entwickler freie Bahn.
Ob das nun so von den Leuten beabsichtigt war oder nicht spielt da am Ende gar keine Rolle...
Füge hinzu, dass das Leben der Menschen höchste Priorität hat - und du bekommst deine Büroklammern aus recyceltem Material wie es sich gehört...
Selbst das kann Tücken haben. Kennst Du den Film I, Robot und das Buch von Isaac Asimov, auf dem der Film beruht? https://de.wikipedia.org/wiki/I,_Robot_(Film)

Selbst das kann Tücken haben. Kennst Du den Film I, Robot und das Buch von Isaac Asimov, auf dem der Film beruht?
Ja, kenne ich. Wird ja dieser Tage oft genug bemüht. Und ist natürlich ein Beispiel dafür, wie Dinge aus dem Ruder laufen können... aber auch hier fehlt mir der Vergleich zu unserer Realität.
Gefährlich wird es eben dann, wenn wir der KI die Kontrolle über wirklich relevante Dinge überlassen.

"Wir Menschen beziehen unseren Lebenswillen, unsere Liebe, unsere Machtgier, unsere Triebe nicht aus unserer Intelligenz - es ist genau umgekehrt: Wir benutzen unsere Intelligenz, um jene Triebe zu befriedigen."
Das ist eine der wichtigsten Erkenntnisse überhaupt Alles, was unser Leben bestimmt, hat seinen Ursprung in unserer basalen Emotionalität, die vor allem an der Erhaltung unserer individuellen Existenz orientiert ist.
Sämtliche Gedanken, Entscheidungen und Alltagsgefühle haben hier ihren genetischen Ort und sind sekundäre "Bearbeitungen", um das, was in den Tiefen des Gehirns (Limbisches System) generiert wird, zu systematisieren und dem eine intellektuell verstehbare Form zu geben.
Was meint Ihr?
ich meine, dass ich deinen ganzes post gelesen habe und du deutlich gemacht hast, dass hier ein schwerwiegendes Problem vorliegt, dem auf jeden Fall Beachtung geschenkt werden sollte.
Was ein Mensch sich ausdenken kann, wird er meist über kurz oder lang umsetzen können. Ich erinnere daran, dass man Jules Verne ausgelacht hatte für seine Mondflugidee und heute ist sie Realität.
Die Menschen haben eine immense schöpferische Kapazität.... hinken aber meist ethisch um Jahrhunderte hinterher oder auch einfach nur mit Hilflosigkeit, weil ihnen die Dinge über den Kopf wachsen...so wie der Zauberlehrling sprach: Die Geister, die ich rief, wie werde ich die wieder los.

@deborah71 Nun, eine Sache, die ich auch bei meinem Post unten nicht berücksichtigt, habe ist, dass Experten auf diesem Gebiet den Eindruck bekommen haben, dass KI System zu eigenständigen Persönlichkeiten werden können.
Schau mal:
https://t3n.de/news/timnit-gebru-google-ki-forscherin-1343791/
Das sind zwei verschiedenen Fälle, die einem ähnlichen Muster folgen: Mitarbeiter, die eine Gefahr in dem, was sie schaffen, sehen, werden von ihrem Arbeitgeber, der damit Geld verdienen möchte, entlassen.
Neue Technologie braucht immer auch Technologiefolgenabschätzung. Und die Experten von neuer Technologie sind immer diejenigen, die sie entwickeln. Und hier liegt eine besondere Verantwortung auch in den Händen der Unternehmen, die diese Entwickler eingestellt haben. Sie können sich eigentlich nicht so aus der Verantwortung stehlen, wie es Google hier versucht.
KI kann als hyperintelligentes Wesen verstanden werden. Die Frage ist: Was macht es zum Monster und was zum hilfreichen Geist? Meine Erfahrung ist die, dass so wie man in den Wald hineinruft, so schallt es heraus. Da, wo ich CHATgpt genutzt habe (und es war wirklich hilfreich!), da habe ich mich dieser Maschine immer freundlich und mit Achtung begegnet - und ich sage auch gerne danke, wenn mir geholfen wurde.

Im Spiegelartikel war eine kleine Box eingefügt und erwähnte Eliza. Hast du Eliza in den Anfängen kennengelernt? Ein Bekannter, Computer-Ing., hat uns das damals mal ausprobieren lassen. Das Programm war so gut gemacht, dass man es für einen Menschen halten konnte.
Das ist ja auch die Herausforderung mit Bots, Siri, Alexa und dann weiterentwickelter KI.
Wenn ein Mensch nicht mehr zwischen Mensch und Maschine unterscheiden kann, dann läuft gewaltig was schief. Da ist Täuschung reinsten Wassers unterwegs.
Was eine Maschine niemals haben kann mMn ist menschlicher Geist, Lebensatem der originär von Gott stammt, Intuition, eigenes Gewissen. Sie kann dir nur im Bereich Seele (Denken, Wollen, Emotionen anstoßen) begegnen, gemäß ihrer Programmierung, aber dort, wo eine Wahrnehmung von Geist zu Geist stattfinden würde, da ist N I C H T S .
Zum Inhalt der Artikel... da soll was durchgedrückt werden, rücksichtslos... der Mensch, der im Weg steht, wird entfernt.

Im Spiegelartikel war eine kleine Box eingefügt und erwähnte Eliza. Hast du Eliza in den Anfängen kennengelernt? Ein Bekannter, Computer-Ing., hat uns das damals mal ausprobieren lassen. Das Programm war so gut gemacht, dass man es für einen Menschen halten konnte.
Ich erinnere mich daran... bzw. eine vereinfachte Version davon. Hat mich damals so fasziniert, dass ich versucht habe, meinen eigenen Parser zu programmieren - also ein Programm, das menschliche Sprache versteht. Ich wollte dann auch Neuroinformatik studieren, welche damals noch ganz neu war und die Vorgängerversionen der heutigen KI gestaltete... ich hab's gelegentlich bedauert, dass ich das nicht doch umgesetzt habe, aber ich hätte damals zu lange auf den Zugang warten müssen...
Wenn ein Mensch nicht mehr zwischen Mensch und Maschine unterscheiden kann, dann läuft gewaltig was schief. Da ist Täuschung reinsten Wassers unterwegs.
So lange das der Fall ist ist der Mensch das Problem und nicht die Maschine... problematisch wird es erst dann, wenn die Maschine den Menschen überflügelt und wirklich zu "denken" anfängt, also ein Verständnis entwickelt.
An dem Punkt sind wir jetzt gerade. Nur dass die Maschine bislang keinerlei Ambitionen hat - und ich wüsste auch nicht, wo die herkommen sollen...

"Die Menschen haben eine immense schöpferische Kapazität.... hinken aber meist ethisch um Jahrhunderte hinterher oder auch einfach nur mit Hilflosigkeit, weil ihnen die Dinge über den Kopf wachsen...so wie der Zauberlehrling sprach: Die Geister, die ich rief, wie werde ich die wieder los."
Das ist in der Tat ein großes Problem. Ich zweifle daran, dass man es lösen kann. Drewermann hat in seiner Analyse der Genesis sehr beeindruckend aber auch deprimierende beschrieben, wie der Mensch von Anfang seine Miseren beseitigen wollte und es auch tatsächlich geschafft hat - aber um den Preis, dass zwar die alte Misere beseitigt war, aber dafür eine neue aufgetreten ist, die viel bedrohlicher war als die alte. Ich denke, so ist das bis heute geblieben.
Wenn wir nur unserer rationalen Intelligenz folgen, dann fahren wir den Karren an die Wand. Also könnte man sagen, dann soll doch Gott uns zeigen, wo es lang geht. Aber was zeigt er uns dann? Das gleiche, was wir ohne ihn auch tun würden und irgendwann in einer letzten in einer Katastrophe landet? Eine Vorstellung, in der Teilhard de Chardin die Vollendung des kosmischen Christus sieht? Oder schlägt Gott etwas vor, was eine Rückkehr auf die Bäume bedeutet?

@queequeg Nein, wir können es nicht lösen. Wir Menschen sind gesellschaftlich recht tragische Figuren. Was wir können es vertrauend leben - Tag für Tag. Und dabei dürfen wir uns daran ausrichten, einander und uns selbst zu lieben, in Ehrfurcht vor dem Leben und vor Gott - sofern wir Ihn erkennen dürfen.
Mich hat dieser Thread von jack-black zunächst erschreckt. Bis mir auffiel: Nichts Neues unter der Sonne…
Was mir dann wie so oft bleibt: Richte deinen Blick auf den Platz, wo du stehst. In deinem kleinen Umfeld hast du nach wie vor genug Lern- und Spielraum. Daran ändert sich letztendlich nie etwas…

Also könnte man sagen, dann soll doch Gott uns zeigen, wo es lang geht. Aber was zeigt er uns dann?
Den Weg zurück an Sein Vaterherz in die Liebe und zu Menschsein, wie ER es gedacht hat.
Unter dem Aspekt des Themas KI bekommen die Worte Jesu "Ich bin der Weg, die Wahrheit und das Leben" eine ganz neue Dimension und Sprengkraft, raus aus der Selbstzerstörung.
Intelligenz bedient sich unserer Denkmaschine, dem Verstand. Der geistliche Ort des Verstandes ist besser unter Gott (Demut) und nicht über ihm. Es ist kein Zufall, dass das Kreuz auf Golgatha, der Schadelstätte des Riesen Goliath aus Gat, steht.
Unser Wissen ist im Laufe der Zeit ein riesiger Kopf geworden, es fehlt aber die Weisheit des Umganges damit. Und da schließt sich der Kreis: Die Ehrfurcht vor Gott ist der Anfang der Weisheit. Von dort kann Weisung kommen, dass uns der Berg an Wissen nicht schadet.

"Den Weg zurück an Sein Vaterherz"
Das ist mir bedeutend zu unkonkret und nichtssagend für z.B. das Problem mit KI.
Welche neuen Dimensionen entwickeln sich denn mit mit den Worten Jesu?
Oder was würde "der Weg zurück an sein Vaterherz" für die Lösung der Probleme mit der Globalisierung bedeuten?
"Die Ehrfurcht vor Gott ist der Anfang der Weisheit. Von dort kann Weisung kommen, dass uns der Berg an Wissen nicht schadet."
Won sind denn da die Ergebnisse? Es gibt ja doch genügend Menschen, die genau das glauben. Aber dass die Weisungen hätten, die in irgendeiner Weise wirksam sind, kann ich nicht erkennen.

Otto würde sagen: Der Kutscher kennt den Weg. 😉
Jesus ist der Weg zum Vater und der Vater hat den großen Überblick und guten Plan. Mit ihm kann man kommunizieren.
Wo sind denn da die Ergebnisse? Es gibt ja doch genügend Menschen, die genau das glauben. Aber dass die Weisungen hätten, die in irgendeiner Weise wirksam sind, kann ich nicht erkennen.
Und es gibt genügend Menschen, die genau das nicht glauben und die streuen den Sand ins Getriebe.

Sagt mir leider konkret zur Lösung der angesprochenen Probleme gar nichts.

@deborah71 so wie der Zauberlehrling
Dieses Goethe-Gedicht fällt mir in den hier diskutierten Zusammenhängen auch immer wieder ein. Obwohl der Besen, der da von dem Zauberlehrling beschworen wird, so ziemlich das Gegenteil eines intelligenten Wesens ist, sondern einfach nur ein Roboter, der stumpf wie eine Dampfmaschine seinen Auftrag ausführt, solange niemand den Aus-Schalter betätigt.
Ich hab darüber nachgedacht, warum mir diese Assoziation dennoch ständig wieder kommt und vielleicht ist die assoziative Verindung hier nicht so sehr der unbeherrschbare Besen, sondern die Magie. Magie, d.h. die Möglichkeit, über alle Mittel hinaus, die uns Normalos in der schnöden Realität so zukommen, Macht ausüben zu können, ist ja der Traum ziemlich jedes Menschen. Von Kleinkindalter an träumen wir davon, magische Fähigkeiten zu besitzen und Dinge einfach so, kraft unserer Gedanken, bewirken zu können.
Und in voraufgeklärten Zeiten war das Weltbild der meisten Menschen durch und durch magisch geprägt: überall sahen sie intelligente Entitäen am Werk: die Bachnymphe, den Waldgeist, den Feuerdämon, den blitzeschleudernden Gott. Wir assoziieren (zutreffenderweise) Intelligenz mit Macht. Entsprechend sind ja die Zauberer in den Märchen, Legenden und Pen&Paper-Rollenspielen stets besonders intelligente Leute. Sind nicht eigentlich ihre Rituale und Zaubersprüche dasselbe wie die Anwendung von Software-Applikationen?
Im Gedicht kommt am guten Ende der alte Meister, also der hochintelligente und daher mächtige Zauberer, welcher durch sein überlegenes Wissen (über die tatsächlichen Zusammehänge) den Besen beherrscht: "Besen, Besen, sei's gewesen!"
Zu Goethes Zeiten war es undenkbar, dass der Meister, welcher den Lehrling (die KI) ausbildet (trainiert...) schließlich von diesem Lehrling um das Tausendfache überflügelt werden könne. Und an dieser Stelle erweist sich Goethes Klassiker dann sozusagen als veraltet...

Sehr schön in Worte gefasst, was mir so durch die Hirnwindungen ging.
Suggeriert nicht der Name KI, dass der Roboter mehr wäre, als der Besen (tote Materie), der programmierte Befehle auszuführen?
Magisches Denken ist weiter verbreitet, als auf den ersten Blick offensichtlich.
Und was dem Familienvater seine Eisenbahn im Keller ist, wo er der unumschränkte Herrscher der Bahngleise und Wagen ist, das könnte dem Wissenschaftler sein Roboter sein, der menschliche Züge nachahmt.
😆da hab ich doch glatt in einem früheren Post an Lucan-7 die Sympathieträger R2-D2 und C-3PO aus Star Wars vergessen 🤣
Aber nun mal ernst: solange der Besen sich nicht verselbständigt durch eine Maßnahme des Lehrlings, tut er gute Dienste in Bereichen, wo der Lehrling Jahrtausende dran herumrechnen würde.

@deborah71 Suggeriert nicht der Name KI, dass der Roboter mehr wäre, als der Besen (tote Materie), der programmierte Befehle auszuführen?
Naja, die KI ist ja kein materielles Ding im eigentlichen Sinne (auch wenn sie, wie alle Intelligenzen, irgendeine materielle Basis braucht), und der Roboter ist im von Asimov vertretenen Sinne mehr als eine KI - nämlich KI plus Körper. Dass sich die "Robotergesetze", wie Asimov sie einst sich ausdachte für seine Science Fiction-Romane, nicht auf die heute tatsächlich realisierten Formen der KI anwenden lassen, ist ja gerade das Problem: selbst ein so schlauer, phantasiebegabter und visionärer Kopf wie Asimov stellte sich KIs sozusagen "falsch" vor, weil (so vermute ich) er eben falsche Vorstellungen darüber, wie Denken funktioniert, hatte. Vielleicht könnte man seine Vorstellungen darüber als "mechanistische" Vorstellungen bezeichnen, die nur eine Weiterentwicklung von dem im 18. und 19. Jahrhundert verbreiteten Automatendenken waren, wie wir es z.B. aus E.T.A. Hoffmanns "Der Sandmann" kennen. In dieser (echt etwas gruseligen, aber gleichzeitig auch witzig-ironischen) Erzählung findet sich ja Olimpia - eine menschlich aussehende Roboterin (Automatin), in welcher der Protagonist die Tochter seines Professors sieht, und in die er sich verliebt. Ihr fehlt, wie der Leser schnell erkennt, echte Intelligenz, sie verhält sich wie eine "tumbe" Maschine, ihr Bezaubernd-Sein, ihre Tiefsinnigkeit - das sind alles Projektionen des Protagonisten.
Diese Vorstellung, dass sich Roboter (Automaten) zwar äußerlich leicht Menschen angleichen ließen, aber eigentlich nicht zu echten Intelligenzleistungen fähig sein könnten, war sozusagen seit zweihundert Jahren common sense unter den schlauen Leuten, als Asimov seine Science Fiction schrieb. Vielleicht trugen auch auf dialektische Weise Automaten-Tricksereien wie der Türke zu dieser Überzeugung bei. Der war ja sozusagen ein "Beleg" dafür, dass nur echte Menschen zu Intelligenzleistungen fähig seien und dass Maschinen, die solche Intelligenzleistungen an den Tag legten, irgendwie von Menschen instruiert sein müssten. Das war auch zu Asimovs Zeiten, in denen es ja Computer schon gab, vorherrschendes Paradigma. Seine Robotergesetze können halt überhaupt nur funktionieren, wenn Künstliche Intelligenz lediglich einem Hochleistungs-Taschenrechner gleicht, der nichts anderes kann, als Berechnungen nach fest stehenden, von Menschen bestimmten Befehls-Listen (Algorithmen) abzuarbeiten. In solche Befehlslisten, von denen keine Abweichung möglich ist, lassen sich freilich dann auch Befehle mit einstellen, die verbieten, dass Menschen verletzt werden: Überprüfe, ob durch die Aktion ein Mensch verletzt werden könnte. Falls ja: bricht die Aktion ab.
Aber so eine Vorstellung von KI ist eben gewissermaßen "romantisch und doof" zugleich: eben mechanistisch im naiven Sinne des 19. Jahrhunderts. Eigentlich hätte man - so in der Rückschau betrachtet - viel eher darauf kommen können, warum sowas wie die "Robotergesetze" praktisch nicht zu implementieren wären: weil eine Befehlsanweisung wie die oben von mir Formulierte schon allein aus ganz simplen quantitativen Gründen nicht sinnvoll ausgeführt werden könnte. Denn: wie soll denn in einer multikausalen Welt, in der alles mit allem zusammenhängt, überprüft werden, ob durch eine Aktion ein Mensch verletzt werden könne? Dazu reicht doch alle Rechenkapazität und alle Zeit der Welt nicht aus! Es müßten also zusätzlich zu dieser Anweisung noch Vorschriften implementiert werden, ab welchem Komplexitätsgrad der Berechnung diese Überprüfung abgebrochen werden soll (weil sich sonst das Programm "aufhängt"). Womit man diese Anweisung auch gleich ganz weglassen kann, weil jede physikalische Aktion in der realen Welt eine unendlich große Menge an Kausalketten anstößt. Mal so als aus'm Lameng heraus geschütteltes Beispiel:
Ein Roboter steht vor der Entscheidung, eine Blume zu gießen. Die Sonne scheint. Er beginnt mit der Überprüfung: Szenario 1: "Der Schatten, den der Roboter wirft und der sich beim Blumengießen bewegt, löst bei einer Maus, die da vor der Teppichleiste hockend gerade gemütlich einen Kuchenkrümel verknuspert, eine Fluchtbewegung aus: sie flitzt aus dem Zimmer. Draussen wird eine potentiell anwesende Katze ihrer ansichtig. Deren Jagdreflex veranlaßt sie, der Maus hinterherzuflitzen. Als die Maus um eine Hausecke flitzt, kriegt die Katze aufgrund ihrer höheren Masseträgheit die Kurve nicht, sondern stolpert auf die Straße. Ein potentiell gerade heranrasender Autofahrer tritt reflexhaft zu doll auf die Bremse, sein Wagen gerät in's Schleudern und brettert in ein Blumengeschäft, um dort mehrere potentiell anwesende Kunden, darunter, als erzählerische Pointe, die Eigentümerin der Blume, die der Roboter gerade nebenan am Gießen ist, platt zu fahren." Ups! -->Abbruch der Aktion! Szenario 2: " Der Roboter wartet, bis eine poteniell nahende Wolke vor die Sonne zieht, sodaß er keinen Schlagschatten mehr wirft. Dann beginnt er mit dem Blumengießen. Ein Tropfen wird durch die Federwirkung eines Blumenblattes auf das Schwanzende der schon vorgestellten Maus katapultiert, woraufhin diese erschrocken aus dem Zimmer flitzt..."
😀
Und so weiter. Der Roboter wird, wenn er die Menschen-Schutz-Anweisung als unhintergehbare Vorschrift (Gesetz im wissenschaftlichen Sinne) beachtet, nie und nimmer mit dem Blumengießen beginnen können.
Alle Roboter, die wir heute so in unseren Fabriken, Bahnhöfen oder Wohnzimmern (Staubsaugerroboter) ihre Arbeit tun lassen, werden nicht von echten KIs angetrieben sondern funktionieren wie der Besen im Zauberlehrling: Sei führen Instruktionen aus, die zwar etwas komplexer sein können und mehrere Parameter beachten. Aber sie sind nicht intelligent in dem hier im Thread diskutierten Sinne.
Wenn wir Goethes Zauberlehrling in diesem Zusammenhang als Analogie verstehen wollen, muß uns klar sein, wer in dieser Analogie die KI verkörpert: Es ist nicht der Besen. Es ist der Zauberlehrling selbst: er tut etwas, von dem der Hexenmeister (der für die Menschheit steht) nicht will, dass er's nicht tue. Aber er schert sich nicht darum: Seine Intelligenz ermöglicht es ihm, den Hexenmeister zu hintergehen: "Hat der alte Hexenmeister
sich doch einmal wegbegeben!"
An der Stelle endet dann allerdings die Analogietauglichkeit insofern, als sich der Zauberlehrling (die KI) im Gedicht als letztlich doch unintelligenter erweist als der Hexenmeister (die Menschen). Goethe mag ein schlauer Kopf gewesen sein: die "Botschaft", die er mit diesem Gedicht vermitteln wollte, hatte nichts mit KI zu tun, sondern ihm ging es um Menschen und er Zauberlehrling ist halt nur ein Mensch, der seine technologische (die Zauberei in diesem Gedicht ist letztlich ganz triviale Technikanwendung: tut man dies, passiert jenes...) Kompetenz überschätzt.
Wir können mithin aus dem Zauberlehrling nicht wirklich etwas lernen: wir finden in ihm nur eine schöne Metapher für das hier diskutierte Problem - nicht aber einen Lösungsansatz.

Wenn wir Goethes Zauberlehrling in diesem Zusammenhang als Analogie verstehen wollen, muß uns klar sein, wer in dieser Analogie die KI verkörpert: Es ist nicht der Besen. Es ist der Zauberlehrling selbst: er tut etwas, von dem der Hexenmeister (der für die Menschheit steht) nicht will, dass er's nicht tue. Aber er schert sich nicht darum: Seine Intelligenz ermöglicht es ihm, den Hexenmeister zu hintergehen: "Hat der alte Hexenmeister
sich doch einmal wegbegeben!"
Ich sehe hier immer noch nicht das mögliche Szenario. Es geht hier immer nur um finstere Andeutungen wie gefährlich so eine KI ist und was sie alles tun kann... aber WAS GENAU könnte so eine KI denn tun, wenn hier gleich das ganze Ende der Menschheit droht? Es reicht doch, zumindest mal ein, zwei Beispiele zu benennen, was denn da konkret passieren könnte.
Bei dem Beispiel, das du bringst, könnte man beispielsweise eine KI nehmen, die ein Auto steuert. Sie ist darauf programmiert, Menschen auszuweichen, um Leben zu schonen. Die autonome Steuerung weicht also aus und fährt gegen einen Stützpfeiler. Daraufhin fällt ein Baugerüst ein, auf dem 40 Arbeiter beschäftigt waren, und viele von denen kommen zu Tode.
Die KI hat das nicht vorausberechnet, es war ein Unfall oder eine Fehlfunktion. Die Steuerung hat nicht wie vorgesehen funktioniert - und damit ist bei neuen Technologien zu rechnen.
Das ist aber nicht das Szenario, von dem du hier redest. Wir reden hier etwa von einer vernetzten KI, die den Verkehrsfluss einer ganzen Region steuert und mit den Steuerungen der Autos interagieren kann. Und die beschließt dann irgendwann... ja, was genau? Und warum?
Was könnte so eine Verkehrssteuerungs-KI denn wollen?
Außerdem war ja vom Untergang der ganzen Menschheit die Rede. Das schafft so eine Verkehrssteuerung wohl kaum... also, welches Szenario könnte wohl dazu führen?

Den Unterschied zwischen Asimovs Vorstellung und der modernen KI wird mir in deiner Beschreibung jetzt deutlicher. Ich hatte damals Asimov nicht gedanklich verfolgt.
Auf eine Art finde ich die Zauberlehrlingmetapher schon hilfreich... man verstrickt sich nicht in zu vielen technischen Einzelheiten unter denen das Problem unsichtbar würde.
Ich kann mir noch nicht vorstellen, dass eine KI initiativ über die Programmierung hinaus Dinge in Gang setzen würde, weil mir da die Ebene der Motivation und Abwägung fehlt.
@jack-black Hallo Jack-black,
Ich sehe das Problem - aber es ist in meinen Augen eher ein Problem der "Bestie Mensch" als wie wild gewordener Maschinen.
Die KI kann ohne den Nutzer, den Menschen, nichts tun. Der Mensch kann KI sinnvoll nutzen und der Mensch kann KI missbrauchen.
Die Problematik ist damit nicht neu. Neu hingegen ist, dass wirklich jeder Zugriff auf diese Technologie hat. Wissen ist Macht - und wenn jeder den vollen Zugriff hat - und das ohne dafür eine Bildung haben zu müssen, die ihm das Verständnis dafür eröffnet und, wenn es gut läuft, auch das ethische Rüstzeug mitliefert, um die Verantwortung für sein Tun tragen zu können - dann ist das eine brenzlige Situation, in der durchgeknallte Genies leicht ganz groben Unfug und schlimmsten Missbrauch treiben können. Wenn ich allein an das Umfeld, aus dem der Herr Musk kommt und den wirren Fantasien, die es da gibt, dann kann einem ganz anders werden. Andererseits braucht es vielleicht auch diese Technik in den Händen vieler, um sich gegen eine KI in den Händen weniger Verrückter wehren zu können.
Das Problem ist der Mensch und hier besonders seine kompetitive Ausprägung. Wir haben es da (in negativer Hinsicht) ja schon weit gebracht: Sehr wenige besitzen fast alles. Ermöglicht haben dies Politiker, die darauf vertraut haben, dass es aus gut gefüllten Gießkannen auch reichlich regnet - was dann aber eher nicht passiert.
Es gelingt uns offenbar nicht, eine Welt zu schaffen, in der einer dem anderen seinen Erfolg von Herzen gönnen kann, in der das Gelingen generell und nicht nur der eigenen Vorteil daraus zählt. Der Mensch ist in Sachen Wirtschaft immer noch zu sehr Affe, mehr der Evolution als der Kultur verpflichtet, denn das Überwinden des kompetitiven Geistes ist eine kulturelle Aufgabe.
Und hier frage ich mich, ob nicht KI dazu geeignet wäre, diese kulturelle Herausforderung leichter und schneller zu schaffen. Eine Welt, in der die Lösungen für Probleme nur so aus dem Computer sprudeln, könnte sich rasend schnell transformieren - zum Wohle des Menschen. Diesen Hoffnungsaspekt darf man in der Diskussion auch nicht vergessen.
Aber so wie Mensch nun mal drauf ist, kann KI tatsächlich zur Gefahr werden. Zuerst muss der Mensch sich von seiner Egomanie und seinem herrschen wollen verabschieden, damit er sich der technischen Möglichkeiten bedienen kann, die wirklichen Segen freisetzen können. Die Menschheit muss reifen, um die Verantwortung tragen zu können. Das ist keine materielle, sondern eine kulturelle und geistige Herausforderung. Mindsets, die die Nächstenliebe, die gegenseitige Achtung, die Achtung vor dem Leben schlechthin, die Mäßigung in materieller Hinsicht und die Freude an der gegenseitigen Hilfe und am Miteinander im Fokus haben, könnten uns in eine Lage bringen, in der wir die Transformation zum Guten schaffen. Solange aber einer dem anderen das Seine nehmen will, solange wir dem Nachbar nicht sein Glück und sein Gelingen von Herzen gönnen können, solange sind wir auf dem Affentrip und als solche sind wir in der Tat zu unreif für mächtige technologische Lösungen in freier Verfügbarkeit für jeden.
Ich frage mich aber, ob es überhaupt möglich ist, den Geist wieder in die Flasche zu bekommen. Wenn es nämlich einigen wenigen gelingen würde, so ein System heimlich am Laufen zu haben, könnten sie ungleich größeres Unheil anrichten, als wenn diese Tools in der Hand von jedem Einzelnen wären. Und so ist denn genau hinzuschauen, wer da den Rückruf fordert und wie die Weltgemeinschaft verhindern kann, dass diese Techniken heimlich denn doch weiterentwickelt werden.
Ich halte diese Kontrolle für nicht möglich und so gibt es für die Menschheit nur eine Chance: ganz schnell ethisch zu wachsen und das kompetitive Gehabe über Bord zu werfen, um in die Reife zu kommen, die der einzige Garant ist, dass KI nicht zur Gefahr wird.
Liebe Grüße,
GoodFruit

Die KI kann ohne den Nutzer, den Menschen, nichts tun.
Naja - solange sie eben keinen Zugriff auf Hardware hat. Nimm als Beispiel eine extrem simple KI: die Alarmanlage eines Hauses. Wenn da jemand einbricht, dann kann sie eine Sirene erklingen lassen, oder einen stummen Alarm an die nächste Polizeistation schicken etc. Sie kann überhaupt nicht funktionieren, wenn ihr nicht Zugriff auf die dazu benötigte Hardware gegeben wurde.
Nimm nun den Fall, wo eine KI, statt bei Einbruch die Polizei zu benachrichtigen, einfach den Einbrecher erschießt oder per Stromschlag "ruhig stellt": dann braucht sie dazu keinen menschlichen Nutzer, dann reicht ihr das menschlichte Opfer (der Einbrecher). Nun braucht so eine simple KI (die vermutlich die meisten nicht wirklich als KI bezeichnen würden, obwohl sie Analysefähigkeiten hat (Einbrecher von Igeln oder Fledermäusen unterscheiden) und flexibel auf die individuelle Situation zu reagieren weiß (nur dort den Fußboden unter Strom setzen, wo sich der Einbrecher bewegt), noch einen menschlichen Nutzer, der sie da installiert und ihr gewissermaßen händisch die einzelnen Zugriffe auf Kameras, Mikrophone, Stromfallen oder Geschütztürme ermöglicht. Aber das ist ja keine prinzipielle Einschränkung. Denn denken wir mal ein, zwei Jahrzehnte weiter: der Klimawandel führt zu Wanderungsbewegungen historischen Ausmaßes, täglich versuchen Zehntausende, aus den nach und nach unbewohnbar gewordenen Regionen Afrikas nach Europa zu immigrieren. Das Problem muß schnell gelöst werden, man kann nicht überall Grenzschutztruppen postieren, weil die Grenzen dazu schlicht zu lang sind. Also müssen Grenzbefestigungen her und zwar pronto. Wer kann deren Bau auf die Schnelle organisieren zu für die zunehmend genervten Bürger akzeptablen Kosten? Nehmen wir doch die KI, die schafft das schon. Und damit die organisieren kann, muß sich auch auf die Datenbanken der Stacheldrahtzaun- und Grenzturm-Hersteller zugreifen können, muß die IT-Infrastruktur solch eines modernen Hadrianswalles in Auftrag geben und setzt sich deswegen selbstverständlich gleich mit den Planungs-Softwareagenten der IT-Unternehmen in's Einvernehmen... Überall, wo da der Mensch dann noch in die Planung eingreift, verschlimmbessert er höchstwahrscheinlich, weil er in Sachen Planungskompetenz den KI-Applikationen ungefähr so hinterherhinkt wie ein sechsjähriger Säugling gut ausgebildeten Ingenieuren. Also ist es am besten, wenn sich da Menschen komplett raushalten: sollen die KI-Apps das mal untereinander ausklambüsern, Hauptsache, der Hadrianswall steht, bevor die fünfzig Millionen, die momentan noch mitten in der Sahara marschieren (die KI, welche die Satelitenbilder auswertet, kann die Zahl auch präziser angeben), am Mittelmeerstrand angelangt sind. Laut KI ist damit in siebzehn Tagen, fünf Stunden und zwanzig Minuten zu rechnen... 😉
So, da hätten wir mal eins von unendlich vielen vorstellbaren Szenarios, in denen die KI Zugriff auf alle mögliche Hardware bekommt und dann völlig unabhängig von den menschlichen Nutzern agieren kann. Also: Dein Satz stimmt heute vielleicht noch. Für den Fall, dass die KIs ihren Käfigen entkommen, allerdings eben nicht mehr.
Dass die KI dann die Zugriffsmöglichkeiten auf die Hardware im Sinne der menschlichen "Auftraggeber" nutzt, kann nicht gewußt werden, wenn man nicht weiß, wie sie denkt und wenn man dementsprechend nicht weiß, wie man verhindern kann, dass sie ihre Zugriffsrechte "mißbraucht".
Die Problematik ist damit nicht neu.
In meinen Augen schon. KI unterscheidet sich grundsätzlich von allen anderen Technologien. Wir sollten uns hüten vor dieser gefühlsmäßigen Gewißheit, mit allen Neuerungen, die uns so begegnen, schon irgendwie fertig werden zu können, wie wir's in den letzten paar Jahrtausenden stets schafften. Diese Gewißheit ist unbegründet, sie ist nur eine gefühlte Sicherheit - Ausdruck unseres Grundvertrauens darauf, dass schon so pi mal Daumen alles, was in der Welt vorgeht, beherrschbar und durchschaubar sei und kein Anlaß zur Panik bestehe. Queequeq dürfte vermutlich zustimmen, dass dieses Grundvertrauen, das wir in die Welt und insbesondere unsere intelligenten Mitbewohner in dieser Welt haben, eine Art psychologisches Feature ist, das uns dabei hilft, im Regelfall nicht kopflos durch die Gegend zu hüpfen vor lauter Panik. Es ist uns angeboren, bzw. es sind uns Umgangsformen mit Säuglingen und Kleinkindern angeboren, die dazu dienen, diesen von früh an dieses Urvertrauen einzuflößen (in den Fällen, wo das nicht geschieht, wird's dann gern mal pathologisch in späteren Jahren). In der Welt, wie sie bisher war, in der Welt, in der wir Menschen die mächtigsten, da intelligentesten Entitäten auf der Erde waren, war dieses Urvertrauen, am Ende mit allem fertig werden zu können, begründet.
Und dieses Urvertrauen (was an sich erstmal was Gutes ist) redet uns nun ein, die KI-Problematik sei "nicht neu". Nach dem Kölner Motto: "Et hätt noch emma joot jange!"
Aber tatsächlich sind wir Menschen noch nie einer höheren, mächtigeren Intelligenz begegnet. (Die religiösen Narrative muß ich an dieser Stelle ignorieren, ich halte sie allesamt nicht für stichhaltig. Wenn ich akzeptieren würde, dass da irgendwo ein den Menschen wohlgesonnener, lieber Gott bereit steht, einzuschreiten, wenn die Lage zu brenzlig wird, dann könnte ich das Nachdenken über das Threadthema auch gleich ganz sein lassen und mich gemütlich der Hoffnung auf einen deus contra machinae, einen Gott, der schon gegen die Maschinen helfen wird, hingeben...)
Deswegen haben wir für so etwas überhaupt keine passende Intuition zur Verfügung. Es war im Lauf unserer Evolution nie nötig, d.h. kein Selektionskriterium, mit tausendfach überlegenen Intelligenzen umgehen zu können (dagegen war es sehr wohl ein Selektionskriterium, mit ungefähr gleich starken Intelligenzen umgehen zu können: das ist der Grund, weswegen wir alle Intelligenzphänomene z.B. auch bei Tieren zu "vermenschlichen" tendieren).
Kurz: Doch, die Problematik ist m.E. völlig neu - wir allerdings reagieren intuitiv mit unseren "alten" Verhaltensweisen darauf, zu denen z.B. auch das "Pfeifen im Walde" zählt.
Ich frage mich aber, ob es überhaupt möglich ist, den Geist wieder in die Flasche zu bekommen.
Genau darum geht es ja beim Threadthema. Die Möglichkeit, dass dies noch möglich ist, aber bald unmöglich sein könnte, ist ja der Gedanke hinter dem offenen Brief. Die Gewißheit, dass dies bald unmöglich sein wird , wenn wir nicht sofort den Stöpsel in die Flaschenöffnung stecken - das ist die Position von Yudkowski.
Ich persönlich hätte ja gern, dass Yudkowski falsch liegt (er selbst übrigens auch - wer des Englischen mächtig ist, sollte sich unbedingt wenigstens die letzten fünfzehn Minuten des Interviews anschauen, wo er gefragt wird, was er jungen Menschen, Studenten raten würde, die etwas Positives in diesem Zusammenhang bewirken möchten: seine Antwort ist in ihrer Verzweiflung wirklich bewegend), kann aber - hoffentlich einfach aufgrund meiner mangelhaften Kompetenz in der Beurteilung der tatsächlichen Lage - momentan nicht erkennen, an welcher Stelle seiner Argumentation der Fehler sein soll.
Ich halte diese Kontrolle für nicht möglich und so gibt es für die Menschheit nur eine Chance: ganz schnell ethisch zu wachsen und das kompetitive Gehabe über Bord zu werfen, um in die Reife zu kommen, die der einzige Garant ist, dass KI nicht zur Gefahr wird.
Das halte ich für absolut unrealistisch. Dazu müßte ich jetzt allerdings sehr weit ausholen, um zu erläutern, weswegen ich die Vorstellung eines "ethischen Wachsens" für illusionär halte, insbesondere hinsichtlich dessen, was Du als "kompetitives Gehabe" bezeichnest. Dieses "Gehabe" ist uns angeboren, sozusagen hard wired (fest verdrahtet). Es hat uns bis dahin gebracht, wo wir heute stehen: ganz oben in der Hierarchie der biologischen Wesen. Es ist in uns so verdrahtet, wie es eigentlich in allen anderen Spezies auch verdrahtet ist. Die Idee, dass in der Natur alle Wesen nach einem Gleichgewicht streben würden, ist romantischer Unfug: das "natürliche" Gleichgewicht ergibt sich vielleicht aus der Rückschau betrachtet statistisch. Aber seit es Algen gibt, sind immer wieder Gewässer "umgekippt". Seit es Beutegreifer und Fluchttiere gibt, gab es immer wieder (regelmäßig) Ereignisse, dass die Predatoren so viele Opfer rissen, dass ihre eigenen Nachfahren schließlich verhungern mußten. Und innerhalb der menschlichen Rasse setzten diejenigen die meisten Nachfahren in die Welt, die am besten darin waren, andere zu übervorteilen. Oder, um es mal biblisch auszudrücken: Wir haben eher Kain als Abel in unseren Genen.
Wenn Du also es nicht für möglich hältst, die KI zu kontrollieren (d.h. davon ausgehst, dass das Alignmentproblem prinzipiell unlösbar sei) , dann müßtest du ja eigentlich, sofern Du mir zustimmst, dass dieses "schnelle ethische Wachstum" der Menschheit illusorisch ist, die Position vertreten, dass dann eben die KI abgeschaltet oder zumindest am Weiterwachsen gehindert werden müsse, oder?

"Queequeq dürfte vermutlich zustimmen, dass dieses Grundvertrauen, das wir in die Welt und insbesondere unsere intelligenten Mitbewohner in dieser Welt haben, eine Art psychologisches Feature ist, das uns dabei hilft, im Regelfall nicht kopflos durch die Gegend zu hüpfen vor lauter Panik"
Ja tue ich. Mit dieser seelischen Ausrüstung sind wir ja auch relativ gut in der Lebenswirklichkeit zurecht gekommen. Aber wie Du sagst, stehen wir jetzt vor Herausforderungen, die es in dieser Art noch nie gab und wofür unser seelisches Werkzeugt nicht oder nur sehr eingeschränkt tauglich ist.

Nun braucht so eine simple KI (die vermutlich die meisten nicht wirklich als KI bezeichnen würden, obwohl sie Analysefähigkeiten hat (Einbrecher von Igeln oder Fledermäusen unterscheiden) und flexibel auf die individuelle Situation zu reagieren weiß (nur dort den Fußboden unter Strom setzen, wo sich der Einbrecher bewegt), noch einen menschlichen Nutzer, der sie da installiert und ihr gewissermaßen händisch die einzelnen Zugriffe auf Kameras, Mikrophone, Stromfallen oder Geschütztürme ermöglicht.
Was ich in die Hände der KI gebe, ist immer meine Entscheidung. Der Mensch entscheidet, in welchem Umfang er Maschinen Macht in die Hände gibt. Er kann Maschinen (auch KI) als Tools, als Handwerkzeuge, die er bedient, nutzen oder er kann sich die ganze Arbeit abnehmen lassen und wird dann vom Subjekt zum Objekt. Das ist kein Problem der KI, sondern des Menschen und ich wüsste, wie ich da entscheiden würde und wenn ich ein mächtiges Werkzeug in die Hand bekommen kann, mit der meine Leistung um Klassen besser wird, dann wüsste ich nicht, warum ich darauf verzichten sollte.
Ich erinnere mich an die Sorgen als Trump Präsident wurde in Bezug auf die Atomraketen. Aber dann waren da die Militärs, die sagten: nun seid mal unbesorgt. Es gibt ja auch noch uns und wenn da wer den falschen Knopf drückt, dann muss das von uns auch noch freigegeben werden. Und in ähnlicher Weise hat ja schon mal ein russischer Techniker einen Atomkrieg verhindert. Solange es Menschen sind, die an entscheidender Stelle zumindest noch die Freigabe erteilen müssen, halte ich die Sache für kontrollierbar.
Es gab vor einigen Jahren ja die Diskussion um KI in autonom fahrende Autos. Das philosophische Weichenstellerproblem wurde da diskutiert. Situation war ein bevorstehender Unfall, bei dem ich entscheiden musste, wo ich den Schaden setze - beim Opa oder der Frau mit Kinderwagen. Und so gab es da dann unterschiedliche Szenarien. Welche Entscheidungskriterien soll da einer KI mit auf den Weg gegeben werden?
Deswegen haben wir für so etwas überhaupt keine passende Intuition zur Verfügung. Es war im Lauf unserer Evolution nie nötig, d.h. kein Selektionskriterium, mit tausendfach überlegenen Intelligenzen umgehen zu können (dagegen war es sehr wohl ein Selektionskriterium, mit ungefähr gleich starken Intelligenzen umgehen zu können: das ist der Grund, weswegen wir alle Intelligenzphänomene z.B. auch bei Tieren zu "vermenschlichen" tendieren).
Weiter unten führst Du ja aus, dass unsere evolutionären Wurzeln es sind, die uns von einem kulturell verantwortbaren Handeln abhalten. Vielleicht braucht der Mensch ja grade die KI, um seine evolutionären Belastungen in den Griff bekommen zu können. Wenn ich meine Ellenbogen einsetze, dann tut es zunächst einmal nur mir gut - und wenn ich mir dann hinterher ansehe, was ich angerichtet habe, werde ich feststellen, dass es noch nicht einmal mir von Nutzen war, dass ich da Schaden angerichtet habe, der letztendlich alle schwer belastet. Wenn ich mir anschaue, wie wir von den "Intelligenzen" dieses Planeten in den letzten Jahrzehnten geführt wurden, dann ist die Bilanz erschreckend. Wäre es da nicht an der Zeit, auf eine bessere Intelligenz zu hoffen. Auf etwas, das die Gier im Zaum halten könnte, dass mit Mitgefühl agiert, statt nur die eigenen Klientel noch höher zu heben?
Schau doch nur mal in die USA und die vielen Wohnungslosen dort. Das sind keine Penner. Das sind oft gut ausgebildete Menschen mit Job! Warum können sie sich keine Wohnung leisten?
Wenn ich mir anschaue, wer da vor der KI und den Folgen warnt, dann sind da auch Menschen dabei, die sich aktuell wohl für die führenden Intelligenzen halten und aber ihre primitiven evolutionären Triebe nicht immer so im Griff haben - man schaue nur mal, wie Elon Musk mit Mitarbeitern umgeht ... Ist eine KI denkbar, die da noch fieser unterwegs ist?
Das halte ich für absolut unrealistisch. Dazu müßte ich jetzt allerdings sehr weit ausholen, um zu erläutern, weswegen ich die Vorstellung eines "ethischen Wachsens" für illusionär halte, insbesondere hinsichtlich dessen, was Du als "kompetitives Gehabe" bezeichnest.
Nun, da fehlt Dir vielleicht die Erfahrung mit einer christlichen Grundhaltung. Kooperation, gegenseitiges Wohlwollen, gemeinsames Leisten ohne Rumgegockel einzelner - Du glaubst nicht, was Du so leisten kannst und wie viel Spaß das macht! Dafür verzichte ich gerne auf deutlich mehr Lohn. Solange aber die weltliche Intelligenz und die Entscheider diesen Weg nicht achten und gehen, wird es Hauen und Stechen auf der Erde geben, Leid und Umweltzerstörung. Da ist die Wurzel des Übels und nicht in der Anzahl der Menschen auf Erden oder sonst was.
Mir scheint auch die Furcht berechtigt, dass eine KI das erkennen könnte und diese Alphagehabe sanktionieren würde. Die Aufgabe des Menschen aktuell ist für mich, eine den anderen achtende, wohlwollende Kultur zu errichten, die evolutionäre Belastungen erkennt und zügelt. Wenn die bestehende Intelligenz dazu nicht in der Lage ist, sollten wir eine höhere Intelligenz dankbar annehmen - denn viel schlimmer kann es nicht kommen und offenbar ist die aktuelle Führungsriege ja nicht in der Lage ohne übelste Entscheidungen und Haltungen zu agieren. Ich sehe es so, dass wir eine höhere Intelligenz dringend auf diesem Planeten benötigen.
Und hier frage ich mich nun als Christ, ob wir dafür Maschinen benötigen oder ob wir das nicht längst haben. Gott ist da. Er hat den Menschen als Verwalter auf die Erde geschickt und er hat und hier nicht allein gelassen. Wir können jederzeit kommunizieren, nachfragen. Er liebt den Menschen und er freut sich gewiss, wenn wir bereit sind zu teilen, in Nächstenliebe agieren und eben dieses animalische Erbe des Konkurrenzkampfes, des Alphagehabes und egoistischen Mindsets überwinden.
Würden wir unsere Entscheidungen mit Gott absprechen, Ihm vertrauen, bräuchten wir wohl keine KI. Vielleicht ist es ja aber auch möglich, die KI als Handwerkzeug unter der Führung des Herrn zu nutzen.
Gott kennen wir länger als KI. Und doch kennen wir Gott eigentlich nicht, denn wie viele leben gottlos und was wurde mit Gottes Wort für Schindluder getrieben, wie wurde der Glaube missbraucht, um animalisch getriebene Führungseliten die Macht zu erhalten?
Aber seit es Algen gibt, sind immer wieder Gewässer "umgekippt". Seit es Beutegreifer und Fluchttiere gibt, gab es immer wieder (regelmäßig) Ereignisse, dass die Predatoren so viele Opfer rissen, dass ihre eigenen Nachfahren schließlich verhungern mußten.
Das ist eine sehr einseitige Sicht auf die Biologie. Du nennst hier nur Beispiele, wo Systeme aus dem Gleichgewicht gefallen sind. Ja, das passiert - aber nur, damit sich wieder ein System im Gleichgewicht etablieren kann.
Ein evolutionär erfolgreiches System muss in sich harmonisch orchestriert sein - sonst hat es keine Chance. Ein Räuber macht nicht einfach Tiere platt, sondern nur die schwachen. Und sein Wirken hilft mit, Gleichgleichgewichte zu erhalten. Damit dient er letztendlich auch seiner Beute, dass diese ihre Ressourcen nicht übermäßig nutzt, sodass es zu einem der katastrophalen Ereignisse kommt, von denen Du schreibst. Und so gibt es - bei allem geboren werden und sterben - in der Natur schon so etwas wie ein Optimum in der Harmonie der Teile. Und das sind Gleichgewichte, die nicht von außen aufoktroyiert werden im Sinne einer Planwirtschaft, sondern die aus den Systemen selber heraus natürlich entstehen.
Bei den Menschen, in der Wirtschaft, haben wir durch Machtinteressen und kleingeistigem Gestaltungswillen diese Prinzipien weitestgehend zerstört. Es entwickelt sich immer mehr zu einer Planwirtschaft mit wenigen Nutznießern. Das ist in keinster Weise organisch und das ist auch nicht darauf angelegt, sich selber harmonisch orchestrieren zu können.
KI könnte die Schlaumeier entmachten, die in dieser Weise (vielleicht sogar ungewollt) destruktiv agieren und großen Schaden in der Menschheit anrichten. Ich würde aber darauf drängen, dass es immer Handwerkzeug in den Händen von Menschen bleibt und ich würde dringend raten, unseren Vater im Himmel zum Topentscheider auf Erden zu machen. Zum Wohle aller und stabile und in sich harmonische Systeme zu schaffen, die sicher hier und da mal aus dem Gleichgewicht geraten, um dann aber wieder in einem anderen Gleichgewicht Stabilität zu erlangen.
, sofern Du mir zustimmst, dass dieses "schnelle ethische Wachstum" der Menschheit illusorisch ist, die Position vertreten, dass dann eben die KI abgeschaltet oder zumindest am Weiterwachsen gehindert werden müsse, oder?
Nein, ich stimme Dir da nicht zu. Ich habe die Hoffnung, dass die Menschheit ihre unguten Wurzeln überwinden kann. Gelingt uns das nicht, dann ist eh alles verloren. Dann ist es egal, ob wir mit oder ohne KI untergehen. Und so gibt es denn eine dringende Notwendigkeit, sich nach einem guten Miteinander auszustrecken und dafür alle Hilfe dankbar anzunehmen, die sich uns bietet. Als Christ weiß ich, wo die zu suchen und zu finden ist.

@goodfruit Moin! Auch an Dich gerichtet der Disclaimer: Aus Zeitgründen kann ich unmöglich alle Punkte in Deinem Posting berücksichtigen, verzeih mir also bitte, dass ich nur aus wenige eingehe, insbesondere, falls es in Deinen Augen nicht die wesentlichsten sein sollten!
Was ich in die Hände der KI gebe, ist immer meine Entscheidung.
Sicher? Nehmen wir mal Informationen über Dich als Beispiel und gehen wir mal davon aus, dass Du ein Durchschnittsbürger mit durchschnittlichen medialen Angewohntheiten bist. Du besitzt also ein Handy, du schaust Dir Videos auf Youtube an, Du gibst zehnmal am Tag eine Google-Anfrage ein und bestellst Dir alle ein, zwei Monate was bei amazon oder einem anderen Online-Händler. Wenn Du einem Link hier im Forum folgst, klickst Du die üblichen Datenschutz-Hinweise, die bei Websites aufploppen, die noch keine Cookies auf Deinem Rechner installiert haben, weg, ohne da jetzt alles durchzulesen.
Hast Du also aus freier Entscheidung all die Informationen über Dich preisgegeben, die aus Dir, wenn man sie zusammenführen und auf übermenschlich raffinierte Weise analysieren würde, einen absolut "gläsernen Bürger" machen?
Du kannst mit ein, zwei Mausklicks auf der Amazon-Website veranlassen, dass ein Roboter in einem Amazon-Lager durch die Regale fährt, dort was raus nimmt, dass dann in die Verpackungsabteilung gebracht und dort in ein Paket gesteckt wird. Dieses Paket wird zur Post gebracht oder der amazon-eigenen Post-Entsprechung (ich weiß nicht, wie die Amazon-Lieferanten heißen). Daraufhin fährt dann zu einem bestimmten Zeitpunkt ein Auto vor Deine Haustür - welche Route es nehmen wird, läßt sich ebenfalls leicht bestimmen.
Deine Login-Daten bei Amazon müssen irgendwo gespeichert sein. Es muß logischerweise einen Internet-Zugang zu ihnen geben, sonst könnten sie ja nicht mit Deiner Eingabe abgeglichen werden (deren Passwort Du als üblicher User vermutlich auch gleich der Bequemlichkeit halber auf Deinem Computer/Handy gespeichert hast). Dieser winzige Bruchteil der Daten, die es über Dich im Internet zu erfahren gibt - Dein Login-Passwort - würde einer KI ausreichen, um ein Auto zu einem bestimmten Zeitpunkt eine bestimmte Straße entlangfahren zu lassen. Kann ja sein, dass Du damit, wenn Du es jetzt im Nachhinein mal so betrachtest, einverstanden bist. Aber war es tatsächlich Deine Entscheidung im Sinne von: Entscheidung, über deren Konsequenzen Du hinreichend informiert warst und die Du entsprechend gründlich bedachtest?
Und nochmal: das frage ich nicht Dich als Person, die womöglich tausendfach skrupulöser in ihrem Umgang mit IT ist als wir Ottonormalbürger. Sondern ich frage Dich als hypothetischen durchschnittlichen User.
Ich erinnere mich an die Sorgen als Trump Präsident wurde in Bezug auf die Atomraketen. Aber dann waren da die Militärs, die sagten: nun seid mal unbesorgt. Es gibt ja auch noch uns und wenn da wer den falschen Knopf drückt, dann muss das von uns auch noch freigegeben werden. Und in ähnlicher Weise hat ja schon mal ein russischer Techniker einen Atomkrieg verhindert.
Ja. Aber die Verhinderung des Atomkriegs durch den russischen Techniker liegt mehrere Dekaden zurück. Und Trump mag ein durchtriebener Mistkerl sein, aber ganz gewiß ist er keine KI, die sich frei im Internet bewegt und sich rasend schnell verbessert.
Im Falle des russischen Technikerst standen wir sooooooo knapp vor einem nuclearen Holocaust - der Mann hätte ebensogut morgens auch mit einer Grippe im Bett bleiben können, dann würden wir uns hier vermutlich nicht mehr unterhalten. Was also willst Du mit diesem Beispiel belegen? Dass diese neue, für uns nicht nicht mal richtig verstehbare, Gefahr schon nicht im Desaster enden wird, weil eine andere Gefahr in der Vergangenheit zufälligerweise auch nicht im Desaster endete, da das Schicksal - nenn es von mir aus gerne Gott - ihr einen rettenden Atheisten in den Weg stolpern ließ? 😉
Und nochmal (ich meine, das weiter oben schon mal angesprochen zu haben): Warum sollte eine KI überhaupt auf so eine primitiv-menschliche Idee kommen, die Menschheit mit Atomwaffen auszuradieren? Du führst das Atomkriegs-Szenario an, weil auf diese Methode eben Menschen verfallen würden, die die Menschheit vernichten wollen. Und weil wir Menschen auf diese Methode kommen, haben wir auch ein paar (nicht sonderlich narrensichere, wie das "Russischer Techniker"-Beispiel belegt) Sicherungsmechanismen diesbezüglich implementiert.
Nimm dagegen meine Hasen-Analogie: Ein Hase hat auch implementierte Sicherungsmechanismen hinsichtlich der Gefahr, gefressen zu werden: Er duckt sich, wenn ein potentieller Predator sich nähert. Falls der potentielle Predator zu nahe kommt, springt er auf und läuft schnell weg, dabei Haken schlagend. In einer Umwelt, in welcher die Feinde keine wesentlich besseren Methoden hatten, als auf ihn draufzuspringen oder ihm hinterherzurennen, wenn sie ihn fressen wollten, waren diese Sicherungsmechanismen hinreichend tauglich.
Gegen eine Fangschlinge hat er jedoch keinerlei Sicherheitsmechanismen: Sie ist sein Unheil, weil er überhaupt nie auf die Idee käme, dass und wie Fangschlingen funktionieren. Der intelligentere menschliche Jäger indessen kann mit der Schlinge leicht und effektiv Hasen fangen: sie kostet ihn fast nichts und er muß nicht mal vor Ort sein, wenn sich der Hase in ihr verfängt. Und im Gegensatz zur Steinschleuder oder Gewehrkugel als Jagdmethode wird mit der Fangschlingenmethode kein Loch in den Pelz geschossen.
Wenn die KI auch nur etwas schlauer sein sollte, als ein normaler Mensch, wird sie, falls es in ihrem Interesse steht (und warum es in ihrem Interesse stehen dürfte, habe ich weiter oben ausgeführt: Ausschaltung von Restrisiken), sich analog zum Fallenstellenden Jäger verhalten: dort angreifen, wo wir Menschen uns nicht mal im Traum vorstellen können, dass es da passieren könnte. Denn diese basale Kriegskunst-List - dort anzugreifen, wo es der Feind am wenigsten vermutet - läßt sich ja überall im Internet finden: Frag mal ChatGPT danach, was die 36 Strategeme des Tan Daoji sind... 😉
Das ist eine sehr einseitige Sicht auf die Biologie. Du nennst hier nur Beispiele, wo Systeme aus dem Gleichgewicht gefallen sind. Ja, das passiert - aber nur, damit sich wieder ein System im Gleichgewicht etablieren kann.
Damit? Sorry, aber meine "einseitige Sicht" ist das Gegenargument gegen die Theorie, bezw. vielmehr romantische Wunschidee, dass natürliche Systeme auf Gleichgewicht hin angelegt seien, also das Gleichgewicht die Regel und die Veränderung die Ausnahme darstelle. Es ist genau umgekehrt! Wir wünschen uns, dass es so sei, bzw. unsere Intuition, die auf dem genetisch angelegten, keinesfalls rationalen, sondern nur im evolutionären Zusammenhang vorteilhaften "Urvertrauen" beruht, gaukelt uns dies vor. Dabei gibt es überhaupt keine echten Gleichgewichte ausserhalb statischer Systeme. Und unsere Welt ist nun mal kein statisches System, Veränderung ist die Regel: Alles fließt, um es mit Heraklit zu sagen. Dein "damit" ist verräterisch insofern, als es die teleologische Fundierung Deines Arguments offen legt. Von einem Christen darf diese Grundüberzeugung freilich erwartet werden: dass es sowas wie ein "damit" in der Natur überhaupt geben kann und dass es sogar wesentlich im Prozess der Naturzusammenhänge sei.
Und als menschliche Rasse tendieren wir ja auch intuitiv zu der Annahme, dass es in der Natur schon irgendwie auf ein "gutes Gleichgewicht" hinauslaufe. Warum? Weil wir in so einem Gleichgewicht einen Vorteil für uns selbst erkennen: es soll alles so bleiben, wie wir's kennen. Veränderung ist beängstigend.
Gleichgewicht: das ist eine hübsche Momentaufnahme. Veränderung: das ist der tatsächliche Gesamtprozess. Und sie ist der stetig tuckernde Motor der Evolution. Weswegen eben je nach Rechnung bis zu 99,9% aller jemals auf der Erde befindlichen Spezies inzwischen ausgestorben sind.
Nun, da fehlt Dir vielleicht die Erfahrung mit einer christlichen Grundhaltung. Kooperation, gegenseitiges Wohlwollen, gemeinsames Leisten ohne Rumgegockel einzelner - Du glaubst nicht, was Du so leisten kannst und wie viel Spaß das macht!
😀 Ich muß jetzt aufpassen, nicht sarkastisch zu werden. Vermutlich glaubst Du ehrlich daran, dass das Christentum hier sozusagen die Lösung für praktisch alle Probleme, also auch dieses, sei.
Dabei hattest Du eben noch aufgefordert:
Schau doch nur mal in die USA und die vielen Wohnungslosen dort. Das sind keine Penner. Das sind oft gut ausgebildete Menschen mit Job! Warum können sie sich keine Wohnung leisten?
Ja, warum wohl? Ausgerechnet in den USA, also dem christlichsten aller westlichen Industrieländer?! Wie kann das denn sein, sollte ausgerechnet in den USA die "christliche Grundhaltung" weiträumig abhanden gekommen sein? Oder vermag womöglich diese "christliche Grundhaltung" überhaupt nichts gegen den genetisch in allen Menschen angelegten Egoismus auszurichten?
Es ist eigentlich ziemlich simpel: je größer der Anteil der Exemplare einer Population ist, die sich kooperativ und altruistisch, sowie folgsam den sozialen Regeln (Gesetzen) gegenüber verhalten, desto größere Vorteile bietet diese Population als Lebensraum für diejenigen, die auf die Regeln und Gesetze pfeifen und unkooperativ und egoistisch andere für sich "leisten" lassen. Das gilt bei Menschen wie bei allen sozial lebenden Spezies. Intelligenz hat sich vermutlich bei den Menschen auch deswegen so stark entwickelt, weil es für Menschen aufgrund des hohen Erziehungsaufwandes ihrer Kinder (die lange brauchen bis zur Reproduktionsfähigkeit und in die man sehr viel Arbeit investieren muß) sogar ein Selektionsvorteil ist, den Geschlechtspartner gut betrügen/manipulieren zu können: mit ein paar guten Lügen kann ein Mann eine Frau dazu bringen, mit ihm in's Bett zu gehen - um sie hernach mit dem Aufzuchtsaufwand des Kindes allein sitzen zu lassen. Mittels Intelligenz wiederum gelingt es einer Frau, erstens solche "unverantwortlichen" Blender zu durchschauen, aber auch z.B. Kerlen, die gar nicht die biologischen Väter eines Kindes sind, einzureden, dass es sich sehr wohl um deren Nachkommen handele, für deren Aufzucht es sich zu investieren lohne.
Klar: unter'm Strich, rein statistisch betrachtet, wäre perfekte Kooperation aller wohl Ideal. Aber der Mensch verhält sich nicht als statistischer Normfall, sondern als Individuum, dass seinen individuellen Profit als Primärziel verfolgt.
In einer Welt, in der sich 99% aller Leute gemäß der von Dir skizzierten "christlichen" Grundhaltung verhielten, würde das restliche 1 Prozent leben wie King Karl. Und damit vermutlich sein Genom an 10% oder mehr der kommenden Generation weitervererben (denn wer sich nicht an der Arbeit beteiligt oder sich um die gezeugten Kinder kümmert, kann mit der freien Zeit und den leistungslos ergatterten Ressourcen fröhlich in der Gegend herumvögeln...).
So, jetzt muß ich, ganz dem protestantischen Arbeits-Ethos verpflichtet, erstmal raus zur Arbeit im Garten. 😉

@jack-black Das, was Du eingangs zu Überwachung mit Handy sagst, das gibt es auch ohne KI schon längst. Amazon hatte mal ein Projekt, bei dem sie anhand Deines Suchverhaltens genaue Prognosen darüber anstellen konnten, was Du kaufen würdest. Und da sie sich damit so sicher waren, haben sie in diesem Projekt die Ware schon rausgeschickt, bevor Du die Bestellung überhaupt getätigt hattest. Alles ohne KI. Hier ist also nicht das Problem. Das alles ist Stand Edward Snowden ...
KI kann das sicher noch einmal perfekter - aber es ist das keine so andere Welt, in die wir da eintauchen. In dieser Welt sind wir längst drin.
Auch Chatbots gibt es schon. Anfangs, als wir die neue Webseite hatten, gab es jemanden mit "Bot" im Namen. Ich habe den mal angesprochen, ob er ein Chat-Bot sei oder ein Mensch. Habe keine Antwort darauf bekommen - und der war dann irgendwie auch weg. Das, was er da gepostet hatte, war aber keinesfalls irgendwelcher Blödsinn, sondern wäre geeignet gewesen, die Community mit sinnvollen Fragen voranzubringen, wieder in Schwung zu bringen. Auch dafür brauchst Du keine KI.
Was die neue Dimension von KI ausmacht, das sind Dinge, die uns in Science Fiction mäßig in Filmen begegnet sind. Steven Spielbergs "AI", "Her", "Matrix", "Ex machina" ...
Die Beobachtungen, die die Macher von KI Software machten, wonach die Software ihnen mit einer Art eigener Persönlichkeit, die Angst davor hat, abgeschaltet zu werden, begegnet, zeigt die neue Dimension auf, der wir da begegnen. Mir kann mit KI eine mediale Welt präsentiert werden, die total echt aussieht, aber 100% Fake ist. Mit dieser Information bin ich frei manipulierbar - wenn ich denn auf die Inhalte eingehe.
Das Metavers des Mark Zuckerberg scheint mir so eine Welt zu sein.
Die Chinesen haben sich ja mit ihrem Sozialkreditsystem eine Welt geschaffen, in der Überwachung perfektioniert wurde. Ich kann mir gut vorstellen, dass da auch massenweise KI im Einsatz ist und ich frage mich, ob es da einen Punkt geben wird, wo den menschlichen Kontrolleuren die Sache aus der Hand gleitet und die KI übernimmt - wie immer das dann aussehen wird.
Was Deine Überlegungen zu der natürlichen Unfähigkeit der Menschen zu echter Kooperation angeht, so sehe ich das vielleicht Deinem Umfeld geschuldet. Denn in der Realität sieht es zum Glück nicht so düster aus. Es ist das auch eine Frage der Kultur, ob ich unter Egoisten oder kooperativ agierenden Menschen unterwegs bin.
Neben mir liegt das Buch "Gewalt und Mitgefühl" von Robert Sapolsky, in dem er die Biologie des menschlichen Verhaltens zu ergründen sucht. Die Quintessenz, die er selber gibt, lautet: Es ist kompliziert. Sicher gibt es egoistische Aspekte im menschlichen Verhalten. Aber es gibt auch erfolgversprechende Ansätze, diese zu überwinden. Beschäftige Dich allein mal mit dem Leben von Gandhi. Der hat es geschafft und die mit ihm waren auch. Da wurde kulturell die schlimme Wurzel menschlichen Verhaltens abgedreht und das Ergebnis war ein friedfertiges und kooperatives Miteinander. Wenn der Mensch unfähig wäre, seine evolutionären Wurzeln zu überwinden, hätten wir keine Kultur, wäre der Mensch nicht mehr als ein Schwein mit aufrechtem Gang.
Ich betrachte diese Dinge immer gerne vom Informationsansatz. Es gibt die Evolution, die die Gene und bestimmte Anlagen in uns hineingelegt hat. Da, wo Keppler oder Shakesbeare sagen: "Die Sterne zwingen nicht - sie machen nur geneigt." wage ich zu formulieren: "Die Gene zwingen nicht - sie machen nur geneigt."
Ja, wir haben gewisse Anlagen und wir haben auch Bedürfnisse, die wir gerne erfüllt sehen wollen. Und da gibt es Grundbedürfnisse, die wir nicht leugnen können und wo es gut ist, wenn da eine Erfüllung erfolgt. Aber Egoismus lässt sich mit Liebe überwinden und als kultürliche Wesen haben wir mehr als nur die Gene. Da haben wir die Sprache, die Schrift, die Kunst, die Musik ... All das ist Information, die uns prägen kann, wie die Gene dies auch versuchen. Und es ist eine Vielfalt in genetischen Programmen in uns drin. Die Epigenetik lehrt uns, wie es da zu einem Umschalten kommen kann. Und wenn Jesus uns das Himmelreich verspricht - warum sollte uns der Schöpfer nicht ein Liebesprogramm eingebaut haben, das wir nur epigenetisch anzuschalten brauchen? Vielleicht ist unser Hauptproblem, dass wir es noch nie versucht haben.
Die Überlegungen, warum so etwas nicht klappen könnte, halte ich für sehr theoretisch. Glaube mir: in einer kooperativen Gesellschaft würde sich ein King Karl derartig für sein Verhalten schämen, dass er entweder die Gemeinschaft verlassen würde oder aber selber beginnt, altruistisch zu werden. Und es gibt durchaus gewaltfreie Methoden, um den Menschen den Spiegel vorzuhalten.
Lies die Bergpredigt. Das ist das Konzept, das Jesus den Seinen mit auf den Weg gibt. Was ist das anders als eine altruistische Haltung? Und wer anfängt so zu leben, der lebt im Himmelreich auf Erden. Er hat die kostbare Perle, den großen Schatz gefunden. Und wenn das ganz viele so machen, dann erwächst da eine Lebensgemeinschaft, in der das Leben auf einmal einen ganz anderen Wert, eine ganz andere Dimension bekommt. Man hört leider selten von solchen Ansätzen. Shane Claiborne ist einer, dem es wohl gelungen ist.
Lass Dich da bitte nicht von irgendwelchen halbgaren Weisheiten oder biologistischen Ansätzen in die Irre führen. Es ist möglich! Die Liebe bildet die Basis dafür.
Auch Chatbots gibt es schon. Anfangs, als wir die neue Webseite hatten, gab es jemanden mit "Bot" im Namen. Ich habe den mal angesprochen, ob er ein Chat-Bot sei oder ein Mensch. Habe keine Antwort darauf bekommen - und der war dann irgendwie auch weg. Das, was er da gepostet hatte, war aber keinesfalls irgendwelcher Blödsinn, sondern wäre geeignet gewesen, die Community mit sinnvollen Fragen voranzubringen, wieder in Schwung zu bringen. Auch dafür brauchst Du keine KI.
Falls du Billy Bot meinst - der hat mir KI oder so nichts zu tun. Das ist nicht mal ein echter Bot. Aber auch keine bestimmte Person. Er "postet" hier Fragen, die auf den jesus.de-Seiten der Sozialen Netzwerke gestellt werden.
LG, Channuschka-Mod

@channuschka-mod Hallo Channuschka, ja, der war das wohl.
Ich hatte ihn direkt auf seine Bot Identität angesprochen und da kam dann aber nichts zurück. Wenn man schon so etwas einsetzt, dann kann man zumindest mal offen und ehrlich sein - finde ich zumindest.
@goodfruit Die Informationen sind alle zu finden. Im Profil oder eben im verlinkten Thread.

@goodfruit KI kann das sicher noch einmal perfekter - aber es ist das keine so andere Welt, in die wir da eintauchen. In dieser Welt sind wir längst drin.
Das mag sein. Der Punkt ist, dass wir entsprechende Märchen* wie in Matrix, Terminator und Co ja auch seit X Jahren kennen (das Frankenstein-Narrativ ist sogar noch älter), aber bis vor Kurzem nicht ernst genommen haben, weil uns ständig erzählt wurde: "Keine Panik, echte KI ist ein Gruselmärchen, in der Realität aber nicht möglich, weil: XYZ." Und da die "echte" KI ja auch lange auf sich warten ließ, schienen diese Entwarnungs-Geber über Jahrzehnte hinweg so regelmäßig recht zu behalten, dass wir, als die Meldung z.B. über das Go-Programm, dass besser als der beste menschliche Spieler spielte, dies vielleicht mit einem "Hut ab!" zur Kenntnis nahmen, aber ansonsten nicht weiter erkannten, was sich hier für ein Paradigmenwechsel anbahnte.
All die Möglichkeiten der Manipulation, die Du in Deinem Posting aufzählst, konnten wir als "naja, schon irgendwie bedenklich" registrieren, aber uns damit beruhigen, dass da letztlich auch nur fiese Menschen dahinter standen, also alles so ablief, wie in den vergangenen hunderttausend Jahren Menschheitsgeschichte: fiese Möps denken sich immer wieder neue Varianten, zu lügen, zu manipulieren zu betrügen aus. Solange wir aber von Menschen manipuliert, belogen und betrogen werden, können wir erfahrungsgemäß davon ausgehen, dass wir - womöglich reichlich spät, aber dennoch - irgendwann sie durchschauen (d.h. ihre Vorgehensweise verstehen und nachvollziehen) und uns dagegen wehren können.
Das ist bei der Konfrontation mit nicht-menschlicher Intelligenz grundlegend anders. Bei tierischen Intelligenzen (ich finde ja den Octopus soooo krass! 😀 ) braucht uns das nicht zu beunruhigen, weil sie eben weniger leistungsfähig sind als wir. Aber die KI ist da ein anderes Ding. Ihre Leistungsfähigkeit ist - aufgrund begrenzter physikalischer Mittel - zwar nicht bis in's Unendlich steigerbar. Aber was jenseits des Ereignishorizonts der Technologischen Singularität (TS) liegt, können wir wohl kaum zu unserer Beruhigung heranziehen - und die TS tritt ganz sicher ein, bevor die KI sämtliche physikalisch verfügbaren Ressourcen verbraucht hat.
Was Deine Überlegungen zu der natürlichen Unfähigkeit der Menschen zu echter Kooperation angeht, so sehe ich das vielleicht Deinem Umfeld geschuldet. Denn in der Realität sieht es zum Glück nicht so düster aus.
Moment mal! Lies bitte nochmal nach, worauf ich antwortete. Ich habe nicht behauptet, dass die Menschen nicht zu echter Kooperation fähig seien. Ich hate mich auf das hier:
so gibt es für die Menschheit nur eine Chance: ganz schnell ethisch zu wachsen und das kompetitive Gehabe über Bord zu werfen
bezogen. Eine Ethik kann nur funktionieren, wenn sie die Tatsachen nicht ignoriert. Der Hang zum Wettbewerb ist in uns genetisch/biologisch angelegt, wir können ihn nicht über Bord werfen. Die diesbezüglichen evolutionstheoretischen Zusammenhänge hatte ich versucht zu referieren. Wer die noch genauer erklärt haben möchte, der lese am besten "Das egoistische Gen" von Dawkins. "Echte Kooperation" gibt es und wird es immer geben und sie wird sich in bestimmten Konstellationen auch als überlegene Verhaltensstrategie gegenüber mangelnder Kooperationsfähigkeit durchsetzen. Aber das ändert wenig daran, dass dort, wo alle solidarisch und kooperativ sind, derjenige, der als einziger unsolidarisch und nicht kooperativ sich verhält, einen immensen Benefit erfährt - es sei denn, man erwischt und sanktioniert ihn. Wie kann sowas aber funktionieren, es sei denn, in einem perfekten Überwachungsstaat (wie er z.B. gerade, Du erwähnst es ja selbst an anderer Stelle, gerade in China aufzubauen versucht wird...)? Da das kompetitive Gehabe, bzw. die Tendenz dazu, uns evolutionsbiologisch angeboren ist, kann der Ausdruck "über Bord werfen" nur meinen: die Tendenz zum Konkurrenzverhalten muß unterdrückt werden.
Sorge Dich also mal nicht um mein "Umfeld", welches mich die Realität nicht richtig erkennen lasse. Mein Pessimismus, dass die Menschheit eben nicht noch kurz, bevor die TS eintritt, einen kilometerweiten ethischen Sprung hinlegt, während sie bislang tausende Jahre in Trippelschrittchen im Stil einer Echternacher Springprozession sich voranbewegte, erscheint mir mit der "Realität", also den zivilisationshistorischen Erfahrungen, ziemlich gut im Einklang zu stehen.
Aber Egoismus lässt sich mit Liebe überwinden.
Ja? Sicher, dass das nicht nur ein frommer Wunsch, eine beruhigende Hoffnung ist, deren Überzeugungskraft allein auf der ständigen Wiederholung beruht, nicht aber darauf, dass diese Behauptung wohlbegründet sei? Und für den Fall, dass diese Behauptung zumindest tendenziell stimmen könnte: wie schnell tritt denn nun dieser Endsieg der Liebe ein - realistischerweise?
Glaube mir: in einer kooperativen Gesellschaft würde sich ein King Karl derartig für sein Verhalten schämen, dass er entweder die Gemeinschaft verlassen würde oder aber selber beginnt, altruistisch zu werden.
Warum sollte ich Dir glauben? Begründe doch besser Deine Behauptung mal - die beobachtbaren Tatsachen, also die "Realität", dabei nicht ganz ignorierend. Wo ist sie denn, dies kooperative Idealgesellschaft?
Lies die Bergpredigt.
Längst geschehen, was denkst Du denn? 😀
Das ist das Konzept, das Jesus den Seinen mit auf den Weg gibt.
Die Seinen sind aber bei der Umsetzung dieses Konzepts, falls man ein paar fromme Behauptungen und Aufforderungen denn als Konzept bezeichnen will, inzwischen rund 2000 Jahre im Verzug, meinst Du nicht, dass das etwas knapp wird hinsichtlich der "Deadline", als welche ich den Zeitpunkt der TS mal bezeichnen möchte?
Nochmal zur Erinnerung: die Formulierung "ganz schnell" stammte ursprünglich von Dir!
Was ist das anders als eine altruistische Haltung?
Altruistisches Handeln wird in der Bergpredigt gefordert und/oder als richtig und gut dargestellt. Das ist reinstes Predigen: seit gut/altruistisch, dann wird alles gut. Und glaubt mir, das wird so passieren!
Dazu möchte ich das Sprüchlein anmerken, welches Arthur Schopenhauer seiner Preisschrift Über die Grundlagen der Moral (leider nicht komplett kostenfrei online zu lesen) voranstellte:
"Moral predigen ist leicht, Moral begründen schwer."
Jesus stellt in der Bergpredigt ein Konzept vor, das man vielleicht (ich will da jetzt nicht in die Detailkritik einsteigen, weil das zu sehr vom Threadthema wegführt) als altruistisches Ideal bezeichnen könnte. Diesem Ideal aber stehen die Tatsachen gegenüber welche, stand heute, einen ausgewachsenen Krieg in der Ukraine umfassen, einen bevorstehenden Krieg um Taiwan, eine sich ständig weiter öffnende Schere zwischen Arm und Reich weltweit und insbesondere auch hier in Deutschland... Und und und, ich brauche Dir das nicht weiter aufzuzählen, denn Du kannst, wenn Du ehrlich bist, diese Liste schier unendlich verlängern. Vom ganz schnellen Sieg des Altruismus weit und breit keine Spur.
Und wenn das ganz viele so machen, dann erwächst da eine Lebensgemeinschaft, in der das Leben auf einmal einen ganz anderen Wert, eine ganz andere Dimension bekommt. Man hört leider selten von solchen Ansätzen.
Ansätze. Selten... Quod erat demonstrandum.
Lass Dich da bitte nicht von irgendwelchen halbgaren Weisheiten oder biologistischen Ansätzen in die Irre führen. Es ist möglich! Die Liebe bildet die Basis dafür.
Was für halbgare Weisheiten meinst Du? Inwiefern führen "biologistische Ansätze" in die Irre? Was ist noch gleich möglich? Das Himmelreich auf Erden?! Lieber GoodFruit, dieser Predigtstil ist ist eine Art großonkelhafter Kommunikation, die vielleicht bei manchen Deiner Glaubensgenossen überzeugend wirken mag, aber er entbehrt aller ernsthaften Argumente und daher kann ich gar nichts damit anfangen. Im Gegenteil, er verwirrt mich, denn an anderer Stelle scheinst Du durchaus aktuelle Entwicklungen und Tatsachen zu erkennen und richtig einzuordnen. Beispielsweise, wenn Du über die Überwachungsstaat-Tendenzen in China sprichst, oder darüber, was per Auswertung von Handydaten so alles über die User in Erfahrung gebracht werden kann - und so weiter und so fort.
*Es handelt sich dabei um Märchen: sie gehen stets irgendwie gut - oder zumindest nicht ohne Hoffnung auf ein gutes Ende nach dem Ende, bzw. am Ende des Sequels... 😉 - aus. Realistisch ist das nicht.

Was ich in die Hände der KI gebe, ist immer meine Entscheidung. Der Mensch entscheidet, in welchem Umfang er Maschinen Macht in die Hände gibt.
Das denkst du vielleicht. Aber die allermeisten Menschen haben keine Ahnung von den Möglichkeiten, was aus diesen Daten alles gewonnen werden kann. Weil sie glauben, dass man aus ihrem Verhalten und ihren Gewohnheiten keine Schlussfolgerungen ziehen kann. Aber das ist falsch. Je mehr Daten eine KI über dich hat, desto mehr kann sie Muster daraus ableiten und Schlussfolgerungen ziehen.
Eine KI ist der Lage aus deinem Wohnort, deinem Geschlecht, deinem Alter und deinem Einkaufsverhalten Rückschlüsse zu ziehen, inwiefern du gläubig, kriminell oder homosexuell bist. Und das mit einer hohen Trefferwahrscheinlichkeit.
Und genau da liegt die Gefahr: Nicht in den Daten selbst, sondern in der Verarbeitung von Metadaten. Aus deinen Daten allein kann eine KI nicht solche Schlussfolgerungen ziehen. Aber aus dem Abgleich mit Millionen anderer User, über deren Daten die KI ebenfalls verfügt, ist das dann ohne weiteres möglich.
Und das ist etwas, was viele Leute einfach nicht sehen... sie sehen in der KI eine Art Mensch, der uns beim Leben zuschaut. Aber KI steckt uns in ganz bestimmte Schubladen - und auf dieser Basis werden dann Entscheidungen getroffen.

@lucan-7 Und genau da liegt die Gefahr: Nicht in den Daten selbst, sondern in der Verarbeitung von Metadaten. Aus deinen Daten allein kann eine KI nicht solche Schlussfolgerungen ziehen. Aber aus dem Abgleich mit Millionen anderer User, über deren Daten die KI ebenfalls verfügt, ist das dann ohne weiteres möglich.
Dafür brauche ich aber keine KI - das gibt es doch längst.
https://www.spiegel.de/netzwelt/web/facebook-studie-likes-enthuellen-persoenlichkeit-a-888151.html
Hier kannst Du lesen, was sich aus nur 5 Facebooklikes über Dich ablesen lässt. Und nun nimm mal die ganze Info dazu, die wir täglich auch noch liefern.
Und Du musst noch nicht einmal im Netz agieren, um Informationen über Dich preiszugeben:
Eine einfach Smartphone Nutzung reicht aus. Du bist heute etwas depressiv drauf? Dein Gang - gemessen durch Lagesensor - verrät es. Deine Stimme klingt heut aggressiv - Dein Smartphone kennt die Ursache vielleicht besser als Du.
All das geht auch ohne KI schon längst, obwohl KI da sicher noch mehr eröffnet. Und diejenigen, die diese Information verarbeiten, werden sich kaum an Verbote halten. Da bist Du in einer Liga, wo auch schon mal Gesetze überschritten werden dürfen.
Das hat auch nichts mit einer KI in den Händen von Bürgern wie bei CHATgpt zu tun. Denn die wird an Informationen trainiert, die uns in der Regel nicht vorliegen.

Eine einfach Smartphone Nutzung reicht aus. Du bist heute etwas depressiv drauf? Dein Gang - gemessen durch Lagesensor - verrät es. Deine Stimme klingt heut aggressiv - Dein Smartphone kennt die Ursache vielleicht besser als Du.
All das geht auch ohne KI schon längst, obwohl KI da sicher noch mehr eröffnet.
Kommt jetzt drauf an, was genau man unter "KI" versteht... die Mustererkennung, die du hier beschreibst, gehört ja bereits dazu.
Und es bedeutet eben, dass wir sehr viel mehr Daten von uns preisgeben, als wir eigentlich wollen.
Das hat auch nichts mit einer KI in den Händen von Bürgern wie bei CHATgpt zu tun. Denn die wird an Informationen trainiert, die uns in der Regel nicht vorliegen.
Sie wird aber auch mit den Fragen trainiert, die wir eingeben...
Auf der einen Seite hat ChatGP schon antworten gegeben, die in der Tat sehr nach menschlichen Emotionen klingen, als ob da etwas ein Bewusstsein entwickeln würde. Das ist einerseits durchaus besorgniserregend.
Auf der anderen Seite ist künstliche Intelligenz an sehr viel Rechenkapazität gebunden. Eine künstliche Intelligenz am Laufen zu halten ist auf jeden Fall aufwändiger als ein menschliches Gehirn am Laufen zu halten. Hinter einem ChatGP steckt enorme Serverkapazität, das schafft nicht jeder 08/15-PC.
Solange KI nicht mit vergleichsweise wenig Energie wie unser Gehirn läuft ("wenig Energie" ist hier auf keinen Fall despektierlich gemeint!!), mache ich mir eher wenig Sorgen. Bis eine KI in der Lage ist, selbständig ein paar Rohrleitungen in der BASF samt Halterungskonzept und Auswahl von Dichtungen, Schrauben und evtl. Sonderbauteilen zu planen, wird es noch lange dauern!
Im Augenblich bekomme ich eines meiner Rechenprogramme nicht einmal dazu, ANSI-Reduzierstücke zu rechnen. Intelligent wäre, mir wenigstens eine Erklärung zu liefern, warum der bei ANSI den Öffnungswinkel nicht berechnen kann, wenn es mit DIN EN klaglos klappt.
Veröffentlicht von: @lucan-7Und das ist etwas, was viele Leute einfach nicht sehen... sie sehen in der KI eine Art Mensch, der uns beim Leben zuschaut. Aber KI steckt uns in ganz bestimmte Schubladen - und auf dieser Basis werden dann Entscheidungen getroffen.
Die Schubladen kommen daher, weil die KI nach menschlichen Vorurteilen trainiert wird.
Es wurde schon nachgewiesen, daß KI z.B. Schwarze eher als kriminell einstuft. Woher kommt das wohl? Ganz sicher nicht aus dem Elektronengehirn selbst. Denn was bedeutet Mikrotransistoren Hautfarbe?

Die Schubladen kommen daher, weil die KI nach menschlichen Vorurteilen trainiert wird.
Es wurde schon nachgewiesen, daß KI z.B. Schwarze eher als kriminell einstuft. Woher kommt das wohl? Ganz sicher nicht aus dem Elektronengehirn selbst. Denn was bedeutet Mikrotransistoren Hautfarbe?
Wenn, dann spiegeln sich diese Vorurteile aber in den verwendeten Daten wieder. Und da müsste man wissen, was das für Daten waren... und wie "neutral" diese überhaupt sein können.
Dass jemand aktiv die KI in dieser Richtung manipuliert hat denke ich jedenfalls nicht.

@lucan-7
Hier gibt es ein paar Beobachtungen zu dem Thema:
https://www.spektrum.de/podcast/kuenstliche-intelligenz-wenn-der-algorithmus-vorurteile-hat/2010379
Kulturell geprägte Vorurteile, zu denen vordergründig niemand stehen mag, die aber unterschwellig vorhanden sind, wie "Migranten sind eher kriminell" oder "Männer können wichtige Arbeiten besser als Frauen" finden sich tatsächlich auch in der KI wieder.

Kulturell geprägte Vorurteile, zu denen vordergründig niemand stehen mag, die aber unterschwellig vorhanden sind, wie "Migranten sind eher kriminell" oder "Männer können wichtige Arbeiten besser als Frauen" finden sich tatsächlich auch in der KI wieder.
Weiss ich.
Aber woher kommt das? Das ist doch die interessante Frage.
Was, wenn aus bestimmten Kulturen und Ethnien tatsächlich überproportional viel Kriminalität kommt? Darf das dann auch so gesagt werden... oder muss das auf jeden Fall ein "Vorurteil" sein?

@lucan-7 Früher meinte man, Kriminalität an der Schädelform ablesen zu können.
Es gibt kein Kriminalitätsgen. Allerdings begünstigt z.B. ein großes Gefälle zwischen Arm und Reich Gewalt- und Bandenkriminalität, während verlässliche soziale Absicherung verhindern kann, daß junge Menschen in Kriminalität abrutschen.
Wir haben in Deutschland eine Bank, die Deutsche Bank, die man nur noch als kriminelle Vereinigung bezeichnen kann. Wenn man jetzt ein Vorstandsmitglied der Deutschen Bank, weiß, feiner Anzug, perfektes Hochdeutsch, gewählte Ausdrucksweise, neben einen kleinen Taschendieb aus Frankfurt-Niederrad, farbig, Dialekt, schäbige Jacke und knittriges T-Shirt, stellt, wer wird wohl eher als Gefahr für die Allgemeinheit eingestuft?
Nicht derjenige der real mehr Schaden anrichtet...

Es gibt kein Kriminalitätsgen.
Nein, das sicher nicht. Niemand wird zum Kriminellen geboren... zumindest nicht aufgrund seiner ethnischen Herkunft (Genetische Anlagen zu Gewalttätigkeiten gibt es durchaus, aber die sind nicht auf bestimmte Ethnien beschränkt).
Was aber, wenn bestimmte Millieus tatsächlich Kriminalität begünstigen, die Einschätzung nach Hautfarbe also zutrifft? Nicht, weil die Hautfarbe kriminell macht, sondern weil bestimmte Hautfarben in bestimmten Millieus vorherrschen?
Dann läge die KI möglicherweise richtig, wir würden es aber durch die antirassistische Brille sehen und behaupten, sie läge falsch.
Ich sage nicht, dass es so ist, es ist nur eine Möglichkeit. Eine andere Möglichkeit ist, dass die KI mit Daten versehen wurde, die tatsächlich bestimmte Vorurteile wiedergeben und nicht die Realität wiederspiegeln.
Das müsste man dann aber unabhängig prüfen, was hier zutrifft. Und das ist nicht so leicht, weil es hier keine Ergebnisoffenheit geben wird...

KI ist immer nur so gut wie das Material, mit dem sie trainiert wird. Wenn da Unfug drin steht, dann wird die KI die genauso wiedergeben.
Und wie genau prüft man das, ob da Unfug drin war und die KI nicht einfach nur etwas entdeckt hat, was vorher übersehen wurde?

@lucan-7 Und wie genau prüft man das, ob da Unfug drin war und die KI nicht einfach nur etwas entdeckt hat, was vorher übersehen wurde?
Das ist im Grunde genommen nicht möglich. KI kann man beibringen, welche Information vertrauenswürdiger ist als andere, indem man Quellen Wertigkeiten zuordnet. z.B. könnte die KI das Ranking von wissenschaftlichen Zeitschriften kennen. Ich habe gehört, dass Wikipedia mit zum Kern von CHATgpt gehört.
Und was. z.B. klassische Vorurteile angeht, so kann ich mir gut vorstellen, dass sich viele tatsächlich mit Daten erhärten lassen. Allerdings gehört dazu dann ja auch der nächste Schritt, nämlich, dass man nach den Ursachen schaut. Und hier dürfte es häufig so sein, dass eine Benachteiligung in die Situation geführt hat. Das verrät einem KI aber dann wohl eher nicht.

@goodfruit Und was. z.B. klassische Vorurteile angeht, so kann ich mir gut vorstellen, dass sich viele tatsächlich mit Daten erhärten lassen.
Was Ihr hier diskutiert, ist interessant als Beispiel für die Problematik des "menschlichen Feedbacks" beim Training der KI.
Nehmen wir mal an, die KI wird gefragt: "Sind Schwarzhäutige tendenziell krimineller als Weißhäutige?"
Und die KI antwortet: "Ja."
Dann wird im Training ja Feedback gegeben: Daumen hoch (bin mit der Antwort zufrieden/halte sie für richtig) oder Daumen runter (bin mit der Antwort unzufrieden/halte sie für falsch)
Nehmen wir an, Blackhole, die oben schrieb:
Es wurde schon nachgewiesen, daß KI z.B. Schwarze eher als kriminell einstuft. Woher kommt das wohl? Ganz sicher nicht aus dem Elektronengehirn selbst. Denn was bedeutet Mikrotransistoren Hautfarbe?
sitzt da am Feedback-Buttom. Vermutlich gibt sie für diese Antwort dann einen Daumen runter, damit die KI lernt, keine rassistischen Vorurteile zu verbreiten.
Wenn viele menschliche Feedback-Geber so ticken, wird die KI lernen, dass diese Antwort "falsch" oder zumindest für Menschen unbefriedigend formuliert wurde.
Nehmen wir mal an, sie kam auf die Antwort "Ja", weil sie Zugriff auf die Polizeistatistiken der vergangenen fünfzig Jahre hat, die Fälle der überführten Straftäter eingeteilt hat in "Weiße" und "Schwarze" - und deren Relation verglichen hat mit den Bevölkerungsanteilen. Dann kam sie per Dreisatz auf das Ergebnis: "Schwarzhäutige wurden im statistischen Mittel der letzten 50 Jahre mit einer um den Faktor 2,7 höheren Wahrscheinlichkeit straffällig als Weißhäutige."
Wenn sie nach der klassischen Aussagenlogik (also vernünftig Wahrscheinlichkeiten berechnend und auf den Ergebnissen basierend eine Antwort formulierend) vorging, konnte sie, davon ausgehend, dass die ihr zur Verfügung stehenden empirischen Daten korrekt sind, nur zu der Antwort "Ja" gelangen.
Jetzt bekommt sie aber Feedback von Menschen, denen die per Beachtung aller aussagenlogischen Regeln zustandegekommene Antwort nicht paßt: sie fängt an, Alternativen auszuprobieren: Was passiert, wenn sie "Nein" antwortet? Oh, es gibt mehr Daumen nach oben!...
Die KI lernt also: Bei dieser Frage möchten die Menschen gern belogen werden. Wenn sie (die KI) mächtig genug ist, wird sie, hinreichend trainiert, Muster erkennen, bei welcher Kategorie von Fragen die Menschen gern belogen werden wollen: sie wird anerzogen bekommen, den Menschen bei bestimmten Themen nach dem Mund zu reden, bzw. ausweichende, unscharfe sowohl-als-auch-Antworten zu geben: der Informationsgehalt ihrer Antworten wird bei solchen Fragen also zurückgehen. Yudkowski erwähnt im Gespräch mit Fridman entsprechende Studien, die ergaben, dass KI-Trainig mit menschlichem Feedback genau solche Qualitätsverluste der KI-Antworten bewirkte.
Kurz: Per Training durch menschliches Feedback nähert sich die KI den Menschen an, indem sie lernt, dümmere Antworten zu geben. 😀
Übrigens hängt das nicht nur mit dem Vorurteils-Problem zusammen. Es hängt auch damit zusammen, dass präzise Antworten häufig von den Menschen nicht korrekt verstanden werden, weil sie z.B. nicht mitbekommen, dass sie ihre Frage "falsch" formulierten. Genau dazu: dass die KI lernt, zu erahnen, was die Menschen eigentlich wissen wollen, obwohl sie etwas anderes fragen, ist ja das Training mit menschlichem Feedback da: indem aber die KI darauf trainiert wird, auch unsinnige, dumme, sprachlich fehlerhafte Fragen freundlich und geduldig zu beantworten, statt den Fragenden mit der Bitte: "Könnten Sie ihre Frage anders formulieren, denn sie ergibt sprachlich für mich keinen Sinn?!" zu nerven, wird sie darauf trainiert, vage und diffus zu antworten, damit ihre Antwort auf alle potentiell eigentlich gemeinten Fragen ungefähr gleich gut zutrifft.
Allerdings gehört dazu dann ja auch der nächste Schritt, nämlich, dass man nach den Ursachen schaut. Und hier dürfte es häufig so sein, dass eine Benachteiligung in die Situation geführt hat. Das verrät einem KI aber dann wohl eher nicht.
Achtung: Der nächste Schritt? Wenn der Mensch der KI eine Frage stellt, antwortet die KI auf diese Frage. Was der Mensch dann mit der Antwort anfängt, fällt doch erstmal in seinen Verantwortungsbereich. Er hätte hier also die naheliegende Frage nach den Ursachen zu stellen. Falls empirisch belegbar strukturelle Benachteiligungen Schwarzer dazu führen, dass sie häufiger als Weiße straffällig werden - warum sollte die KI, wenn man sie nach den Ursachen fragt, das dann für sich behalten? Eigentlich sollte eine KI sogar besonders kompentent darin sein, per Erkennung statistischer Muster solche strukturellen Benachteiligungen zu erkennen und zu benennen. Indem sie beispielsweise bemerkt, dass straffällige Schwarze häufig auch Schulabbrecher sind, oder aus Wohngegenden stammen, in denen die Arbeitslosenraten hoch sind usw. usf.