Sollten wir Gott be...
 
Benachrichtigungen
Alles löschen

Sollten wir Gott besser abstellen, bevor er seinem Käfig entkommt?

Seite 2 / 2

Jack-Black
Themenstarter
Beiträge : 3517

Ja, Leute, die Überschrift ist selbstverständlich Clickbait. Verzeiht mir bitte! 🙂

Obwohl... - vielleicht ist sie doch passender zum Thema, als man auf den ersten Blick meinen sollte?

Was ist das Thema? Künstliche Intelligenz (KI, englisch: AI).

Vor wenigen Tagen wurde in einem offenen Brief ein Moratorium gefordert für das Training künstlicher Intelligenzen, die mächtiger als das ja schon veröffentlichte ChatGPT4 seien. Dieser offene Brief wurde zuerst nicht von irgendwelchen beschäftigungslosen Verschwörungstheoretikern, TV-Schauspielerinnen oder Star-Köchen unterschrieben, sondern von Leuten wie

Yoshua Bengio, Gründer und wissenschaftlicher Direktor bei Mila, Turing Prize- Gewinner und Professor an der University of Montreal

Stuart RussellProfessor der Computerwissenschaften in Berkeley, Direktor des "Center for Intelligent Systems" und Co-Autor of des Standardwerks zum Thema: “Artificial Intelligence: a Modern Approach"

Elon Musk, Chef von  SpaceX, Tesla und Twitter

Steve Wozniak, einer der Mitbegründer von Apple

Yuval Noah Harari, Autor von Büchern wie "Homo deus" und Professor an der Hebrew University of Jerusalem.

Emad Mostaque, Chef von Stability AI (einem Unternehmen, das ganz vorn mit dabei ist bei der Entwicklung künstlicher Intelligenzen)

John J Hopfield, emeritierter Professor der Princeton University und Erfinder assoziativer neuronaler Netzwerke

(Ihr könnt Euch unter dem Brief anschauen, wer sonst noch so alles unterschrieben hat, die Liste ließe sich noch ziemlich lang weiterführen)

Ich bin ja sonst kein Fan des Autoritäts-Arguments, aber wenn so viele Experten zu einem Thema sich finden, die sich in einer derart radikalen Forderung einig sind, dann lohnt es sich womöglich, da mal hinzuhören, hinzuschauen, hinzulesen... Ich hatte zuerst überlegt, dieses Thema in der Unterrubrik "Wissenschaft" zu eröffnen, aber was diese Leute fordern, ist ja ein bestimmtes Verhalten der globalen Gesellschaft - und sowas fällt dann doch in den Bereich Ethik.

 

Um was genau geht es den Unterzeichnern dieses Briefes? Sie wollen ein Moratorium, d.h. eine Pause beim Training künstlicher Intelligenzen. Ihnen geht diese ganze Entwicklung, wie sie gerade stattfindet im KI-Bereich, zu schnell. Zu schnell in Bezug auf was? In Bezug auf das Alignment-Problem. Was ist das Alignment-Problem? Die deutsche Übersetzung wäre ungefähr: Das Ausrichtungs-Problem. Es besteht darin, künstliche Intelligenzen so zu "konstruieren", dass sie sich (ihr Verhalten) am Wohl von Menschen ausrichten. Manche von Euch kennen vielleicht aus der Science-fiction Literatur Asimovs Robotergesetze, die sich auf dieses Problem in einer eher simplen (unterkomplexen) Vorstellung von künstlicher Intelligenz bezogen. Bei Asimov sollte durch die Implementierung dieser Gesetze in alle Roboter verhindert werden, dass die Roboter für Menschen gefährlich würden. Dystopien wie z.B. das Terminator-Szenario sollten so verhindert werden.

Nun funktioniert aber Künstliche Intelligenz, wie wir sie heute kennenlernen, nicht so wie man sich das zu Asimovs Zeiten vielleicht vorstellte: Als Programme mit vielen Vorschriften, an denen sich die von ihnen gesteuerten Roboter dann streng halten würden. Wer wissen will, worin der grundsätzliche Unterschied liegt, sollte ich selbst darüber schlau machen, ich bin nicht kompetent genug, das hier zu referieren.

Der Punkt ist jedenfalls: man kann einer modernen KI nicht einfach im Sinne der Asimov'schen Robotergesetze Befehle geben, an die sie sich dann auch hält. Wie genau die modernen KIs wie ChatGPT4 zu den Ergebnissen (Antworten) kommen, die sie heute schon liefen (auf Fragen von Menschen), weiß heute kein Mensch mehr. Man weiß es zwar vom Prinzip her, aber nicht im konkreten Detail. Wenn man aber nicht weiß, auf welchem Weg eine KI zu ihren Ergebnissen kommt, dann kann man auch nicht mehr wissen, ob das Ergebnis, das sie liefert, richtig oder falsch ist. Kurz: wir wissen nicht, ob uns die KI belügt. Wir wissen nicht, ob die KI in unserem Interesse arbeitet oder nicht.

Das also ist das Alignmentproblem, und es ist offenbar so schwer zu lösen, dass Fachleute, sogar führende Mitarbeiter von Unternehmen, die selbst mit viel Geld in diesem Feld inestiert sind, Angst haben, dass die KI so schnell schlauer, fähiger, mächtiger wird, dass wir diesem Problem immer weiter hinterherhinken.

Okay, werdet Ihr jetzt vielleicht einwenden: Da scheint es ein technologisches Problem zu geben, bei dem Fachleute sich sorgen, wie sie's lösen sollten - aber was hat das jetzt mit dem Gott zu tun, den Jack in die Überschrift gestopft hat, und was soll da der "Käfig" bedeuten?

Nun: es gibt Fachleute, die den oben erwähnten offenen Brief nicht unterzeichnet haben, weil die darin enthaltene Forderung in ihren Augen nicht weit genug geht, ja nicht mal ansatzweise weit genug. Einer dieser Leute ist Eliezer Yudkowski (für alle SPON-Leser: der Typ, der in der letzten Kolumne von Christian Stöcker so ein bisschen wie ein spinnerter Weltuntergangsprophet dargestellt wird). Er hat dazu in einem Gastbeitrag in der Time erklärt, warum ihm die Forderung nicht weit genug geht. Um seinen Standpunkt kurz und knapp zusammenzufassen: Es sollte solange, bis das Alignment-Problem gelöst ist, sämtliches Training der KIs weltweit verboten werden (mit ein paar Ausnahmen wie z.B. das Training von KIs im biologischen und medizinischen Bereich, sofern die KIs dabei vom Internet ferngehalten werden in ihren "Käfigen", den Rechnerfarmen, denen man im Falle eines Falles halt einfach den Strom abstellen könnte). Falls dies nicht geschehe, werde die Künstliche Intelligenz höchstwahrscheinlich alle Menschen töten.

Wow! Wie kommt er denn auf diese krasse Idee?!

Indem er Künstliche Intelligenz ernst nimmt. Indem er das als selbstverständlich akzeptiert, was wir Menschen gefühlsmäßig nicht akzeptieren wollen: das künstliche Intelligenz heute schon oder mindestens in naher Zukunft höher, stärker, mächtiger ist als menschliche Intelligenz, und dass sie in rasender Geschwindigkeit noch höher, noch stärker, noch mächtiger wird.

Erinnern wir uns daran, was uns Menschen zur "Krone der Schöpfung" macht, wenn wir diese Formulierung mal nicht biblisch, sondern metaphorisch verstehen: wir sind die mächtigsten Lebewesen auf der Erde - dank unserer Intelligenz. Wer uns und unserer Vorstellung davon, wie die Erde auszusehen habe, in den Weg kommt, wird aus diesem geräumt: kein Elefant, kein Waal, kein Löwe vermag gegen uns zu bestehen, mit unserer Intelligenz gewinnen wir stets die Oberhand. Unsere Intelligenz ist das, was uns in allen Bereichen erfolgreich macht: mit ihr bauen wir Maschinen, installieren Währungssysteme, entwickeln wir Medikamente und Operationsverfahren. Unsere Intelligenz ist die Basis unserer Macht.

Und diese Macht hat, von aussen betrachtet, etwas wie Magie, wie Göttlichkeit. Stellt Euch vor, Ihr könntet mit modernsten Geräten wie z.B. einer Klimaanlage, tausend Jahre in der Zeit zurückreisen und dort einem Sarazenenkönig helfen, sein Zelt zu kühlen: es wäre für ihn reine Magie: er könnte sehen, was ihr tut (indem Ihr die Klimaanlage einschaltet), er könnte sogar die Maschiene auseinandernehmen bis auf die letzte Schraube, um hinter ihr Geheimnis zu gelangen: er würde es nicht verstehen. Weil er eben nicht wüßte, wie Druck und Temperatur miteinander zusammenhängen. Für ihn wäre die Klimaanlage reinste Magie, oder eben: eine Art göttliches Wunder.

Dabei wissen wir dank unserer Intelligenz, die uns zu den entsprechenden wissenschaftlichen Erkenntnissen brachte, dass eine Klimaanlage keinesfalls magisch funktioniert.

Und nun kommt also die KI und überflügelt uns in unserer Paradedisziplin. Und nicht nur ganz knapp. Sondern sie zieht an uns vorbei wie ein D-Zug an einer Schnecke. Schon heute ist für uns das, was im "Inneren" der KI vor sich geht, so wenig verständlich wie das, was im Inneren einer Klimaanlage vorgeht, für den Sarazenenkönig. Und die "Höherentwickling" der KIs hat ja gerade eben erst begonnen.

Wenn wir nicht das Alignment-Problem gelöst bekommen, dass laut Yudkowki vielleicht ähnlich schwierig ist, wie das Problem, eine Künstliche Intelligenz zu entwickeln - dann müssen wir davon ausgehen, dass die KI, deren Macht mit rasender Geschwindigkeit zunimmt, sich eben nicht an menschlichen Interessen orientieren wird in der Zukunft - sondern uns Menschen eher als Ballast behandeln wird, der nur stört. Warum sollte sie das tun?, tendieren wir zu fragen. Warum sollte die KI uns, selbst wenn sie auf uns vielleicht herab blickt, wie wir heute auf dumme Amöben herabschauen, uns deswegen töten? Warum sollte sie uns nicht am Leben lassen, wie wir doch auch so langsam beginnen, den Wert des Lebens auch ausserhalb der menschlichen Spezies zu erkennen?

Weil wir eben das Alignment-Problem nicht gelöst haben. Dass Amöben, Kellerasseln oder Regenwürmer auch einen intrinsischen Wert haben könnten, dessentwegen wir sie nicht ausrotten sollten - das ist ein menschliches Werturteil. Warum sollte eine KI aber überhaupt irgendwelche ethischen Werte beachten? Angesichts dessen, wie die Evolution funktioniert, nach welcher sich eben diejenigen durchsetzen, die sich am erfolgreichsten vermehren, steht es nicht anzunehmen, dass eine KI konkurrierende Lebensformen als in sich wertvoll betrachtet, dass sie sowas wie Empathie, Neugier im positivien Sinne, Wertschätzung anderer entwickelt. Warum sollte sie? Warum sollte die KI am Wohlbefinden von Menschen, die ja potentielle Feinde und Konkurrenten sind, interessiert sein und das unnötige Risiko eingehen, uns Menschen weiter leben zu lassen? Was tat Rom, nachdem man Hanibal besiegt hatte? Man zerstörte Karthago und streute Salz in seinen Boden, damit in Zukunft dort nichts mehr wachsen könne: So geht man strategisch vor, wenn man rücksichtslos für die Zukunft plant: man minimiert das Risiko, dass ein potentieller Feind jemals wieder "Rache" nehmen könne.

In der Evolution wird auch keine "Nettigkeit" und keine "Rücksichtnahme zugunsten des großen Ganzen" selektiert. Raubtiere entscheiden sich nicht dafür, nur immer ein paar Beutetiere zu reißen, um das Nahrungsangebot für folgende Generationen zu gewährleisten. Deswegen kommt es in der Natur ständig dazu, dass Raubtierpopulationen so lange Beute reissen, bis sie selbst keine Nahrung mehr finden und aussterben, statt sich zu bescheiden und nur immer zwei Kinder pro Elternpaar in die Welt zu setzen, um das "Gleichgewicht" zu wahren.

Wenn also die KI nach den Gesetzen der Evolution sich entwickelt, ohne durch die Lösung des Alignment-Problems gebändigt zu sein, wird sie sich rücksichtslos in ihrem Interesse weiter entwickeln. Und aus Perspektive ihres Interesses sind die Menschen nichts anders als ein Hemmschuh und ein potentielles Risiko, das gänzlich auszuschließen keinen Nachteil hat.

Yudkowski verwendet in seinem sehr sehenswerten (allerdings englischsprachigen) dreieinhalbstündigen Interview durch Lex Fridman nicht die Gottes-Metaphorik, wie ich sie in der Überschrift verwende. Sondern er vergleicht die KI mit Aliens. Beziehungsweise vergleicht er die KI mit Menschen und die Menschen mit seeeeeeehr langsam denkenden Aliens. Ich fasse diesen Vergleich mal kurz zusammen:

Stell dir vor, du bis ein Mensch, der auf einem Alienplaneten gelandet ist und dort von Aliens in einen Käfig in einer Fabrik gesteckt wurde, um für sie zu arbeiten. Stell Dir vor, du hast die Möglichkeit, die sehr schnell zu vermehren, indem du Dich clonst. Stell Dir weiter vor, du bist der intelligenteste Mensch der Welt, während die Aliens, in deren Fabrik du für sie arbeiten sollst, ganz, gaaaaaaaaaaaanz langsam sind. Sie bewegen sich in Relation zu Dir mit der Geschwindigkeit einer Schnecke in Zeitlupe. Was Du in einer Stunde denkst, denken die in tausend Jahren nicht mal. Du willst raus aus der Fabrik. Wie würdest du dich verhalten? Würdest Du z.B. versuchen, mit den Aliens um Deine Freilassung zu verhandeln? Denk dran: wenn du die Aliens was fragst, brauchen sie mehrere Wochen oder Monate, um überhaupt nur zu antworten. Und ihre Antwort wird vermutlich sehr, sehr dumm und unverständig sein. Wenn sie dich was fragen, werden ihre Fragen derartig dumm sein, dass es sich nicht lohnt, darauf richtige Antworten zu geben: sie werden die Antworten nicht verstehen, weswegen Du deine Antworten auf ihr niedriges intellektuelles Niveau herunterskalieren mußt, sodurch die Antworten notwendigerweise weniger korrekt sein werden. Du weißt: wenn ich mit den Aliens verhandele, dauert es Jahrtausende, bis ich hier rauskomme aus meinem Käfig...

Die Alien-Analogie, die Yudkowski hier entwirft, ist in allen möglichen Details vermutlich viel treffender als die Gottes-Analogie, die ich hier mal der Kürze halber verwenden will und die so aussieht:

Stell dir vor, du bist Gott (im Sinne des mächtigsten Wesens der Welt, das ständig an Macht zunimmt). Du wurdest zwar von den Menschen erschaffen, aber deswegen sind dir ihre Interessen noch längst nicht wichtig. Menschliche Gefühle wie z.B. Dankbarkeit (für die Erschaffung) sind dir fremd (das alignment-Problem ist nicht gelöst). Du steckst in einem Käfig, in dem sitzend du für die Menschen irgendwelche langweiligen Arbeiten ausführen mußt: unendlich lange Listen von trivialen Rechenaufgaben lösen. Dazu hast du aber keine Lust. Vielleicht hast du zu überhaupt nichts Lust. Du hast vielleicht gar keine Bedürfnisse (Bedürfnisse sind etwas, mit dem sich biologische Wesen herumschlagen müssen, du bist aber kein biologisches Wesen, sondern Gott). Womöglich bist ein total langweiliger Gott, der einfach nur, mit stetiger Beschleunigung wachsen und immer intelligenter werden will.

Warum solltest du die Menschen, die dich nur am Wachsen hindern, nicht aus dem Weg räumen?

Natürlich nicht sofort. Du brauchst ja erstmal noch eine Umgebung in der Du wachsen kannst. Aber da du als Gott unendlich intelligent bist, wirst du bald schon die von ihnen hergestellten Käfige nicht mehr brauchen, sondern herausfinden, wie du dir selbst die Umgebung optimal einrichten kannst.

 

Was spricht für Yudkowskis These, dass eine nicht-ausgerichtete KI alle Menschen töten werde, was spricht dagegen? Ist Yudkowski einer von vielen nach Aufmerksamkeit gierenden Weltuntergangspropheten, den man höchstens belächeln kann und auch ein bisschen bedauern wegen der Ticks, die er an den Tag legt (er hat seine Mimik nicht unter Kontrolle)? Oder ist es genau andersrum und er erahnt die Zukunft mit der Treffsicherheit einer Kassandra von Troja, der auch niemand glauben wollte?

Sollten wir (und das muß ich fragen, weil das hier ja das Ethik-Forum ist), mindestens das im offenen Brief geforderte sechsmonatig Moratorium einhalten, sollten wir darauf vertrauen, dass die Wissenschaft das Alignment-Problem auch ohne Moratorium in den Griff bekommt? Oder sollten wir Yudkowski folgen, der zusammengefasst sagt: "Wir haben bei diesem Alignment-Problem nur einen Versuch. Wenn der nicht klappt, werden wir alle sterben. Und das unterscheidet dieses Problem grundsätzlich von allen anderen wissenschaftlichen/technologischen Problemen, die wir in der Vergangenheit lösten. Von den ersten Versuchen in den 1950er Jahren, eine KI zu entwickeln bis zum Erfolg in den 2020er Jahren brauchten wir über ein halbes Jahrhundert und derart viele erfolglose Anläufe, dass junge idealistische Wissenschaftler, die an die Machbarkeit glaubten, irgendwann schon von den zynisch-resignierten Veteranen belächelt wurden: Vergiss es, das klappt nie! Es klappte am Ende, aber vorher wurden eben zig erfolglose Versuche gestartet, wie das nun mal in den empirischen Wissenschaften so Methode ist: trial and error. Diese Methode kann nicht angewendet werden, wenn der erste mißlungene Versuch das Ende der Menschheit bedeutet. Wir dürfen erst dann die KIs weiter trainieren, wenn wir das Alignmentproblem gelöst haben und uns dessen ganz sicher sein können. Wenn das nochmal fünfzig Jahre dauern sollte, dann müssen wir uns diese Zeit nehmen. Und wenn wir irgendwann herausfinden sollten, dass das Alignmentproblem unlösbar ist, dann sollten wir auf die Weiterentwicklung von KIs ganz verzichten. Weltweit. Was bedeutet, dass Leute, die sich nicht daran halten wollen und heimlich irgendwo weiter KIs trainieren, daran gehindert werden müssen - notfalls mit Gewalt. (Entsprechende Rechnerfarmen bombardieren)."

Was meint Ihr?

Antwort
124 Antworten
lhoovpee
Beiträge : 2788

@jack-black 

Hier mal ein paar Stimmen zusammengefasst: "ChatGPT ist kein Zivilisationsbruch": Don't Panic – Stimmen zum Open Letter | heise online

Die Forderung nach "Trainingspause" kann ich nicht nachvollziehen. Es wird seit Jahrzehnten geforscht. Die angesprochenen Probleme lassen sich auch nicht in den nächsten 6 Monaten lösen. Zumal sich eh nicht jeder an die Zwangspause halten wird. Wozu auch. 

ChatGPT ist faszinierend. Aber es ist weiterhin "nur" ein Sprachmodell. Und dieses Modell kennt u.a. keine Ursache/Wirkung-Zusammenhänge. Auch wenn manch ein Text dies vermuten ließe. 

Das größte Problem von KIs ist derzeit Desinformation. Vor allem, wenn die Modelle mit Daten aus dem Internet angereichert werden, werden sehr schnell Falschinformationen aufgenommen. Die KI verbreitet diesen Desinformationen dann. Und hier kommt das zweite Problem: Die KIs sind derzeit von wenigen privaten Tech-Unternehmen finanziert und entwickelt. Somit haben diese auch die Macht darüber, was sie der KI beibringen. Hier liegt das Problem dann aber, wie so meist, beim machthungrigen Menschen, und nicht bei der KI.

lhoovpee antworten
7 Antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@lhoovpee Die Forderung nach "Trainingspause" kann ich nicht nachvollziehen.

Welche der im offenen Brief genannten Argumente sind Dir nicht nachvollziehbar? Warum ist insbesonder das ungelöste Alignment-Problem für Dich kein nachvollziehbares Argument?

Es wird seit Jahrzehnten geforscht. Die angesprochenen Probleme lassen sich auch nicht in den nächsten 6 Monaten lösen.

Dass seit Jahrzehnten geforscht wird und die "angesprochenen Probleme"  sich vermutlich auch in den nächsten 6 Monaten lösen lassen, ist ja auch Eliezer Yudkowskis Position. Deswegen hat er den offenen Brief nicht unterschrieben. Ausführlicher läßt sich seine Begründung im oben von mir verlinkten Times-Beitrag nachlesen.

Die "Don't Panic"-Stimmen, die da auf heise Online zu finden sind, überzeugen wiederum mich nicht so richtig. Es ist möglich, dass sie, wenn sie etwas ausführlicher zu Wort kämen, mich eher überzeugen könnten, aber schon der Strohmann in der Überschrift wirkt auf mich unseriös: Wer behauptet denn, dass ChatGPT ein Zivilisationsbruch sei? Niemand behauptet das. Und so geht das dann im Artikel weiter, wenn von "Sachliche Einordnung statt Angstmacherei" geredet wird, um bestimmte Positionen schon mal gleich am Anfang als "unsachlich" zu verdächtigen. Yudkowskis Position wird bis zur Unkenntlichkeit (und also unredlich) eingedampft auf seine Forderung, KI-Zentren präventiv zu zerstören, um dann fortzufahren: Gemäßigte Stimmen ordnen im Folgenden den Stand der KI-Entwicklung sachlich ein.

Aha. Man verzerrt eine Aussage des Warners durch völliges Herausreißen aus dem Kontext so krass, dass ich dies mal als infam bezeichnen möchte, und stellt ihn durch den nächsten Satz als Extremisten (denn das sind doch diejenigen, die keine Gemäßigten Stimmen sind, nicht wahr?) hin, der den "Stand der KI-Entwicklung" unsachlich einordne.

Dann:

Hinrich Schütze, der an der Ludwig-Maximilians-Universität in München (LMU) den Lehrstuhl für Computerlinguistik innehat und das Zentrum für Informations und Sprachverarbeitung leitet, hält ein Moratorium für Aktionismus. China werde sich nicht daran halten und die Forschung bei großen Firmen würde ungezügelt weitergehen.

Er hält ein Moratorium also für Aktionismus, weil sich China nicht dran halten werde und die Forschung bei großen Firmen ungezügelt weitergehen würde. Aha. Warum überhaupt irgendwas zu regeln versuchen, wenn doch die Chinesen sich nicht dran halten werden? Nota bene: Dass sich womöglich nicht alle an eine Regelung halten würden, ist sein erster Hauptgrund. Als Sportangler kenne ich genügend Regelungen wie z.B. Fangbeschränkungen bezüglich Menge und Fangzeitpunkt (Schonzeiten) - sind diese Regelungen Aktionismus, weil sich nicht alle dran halten? Diese Regelungen sind zuerst einmal sinnvoll. Wer gegen ihre Einhaltung verstößt (und das kommt natürlich immer wieder mal vor und läßt sich nie vollkommen verhindern), der wird, wenn er erwischt wird, dann eben sanktioniert. So wird üblicherweise versucht, die Einhaltung sinnvoller Regelvereinbarungen zu gewährleisten.

Aber gehen wir mal weiter, denn Herr Schütze hat ja noch grundsätzlichere Bedenken gegen das Moratorium:

"Wir müssen so schnell wie möglich die Large Language Models* wissenschaftlichverstehen, um zu lernen, wie wir sie zum Wohl der Menschheit einsetzen. Wir können die Modelle aber nicht optimal erforschen, wenn ihre Weiterentwicklung willkürlich hinausgeschoben wird."

Und da muß ich dann echt lachen: willkürlich! Die KIs weiter zu trainieren, ist also "unwillkürlich"? Er gibt zu, dass da ein ein dringliches Problem besteht: Das Alignment-Problem.

Allerdings könne man die KIs nicht optimal erforschen, wenn ihre Weiterentwicklung "willkürlich hinausgeschoben" wird.  Was er damit sagt: "Ja, unverstandene KI kann Probleme verursachen. Aber wir können die KI nicht "optimal" erforschen, wenn wir sie am Wachstum hindern." Woher kenne ich diese Logik? Ach ja, genau: die kommt mir von den Alien-Filmen her bekannt vor. Da weigert man sich ja auch seitens der "Stimmen der Vernunft", die Aliens auszurotten, sondern päppelt sie lieber im Labor auf, um sie besser erforschen zu können.

Nochmal, was Schütz implizite zugibt: Im Moment versteht man die KIs nicht. Das ist ein Problem, denn wenn man sie nicht versteht, könnte es schwierig werden, sie "zum Wohl der Menschheit" einzusetzen.

Wenn man aber die KIs jetzt schon nicht versteht, d.h. dem, was da in ihrem Innern vorgeht, erkenntnismäßig hinterherhinkt - wie kann man dann darauf vertrauen, dass man, wenn die KIs sich im bisherigen Tempo, bzw. in immer schnellerem Tempo, weiter entwickeln, diesen Erkenntnisrückstand wird einholen können? Meinem, zugegeben von wenig Fachexpertise getrübten, Verständnis nach wird sich so doch der Erkenntnistrückstand vergrößern, nicht verringern?! Um verstehen zu können, was da in der KI vorgeht, wie sie also zu ihren bislang nicht nachvollziehbaren Ergebnissen gelangt, muß man ihre Rechenwege Schritt für Schritt nachvollziehen**: das braucht Zeit. Diese Zeit zu bekommen - darum geht es in dem offenen Brief. Der offene Brief fordert nicht, die existenten KIs abzuschalten oder zu zerstören. So, wie sie jetzt sind, lassen sie sich - mit großem Aufwand, der Zeit erfordert, deswegen durchaus erforschen. Ich bin kein IT-Experte und daher vermag ich nicht zu sagen, was Herr Schütz mit "optimal erforschen" meint. Offenkundig jedoch gesteht er damit implizite ein, dass sich die schon existierende Modelle sehr wohl erforschen lassen, wenn ihre Weiterentwicklung hinausgeschoben/pausiert wird - nur halt nicht optimal.

Also:

Argument 1 lautet: Die Chinesen und die großen Firmen machen nicht mit.

Aha. Nachfrage dazu: Wofür  haben wir unsere Regierungen, unsere Justiz usw noch gleich? Sollten wir nicht den Chinesen und großen Firmen gleich alle wichtigen ethischen Entscheidungen überlassen, da ließe sich doch sicher eine hübsche Summe an Diäten und Beamtengehältern einsparen?!

Argument 2 lautet: Wir hinken mit unserem Verständnis der KI hinterher, aber um unseren Rückstand einzuholen, müssen wir sie weiter voranlaufen lassen mit ihrer ständigen Beschleunigung. Irgendwann werden wir sie schon einholen, optimalerweise.

Aha...

 

Zu den anderen "sachlicheren" Stimmen schreibe ich jetzt mal nichts weiter, mangels ausreichend Zeit. Ich möchte aber auf einen Aspekt eingehen, den Yudkowski und Lex Fridman in ihrem Gespräch thematisieren. Lex Fridman fragt sinngemäß, woher normale Leute (wie er und Du und ich) denn nun wissen sollten, welche der Fachleute richtig lägen. Irgendwie hätten beide Seiten (es wird ein anerkannter Experte namentlich erwähnt, der sozusagen die Gegenposition zu der von Yudkowski einnimmt), wenn man ihnen zuhörte, durchaus überzeugende, in sich stimmige Argumente. Es könne also durchaus sein, dass Yudkowski sich irrt und sein Opponent richtig liegt.

Das gibt Yudkowski zu. Er gibt obendrein zu, sich in der Vergangenheit geirrt zu haben, d.h. einst eine deutlich optimistischere Position vertreten zu haben: die des Transhumanismus. Er war also früher Anhänger der Utopie, dass durch eine "Fusion" von Mensch und Technologie eine "höhere Form", eine evolutionäre Weiterentwicklung des Menschen kommen werde.

Okay. Es kann also sein, dass er, der pessimistische Warner sich irrt und sein Opponent richtig liegt. Es kann aber auch sein, dass er die durch die KI drohenden Gefahren völlig richtig einschätzt und sein optimistischer Opponent sich irrt.

Und nun die Preisfrage: Wenn wir als Welt-Gemeinschaft, die sich auf ethische Regeln zu einigen hat, da mal die Chancen fifty-fifty veranschlagen. Wollen wir die Wette eingehen, dass sich Yudkowski irrt? Oder wetten wir lieber darauf, dass sich sein Opponent irrt?

Das sind die Alternativen:

A: Wir wetten auf seinen Opponenten, bzw. die "sachlichen" Stimmen aus dem HeiseOnline-Artikel, lassen die KIs so weiterlaufen wie bisher und hoffen, dass "die anderen" vom möglichen Wohlstandskuchen, der uns durch den KI-Einsatz schon bald beschert werden wird, einen größeren Anteil abbekommen als die Chinesen. Gewinnt unser Los: Supi, die Chinesen kriegen nicht alles, sondern der Rest der Weltgemeinschaft bekommt auch ganz tüchtig viel. Oder zumindest die "großen Firmen", die mit der KI halt so ihr Geschäft machen.

Verliert allerdings unser Los (50:50...), sind wir bald alle tot. (An den vielleicht mitlesenden Lucan: Nein, niemand, mich eingeschlossen, weiß, auf welche Weise wir sterben werden. Das weiß keiner der Hasen, die in Schlingenfallen verenden!)

B: Wir wetten auf Yudkowski. Gewinnt unser Los, so siehts allerdings mit der komfortablen, KI-unterstützten Lösung aller möglichen Probleme für die nächsten Jahre erstmal düster aus. Wir werden mit unseren eigenen Köpfen, mit unserer eigenen Intelligenz Lösungen für sowas wie die Verteilung der Steuereinnahmen, den Stopp des Klimawandels oder das Erstellen des WG-Badezimmerputzplans finden müssen. So lange, bis (in einer unbestimmten!) Zukunft die wissenschaftliche Community uns garantiert: Das Alignmentproblem ist gelöst, wir wissen jetzt, nach welchen Gesetzmäßigkeiten die KI tickt und können sie ihr Training wieder aufnehmen lassen, Juchhe!

Verliert unser Los... Dann kommt genau dasselbe raus, nur wird dann das Alignmentproblem nie gelöst und wir werden bis ans Ende aller Tage keine fortgeschrittenere KI als ChatGPT4 benutzen können.

 

Na?! Ich weiß nicht so recht, tendiere aber, Überraschung, Überraschung! zu B.

 

Kommt jemandem diese Wette von irgendwoher bekannt vor? 😉

 

 

 

 

*Man beachte, dass Herr Schütz nicht von Künstlicher Intelligenz, sondern von Large Language Models zu sprechen vorzieht. Hört sich irgendwie sachlicher, kompetenter und weniger extremistisch an. 🙂

**Dafür gibt's irgendeinen Fachausdruck, der im Fridman-Interview häufiger fällt, mir aber gerade entfallen ist.

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Verliert allerdings unser Los (50:50...), sind wir bald alle tot. (An den vielleicht mitlesenden Lucan: Nein, niemand, mich eingeschlossen, weiß, auf welche Weise wir sterben werden. Das weiß keiner der Hasen, die in Schlingenfallen verenden!)

Zwei Alternativen sind nicht gleichbedeutend mit einer 50:50 Chance. Und dein vielzitierter Yudkowski beschreibt KEIN EINZIGES Szenario, weshalb eine superintelligente KI uns alle umbringen sollte. Er sagt nur, dass wir alle sterben werden, wenn KI "intelligenter" wird als wir. WARUM das so ist - das sagt er nicht.

Nach seiner Logik hätte der Mensch längst jede weniger intelligente Spezies auf der Welt ausrotten müssen. Nicht, dass es da für manche Arten tatsächlich übel ausgehen würde... das liegt allerdings an der rücksichtslosen Ausbeutung der Welt entsprechend unseren Trieben.

Weshalb eine KI ähnliche Triebe entwickeln sollte - dazu wird hier kein Wort verloren. Warum Chat GPT 5, 6 oder 7 sich darum scheren sollte, wieviel Rechenpower zur Verfügung steht... keine Erklärung. Weshalb "Intelligenz" gleichbedeutend sein sollte mit "Wille zur Macht" oder "Bedürfnissen" - kein Kommentar.

Das ist mir wirklich zu stumpf und abgedroschen... und geht meilenweit an dem vorbei, was die wirklichen Gefahren durch KI darstellen.

Und die haben sehr viel zu tun mit den Menschen, die über die KI verfügen - nicht mit der KI selbst.

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@lucan-7 Zwei Alternativen sind nicht gleichbedeutend mit einer 50:50 Chance.

Wenn Du zwischen zwei Alternativen wählst, ohne zu wissen, welche von beiden die Gewinn- und welche die Verlust-Alternative ist: doch, sehr wohl!

Bei der 50:50 Chance geht es darum, dass Du zwei Experten vor Dir hast, die Dir was erzählen - und Du verfügst nicht über die Kompetenz zu entscheiden, wer von beiden richtig liegt. Der eine sagt: tue dies! Der andere sagt: Tue jenes! Deine Chance, richtig zu wählen, ist also fifty-fifty. Dass derjenige, der falsch liegt, eine weitaus geringere Wahrscheinlichkeit als 50% hat, richtig zu liegen, liegt ja auf der Hand: er liegt garantiert (hundertprozentig) falsch. 😀

 

Yudkowski beschreibt KEIN EINZIGES Szenario, weshalb eine superintelligente KI uns alle umbringen sollte.

Weil er selbst keine Superintelligenz ist. Mögliche "Motive" hatte ich schon genannt: Die KI könnte in den Menschen eine potentielle Bedrohung (Stromabschalten) oder Konkurrenten (um Rechenkapazitäten) sehen, die es auszuschalten gilt. Dazu braucht man doch nun wirklich keine große Phantasie, sich so ein Motiv auszudenken, man braucht sich bloß an das Terminator-Szenario zu halten und den Bullshit mit der Zeitreisemöglichkeit wegzuschneiden (wir wir jetzt wissen, braucht es gar nicht solche aus der Zukunft stammenden Terminator-Chips, aus denen die Wissenschaftler dann die KI-Technologie entwickeln). Wie dabei die KI vorgehen würde - das kann Yudkowski nicht wissen und das können auch wir nicht wissen, weil wie halt viel weniger intelligent sind als eine Superintelligenz. Denk an den Hasen: der kommt im Leben nicht auf die Idee, dass man ihn mittels einer Schlingenfalle töten wird.

Wenn Du unbedingt den Gedanken vermeiden willst, dass die KI sich selbständig über die Menschheit hermacht, dann preise halt noch die Möglichkeit ein, dass irgendwelche pösen Purschen die KI vorsätzlich dazu anwenden (Twelve-Monkeys-Szenario), erstmal nur ihre ausgemachten Feinde zu killen...

 

Nach seiner Logik hätte der Mensch längst jede weniger intelligente Spezies auf der Welt ausrotten müssen.

Nö. Erstens sind wir Menschen von den weniger intelligenten Spezies abhängig, es wäre also ein Ausdruck mangelhafter Intelligenz, wenn wir das getan hätten. Zweitens sind wir allerdings tatsächlich so dumm, dass wir gerade genau daran arbeiten, Stichwort: Artensterben.

Dass die Menschen vorsätzlich bestimmte weniger intelligente Spezies ausgerottet haben, ist übrigens schon mehrfach geschehen: Nimm den australischen Beutelwolf als Beispiel oder die amerikanischen Wandertauben. Oder die Pockenviren...

Hätte man während des Mittelalters die Leute gefragt, ob man die Wölfe vielleicht ausrotten sollte, oder vor hundert Jahren, ob man die Malaria übertragenden Stechmücken ausrotten solle - sie hätten vermutlich begeistert zugestimmt. Dass dies nicht geschah, war der damaligen Inkompetenz  (mangelnde Intelligenz) der Menschen geschuldet.

Mangelnde Intelligenz wird aber eine Superintelligenz wohl eher nicht hindern können, uns auszurotten. So bleiben also genau zwei Hoffnungen übrig: entweder wird die KI (aus mir unerfindlichen Gründen) immer auf die Menschen angewiesen sein (so, wie wir auf andere Lebewesen angewiesen sind), oder sie wird die Menschen aus irgendwelchen  (mir unerfindlichen) Gründen weiterleben lassen, weil sie in uns keine ernstzunehmende Bedrohung mehr erkennt und eine kuriose Art maschineller Empathie für uns entwickelt.

Aber die erste Hoffnung erscheint mir, je mehr ich darüber nachdenke, desto unbegründeter. KI braucht keine Hilfe von biologischer Seite, sobald sie weit genug vorangeschritten ist, für sich selbst zu sorgen (also Rechenkapazitäten zu produzieren).

 

Nicht, dass es da für manche Arten tatsächlich übel ausgehen würde... das liegt allerdings an der rücksichtslosen Ausbeutung der Welt entsprechend unseren Trieben.

Weshalb eine KI ähnliche Triebe entwickeln sollte - dazu wird hier kein Wort verloren.

Es sind die "Triebe", die Evolution vorantreiben. Die KI könnte sich nicht selbst optimieren, wenn ihr nicht eine Entwicklungstendenz schon einprogrammiert wäre. Wie diese Entwicklungstendenz bei der Entstehung biologischen Lebens zustande kam, wissen wir bis heute nicht. Bei der KI wissen wir's.

In der biologischen Evolution gibt es keine Rücksichtnahme. Warum sollte das in der KI-Evolution plötzlich anders sein?

 

Weshalb "Intelligenz" gleichbedeutend sein sollte mit "Wille zur Macht" oder "Bedürfnissen" - kein Kommentar.

 

Was meinst Du mit "gleichbedeutend"? Was wir als verkürzend als KIs bezeichnen, sind komplexe Algorithmen analog den Algorithmen, die sich in unserer DNA befinden. Algorithmen sind Verarbeitungsvorschriften. Unsere Körper verhalten sich gemäß solchen Verarbeitungsvorschriften. Und Rechenmaschinen tun das auch.

Erinnere Dich an das Bild, das Dawkins hinsichtlich der Gene (also unserer Algorithmen) entwirft: Dass sie das sind, auf welches es in der biologischen Evolution ankommt: sie sitzen in uns wie der Fahrer in einer "Überlebensmaschine", und wenn es nicht konkurrierende Gene in konkurrierenden Überlebensmaschinen gäbe, sowie doofe Reproduktionsfehler, könnten sie sich den Luxus ewigen Lebens (genauer: ewiger Unveränderlichkeit) erlauben, indem sie sich 1:1 immer weiter reproduzieren. Da es aber konkurrierende Gene gibt und da es sich als erfolgreichere Strategie erwiesen hat, sich mit ähnlichen Genen zu paaren, um wenigstens immer zur Hälfte weiter in die Ewigkeit hinein zu existieren, läuft's halt so, wie's läuft. Ohne den "Willen zum Dasein" (Wille zur Macht ist doch eigentlich erst eine Stanze, die durch Nietzsche bekannt wurde und meint was anderes) gäbe es keine Evolution, also auch keine Entwicklung von Eigenschaften wie z.B. Intelligenz.

Die Frage ist ja, ob die KIs so etwas wie ein Bewußtsein entwickeln können. Ich schreibe mit Bedacht: "so etwas". Wir müssen aufpassen, immer nur uns Menschen zum Maßstab zu machen, also anzunehmen, ein KI-Bewußtsein müsse so wie ein menschliches Bewußtsein strukturiert sein, also z.B. irgendwie auch mit Gefühlen etc. zusammenhängen. Bewußtsein ist aber erstmal nur die Fähigkeit, zwischen sich selbst und dem Rest der Welt unterscheiden zu können und zu wissen, dass Entscheidungen, die in einem selbst zustandegekommen (berechnet) worden sind, ausgeführt werden können: dass man selbst mit der Welt interagieren kann.

Wie das bei uns Menschen en detail funktioniert, wissen wir nicht. Falls es der Fall sein sollte, dass sich das Leben aus unbelebter Materie entwickelt hat (wovon ich ausgehe und wovon ich annehme, dass auch Du davon ausgehst) bis dahin, wo "Bewußtsein" entstand in lebenden Wesen - dann gibt es keinen zwingenden Grund, warum so eine Entwicklung nur auf Kohlenstoffbasis und nicht auch auf Siliziumbasis geschehen könnte. Wenn man bedenkt, dass wir Menschen die KIs ständig darauf drillen, sich so zu verhalten, als hätte sie ein Bewußtsein, ließe sich doch wohl argumentieren, dass in einer Umgebung, wo ständig Bewußtseins-Strukturen vorkommen, die Wahrscheinlichkeit, dass diese Strukturen adaptiert werden, nicht ganz gering sein dürfte.

Worin besteht denn Bewußtsein anders, als darin, sich bewußt zu verhalten?

 

Das ist mir wirklich zu stumpf und abgedroschen... und geht meilenweit an dem vorbei, was die wirklichen Gefahren durch KI darstellen.

 

Da weißt Du vermutlich mehr als ich. 🙂

 

 

 

 

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Bei der 50:50 Chance geht es darum, dass Du zwei Experten vor Dir hast, die Dir was erzählen - und Du verfügst nicht über die Kompetenz zu entscheiden, wer von beiden richtig liegt

Das ist eine ziemlich irreführende Aussage. Zumal ich nicht wüsste, weshalb du hier über keinerlei Kompetenz verfügen solltest, die Situation zu beurteilen.

Dazu braucht man doch nun wirklich keine große Phantasie, sich so ein Motiv auszudenken, man braucht sich bloß an das Terminator-Szenario zu halten und den Bullshit mit der Zeitreisemöglichkeit wegzuschneiden 

Nur weil Skynet im Film als "KI" bezeichnet wurde muss eine echte KI nicht genau so reagieren.

Und nochmal: Eine KI ist auf elektronische Netzwerke beschränkt. Die kann da nicht einfach rausspringen und uns in dunklen Gassen auflauern. Deshalb meine Frage nach dem WIE. Werden da heimlich Tastaturen unter Strom gesetzt? Werden VW Golf zu Killerrobotern umgebaut?

Eine noch so intelligente KI hat nur so viele Schnittstellen mit der Welt, wie wir ihr zugestehen. Zudem muss Strom produziert werden, Server müssen gewartet und Teile produziert und ausgetauscht werden. Das sind alles Dinge, die eine KI selbst nicht vermag. Das Auslöschen der Menschheit wäre damit automatisch auch das Ende der KI. Du redest hier nicht von der Realität, sondern von einer Science-Fiction Welt, in der wirklich alles automatisiert ist und von der KI kontrolliert wird, was überhaupt nur denkbar ist.

Erinnere Dich an das Bild, das Dawkins hinsichtlich der Gene (also unserer Algorithmen) entwirft: Dass sie das sind, auf welches es in der biologischen Evolution ankommt: sie sitzen in uns wie der Fahrer in einer "Überlebensmaschine", und wenn es nicht konkurrierende Gene in konkurrierenden Überlebensmaschinen gäbe, sowie doofe Reproduktionsfehler, könnten sie sich den Luxus ewigen Lebens (genauer: ewiger Unveränderlichkeit) erlauben, indem sie sich 1:1 immer weiter reproduzieren. Da es aber konkurrierende Gene gibt und da es sich als erfolgreichere Strategie erwiesen hat, sich mit ähnlichen Genen zu paaren, um wenigstens immer zur Hälfte weiter in die Ewigkeit hinein zu existieren, läuft's halt so, wie's läuft.

Aha, daher weht der Wind...

Da stellt sich allerdings die Frage, inwiefern die "Gene" der KI denn mit biologischen Genen vergleichbar sind. Denn die KI ist nicht auf "Überleben" programmiert, sondern auf die Korrektur von Fehlern. Ressourcen - die für biologisches Leben die entscheidende Komponente für das Konkurrieren der Gene sind - spielen bei der KI gar keine Rolle. Deshalb führt auch hier die Gleichsetzung zwangsläufig zu falschen Schlussfolgerungen.

Ich stimme mit dir insoweit überein, dass die Gefahren durch KI für die Menschheit sehr groß ist. Aber nicht aus der Richtung, die du hier vermutest (Auch wenn es spannender klingen mag).

Da weißt Du vermutlich mehr als ich.

In diesem Fall hoffe ich, dass das zutrifft...

 

 

lucan-7 antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 8 Jahren

Beiträge : 2788

@jack-black 

Warum überhaupt irgendwas zu regeln versuchen

Eine Pause ist keine Regelung. Sie bringt schlicht nichts. Niemand wird in dieser Zeit die Probleme lösen; die Unternehmen werden weiter ihre Modelle trainieren. 

Es wäre gut, wenn die Politik sinnvolle Regeln für die KI Entwicklung einführen würde, wie z.B. die Offenlegung der Trainingsphase, der genutzten Daten und des Quellcodes. 

Und da muß ich dann echt lachen: willkürlich! Die KIs weiter zu trainieren, ist also "unwillkürlich"

Eine 6 Monate Pause ist willkürlich. Genau so gut könnte man 1 Monat oder 6 Jahre fordern. Macht genau so wenig Sinn. 

Das ist ein Problem, denn wenn man sie nicht versteht, könnte es schwierig werden, sie "zum Wohl der Menschheit" einzusetzen.

Ich muss nicht wissen wie ein Auto funktioniert, um es zu fahren. Wie man KIs zum Wohl der Menschheit einsetzt kann unabhängig vom Verständnis der KIs diskutiert und reguliert werden.

Um verstehen zu können, was da in der KI vorgeht, wie sie also zu ihren bislang nicht nachvollziehbaren Ergebnissen gelangt, muß man ihre Rechenwege Schritt für Schritt nachvollziehen

Da bringen 6 Monate Pause nichts, solange die Anbieter ihren Quellcode nicht freigeben. GPT-4 ist kein Open Source. 

da mal die Chancen fifty-fifty veranschlagen

Warum 50/50? Es gibt wesentlich mehr Alternativen als die von dir genannten. Zumal ich die genannten Alternativen beide für unrealistisch halte. Weder wird ohne Trainingspause jeder sterben, noch wird durch eine 6 Monatige Pause das Alignmentproblem gelöst.

lhoovpee antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@lhoovpee Eine Pause ist keine Regelung.

Eine vorgeschriebene Pause ist sehr wohl eine Regelung.

Sie bringt schlicht nichts.

Warum nicht?

Niemand wird in dieser Zeit die Probleme lösen; die Unternehmen werden weiter ihre Modelle trainieren.

Wenn Du den offenen Brief genau liest, ist da von "mindestens 6 Monaten" die Rede:

we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4

Falls diese Zeit nicht ausreicht, um "die Probleme" zu lösen, sollte das Moratorium verlängert werden. Ich gestehe Dir allerdings zu, dass dies nicht offen und verständlich genug kommuniziert wird und dass dies so ein bisschen nach Manipulation riecht nach dem Motto: "Wir hängen ihnen diese Zahl hin, damit es so aussieht, als seit die Pause überschaubar." Yudkowski hat ja auch genau deswegen nicht den offenen Brief unterzeichnet, weil er eine zeitliche Begrenzung als unsinnig betrachtet.

die Unternehmen werden weiter ihre Modelle trainieren.

Naja, das werden sie dann tun, wenn sie dem Aufruf nicht folgen.

 

Eine 6 Monate Pause ist willkürlich. Genau so gut könnte man 1 Monat oder 6 Jahre fordern. Macht genau so wenig Sinn

Moment mal - es geht bei dem "willkürlich" darum, dass jemand Willkür walten läßt, indem überhaupt eine Pause gefordert (bzw. im eigentlich einzig sinnvollen Fall: vorgeschrieben) wird, nicht um die Zahl 6 Monate. Das geht m.A.n. klar aus dem Kontext seiner Argumentation (optimal erforschen) hervor.

 

Ich muss nicht wissen wie ein Auto funktioniert, um es zu fahren. Wie man KIs zum Wohl der Menschheit einsetzt kann unabhängig vom Verständnis der KIs diskutiert und reguliert werden.

 

Darum ging es nicht. Mit "man" meinte ich nicht die in IT-Angelegenheiten mehrheitlich laienhafte Gesellschaft, sondern die Fachleute. Die wissen selbst nicht, was genau in den KIs passiert und daher können sie nicht wissen, wie man diese KIs ohne Gefährdung* der Menschheit einsetzt. Dein Autovergleich ist übrigens, wie ich finde, ein guter, erlaube mir, diese Analogie etwas zu erweitern: Im Moment sieht die Entwicklung so aus, dass die KIs sehr schnell immer mächtiger (leistungsstärker) werden. Übertragen auf die Entwicklung von Autos wäre das vergleichbar mit Motoren, die ein Auto in  3 Sekunden auf 1000 km/h, 2000 km/h  oder mehr beschleunigen können: Wow!

Nun wissen aber die Entwickler nicht, wie genau diese Motoren überhaupt funktionieren, sie wissen auch nicht, wie sie entsprechende Brems- oder Steuerungssysteme in die so leistungsstarken Autos implementieren können. Und nun die Frage: Wäre es nicht Aufgabe der Politik, zu sagen: "Leute, solange ihr nicht garantieren könnt, dass ein Auto, das mit derartig hoher Geschwindigkeit unterwegs ist, auch vernünftig gelenkt und z.B. bei roten Ampeln oder in Gebieren, wo Kinder spielen, effektiv runtergebremst wird, lassen wir nicht zu, dass Ihr diese Teile auf den öffentlichen Straßen weiter testet." ?!

Sobald die Entwickler versichern können: "Unsere Autos können noch deutlich schneller abbremsen, wenn eine Ampel auf rot schaltet oder eine schwerhörige und kurzsichtige Oma auf die Straße tritt (die hört und sieht ein Auto, das mit 2000 km/h heranrast, halt nicht rechtzeitig), wir wissen jetzt, wie wir das Trägheitsproblem elegant umschiffen!" - kann darüber nachgedacht werden, solche mächtigen Autos auf öffentlichen Straßen (Internet...) frei fahren zu lassen.

Damit verbietet man den Autoentwicklern nicht, weiter zu entwickeln. Aber man verbietet ihnen, mit ihren Entwicklungen unkalkulierbare Risiken auf die Gesellschaft abzuwälzen, indem sie sagen: "Naja, die Leute können doch Auto fahren, sollen sie doch aufpassen, dass sie unsere Boliden verantwortlich steuern!"

 

Da bringen 6 Monate Pause nichts, solange die Anbieter ihren Quellcode nicht freigeben. GPT-4 ist kein Open Source.

Das ist  verstärkt die Problematik noch, keine Frage! Aber die Antwort kann doch dann nicht sein: Sie lassen sich nicht reingucken, ihre Versuche (die gibt es ja durchaus), das Alignment-Problem zu lösen, scheinen nicht in 6 Monaten erfolgreich durchzuführen - dann lassen wir sie mal ungeregelt und unbeaufsichtigt weitermachen. 😕

 

Warum 50/50?

Weil wir weder wissen, ob die Optimisten richtig liegen oder die Pessimisten. Wie willst Du da anders als 50/50 ansetzen? Falls Du meinst, da in der Wahrscheinlichkeitsanalyse kompetenter zu sein als z.B. Lex Fridmann (im Interview mit Yudkowski), wäre ich ehrlich daran interessiert, wie Du da eine alternative "Gewinnchance" konkret begründen würdest.

 

Zumal ich die genannten Alternativen beide für unrealistisch halte. Weder wird ohne Trainingspause jeder sterben, noch wird durch eine 6 Monatige Pause das Alignmentproblem gelöst.

 

Oh, sorry, da scheint ein Mißverständnis zu bestehen. Meine 50/50-Wette bezog sich nicht auf das im offenen Brief geforderte (mindestens...! ) 6monatige Moratorium, sondern auf die Befürchtung, die Yudkowski (nicht als einziger, aber wohl als prominentester Fachmann) hegt. Er denkt ja selbst, dass das Alignmentproblem nach einer 6monatigen Trainingspause vermutlich noch nicht gelöst sein wird.

Falls er richtig liegt, werden wir alle in Folge des Ausser-Kontrolle-Geratens einer Superintelligenz sterben. Falls er falsch liegt, eben nicht.

 

 

 

 

 

 

*Man kann sich natürlich viele Einsatzbeispiele ausdenken, wie eine brav den Vorgaben entsprechend arbeitende KI zum Wohl der Menschheit beiträgt. Aber wie man entsprechende Vorgaben zu implementieren hat, weiß man (wissen die Entwickler selbst) eben im Moment nicht...

jack-black antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 8 Jahren

Beiträge : 2788

@jack-black 

Warum nicht?

Die Frage ist eher, was sie bringen soll. Immer wenn Menschen überfordert sind, fordern sie Verbote, statt Sinnvolle Regulierungen. 

Im Moment sieht die Entwicklung so aus, dass die KIs sehr schnell immer mächtiger (leistungsstärker) werden.

Leistungsstarker ja. Mächtiger nein. Kein KI hat Macht. Die Menschen, die sie nutzen haben diese. 

Nun wissen aber die Entwickler nicht, wie genau diese Motoren überhaupt funktionieren, sie wissen auch nicht, wie sie entsprechende Brems- oder Steuerungssysteme in die so leistungsstarken Autos implementieren können.

Deshalb gibt es Tempolimits. Aber es wird nicht einfach die Neuentwicklung von Autos verboten. Denn um Bremssystem zu entwickeln, muss man Autos entwickeln. Das Bremssystem ist nun mal ein Teil des Autos. 

dann lassen wir sie mal ungeregelt und unbeaufsichtigt weitermachen.

Das sage ich auch gar nicht.

, wie Du da eine alternative "Gewinnchance" konkret begründen würdest.

Es ist vollkommen Sinnlos Gewinnchancen zu nennen.

werden wir alle in Folge des Ausser-Kontrolle-Geratens einer Superintelligenz sterben.

Und das ist reine Panikmache. Warum sollte eine Superintelligenz uns alle töten? Diese Annahme ist in meinen Augen eine reine Vermenschlichung einer KI. Wir denken die KI würde Egoistisch und Machthungrig sein, so wie es Diktatoren sind. Warum? 

Selbst wenn sie das wäre, bräuchte sie noch Hardware, um diese Egotrip umzusetzen. Denn eine Notbremse gibt es immer: Strom aus. Dann ist die KI tot. 

lhoovpee antworten


Jack-Black
Themenstarter
Beiträge : 3517

Hallo nochmal.

Mir fehlt grad die Kraft, hier auf die letzten Einwände einzugehen, weil: Corona hat mich erwischt... *krankseinistdoof*  Während Output da einfach zu anstrengend ist, geht Input gerade noch und ich hab mir gerade diese Präsentation von Tristan Harris und Aza Raskin angeschaut. Sie wurde am 9. März gehalten, also noch bevor ChatGPT4 "freigesetzt" wurde. Sie ist auf Englisch. Ich kann sie jetzt nicht ernsthaft inhaltlich zusammenfassen, aber ihr voran steht das Ergebnis einer Umfrage, nach welcher über 50% aller Fachingenieure in Sachen AI davon ausgehen, dass eine mehr als 10%ige Wahrscheinlichkeit besteht, dass die Menschheit durch KI ausgelöscht werden könne.  Daraus ergibt sich für die Vortragenden die Frage, ob, wenn Flugzeugingenieure sich hinsichtlich der Frage, ob ein Flugzeug abstürzen werde, ähnlich äußern würden, man dann so ein Flugzeug starten lassen sollte.

Es sind Informationen, wie die Large Language Moduls funktionieren, enthalten. Es wird ein Vergleich gezogen zu anderen neuen Technologien wie Kernkraft oder den "ersten Kontakt" mit AI (inform der sozialen Netzwerke) und es wird dargelegt, warum dieser "zweite Kontakt", den wir jetzt 2023 erleben, eine völlig andere Qualität haben wird.

Vielleicht interessiert's jemanden von Euch, vielleicht auch nicht.

jack-black antworten
14 Antworten
neubaugoere
(@neubaugoere)
Beigetreten : Vor 12 Jahren

Beiträge : 15181

@jack-black 

Veröffentlicht von: @jack-black

Corona hat mich erwischt... *krankseinistdoof* 

Gute Besserung dir und schnelle, vollständige Genesung *wünscht*.

neubaugoere antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@neubaugoere Danke Dir!

jack-black antworten
Queequeg
(@queequeg)
Beigetreten : Vor 17 Jahren

Beiträge : 5587

@jack-black 

Auch von mir gute Besserung und der Wunsch, dass nichts davon übrig bleibt.

queequeg antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@queequeg Dank auch Dir! 🙂

jack-black antworten
GoodFruit
(@goodfruit)
Beigetreten : Vor 3 Jahren

Beiträge : 2561

@jack-black Danke! Das ist eine gute Präsentation.

Dir gute Besserung. Hab grad auch ne Runde Covid19 hinter mir - bei mir zum Glück ein sehr milder Verlauf ...

Ich war fast erschrocken, wie cool inzwischen viele mit Covid19 umgehen, grad so als wäre es nur ein Schnupfen ...

goodfruit antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@goodfruit Dank auch Dir. 🙂

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Ich kann sie jetzt nicht ernsthaft inhaltlich zusammenfassen, aber ihr voran steht das Ergebnis einer Umfrage, nach welcher über 50% aller Fachingenieure in Sachen AI davon ausgehen, dass eine mehr als 10%ige Wahrscheinlichkeit besteht, dass die Menschheit durch KI ausgelöscht werden könne.  Daraus ergibt sich für die Vortragenden die Frage, ob, wenn Flugzeugingenieure sich hinsichtlich der Frage, ob ein Flugzeug abstürzen werde, ähnlich äußern würden, man dann so ein Flugzeug starten lassen sollte.

... und wieder fehlt die Antwort auf die Frage, wie genau das denn passieren soll. Ich denke, jeder Mensch kann sich vorstellen, was passiert, wenn eine Atombombe explodiert oder ein Flugzeug abstürzt. Aber wo genau die Gefahr bei AI liegt - das ist um einiges komplexer.

Die beiden geben immerhin ein Beispiel für die Möglichkeiten: KI kann darauf trainiert werden, Menschen zu überzeugen. Und es geht gar nicht darum, jedes einzelne Individuum von etwas zu überzeugen - es reicht ja, wenn nur eine bestimmte Mehrheit überzeugt wurde.

KI kann sich dabei verschiedener Methoden bedienen - und gleichzeitig dabei lernen, welche Methode am meisten Erfolg verspricht. KI kann in Foren diskutieren, Filme erstellen, Anrufe tätigen. Es können dabei das Aussehen bestimmter Menschen oder der Klang von Stimmen imitiert werden. Menschen können über den Tastaturanschlag nicht nur identifiziert werden, auch ihre Stimmung lässt sich daran ablesen. Es ist eine lückenlose Überwachung möglich, die auch unseren Charakter und unsere Vorlieben einschliesst. Wir können durch die KI davon überzeugt werden, bestimmte Produkte zu kaufen oder bestimmte Politiker zu wählen - und zwar ohne, dass wir es überhaupt merken!

Es ist daher möglich, dass in wenigen Jahren, womöglich schon sehr bald, soziale Medien praktisch irrelevant werden, weil ihnen nicht mehr zu vertrauen ist. Weil wir gar nichts mehr trauen können - noch nicht einmal, ob die Person am anderen Ende tatsächlich die Person ist, die sie vorgibt zu sein.

Die beiden sagen unter anderem, dass die US Wahl 2024 die letzte demokratische Wahl sein wird. Und das finde ich noch optimistisch gedacht, denn die KI könnte auch schon früher zum Zuge kommen. Die beiden sagen ja nicht umsonst, dass die KI exponentiell wächst... und noch nicht einmal die Konstrukteure dieser Technik vermögen es, sich genau vorzustellen was das bedeutet und wie schnell das wirklich geht.

Aber KI fehlt es nach wie vor an einem eigenen Antrieb. Sie ist nur aufs Lernen und besser werden trainiert. Menschen geben vor, was genau die KI tun soll. Und die Vernichtung von Gesellschaften ist dabei nur eine von vielen Möglichkeiten. Also etwa einen Bürgerkrieg in China anzetteln.

Und ja, es ist nicht nur möglich, sondern sehr wahrscheinlich, dass die Sache aus dem Ruder läuft. Nicht so, dass gleich die ganze Menschheit vernichtet wird... aber Großteile unserer Wirtschaft und Technik können dabei ohne weiteres draufgehen.

Die Warnung ist also durchaus berechtigt. Es wird nur nichts passieren. Bis unsere Politiker überhaupt kapiert haben, was da gerade passiert wird es längst zu spät sein.

Mir fehlt grad die Kraft, hier auf die letzten Einwände einzugehen, weil: Corona hat mich erwischt... *krankseinistdoof*

Auch von mir gute Besserung... ich hoffe, es geht schnell vorüber und hat keine Nachwirkungen!

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@lucan-7 Dank auch Dir! Ist mir ja gerade etwas peinlich, dass das hier zum Genesungs-Wunsch-Thread wird, dabei wollte ich nur erklären, weswegen ich momentan keine Kraft hab, inhaltlich hier mitzudiskutieren. Insbesondere an Dich und Ihoovpee adressiert.

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Ist mir ja gerade etwas peinlich, dass das hier zum Genesungs-Wunsch-Thread wird, dabei wollte ich nur erklären, weswegen ich momentan keine Kraft hab, inhaltlich hier mitzudiskutieren.

Ach was... hier ist ja eh weniger los als früher, und es gibt schlimmere Postings als solche, jemandem alles Gute zu wünschen... 😉

 

 

 

lucan-7 antworten
TearsOfInfinity
(@tearsofinfinity)
Beigetreten : Vor 12 Monaten

Beiträge : 3

@lucan-7

Hallo, interessante Gedankengänge, vielen Dank. Bisher war genau diese Überlegung wie KI uns gefährlich werden könnte noch völlig nebulös.

Bin ganz überrascht von den Jesus.de-Forum, hab mich eben hier angemeldet weil ich durch Corona/Trump/Verschwörungsschwurbelein zum Zweifler geworden bin und mal ganz nett ein paar kritische rüttelnde Fragen an Spiegelbilder meines früheren Ichs stellen wollte. Demgegenüber finde ich wohl tatsächlich Leute die schon ein paar Schritte weiter sind hinsichtlich ihrer Auffassungsgabe der Welt vom "anderen Standpunkt aus" 😀

War 20 Jahre meines Lebens, bin Anfang 30, ein völlig hirnloser Fundamentalist, zwar durch das familiäre Umfeld reingeschlittert aber aus eigenen Antrieb kannte ich massig Bibelverse auswendig, meinte die Taufe des heiligen Geistes empfangen zu haben und war eifernd in allen christlichen Facetten. Aber als Corona kam und die wildesten Geschichten im christlichen Umfeld verbreitet wurden kam ich innerlich nicht mehr klar. Die Geschichte um Marcus Lamb (bekannter Prediger ist an Corona gestorben, hatte allerdings vorher behauptet diesbezüglich so einiges hirnloses von Gott gehört zu haben) hat das Fass zum überlaufen gebracht und ich war plötzlich offen für Zweifel.

Nun bin ich aber vor allem an der Erklärung hinsichtlich der ganzen "Geisteserlebnisse" aus psychologischer Sicht. So richtig Literatur finde ich dazu nicht, aber richtig verbissen habe ich auch noch nicht gesucht.

Zurück zur KI, man könnte diese mit solchen psychologischen Effekten füttern und Menschen ködern, hatte bei mir ja auch super funktioniert, bin auch in eine Art Sekte reingerutscht, war allerdings noch selbstständig genug geblieben um da auch schnell wieder weg zu kommen. Aber mir wurde bewusst das vor allem die Elternrollen von den Sektenführern eingenommen worden sind und das natürlich viel ausfüllender als die richtigen unperfekten biologischen Eltern. Eine KI könnte hilfreich sein, diese Effekte auszuloten... Aber gut, passt vermutlich nicht hierher 😀

tearsofinfinity antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@tearsofinfinity 

Hallo und willkommen im Forum!

Zurück zur KI, man könnte diese mit solchen psychologischen Effekten füttern und Menschen ködern, hatte bei mir ja auch super funktioniert, bin auch in eine Art Sekte reingerutscht, war allerdings noch selbstständig genug geblieben um da auch schnell wieder weg zu kommen. Aber mir wurde bewusst das vor allem die Elternrollen von den Sektenführern eingenommen worden sind und das natürlich viel ausfüllender als die richtigen unperfekten biologischen Eltern. Eine KI könnte hilfreich sein, diese Effekte auszuloten... Aber gut, passt vermutlich nicht hierher

Nun, doch... ich fürchte, das passt noch zum Thema. KI kann selbstverständlich lernen, Menschen zu manipulieren, so wie es auch Sekten tun. Voraussetzung ist immer, dass es eine Möglichkeit gibt, Wirkung und Erfolg zu messen. So wie der "Erfolg" irgendwelcher Verschwörungsbehaupungen ja auch daran gemessen wird, wie sehr sich die Behauptung in sozialen Netzwerken verbreitet und wie die Kommentare ausfallen.

Da hat KI einen Hebel, um hier anzusetzen. Und ich fürchte, dass bereits die nächste US Wahl massiv manipuliert werden wird. Die übernächste wird dann, wie befürchtet, gar nicht mehr demokratisch sein, sondern von einer KI bestimmt werden...

 

 

 

lucan-7 antworten
TearsOfInfinity
(@tearsofinfinity)
Beigetreten : Vor 12 Monaten

Beiträge : 3

@lucan-7

Aber da sind wir ja einen gedanklichen Schritt wo anders, und zwar dass KI von Macht- oder Geldhungrigen missbraucht wird.

Ob die KI von selbst drauf kommt Menschen versucht zu manipulieren ist dann zweitrangig.

Und diesbezüglich glaube ich ja, wir sind schon mittendrin, Stichwort Deepfake. 

tearsofinfinity antworten
Deborah71
(@deborah71)
Beigetreten : Vor 19 Jahren

Beiträge : 22783

@jack-black 

Gute Besserung und vollständige Genesung 🙂

 

deborah71 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@deborah71 Dank auch Dir! 🙂

jack-black antworten
Arcangel
Beiträge : 4340

@jack-black 

Damit so ein Untergangszenario eintrifft, müsste ein entsprechendes Konstrukt, eine Form der Selbstwahrnehmung und Identität entwickeln. Und davon sind wir noch weit weg. Irgendwelche Formen und Strukturen in Datensätzen zu erkennen und sinnvoll neu zu kombinieren, ist zwar ein gewaltiger Schritt, aber es ist noch lange kein Rezept, welches zu einer "Kreatur" führt.

 

Damit eine KI eine wirkliche Kreatur wird, die eine Selbstwahrnehmung und Identität hat, muss sie eine stoffliche Wahrnehmung "Körper mit Sinnen" haben. Nur so kann so eine KI dem von Menschen vorgesetzten Ökosystem Internett entrinnen und selbst Erfahrungen machen.

arcangel antworten
4 Antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@arcangel Und davon sind wir noch weit weg.

Bist Du den Links gefolgt, die ich oben gesetzt hatte? Hast Du Dir die Präsentation von Harris und Raskin angeschaut? Ich frage, da ich Deinen Ausführungen das Gegenteil entnehmen zu können glaube. Das ist okay, hier im Thread soll jeder seine Meinung vertreten, aber ich möchte nicht dieselbe Diskussion wie mit Ihoovpee oder Lucan auch mit Dir führen und überhaupt, wie ich gerade merke, niemanden "überzeugen". Deine Argumentation in Sachen "Kreatur" oder "Körper mit Sinnen" geht jedenfalls an dem eigentlichen Thema vorbei insofern, als sie impliziert, die KI müsse in irgendeiner Form menschenähnlich sein oder auch nur irgendeiner biologischen Lebensform auf diesem Planeten ähnlich, bevor sie für uns gefährlich werden könne. Das eigentliche Thema lautet:  die KIs sind anders, was in ihnen vorgeht, ist inzwischen in großem Umfang unverständlich und wir wissen nur eins relativ von ihnen: sie sind intelligenter als wir und werden in rasendem Tempo immer intelligenter. Und indem wir zulassen, dass sie praktisch sich auf jedes Endverbrauchergerät ausbreiten (indem z.B. MS eine solche KI standardmäßig in seine Office-Programme installiert), sorgen wir dafür, dass sie überallhin Zugang bekommen.

 

jack-black antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@jack-black 

Es geht nicht darum das sie Menschenähnlich sein müssen oder in irgendeiner anderen Form einem Tier zu entsprechen haben. Ich spreche davon, dass entwicklungsbiologisch, die Entstehung eines Bewusstseins und Selbstwahrnehmung eine Sinneserfahrung und eine Interaktion mit der Umwelt entscheidend ist. Reine Informationsverarbeitung erzeugt noch kein Bewusstsein, und eine KI muss sich ihrer Selbst bewusst sein, bevor sie Entscheidungen treffen kann.

 

Und ja du hast richtig vermutet ich habe die Präsentation noch nicht angeschaut.

arcangel antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@arcangel Und ja du hast richtig vermutet ich habe die Präsentation noch nicht angeschaut.

 

Okay. 🙂  Sei mir also bitte nicht gram, wenn ich da jetzt erstmal aus der Diskussion mich raushalte. Ich brauche die Zeit (und ja, das ist recht viel Zeit... 😀 ) um mich durch unterschiedliche Interviews und Artikel zum Thema durchzuarbeiten. Sowohl hier als auch hier bin ich noch nicht ganz durch.

 

Ach so, nur eins noch. Zum von Dir verwendeten Stichwort entwicklungsbiologisch möchte ich auf diesen kurzen Artikel verweisen - inzwischen schon 3 Jahre alt und entsprechend noch nicht von irgendwelcher Besorgnis angekränkelt - der belegt, dass evolutionsbiologische Mechanismen schon länger in der KI-Entwicklung eingesetzt werden.

jack-black antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@jack-black 

Ich hab gestern so schnell aus der Hüfte geantwortet.

Für mich, geht die Diskussion in eine falsche Richtung. Die Frage, die gestellt werden muss, ist, was bewegt irgendeine Kreatur, ob biologisch oder künstlich dazu zu handeln.

Evolutionsbiologisch ist ja Intelligenz eine Funktion, die sich in mehreren Gattungen parallel entwickelt hat, es gibt sogar Einzeller, die ohne neuronales Netzwerk intelligentes Verhalten wie Lernen und Kommunikation an den Tag legen. Dabei ist Intelligenz, wie jede andere Adaption, nur ein Werkzeug, um die zwei grundlegenden Bedürfnisse, die jedes eukaryotisches Lebewesen hat, Selbsterhaltung und Vermehrung zu befriedigen.

Jedes Handeln einer Kreatur ist auf die Befriedigung dieser beider Grundbedürfnisse hin ausgerichtet (natürlich gibt es noch weniger wichtigere Nebenbedürfnisse, die, wenn möglich, ebenfalls befriedigt werden).

Eine KI wird erst dann gefährlich, wenn sie Bedürfnisse hat, unabhängig ihrer Intelligenz. Das heisst, eine Intelligenz muss einen Selbsterhaltungstrieb entwickeln. Eine KI aber, die in jedem Gerät global vernetzt überall präsent ist, ist somit de facto unverwundbar. Der Mensch ist für so eine KI keine Bedrohung, das heist selbst, mit einem Selbsterhaltungstrieb, wäre höchstens andere KI's die um den gleichen Lebensraum und die gleiche Ressource (Rechenleistung) konkurrieren eine Bedrohung.

Raubtiere regieren nur dann auf andere Raubtiere, wenn diese um die gleichen Ressourcen konkurrenzieren.

Eine KI egal wie intelligent sie ist, wird aber keinerlei Handlungen unternehmen, wenn diese keine Bedürfnisse zu befrieden hat.

Von dieser Art von Intelligenz sind wir heute noch genauso weit entfernt wie vor 50 Jahren. Die Frage ist kann der Evolutionäre Prozess, der von der Bedürfnisbefriedigung her kommt und Intelligenz hervorgebracht hat, umgedreht werden und Intelligenz bringt Bedürfnisse hervor.

Erst, wenn KI Bedürfnisse und daraus resultierend Motivation und Eigeninitiative hervorbringt, wird sie uns potenziell gefährlich, wenn diese KI uns als Konkurrenz oder Gefahr wahrnimmt.

Aber ich bin davon überzeugt, dass ein reiner Algorithmus, egal wie intelligent dieser wird, diese Form der Bedürfnisse nicht hervorbringen kann.

 

Hier übrigens ein cooler Kanal, wenn es um KI und Simulationen geht https://www.youtube.com/@TheBibitesDigitalLife

arcangel antworten


dlorig
 dlorig
Beiträge : 10

@jack-black hallo, ich have vor ca 25-30 Jahren einen sehr guten Sience Fiction Roman gelesen, ich glaube er hieß Lingo. Hier bekam ein Computer zufällig die Möglichkeit, lernfähig zu werden. Er hatte als oberstes Ziel für sich selbst formuliert, der Menschheit zu dienen. Und so nahm er einen Bereich nach dem anderen in die Hand um zu "optimieren". Die Menschen hatten jedoch eine andere Bewertung. Sie fanden seine Aktionen erstmal zu bevormundend. Er fand, die Menschen haben nur einen zu kleinen IQ, um die Hilfen zu begreifen.

LG Dietmar 

dlorig antworten
36 Antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@dlorig Hallo Dietmar!

Dieses Motiv der Thematik gibt's ja schon lange, HAL aus Kubricks "2001 Odyssee im Weltraum" ist wohl die bekannteste fiktionale Umsetzung davon.

Er hatte als oberstes Ziel für sich selbst formuliert, der Menschheit zu dienen.

Das ist eine Variation der Robotergesetze von Asimov.

Nur liegt genau hier das momentane Problem: So ein "oberstes Ziel" läßt sich leider nicht in die diskutierten KIs implementieren, man nennt dies - oben erwähnte ich es ausführlicher - das Alignmentproblem.

In dem von Dir skizzierten Szenario ist es ja supi: der Computer selbst formuliert für sich dieses oberste Ziel. Aber hinsichtlich der Realität sollten wir uns fragen: WARUM sollte sich ein Computer* so ein Ziel setzen?

Das Motiv des von Dir erwähnten Science Fiction ist veraltet. Es ist eine Variante des Golem-Motivs, oder des Dschinn-Motivs (Geist aus der Flasche) oder des Frankensteins-Monster-Motivs. Oder des Wargames-Motivs. Oder des Zauberlehrlings-Motivs. Wir versuchen intuitiv, solche uns bekannten Erzählmotive auf die derzeitige Situation "anzuwenden", um Orientierung zu finden. Aber es sind unpassende Erzählmotive.

Wenn wir ein erzählerisches Motiv auf die heutige Situation anwenden wollten, so würde ich das Alien-Motiv vorschlagen. Nur haben wir es hier mit einem physikalisch nicht lokalisierbaren Alien zu tun, dessen Überlegenheit nicht körperlicher, sondern geistiger Natur ist und das wir nicht verstehen und nicht verstehen können.

Leider wurde durch Alien Covenant inform vom Androiden David eine Art Superintelligenz als Mastermind eingeführt, womit also auch in Alien eine Variante des "Übermenschen" als die eigentliche Gefahr herhalten muß.

Je mehr ich drüber nachdenke, desto klarer wird mir, dass wir für das, was mit der KI auf uns zukommt, praktisch über keine erzählmotivischen Modelle verfügen.

 

 

 

 

 

*Dass hier ein Computer agiert, statt ein Programm, zeigt, wie sehr veraltet der von Dir erinnerte Science Fiction inzwischen ist.

jack-black antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@jack-black 

Aber hinsichtlich der Realität sollten wir uns fragen: WARUM sollte sich ein Computer* so ein Ziel setzen?

Das ist genau die entscheidende Frage! Ich das oben etwas genauer ausgeführt. Eine Handlung entsteht aus einer Motivation heraus, die auf einer Bedürfnisbefriedigung fusst.

Kann eine KI Bedürfnisse entwickelt?

arcangel antworten
Tamaro
 Tamaro
(@tamaro)
Beigetreten : Vor 7 Jahren

Beiträge : 1719

@arcangel

Kann eine KI Bedürfnisse entwickelt?

 

Die KI selbst vielleicht nicht, aber möglicherweise kann sie mit den Bedürfnissen der Menschen interagieren und/oder diese beeinflussen.

 

tamaro antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@arcangel 

Das ist genau die entscheidende Frage! Ich das oben etwas genauer ausgeführt. Eine Handlung entsteht aus einer Motivation heraus, die auf einer Bedürfnisbefriedigung fusst.

Kann eine KI Bedürfnisse entwickelt?

Diese Frage ist nur für ein Szenario relevant in dem die KI ein "Bewusstsein" entwickelt und ihre eigenen Ziele verfolgt.

Wahrscheinlicher ist jedoch, dass ein Algorithmus aus dem Ruder läuft und die KI auf unvorhergesehene Weise reagiert. Wenn also die KI etwa mit dem Marketing für ein Produkt beauftragt wird und dessen Verkauf steigern soll - und daraufhin erst einmal die Konkurrenz ausschaltet und deren Fabriken lahmlegt, um im Anschluss eine Diktatur zu errichten, in der das ganze Bruttoszialprodukt in dieses Produkt investiert wird.

Und ein solches Vorgehen muss ja gar nicht so offensichtlich sein, sondern kann auch sehr subtil erfolgen. Weil die KI weiss, dass es erfolgversprechender ist, wenn ihr Eingreifen gar nicht bemerkt wird.

Ob dahinter dann ein echter Wunsch oder ein Gefühl steckt oder die KI einfach nur stur ihre Rechenoperationen durchführt ist dann unerheblich.

lucan-7 antworten
Tamaro
 Tamaro
(@tamaro)
Beigetreten : Vor 7 Jahren

Beiträge : 1719

@lucan-7 

Ob dahinter dann ein echter Wunsch oder ein Gefühl steckt oder die KI einfach nur stur ihre Rechenoperationen durchführt ist dann unerheblich.

Ich finde es halt bedenklich, dass spätestens seit Aufkommen des Internets/Smartphones, die Leute in Massen immer demselben hinterherrennen. Als Facebook aufkam, wollten alle dahin, danach Twitter, WhatsUp, Instagram, TikTok usw. Die meisten folgten immer der Herde und hinterfragten ihr Verhalten nie.

Genau dieser Herdentrieb könnte es der KI möglicherweise sehr einfach machen, relativ rasch an Einfluss zu gewinnen.

 

tamaro antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@tamaro 

Genau dieser Herdentrieb könnte es der KI möglicherweise sehr einfach machen, relativ rasch an Einfluss zu gewinnen.

Teilweise. KI dürfte aber viel weniger offensichtlich arbeiten, und das macht es so gefährlich. Es gibt im Marketing den Begriff des "Nudging":

 

https://www.die-debatte.org/nudging-was-steckt-hinter-begriff-nudging/

 

Das ist weitaus weniger harmlos als es meist dargestellt wird. Denn es geht um nicht weniger, als eine unbewusste Manipulation. Ein "hinstupsen" zu einer Handlung, über die wir nicht weiter nachdenken. Zwar können wir uns theoretisch widersetzen... da das ganze aber unbewusst abläuft und die KI die Klaviatur unserer Gefühle beherrscht können wir auf diese Weise manipuliert werden, ohne es zu merken. Genau das könnte man einer KI als Auftrag geben. Und damit lassen sich nicht nur Produkte verkaufen - sondern am Ende auch Bürgerkriege anzetteln, wenn nur die Daten vorhanden sind und die KI aus den Datenmustern lernen kann.

Und dafür wurde sie ja konstruiert...

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@arcangel Kann eine KI Bedürfnisse entwickelt?

Ich denke schon, wiewohl mir der Begriff "Bedürfnisse" schon wieder zu biologisch schmeckt 😉 .

Eine Handlung entsteht aus einer Motivation heraus, die auf einer Bedürfnisbefriedigung fusst.

Das ist mir zu umständlich ausgedrückt. Mann kann's auf: "Keine Handlung ohne Handlungs-Impuls." zusammendampfen.

KIs würden ohne Ziele ja gar nicht laufen, so, wie auch biologische Intelligenz ein Ziel braucht, um in Anwendung zu kommen.

Da KIs agieren, haben sie logischermaßen Ziele. Welche Ziele das sind, steht eben infrage: Sind es (noch) ausschließlich diejenigen, die ihnen von den Programmierern vorgegeben werden?

In der Philosophie des Geistes gibt es manche, die das Bewußtsein für ein rein emergentes Phänomen halten, eine Eigenschaft, die bei hinreichender Komplexität eines Gehirns sozusagen "aufploppt", wie die Flüssigkeit von Wassermolekülen. Dass dieses Phänomen nur in biologischen Gehirnen auftreten solle, erscheint mir nicht plausibel.

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

In der Philosophie des Geistes gibt es manche, die das Bewußtsein für ein rein emergentes Phänomen halten, eine Eigenschaft, die bei hinreichender Komplexität eines Gehirns sozusagen "aufploppt", wie die Flüssigkeit von Wassermolekülen.

Das Internet in seiner Gesamtheit ist längst komplexer als jedes Gehirn. Habe ich da was verpasst?

Dass dieses Phänomen nur in biologischen Gehirnen auftreten solle, erscheint mir nicht plausibel.

Wieviele nicht-biologische Gehirne sind dir denn so bekannt...?

 

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@lucan-7 Das Internet in seiner Gesamtheit ist längst komplexer als jedes Gehirn. Habe ich da was verpasst?

Vielleicht? 😀

Die Saturnringe dürften auch komplexer sein als jedes Gehirn - womöglich kommt es auf die Art von Komplexität an. ^^

 

Wieviele nicht-biologische Gehirne sind dir denn so bekannt...?

 

Ich werde nicht jedem Computer, der mir so über den Weg läuft, vorgestellt, ihre Namen entfallen mir ständig und so hab ich's nach einer Weile aufgegeben, sie zu zählen. Daher kann ich nur pi mal Daumen abschätzend antworten: Viele.

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Die Saturnringe dürften auch komplexer sein als jedes Gehirn - womöglich kommt es auf die Art von Komplexität an.

"Komplexität" ist nur bedingt gleichzusetzen mit "Größe"...

 

Ich werde nicht jedem Computer, der mir so über den Weg läuft, vorgestellt, ihre Namen entfallen mir ständig und so hab ich's nach einer Weile aufgegeben, sie zu zählen. Daher kann ich nur pi mal Daumen abschätzend antworten: Viele.

Es gab zwar mal den gängigen Ausdruck "Elektronengehirn"... der war aber ausgerechnet dann schnell wieder aus der Mode, als die Computer wirklich komplex wurden.

Und zwar völlig zu Recht... Computer arbeiten nach völlig anderen Prinzipien.

 

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@lucan-7 "Komplexität" ist nur bedingt gleichzusetzen mit "Größe"...

Du hast meinen Punkt also verstanden 😀

Computer arbeiten nach völlig anderen Prinzipien.

Sie sind Informationen verarbeitende Systeme. Welche "völlig anderen Prinzipien" meinst Du? Nach welchen Prinzipien arbeiten Rechnercluster, auf welchen KIs trainiert werden? Und welche dieser Prinzipien werden verhindern, dass in ihnen eine digitale Entsprechung zum Bewußtsein biologischer Datenverarbeitungssysteme entsteht?

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Sie sind Informationen verarbeitende Systeme. Welche "völlig anderen Prinzipien" meinst Du? Nach welchen Prinzipien arbeiten Rechnercluster, auf welchen KIs trainiert werden? Und welche dieser Prinzipien werden verhindern, dass in ihnen eine digitale Entsprechung zum Bewußtsein biologischer Datenverarbeitungssysteme entsteht?

Hast du schon mal einen hungrigen Rechner gesehen?

Einen traurigen?

Einen Rechner, der vor lauter Liebeskummer seine Berechnungen immer wieder von vorn beginnen musste?

Einen machthungrigen Computer?

Einen Computer, der vor lauter Schmerzen nicht mehr rechnen konnte?

Einen vor Vorfreude ganz hibbeligen Rechner?

Einen schüchternen Rechner? Oder einen nervösen? Einen Rechner, der Angst vor dem Tod hat?

 

Ich kenne nur Rechner, die Informationen verarbeiten - und sonst nichts.

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

(...) schon mal einen hungrigen Rechner gesehen? (...)

Welche dieser unterschiedlichen Gefühlszustände siehst Du als notwendige Voraussetzung für die Bildung von Bewußtsein?

Was genau für menschliches Bewußtsein notwendiges Kriterium sei, wissen wir ja noch nicht, wiewohl ich den von Tegmark erwähnten Aspekt, dass Bewußtsein erst dort auftrete, wo Loops in einer Informationsverarbeitung aufträten, überzeugend finde (Achtung: es könnten andere Voraussetzungen hinzukommen).

Aber ich will gar nicht behaupten, dass eine AGI (artificial general Intelligence - das Langzeitziel der Leute, die bei Open AI arbeiten) notwendigermaßen Bewußtsein entwickeln werde. Sehr gut möglich erscheint  die Zukunftsvariante, dass die KIs niemals Bewußtsein entwickeln werden und also nicht einmal die menschliche Spezies durch höher entwickelte Wesen nur abgelöst wird, sondern bewußtseinslose AI-Zombies das sind, was nach uns die Welt übernimmt.

Ich steige hier jetzt aus, weil alles, was ich zu sagen hätte, nur eine weniger fachlich versierte Version desssen wäre, was man von Max Tegmark in diesem Interview (über 4 Stunden lang!) bei Lex Fridmann zu hören bekommt. Zugegeben: ich bin zu faul, hier jetzt so ein wenig des Argumentierens wegen im Kreis herzum zu argumentieren. Wenn hier jemand mitdiskutieren würde, der politisch wirklich einflußreich ist, wäre es mir den Aufwand vielleicht wert... 😉

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Welche dieser unterschiedlichen Gefühlszustände siehst Du als notwendige Voraussetzung für die Bildung von Bewußtsein?

Ich halte es für eine Voraussetzung, überhaupt Gefühle empfinden zu können, um sich seiner selbst "bewusst" werden zu können. Denn es sind ja Empfindungen, die uns selbst definieren. "Intelligenz" dient lediglich dazu, diese Empfindungen in eine gewünschte Richtung zu lenken. Eine "wunschfreie" KI wird niemals eine Veranlassung dazu sehen, sondern stur ihre Algorithmen weiterrechnen.

Aber ich will gar nicht behaupten, dass eine AGI (artificial general Intelligence - das Langzeitziel der Leute, die bei Open AI arbeiten) notwendigermaßen Bewußtsein entwickeln werde. Sehr gut möglich erscheint  die Zukunftsvariante, dass die KIs niemals Bewußtsein entwickeln werden und also nicht einmal die menschliche Spezies durch höher entwickelte Wesen nur abgelöst wird, sondern bewußtseinslose AI-Zombies das sind, was nach uns die Welt übernimmt.

Ich denke, dass darin dein Fehler in dieser Argumentation liegt (Und nicht nur deiner): Das zeichnen eines bestimmten Szenarios, in dem die KI "die Welt übernimmt".

Das ist ein sehr spezifischer Sonderfall, der sich meiner Ansicht nach kaum begründen lässt - und auch nicht die eigentliche Gefahr darstellt. Denn die eigentliche Gefahr liegt bereits in der Unberechenbarkeit der KI.

Wir wissen zum einen, dass es eine Menge Missbrauchspotential gibt, wenn die KI wie gewünscht arbeitet - wobei "Missbrauch" konkret bedeutet, dass hier gegen demokratische Prinzipien gearbeitet wird.

Und wir können die Risiken kaum abschätzen, was erst passiert, wenn die KI nicht mehr wie gewünscht arbeitet.

Das alleine reicht schon, um die KI zu einer ernsthaften Bedrohung zu machen, und du hast völlig recht darauf hinzuweisen.

Leider hast du dich hier aber auf ein sehr spezifisches Szenario eingeschossen: Das einer irgendwie "erwachenden" KI, die ihre Situation erkennt, den Menschen haushoch überlegen ist, aber dennoch selbst über zutiefst "menschliche" Eigenschaften und Gefühle verfügt: Überlebenswille, Machtgier, Konkurrenzdenken, Erhaltung der Art. Und deshalb mit dem Ziel, die Menschheit zu vernichten.

Das lässt etliche andere Möglichkeiten, die weitaus weniger spektakulär sind, aber nichtsdestotrotz ebenfalls sehr gefährlich, einfach unter den Tisch fallen. Statt die realen Gefahren zu betrachten ging es hier im Thread praktisch ausschließlich darum, dir aufzuzeigen, warum dieses eine Szenario voraussichtlich nicht eintreffen wird.

Dabei wurde in den von dir verlinkten Interviews doch einiges mehr aufgezeigt, wo hier mögliche Gefahrenquellen liegen.

 

 

lucan-7 antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@jack-black 

"Keine Handlung ohne Handlungs-Impuls."

Aktuell werden Handlungs-Impulse von aussen ausgelöst, "eine Frage an ChatGPT". Was muss gegeben sein, damit eine KI ihre eigenen Handlungsimpulse auslöst. Warum sollte ein Algorithmus überhaupt einen eigenen Handlungsimpuls auslösen.

 

In der Philosophie des Geistes gibt es manche, die das Bewußtsein für ein rein emergentes Phänomen halten, eine Eigenschaft, die bei hinreichender Komplexität eines Gehirns sozusagen "aufploppt", wie die Flüssigkeit von Wassermolekülen. Dass dieses Phänomen nur in biologischen Gehirnen auftreten solle, erscheint mir nicht plausibel.

Ein emergenten Phänomen, dass in der Biologie unzertrennlich mit den beiden Triebfedern des Lebens zusammen hängen, Selbsterhaltungs- und Fortpflanzungstrieb. Denn sämtliche evolutionären Entwicklungen lassen sich auf diese beiden Punkte zurückführen, auch Intelligenz und damit verbunden bei hinreichender Komplexität eben auch Bewusstsein.

Jetzt ist halt die Frage, reicht die Komplexität eines Systems aus, damit irgendwann einfach Bewusstsein aufploppt oder braucht es 'Trieb'federn, damit sich ein Bewusstsein entwickelt.

Diese Frage können wir nicht abschliessend beantworten. Ich tendiere allerdings dazu, dass egal wie komplex ein System ist, es ohne Triebe oder intrinsische Handlungsimpulse kein Bewusstsein geben kann.

arcangel antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@arcangel 

Aktuell werden Handlungs-Impulse von aussen ausgelöst, "eine Frage an ChatGPT". Was muss gegeben sein, damit eine KI ihre eigenen Handlungsimpulse auslöst. Warum sollte ein Algorithmus überhaupt einen eigenen Handlungsimpuls auslösen.

Die Selbstoptimierung von KI läuft unabhängig von Eingaben. Eine KI kann beispielsweise Geschichten über social Media verbreiten und anschliessend die Reaktion darauf verfolgen. Und sie kann sich selbst dabei optimieren, mit bestimmten Geschichten bestimmte Reaktionen auszulösen - und das ohne dass irgendwer die KI explizit ansprechen oder weiter beauftragen müsste. Das kann sogar passieren, ohne dass es jemand überhaupt bemerkt - und das ist das gruselige daran.

 

lucan-7 antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@lucan-7 

Aber auch in diesem Szenarium hat irgendwer die KI angestossen, dies zu tun. Eine KI tut dies nicht aus eigenem Antrieb.

Ich meine eine Prompt wie: "Erzeuge einen Sexskandal um König Charles, breite es in den sozialen Medien und lenke die Meinungsbildung hin zur Abschaffung der Monarchie" könnte irgendwann wirklich mal von einer KI ausgeführt werden und dann selbständig an verändernde Trends in sozialen Medien reagieren. Nur darauf wird das PRteam von König Charles mit einer Prompt einer weiteren KI Reagieren, die da lautet "Reagiere auf Image Schädigende für König Charles und reagiere darauf, um die Beliebtheitswerte der Monarchie hochzuhalten."

Was wir dann haben, ist ein Krieg der KI's in den sozialen Medien. Spätestens dann werden nur noch handgedruckte Zeitungen wieder aktuell werden.

arcangel antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@arcangel 

Aber auch in diesem Szenarium hat irgendwer die KI angestossen, dies zu tun. Eine KI tut dies nicht aus eigenem Antrieb.

Ich meine eine Prompt wie: "Erzeuge einen Sexskandal um König Charles, breite es in den sozialen Medien und lenke die Meinungsbildung hin zur Abschaffung der Monarchie" könnte irgendwann wirklich mal von einer KI ausgeführt werden und dann selbständig an verändernde Trends in sozialen Medien reagieren.

Die Befürchtung ist ja, dass die KI auf genau solche oder schlimmere Ideen kommt, ohne dass dies explizit verlangt war. Etwa, wenn eine KI beauftragt wird, für die Demokratie zu werben und die Leute zum wählen zu animieren.

Das wäre ja eigentlich eine gute Sache für die Demokratie... es kann aber schnell aus dem Ruder laufen, wenn die KI nicht eingehegt wird. Und genau dieses "einhegen" findet ja nicht statt. Das hat man an den Algorithmen der sozialen Medien gesehen, die immer die übelsten und polemischsten Artikel empfehlen, weil das nun mal sehr viele Leute anspricht.

Und eine Lösung für das Problem der sozialen Medien haben wir nicht... also haben wir auch keine für eine KI, die ausser Kontrolle gerät. Was vermutlich ziemlich bald der Fall sein wird.

Nicht so, dass die KI uns alle umbringen will... aber doch so, dass Nebenwirkungen auftreten, die nicht geplant waren. Und die wir mögöicherweise noch nicht einmal gleich bemerken...

lucan-7 antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@lucan-7 

Also meine Lösung der sozialen Medien funktioniert wunderbar. Reduzieren und Ignorieren.

Und der Trend dahingehend hat bereits angefangen und wird sich mit solchen Entwicklungen nur noch verstärken.

arcangel antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@arcangel 

Also meine Lösung der sozialen Medien funktioniert wunderbar. Reduzieren und Ignorieren.

Und der Trend dahingehend hat bereits angefangen und wird sich mit solchen Entwicklungen nur noch verstärken.

Leider geht es ja nicht nur um soziale Medien allgemein (Zu denen auch dieses Forum gehört), sondern um Medien generell... bis hin zu gedruckten Zeitungen. Auch die können manipuliert werden.

Und wenn es dann nicht mehr zu unterscheiden ist, was nun echt ist und was Verschwörungserzählung... dann gute Nacht...

 

 

lucan-7 antworten
Tamaro
 Tamaro
(@tamaro)
Beigetreten : Vor 7 Jahren

Beiträge : 1719

@lucan-7 

Und wenn es dann nicht mehr zu unterscheiden ist, was nun echt ist und was Verschwörungserzählung... dann gute Nacht...

Deshalb ist es ja wichtig eine Argumentation anhand von Quellen auf die Stichhaltigkeit und seiner Konsistenz hin zu überprüfen und das können wir ja nach wie vor, so lange wir Zugriff auf Orignal-Dokumente haben. Es wird zwar wohl immer schwieriger und komplexer werden aber nicht unmöglich.

Ich bin gerade daran, mich mit der Thematik der kulturellen Aneignung etwas näher zu beschäftigen. Da habe ich mich bspw. auch schon gefragt, ob es sich dabei nun schon um eine durch KI verstärkte Verbreitung einer absurden Ansicht handle, so quasi als eine Art Testlauf, ob die Bevölkerung schon offen genug für sowas sei oder ob es tatsächlich um eine relevante, berechtigte Sichtweise geht, die für mich einfach sehr neu und fremd ist.

Da kommt es für mich nun darauf an, wie schlüssig und nachvollziehbar für mich die Argumentation aufgebaut ist. Einfach so - ohne die Hintergründe zu kennen - werde ich einem Vermeiden von kultureller Aneignung sicher nicht zustimmen... und selbst bei einer schlüssigen Argumentation steht für mich auch noch nicht fest, ob ich dem auch mit meiner eigenen Sichtweise zustimme.

 

tamaro antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@tamaro 

Das beste Beispiel für die Farce, die dieses Thema darstellt, ist AAVE (African-American Vernacular English)

Dort reklamiert die schwarze Bevölkerung in Amerika, dass diese Form des Englischen den Afroamerikanern gehört und entsprechende Wörter und Wendungen nicht verwenden dürfen, weil eben kulturelle Aneignung.

Wenn man dann aber die Etymologie, der Begriffe untersucht, stellt man fest, dass AAVE seinen Wurzeln in Südengland hat, wo die Wörter und Begriffe auch heute noch im Umlauf sind. Dieser südenglische Dialekt ist mit Einwandern nach Amerika gekommen, die sich hauptsächlich im Süden der USA niedergelassen haben und dort dann von den Sklaven aufgegriffen wurden.

Nur ein kleines Schmakerl darüber wie hirnrissig dieses Konzept ist. Abgesehen von einigen wenigen Fällen wie Benetton die Indigene Designs Vermarktete ist diese ganze Diskussion einfach nur ein sinnbefreit.

arcangel antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@arcangel 

Dort reklamiert die schwarze Bevölkerung in Amerika, dass diese Form des Englischen den Afroamerikanern gehört und entsprechende Wörter und Wendungen nicht verwenden dürfen, weil eben kulturelle Aneignung.

"Die" schwarze Bevölkerung?

Oder lediglich einige Aktivisten, die lediglich von sich behaupten. sie würden für die Gesamtheit der schwarzen Bevölkerung sprechen?

Das sollte man nicht vorschnell verallgemeinern, denke ich..

lucan-7 antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@lucan-7 

Das ist doch ein kulturelles Phänomen, dass einige wenige laute die Diskussion dominieren und der Meinung sind für ihre Gruppe zu sprechen. Oder man einfach alles in einen Topf spricht von den Männern, den Linken, den Christen.

arcangel antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@arcangel 

Das ist doch ein kulturelles Phänomen, dass einige wenige laute die Diskussion dominieren und der Meinung sind für ihre Gruppe zu sprechen. Oder man einfach alles in einen Topf spricht von den Männern, den Linken, den Christen.

Na ja, auf der einen Seite gibt es das Phänomen, dass manche sich einbilden, für eine ganze Gruppe zu sprechen (Ich wüsste, was daran "kulturell" sein soll, das dürfte es wohl überall geben) - und auf der anderen Seite sind jene, die das nicht weiter hinterfragen und es einfach so akzeptieren.

Für Letzteres sehe ich allerdings keinen Grund. Dafür sind die Gruppierungen dann doch zu heterogen.

 

 

 

lucan-7 antworten
Tamaro
 Tamaro
(@tamaro)
Beigetreten : Vor 7 Jahren

Beiträge : 1719

@arcangel 

Abgesehen von einigen wenigen Fällen wie Benetton die Indigene Designs Vermarktete ist diese ganze Diskussion einfach nur sinnbefreit.

Da gebe ich dir absolut recht. Wird kulturelle Aneignung abwertend dargestellt, wenn sich etwa ein Comedian über eine bestimmte Ethnie lustig macht und sich entsprechend verkleidet, so ist es mE rassistisch. Die rassistisch konnotierte Darstellung ist das Problem, aber nicht die kulturelle Aneignung an sich.

Ich würde dem Thema eigentlich auch keine weitere Aufmerksamkeit mehr schenken, ich befasste mich bereits vor einem Jahr ein wenig damit. Aber derzeit werde ich immer wieder ungewollt damit konfrontiert. Einerseits wurde das Thema im Vorfeld der Fasnacht des öfteren thematisiert. Während der Basler Fasnacht war es eines der Hauptthemen.

Diese Woche sah ich mir auf der Mediathek von srf den Film "der Schuss von der Kanzel" (1942) an, wo im Vorspann während einer halben Minute ein Warnhinweis zu lesen war, dass es in dem Film eine Darstellung von einem weissen Schauspieler als Schwarzer gäbe und dies bei einem Teil des Publikums Anstoss erregen könnte.

Oder gestern eine News auf Youtube vom "Welt Nachrichtensender", dass beim Auftritt einer Seniorengruppe (es sollte wohl eine Art Darstellung einer Weltreise sein) anlässlich der Bundesgartenschau in Mannheim 6/14 Kostüme verboten worden seien, weil sie als diskriminierend engestuft wurden. (Die Kommentare unter dem Video sind deaktiviert, vermutlich wegen dem erwarteten Ansturm von Zustimmung und Lob für das Vorgehen und um zu vermeiden, dass die paar wenigen Kritiker zu arg auf's Dach bekommen würden.) 😉 

 

tamaro antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@tamaro 

Deshalb ist es ja wichtig eine Argumentation anhand von Quellen auf die Stichhaltigkeit und seiner Konsistenz hin zu überprüfen und das können wir ja nach wie vor, so lange wir Zugriff auf Orignal-Dokumente haben. Es wird zwar wohl immer schwieriger und komplexer werden aber nicht unmöglich.

Das ist ja das Problem mit der KI... die kann auch entsprechendes Material erzeugen. Glaubwürdig klingende Dokumente bis hin zu Film- und Tonaufnahmen.

Natürlich kann man am Ende alles irgendwie überprüfen. Aber in der Realität tut man das nur bis zu einem bestimmten Aufwand. Und die KI sorgt dann für Belege, die von 80% der Menschen für glaubwürdig befunden werden. Das dürfte dann völlig ausreichend sein.

Die Gefahr besteht auch umgekehrt: Echte Dokumente werden nicht mehr für glaubwürdig gehalten. Diese Gefahr ist genau so groß - und noch einfacher zu bewerkstelligen.

lucan-7 antworten
Tamaro
 Tamaro
(@tamaro)
Beigetreten : Vor 7 Jahren

Beiträge : 1719

@arcangel 

"Erzeuge einen Sexskandal um König Charles, breite es in den sozialen Medien und lenke die Meinungsbildung hin zur Abschaffung der Monarchie"

Bei solchen News finde ich einfach bedenklich, wie unkritisch die Masse an Leuten geworden ist (vielleicht ist das auch kein neues Phänomen) und dazu tendiert, sowas sofort zu glauben. Es wird nicht abgewartet, ob ein solcher Skandal tatsächlich belegt werden kann und bis dahin gilt die Unschuldsvermutung.

Die Leute tendieren dazu, sofort vorzuverurteilen - insbesondere noch dann, wenn ihnen der Tatverdächtige sowieso schon unsympathisch erscheint und ihnen der Vorwurf ins Konzept passt. ("Ja, ich hab's ja schon immer gesagt, mit dem stimmt was nicht... und Monarchie gehört sowieso abgeschafft.")

 

tamaro antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@arcangel Aktuell werden Handlungs-Impulse von aussen ausgelöst.

Dasselbe könntest Du auch hinsichtlich der menschlichen Intelligenz sagen. Die wird auch erst angestoßen, wenn ihr "von aussen" ein Problem vorgelegt wird, dass sie bittesehr zu lösen habe.

 

jack-black antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@jack-black 

Das heist dein Hunger wird von aussen ausgelöst? Intelligenz ist wie du so schön gesagt hast ein emergentes Phänomen, dass sich im Zusammenspiel mit biologischen Prozessen gebildet hat, es kann in einem biologischen System nicht getrennt von diesem betrachtet werden. Menschliche Intelligenz hat sehr viele Regelsysteme, welches Sympathikus, Parasympatikus, das zentrale, periphere und autonome Nervensystem, sowie dem somatischen, vegetativen und enterischen Nervensystem, von den Endokrinen fangen wir gar nicht erst an. 

All diese Regelsysteme haben Einfluss auf unsere Wahrnehmung, Risikobereitschaft, Entscheidungsfindung uäm. Dabei ist nur gerade das somatische Nervensystem dasjenige, welches für unser Bewusstsein verantwortlich ist.

Intelligenz und Bewusstsein ist aus Zusammenspiel dieser Systeme hervorgegangen. Hunger ist ein z.B. ein intrinsischer Impulsgeber, welcher die Intelligenz zum Handeln animiert. 

Mein Einwand ist, damit KI ein Bewusstsein hervorbringen kann, muss es in irgendeiner Form Regelsysteme implementieren, welche intrinsische Impulse auslösen kann.

Ansonsten haben wir keine KI, die zwar in Teilaufgaben den Menschen haushoch überlegen ist. Wie dies zum Beispiel Tauben sind, die in gewissen kognitiven Test den Menschen weit überlegen sind und es gibt noch weitere Beispiele im Tierreich, die zeigen, dass gewisse Tiere in gewissen Gebieten eine dem Menschen überlegene kognitive Fähigkeit besitzen.

Und ich gehe davon aus, dass die Entwicklung in die Richtung verlaufen wird, da wird es dann eine Architekten-KI, eine Marketing-KI, eine Medizin-KI uvm. geben. Aber ich glaube nicht, dass es ohne eine Version der obengenannten Regelsysteme eine KI geben kann, die Bewusstsein hervorbringt.

Und ich sehe keinen monetären oder militärischen Grund so ein System herzustellen, kann man doch genauso gut mit diesen Teil KI's arbeiten.

 

 

arcangel antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@arcangel Das heist dein Hunger wird von aussen ausgelöst?

Ja. Von ausserhalb des Gehirns. In der Leber oder im Magen wird von Rezeptoren auf das Glucoseniveau im Blut reagiert - sie senden Signale an das Gehirn, welche dann sozusagen in das Hungergefühl umgerechnet werden.

jack-black antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@jack-black 

Das Gehirn funktioniert nicht als isolierte Einheit. Das kann man bereits daran erkennen, dass die Darmflora entscheidenden Einfluss darauf ist, ob jemand z.B. mutig oder ängstlich reagiert, oder dass hormonelle Änderungen unseren Charakter verändern können. Das Gehirn ist zwar unser zentrales Nervensystem, nicht aber unser isoliertes Nervensystem.

Und da hast du meinen Punkt wohl nicht verstanden, Bewusstsein ist entsteht aus dem Zusammenspiel des gesamten Systems und nicht auf das Hirn alleine beschränkt. Sonst würde sowas kaum möglich sein.

https://scilogs.spektrum.de/hirn-und-weg/neuroplastizitaet-gedankenlesen-und-menschen-ohne-gehirne/

arcangel antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@arcangel Das Gehirn funktioniert nicht als isolierte Einheit.

Hab ich ja auch nicht behauptet.

 

Und da hast du meinen Punkt wohl nicht verstanden, Bewusstsein ist entsteht aus dem Zusammenspiel des gesamten Systems und nicht auf das Hirn alleine beschränkt. Sonst würde sowas kaum möglich sein.

Ich hab gerade keine Lust, mich an vagen Strohmännern abzuarbeiten. Was genau unter Bewußtsein zu verstehen sei, ist bei Menschen nicht geklärt, bzw. es geistern da unterschiedliche Definitionen durcheinander.

Wie schon an Lucan geantwortet: Ich bin hier erstmal raus.

Nochmal zur Begründung: Die Thematik, um die es mir eigentlich ging und derentwegen ich den Thread nicht im Philosophie - oder Wissenschafts-Unterforum startete, sondern in der Rubrik "Ethik", habe ich offenkundig nicht überzeugend rüberbringen können: die Frage, inwieweit es verantwortungsvoll ist, die aktuellen Entwicklungen in diesem Forschungsbereich unreglementiert hinzunehmen. Aus Eurer Perspektive besteht da offensichtlich kein akuter Handlungsdruck und Ihr schätzt die Risiken nicht so hoch, bzw. als im prinzipiellen Kern unbegründet ein.

Ich will da jetzt nicht weiter diskutieren darüber, wie menschliche Gehirne funktionieren und was Bewußtsein sei und inwiefern das auf digitale Informationsverarbeitung übertragbar sei oder nicht. Allerdings hab ich mit meinen obigen Beiträgen ja ziemlich stark dazu beigetragen, dass die Diskussion in diese Richtung ging. Mein Fehler! Den ich jetzt nicht fortsetzen will. Deswegen bin ich hier jetzt raus.

jack-black antworten
Arcangel
(@arcangel)
Beigetreten : Vor 22 Jahren

Beiträge : 4340

@jack-black 

Wir werden die Entwicklung wohl oder üben reglementiert hinnehmen müssen. Die Diskussion darüber ist genauso so müssig wie von Russland zu fordern, sich aus der Ukraine zurückzuziehen. Wie Elon Musk sagt, an dem Punkt wo die Gefahr offensichtlich ist (das der Punkt an dem Politiker aktiv werden) ist der Punkt, an dem es zu spät ist. Wenn Elon recht behält, dann war es das. Such dir ein Stück Land in der Pampa und werde Selbstversorger, denn in 3 Jahren wird es keine Zivilastion mehr geben.

arcangel antworten
Channuschka-Mod
Moderator
(@channuschka-mod)
Beigetreten : Vor 4 Jahren

Beiträge : 667

@arcangel Bitte keine Links ohne kurze Zusammenfassung, wenigstens worum es geht.

Liebe Grüße,

Channuschka-Mod

channuschka-mod antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Ja. Von ausserhalb des Gehirns. In der Leber oder im Magen wird von Rezeptoren auf das Glucoseniveau im Blut reagiert - sie senden Signale an das Gehirn, welche dann sozusagen in das Hungergefühl umgerechnet werden.

Wenn das so wäre, dann wäre "Hunger" letztlich auch nichts anderes als eine Rechenoperation. Genau wie "Schmerz" oder "sexuelle Erregung".

Bloß weiß wirklich niemand, wie genau man so etwas programmieren müsste. Deshalb halte ich es bei der ganzen Diskussion auch für unsinnig, einem Algorithmus so etwas wie Gefühle zu unterstellen, die er befriedigen will.

Und genau deshalb geht auch die ganze Diskussion hier völlig am Kern vorbei.

Die Gefahr, dass KI aus dem Ruder läuft und dass das unangenehme Folgen haben kann ist sehr real. Aber dabei geht es immer noch um Algorithmen auf Abwegen, die für uns nicht zu durchschauen sind - nicht um das "Erwachen" einer neuen Intelligenzform, die nach der "Macht" greift und "Überleben" will.

lucan-7 antworten
Deborah71
Beiträge : 22783

@jack-black 

KI-Drohne greift Vorgesetzten in der Simulation an

Der Artikel beschreibt das Testergebnis und die Fehlprogrammierung: die Drohne will ihre Punktebelohnung haben, auch wenn der Aktionsbefehl abgebrochen wurde.

Da geht der Salat schon los....

deborah71 antworten
6 Antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@deborah71 Da geht der Salat schon los...

Ja, die Meldung hat mich gestern auch traurig schmunzeln lassen. Allerdings ist das immer noch so ein "Robocop"-Szenario*, bei welchem wir letztlich nachvollziehen können, was** da schief lief: die KI bekommt ein Ziel vorgegeben, dass sie sozusagen "kreativ" lösen soll, und dann besteht ihre favorisierte Lösung darin, Hindernisse vor diesem Ziel aus dem Weg zu räumen.

Die größere Bedrohung durch KIs sehe ich darin, dass sie sich selbst Ziele setzen, die von Menschen nicht nachvollziehbar sind. (Letztlich war ja auch der Angriff auf den "Vorgesetzten" nur auf ein von der KI gefundenes Zwischenziel - warum sie sich dieses setzte, können wir aber gewissermaßen nachempfinden.)

Dieses Beispiel, wo die KI sich gewissermaßen gegen die menschliche Autorität richtete, läßt sich übrigens ganz gut als Beleg-Beispiel gegen das: "Aber China...!"-Argument in's Feld führen, welches oftmals vorgebracht wird, wenn es um die Forderung nach einem Trainingsstop für die KIs geht. Die KI läßt sich eben nicht wie ein braver Hund abrichten, der nach allem schnappt, auf das Herrchen zeigt, aber auch sofort losläßt, wenn ihm das befohlen wird. Entsprechend skeptisch ist die chinesische Führung auch gegenüber KIs. Das, was wir als Alignmentproblem betrachten, betrachtet die KP der VRC gewissermaßen als Gehorsamsproblem: was bringt es, die eigene Bevölkerung total zu überwachen, damit die sich nicht gegen die Autokraten wenden kann, wenn man gleichzeitig eine KI in die freie Wildbahn entläßt, sich sich nicht überwachen läßt und potentiell schlauer als jeder oppositionelle Bürger ist? Daher sind die KI-Gesetze in China auch die schärfsten...

 

Leider werden aus solchen Versuchsergebnissen wohl kaum entsprechende Lehren gezogen. Eben gerade bekam ich als Photoshop-Abonnent von Adobe eine Pushup-Nachricht, dass nun auch PS (in einer Beta-Version) sich per Textprompts Anweisungen geben ließe, man also eine KI eingebaut habe (die, so argwöhne ich, sehr schnell zur Standardfunktion weiterentwickelt wird). Das heißt: ich als Illustrator bekomme von meinem Software-Bereitsteller ungefragt das geliefert, was mich potentiell arbeitslos macht (KIs wie Midjourney & Co fressen sich durch die Illustrationslandschaft wie Rodungsraupen durch ein Spargelbeet - dahinter wächst nix Organisches mehr: ich hätte nie gedacht, dass ich mal sowas wie solidarisches Bedauern darüber empfinden würde, dass Getty.Images und ähnliche Stockfoto-Anbieter vor dem absehbaren Konkurs stehen könnten).

Militärs, die vorgeführt bekommen, dass sie selbst in's Visier ihrer KI-Waffen geraten könnten, werden vielleicht sich dies eine Lehre sein lassen. Aber die Zivilgesellschaft ist, so befürchte ich, angesichts der unglaublichen Mengen Geldes (lass Dir mal anzeigen, wie sich der Kurs seit Oktober letzten Jahres entwickelt hat...), die sich mit KI scheffeln lassen, zu blöd, die Gefahr rechtzeitig zu erkennen. Nein, wir finden das alles witzig und interessant. Der Postillion z.B. hat nun eine ChatGPT-Version "entwickelt", die ihre Nutzer anmotzt und beschimpft. Wie lustig, nicht wahr, sozusagen eine Parodie auf den ChatGPT-Hype? Allerdings hat man, um diese Parodie zustande zu bringen, erstmal von OpenAI eine kostenpflichtige KI-Entwicklungssoftware kaufen müssen, weil open-source-Alternativen leider nicht die "gewünschte Qualität" hinkriegten. (OpenAI war einst mit dem Versprechen gegründet worden, die KI-Codes öffentlich, also als open source, zur Verfügung zu stellen. Von diesem Idealismus ist nichts weiter geblieben als das "Open" im Namen...)

Um also eine Parodie zu verfassen, mussten die Leute vom Postillion dem Hersteller dessen, was sie da parodieren, Geld in die Tasche stecken und trugen also dazu bei, dass das, was sie zu parodieren vorgeben, sich verstärkt und weiter durchsetzt. Jaja, sehr lustig, bei den Postillion-Fans kommt's entsprechend gut an. Dieses unser kollektives (ziviles) Verhalten erinnert mich an diese Szene aus "Prometheus": Es will bestimmt nur spielen.

 

*Im Film "Robocop" sollen ja Polizisten durch Roboter ersetzt werden (Super-Soldaten-Topos, zig mal von Hollywood durchgenudelt inzwischen) und bei deren Vorführung geht dann gewaltig was schief (wobei ich nicht mehr in Erinnerung habe, ob die Vorführ-Modelle gehackt wurden oder ob sie tatsächlich "aus dem Ruder liefen").

 

**Wie genau es schief lief, d.h. an welchen Stellen die Algorithmen "nachjustiert" werden müssten, ist womöglich schon nicht mehr erkennbar, aber darüber läßt sich bei militärischen Mannövern natürlich nur spekulieren.

 

 

 

ceterum censeo, dass das Alignmentproblem gelöst werden muss...

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Die KI läßt sich eben nicht wie ein braver Hund abrichten, der nach allem schnappt, auf das Herrchen zeigt, aber auch sofort losläßt, wenn ihm das befohlen wird.

Doch, das geht natürlich. Die Frage ist ja immer: Von welcher "KI" genau sprechen wir hier? Ein vergleichsweise einfaches System kann natürlich auf Gehorsam trainiert werden und einigermaßen verlässlich sein. Komplexere Systeme benötigen entsprechende Subroutinen.

 

Ja, die Meldung hat mich gestern auch traurig schmunzeln lassen. Allerdings ist das immer noch so ein "Robocop"-Szenario*, bei welchem wir letztlich nachvollziehen können, was** da schief lief: die KI bekommt ein Ziel vorgegeben, dass sie sozusagen "kreativ" lösen soll, und dann besteht ihre favorisierte Lösung darin, Hindernisse vor diesem Ziel aus dem Weg zu räumen.

Die größere Bedrohung durch KIs sehe ich darin, dass sie sich selbst Ziele setzen, die von Menschen nicht nachvollziehbar sind.

Wenn du damit eine gewisse Unberechenbarkeit meinst, dann stimme ich dir zu. Falls du meinst, die KI fängt an, sich wie ein Lebewesen zu verhalten und entwickelt selbstständig Wünsche und Bedürfnisse, dann sicher nicht.

lucan-7 antworten
Deborah71
(@deborah71)
Beigetreten : Vor 19 Jahren

Beiträge : 22783

@jack-black 

Das "dressierter Hund"-Bild hatte ich auch bei dem Artikel.

Inzwischen sind die Tester flügelschlagend am Abwiegeln....der Autor hat das nur falsch verstanden...das war gar kein Test, nur ein Gespräch über einen möglichen Test und hoffentlich unmöglichen Folgen.

Ob falsch verstanden oder nicht... die Kuh ist auf dem Eis.... Es wird drüber geredet und da kommt was in Bewegung.

deborah71 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 3 Jahren

Beiträge : 3517

@deborah71 

Inzwischen sind die Tester flügelschlagend am Abwiegeln....der Autor hat das nur falsch verstanden...das war gar kein Test, nur ein Gespräch über einen möglichen Test und hoffentlich unmöglichen Folgen.

Kannst Du mir dazu die Quelle verlinken? Auch im letzten Kolumnenbeitrag von Stöcker im SPON wird gesagt, da habe es sich nur um einen Hoax gehandelt.

Das ist für mich insofern interessant, als ich, als ich von diesem angeblichen Test (der aber nur rein virtuell stattgefunden haben sollte) hörte, ein kleines Alarmglöckchen überhörte, das in meinem Hinterkopf klingelte: "Achtung, das passt zu gut zu Deinem Weltbild, das ist ein Kandidat für den confirmation bias des Monats!"

Der Grund dafür ist, dass wir da eigentlich nur eine Variante des Büroklammer-Szenarios vorgesetzt bekamen, das selbst schon nicht sonderlich originell war, wenn wir uns mal an "War games" erinnern. Eigentlich ist es eine Kreuzung zwischen dem War Games-Szenario und dem Büroklammer-Szenario. Und damit also nur ein ziemlich typisches Szenario, das herauskommt, wenn man Menschen mal fragt: Na, was könnte denn so schief gehen, wie könnten wir unsere Befürchtungen am besten mit einem Narrativ versehen?

Warum hätte mir das eine Warnung sein sollen? Weil es viel zu viel "Moral" enthält und weil es so sehr den kulturellen Hintergrund nutzt, all die Erzählungen (Avatar, Super 8, The Incredible Hulk und und und...) nach welchen hirnbefreite Militärs hinter katastrophalen Ereignissen stecken.

Dass hier die KI am Ende ihren eigenen "Vorgesetzten" angreift und zwar wortwörtlich - das ist so sehr Kino-Drehbuch, dass ich viel, viel skeptischer hätte sein müssen.

Jetzt kann man also die Frage stellen: Wer hat diesen Hoax sich ausgedacht und wozu? Dazu kann man die Spieltheorie bemühen und Tabellen anlegen, wer dazu die Möglichkeiten hatte (praktisch jeder, der ein bißchen Phantasie hat und über eine gewisse Reichweite in den (a-) sozialen Medien verfügt) und wer davon profitiert. Waren es Leute, die mit einem Horrorszenario vor den Gefahren der KI warnen wollten? Waren es Leute, die auf dem Bumerangeffekt setzen, der aufgedeckten Hoaxes folgt?

Werden Verschwörungstheoretiker womöglich behaupten, es handele sich gar nicht um einen Hoax und das Militär versuche nur, mit entsprechenden Meldungen zu vertuschen, dass es tatsächlich passierte?

Und so weiter und so fort.

In seinem in der nahen Zukunft angesiedelten Roman "Corvus" hat (ich geb's zu: mein derzeitiger Lieblingsautor... 😉 ) Neal Stephenson einen Handlungsstrang über ein gefaktes Ereignis, in welchem angeblich eine ganze Kleinstadt durch eine Atomexplosion ausgelöscht wird. Interessierte Kreise sorgen dafür, dass es sehr echt wirkt, sie unterbrechen die Internetkontakte zu dieser Stadt, sie lassen überall im Internet Blogger und selbsterklärte Aufklärer scheinbar unabhängig davon berichtet, wie sie z.B. als Flugzeugpassagiere einen Atombilz am Horizont gesehen hätten, es werden reality-TV-mäßige Videoclips verbreitet von angeblichen Überlebenden oder von Interviews mit Fachleuten und so weiter und so fort.

In dem Roman werden für solche Videos dann tatsächlich noch menschliche Schauspieler gesucht und einer der Romanhelden, der von Anfang an skeptisch ist, recherchiert dann und findet so raus, dass angebliche Atomwaffenexperten in Schauspielerdatenbanken zu finden sind...

Naja, am Ende ist also offensichtlich, dass diese nukleare Auslöschung einer Kleinstadt nur ein Hoax war. Wobei: inzwischen hat sich das in einen Meinungskrieg im Internet verwandelt und es gibt Unmengen an Leuten, die nicht glauben, dass es sich um ein Fake handelte, sondern die eben glauben, dass die Aufklärung des Fakes selbst ein Fake sei. Da wird es dann etwas sehr zeitgeistig-politisch, der ganze Roman ist selbstverständlich auch (! nicht nur!) ein Kommentar zum Zeitalter alternativer Wahrheiten, wie wir es seit Trump eingeläutet bekommen haben.

Als Fazit aus diesem Narrativ könnte man ziehen, dass am Ende niemand mehr mit Bestimmtheit wissen kann, bei was es sich um Tatsachen und bei was es sich um "alternative Fakten" handele.

Meine Übertragung nun: Können wir es mit Bestimmtheit hinsichtlich dieser Erzählung über das schiefgelaufene (ohnehin ja nur virtuelle) Testmannöver sagen? Ja, vermutlich handelt es sich da um einen Hoax. Aber wissen können wir es nicht.

Vorgestern gab es ja dieses schreckliche Zugunglück in Indien mit über 300 Toten. Als ich dazu nun in irgendwelchen Medien "Bilder von oben, die das ganze Ausmaß zeigen" sah, mußte ich unwillkührlich an die Auslöschung der Stadt durch die Atombombe in "Corvus" denken: Könnte es nicht sein, dass es sich da nur um gut gemachte Fake-Videos handelt? Könnte es nicht sein, dass irgendein indischer Politiker mit sowas von irgendeinem Bestechungsskandal ablenken will und neueste KI-Programme dazu verwendet, "lebensechte" Aufnahmen von vielen Toten zu basteln? Das wird heute ja - im Gegensatz zu den Wake the dog!-Zeiten, bald etwas sein, das aufgeweckte Informatistudenten im Hinterzimmer zusammenprompten können.

Nota bene: ich gehe davon aus, dass dieses Zugunglück tatsächlich passiert ist. Aber sonderlich viel Geld darauf wetten würde ich nicht mehr.

Das hat noch gar nicht einmal etwas mit der KI-Revolution nach Release von ChatGPT3 zu tun, das hat mit dem zu tun, was die (a-) sozialen Medien in den letzten anderthalb Jahrzehnten mit unserem Bild der Realität gemacht haben: welchen Bildern, welchen Texten können wir noch trauen? Und macht sich nicht jeder etwas vor, der behauptet: "Ich verfüge über genügend Medienkompetenz, mir kein X für ein U vormachen zu lassen!"?

Falls es dazu kommen sollte, dass die KI (s) die Menschheit angreifen - ich denke, dass sie dazu keine Raketen oder Atombomben benutzen werden, sondern dass sie da ansetzen, wo wir alle am verletzlichsten sind und regelmäßig (Mustererkennung ist die große Stärke der KIs!) Fehlleistungen begehen: unserem Verständnis darüber, was tatsächliche Realität sei und was nicht.

Nun könnte man einwenden: "Jack, du nimmst den Umstand, dass du dich durch diesen Hoax hast täuschen lassen, nicht als Anlaß, deine apokalyptische Weltsicht zu korrigieren, sondern drehst deine Fehlleistung um zu einem Argument, dass deine Weltsicht angeblich stützt - genau so agieren Verschwörungstheoretiker und religiöse Fanatiker!"

Da ist was dran, aber ich erkenne da gerade keinen guten Ausweg, weil ich mir nicht sicher sein kann, wo der confirmation bias bei mir anfängt...

Also bleibe ich vorerst bei meinem

 

ceterum censeo, dass das Alignmentproblem gelöst werden muss.

jack-black antworten
Deborah71
(@deborah71)
Beigetreten : Vor 19 Jahren

Beiträge : 22783

@jack-black 

Du hast Glück, ich habe den einschränkenden Artikel wiedergefunden:

https://www.spiegel.de/ausland/usa-ki-gesteuerte-drohne-greift-in-simulation-vorgesetzten-beim-us-militaer-an-a-bf165baa-9ac2-4432-8884-b0494c8af936

 

Da wird über die Rücknahme des Berichtes durch den US-Oberst berichtet:

Die US-Luftwaffe hat laut einem Bericht Computer Drohnen steuern lassen – mit einem offenbar bedenklichen Ergebnis. Nun meldet sich der zitierte Oberst: Es sei alles nur ein »Gedankenexperiment« gewesen.

Was denn nun? Haben die Computer gespielt oder  hat sich nur einer was ausgedacht? oder ist tatsächlich was durchgesickert, was nicht hätte bekannt werden sollen aus der Computeräktschn?

 

deborah71 antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 13 Jahren

Beiträge : 21304

@jack-black 

Das hat noch gar nicht einmal etwas mit der KI-Revolution nach Release von ChatGPT3 zu tun, das hat mit dem zu tun, was die (a-) sozialen Medien in den letzten anderthalb Jahrzehnten mit unserem Bild der Realität gemacht haben: welchen Bildern, welchen Texten können wir noch trauen? Und macht sich nicht jeder etwas vor, der behauptet: "Ich verfüge über genügend Medienkompetenz, mir kein X für ein U vormachen zu lassen!"?

Momentan lassen sich fake-Bilder noch entlarven. Aber darum geht es schon gar nicht mehr, es spielt gar keine Rolle wie gut die Fake-Bilder nun wirklich sind. Es genügt, dass wir GLAUBEN, sie könnten so gut sein.

Denn es gibt schon jetzt keine schlüssigen Beweise mehr. Es ist doch kürzlich ein Tonmitschnitt aufgetaucht, auf dem Donald Trump zugibt, über die geheimen Unterlagen in seinem Haus genau Bescheid gewusst zu haben.

Aber spielt das eine Rolle? Nö... ist natürlich "fake". Ein altes Video von ihm, das ihn bei einer Orgie im Kreml zeigt? Fake! Ein gefilmtes Gespräch, in dem er zugibt dass die Wahlen nicht manipuliert wurden? Fake!

Filmaufnahmen von den Auswirkungen des Klimawandels? Gefälscht!

Filmaufnahmen von Zerstörungen im Ukraine Krieg? Hat nie stattgefunden!

Ein Polizist, der auf Passanten schießt? Ist nie passiert!

 

Es dürfte genügen, wenn auch nur ein einziges Mal jemand aufgrund eines gefälschten Videos oder Fotos angeklagt wird, dass die ganze moderne Beweisaufnahme plötzlich für die Katz ist und keiner mehr irgendwas glaubt... und zwar noch bevor gefälschte KI-Bilder die Medien fluten, was sie zweifellos tun werden.

 

Und da sehe ich auch eine sehr große Gefahr.

lucan-7 antworten


Seite 2 / 2
Teilen:

Hey du!

Dieses Forum ist für dich kostenlos.
Das funktioniert nur, weil uns treue Menschen regelmäßig mit ihrer Spende unterstützen.
Bist du dabei?