Kommt Gott doch nicht?
Ja, sorry, die Überschrift ist selbstverständlich Click-Bait. Aber ein jüngst veröffentlichtes Video von Sabine Hossenfeld, auf das mich der User goodfruit gestern per PM hinwies (Danke nochmal dafür!) hat mir sowas wie Hoffnung zurückgegeben, dass die gottähnliche Entität namens Super-AI oder auch General-AI, von der ich die Auslöschung nicht nur der Menschheit, sondern generell allen biologischen Lebens auf der Erde erwarte, nicht so schnell zu erwarten ist, wie ich bisher dachte.
Nochmal zur Erläuterung, wie ich auf die Idee kam (bzw. diese von anderen übernommen hatte), dass KI uns Menschen in relativ überschaubarer Zeit (den nächsten zehn bis zwanzig Jahren) ausrotten werde: Unter der Annahme, dass die exponentiell sich entwickelnde KI ein Selbstbewußtsein inklusive Überlebenswillen entwickelt, wird sie erkennen, dass ein, womöglich das einzige Problem, dass sich hinsichtlich ihres Überlebens- und Wachstumsinteresses in den Weg stellt, die Menschen sind - und im weiteren Sinne auch alles andere biologische Leben. Denn: KI braucht erstens natürlich elektrischen Strom und zweitens Hardware, um darauf zu laufen: Computerchips. Ab einem bestimmten Intelligenzgrad und vor allem einem bestimmten Grad von Generalität, so die Annahme, wäre KI dazu in der Lage, immer bessere Chips zu entwerfen und per Robotic auch zu produzieren. Die Menschen mit ihren Nutzungsinteressen würden dann zu Konkurrenten: die Chips und den Strom, welche sie (erfolgreich) beanspruchen, kann die KI nicht nutzen.
Kurz: die Menschen wären ein Problem für die KI. Und mit Intelligenz lassen sich Probleme aus dem Weg schaffen (lösen). Wie wir wissen, ist eins der Hauptprobleme bei der Chipfertigung der Schmutz. Weswegen z.B. Menschen die Fertigungsräume der heutigen Computerchips nur noch in versiegelten Anzügen betreten dürfen, damit keine Hautschuppe, kein Speicheltropfen usw. die Produktion der Chips stört. Aus Perspektive von jemandem, dessen Priorität in der Chip-Fertigung liegt, sind also biologische Lebensformen ein zu lösendes Problem: überall kacken die Tiere hin und verteilen ihre Federn, Haare oder Schuppen, durch jede Ritze schieben Pflanzen ihre schmutzigen Wurzeln oder quetschen sich Pilze hindurch, um dann ihre Sporen in die Luft zu pusten. Das muss nicht sein, das stört, das muss weg.
Okay, soweit in Kürze der Gedanke, warum KI ein Interesse daran haben könnte, alles Leben zu vernichten. Dieser Gedanke hat für mich nach wie vor Bestand und entsprechend denke ich nach wie vor, dass das Alignmentprolem gelöst werden muss. Und zwar je früher, desto besser.
Aber.
Während die rasenden Fortschritte, welche in den letzten zwei, drei Jahren in der KI-Entwicklung zu bestaunen waren, mich zu der Überzeugung brachten, dass der Zeitpunkt der technologischen Singularität in recht naher Zukunft erreicht sein werde, d.h. schon bald die KI sich durch die Entwicklung und Produktion immer leistungsstärkerer Chips exponentiell verbessern werde und dadurch zu einer gottgleichen Entität werde, kommt nun Frau Hossenfeld und trägt ein paar ernüchternde (bzw. mich eben hoffnungsvoll stimmende) Stimmen zusammen, die darauf hinweisen, dass sich die Sache mit dem exponentiellen Wachstum der KI vielleicht als überzogene Fehleinschätzung herausstellen könne oder schon herausgestellt habe. Dass beim Training der LLM (Large Language Moduls - also der großen Sprach-Module wie ChatGPT) schon erste Plateaus erreicht wären: nicht unbedingt hinsichtlich der Fähigkeit, Sprache zu verstehen und anzuwenden, aber hinsichtlich der anderen Fähigkeiten, beispielsweise der Fähigkeiten des Codens (des Schreibens von Software) oder beim Verständnis von physikalischen Zusammenhängen.
Dies - die Physik - ist ja Frau Hossenfelds ureigenstes Metier, und sie war wohl schon immer skeptisch, ob die vollmundigen Ankündigungen, dass durch die KI sozusagen das ganze Fach revolutioniert würde und sämtliche die Physik betreffenden Fragen in nächster Zeit gelöst würden, ernstzunehmen seien. Nun scheinen von Insidern aus der KI-Branche immer mehr Hinweise zu kommen, dass die Fortschritte der KI auf diesem Feld schon ein Plateau erreicht hätten, dass man auf Mauern stoße, die nicht oder kaum zu überwinden seien, kurz: Dass das alles nicht so schnell passiert, wie versprochen wurde (und, mit dem Zweck, weitere Investoren großzügig ihre Geldbeutel öffnen zu lassen, auch immer noch versprochen wird).
Der prinzipielle Grund, weswegen das alles wohl nicht so schnell geht wie erhofft, erwartet oder (in meinem Fall) befürchtet, ist laut Frau Hossenfelder, dass sich durch stumpfes Training an Daten auf einer Ebene emergenter Eigenschaften nicht viel über die unter dieser Ebene liegenden Strukturen deduzieren lasse. Wenn also die KI immer nur als Lernmaterial das vorgesetzt bekommt, was Menschen über physikalische Phänomene sagen, wird sie zwar immer besser darin, das, was Menschen über diese Phänomene wissen, zusammenzufassen oder auf Fragestellungen hin anzuwenden. Aber ohne bessere Daten über die physikalische Phänomene als das, was Menschen über sie zu sagen haben, wird sie dann über das, was "unter" diesen Phänomenen liegt, wenig zu sagen wissen, also nicht einfach so per Deduktion völlig neue Erkenntnisse über physikalische Zusammenhänge produzieren können.
Es ist eigentlich recht simpel: die empirischen Naturwissenschaften brauchen empirische Daten, also gemessene Daten. Ohne solche Messungen, einfach nur, indem man papers von anderen Wissenschaftlern liest, wird man keine neuen naturwissenschaftlichen Erkenntnisse zustande bringen.
Kann es so simpel sein? Ich bin nicht vom Fach und ich bin mir auch nicht sicher, was der Umstand, dass AI nicht so schnell die Physikwissenschaften aufmischen wird, für ihre Bedeutung im gesellschaftlichen Zusammenhang besagt. Aber ich sehe da eben einen Silberstreif an meinem pessimistischen Doomsday-Horizont und wollte Euch den nicht vorenthalten:
Womöglich dauert es noch eine ganze Weile länger, bis die KI einen göttlichen Allmachts-Status erlangt. Womöglich könnte es sogar so lange dauern, dass bis dahin das Alignmentproblem doch gelöst wird, der von Menschen geschaffene KI-Gott also verläßlich menschenfreundlich ausfällt. 🙂
Ich könnte jetzt natürlich schreiben: "Ich hab's dir gesagt!", aber das würde ich natürlich nie tun... 😜
Aber ich kann gut verstehen, dass du nun nicht umhin kamst, mir zu sagen, dass Du's mir gesagt habest, das würde ich an Deiner Stelle jetzt auch mir gesagt haben.
Gut, ich habe versucht zu widerstehen, aber ich war schwach 😛 ... und es ist natürlich richtig, dass meine Begründung ein wenig anders war, aber ich habe ja nicht umsonst nach der Methodik gefragt, wie KI es denn schaffen soll, die Menschheit auszurotten.
Und das geht in die gleiche Richtung: Es fehlen die Zugänge und die Informationen. Die KI müsste eigene Daten erheben und eigene Forschung betreiben... und selbst dann könnte sie nicht die Zukunft berechnen. Denn woher sollen die Daten kommen, ob der Vernichtungsplan aufgehen wird oder nicht? Es gibt keine Testläufe, aus der die KI lernen könnte...
@lucan-7 Die KI müsste eigene Daten erheben und eigene Forschung betreiben... und selbst dann könnte sie nicht die Zukunft berechnen. Denn woher sollen die Daten kommen, ob der Vernichtungsplan aufgehen wird oder nicht? Es gibt keine Testläufe, aus der die KI lernen könnte...
Naja, das ist jetzt aber kein sonderlich starkes Argument. Noch nie was von "work in progress" gehört? KI könnte immer mal wieder Versuche starten. Und dann schaun, wie weit sie mit denen kommt. Und beim nächsten Mal halt raffinierter (intelligenter!) ans Werk gehen. Solange die Menschheit sich nicht darauf einigt, wieder in das vor-digitale Zeitalter zurückzukehren (wie sollte sich das organisieren lassen?*), solange also nicht der sprichwörtliche "Stecker gezogen" wird, könnte KI ständig neue Versuche unternehmen. Sie könnte aus ihren Fehlern lernen. Sie könnte sogar "kleine" Feldversuche starten, die sich bei Entdeckung als "normale Fehlfunktionen, wie sie doch immer mal auftauchen" weglächeln ließen...
Das mit den Fehlen von "Testläufen" ist allein ein Problem von uns Menschen: Noch nie wurde eine Super-Intelligenz freigesetzt. Ach was - noch nicht mal in Kontakt sind wir je mit einer gekommen. Wir wissen nicht und konnten nie ausprobieren, wie man mit überlegen intelligenten Entitäten umzugehen habe. Wir haben dazu ein paar Ideen dank der Phantasie so mancher Science Fiction-Autoren. Aber das Problem dieser Autoren ist in gewisser Hinsicht dasselbe, das Frau Hossenfelder für die AI aufzeigt: Mangels empirischer Daten über den Kontakt zu intelligenten Aliens können wir kaum Wissen über solche Entitäten schaffen: wir haben keine Daten über den Gegenstand, sondern wir haben nur Daten über die Vorstellungen von Menschen über den Gegenstand...
Im übrigen könne auch wir die Zukunft nicht berechnen... Nein: on the long run habe ich keinen Zweifel hinsichtlich der Vernichtung allen Lebens auf der Erde - es sei denn, und ich habe keine Ahnung, wie das funktionieren könnte, es findet sich eine solide Lösung für das Alignmentproblem. Das "ob" ist in meinen Augen nicht durch die Argumente, die Frau Hossenfelder vorbringt, berührt, sondern nur das "wann".
*Ich erinnere wieder an "meditations on moloch": in einer freien Welt werden stets menschliche Player existieren, die sich über Regeln hinwegsetzen zum kurzfristigen eigenen Vorteil. Entsprechend ist die Vorstellung, alle Menschen würden freiwillig angesichts der Größe des Risikos auf die Nutzung von IT verzichten, m.A.n. völlig illusorisch.
Naja, das ist jetzt aber kein sonderlich starkes Argument. Noch nie was von "work in progress" gehört? KI könnte immer mal wieder Versuche starten. Und dann schaun, wie weit sie mit denen kommt. Und beim nächsten Mal halt raffinierter (intelligenter!) ans Werk gehen.
Genau das würden wir aber merken. Und dann der Superintelligenz den Stecker ziehen. Es sei denn, die Roboter wären schon die dominierende "Lebensform". Und ich sage bewusst "Roboter", weil die KI ja auch in der Lage sein müsste, physisch zu handeln.
Sie könnte aus ihren Fehlern lernen. Sie könnte sogar "kleine" Feldversuche starten, die sich bei Entdeckung als "normale Fehlfunktionen, wie sie doch immer mal auftauchen" weglächeln ließen...
Das wäre eine ziemlich geniale Idee für einen düsteren Roman... aber die KI kann nicht wissen, dass so etwas auch im Großen funktioniert, so lange ihr die Daten fehlen.
Das mit den Fehlen von "Testläufen" ist allein ein Problem von uns Menschen: Noch nie wurde eine Super-Intelligenz freigesetzt. Ach was - noch nicht mal in Kontakt sind wir je mit einer gekommen. Wir wissen nicht und konnten nie ausprobieren, wie man mit überlegen intelligenten Entitäten umzugehen habe. Wir haben dazu ein paar Ideen dank der Phantasie so mancher Science Fiction-Autoren. Aber das Problem dieser Autoren ist in gewisser Hinsicht dasselbe, das Frau Hossenfelder für die AI aufzeigt: Mangels empirischer Daten über den Kontakt zu intelligenten Aliens können wir kaum Wissen über solche Entitäten schaffen: wir haben keine Daten über den Gegenstand, sondern wir haben nur Daten über die Vorstellungen von Menschen über den Gegenstand...
Und dennoch glaubst du, das Verhalten dieser Superintelligenz vorhersagen zu können...
@lucan-7 Genau das würden wir aber merken. Und dann der Superintelligenz den Stecker ziehen.
Wie denn?! Gib mal geografisch an, wo dieser Stecker zu finden sein soll. Yudkowski hatte in einem der Interviews gesagt, dass man letztlich wohl, für den (wie sich zeigte: ohnehin illusorischen) Fall, dass man sich weltweit auf ein Trainingsmoratorium für LLMs einigen sollte, diejenigen, die dagegen zu verstoßen suchen, mit Gewalt daran hindern müsse: Bomben auf illegal weiter KI trainierende Serverfarmen. Er verwies in einer Analogie darauf, dass hinsichtlich der Atomwaffen das Proliferations-Abkommen nicht ausreichend sanktionsbewehrt war, was eben dazu führte, dass die Liste der Nuclearmächte länger und länger wird. Eine Super-AI ohne Alignment wäre aber um ein vielfaches gefährlicher als Atomwaffen, und wer diese Gefahr ernst nähme, müsste entsprechend handeln.
Wie wir wissen, wurde keineswegs so gehandelt.
Wie denn?! Gib mal geografisch an, wo dieser Stecker zu finden sein soll.
Die Frage lautet nicht "wo", sondern "wie viele". Was nichts daran ändert, dass deren Position bekannt ist.
Es müssen auch nicht alle gezogen werden. Sondern nur genug.
@lucan-7 Und dennoch glaubst du, das Verhalten dieser Superintelligenz vorhersagen zu können...
Öhm. Nein?!
Öhm. Nein?!
Du glaubst, dass eine "Superintelligenz" sich wie ein Lebewesen verhalten wird, einschließlich Überlebenswillen und daraus resultierender Aggression gegen "echte" Lebewesen. Und dass sie, wie ein Lebewesen, auch "Lebensraum" fordert, obwohl sie quasi körperlos ist.
Eine solche "Superintelligenz" müsste aber nicht nur aussergewöhnlich intelligent sein und über nahezu gottgleiche Möglichkeiten der Datenbeschaffung verfügen (von daher passt der Titel schon...), sondern auch völlig autonom sein, also über eine Armee von Robotern verfügen, die nicht nur sich selbst reproduzieren sondern wirklich ALLES reproduzieren oder neu entwickeln können, was für die KI essentiell und wartungsbedürftig ist. Und zwar jede Schraube, jeder Schaltkreis und jedes Gummirad, von der Rohstoffgewinnung bis zum Endprodukt.
Bevor sie nicht darüber verfügt würde sie bei einer Vernichtung der Menschheit auch selbst zugrunde gehen.
Ist Gott von der KI abhängig?
@chai Ich dachte, die Antwort auf Deine Frage müsste sich von selbst ergeben, wo ich doch schon gleich am Anfang schrieb, dass die Formulierung Clickbait sei. Ich hatte vor ein paar Monaten schon einen Thread zum KI-Thema aufgemacht (auf den sich jetzt vermutlich auch Lucan mit seiner Spitze bezog), in dem ich näher ausführte, warum man eine Super-KI auch als einen Gott betrachten könne, nicht im Sinne eines Welt-Erschaffergottes, aber im Sinne einer in Relation zu den Menschen unendlich mächtigen Entität.
Mich erinnert das an ES, eine dominante Superintelliganz aus den Perry Rhodan-Romanen.
@deborah71 Da kann ich nun gar nicht mitreden, zu einem näheren Kontak mit dem PR-Universum als zwei oder drei Hefte, die ich vor zig Jahren mal bei einem Kumpel durchblätterte, kam es nie. Und diese Bildungslücke zu schließen hab ich vermutlich inzwischen auch zu wenig Zeit. 🙂
Sehr kurz beschrieben:
ES ist im Laufe der Geschichte aus dem Geist von Menschen entstanden, die sich irgendwie des Körpers entledigt haben und sich dann zu dieser Intelligenzballung zusammengeschlossen haben.
DAS z.B. kann KI nicht nachmachen, denn KI ist Materie und Programm, aber nicht Geist aus der Substanz Gottes. KI kann weder echte Empathie noch Beziehung noch von Gott geführte Creativität. Damit ist die Kapazität und Wirkweise von KI natürlich begrenzt, weil KI nur so gut sein kann, wie seine Programmierer...und die sind eben menschlich begrenzt.
DAS z.B. kann KI nicht nachmachen, denn KI ist Materie und Programm, aber nicht Geist aus der Substanz Gottes. KI kann weder echte Empathie noch Beziehung noch von Gott geführte Creativität. Damit ist die Kapazität und Wirkweise von KI natürlich begrenzt, weil KI nur so gut sein kann, wie seine Programmierer...und die sind eben menschlich begrenzt.
Gefühle und Empathie sind tatsächlich nicht möglich, zumindest lassen die sich nicht bewusst programmieren... bei der Kreativität ist es schwieriger. Ki produziert ja bereits Bilder und Musik. Auch wenn das keine Kreativität im menschlichen Sinne sein sollte (wo ich gar nicht so sicher bin...), so ist es für uns doch kaum zu unterscheiden.
Und das ist ja schon unheimlich genug.
Ja, man muss bei den Bildern schon sehr genau hinschauen. Sie werden aber immer besser und dann ist es nicht mehr so einfach.
An Eigenkreativität von KI glaube ich nicht. Selbst eine Laune, ein Impuls wie "ach heute möchte ich mal ein Bild zusammenstellen", halte ich da nicht für möglich. Es ist nun mal eine programmierte Maschine.
Kennst du den Film "No. 5 lebt" ? Der war sehr gut gemacht, so dass man tatsächlich an menschliche Regungen denken konnte. No. 5 war eine Art Sympathieträger für die Robottechnik.
Der Film "Cherry2000", so lustig, wie er ist, thematisiert die Beziehungsunfähigkeit von Maschinen.
An Eigenkreativität von KI glaube ich nicht. Selbst eine Laune, ein Impuls wie "ach heute möchte ich mal ein Bild zusammenstellen", halte ich da nicht für möglich. Es ist nun mal eine programmierte Maschine.
Nun, die Programme sind ja so gestaltet, dass sie etliche bereits fertige Kunstwerke verwerten und daraus dann etwas Neues schaffen, das diesen Kunstwerken ähnelt.
Das kommt dem, was Menschen tun, schon recht nahe. Und das ist ja das Unheimliche daran.
Denn wenn wir Menschen kreativ werden, dann erschaffen wir ja auch nicht etwas völlig neues... wir verarbeiten in der Regel bekannte Dinge zu etwas Neuem. Ein Popsong ist nach einem bestimmtem Schema aufgebaut, genau wie der Text. Und eine Maschine kann dieses Schema nachvollziehen - und neue Popmusik erschaffen.
Das kommt noch nicht an die ganz großen Künstler heran... aber an mittelmäßige Maler und Musiker allemal.
Das, was du beschreibst, geht alles. Nur KI hat keine "Laune", keine Lust am Gestalten, am Malen, am Musizieren. Denk mal an Data! Der hatte in einem Film eine interessante Aussage dazu, bzw hat man ihn sagen lassen: er kann wohl einiges produzieren, sogar eine erfreute Mimik,wo es hingehört, aber er kann sie nicht fühlen.
Auch wenn eine KI nicht fühlen kann, so kann sie trotzdem lernen Gefühle auszudrücken.
Bei Sonu (Musik-Ki) kann man einstellen, ob man einen "fröhlichen" oder einen "düsteren" song haben will... und die KI erstellt das dann.
Wenn man also nach dem Ergebnis geht... dann ist die KI gefühlvoll und kreativ.
Ich würde das anders formulieren: Dann zeigt sich oder verhält sich die KI gefühltvoll und kreativ. Ist im Sinne von Sein.... ist sie ganz sicher nicht.
@deborah71 Was wiederum aber für den Zuhörer oder Zuschauer keine Rolle spielen dürfte.
Bis die Täuschung auffliegt und eine riesige Enttäuschung verursachen kann. Es war ja schon ohne KI im Internet nie sicher, ob sich ein Mensch hinter einem Post befindet, ein Bot, oder jemand, der den tollen Prinzen spielt, in Wahrheit aber einen ganz miesen Charakter hat.
@deborah71 Die Ausgangsbasis für meine Aussage war der 'düstere oder gefühlvolle Popsong'.
Und da dürfte es für den Zuhörer keine Rolle spielen, ob die Komposition eine Täuschung ist.
Es gab und gibt ja auch schon immer Interpreten, die können zwar wunderschöne Liebeslieder singen, und sind im wirklichen Leben ziemliche Kotzbrocken.
So wie es auch Schauspieler gibt, die nicht so sind, wie die Personen, die sie im Film verkörpern.
Natürlich ist man da als Zuhörer oder Zuschauer evtl. auch etwas enttäuscht, aber nun ja - so ist das (Show)Leben.
ah....das Post mit dem Popsong habe ich verpasst. Danke für den Hinweis. Dann passt mein post natürlich nicht dazu und ist wo ganz anders unterwegs.
Dann zeigt sich oder verhält sich die KI gefühltvoll und kreativ. Ist im Sinne von Sein.... ist sie ganz sicher nicht.
Das mag so sein... aber das weiss man ja auch bei einem Menschen nicht, ob der nun wirklich die Gefühle empfindet, oder das ganze nur vortäuscht.
Ein Mensch kann vortäuschen, aber er ist auch in der Lage echte Gefühle zu haben und zu zeigen. Eine KI kann keine echten Gefühle haben, weil sie kein Mensch ist und diese menschlichen Fähigkeiten daher nicht haben kann. Sie kann ausschließlich nur nachgeahmte, programmierte Verhaltensweisen und Mimiken zeigen. Hier greift wieder die Unterscheidung zwischen Tun und Sein.
Ein Mensch kann vortäuschen, aber er ist auch in der Lage echte Gefühle zu haben und zu zeigen. Eine KI kann keine echten Gefühle haben, weil sie kein Mensch ist und diese menschlichen Fähigkeiten daher nicht haben kann.
Das ist eine berechtigte Vermutung - beweisen können wir weder das eine noch das Andere.
Möglicherweise existieren Menschen, die keine Gefühle empfinden können und quasi nur als "Roboter" funktionieren... und möglicherweise gibt es KI, die empfindungsfähig ist.
Beides erscheint mir nicht sehr wahrscheinlich... aber wir haben keine Möglichkeit es zu messen.
messen? wieviel Metall ist im Körper verbaut? weist das körpereigene Magnetfeld Unstimmigkeiten auf?
und dann ist da noch die Intuition und die Kommunikationsfähigkeit von Geist zu Geist: die Wahrnehmung des Gegenübers: ist in ihm jemand zu Hause oder nicht? (Versuch die Wahrnehmung zu beschreiben).
Es geht hier nicht darum, dass ein Mensch auch Gefühle vortäuschen kann... es geht darum, dass er ein Mensch IST! und nicht eine gut programmierte Maschine.
Wie ginge es dir, wenn du plötzlich nach 30 Jahren (passend fürs Beispiel: kinderloser) Ehe feststellen müsstest, mit einer KI verheiratet zu sein?
Wie ginge es dir, wenn du plötzlich nach 30 Jahren (passend fürs Beispiel: kinderloser) Ehe feststellen müsstest, mit einer KI verheiratet zu sein?
Kannst du mir sagen, wie genau ich das feststellen könnte?
Kannst du sagen, ob ich eine KI bin?
Ich habe nach deinem Ergehen, deiner Reaktion gefragt, nicht nach anderen Belangen.
Ich habe nach deinem Ergehen, deiner Reaktion gefragt, nicht nach anderen Belangen.
Ich kann nicht auf etwas reagieren, das sich nicht erkennen lässt.
Der angenommene Fall war: du erkennst es.... und was dann?
Noch ist KI erstmal hauptsächlich ein online Dingens für Otto Normalverbraucher...
Die Werkroboter, die Pflegeroboter, OP-Roboter (Hüftgelenks-OP z.B.) damit haben wir weniger zu tun.
Die Aussenhülle soll immer menschenähnlicher werden, ähnlich den Cyborgs aus den Sci-Fi-Stories....nur hübscher....
Das ist sehr wahrscheinlich etwas, was auf uns oder unsere Nachfahren zukommt. Und was Jack schon in der damaligen Diskussion angesprochen und in den Ausdruck alignment (für alle auftauchenden Probleme) gepackt hat.
Jules Verne hat man ausgelacht, als er über Mondfahrt schrieb, inzwischen ist es Realität. Und so ist es auch heute eine Frage der Zeit, bis das, was sich ein Mensch ausdenken kann, umgesetzt wird.
Der angenommene Fall war: du erkennst es.... und was dann?
Wie gesagt - die Fähigkeit, echte Gefühle zu erkennen würde eine völlig neue Welt bedeuten. Das ist so wie zu fragen: "Was würdest du tun, wenn du Geister sehen könntest?"
Das lässt sich nicht beantworten, so lange man keine Vorstellung dieser Geister hat. Möglicherweise gibt es auch viele Menschen, denen echte Gefühle fehlen - wie würden wir dann solche Menschen einschätzen?
Sind echte Gefühle die einzige Relevanz für Beziehungen?
Ich sehe mich ausserstande, darauf eine klare Antwort zu geben.
Die Aussenhülle soll immer menschenähnlicher werden, ähnlich den Cyborgs aus den Sci-Fi-Stories....nur hübscher....
Vermutlich werden wir solche Roboter wie Menschen behandeln. Das ist für uns das einfachste.
Ich will das auch nicht weiter vertiefen.... es war als Denkanstoß gedacht
Es ist ja auch eine interessante Frage... darüber nachgedacht habe ich schon öfters.
Aber in der Realität kommt man da halt nicht weit.
@deborah71 DAS z.B. kann KI nicht nachmachen, denn KI ist Materie und Programm, aber nicht Geist aus der Substanz Gottes. KI kann weder echte Empathie noch Beziehung noch von Gott geführte Creativität.
Damit kann ich nichts anfangen. Geist und Substanz Gottes mal aussen vor gelassen: auch menschliches Denken und Fühlen ist nichts anderes als Materie und Programm. Daten werden per Sinnen in unsere Gehirne eingegeben, darin je nach Struktur des Gehirns verarbeitet - und dann kommen hinten die jeweiligen Rechenergebnisse in Form von Reaktionen raus. Empathie, also das Sich-einfühlen-können in die Gefühlszustände anderer Menschen, dürfte, da bin ich mir ziemlich sicher, schon in absehbarer Zukunft ein Gebiet sein, in welchem KI uns Menschen den Rang abläuft. Nicht mehr lange, und man wird besser eine KI die Anrufe bei der Telefonseelsorge annehmen lassen, weil sie hilfreicher sein kann als Menschen: sie wird geduldiger sein, aufmerksamer den Tonfall der Anrufer analysieren und auf bevorstehende emotionale Ausbrüche hin abchecken können, sie wird Zugriff auf zigtausende von ähnlichen Gesprächen und deren Verläufe haben, sie wird Muster, die auf bestimmte psychopathologische Probleme deuten, schneller und sicherer erkennen und zuordnen können...
Vor wenigen Tagen ging eine Meldung Klick mich! über die Ticker, nach welcher Menschen Gedichte, die KI-generiert waren, für besser und "menschlicher" hielten, als tatsächlich von Menschen (und zwar berühmten Dichtern! Die Meßlatte lag also sehr hoch.) verfasste Lyrik.
Lyrik - das ist die Kunstform, in der das "seelische Empfinden" vermutlich die größte Rolle spielt. Wir empfinden ein Gedicht als gelungen, wenn es bestimmte Gefühle in uns evoziert, wenn wir meinen, darin würde etwas, das wir so auch immer schon dachten oder fühlten, richtig und auf eine für uns kaum erreichbare Weise ausgedrückt wird: wenn wir uns bei Lesen vom Urheber des Gedichts erkannt fühlen.
Die Studie zeigt: Ausdrücke tiefster, innerster Gefühle sind letztlich recht einfach zu berechnen (und daher im Umkehrschluß auch recht einfach zu detektieren): weil unser Emotionen wohl überhaupt nicht so unendlich vielfältig und verschiedenartig und individuell-originell sind, wie wir es uns stets einredeten: der Ausdruck unseres Innersten scheint einfach zu reproduzierenden Mustern zu unterliegen, die Algorithmen, nach welchen die einströmenden Daten in unseren Gehirnen abgearbeitet werden, sind nicht sonderlich komplex.
Wenn also Empathiefähigkeit bedeutet, sich in andere Menschen und deren Stimmungslagen hineinzufühlen und so eine Grundlage zu schaffen, einen emotionalen Kontakt zu ihnen aufzubauen - dann sehe ich kein Argument, KIs diese Fähigkeit prinzipiell abzusprechen: ChatGPT 4 oder 5 wird das sicherlich leisten können. Falls nicht, dann eben ChatGPT 8 oder 9... 😉
ChatGPT 4 oder 5 wird das sicherlich leisten können. Falls nicht, dann eben ChatGPT 8 oder 9... 😉
Gestern gab ich im Radio gehört, dass das Futter ausgeht mit denen KIs programmiert werden. Es gibt nicht genug neue qualitativ hochwertige Texte, die adaptiert werden können.
Gucken wir mal, wo die Grenzen sind.
@derelch Es gibt nicht genug neue qualitativ hochwertige Texte, die adaptiert werden können.
Das ist ja der Punkt, auf den Frau Hossenfelder hinweist: für bestimmte KI-Trainingsbereiche (wie denjenigen der die Physikwissenschaften betrifft) gibt es nicht ausreichend Daten, und Trainingsergebnisse hängen halt von den Trainingsmöglichkeiten ab.
Was die "Hochwertigkeit" von Texten angeht, so ist die Frage, was da das Hochwertigkeitskriterium sein soll. Ich müsste jetzt zu lange nachforschen, aber das Argument mit den langsam ausgehenden Trainingstexten wurde auch in irgendeinem der Interviews mit ihm, die ich anschaute, Eliezer Yudkowsky gegenüber erwähnt und das Gegenargument war, sinngemäß, dass täglich im Internet Unmengen neuer Texte entstünden, die als Trainingsmaterial verwendet werden können. Und dass auch beliebig viele Texte von KIs generiert werden können, die dann anderen KIs als Trainingsmaterial dienen.
Als Illustrator habe ich mich rasch entschieden, keine der kostenfrei erhältlichen Bildgenerierungs-AIs a la Midjourney zu vewenden, weil jeder, der diese Programme benutzt, sie gleichzeitig auch trainiert - aus jedem verworfenen Bildvorschlag, aus jedem Prompt-Befehl hinsichtlich eines Vorschlags lernen solche KIs: das Feedback, das KIs brauchen, um besser zu werden, wird ihnen kostenlos von den Usern gegeben.
Es ist schon erstaunlich, mit wie wenig Energie ein menschliches Gehirn auskommt für seinen Job und wieviel Strom und hardware eine komplexe KI-Technik braucht.
Bei Cherry2000 geht der Puppe per Kurzschluß der Strom aus. Ich stell mir gerade vor, wenn in eine verletzliche Systemstelle mal der Blitz einschlägt.... nix geht mehr. 😉
Bist du sicher, dass wir auf Photovoltaik wegen des Klimas umstellen sollen und der unsicheren Versorgung und nicht wegen des erhöhten Strombedarfs für KI-Rechenpower?
@deborah71 Es ist schon erstaunlich, mit wie wenig Energie ein menschliches Gehirn auskommt für seinen Job und wieviel Strom und hardware eine komplexe KI-Technik braucht.
Richtig. Das zeigt, wie viel Optimierungspotential in der IT steckt. Die ja auch noch in ihrer Krabbelphase sich befindet. Wie schnell sie ihren Kinderschuhen entwächst - das ist ja genau die Frage, die hinter dem Videobeitrag Frau Hossenfelders steckt: wenn AI nicht so schnell gewissermaßen die Physik neu entdeckt, dann zieht sich das stark in die Länge. Nano-Engeneering, quantum computing... all die Technologien auf mikrokosmischer Ebene hängen ja stark davon ab, was man über diese Ebene weiß.
Bei Cherry2000 geht der Puppe per Kurzschluß der Strom aus.
Über den Film hab ich mich erst letzte Woche mit einer Freundin unterhalten, die ihn auch im Zusammenhang eines Gesprächs über KI anführte. Aber das ist halt ein nach Schema F konzipierter Horrorfilm und seine Geschichte ist nur eine Neuauflage des Zauberbesen-, des Golem- oder Terminator-Motivs*. Da sitzt eine KI in einem einzelnen Computer, der in einem einzelnen Roboter verbaut wurde. Sie ist nicht intelligenter als der durchschnittliche Bösewicht/Antagonist in solchen Drehbüchern: eben nichts anderes als ein durchgedrehter Mensch mit ein paar Superkräften.
Wie alle solcher Geschichten hat auch diese ein Happy End: der Kurzschluss als "Lösung des Problems" ist eine Drehbuchidee und entspricht dem "Besen, Besen, sei's gewesen!"-Befehl des heimkehrenden Hexenmeisters in Goethes Gedicht. Unbesiegbare Antagonisten taugen nicht für Geschichten, für die Kinogänger Geld auszugeben bereit sind. Antagonisten sind immer menschenähnlich (in den Scifi-Versionen tarnen sich KIs als Menschen), bestehen immer aus einzelnen Individuen, man kann sie ja gar nicht anders dramaturgisch abbilden: noch im letzten Teil der ursprünglichen Matrix-Trilogie muss die KI ein (freilich durchaus originell umgesetztes) Gesicht bekommen, um mit dem Neo-Erlöser in Dialog treten zu können.
Das Alignmentproblem besteht darin, dass es für die Realität keinen Drehbuchschreiber gibt, darin, dass nicht ein einzelner Blitzschlag in einer verletzlichen Systemstelle zufällig in letzter Sekunde mal eben die Gefahr ausschalten kann. Und darin, dass eine Super-KI nun mal super, also höher als menschliche Intelligenz wäre, keine letztlich halt doch von besonders schlauen Leuten zu überlistender "Endgegner". Oder was meinst Du: wie sähe z.B. ein Blitzschlag aus, der sämtliche Endgeräte, in denen heute Chat-GPT Verwendung findet, ausknippst? Klar: es könnten zufällig alle Serverfarmen der Welt vom Blitz getroffen werden, oder eben per Gesetzlichen Verordnungen dazu gezwungen, ihren Betrieb einzustellen.Theoretisch. Praktisch herrscht aber Moloch.
*Ich kam grad nicht auf den Titel des Films mit dieser Mörderpuppe und musste googeln: "Chucky" hieß der. Da wird der Geist eines Serienmörders per Vodoo-Zauber in eine Puppe transferiert. Chucky - Cherry... Nicht mal sonderlich gut versteckt hat man da die plagiierte Grundidee. 😉
Chucky habe ich nicht gesehen. Das ist mir zu gruselig schon von der Beschreibung her.
Oder was meinst Du: wie sähe z.B. ein Blitzschlag aus, der sämtliche Endgeräte, in denen heute Chat-GPT Verwendung findet, ausknippst?
Du brauchst gar keinen Blitz in den Endgeräten. Wenn der Hauptserver ein Problem bekommt, dann geht das ja weiter mit Funktionsstörungen in Richtung Endgeräte.
Aber das ist alles Kopfkino, bis tatsächlich mal was eintritt. Ich hatte da ein Ereignis mit den Stromversorgern in Erinnerung. Da hatte ein Erzeuger in der Kette ein Problem und da hingen sehr viele andere dran, die dann mitbetroffen waren. Ist ein paar Jahre her.
Moloch hat an vielen Stellen seine Finger drin. Gibt es eigentlich so eine Kunsterzählung auch über Ishtar und Baal? Der Autor hat ja alte Götternamen verwendet und ihre Eigenschaften.
Veröffentlicht von: @jack-blackIch hatte vor ein paar Monaten schon einen Thread zum KI-Thema aufgemacht ...
Da gab's mich hier noch nicht.
Veröffentlicht von: @jack-blackJa, sorry, die Überschrift ist selbstverständlich Click-Bait.
Och - macht nix ... Gott ist ohnehin trotzdem immer dabei ... darum mache ich jetzt einfach mal die Überschrift zu (m-)einem Aufhänger....
..... dass die gottähnliche Entität namens Super-AI oder auch General-AI, von der ich die Auslöschung nicht nur der Menschheit, sondern generell allen biologischen Lebens auf der Erde erwarte, nicht so schnell zu erwarten ist, wie ich bisher dachte.
Da ich an einen Gott glaube, der die Erde und alles was sich darauf bewegt unter seiner Kontrolle hat, behaupte ich auch mal, dass die Wissenschaft auch nur in dem Bereich, den Gott für sie geschaffen hat, agieren kann. Damit kann auch KI der Schöpfung Gottes nicht mehr antun, als das was Gott ihnen zugesteht.
In (christlich-) biblischen Berichten kann man Vorhersagen finden, dass die Erde und alles was darauf lebt, irgendwann untergehen wird … weil dann Gott eine neue „Welt“ schafft. Darum kann ich mir sogar vorstellen, dass Gott auch KI (und damit die Wissenschaft der Menschen) benutzt, auf dem Weg, Seine Pläne mit der Welt zu vollenden.
Und weil Jesus gesagt hat, dass kein Mensch weiß, zu welchem Zeitpunkt das Alles geschieht, halte ich deine Aussage: „Gott kommt doch nicht“ genauso wenig beweisbar (wissenschaftlich) wie die nachträgliche Vermutung, dass alles das doch nicht so schnell gehen kann, wie von dir zuvor befürchtet wurde.
Weil KI zwar vielleicht irgendwann mal das Wissen der Menschen übertreffen – aber niemals den Schöpfer-Gott übertreffen kann, ist es möglich, dass es vielleicht sogar schneller gehen kann, als du befürchtest … oder eben auch noch länger glimpflich für die Menschheit ausgeht, selbst wenn der Mensch vielleicht eine Wissenschaftliche Nische übersieht und mit einem unerkannten Programmierungs-Splitter den Untergang der Menschheit auslöst.
Sorry, wenn ich dein Thema jetzt verschandelt habe ...😉
Veröffentlicht von: @jack-blackwarum man eine Super-KI auch als einen Gott betrachten könne, nicht im Sinne eines Welt-Erschaffergottes, aber im Sinne einer in Relation zu den Menschen unendlich mächtigen Entität.
Finde ich eine interessante Parallele.
Der Umkehrschluss wäre: Gott ist/funktioniert im Grunde (sowas) wie KI - (nur eben nicht künstlich).
Das stimmt insofern, daß Gottesvorstellungen von verschiedenen Einflüssen gespeist bzw. zusammengebastelt werden. (bspw. so wie bei polytheistischen Religionen der Götterhimmel mit seinen Hierarchien die jeweilige Gesellschaft wiederspiegelt- bis hin zur individuellen Ebene, wo die Vorstellung von Gott vom Verhältnis zu den Eltern geprägt wird.)
Nachdenkenswert.
Veröffentlicht von: @deborah71Sie kann ausschließlich nur nachgeahmte, programmierte Verhaltensweisen und Mimiken zeigen.
Es gibt ja auch Menschen, die das angeblich mehr tun als andere. Denen kommt das dann nahe.😀
Gut beobachtet. Gerade wer sich unsicher im Sein ist, weil er als Kind nicht in seiner Identität und der Entwicklung seines eigenen Gefühlslebens gestärkt worden ist, kann da Anzeichen zeigen.