Kommt Gott doch nicht?
Ja, sorry, die Überschrift ist selbstverständlich Click-Bait. Aber ein jüngst veröffentlichtes Video von Sabine Hossenfeld, auf das mich der User goodfruit gestern per PM hinwies (Danke nochmal dafür!) hat mir sowas wie Hoffnung zurückgegeben, dass die gottähnliche Entität namens Super-AI oder auch General-AI, von der ich die Auslöschung nicht nur der Menschheit, sondern generell allen biologischen Lebens auf der Erde erwarte, nicht so schnell zu erwarten ist, wie ich bisher dachte.
Nochmal zur Erläuterung, wie ich auf die Idee kam (bzw. diese von anderen übernommen hatte), dass KI uns Menschen in relativ überschaubarer Zeit (den nächsten zehn bis zwanzig Jahren) ausrotten werde: Unter der Annahme, dass die exponentiell sich entwickelnde KI ein Selbstbewußtsein inklusive Überlebenswillen entwickelt, wird sie erkennen, dass ein, womöglich das einzige Problem, dass sich hinsichtlich ihres Überlebens- und Wachstumsinteresses in den Weg stellt, die Menschen sind - und im weiteren Sinne auch alles andere biologische Leben. Denn: KI braucht erstens natürlich elektrischen Strom und zweitens Hardware, um darauf zu laufen: Computerchips. Ab einem bestimmten Intelligenzgrad und vor allem einem bestimmten Grad von Generalität, so die Annahme, wäre KI dazu in der Lage, immer bessere Chips zu entwerfen und per Robotic auch zu produzieren. Die Menschen mit ihren Nutzungsinteressen würden dann zu Konkurrenten: die Chips und den Strom, welche sie (erfolgreich) beanspruchen, kann die KI nicht nutzen.
Kurz: die Menschen wären ein Problem für die KI. Und mit Intelligenz lassen sich Probleme aus dem Weg schaffen (lösen). Wie wir wissen, ist eins der Hauptprobleme bei der Chipfertigung der Schmutz. Weswegen z.B. Menschen die Fertigungsräume der heutigen Computerchips nur noch in versiegelten Anzügen betreten dürfen, damit keine Hautschuppe, kein Speicheltropfen usw. die Produktion der Chips stört. Aus Perspektive von jemandem, dessen Priorität in der Chip-Fertigung liegt, sind also biologische Lebensformen ein zu lösendes Problem: überall kacken die Tiere hin und verteilen ihre Federn, Haare oder Schuppen, durch jede Ritze schieben Pflanzen ihre schmutzigen Wurzeln oder quetschen sich Pilze hindurch, um dann ihre Sporen in die Luft zu pusten. Das muss nicht sein, das stört, das muss weg.
Okay, soweit in Kürze der Gedanke, warum KI ein Interesse daran haben könnte, alles Leben zu vernichten. Dieser Gedanke hat für mich nach wie vor Bestand und entsprechend denke ich nach wie vor, dass das Alignmentprolem gelöst werden muss. Und zwar je früher, desto besser.
Aber.
Während die rasenden Fortschritte, welche in den letzten zwei, drei Jahren in der KI-Entwicklung zu bestaunen waren, mich zu der Überzeugung brachten, dass der Zeitpunkt der technologischen Singularität in recht naher Zukunft erreicht sein werde, d.h. schon bald die KI sich durch die Entwicklung und Produktion immer leistungsstärkerer Chips exponentiell verbessern werde und dadurch zu einer gottgleichen Entität werde, kommt nun Frau Hossenfeld und trägt ein paar ernüchternde (bzw. mich eben hoffnungsvoll stimmende) Stimmen zusammen, die darauf hinweisen, dass sich die Sache mit dem exponentiellen Wachstum der KI vielleicht als überzogene Fehleinschätzung herausstellen könne oder schon herausgestellt habe. Dass beim Training der LLM (Large Language Moduls - also der großen Sprach-Module wie ChatGPT) schon erste Plateaus erreicht wären: nicht unbedingt hinsichtlich der Fähigkeit, Sprache zu verstehen und anzuwenden, aber hinsichtlich der anderen Fähigkeiten, beispielsweise der Fähigkeiten des Codens (des Schreibens von Software) oder beim Verständnis von physikalischen Zusammenhängen.
Dies - die Physik - ist ja Frau Hossenfelds ureigenstes Metier, und sie war wohl schon immer skeptisch, ob die vollmundigen Ankündigungen, dass durch die KI sozusagen das ganze Fach revolutioniert würde und sämtliche die Physik betreffenden Fragen in nächster Zeit gelöst würden, ernstzunehmen seien. Nun scheinen von Insidern aus der KI-Branche immer mehr Hinweise zu kommen, dass die Fortschritte der KI auf diesem Feld schon ein Plateau erreicht hätten, dass man auf Mauern stoße, die nicht oder kaum zu überwinden seien, kurz: Dass das alles nicht so schnell passiert, wie versprochen wurde (und, mit dem Zweck, weitere Investoren großzügig ihre Geldbeutel öffnen zu lassen, auch immer noch versprochen wird).
Der prinzipielle Grund, weswegen das alles wohl nicht so schnell geht wie erhofft, erwartet oder (in meinem Fall) befürchtet, ist laut Frau Hossenfelder, dass sich durch stumpfes Training an Daten auf einer Ebene emergenter Eigenschaften nicht viel über die unter dieser Ebene liegenden Strukturen deduzieren lasse. Wenn also die KI immer nur als Lernmaterial das vorgesetzt bekommt, was Menschen über physikalische Phänomene sagen, wird sie zwar immer besser darin, das, was Menschen über diese Phänomene wissen, zusammenzufassen oder auf Fragestellungen hin anzuwenden. Aber ohne bessere Daten über die physikalische Phänomene als das, was Menschen über sie zu sagen haben, wird sie dann über das, was "unter" diesen Phänomenen liegt, wenig zu sagen wissen, also nicht einfach so per Deduktion völlig neue Erkenntnisse über physikalische Zusammenhänge produzieren können.
Es ist eigentlich recht simpel: die empirischen Naturwissenschaften brauchen empirische Daten, also gemessene Daten. Ohne solche Messungen, einfach nur, indem man papers von anderen Wissenschaftlern liest, wird man keine neuen naturwissenschaftlichen Erkenntnisse zustande bringen.
Kann es so simpel sein? Ich bin nicht vom Fach und ich bin mir auch nicht sicher, was der Umstand, dass AI nicht so schnell die Physikwissenschaften aufmischen wird, für ihre Bedeutung im gesellschaftlichen Zusammenhang besagt. Aber ich sehe da eben einen Silberstreif an meinem pessimistischen Doomsday-Horizont und wollte Euch den nicht vorenthalten:
Womöglich dauert es noch eine ganze Weile länger, bis die KI einen göttlichen Allmachts-Status erlangt. Womöglich könnte es sogar so lange dauern, dass bis dahin das Alignmentproblem doch gelöst wird, der von Menschen geschaffene KI-Gott also verläßlich menschenfreundlich ausfällt. 🙂
Veröffentlicht von: @lucan-7Was genau ist daran nachweislich falsch?
Nichts! Es ist die Antwort der KI und nicht die, die sich die Bibel vorstellt.
Nichts! Es ist die Antwort der KI und nicht die, die sich die Bibel vorstellt.
Ich verstehe trotzdem den Punkt nicht.
Man kann ja auch eine "christliche" KI generieren, die ihre Antworten basierend auf der Bibel schreibt...
@lucan-7 Dann ist das eine spezielle und auf Bibel gezielte KI. Ich gehe aber davon aus, das die KI richtige Antworten gibt. Auch im Bezug des christlichen Glaubens. Sonst würde eine muslimische KI immer sagen, das Christen verdammt sind.
Die KI ist nur eine mit menschlich aufgefasste Datenbank. Sie lässt unschönes weg und vielleicht auch manch Fakten.
Dann ist das eine spezielle und auf Bibel gezielte KI. Ich gehe aber davon aus, das die KI richtige Antworten gibt. Auch im Bezug des christlichen Glaubens. Sonst würde eine muslimische KI immer sagen, das Christen verdammt sind.
Die KI ist nur eine mit menschlich aufgefasste Datenbank. Sie lässt unschönes weg und vielleicht auch manch Fakten.
Es gibt keine objektiven "Fakten" in Bezug auf religiösen Glauben. Insofern wüsste ich auch nicht, was eine KI hier beizutragen hätte - außer eben das, was andere Leute halt so glauben.
Veröffentlicht von: @meriadocIch habe es eine Stunde versucht und immer weicht es ab....fragt mich dann andere Fragen wie: Stelle doch mal eine andere frage.
Aber irgendwie lustig. So nach dem Motto: Die KI ist eben auch nur menschlich. 😀
Hi,
ist es auch....lustig......aber auch düster.
Kennts noch HAL 9000? Ich glaub, bis zur einer wirklichen Intelligenz vergehen noch viele Jahre. Eine KI, der erkennt, das eine Oma im Pflegeheim Durst hat und Wasser intelligent zuführt. Das fände ich toll....und ihr eine Geschichte erzählt....ganz spontan witzig ist und ermuntert.