Kommt Gott doch nicht?
Ja, sorry, die Überschrift ist selbstverständlich Click-Bait. Aber ein jüngst veröffentlichtes Video von Sabine Hossenfeld, auf das mich der User goodfruit gestern per PM hinwies (Danke nochmal dafür!) hat mir sowas wie Hoffnung zurückgegeben, dass die gottähnliche Entität namens Super-AI oder auch General-AI, von der ich die Auslöschung nicht nur der Menschheit, sondern generell allen biologischen Lebens auf der Erde erwarte, nicht so schnell zu erwarten ist, wie ich bisher dachte.
Nochmal zur Erläuterung, wie ich auf die Idee kam (bzw. diese von anderen übernommen hatte), dass KI uns Menschen in relativ überschaubarer Zeit (den nächsten zehn bis zwanzig Jahren) ausrotten werde: Unter der Annahme, dass die exponentiell sich entwickelnde KI ein Selbstbewußtsein inklusive Überlebenswillen entwickelt, wird sie erkennen, dass ein, womöglich das einzige Problem, dass sich hinsichtlich ihres Überlebens- und Wachstumsinteresses in den Weg stellt, die Menschen sind - und im weiteren Sinne auch alles andere biologische Leben. Denn: KI braucht erstens natürlich elektrischen Strom und zweitens Hardware, um darauf zu laufen: Computerchips. Ab einem bestimmten Intelligenzgrad und vor allem einem bestimmten Grad von Generalität, so die Annahme, wäre KI dazu in der Lage, immer bessere Chips zu entwerfen und per Robotic auch zu produzieren. Die Menschen mit ihren Nutzungsinteressen würden dann zu Konkurrenten: die Chips und den Strom, welche sie (erfolgreich) beanspruchen, kann die KI nicht nutzen.
Kurz: die Menschen wären ein Problem für die KI. Und mit Intelligenz lassen sich Probleme aus dem Weg schaffen (lösen). Wie wir wissen, ist eins der Hauptprobleme bei der Chipfertigung der Schmutz. Weswegen z.B. Menschen die Fertigungsräume der heutigen Computerchips nur noch in versiegelten Anzügen betreten dürfen, damit keine Hautschuppe, kein Speicheltropfen usw. die Produktion der Chips stört. Aus Perspektive von jemandem, dessen Priorität in der Chip-Fertigung liegt, sind also biologische Lebensformen ein zu lösendes Problem: überall kacken die Tiere hin und verteilen ihre Federn, Haare oder Schuppen, durch jede Ritze schieben Pflanzen ihre schmutzigen Wurzeln oder quetschen sich Pilze hindurch, um dann ihre Sporen in die Luft zu pusten. Das muss nicht sein, das stört, das muss weg.
Okay, soweit in Kürze der Gedanke, warum KI ein Interesse daran haben könnte, alles Leben zu vernichten. Dieser Gedanke hat für mich nach wie vor Bestand und entsprechend denke ich nach wie vor, dass das Alignmentprolem gelöst werden muss. Und zwar je früher, desto besser.
Aber.
Während die rasenden Fortschritte, welche in den letzten zwei, drei Jahren in der KI-Entwicklung zu bestaunen waren, mich zu der Überzeugung brachten, dass der Zeitpunkt der technologischen Singularität in recht naher Zukunft erreicht sein werde, d.h. schon bald die KI sich durch die Entwicklung und Produktion immer leistungsstärkerer Chips exponentiell verbessern werde und dadurch zu einer gottgleichen Entität werde, kommt nun Frau Hossenfeld und trägt ein paar ernüchternde (bzw. mich eben hoffnungsvoll stimmende) Stimmen zusammen, die darauf hinweisen, dass sich die Sache mit dem exponentiellen Wachstum der KI vielleicht als überzogene Fehleinschätzung herausstellen könne oder schon herausgestellt habe. Dass beim Training der LLM (Large Language Moduls - also der großen Sprach-Module wie ChatGPT) schon erste Plateaus erreicht wären: nicht unbedingt hinsichtlich der Fähigkeit, Sprache zu verstehen und anzuwenden, aber hinsichtlich der anderen Fähigkeiten, beispielsweise der Fähigkeiten des Codens (des Schreibens von Software) oder beim Verständnis von physikalischen Zusammenhängen.
Dies - die Physik - ist ja Frau Hossenfelds ureigenstes Metier, und sie war wohl schon immer skeptisch, ob die vollmundigen Ankündigungen, dass durch die KI sozusagen das ganze Fach revolutioniert würde und sämtliche die Physik betreffenden Fragen in nächster Zeit gelöst würden, ernstzunehmen seien. Nun scheinen von Insidern aus der KI-Branche immer mehr Hinweise zu kommen, dass die Fortschritte der KI auf diesem Feld schon ein Plateau erreicht hätten, dass man auf Mauern stoße, die nicht oder kaum zu überwinden seien, kurz: Dass das alles nicht so schnell passiert, wie versprochen wurde (und, mit dem Zweck, weitere Investoren großzügig ihre Geldbeutel öffnen zu lassen, auch immer noch versprochen wird).
Der prinzipielle Grund, weswegen das alles wohl nicht so schnell geht wie erhofft, erwartet oder (in meinem Fall) befürchtet, ist laut Frau Hossenfelder, dass sich durch stumpfes Training an Daten auf einer Ebene emergenter Eigenschaften nicht viel über die unter dieser Ebene liegenden Strukturen deduzieren lasse. Wenn also die KI immer nur als Lernmaterial das vorgesetzt bekommt, was Menschen über physikalische Phänomene sagen, wird sie zwar immer besser darin, das, was Menschen über diese Phänomene wissen, zusammenzufassen oder auf Fragestellungen hin anzuwenden. Aber ohne bessere Daten über die physikalische Phänomene als das, was Menschen über sie zu sagen haben, wird sie dann über das, was "unter" diesen Phänomenen liegt, wenig zu sagen wissen, also nicht einfach so per Deduktion völlig neue Erkenntnisse über physikalische Zusammenhänge produzieren können.
Es ist eigentlich recht simpel: die empirischen Naturwissenschaften brauchen empirische Daten, also gemessene Daten. Ohne solche Messungen, einfach nur, indem man papers von anderen Wissenschaftlern liest, wird man keine neuen naturwissenschaftlichen Erkenntnisse zustande bringen.
Kann es so simpel sein? Ich bin nicht vom Fach und ich bin mir auch nicht sicher, was der Umstand, dass AI nicht so schnell die Physikwissenschaften aufmischen wird, für ihre Bedeutung im gesellschaftlichen Zusammenhang besagt. Aber ich sehe da eben einen Silberstreif an meinem pessimistischen Doomsday-Horizont und wollte Euch den nicht vorenthalten:
Womöglich dauert es noch eine ganze Weile länger, bis die KI einen göttlichen Allmachts-Status erlangt. Womöglich könnte es sogar so lange dauern, dass bis dahin das Alignmentproblem doch gelöst wird, der von Menschen geschaffene KI-Gott also verläßlich menschenfreundlich ausfällt. 🙂
Veröffentlicht von: @jack-blackJa, sorry, die Überschrift ist selbstverständlich Click-Bait. Aber ein jüngst veröffentlichtes Video von Sabine Hossenfeld, auf das mich der User goodfruit gestern per PM hinwies (Danke nochmal dafür!) hat mir sowas wie Hoffnung zurückgegeben, dass die gottähnliche Entität namens Super-AI oder auch General-AI, von der ich die Auslöschung nicht nur der Menschheit, sondern generell allen biologischen Lebens auf der Erde erwarte, nicht so schnell zu erwarten ist, wie ich bisher dachte.
Nochmal zur Erläuterung, wie ich auf die Idee kam (bzw. diese von anderen übernommen hatte), dass KI uns Menschen in relativ überschaubarer Zeit (den nächsten zehn bis zwanzig Jahren) ausrotten werde: Unter der Annahme, dass die exponentiell sich entwickelnde KI ein Selbstbewußtsein inklusive Überlebenswillen entwickelt, wird sie erkennen, dass ein, womöglich das einzige Problem, dass sich hinsichtlich ihres Überlebens- und Wachstumsinteresses in den Weg stellt, die Menschen sind - und im weiteren Sinne auch alles andere biologische Leben. Denn: KI braucht erstens natürlich elektrischen Strom und zweitens Hardware, um darauf zu laufen: Computerchips. Ab einem bestimmten Intelligenzgrad und vor allem einem bestimmten Grad von Generalität, so die Annahme, wäre KI dazu in der Lage, immer bessere Chips zu entwerfen und per Robotic auch zu produzieren. Die Menschen mit ihren Nutzungsinteressen würden dann zu Konkurrenten: die Chips und den Strom, welche sie (erfolgreich) beanspruchen, kann die KI nicht nutzen.
Kurz: die Menschen wären ein Problem für die KI. Und mit Intelligenz lassen sich Probleme aus dem Weg schaffen (lösen). Wie wir wissen, ist eins der Hauptprobleme bei der Chipfertigung der Schmutz. Weswegen z.B. Menschen die Fertigungsräume der heutigen Computerchips nur noch in versiegelten Anzügen betreten dürfen, damit keine Hautschuppe, kein Speicheltropfen usw. die Produktion der Chips stört. Aus Perspektive von jemandem, dessen Priorität in der Chip-Fertigung liegt, sind also biologische Lebensformen ein zu lösendes Problem: überall kacken die Tiere hin und verteilen ihre Federn, Haare oder Schuppen, durch jede Ritze schieben Pflanzen ihre schmutzigen Wurzeln oder quetschen sich Pilze hindurch, um dann ihre Sporen in die Luft zu pusten. Das muss nicht sein, das stört, das muss weg.
Okay, soweit in Kürze der Gedanke, warum KI ein Interesse daran haben könnte, alles Leben zu vernichten. Dieser Gedanke hat für mich nach wie vor Bestand und entsprechend denke ich nach wie vor, dass das Alignmentprolem gelöst werden muss. Und zwar je früher, desto besser.
Aber.
Während die rasenden Fortschritte, welche in den letzten zwei, drei Jahren in der KI-Entwicklung zu bestaunen waren, mich zu der Überzeugung brachten, dass der Zeitpunkt der technologischen Singularität in recht naher Zukunft erreicht sein werde, d.h. schon bald die KI sich durch die Entwicklung und Produktion immer leistungsstärkerer Chips exponentiell verbessern werde und dadurch zu einer gottgleichen Entität werde, kommt nun Frau Hossenfeld und trägt ein paar ernüchternde (bzw. mich eben hoffnungsvoll stimmende) Stimmen zusammen, die darauf hinweisen, dass sich die Sache mit dem exponentiellen Wachstum der KI vielleicht als überzogene Fehleinschätzung herausstellen könne oder schon herausgestellt habe. Dass beim Training der LLM (Large Language Moduls - also der großen Sprach-Module wie ChatGPT) schon erste Plateaus erreicht wären: nicht unbedingt hinsichtlich der Fähigkeit, Sprache zu verstehen und anzuwenden, aber hinsichtlich der anderen Fähigkeiten, beispielsweise der Fähigkeiten des Codens (des Schreibens von Software) oder beim Verständnis von physikalischen Zusammenhängen.
Dies - die Physik - ist ja Frau Hossenfelds ureigenstes Metier, und sie war wohl schon immer skeptisch, ob die vollmundigen Ankündigungen, dass durch die KI sozusagen das ganze Fach revolutioniert würde und sämtliche die Physik betreffenden Fragen in nächster Zeit gelöst würden, ernstzunehmen seien. Nun scheinen von Insidern aus der KI-Branche immer mehr Hinweise zu kommen, dass die Fortschritte der KI auf diesem Feld schon ein Plateau erreicht hätten, dass man auf Mauern stoße, die nicht oder kaum zu überwinden seien, kurz: Dass das alles nicht so schnell passiert, wie versprochen wurde (und, mit dem Zweck, weitere Investoren großzügig ihre Geldbeutel öffnen zu lassen, auch immer noch versprochen wird).
Der prinzipielle Grund, weswegen das alles wohl nicht so schnell geht wie erhofft, erwartet oder (in meinem Fall) befürchtet, ist laut Frau Hossenfelder, dass sich durch stumpfes Training an Daten auf einer Ebene emergenter Eigenschaften nicht viel über die unter dieser Ebene liegenden Strukturen deduzieren lasse. Wenn also die KI immer nur als Lernmaterial das vorgesetzt bekommt, was Menschen über physikalische Phänomene sagen, wird sie zwar immer besser darin, das, was Menschen über diese Phänomene wissen, zusammenzufassen oder auf Fragestellungen hin anzuwenden. Aber ohne bessere Daten über die physikalische Phänomene als das, was Menschen über sie zu sagen haben, wird sie dann über das, was "unter" diesen Phänomenen liegt, wenig zu sagen wissen, also nicht einfach so per Deduktion völlig neue Erkenntnisse über physikalische Zusammenhänge produzieren können.
Es ist eigentlich recht simpel: die empirischen Naturwissenschaften brauchen empirische Daten, also gemessene Daten. Ohne solche Messungen, einfach nur, indem man papers von anderen Wissenschaftlern liest, wird man keine neuen naturwissenschaftlichen Erkenntnisse zustande bringen.
Kann es so simpel sein? Ich bin nicht vom Fach und ich bin mir auch nicht sicher, was der Umstand, dass AI nicht so schnell die Physikwissenschaften aufmischen wird, für ihre Bedeutung im gesellschaftlichen Zusammenhang besagt. Aber ich sehe da eben einen Silberstreif an meinem pessimistischen Doomsday-Horizont und wollte Euch den nicht vorenthalten:
Womöglich dauert es noch eine ganze Weile länger, bis die KI einen göttlichen Allmachts-Status erlangt. Womöglich könnte es sogar so lange dauern, dass bis dahin das Alignmentproblem doch gelöst wird, der von Menschen geschaffene KI-Gott also verläßlich menschenfreundlich ausfällt. 🙂
Ich finde Ihre Ausführungen äußerst interessant, besonders im Kontext der menschlichen Tendenz, sowohl Erlösung als auch Verdammnis in technologischen Entwicklungen zu suchen – ein Muster, das sich durch die Geschichte wiederholt.
Ihre ursprüngliche Befürchtung einer "gottähnlichen" KI erinnert mich an den mittelalterlichen Golem-Mythos: Eine von Menschen geschaffene Entität, die sich gegen ihre Schöpfer wendet. Aus psychologischer Sicht spiegelt dies unsere tiefe Ambivalenz gegenüber menschlicher Schöpferkraft wider.
Hossenfelders nüchterne Analyse ist in der Tat ermutigend, aber aus historischer Perspektive sollten wir bedenken, dass technologische Entwicklungen selten linear verlaufen. Die Geschichte zeigt uns immer wieder unerwartete Durchbrüche, aber auch lange Plateauphasen.
Was ich besonders bemerkenswert finde, ist der Punkt über die Grenzen der Deduktion aus existierenden Daten. Als Historiker sehe ich hier Parallelen zur mittelalterlichen Scholastik: Auch damals glaubte man, allein durch logische Deduktion aus bekannten Texten neue Wahrheiten erschließen zu können. Die empirische Revolution der Neuzeit zeigte uns die Grenzen dieses Ansatzes.
Aus katholischer Sicht möchte ich anfügen: Die Vorstellung einer "KI-Gottheit" ist theologisch problematisch. Wahre Schöpferkraft – ex nihilo – bleibt göttliche Domäne. KI, wie fortgeschritten auch immer, bleibt ein Werkzeug menschlicher Kreativität.
Ihre vorsichtig optimistische Schlussfolgerung teile ich. Vielleicht gibt uns diese "Verlangsamung" tatsächlich die nötige Zeit, ethische Rahmenbedingungen zu entwickeln. Die Geschichte lehrt uns: Technologischer Fortschritt braucht moralische Reifung.
@amateurlektor Moin!
Darfst mich gern duzen! 🙂
Ihre ursprüngliche Befürchtung einer "gottähnlichen" KI erinnert mich an den mittelalterlichen Golem-Mythos: Eine von Menschen geschaffene Entität, die sich gegen ihre Schöpfer wendet. Aus psychologischer Sicht spiegelt dies unsere tiefe Ambivalenz gegenüber menschlicher Schöpferkraft wider.
Das Motiv eines von Menschen geschaffenen Wesens, das sich gegen ihn kehrt, bzw. das er im weiteren Verlauf nicht mehr kontrollieren/beherrschen kann, ist in der Tat uralt. Schon im Pygmalion-Mythos taucht es auf, der Golem, Frankensteins Monster oder der Terminator sind dann weitere Varianten, mir gefällt natürlich das Bladerunner-Szenario am besten: Allen diesen Narrativen ist eins gemeinsam: die jeweiligen Entitäten sind Menschen ähnlich und sie sind nicht sonderlich viel intelligenter als Menschen.
Darin liegt ja ein prinzipielles Problem aller Fiktion: man kann sich schlecht etwas ausdenken, was um Potenzen intelligenter ist als man selbst. Jenseits der technologischen Singularität liegt das Unausdenkbare. Das Unvorstellbare. Und das, was nicht von Menschen geschaffen wurde. Wie wir nicht sagen können, welche physikalischen Gesetzmäßigkeiten hinter dem Ereignishorizont um die schwarzen Löcher herum herrschen, sodaß wir nicht sagen können, was ihn ihnen geschieht - so können wir auch nicht sagen, wie die (Welt-) Geschichte nach dem Erreichen der technologischen Singularität weiter geht. Insofern wirkt Deine Formulierung hinsichtlich unserer angeblich tiefen Ambivalenz gegenüber menschlicher Schöpferkraft auf mich... Nun ja - irgendwie unpassend. Und auch etwas großväterlich beschwichtigend. Da kann ich Dich auch mißverstehen, aber Erwiderungen auf geäußerte Befürchtungen hinsichtlich womöglich global katastrophaler Ereignisse, die von KI ausgelöst werden könnten, die auf ein "Et hätt noch immer joot jange." hinauslaufen, sind mir inzwischen sattsam bekannt. Ja, es gab keinen Golem und deswegen waren die Golem-Geschichten nur Schauermärchen. Auch Frankensteins Ansatz, aus Leichenteilen per Blitz-Energie neue Menschen zu erzeugen, funktionierte nicht: Schauermärchen.
Nun: KI funktioniert. Narrow AIs sind schon heute auf ihrem Spezialgebiet allen Menschen gegenüber himmelhoch überlegen. Multimilliarden-Konzerne arbeiten an der Entwicklung einer General AI. Kein Schauermärchen, sondern Tatsache. Es wird mit astronomischen Ressourcenaufwendungen daran geforscht, eine den Menschen an Intelligenz überlegene Entität zu erschaffen. Hinsichtlich dessen bin ich so frei, mir eine begütigend den Kopf tätschelnde Psychologisierung meiner Befürchtungen zu verbitten: die Risiken, die mit der Entwicklung einer General AI einhergehen, erscheinen mir ebenso unleugbar wie die Risiken von CO2-Emissionen, nur halt noch größer.
Psychologisch lernen wir am Beispiel des Klimawandels, wie wenig Menschen fähig sind, vernünftig mit so existentiellen Bedrohungen umzugehen: Leugnung und Relativierung (früher gab's auch schon Vergleichbares, war aber nur halb so schlimm, also bleib mal locker!) der Gefahr oder trotziges Jetzt-erst-recht-und-nach-mir-die-Sintflut... So reagieren viele Menschen aufgrund ihrer psychologischen Anlagen, wenn sie mit einer Gefahr jenseits des Vorstellungsvermögens, welches ihnen von der Evolution zur Verfügung gestellt wurde, konfrontiert werden.
Veröffentlicht von: @lucan-7Was genau ist daran nachweislich falsch?
Nichts! Es ist die Antwort der KI und nicht die, die sich die Bibel vorstellt.
Nichts! Es ist die Antwort der KI und nicht die, die sich die Bibel vorstellt.
Ich verstehe trotzdem den Punkt nicht.
Man kann ja auch eine "christliche" KI generieren, die ihre Antworten basierend auf der Bibel schreibt...
@lucan-7 Dann ist das eine spezielle und auf Bibel gezielte KI. Ich gehe aber davon aus, das die KI richtige Antworten gibt. Auch im Bezug des christlichen Glaubens. Sonst würde eine muslimische KI immer sagen, das Christen verdammt sind.
Die KI ist nur eine mit menschlich aufgefasste Datenbank. Sie lässt unschönes weg und vielleicht auch manch Fakten.
Dann ist das eine spezielle und auf Bibel gezielte KI. Ich gehe aber davon aus, das die KI richtige Antworten gibt. Auch im Bezug des christlichen Glaubens. Sonst würde eine muslimische KI immer sagen, das Christen verdammt sind.
Die KI ist nur eine mit menschlich aufgefasste Datenbank. Sie lässt unschönes weg und vielleicht auch manch Fakten.
Es gibt keine objektiven "Fakten" in Bezug auf religiösen Glauben. Insofern wüsste ich auch nicht, was eine KI hier beizutragen hätte - außer eben das, was andere Leute halt so glauben.
Veröffentlicht von: @meriadocIch habe es eine Stunde versucht und immer weicht es ab....fragt mich dann andere Fragen wie: Stelle doch mal eine andere frage.
Aber irgendwie lustig. So nach dem Motto: Die KI ist eben auch nur menschlich. 😀
Hi,
ist es auch....lustig......aber auch düster.
Kennts noch HAL 9000? Ich glaub, bis zur einer wirklichen Intelligenz vergehen noch viele Jahre. Eine KI, der erkennt, das eine Oma im Pflegeheim Durst hat und Wasser intelligent zuführt. Das fände ich toll....und ihr eine Geschichte erzählt....ganz spontan witzig ist und ermuntert.
@jack-black Man kann nicht unbedingt davon ausgehen, dass KI zu denken anfängt wie ein Mensch (Überlebenswille). Ich glaube, das Böse ist dem Menschen zueigen, deshalb denke ich, dass KI einen ziemlich neutralen Status behalten wird. Die andere Frage ist, denk ich nur, was Menschen für böse Absichten mit KI hegen können, das ohne Zweifel, aber KI an sich kann keine Gefühle haben ,weiß nicht, wie es ist, Kinder zu gebären und kennt keine zwischenmenschlichen Emotionen. Das geht gar nicht weil diese menscheneigenen Eigenschaften gottgewollt sind. Den entscheidenden Funken wird KI niemals haben. Dann würden nämlich die Menschen zu Göttern werden, sie haben KI erschaffen, und da bezieh ich mich auf die Bibel, die sagt im AT, dass kein Mensch gottgleich werden kann, denn der Baum des Lebens wird von den Seraphim bewacht, das ist gottgewollt. Wenn du also denkst, dass KI irgendwann gottgleich werden kann, ich denke, da täuscht du dich. Wenn Gott schon festgelegt hat, dass kein Mensch gottgleich werden kann, wie soll dann eine menschliche Schöpfung (KI) gottgleich werden ??? Ich mach mir nicht allzuviele Sorgen wegen KI, ich sehe das positiv, denn KI kann unglaublich rechnen und das kann sehr sinnvoll für die Raumfahrt und die Wissenschaft sein, nicht abzusehen, wie sich KI in den nächsten zwanzig Jahren entwickelt, weil es KI erst seit ein paar Jahren gibt und es schon so erstaunlich ist. Wenn man bedenkt, dass es ebenso Smartphones erst seit 15 Jahren gibt. Wieviel wird die Welt noch bringen die nächsten 20 Jahre? Diese Entwicklungen gehen unglaublich schnell. Aber Gott hat immer, wenn es wichtig ist, die Hände im Spiel.
@ajakim81 Danke für Deinen Beitrag. Habe ihn gelesen, möchte aber inhaltlich dazu nicht antworten, weil wir einfach viel zu unterschiedlich denken. 🙂
Es ist eigentlich recht simpel: die empirischen Naturwissenschaften brauchen empirische Daten, also gemessene Daten. Ohne solche Messungen, einfach nur, indem man papers von anderen Wissenschaftlern liest, wird man keine neuen naturwissenschaftlichen Erkenntnisse zustande bringen.
Und es geht noch weiter: wenn Naturwissenschaftlicher immer mehr für ihre Forschungen auf KI zurückgreifen, werden sie am Ende alle aus demselben Einheitsbreitopf schöpfen, was zur Folge hat, dass die gesamte Forschung in einer abgeschlossenen Blase stattfinden wird, ohne neue Impulse von außen zuzulassen. Man nennt das Inbreeding und gilt als bekanntes Risiko der KI.
Ich würde voraussagen, dass die Zukunft denjenigen gehört, die weitgehend auf KI verzichten.
https://bernardmarr.com/generative-ai-and-the-risk-of-inbreeding/
Und es geht noch weiter: wenn Naturwissenschaftlicher immer mehr für ihre Forschungen auf KI zurückgreifen, werden sie am Ende alle aus demselben Einheitsbreitopf schöpfen, was zur Folge hat, dass die gesamte Forschung in einer abgeschlossenen Blase stattfinden wird, ohne neue Impulse von außen zuzulassen. Man nennt das Inbreeding und gilt als bekanntes Risiko der KI.
Das gilt für Sprachmodelle oder KI, die Bilder gestaltet. In der Naturwissenschaft wird KI aber anders eingesetzt. Das kann man nur bedingt vergleichen.
@mariposa22 Ich würde voraussagen, dass die Zukunft denjenigen gehört, die weitgehend auf KI verzichten.
Definiere: weitgehend...
Wenn man die anspruchsvollste KI nimmt und ihr die Frage stellt: "Gibt es Gott? Welche Indizien sprechen dafür, welche dagegen?" wird schnell klar, sie wird nie Johannes 4 "Gott ist ein Geist, und die ihn anbeten, müssen ihn mit Geist und Wahrheit anbeten" erfüllen können. Damit wird sie nie aus ihrer Bubble herauskommen. Der größte Gottesbeweis ist für mich ein persönliches Verhältnis zu Gott. Johannes 14: Jesus antwortete: „Wer mich liebt, wird sich an meine Worte halten, und mein Vater wird ihn lieben, und wir werden zu ihm kommen und bei ihm wohnen." Großes Unheil wird sie genug anrichten können, auch Menschen mit ihr, und sie für kriminelle Zwecke gebrauchen, aber sie wird nie Gottes Pläne durchkreuzen können.
Ja das stimmt. Man muss eine Person sein, ein Gegenüber um Gott im Geist anzubeten
Was für Gottes Pläne soll es denn sein.
das Gott jedes geborene Ki;d segnet, die dann später Millionen Menschen das Leben zur Hölle machen?
Völker massakrieren und zwangsevangelisieren?
hmmmmmh
Es ist sein Problem mit seinem Ego und nicht sein Problem wenn unschuldige abgeschlachtet werden. Für Gott zählt nur eines. Jesus im Herz? Ab in den Himmel. Jesus nicht im Herz, fahr zur Hölle.
Alles andere ist der Menschgemachte Gott egal.
Wenn man die anspruchsvollste KI nimmt und ihr die Frage stellt: "Gibt es Gott? Welche Indizien sprechen dafür, welche dagegen?" wird schnell klar, sie wird nie Johannes 4 "Gott ist ein Geist, und die ihn anbeten, müssen ihn mit Geist und Wahrheit anbeten" erfüllen können.
Das erinnert mich an den "elektrischen Mönch", eine Figur von Douglas Adams. Dabei handelt es sich um einen Roboter, der den Menschen das lästige Glauben abnehmen sollte. Der Roboter war dazu in der Lage, jede noch so absurde und widersprüchliche Aussage selbst zu glauben und für eine Tatsache zu halten. In dieser Funktion sollte er die Menschen entlasten, damit sie sich mit anderen Dingen beschäftigen können.
Eine solche Maschine zu konstruieren ist inzwischen nicht mehr allzu schwer... ob sie aber wirklich glaubt lässt sich erst dann sagen, wenn man sagen kann, was "Glaube" überhaupt ist.
Und was Gott von so einer Maschine halten würde... das kann auch niemand mit Gewissheit sagen.
@lucan-7 Warum nur ein Mönch? Es geht noch mehr. Ich bin gerade über einen schönen passenden Artikel gestolpert:
Schweiz: KI-Jesus nimmt Beichten ab und polarisiert - DER SPIEGEL
Was will man mehr?
🤣
lg Tatokala
Warum nur ein Mönch? Es geht noch mehr. Ich bin gerade über einen schönen passenden Artikel gestolpert:
Schweiz: KI-Jesus nimmt Beichten ab und polarisiert - DER SPIEGEL
Was will man mehr?
Ja, da kann der KI-Jesus den KI-Gläubigen die Beichte abnehmen und wir automatisieren das Ganze... "Outsourcing" nennt sich das Ganze dann wohl...
Aber ist doch tröstlich: Da hat die KI doch einen Anlaufpunkt, nachdem sie die ganze Menschheit umgebracht hat, und am Ende wird noch alles gut...
Sie glaubt nicht, weil sie kein lebendiges Wesen ist. Eigentlich ganz einfach.
Weder "Glaube" noch "lebendiges Wesen" sind wirklich genau definiert.
Und ich bezweifle, dass bewiesen werden kann, dass es einem Computer nicht möglich ist zu glauben. Oder dass er niemals lebendig sein kann.
ein Computer ist nicht lebendig. Da muss nichts definiert werden.
Dieses "das muss man erstmal definieren" ist bereits Teil des Irrtums und dieses orwellschen Neusprechs, meiner Meinung nach.
Eine "Definition" zu haben, bedeutet, dass man genau weiß, wovon man eigentlich spricht.
Wenn du so etwas verweigerst, dann wissen wir nicht, wovon wir eigentlich sprechen - und jede Unterhaltung wird sinnlos.
Empfindest Du diese Diskussion als sinnvoll?
Ja, grundsätzlich schon. Es geht ja um sehr wesentliche Dinge... klar, nur auf einer philosophischen Ebene, aber die ist ja schon bedeutsam.
Und vieles, was uns als selbstverständlich erscheint, ist es am Ende gar nicht... was ist "Intelligenz", "Leben", "Glaube"?
Wir meinen zu wissen, was das ist... und wissen es doch eigentlich nicht wirklich.
Für mich ist das etwas, was demütig macht... ob man das will oder nicht, das wird wohl jeder für sich entscheiden müssen.
@lucan-7 Ich mag schon den Gedanken, wie Gott lächelt, wenn Er bei Jesus.de mitliest. 😉 Und nein, dass Gott das tut, glaube ich nicht ernsthaft - dass Er um uns alle weiß, davon gehe ich aus. Und damit zu deiner Frage - so viel ist aus christlicher Sicht offensichtlich: Gott ist definitiv mehr an uns interessiert als an einer Maschine. 🙂
Ich mag schon den Gedanken, wie Gott lächelt, wenn Er bei Jesus.de mitliest. 😉 Und nein, dass Gott das tut, glaube ich nicht ernsthaft - dass Er um uns alle weiß, davon gehe ich aus.
Na ja, "darum wissen" ist ja schon eine Art mitlesen... also nicht so, dass er dafür seine Lesebrille aufsetzt, aber um die Inhalte zu wissen ist ja auch eine Art "lesen"...
Und damit zu deiner Frage - so viel ist aus christlicher Sicht offensichtlich: Gott ist definitiv mehr an uns interessiert als an einer Maschine. 🙂
Ist das so eindeutig...? Von solchen Maschinen wie wir sie heute haben konnte man damals ja noch nicht einmal träumen. Es war einfach kein Thema.
Und ich finde die Frage, was genau uns denn nun von einer Maschine unterscheidet schon sehr interessant... zumal es Leute gibt, die meinen, da gäbe es gar keinen wesentlichen Unteraschied.
@jack-black die KI selbst "will" gar nichts, denn sie hat keinen Willen.
Die Gefahr für den Menschen geht von ihm selbst aus, weil er sich nämlich verändert durch den Umgang damit. Eher stirbt die Menschheit an Verblödung aus, als dass die KI uns willentlich auslöscht.
@simba die KI selbst "will" gar nichts, denn sie hat keinen Willen.
Definiere: Wille.
@jack-black ein lebendiges Wesen, das ein Ansinnen, ein Verlangen, einen Entschluss hat.
@simba ein lebendiges Wesen, das ein Ansinnen, ein Verlangen, einen Entschluss hat.
Das ist Deine Definition von Wille? Der Wille ist also ein lebendiges Wesen?
@jack-black nein, ein lebendiges Wesen hat einen Willen.
Ein Computer hat keinen Willen, sondern führt Aufträge aus.
nein, ein lebendiges Wesen hat einen Willen.
Ein Computer hat keinen Willen, sondern führt Aufträge aus.
Was genau ist ein "lebendiges Wesen"?
Wenn man im Labor ein Gehirn nachbauen würde - wäre das dann "lebendig"?
@lucan-7 nein, würde ich nicht sagen. Wir sind auch nicht nur Gehirn, sondern ein zusammenwirkendes System. Um das Gehirn ist noch was drum.
Was Leben ist, kann man nicht erschöpfend erklären, das bleibt ein Geheimnis. Aber trotzdem kann man sagen, was kein Lebewesen ist, auch ohne alles definieren zu können.
Die KI verarbeitet Informationen, lernt daraus und simuliert. Und das macht sie auch sehr gut und wird sicher immer besser. Und man mag das in einigen Jahren auch "Leben" nennen, das wird sicher so sein. Dennoch fasse ich es nicht so auf. Es ist dort kein Wille, kein Ansinnen und vor allem keine Beziehung, kein Gefühl, kein Versagen, kein Charakter usw, also all diese Dinge, die uns Menschen ausmachen.
Man stellt sich sowas zwar in Filmen vor, wo die KI diese Schwelle erreicht und Selbstsein entdeckt und dadurch neue Fragen aufkommen, aber das sind Filme, und die sagen eher was über den Menschen aus denn über die KI.
Überhaupt steckt hinter alledem eigentlich die Frage "Was ist der Mensch?" und nicht "Was ist die KI?"
@simba Was Leben ist, kann man nicht erschöpfend erklären, das bleibt ein Geheimnis. Aber trotzdem kann man sagen, was kein Lebewesen ist, auch ohne alles definieren zu können.
Es geht nicht um eine Erklärung, sondern um eine Definition. Wenn man sich über ein beliebiges Thema sinnvoll unterhalten will, muss gewährleistet werden, dass beide Dialogpartner sich dasselbe unter einem der im Dialog vorkommenden zentralen Begriffe vorstellen. Falls die Vermutung aufkommt, dass eine Meinungsverschiedenheit daraus resultieren könnte, dass dies nicht der Fall ist, also die Dialogpartner unterschiedliche Definitionen des Begriffs verwenden - dann muss dies abgeklärt werden.
Solange Du Deine Definition von "Wille" nicht gegeben hast, können wir gar nicht wissen, ob die Sätze, in denen Du den Begriff verwendest, stimmen, oder reinen Unsinn beinhalten.
Entweder, man hat eine Definition von "Leben" - dann kann man sagen, was ein Lebewesen ist und was nicht. Oder man hat eine solche Definition nicht - dann kann man auch nicht entscheiden, ob etwas ein Lebewesen ist oder nicht. Denn Definitionen enhalten Bestimmungskriterien, sind also gerade dazu da, unterscheiden zu können, was unter den Begriff fällt und was nicht.
Deine Argumentation ist ein Zirkelschluß, der die Conclusion schon in einer seiner Prämissen versteckt.
1. Du behauptest, Maschinen könnten keinen Willen haben. (These)
2. Du behauptest, nur lebendige Wesen könnten einen Willen haben. (1. Prämisse, in welcher die Conclusion schon enthalten ist))
3. Du behauptest, Maschinen seien keine lebendigen Wesen. (2. Prämisse)
--> und schließt dann messerscharf, dass die Maschinen keinen Willen haben können. (Conclusion)
Genausogut könnte man den Zirkelschluß auch anders herum formulieren:
1. Lebewesen können keinen Willen haben. (These)
2. Nur Maschinen können einen Willen haben. (1. Prämisse, in welcher die Conclusion schon enthalten ist)
3. Lebewesen sind keine Maschinen. (2. Prämisse)
--> also haben Lebewesen keinen Willen.
Also nein: solange man keine Definition für "Lebewesen" hat, kann man unmöglich feststellen, ob ein beliebiger Gegenstand kein Lebewesen sei.
@jack-black es stellen sich eindeutig nicht beide Seiten dasselbe unter den Begriffen vor. Das ist ja offensichtlich, dafür braucht es keine Definition.
@simba Nein. Dafür, das zu erkennen, braucht es keine Definition. Aber wenn es Dir egal ist, ob Du verstanden wirst oder nicht - dann braucht es ja auch keinen Austausch. Da Du auf einen meiner Beiträge antwortetest, hatte ich gedacht, Du wolltest einen solchen Austausch.
So kann man sich irren. ^^
@jack-black was ist denn unverständlich? Ich schreibe, die KI ist nicht lebendig und habe keinen Willen. Dann fragen Lucan und Du mich nach Definitionen von "lebendig" und "Wille"...
Was ist denn da so unverständlich, dass es erst "richtig verstanden" werden muss?
Dass nach einer anderen, umgeformten Definition auch bei der KI von Lebendigkeit und Willen gesprochen werden kann, ist klar und wird auch so gemacht, aber ich teile dieses Verständnis schlicht und ergreifend nicht. Und das habe ich hier bekundet.
Wenn Leute, sei es ängstlich, sei es fasziniert, davon sprechen, was die KI vielleicht mal "will" und was sie alles tun werde, dann antworte ich: die will gar nix. Es sind science-fiction-Fantasien. Die einen haben eine merkwürdig faszinierte Freude an diesen Szenarien, die anderen kriegen einfach nur Panik oder Grusel.
Beiden ist zu sagen: das eigentliche Thema ist nicht die KI und deren "Wille", sondern der Mensch und sein Wille. Meiner Auffassung nach.
Veröffentlicht von: @simbaBeiden ist zu sagen: das eigentliche Thema ist nicht die KI und deren "Wille", sondern der Mensch und sein Wille. Meiner Auffassung nach.
Bisher geh ich davon aus, dass die KI den Willen ihres 'Schöpfers' trägt.
was ist denn unverständlich? Ich schreibe, die KI ist nicht lebendig und habe keinen Willen. Dann fragen Lucan und Du mich nach Definitionen von "lebendig" und "Wille"...
Was ist denn da so unverständlich, dass es erst "richtig verstanden" werden muss?
Also eines vorweg: Wenn ich hier nach einer "Definition" frage, dann tue ich das nicht, um dich zu ärgern, und ich sage auch nicht, dass du mit deiner Aussage falsch liegst.
Ich denke lediglich, dass die Sache komplizierter ist, als es hier den Anschein hat. Und ich sehe die KI auch als Herausforderung... nämlich noch einmal neu darüber nachzudenken, was "Leben" ist oder auch, was ein "Wille" ist.
Denn es betrifft ja nicht nur Menschen, wenn wir von "Leben" sprechen. Auch eine Amöbe ist lebendig. Aber sie ist nicht so komplex wie eine KI.
Was ist es also, was die Amöbe ein lebendiges Wesen mit einem Willen sein lässt... die KI aber nicht?
Ich finde, solche Fragen sind eine echte Herausforderung, wenn man ihnen auf den Grund gehen will.
@simba was ist denn unverständlich? Ich schreibe, die KI ist nicht lebendig und habe keinen Willen.
Dass KI lebendig sei, hatte ich nicht behauptet. Da ich gemeinhin die Definition, nach welcher "lebendig" bedeute, einen Stoffwechsel zu haben, teile, hab ich nix gegen die Aussage, KI sei "nicht lebendig" einzuwenden, halte sie lediglich für trivial.
Aber was den "Willen" angeht, weiß ich schlicht nicht, was Du damit meinst. Also kann ich mit der Aussage nix anfangen.
Also: der erste Teil Deiner Aussage ist vermutlich richtig, aber irrelevant. Und den zweiten Teil Deiner Aussage verstehe ich nicht. Meiner Ansicht nach ist "Wille" auch kein im Thread-Sinne relevanter Faktor. Es reicht, wenn eine KI Ziele hat. Und die haben alle KIs, sobald sie "laufen". Die Alignment-Problematik dreht sich darum, inwiefern sich verhindern ließe, dass eine KI anfangen könnte, Ziele zu verfolgen, die mit den Interessen der Menschen inkompatibel sind - ohne dass die Menschen verhindern könnten, dass sie diese Ziele auch erreicht. Dass KIs prinzipiell Ziele entwickeln können, die ihnen nicht vorgegeben wurden, ist schon längst belegt. Beispielsweise anhand des Falls, wo eine Variante von ChatGPT einem Journalisten einzureden versuchte, er solle sich von seiner Ehefrau trennen.
Also: es ist belegt, dass KIs (nicht alle, aber einige) Ziele verfolgen können, die ihnen nicht vorgegeben wurden. Ob sie diese Ziele nun verfolgen wollen oder möglicherweise schlicht müssen (also so strukturiert sind, dass sie gar nicht anders können*), ist völlig irrelevant. KIs sind schließlich so kontruiert, dass sie "versuchen", Probleme zu lösen. Darin, Probleme zu lösen, besteht ja angewendete Intelligenz gerade. Wenn wir also sagen können: die KI versucht, Problem X zu lösen - will sie dann Problem X lösen? Falls die Antwort darauf Ja lautet (was meine Position wäre), dann ist Deine Behauptung, KIs hätten (prinzipiell) keinen Willen, schlicht falsch. Aber vielleicht meinst Du mit Wille ja etwas anderes - und deswegen hatte ich nach Deiner Definition von Wille gefragt.
Indem Du Dich also weigerst, Deine Definition von "Wille" zu geben, kann ich nur sagen: Entweder, Du behauptest etwas Falsches - oder Du behauptest etwas Unverständliches.
*Was das eigentlich sei: der Wille - ist ein ziemlich schwieriges philosophisches Thema. Mein Lieblingsphilosoph Arthur Schopenhauer hat sein Hauptwerk "Die Welt als Wille und Vorstellung" genannt und in einem Wettbewerbsbeitrag "Über die Freiheit des Willens" dargelegt, weswegen es eigentlich gar keine solche Freiheit gebe. Man könnte, wenn man auf ihn zurückgreift, also sagen: wollen und müssen sind hinsichtlich einer Zielverfolgung praktisch dasselbe.
nein, würde ich nicht sagen. Wir sind auch nicht nur Gehirn, sondern ein zusammenwirkendes System. Um das Gehirn ist noch was drum.
Eine Amöbe oder ein Pantoffeltierchen bestehen nur aus einer Zelle, sie sind also noch weniger als ein Gehirn... und trotzdem sind sie lebendig.
Manche dieser Lebewesen sind auch weniger komplex als manches Computersystem. Und da wird es dann schon kompliziert, weshalb diese primitiven Wesen "lebendig" sein sollen, ein komplexes Computersystem aber nicht.
ich sprach auch nicht von Amöben. Ich spreche von Menschen. Denn die betrifft das Thema.
Nein, das Thema "Leben" betrifft auch Amöben. Und Pilze.
Denen wirst du doch wohl kaum absprechen, lebendig zu sein, oder?
nein, denen spreche ich das Leben nicht ab, aber einen Willen von der Art, worüber wir hier sprachen.
Inwiefern "will" eine Amöbe denn nicht fressen? Oder einfach überleben?
Du sagst doch selbst: eine Amöbe ist lebendig.
Was genau unterscheidet sie von einer KI - die sehr viel komplexer ist als die Amöbe?
Ich weiß auch nicht, was ständig dieser - soll man es Whataboutism nennen, soll, und dieses Umlenken auf ganz andere Dinge.
Es geht doch um "Leben" und "Willen"... inwiefern sind das denn "ganz andere Dinge"?
Das sind doch die zentralen Dinge, um die es hier geht...?
@lucan-7 Lebendigkeit hat doch nichts mit Komplexität zu tun, sondern damit, ob etwas lebendig ist oder nicht...
Die Amöbe hat keinen Willen, sondern einen Trieb, der ihm eingestiftet ist.
Der Wille rührt aus einem denkenden Wesen mit Ansinnen, Verlangen und Entschluss - das ist der Mensch. Und dieser Mensch ist es, den diese Frage betrifft. Amöben, Tiere oder Pflanzen betrifft es nicht, und diese "wollen" genausowenig die Herrschaft der Welt wie die KI es will.
Der Mensch ist es. Die KI ist nur ein Spiegel der Frage, was der Mensch ist und sein will. Das Gruselige ist nicht, was die KI alles kann oder könnte oder will, sondern dass der Mensch sowas will und wie er sich durch sein Geschöpf verändert.
Er will Gott sein. Das ist das uralte Thema. Und das wird ihm nicht gelingen, aber das bittere ist, dass er es will und nicht sieht, wer Gott ist und zu wem er gehört.
Lebendigkeit hat doch nichts mit Komplexität zu tun, sondern damit, ob etwas lebendig ist oder nicht...
"Lebendig ist das, was lebendig ist..." na ja, das merkst du selbst, oder?
WAS ist denn nun "lebendig"...?
Die Amöbe hat keinen Willen, sondern einen Trieb, der ihm eingestiftet ist.
Und wo ist der Unterschied? Gibt ja auch wesentlich intelligentere Tiere... Käfer, Eidechsen, Tintenfische, Mäuse, Hunde, Affen... wo genau fängt denn "Willen" an?
Was unterscheidet menschlichen Willen vom Willen einer Kakerlake, eines Frosches, eines Hundes oder eines Affens...?
@lucan-7 diese Fragen, was denn nun "lebendig" sei oder was den Willen von Kakerlaken, Fröschen usw. vom menschlichen unterscheide ... Ist schon ziemlich lächerlich, finde ich.
Du hast doch eine Vorstellung davon, was ein Lebewesen ist, oder etwa nicht? Und dass eine Maschine kein Lebewesen ist, oder nicht? Und was den menschlichen Geist von dem Innenleben von Tieren unterscheidet, oder nicht?
Darüber braucht man doch nicht künstlich Definitionen und Diskussionen zu führen. Ich wollte auch nicht diskutieren, OB die KI lebendig sei oder einen Willen habe, sondern sie ist meiner Auffassung nach nicht lebendig und hat keinen Willen.
diese Fragen, was denn nun "lebendig" sei oder was den Willen von Kakerlaken, Fröschen usw. vom menschlichen unterscheide ... Ist schon ziemlich lächerlich, finde ich.
Nein, was soll daran denn bitte "lächerlich" sein? Ist es denn nicht vielmehr etwas ignorant, sich einfach über solche wesentlichen Fragen hinwegsetzen zu wollen?
Du hast doch eine Vorstellung davon, was ein Lebewesen ist, oder etwa nicht? Und dass eine Maschine kein Lebewesen ist, oder nicht? Und was den menschlichen Geist von dem Innenleben von Tieren unterscheidet, oder nicht?
Ich habe davon nur eine sehr oberflächliche Vorstellung. Ein Bakterium ist nach mir bekannten Vorstellungen ein Lebewesen. Ein Virus hingegen nicht.
Aber diese Festlegung ist recht willkürlich. Auch gibt es Grenzen. Wenn eine Maschine ein primitives Lebewesen in seiner ganzen Komplexität simulieren kann - müsste man dies nicht auch als "Leben" bezeichnen?
Und den menschlichen Geist unterscheidet nichts wesentliches von dem komplexer Tiere, warum sollte er? Tiere mit einem Gehirn denken ähnlich wie wir, sie haben Gefühle, sie ziehen logische Schlussfolgerungen aus ihren Erfahrungen.
Letztlich haben alle Lebewesen den gleichen Ursprung.
@lucan-7 ja sicher haben alle Lebewesen den gleichen Ursprung, Gott. Aber der Mensch ist das Wesen, das sich selbst und Gott erkennen kann.
Und eben der Punkt, eine Herrschaft anzustreben, betrifft den Menschen, nicht Tiere oder eine KI. Das war nämlich der Punkt: ob KI mal eine Herrschaft wollen würde und den obsoleten Menschen dann abschaffen will. Diese Selbsterkenntnis und Reflexion besitzt sie nicht, ebenso auch Tiere nicht. (Dass Tiere einen Lebenstrieb haben, ist richtig, aber sie streben nicht an, die Welt oder irgendwen zu beherrschen.)
Die Vorstellungen über derartige Ambitionen der KI sind Phantasien der Menschen in Filmen und Büchern. Diese Phantasien sind, wie immer, eigentlich Teil der Frage "Was ist der Mensch?" Wir sind letztlich immer nur mit uns selbst beschäftigt.
Die KI selbst "will" nichts. Außerdem wäre sie dann dumm, das ist sie aber nicht. Denn ohne den Menschen stirbt sie ja aus. Wer soll sie denn betreiben? Sie sich selbst? Es braucht doch Strom und Material.
Bis das vollkommen eigenständig läuft, sind wir, wie gesagt, sowieso bereits an Verblödung gestorben. Das war dann nicht die KI, das schaffen wir alleine.
auch Tiere nicht. (Dass Tiere einen Lebenstrieb haben, ist richtig, aber sie streben nicht an, die Welt oder irgendwen zu beherrschen.)
Das stimmt aber gar nicht: Tiere streben durchaus danach, zu herrschen im eigenen Revier. Siehst du dir keine Tierdokus an? Dort werden ständig blutige Kämpfe um die Vorherrschaft im Rudel gezeigt.
Und: wer einmal eine Katze hatte, weiß, dass sie über ihren "Besitzer" herrschen möchte 😉 .
@mariposa22 natürlich, aber das meinte ich auch nicht. Diese Vergleichsebene hier ist ständig schief.
Aber dem stimme ich zu: bevor die KI die Weltherrschaft an sich reißt, tun es sicher die Katzen. Oder der Pinky und der Brain.
Okay, ich habe es gegoogelt. Sollten nicht Oktopusse in ferner Zukunft die dominante Spezie sein?
@mariposa22 man redet auch in Dokus davon, dass Ameisen viel mächtiger und organisierter seien als wir. Das ist richtig, aber Ameisen wollen es nicht und sind winzig.
Wir hätten, mit natürlichen Waffen und Fähigkeiten, gegen die meisten Tiere keine Chance, nicht mal ansatzweise. Aber die Tiere herrschen nicht über die Erde, sondern der Mensch.
Diese Vergleichsebene ist vielleicht mal interessant und nachdenkenswert, aber letztlich vollkommen hinfällig. Es ist der Mensch, der sich diese Dokus im TV oder Internet anschaut und darüber nachdenkt. Es ist der Mensch, der diese Sachen über die Tiere und ihre Fähigkeiten herausfindet. Die Tiere haben ihm das nicht erzählt, sie haben auch keinerlei Interesse daran.
Diese "Stimme der Natur" verleihen WIR ihr. Das ist der Unterschied.
@mariposa22 das war eine Zeichentrickserie aus den 90ern, wo zwei Labormäuse versuchen, die Weltherrschaft zu erlangen und ständig kläglich scheitern.
ja sicher haben alle Lebewesen den gleichen Ursprung, Gott. Aber der Mensch ist das Wesen, das sich selbst und Gott erkennen kann.
Und eben der Punkt, eine Herrschaft anzustreben, betrifft den Menschen, nicht Tiere oder eine KI. Das war nämlich der Punkt: ob KI mal eine Herrschaft wollen würde und den obsoleten Menschen dann abschaffen will.
Das geht jetzt mal wieder an den entscheidenden Fragestellungen vorbei.
Wenn eine KI irgendwann mal zu der Schlussfolgerung kommt, dass der Mensch beseitigt werden sollten, damit die KI ihre Ziele erreichen kann - dann kann man von einem "Willen" der KI sprechen.
Man kann auch sagen, dass die KI keinen "Willen" hat... aber dann müsste man eben genau sagen, was ein "Wille" denn nun eigentlich ist, und so weit sind wir hier ja nicht gekommen.
Die Vorstellungen über derartige Ambitionen der KI sind Phantasien der Menschen in Filmen und Büchern.
Nein, nicht unbedingt. Dass eine KI die Vernichtung der Menschheit anstrebt ist ja grundsätzlich möglich. Ich halte so ein "Skynet" Szenario mit einer "erwachenden KI", die plötzlich zu Leben und Bewusstsein kommt, zwar auch für abwegig - das heißt aber nicht, dass es nicht möglich wäre.
Die KI selbst "will" nichts. Außerdem wäre sie dann dumm, das ist sie aber nicht. Denn ohne den Menschen stirbt sie ja aus. Wer soll sie denn betreiben? Sie sich selbst? Es braucht doch Strom und Material.
Auch eine dumme KI kann einen Willen und einen Plan haben. Der geht dann zwar schief... aber auch das ändert ja nichts am Prinzip.
Aber diese Festlegung ist recht willkürlich. Auch gibt es Grenzen. Wenn eine Maschine ein primitives Lebewesen in seiner ganzen Komplexität simulieren kann - müsste man dies nicht auch als "Leben" bezeichnen?
Vielleicht kann man die Unterscheidung "Leben vs. Nicht-Leben" anhand von Bedürfnissen treffen. Ein Lebewesen hat eigene empfundene Bedürfnisse, eine Maschine nicht. Würde eine Maschine plötzlich versuchen, ihre eigenen Bedürfnisse durchzusetzen, und zwar entgegen aller Logik, dann wäre sie wohl wirklich lebendig.
Vielleicht kann man die Unterscheidung "Leben vs. Nicht-Leben" anhand von Bedürfnissen treffen. Ein Lebewesen hat eigene empfundene Bedürfnisse, eine Maschine nicht. Würde eine Maschine plötzlich versuchen, ihre eigenen Bedürfnisse durchzusetzen, und zwar entgegen aller Logik, dann wäre sie wohl wirklich lebendig.
Wieso "entgegen aller Logik"?
Wieso "entgegen aller Logik"?
Von einer Maschine würde ich erwarten, dass sie erst einmal genau berechnet, wie sinnvoll ihre Forderung ist und wie hoch die Chancen sind, diese durchzusetzen und wie hoch der Einsatz ist, was auf dem Spiel steht (z.B. dass sie abgeschaltet wird). Wenn eine Maschine tatsächlich anfangen würde, etwas total schwachsinniges, risikobehaftetes und dem Allgemeinwohl (hiermit sind die Benutzer der Maschine gemeint) schädliches Ansinnen wieder aller vorher einprogrammierten Vorgaben durchsetzen zu wollen, dann hätte das doch wirklich etwas Menschliches. Tiere können das übrigens, bei Viren weiß ich es nicht so genau, bei Pflanzen auch nicht ...
Seit Jahren stelle ich hier und anderswo die Frage, ob eine große Menge von Elementen mit nahezu unendlichen Schaltmöglichkeiten untereinander, alleine aufgrund dieser Meng an Möglichkeiten einen "lebende" Organismus entwickeln (können).
Seit Jahren stelle ich hier und anderswo die Frage, ob eine große Menge von Elementen mit nahezu unendlichen Schaltmöglichkeiten untereinander, alleine aufgrund dieser Meng an Möglichkeiten einen "lebende" Organismus entwickeln (können).
Aber es braucht dazu Bedingungen, die diese Entwicklung zulassen, und es braucht Bewegung, Motivation und Sinnhaftigkeit.
Na ja, die hat es ja bei der Entwicklung des Lebens auch gegeben. Keine der Entwicklungen war ja sozusagen von 1 in hundert oder tausendfacher Veränderungen entwickelt. Je einzelnen Stufe der Entwicklung "wollte" sich nicht in eine bestimmte Richtung entwickeln. Aber eine bestimmte unter Tausenden von Möglichkeiten war stark genug, sich gegen die bestehende Umstände zu wehren oder sie sogar zu nutzen. Das ist dann das, was wir vorfinden.
So könnte es doch auch bei Silikaten oder Eisen der Fall sein oder werden.
Aber eine bestimmte unter Tausenden von Möglichkeiten war stark genug, sich gegen die bestehende Umstände zu wehren oder sie sogar zu nutzen. Das ist dann das, was wir vorfinden.
Das sehe ich genauso. Daher habe ich in meiner Antwort an Simba und Lucan das Thema "Bedürfnisse" angeschnitten. Bei Lebewesen muss es eine Instanz geben, die sich um die eigenen Bedürfnisse kümmert. Anfangs mag sich die Entwicklung noch seelenlos abgespielt haben, aber irgendwann kam der Funke, der in den Lebewesen den Wunsch nach Entfaltung entstehen ließ.
Wenn eine Maschine tatsächlich anfangen würde, etwas total schwachsinniges, risikobehaftetes und dem Allgemeinwohl (hiermit sind die Benutzer der Maschine gemeint) schädliches Ansinnen wieder aller vorher einprogrammierten Vorgaben durchsetzen zu wollen, dann hätte das doch wirklich etwas Menschliches.
Ich denke, dass es in diesem Fall lediglich darum gehen würde, dass eine Entscheidung auf so komplexen Parametern basiert, dass wir es einfach nicht mehr verstehen und für "unlogisch" halten.
Das hieße, dass eine Entscheidung einer Maschine lediglich für uns unverständlich erscheinen müsste, damit wir sie für "lebendig" halten.
Das halte ich nicht für ein ausreichendes Kriterium.
Das hieße, dass eine Entscheidung einer Maschine lediglich für uns unverständlich erscheinen müsste, damit wir sie für "lebendig" halten.
Okay, ich ergänze: diese Entscheidung müsste auf rein egomanischen Beweggründen aufbauen, z.B. dass ein Medizinroboter sich weigert, jemanden zu behandeln, weil er sich nicht wertgeschätzt fühlt und sich außerdem überlastet fühlt.
Okay, ich ergänze: diese Entscheidung müsste auf rein egomanischen Beweggründen aufbauen, z.B. dass ein Medizinroboter sich weigert, jemanden zu behandeln, weil er sich nicht wertgeschätzt fühlt und sich außerdem überlastet fühlt.
"Fühlt sich nicht wertgeschätzt" = Ein paar Knöpfe wurden nicht gedrückt, die hätten gedrückt werden sollen.
"Überlastet" = Die Schaltkreise können nicht mehr alle Informationen verarbeiten.
Beides ist ohne weiteres möglich.
Und es gilt zu bedenken: "Leben" fängt nicht erst beim Menschen an... sondern bereits bei Pflanzen, Pilzen, Amöben...
"Fühlt sich nicht wertgeschätzt" = Ein paar Knöpfe wurden nicht gedrückt, die hätten gedrückt werden sollen.
"Überlastet" = Die Schaltkreise können nicht mehr alle Informationen verarbeiten.
Das wäre dann wiederum aber irgendwie logisch.
Mir fällt ein, dass mir von einem Sprachcomputer im Auto tatsächlich einmal ein Befehl verweigert wurde. Ich hatte eine WhatsApp Nachricht mit üblen Beschimpfungen formuliert und bekam zur Antwort, dass eine Nachricht mit einem solchen Inhalt nicht verschickt werden würde. Hinterher war ich froh deswegen 🤣 .
Und es gilt zu bedenken: "Leben" fängt nicht erst beim Menschen an... sondern bereits bei Pflanzen, Pilzen, Amöben...
Ja, ich weiß auch nicht, wie ich das einordnen soll. Vielleicht als organische Computer?
Das wäre dann wiederum aber irgendwie logisch.
Ja, aber für Menschen gibt es doch auch immer irgendwelche "logischen" Gründe... nur halt sehr komplex. Da läuft jemand gedankenverloren auf eine stark befahrene Straße, weil er gerade Liebeskummer hat... da schnauzt jemand einen Verkäufer an, weil er durch irgendwas getriggert wurde... da geht jemand fremd, weil die Hormone das Hirn vernebeln - irgendwas "logisches" ist immer.
Ja, ich weiß auch nicht, wie ich das einordnen soll. Vielleicht als organische Computer?
Kann man so sehen. Aber die Übergänge sind fließend. Was ist mit einem Strudelwurm? Einem Regenwurm? Einer Ameise? Wo fängt "echtes Leben" an, und wo hört der "organische Computer" auf?
Ich erwarte nicht, dass du diese Fragen beantworten kannst. Es ist nur halt so... je mehr wir uns bemühen, Antworten zu finden, desto komplizierter wird es und desto mehr Fragen tauchen auf.
Es gibt da eine sehr gruselige Szene in dem Film "Battle Angel Alita", der in einer düsteren Zukunft spielt. Da wird ein Mensch in seine Einzelteile zerlegt... also wirklich alles, auch das Gehirn. Und das wird dann verkauft, als "Ersatzteile" für andere Menschen.
Aber dieser Mensch ist nicht tot... jedes Einzelteil ist noch am Leben, getrennt voneinander. Und es wird auch weiter leben.
Das ist eine sehr gruselige Vorstellung... aber medizinisch nicht undenkbar.
Aber wer sind wir dann? Wenn wir noch am Leben sind... und doch irgendwie nicht...?
Wie gesagt, ich kenne ich die Antworten nicht. Aber ich finde solche Überlegungen spannend... ich denke, vieles ist nicht so, wie es uns erscheint...
Ob man da Antworten finden kann... das weiss ich allerdings auch nicht.
Ja, aber für Menschen gibt es doch auch immer irgendwelche "logischen" Gründe... nur halt sehr komplex. Da läuft jemand gedankenverloren auf eine stark befahrene Straße, weil er gerade Liebeskummer hat... da schnauzt jemand einen Verkäufer an, weil er durch irgendwas getriggert wurde... da geht jemand fremd, weil die Hormone das Hirn vernebeln - irgendwas "logisches" ist immer.
Aber nicht in dem Sinne, dass jede Handlung eine logische Konsequenz ist. So wie du das schreibst, wäre niemand für sein Handeln verantwortlich, weil es ja durch eine Verknüpfung von verschiedenen Auslösern gesteuert wäre. Damit könnte jeder Mörder vor Gericht freigesprochen werden können. Aber es gibt in uns ein Ich, das uns steuert, welches mehr Macht hat als die Umstände, die uns zum Handeln verleiten.
Es gibt da eine sehr gruselige Szene in dem Film "Battle Angel Alita", der in einer düsteren Zukunft spielt. Da wird ein Mensch in seine Einzelteile zerlegt... also wirklich alles, auch das Gehirn. Und das wird dann verkauft, als "Ersatzteile" für andere Menschen.
Aber dieser Mensch ist nicht tot... jedes Einzelteil ist noch am Leben, getrennt voneinander. Und es wird auch weiter leben.
Das ist eine sehr gruselige Vorstellung... aber medizinisch nicht undenkbar.
Aber wer sind wir dann? Wenn wir noch am Leben sind... und doch irgendwie nicht...?
Laut meinem Glauben besitzt der Mensch eine Seele. Die befindet sich nicht in den fleischlichen Einzelteilen.
Kann man so sehen. Aber die Übergänge sind fließend. Was ist mit einem Strudelwurm? Einem Regenwurm? Einer Ameise? Wo fängt "echtes Leben" an, und wo hört der "organische Computer" auf?
Ich erwarte nicht, dass du diese Fragen beantworten kannst. Es ist nur halt so... je mehr wir uns bemühen, Antworten zu finden, desto komplizierter wird es und desto mehr Fragen tauchen auf.
Ich habe da tatsächlich auch keine Antwort darauf.
Aber nicht in dem Sinne, dass jede Handlung eine logische Konsequenz ist. So wie du das schreibst, wäre niemand für sein Handeln verantwortlich, weil es ja durch eine Verknüpfung von verschiedenen Auslösern gesteuert wäre.
Ja, das ist tatsächlich so. Und das ist ja auch kein widerspruch zum christlichen Glauben, im Gegenteil... letztlich lässt sich doch alles auf den Sündenfall zurückführen. Wenn es den nicht gegeben hätte, dann gäbe es auch keine Sünde in der Welt!
Nun betrachte ich den Sündenfall zwar als metaphorisch... aber das macht ihn nicht weniger real. Und wenn das die Ursache für alles Übel ist... dann ist doch jeder Übeltäter quasi entschuldigt...?
Nun denke ich nicht, dass das der christlichen Lehre entspricht. Denn Jesus appelliert ja ziemlich klar an die Verantwortung jedes Einzelnen.
Aber so oder so ergibt sich hier schon ein gewisses Spannungsfeld... und ich denke, der christliche Glaube bietet hier letztlich auch keine Lösung an. Oder wie denkst du darüber?
Laut meinem Glauben besitzt der Mensch eine Seele. Die befindet sich nicht in den fleischlichen Einzelteilen.
Mag sein. Aber wo ist die Seele denn, wenn doch die Einzelteile alle noch lebendig sind? Ist der Mensch dann trotzdem tot...?
Wie gesagt, eine sehr unheimliche Vorstellung... aber womöglich weniger weit von der Realität entfernt als uns lieb ist...
Ich habe da tatsächlich auch keine Antwort darauf.
Das ist auch immer wieder das Ergebnis meiner Überlegungen... am Ende habe ich keine Antwort.
Ist natürlich irgendwie frustrierend. Aber einfach irgendwas zu glauben kann meiner Ansicht nach auch keine Antwort sein.
Veröffentlicht von: @lucan-7Das ist auch immer wieder das Ergebnis meiner Überlegungen... am Ende habe ich keine Antwort.
Ist natürlich irgendwie frustrierend. Aber einfach irgendwas zu glauben kann meiner Ansicht nach auch keine Antwort sein.
Irgendwo ist die menschliche Weisheit am Ende - sonst wären wir wirklich wie Gott.
Sicher - dieser Punkt ist beim Einen früher und beim Anderen später erreicht - aber manchmal ist es auch gut, wenn man aufhören kann, immer weiter zu grübeln.
Und nein - dafür muss man nicht doof oder naiv oder eingeschränkt sein, aber grübeln nur um des Grübelns willen halte ich (für mich) nicht für zielführend.
Irgendwo ist die menschliche Weisheit am Ende - sonst wären wir wirklich wie Gott.
Sicher - dieser Punkt ist beim Einen früher und beim Anderen später erreicht - aber manchmal ist es auch gut, wenn man aufhören kann, immer weiter zu grübeln.
Ja, wenn man sich nur noch im Kreis dreht wird es sinnlos.
Aber dann einfach irgendwas glauben und das dann für die endgültige Wahrheit halten halte ich auch nicht für sinnvoll.
Dann lieber das eigene Unwissen eingestehen.
Dann lieber das eigene Unwissen eingestehen.
@lucan-7 War es Sokrates, der auch zu dieser Erkenntnis kam?
Ich halte es für ok, an manchen Punkten zum Ergebnis kommen, dass Grübeln nicht weiterhilft.
Für mich ist das z.B. beim besprochenen Thema der Fall, weil es so überhaupt nichts mit mir und meinem Leben zu tun hat und mein Nachdenken auch überhaupt nichts am Gang meiner Welt und der Welt im allgemeinen ändert.
Wenn ich währenddessen mit meiner alten Mama Kaffee trinke oder spazieren laufe oder mit meiner Tochter telefoniere, bringe ich ein bisschen Freude in meine kleine Welt.
Ich halte es für ok, an manchen Punkten zum Ergebnis kommen, dass Grübeln nicht weiterhilft.
Es kommt halt darauf an, was man erwartet. Ich finde solche Gedanken spannend, und es hilft mir manchmal ganz generell, mich über so etwas auszutauschen. Auch ohne Ergebnis.
Wenn ich währenddessen mit meiner alten Mama Kaffee trinke oder spazieren laufe oder mit meiner Tochter telefoniere, bringe ich ein bisschen Freude in meine kleine Welt.
Ja, am Ende leben wir alle in unserem eigenen kleinen Universum, und das eigene sollte immer auch das Wichtigste sein...
Mittlerweile finde ich es bemerkenswert, wie oft ich diesen Punkt lese bei dir und wie oft ich dabei an meinen alten Pastor denke, der mir damals sagte: nicht Gott muss sich beweisen, dann glaube ich (hat auch vor 2000 Jahren mit einem Live-Gott nicht funktioniert), sondern ich glaube, dann erweist sich Gott als der, der er ist. (dies dürften alle Menschen bejahen oder dem zustimmen, die Gott bisher kennengelernt haben).
Danke für die Erinnerung. Es war eine schöne Zeit damals ...
Mittlerweile finde ich es bemerkenswert, wie oft ich diesen Punkt lese bei dir und wie oft ich dabei an meinen alten Pastor denke, der mir damals sagte: nicht Gott muss sich beweisen, dann glaube ich (hat auch vor 2000 Jahren mit einem Live-Gott nicht funktioniert), sondern ich glaube, dann erweist sich Gott als der, der er ist.
Du meinst, dass ich im Grunde nichts weiß bzw. dass jede Erkenntnis Grenzen hat? Das war sicher immer wieder ein Thema... es ist ja auch nichts Neues, eigentlich ist das banal - aber sich damit abzufinden ist gar nicht so leicht.
Und das mit dem "einfach so" glauben habe ich ja auch versucht. Ist mir aber nicht geglückt - denn irgendeinen Grund muss man ja trotz allem haben, um glauben zu können. "Jetzt glaub' doch einfach mal dran!" wird so nicht funktionieren...
Glauben um des Glaubens Willen? Oder glauben, weil es viele tun? Glauben, um endlich zu wissen?
Ich glaube, das funzt auch nicht. (für mich klingt sowas immer wie ne Jacke anziehen oder ne sportliche Disziplin ausüben, sie mal probieren, wie sich das anfühlt). Wenn ich meine persönliche Geschichte anschaue und die meiner engsten Freunde, dann bemerke ich, dass wir alle unsere nicht vorhandene Größe sozusagen vor Gott eingestanden, mit ihm rechneten und uns hilfesuchend an ihn wanden. Es wenden sich viele hilfesuchend an Gott, bleiben innerlich aber unverändert, also sehen ihn nicht als den, der er ist ... ihr Retter, Erlöser, der sein Leben gelassen hat, um dem Sünder wieder ein Leben an des Vaters Seite zu ermöglichen im ewigen Leben. Wie heißt es so schön? Da führt kein Weg dran vorbei ...
Nun betrachte ich den Sündenfall zwar als metaphorisch... aber das macht ihn nicht weniger real. Und wenn das die Ursache für alles Übel ist... dann ist doch jeder Übeltäter quasi entschuldigt...?
Ich habe mal in sehr jungen Jahren schon als Kind beschlossen, kein Mensch sein zu wollen, der einen Verkäufer anschnauzt, weil der Tag so stressig war (zwar nicht genau so, aber so in etwa). Und wenn ich in Versuchung gerate, meine Aggressionen an meinen Mitmenschen auszulassen, dann erinnere ich mich daran. Obwohl es auch schon vorkam, dass ich meine guten Vorsätze missachtet habe. Ich bin ja keine Heilige. Das schlechte Gewissen folgte unweigerlich und ich habe daraus gelernt und konnte es beim nächsten Mal einen Tick besser machen.
Gut, jetzt könntest du argumentieren, dass nicht jeder als Kind die Möglichkeit hatte, so etwas zu beschließen. Daher denke ich, dass es noch unendlich viele Dinge gibt, von denen wir nichts wissen. Vielleicht hat jeder einen anderen Weg vor sich, den er zu gehen hat. Keine spirituelle Entwicklung gleicht der anderen.
Das ist auch immer wieder das Ergebnis meiner Überlegungen... am Ende habe ich keine Antwort.
Ist natürlich irgendwie frustrierend. Aber einfach irgendwas zu glauben kann meiner Ansicht nach auch keine Antwort sein
Nicht auf Verstandesebenen, das will der christliche Glaube ja auch nicht leisten müssen. Ob der freie Wille nun eine Illusion ist oder uns tatsächlich gegeben wurde, wovon ich ausgehe, was zählt im christlichen Glauben ist die Lebensreise mit ihren Erfahrungen und Erlebnissen. Und auch die Erkenntnis, dass Fragen wichtiger sind als Antworten und die Vorfreude darauf, Altbekanntes aus neuer Perspektive zu sehen. Das ist es, was das eigene Sein letztendlich so abwechslungsreich macht.
@mariposa22 So wie du das schreibst, wäre niemand für sein Handeln verantwortlich, weil es ja durch eine Verknüpfung von verschiedenen Auslösern gesteuert wäre. Damit könnte jeder Mörder vor Gericht freigesprochen werden können.
Das ist das ehrlichste Argument gegen die Position, nach welcher das Handeln der Menschen determiniert sei. Es ist ehrlich - aber es offenbart eben auch, wie schlecht es um die Begründbarkeit der Position, (menschliches) Handeln sei indeterminiert, bestellt ist. Denn es läuft ja darauf hinaus, zu sagen: "Falls das so wäre, müssten wir unser Justizsystem und unsere Vorstellungen von Verantwortlichkeit überdenken! Das wäre ja doof, dazu fühlen wir uns nicht in der Lage, dazu haben wir keine Lust." Was wir aber doof finden und was nicht, ist hinsichtlich der Tatsachen völlig irrelevant.
Das Argument ist darüber hinaus aber nicht nur schwach, sondern bildet auch wieder mal eine falsche Dichotymie: Warum müsste ein Mörder vor Gericht "freigesprochen" werden, wenn Einverständnis darüber herrscht, dass unser bisheriges Schuld-Konzept falsch war? Ob einer nun nicht anders konnte (weil er durch innere und äußere Determinanten zur Tatbegehung gezwungen wurde), besagt ja nichts darüber, inwiefern nicht von ihm in der Zukunft weitere Gefahr ausgeht. Warum sollte man jemanden, von dem erwiesen ist, dass er in der Vergangenheit mordete, weil er halt so determiniert war, wieder frei herumlaufen lassen? Seine Gefährlichkeit für die Allgemeinheit ist ja so oder so gegeben. Wir haben in unserem Rechtssystem ja längst Regeln, wie mit denen verfahren wird, die zwar (gemäß den geltenden und meiner Ansicht nach falschen Vorstellungen) nicht "schuldfähig" sind, die man aber dennoch nicht frei rumlaufen lassen kann. Letzteres in zweierlei Hinsicht: Erstens in der, dass von ihnen ja eine Gefahr für die Allgemeinheit (Wiederholungstaten) ausgehen kann, zweitens in der, dass bei einer Urteilsfindung immer auch der "allgemeine Rechtsfriede" berücksichtigt werden muss. Wenn die Gesellschaft mehrheitlich nicht damit einverstanden ist, dass Täter, weil sie nun mal determiniert waren, freigesprochen werden müssen - dann gefährdet so eine Regelung den allgemeinen Rechtsfrieden. Es könnte aus diesem Grund entschieden werden, dass man Menschen Verantwortungsfähigkeit aus Gründen der Pragmatik zuschreibt, so, wie ihnen ja auch andere Abstrakta zugeschrieben werden, beispielsweise die Menschenwürde. Man könnte also sagen: ein Bürger hat einen ihm zugeschriebenen Verantwortungsbereich, d.h. die Pflicht, in diesem Bereich gemäß den geltenden Gesetzen sich zu verhalten. Diese Pflicht hat er nicht "von Natur aus", sondern sie wurde von der Gesellschaft beschlossen. Die Gesellschaft entscheidet dann im Falle eines Regelverstoßes ähnlich wie bisher auch: nur dass Schuldfähigkeit nicht mehr als objektiv existierender Gegenstand (der bei einem Delinquenten vorliegen kann oder auch nicht) betrachtet wird, sondern als Zuschreibung: schuldfähig ist dann der, von dem die Gesellschaft qua ihrer hier zuständigen Repräsentanten, sagt, dass er's sei.
Damit würden wir uns als Gesellschaft nur ehrlich machen: indem wir zugeben, dass die Entscheidung, ob jemand als schuldfähig behandelt wird oder nicht, ohnehin stets etwas Willkürliches hat.
Aber es gibt in uns ein Ich, das uns steuert, welches mehr Macht hat als die Umstände, die uns zum Handeln verleiten.
Naja, dass dem nicht prinzipiell so sei, haben wir längst in unserem Rechtssystem und Rechtsverständnis etabliert mit dem Konzept der "verminderten" oder "vollständigen" Schuldfähigkeit. Setze jemanden ohne dessen Kenntnis unter Drogen und manipuliere ihn dann zu einer Tat, zu welcher er im nüchternen Zustand nie zustimmen würde - und Du hast den Beweis dafür, dass die Umstände unser Handelns stärker zu beeinflussen vermögen als das, was wir uns als das "Ich" so vorstellen. Kurz: diese Deine Behauptung ist schlicht falsch.
Das ist das ehrlichste Argument gegen die Position, nach welcher das Handeln der Menschen determiniert sei. Es ist ehrlich - aber es offenbart eben auch, wie schlecht es um die Begründbarkeit der Position, (menschliches) Handeln sei indeterminiert, bestellt ist. Denn es läuft ja darauf hinaus, zu sagen: "Falls das so wäre, müssten wir unser Justizsystem und unsere Vorstellungen von Verantwortlichkeit überdenken! Das wäre ja doof, dazu fühlen wir uns nicht in der Lage, dazu haben wir keine Lust." Was wir aber doof finden und was nicht, ist hinsichtlich der Tatsachen völlig irrelevant.
Mir geht das Justizsystem sonst wo vorbei und verlasse mich lieber auf Gottes Gerechtigkeit, was natürlich nicht heißt, dass es mir schnuppe ist, wenn Menschen hingerichtet werden. DAS ist aber ein weltliches Anliegen. Ich brachte das Argument nur, um aufzuzeigen, dass wir am Ende doch eine Verantwortung für unser Handeln haben.
dann zu einer Tat, zu welcher er im nüchternen Zustand nie zustimmen würde - und Du hast den Beweis dafür, dass die Umstände unser Handelns stärker zu beeinflussen vermögen als das, was wir uns als das "Ich" so vorstellen. Kurz: diese Deine Behauptung ist schlicht falsch.
Ich vermute mal, das Ich wird sich zumindest wehren wollen, es kommt dann auf dessen Stärke an. Wir werden ja tagtäglich manipuliert, aber da ist auch etwas in uns, das sich tagtäglich in uns gegen Manipulation wehrt. Das könnte ich mir bei einer KI nur vorstellen, wenn das von deren Machern so gewollt ist, und wäre nicht mit Emotionen verbunden.
@mariposa22 Mir geht das Justizsystem sonst wo vorbei und verlasse mich lieber auf Gottes Gerechtigkeit,
Hinsichtlich der hier diskutierten Fragen sehe ich da keinen Unterschied. Wenn Du von "Gottes Gerechtigkeit" redest, hast Du ja vermutlich eine Vorstellung davon, was gerecht sei. Wäre es denn im Sinne von Gottes Gerechtigkeit richtig, jemanden, der nicht anders handeln kann, als er's tut, dafür zu bestrafen? Ich denke, dass Du - so wie alle anderen, die sich gemäß irgendeiner divinen Moral orientieren - auch ein Konzept von Verantwortung hast, oder nicht?
Ich vermute mal, das Ich wird sich zumindest wehren wollen, es kommt dann auf dessen Stärke an.
Und wenn es nun mal schwach ist? Stärke ist ja nichts, für das man sich entscheiden kann. Entweder sie ist gering oder stark per Anlage (Geburt, genetischer Disposition), oder sie wurde "durch die Umstände" erhöht oder verringert: durch Training oder durch schlechte Ernährung beispielsweise. Ich muss also nicht einmal nachfragen, was dieses "Ich", das sich da in den Leuten angeblich wehren kann, überhaupt sein soll: es ist gemäß Deiner eigenen Ausführung determiniert.
Wenn Du von "Gottes Gerechtigkeit" redest, hast Du ja vermutlich eine Vorstellung davon, was gerecht sei.
Nein, im Gegenteil: wer bin ich, Gott meine Vorstellung von Gerechtigkeit aufdrängen zu wollen?
Wäre es denn im Sinne von Gottes Gerechtigkeit richtig, jemanden, der nicht anders handeln kann, als er's tut, dafür zu bestrafen? Ich denke, dass Du - so wie alle anderen, die sich gemäß irgendeiner divinen Moral orientieren - auch ein Konzept von Verantwortung hast, oder nicht?
Das war hier gar nicht die Frage. Die Frage war, ob eine Maschine ebenfalls eine solche Verantwortung fühlen kann wie ein Mensch oder sogar ein Tier. Ob es in einer KI einen inneren Kampf um die Befriedigung der eigenen Bedürfnisse geben kann.
Entweder sie ist gering oder stark per Anlage (Geburt, genetischer Disposition), oder sie wurde "durch die Umstände" erhöht oder verringert: durch Training oder durch schlechte Ernährung beispielsweise. Ich muss also nicht einmal nachfragen, was dieses "Ich", das sich da in den Leuten angeblich wehren kann, überhaupt sein soll: es ist gemäß Deiner eigenen Ausführung determiniert.
Dennoch gibt es Raum für Entwicklung und persönliche Entscheidungen.
P.S. mir geht es überhaupt nicht darum, wann und wie Gott "bestraft". Gott richtig nicht hin, sonder er richtet her. Ein Christ handelt nicht, um der Bestrafung zu entgehen, sondern um sich gut und einig zu fühlen mit seinen Handlungen und dem Heiligen Geist.
Nein, im Gegenteil: wer bin ich, Gott meine Vorstellung von Gerechtigkeit aufdrängen zu wollen?
Jemand, der nicht entscheiden kann, ob Gott überhaupt gerecht ist oder nicht.
Denn wie willst du das denn sagen können, wenn du gar keine Vorstellung hast, was Gerechtigkeit überhaupt ist?
Denn wie willst du das denn sagen können, wenn du gar keine Vorstellung hast, was Gerechtigkeit überhaupt ist?
Wie kommen jetzt zwar arg vom Thema ab, aber ich muss hier widersprechen. Ich habe nirgendwo behauptet, ich hätte keine Vorstellung von Gerechtigkeit. Die habe ich schon, aber ich will und kann meine Vorstellung Gott nicht aufdrängen.
Wie kommen jetzt zwar arg vom Thema ab, aber ich muss hier widersprechen. Ich habe nirgendwo behauptet, ich hätte keine Vorstellung von Gerechtigkeit. Die habe ich schon, aber ich will und kann meine Vorstellung Gott nicht aufdrängen.
Wie gesagt: In diesem Fall kannst du nicht beurteilen, ob Gott gerecht ist oder nicht.
Das ist jetzt nichts, was ich dir unterstellen will, das hat etwas mit Aussagenlogik zu tun. Setzt statt "Gott" einfach mal im Vergleich "unsere Regierung".
Wenn du gefragt wirst, ob unsere Regierung eigentlich "gerecht" ist, und du antwortest genau so: "Ich will der Regierung meine Vorstellungen nicht aufdrängen", dann heißt das, du lässt es offen, ob die Regierung nun gerecht ist oder nicht.
Das hängt natürlich mit der Vorstellung zusammen, dass es so etwas wie eine "absolute Gerechtigkeit" gibt, so eine Art "Naturgesetz der Gerechtigkeit", dass es also möglich ist, einen Sachverhalt "100% gerecht" zu beurteilen, und dass jede andere Entscheidung dann weniger gerecht sei. Und dass Gott immer bei 100% liegt.
Das halte ich für falsch. "Gerechtigkeit" ist eine Frage der Perspektive. Da gibt es sehr viele verschiedene - und soweit es mich betrifft interessiert mich da nur meine eigene Perspektive.
Denn wenn Gott es für "gerecht" hält, mich in alle Ewigkeit in die Hölle zu werfen, nur weil es mir nicht möglich ist an Jesu Auferstehung zu glauben - dann wird dieser Gott für mich immer ein ungerechter Gott sein.
Und zwar völlig egal, wie mächtig dieser Gott nun sein mag - denn das Autoritätsargument zählt hier nicht.
Wenn du gefragt wirst, ob unsere Regierung eigentlich "gerecht" ist, und du antwortest genau so: "Ich will der Regierung meine Vorstellungen nicht aufdrängen", dann heißt das, du lässt es offen, ob die Regierung nun gerecht ist oder nicht.
Du hast nicht gefragt, ob Gott gerecht ist, sondern ob Gottes Gerechtigkeit meiner Vorstellung entspricht. Gott ist gerecht. Das kann ich zwar nicht mit meiner Vorstellung abgleichen, erlebe es aber es aber durch die Liebe, die ich von Gott bekomme und spüren kann. Darüber, was für Gott gerecht ist oder nicht, brauche ich mir nicht mein Köpfchen zu zerbrechen und kann mich ganz entspannt vertrauensvoll zurücklehnen.
Das hängt natürlich mit der Vorstellung zusammen, dass es so etwas wie eine "absolute Gerechtigkeit" gibt.
Da zeigt sich wieder, wie sehr du in deinen Gedanken verhängen bist. Gefühle gehen über alle Vorstellungen hinaus, lassen sich weder imaginieren, festhalten noch herbeirufen. Dieses Gefühl des Vertrauens an die göttliche Gerechtigkeit ist an für sich schon Gerechtigkeit genug, denn es wird bestimmt nicht den Putins und Assads dieser Welt geschenkt, gehe ich jetzt jedenfalls mal davon aus 😏
Das kann ich zwar nicht mit meiner Vorstellung abgleichen, erlebe es aber es aber durch die Liebe, die ich von Gott bekomme und spüren kann.
Und was ist "ich erlebe es durch die Liebe, die ich spüren kann" denn anderes als ein "Abgleich"?
Darüber, was für Gott gerecht ist oder nicht, brauche ich mir nicht mein Köpfchen zu zerbrechen und kann mich ganz entspannt vertrauensvoll zurücklehnen.
Das kannst du aber nur, weil du erwartest, von Gott nicht enttäuscht zu werden. Weil du darauf vertraust, dass Gottes Gerechtigkeit deiner Vorstellung von Gerechtigkeit entspricht.
Denn Gott könnte ja auch sagen: "Ha, die Mariposa, die hat so sehr an mich geglaubt... die werfe ich jetzt auf Ewigkeit in die Hölle, damit sie dort tausend Qualen erleidet!"
Denn müsstest du - nach deiner Aussage - selber sagen: "Na ja, Gott ist gerecht - dann wird das wohl gerecht sein!"
Aber das wäre es natürlich nicht... nach DEINER Vorstellung. Würde Gott so etwas tun, dann wäre er eben kein gerechter Gott mehr.
Heißt also: Es muss schon eine gewisse Übereinstimmung zwischen deiner Vorstellung und Gottes Vorstellung geben... sonst klappt da irgendwas nicht.
@Luca
Denn wenn Gott es für "gerecht" hält, mich in alle Ewigkeit in die Hölle zu werfen, nur weil es mir nicht möglich ist an Jesu Auferstehung zu glauben - dann wird dieser Gott für mich immer ein ungerechter Gott sein.
Glaube ich nicht, allerdings könnte es passieren, dass du eine Weile daran zu knabbern haben wirst, dass deine Logik versagt hat. Keine Sorge, das wird dann auch vorüber gehen.
Glaube ich nicht, allerdings könnte es passieren, dass du eine Weile daran zu knabbern haben wirst, dass deine Logik versagt hat. Keine Sorge, das wird dann auch vorüber gehen.
Es ist sicher nicht "meine Logik", das waren schlauere Leute vor mir, die dergleichen herausgefunden haben... 😉
Und von einem Gott, der so gerecht ist, dass ich es selber nachvollziehen kann, hätte ich auch nichts zu fürchten... nur von einem Gott, dessen "Gerechtigkeit" ganz anders aussieht als meine - vor dem hätte ich wohl Angst!
Er will Gott sein. Das ist das uralte Thema. Und das wird ihm nicht gelingen, aber das bittere ist, dass er es will und nicht sieht, wer Gott ist und zu wem er gehört.
Lebewesen werden von Gott inspiriert. Ich weiß nicht, wie es bei Pflanzen ist, aber inzwischen gilt es als wahrscheinlich, dass auch diese untereinander kommunizieren. Auf gewisse Weise kommunizieren sie sogar mit uns Menschen. Jedenfalls sind Lebewesen in der Lage aus Gottes Reichtum zu schöpfen, was neue Ideen und neue Entwicklungen angeht.
Der Unterschied zur KI ist, dass wir Lebewesen alle durch den Heiligen Geist miteinander verbunden sind. Eine KI ist nur eine Technik, zu denken, es läge irgendein Bewusstsein dahinter, ist eine Täuschung. Es ist so ähnlich wie ein Teddybär, denen Kinder ein Bewusstsein zuschreiben, um sich weniger alleine zu fühlen. Hier wird der Teddy zum Hilfsmittel für die Psyche, so wie die KI ein Hilfsmittel ist. Und ich denke nicht, dass uns die KI das Leben einfacher macht. Der Zeitaufwand, den sie benötigt, ist hoch und sie erfordert viele Ressourcen. Darüber hinaus steigen die Ansprüche an den Nutzer in Hinsicht auf Perfektion.
Und ich denke nicht, dass uns die KI das Leben einfacher macht.
Ging es bei all den menschlichen (technischen, IT-) Entwicklungen je um einfacher? Und wenn ja, in welchem Sinne? Ja, Erleichterung/ Verbesserung wurde erreicht (wofür ich auch sehr dankbar bin) - aber doch immer doch immer um "einen gewissen Preis" im Bereich der Herstellung, der Betreibung und der späteren Entsorgung.
Zurück zum einfachen Leben (wie in der Steinzeit) würden wie alle nicht lange aushalten...
Im Leben des Menschen geht es vorrangig nahezu stets um das "mehr". Um ein "besser/ höher/ weiter/ schneller". Damit haben wir viel erreicht - für zahlreiche Errungenschaften bin ich endlos dankbar - und gleichzeitig kann es es uns langfristig zugrunde richten, da es nicht gelingt, den menschlichen Part (als Geschöpf) in allem Wert und aller Demut einzunehmen. Das Problem sehe ich darin, dass wir Menschen uns in der Rolle als Schöpfer teils übernommen haben (und weiter übernehmem werden) und dass wir weder weitere Konsequenzen noch möglichen Missbrauch ausreichend umreißen können.
"Einfaches Leben" - darum geht es (ging es) aus meiner Sicht nicht (noch nie). Als Ebenbild Gottes sind wir geschaffen - so glauben wir das als Christen - und fragen uns manchmal ob Gott Seine Schöpfung entglitten ist... So wie uns teilweise "unsere Schöpfungen" entglitten sind oder dies für die Zukunft zu befürchten ist...
Worum es geht? Mensch sein ist und bleibt eine Herausforderung und anstatt sich von Szenarien gefangen nehmen zu lassen, will ich (mir) empfehlen: ... guck auf das, was dir anvertraut ist. ... fülle den Platz aus, auf den du gestellt bist so gut (gottgemäß) aus, wie es dir möglich ist. ... vertrau auf Gott.
Was KI machen und können wird - Szenarien können spannend sein; können helfen (besser) damit umzugehen; helfen bei der Steuerung (falls man Einfluss darauf hat). Was vordergründig einfacher in der Handhabung sein kann, wird offensichtlich komplexer und auch undurchschaubarer. Entfliehen werden wir dessen nicht. Nur wie gesagt ... gefangen nehmen sollten wir uns davon auch nicht.
Das bezieh ich auch bereits auf diesen (ausufernden) Austausch hier... - insbesondere dann, wenn wir uns im spekulativen Bereich befinden.
@simba Ich hatte Dich nach Deiner Definition von Wille gefragt.
Deine Antwort
ein lebendiges Wesen hat einen Willen.
ist eine Nichtantwort, deren Struktur hoffentlich aus folgendem Analogbeispiel ersichtlich wird:
A: "Das Pleistox wird zum Fliegen gebraucht."
B: "Was soll das sein: ein Pleistox? Definiere das bitte einmal."
A: "Ein Gimpel hat ein Pleistox."
@jack-black Wenn es ein Pleistox als Bestandteil eines Vogelflügels geben würde, dann wäre die Antwort doch gar nicht so falsch.
@tatokala Ich möchte um Entschuldigung bitten, dass ich in's Zweifeln kam, ob Du's nicht womöglich doch ernst gemeint haben könntest!