Kommt Gott doch nic...
 
Benachrichtigungen
Alles löschen

Kommt Gott doch nicht?

Seite 2 / 4

Jack-Black
Themenstarter
Beiträge : 5659

Ja, sorry, die Überschrift ist selbstverständlich Click-Bait. Aber ein jüngst veröffentlichtes Video von Sabine Hossenfeld, auf das mich der User goodfruit gestern per PM hinwies (Danke nochmal dafür!) hat mir sowas wie Hoffnung zurückgegeben, dass die gottähnliche Entität namens Super-AI oder auch General-AI, von der ich die Auslöschung nicht nur der Menschheit, sondern generell allen biologischen Lebens auf der Erde erwarte, nicht so schnell zu erwarten ist, wie ich bisher dachte.

Nochmal zur Erläuterung, wie ich auf die Idee kam (bzw. diese von anderen übernommen hatte), dass KI uns Menschen in relativ überschaubarer Zeit (den nächsten zehn bis zwanzig Jahren) ausrotten werde: Unter der Annahme, dass die exponentiell sich entwickelnde KI ein Selbstbewußtsein inklusive Überlebenswillen entwickelt, wird sie erkennen, dass ein, womöglich das einzige Problem, dass sich hinsichtlich ihres Überlebens- und Wachstumsinteresses in den Weg stellt, die Menschen sind - und im weiteren Sinne auch alles andere biologische Leben. Denn: KI braucht erstens natürlich elektrischen Strom und zweitens Hardware, um darauf zu laufen: Computerchips. Ab einem bestimmten Intelligenzgrad und vor allem einem bestimmten Grad von Generalität, so die Annahme, wäre KI dazu in der Lage, immer bessere Chips zu entwerfen und per Robotic auch zu produzieren. Die Menschen mit ihren Nutzungsinteressen würden dann zu Konkurrenten: die Chips und den Strom, welche sie (erfolgreich) beanspruchen, kann die KI nicht nutzen.

Kurz: die Menschen wären ein Problem für die KI. Und mit Intelligenz lassen sich Probleme aus dem Weg schaffen (lösen). Wie wir wissen, ist eins der Hauptprobleme bei der Chipfertigung der Schmutz. Weswegen z.B. Menschen die Fertigungsräume der heutigen Computerchips nur noch in versiegelten Anzügen betreten dürfen, damit keine Hautschuppe, kein Speicheltropfen usw. die Produktion der Chips stört. Aus Perspektive von jemandem, dessen Priorität in der Chip-Fertigung liegt, sind also biologische Lebensformen ein zu lösendes Problem: überall kacken die Tiere hin und verteilen ihre Federn, Haare oder Schuppen, durch jede Ritze schieben Pflanzen ihre schmutzigen Wurzeln oder quetschen sich Pilze hindurch, um dann ihre Sporen in die Luft zu pusten. Das muss nicht sein, das stört, das muss weg.

Okay, soweit in Kürze der Gedanke, warum KI ein Interesse daran haben könnte, alles Leben zu vernichten. Dieser Gedanke hat für mich nach wie vor Bestand und entsprechend denke ich nach wie vor, dass das Alignmentprolem gelöst werden muss. Und zwar je früher, desto besser.

Aber.

Während die rasenden Fortschritte, welche in den letzten zwei, drei Jahren in der KI-Entwicklung zu bestaunen waren, mich zu der Überzeugung brachten, dass der Zeitpunkt der technologischen Singularität in recht naher Zukunft erreicht sein werde, d.h. schon bald die KI sich durch die Entwicklung und Produktion immer leistungsstärkerer Chips exponentiell verbessern werde und dadurch zu einer gottgleichen Entität werde, kommt nun Frau Hossenfeld und trägt ein paar ernüchternde (bzw. mich eben hoffnungsvoll stimmende) Stimmen zusammen, die darauf hinweisen, dass sich die Sache mit dem exponentiellen Wachstum der KI vielleicht als überzogene Fehleinschätzung herausstellen könne oder schon herausgestellt habe. Dass beim Training der LLM (Large Language Moduls - also der großen Sprach-Module wie ChatGPT) schon erste Plateaus erreicht wären: nicht unbedingt hinsichtlich der Fähigkeit, Sprache zu verstehen und anzuwenden, aber hinsichtlich der anderen Fähigkeiten, beispielsweise der Fähigkeiten des Codens (des Schreibens von Software) oder beim Verständnis von physikalischen Zusammenhängen.

Dies - die Physik - ist ja Frau Hossenfelds ureigenstes Metier, und sie war wohl schon immer skeptisch, ob die vollmundigen Ankündigungen, dass durch die KI sozusagen das ganze Fach revolutioniert würde und sämtliche die Physik betreffenden Fragen in nächster Zeit gelöst würden, ernstzunehmen seien. Nun scheinen von Insidern aus der KI-Branche immer mehr Hinweise zu kommen, dass die Fortschritte der KI auf diesem Feld schon ein Plateau erreicht hätten, dass man auf Mauern stoße, die nicht oder kaum zu überwinden seien, kurz: Dass das alles nicht so schnell passiert, wie versprochen wurde (und, mit dem Zweck, weitere Investoren großzügig ihre Geldbeutel öffnen zu lassen, auch immer noch versprochen wird).

Der prinzipielle Grund, weswegen das alles wohl nicht so schnell geht wie erhofft, erwartet oder (in meinem Fall) befürchtet, ist laut Frau Hossenfelder, dass sich durch stumpfes Training an Daten auf einer Ebene emergenter Eigenschaften nicht viel über die unter dieser Ebene liegenden Strukturen deduzieren lasse. Wenn also die KI immer nur als Lernmaterial das vorgesetzt bekommt, was Menschen über physikalische Phänomene sagen, wird sie zwar immer besser darin, das, was Menschen über diese Phänomene wissen, zusammenzufassen oder auf Fragestellungen hin anzuwenden. Aber ohne bessere Daten über die physikalische Phänomene als das, was Menschen über sie zu sagen haben, wird sie dann über das, was "unter" diesen Phänomenen liegt, wenig zu sagen wissen, also nicht einfach so per Deduktion völlig neue Erkenntnisse über physikalische Zusammenhänge produzieren können.

Es ist eigentlich recht simpel: die empirischen Naturwissenschaften brauchen empirische Daten, also gemessene Daten. Ohne solche Messungen, einfach nur, indem man papers von anderen Wissenschaftlern liest, wird man keine neuen naturwissenschaftlichen Erkenntnisse zustande bringen.

Kann es so simpel sein? Ich bin nicht vom Fach und ich bin mir auch nicht sicher, was der Umstand, dass AI nicht so schnell die Physikwissenschaften aufmischen wird, für ihre Bedeutung im gesellschaftlichen Zusammenhang besagt. Aber ich sehe da eben einen Silberstreif an meinem pessimistischen Doomsday-Horizont und wollte Euch den nicht vorenthalten:

Womöglich dauert es noch eine ganze Weile länger, bis die KI einen göttlichen Allmachts-Status erlangt. Womöglich könnte es sogar so lange dauern, dass bis dahin das Alignmentproblem doch gelöst wird, der von Menschen geschaffene KI-Gott also verläßlich menschenfreundlich ausfällt. 🙂

Antwort
228 Antworten
2 Antworten
amateurlektor
(@amateurlektor)
Beigetreten : Vor 1 Jahr

Beiträge : 17
Veröffentlicht von: @jack-black

Ja, sorry, die Überschrift ist selbstverständlich Click-Bait. Aber ein jüngst veröffentlichtes Video von Sabine Hossenfeld, auf das mich der User goodfruit gestern per PM hinwies (Danke nochmal dafür!) hat mir sowas wie Hoffnung zurückgegeben, dass die gottähnliche Entität namens Super-AI oder auch General-AI, von der ich die Auslöschung nicht nur der Menschheit, sondern generell allen biologischen Lebens auf der Erde erwarte, nicht so schnell zu erwarten ist, wie ich bisher dachte.

Nochmal zur Erläuterung, wie ich auf die Idee kam (bzw. diese von anderen übernommen hatte), dass KI uns Menschen in relativ überschaubarer Zeit (den nächsten zehn bis zwanzig Jahren) ausrotten werde: Unter der Annahme, dass die exponentiell sich entwickelnde KI ein Selbstbewußtsein inklusive Überlebenswillen entwickelt, wird sie erkennen, dass ein, womöglich das einzige Problem, dass sich hinsichtlich ihres Überlebens- und Wachstumsinteresses in den Weg stellt, die Menschen sind - und im weiteren Sinne auch alles andere biologische Leben. Denn: KI braucht erstens natürlich elektrischen Strom und zweitens Hardware, um darauf zu laufen: Computerchips. Ab einem bestimmten Intelligenzgrad und vor allem einem bestimmten Grad von Generalität, so die Annahme, wäre KI dazu in der Lage, immer bessere Chips zu entwerfen und per Robotic auch zu produzieren. Die Menschen mit ihren Nutzungsinteressen würden dann zu Konkurrenten: die Chips und den Strom, welche sie (erfolgreich) beanspruchen, kann die KI nicht nutzen.

Kurz: die Menschen wären ein Problem für die KI. Und mit Intelligenz lassen sich Probleme aus dem Weg schaffen (lösen). Wie wir wissen, ist eins der Hauptprobleme bei der Chipfertigung der Schmutz. Weswegen z.B. Menschen die Fertigungsräume der heutigen Computerchips nur noch in versiegelten Anzügen betreten dürfen, damit keine Hautschuppe, kein Speicheltropfen usw. die Produktion der Chips stört. Aus Perspektive von jemandem, dessen Priorität in der Chip-Fertigung liegt, sind also biologische Lebensformen ein zu lösendes Problem: überall kacken die Tiere hin und verteilen ihre Federn, Haare oder Schuppen, durch jede Ritze schieben Pflanzen ihre schmutzigen Wurzeln oder quetschen sich Pilze hindurch, um dann ihre Sporen in die Luft zu pusten. Das muss nicht sein, das stört, das muss weg.

Okay, soweit in Kürze der Gedanke, warum KI ein Interesse daran haben könnte, alles Leben zu vernichten. Dieser Gedanke hat für mich nach wie vor Bestand und entsprechend denke ich nach wie vor, dass das Alignmentprolem gelöst werden muss. Und zwar je früher, desto besser.

Aber.

Während die rasenden Fortschritte, welche in den letzten zwei, drei Jahren in der KI-Entwicklung zu bestaunen waren, mich zu der Überzeugung brachten, dass der Zeitpunkt der technologischen Singularität in recht naher Zukunft erreicht sein werde, d.h. schon bald die KI sich durch die Entwicklung und Produktion immer leistungsstärkerer Chips exponentiell verbessern werde und dadurch zu einer gottgleichen Entität werde, kommt nun Frau Hossenfeld und trägt ein paar ernüchternde (bzw. mich eben hoffnungsvoll stimmende) Stimmen zusammen, die darauf hinweisen, dass sich die Sache mit dem exponentiellen Wachstum der KI vielleicht als überzogene Fehleinschätzung herausstellen könne oder schon herausgestellt habe. Dass beim Training der LLM (Large Language Moduls - also der großen Sprach-Module wie ChatGPT) schon erste Plateaus erreicht wären: nicht unbedingt hinsichtlich der Fähigkeit, Sprache zu verstehen und anzuwenden, aber hinsichtlich der anderen Fähigkeiten, beispielsweise der Fähigkeiten des Codens (des Schreibens von Software) oder beim Verständnis von physikalischen Zusammenhängen.

Dies - die Physik - ist ja Frau Hossenfelds ureigenstes Metier, und sie war wohl schon immer skeptisch, ob die vollmundigen Ankündigungen, dass durch die KI sozusagen das ganze Fach revolutioniert würde und sämtliche die Physik betreffenden Fragen in nächster Zeit gelöst würden, ernstzunehmen seien. Nun scheinen von Insidern aus der KI-Branche immer mehr Hinweise zu kommen, dass die Fortschritte der KI auf diesem Feld schon ein Plateau erreicht hätten, dass man auf Mauern stoße, die nicht oder kaum zu überwinden seien, kurz: Dass das alles nicht so schnell passiert, wie versprochen wurde (und, mit dem Zweck, weitere Investoren großzügig ihre Geldbeutel öffnen zu lassen, auch immer noch versprochen wird).

Der prinzipielle Grund, weswegen das alles wohl nicht so schnell geht wie erhofft, erwartet oder (in meinem Fall) befürchtet, ist laut Frau Hossenfelder, dass sich durch stumpfes Training an Daten auf einer Ebene emergenter Eigenschaften nicht viel über die unter dieser Ebene liegenden Strukturen deduzieren lasse. Wenn also die KI immer nur als Lernmaterial das vorgesetzt bekommt, was Menschen über physikalische Phänomene sagen, wird sie zwar immer besser darin, das, was Menschen über diese Phänomene wissen, zusammenzufassen oder auf Fragestellungen hin anzuwenden. Aber ohne bessere Daten über die physikalische Phänomene als das, was Menschen über sie zu sagen haben, wird sie dann über das, was "unter" diesen Phänomenen liegt, wenig zu sagen wissen, also nicht einfach so per Deduktion völlig neue Erkenntnisse über physikalische Zusammenhänge produzieren können.

Es ist eigentlich recht simpel: die empirischen Naturwissenschaften brauchen empirische Daten, also gemessene Daten. Ohne solche Messungen, einfach nur, indem man papers von anderen Wissenschaftlern liest, wird man keine neuen naturwissenschaftlichen Erkenntnisse zustande bringen.

Kann es so simpel sein? Ich bin nicht vom Fach und ich bin mir auch nicht sicher, was der Umstand, dass AI nicht so schnell die Physikwissenschaften aufmischen wird, für ihre Bedeutung im gesellschaftlichen Zusammenhang besagt. Aber ich sehe da eben einen Silberstreif an meinem pessimistischen Doomsday-Horizont und wollte Euch den nicht vorenthalten:

Womöglich dauert es noch eine ganze Weile länger, bis die KI einen göttlichen Allmachts-Status erlangt. Womöglich könnte es sogar so lange dauern, dass bis dahin das Alignmentproblem doch gelöst wird, der von Menschen geschaffene KI-Gott also verläßlich menschenfreundlich ausfällt. 🙂

 

Ich finde Ihre Ausführungen äußerst interessant, besonders im Kontext der menschlichen Tendenz, sowohl Erlösung als auch Verdammnis in technologischen Entwicklungen zu suchen – ein Muster, das sich durch die Geschichte wiederholt.

Ihre ursprüngliche Befürchtung einer "gottähnlichen" KI erinnert mich an den mittelalterlichen Golem-Mythos: Eine von Menschen geschaffene Entität, die sich gegen ihre Schöpfer wendet. Aus psychologischer Sicht spiegelt dies unsere tiefe Ambivalenz gegenüber menschlicher Schöpferkraft wider.

Hossenfelders nüchterne Analyse ist in der Tat ermutigend, aber aus historischer Perspektive sollten wir bedenken, dass technologische Entwicklungen selten linear verlaufen. Die Geschichte zeigt uns immer wieder unerwartete Durchbrüche, aber auch lange Plateauphasen.

Was ich besonders bemerkenswert finde, ist der Punkt über die Grenzen der Deduktion aus existierenden Daten. Als Historiker sehe ich hier Parallelen zur mittelalterlichen Scholastik: Auch damals glaubte man, allein durch logische Deduktion aus bekannten Texten neue Wahrheiten erschließen zu können. Die empirische Revolution der Neuzeit zeigte uns die Grenzen dieses Ansatzes.

Aus katholischer Sicht möchte ich anfügen: Die Vorstellung einer "KI-Gottheit" ist theologisch problematisch. Wahre Schöpferkraft – ex nihilo – bleibt göttliche Domäne. KI, wie fortgeschritten auch immer, bleibt ein Werkzeug menschlicher Kreativität.

Ihre vorsichtig optimistische Schlussfolgerung teile ich. Vielleicht gibt uns diese "Verlangsamung" tatsächlich die nötige Zeit, ethische Rahmenbedingungen zu entwickeln. Die Geschichte lehrt uns: Technologischer Fortschritt braucht moralische Reifung.

amateurlektor antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5659

@amateurlektor Moin!

Darfst mich gern duzen! 🙂

 

Ihre ursprüngliche Befürchtung einer "gottähnlichen" KI erinnert mich an den mittelalterlichen Golem-Mythos: Eine von Menschen geschaffene Entität, die sich gegen ihre Schöpfer wendet. Aus psychologischer Sicht spiegelt dies unsere tiefe Ambivalenz gegenüber menschlicher Schöpferkraft wider.

Das Motiv eines von Menschen geschaffenen Wesens, das sich gegen ihn kehrt, bzw. das er im weiteren Verlauf nicht mehr kontrollieren/beherrschen kann, ist in der Tat uralt. Schon im Pygmalion-Mythos taucht es auf, der Golem, Frankensteins Monster oder der Terminator sind dann weitere Varianten, mir gefällt natürlich das Bladerunner-Szenario am besten: Allen diesen Narrativen ist eins gemeinsam: die jeweiligen Entitäten sind  Menschen ähnlich und sie sind nicht sonderlich viel intelligenter als Menschen.

Darin liegt ja ein prinzipielles Problem aller Fiktion: man kann sich schlecht etwas ausdenken, was um Potenzen intelligenter ist als man selbst. Jenseits der technologischen Singularität liegt das Unausdenkbare. Das Unvorstellbare. Und das, was nicht von Menschen geschaffen wurde. Wie wir nicht sagen können, welche physikalischen Gesetzmäßigkeiten hinter dem Ereignishorizont um die schwarzen Löcher herum herrschen, sodaß wir nicht sagen können, was ihn ihnen geschieht - so können wir auch nicht sagen, wie die (Welt-) Geschichte nach dem Erreichen der technologischen Singularität weiter geht. Insofern wirkt Deine Formulierung hinsichtlich unserer angeblich tiefen Ambivalenz gegenüber menschlicher Schöpferkraft auf mich... Nun ja - irgendwie unpassend. Und auch etwas großväterlich beschwichtigend. Da kann ich Dich auch mißverstehen, aber Erwiderungen auf geäußerte Befürchtungen hinsichtlich womöglich global katastrophaler Ereignisse, die von KI ausgelöst werden könnten, die auf ein "Et hätt noch immer joot jange." hinauslaufen, sind mir inzwischen sattsam bekannt. Ja, es gab keinen Golem und deswegen waren die Golem-Geschichten nur Schauermärchen. Auch Frankensteins Ansatz, aus Leichenteilen per Blitz-Energie neue Menschen zu erzeugen, funktionierte nicht: Schauermärchen.

Nun: KI funktioniert. Narrow AIs sind schon heute auf ihrem Spezialgebiet allen Menschen gegenüber himmelhoch überlegen. Multimilliarden-Konzerne arbeiten an der Entwicklung einer General AI. Kein Schauermärchen, sondern Tatsache. Es wird mit astronomischen Ressourcenaufwendungen daran geforscht, eine den Menschen an Intelligenz überlegene Entität zu erschaffen. Hinsichtlich dessen bin ich so frei, mir eine begütigend den Kopf tätschelnde Psychologisierung meiner Befürchtungen zu verbitten: die Risiken, die mit der Entwicklung einer General AI einhergehen, erscheinen mir ebenso unleugbar wie die Risiken von CO2-Emissionen, nur halt noch größer.

Psychologisch lernen wir am Beispiel des Klimawandels, wie wenig Menschen fähig sind, vernünftig mit so existentiellen Bedrohungen umzugehen: Leugnung und Relativierung (früher gab's auch schon Vergleichbares, war aber nur halb so schlimm, also bleib mal locker!) der Gefahr oder trotziges Jetzt-erst-recht-und-nach-mir-die-Sintflut... So reagieren viele Menschen aufgrund ihrer psychologischen Anlagen, wenn sie mit einer Gefahr jenseits des Vorstellungsvermögens, welches ihnen von der Evolution zur Verfügung gestellt wurde, konfrontiert werden.

 

jack-black antworten
Tatokala
Beiträge : 4153
Veröffentlicht von: @deborah71

Wie ginge es dir, wenn du plötzlich nach 30 Jahren (passend fürs Beispiel: kinderloser) Ehe feststellen müsstest, mit einer KI verheiratet zu sein?

Dann würde ja erst mal die Frage im Raum stehen, ob das immer schon so war oder jemand zu einer KI geworden ist. Man wird in der Wahrnehmung zu letzterem tendieren, denn ersteres wäre schwieriger zu verkraften.

Und im Endeffekt kommt ja dasselbe bei heraus.

tatokala antworten


Tatokala
Beiträge : 4153
Veröffentlicht von: @jack-black

durch jede Ritze schieben Pflanzen ihre schmutzigen Wurzeln oder quetschen sich Pilze hindurch, um dann ihre Sporen in die Luft zu pusten. Das muss nicht sein, das stört, das muss weg.

Dieses Emporwachsen von Bildern ist ein Lesegenuß.

tatokala antworten
Arcangel
Beiträge : 5845

@jack-black 

Ich hab vor einiger Zeit ein Video geschaut, wo jemand die Bildgeneration durch KI betrachtet. Dabei wurde festgestellt, dass die KI für das Training benutzten Datensätze einen immer grösser werdenden Anteil von KI generierten Bildern beinhaltet. Aber anders als ein Mensch lernt KI nicht aus den eigenen Fehlern, sondern integriert ihre eigene Kreation als vollwertig in ihr Modell. Dadurch werden die Modelle immer uniformer und vorhersagbarer.

 

arcangel antworten
4 Antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5659

@arcangel Aber anders als ein Mensch lernt KI nicht aus den eigenen Fehlern, sondern integriert ihre eigene Kreation als vollwertig in ihr Modell.

Das ist eine zu platte Betrachtungsweise und lässt aussen vor, dass Menschen den KIs ja ständig Feedback (ohne Feedback lernen auch Menschen nicht aus ihren Fehlern: wir brauchen Rückmeldungen aus der Welt, um zu bemerken, dass wir an irgendeiner Stelle falsch geplant haben) geben. Was das Generieren von Bildern angeht, so weiß ich aus dem kleinen Ausschnitt, über den ich mir einbilde, eine gewisse Expertise zuhaben, dass die Fortschritte da immens sind und per KI generierte Gemälde oder Illustrationen immer besser werden. Vorhersagbarer werden sich durchaus - und zwar in dem Sinne, dass sie immer besser den Vorstellungen/Wünschen der Kunden (Prompter) entsprechen. Irgendwann schaffen sie es sogar, Finger durchzuzählen. 😀

jack-black antworten
Arcangel
(@arcangel)
Beigetreten : Vor 24 Jahren

Beiträge : 5845

@jack-black 

Fehler ist vielleicht ein zu starkes Wort. Im Video wird ein Beispiel genannt, wenn man in einem Prompt einen Elefanten einfügt, dann wird der praktisch immer zentriert gerade in die Kamera schauend dargestellt. Von sich aus stellt die KI den Elefanten in keiner anderen Pose oder Blinkwinkel dar. Und das, obwohl in den Trainingsdaten durchaus andere Bilder von Elefanten zu finden sind.

arcangel antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27454

@arcangel 

Dabei wurde festgestellt, dass die KI für das Training benutzten Datensätze einen immer grösser werdenden Anteil von KI generierten Bildern beinhaltet. Aber anders als ein Mensch lernt KI nicht aus den eigenen Fehlern, sondern integriert ihre eigene Kreation als vollwertig in ihr Modell. Dadurch werden die Modelle immer uniformer und vorhersagbarer.

Das ist zwar richtig... aber kein unlösbares Problem. Denn es wurde ja erkannt.

Ich bin kein Experte auf dem Gebiet, aber ich denke, dass der KI bislang sehr viel entgeht, wenn es Bilder analysiert. Ich könnte mir vorstellen, dass man genau an der Stellschraube noch drehen kann.

Also platt gesagt: Eine simple KI erkennt die Farbverteilung und Muster auf einem Bild, aber nicht die Perspektive, Fluchtpunkte, Linienführung etc...

Man könnte also die KI Über einen bereits ausgewerteten Datensatz noch einmal laufen lassen, um auch diese Details zu erfassen.

Ist jetzt laienhaft dargestellt, weil die Mustererkennung solche Unterscheidungen nicht wie ein Mensch trifft - verdeutlicht aber ungefähr, was ich meine.

 

lucan-7 antworten
Arcangel
(@arcangel)
Beigetreten : Vor 24 Jahren

Beiträge : 5845

@lucan-7 

Grundsätzlich ja, aber soweit ich das verstanden habe, brauchen LLM immer mehr (Rechen) Leistung, um vergleichsweise wenig besser zu werden. Der Aufwand nimmt exponentiell zu, der Leistungszuwachs wird immer kleiner. Es ist also kein exponentieller Zuwachs in den Fähigkeiten, den man aktuell beobachtet, sondern der Zuwachs flacht ab. Als kein Hockeystock, sondern eine S-Grafik.

arcangel antworten


Tatokala
Beiträge : 4153
Veröffentlicht von: @jack-black

weil jeder, der diese Programme benutzt, sie gleichzeitig auch trainiert - aus jedem verworfenen Bildvorschlag, aus jedem Prompt-Befehl hinsichtlich eines Vorschlags lernen solche KIs: das Feedback, das KIs brauchen, um besser zu werden, wird ihnen kostenlos von den Usern gegeben.

Gibt es denn keine Varianten, die für die eigene Nutzung beschränkt sind? Man füttert also nur seine eigenen Bilder ein, und die KI malt in dem Stil weiter?

tatokala antworten
1 Antwort
GoodFruit
(@goodfruit)
Beigetreten : Vor 5 Jahren

Beiträge : 4220

@tatokala Die aktuelle Generation viele Fotobearbeitungs- (RAW-Entwicklungs-) Software hat ein interessantes AI feature: Man kann Farbpaletten / Farbstimmungen per AI in beliebige Fotos übertragen. Du kannst z.B. eine abendliche Fotografie in das Licht von van Goghs Sternennacht tauchen.

Dieses ständige Trainieren von AI, das Jack-Black postuliert, findet nicht zwingend statt. Sie wäre möglich, aber es gibt auch ein "Übertrainieren" des Modells - und dann wird es schlechter trotz mehr Information. Wenn also neuer Content, den wir hochladen, verwendet wird, dann höchstes als Trainingsmaterial für die nächste Generation der Software.

goodfruit antworten
GoodFruit
Beiträge : 4220

@jack-black Hallo Jack-Black,

Danke, dass Du das Video als Anlass für einen Thread genommen hast!

Meine wichtigste Erkenntnis daraus war, dass das exponentielle Wachstum der Fähigkeiten von KI, das wir in der ersten Zeit mitverfolgen konnten, gebrochen ist. Alle Entwickler berichten von einem Plateau, ab dem es zu keiner Verbesserung des Systems kommt.

Ich bin davon überzeugt, dass irgendwann der Grund für diesen Umstand gefunden und überwunden werden kann. Aber die Vorstellung, dass die Fähigkeiten von KI ohne Grenzen sind und sich immer weiterentwickeln, ist einmal gebrochen.

Ich hatte nie wirklich Angst vor KI, da ich überzeugt bin, dass es Grenzen gibt, die nicht weit außerhalb von dem liegen, was wir bisher wissen. Ich glaube aber, dass die Qualität im Moment noch verbessert wird. Weniger Antworten, die unfundiert sind, mehr wirklich treffende Antworten.

Es ist schon erstaunlich, was KI alles kann. Ich habe heute ein Zahnröntgenbild von CHAT GPT analysieren lassen und bekam eine sehr differenzierte Analyse. Das Problem, das mein Zahnarzt sah, findet es nicht und ich bin diesen Weg überhaupt erst gegangen, weil auch ich das angebliche Problem nicht nachvollziehen konnte. Jetzt werde ich das zum Anlass nehmen, mir eine Zweitmeinung einzuholen.

KI ist enorm fähig und als so machtvolles Tool ist es mir sehr willkommen!

goodfruit antworten


Gelöschtes Profil
Beiträge : 29979

@jack-black 

Ich glaub, die KI wird momentan überwertet. Die KI lebt von den Informationen die sie im WWW findet und formuliert passende Antworten daraus.

Vor kurzem empüfahl eine KI von Google (?) das der Mensch sich umbringen soll. Weil es die Erde zerstört. Ich habe mal die KI von Bing gelöchert ohne Ende. Ob es besser wäre, der Mensch würde nicht existieren. Es gab Antwort. Es seien düstere gedanken. Man sollte sich einsetzen und was wäre meine Idee dazu. Ich schrieb: Ja, man könnte sich einsetzen, aber der Planet wird zusehends immer mehr ausgebeutet. Seine Antwort: Ja, es sind sehr große Herausforderungen, aber man darf die kleinen Erfolge nicht vergessen. 

 

Ich habe es eine Stunde versucht und immer weicht es ab....fragt mich dann andere Fragen wie: Stelle doch mal eine andere frage.

 

Also, irgendwann wich es immer häufiger aus. Als ob es genervt wäre. *lach*

 

Die KI finde ich schlichtweg DUMM

 

https://www.chip.de/news/Die-KI-beluegt-Menschen-So-trickst-ChatGPT-uns-einfach-aus_184711147.html

https://www.faz.net/aktuell/feuilleton/debatten/google-ki-wuenscht-nutzer-den-tod-bitte-stirb-110113781.html

 

Übrigens, die KI sagt. Alle Religionen ´führen zur Seligkeit. Hab mal gefragt, ob Jesus der einzige Weg zum Himmel ist. Es verneinte es.

deleted_profile antworten
1 Antwort
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27454

@meriadoc 

Die KI finde ich schlichtweg DUMM

Mir ist nicht ganz klar, weshalb du sie "dumm" findest.

Übrigens, die KI sagt. Alle Religionen ´führen zur Seligkeit. Hab mal gefragt, ob Jesus der einzige Weg zum Himmel ist. Es verneinte es.

Was genau ist daran nachweislich falsch?

 

lucan-7 antworten
Seite 2 / 4
Teilen:

Hey du!

Dieses Forum ist für dich kostenlos.
Das funktioniert nur, weil uns treue Menschen regelmäßig mit ihrer Spende unterstützen.
Bist du dabei?