Benachrichtigungen
Alles löschen

Mich interessiert nicht, was die KI dazu sagt...!

Seite 1 / 3

Lucan-7
Themenstarter
Beiträge : 27522

Ich wollte das Thema ja zunächst in den Smalltalk stellen, ich habe dann aber gemerkt dass der Hintergrund womöglich doch etwas ernsthafter ist, also schreibe ich das mal hier rein.

Mir fällt auf, dass immer häufiger Beiträge hier durch KI-generierte Antworten ergänzt werden. Die meisten User achten zumindest darauf, das auch dazu zu schreiben und zu kennzeichnen, immerhin. Und ich bin auch nicht generell gegen KI als solche, manchmal gibt es da schon interessante Antworten und Anwendungsmöglichkeiten - wenn man das schon mal hat, klar, kann man dann auch nutzen. 

Wenn also die KI etwa eine diskussionswürdige Antwort zum Sinn des Lebens liefert und jemand darüber diskutieren möchte... bitte sehr, könnte interessant sein.

Mir fällt aber auf, dass KI-Antworten immer häufiger auch für sachliche Informationen verwendet werden, im Sinne einer Quelle wie Wikipedia oder anderen Informationsquellen. Vor allem dann, wenn es sich um komplexere Themen handelt. Und das halte ich für bedenklich. Denn KI sucht sich die Informationen aus anderen Quellen zusammen, ohne diese zu nennen. Man weiss also gar nicht genau, woher das ganze jetzt kommt... und inwieweit die KI selbst etwas dazu erfunden hat, denn nachvollziehbar ist das nicht.

Ich selber ignoriere inzwischen alles, was hier als KI-generierte Antwort geschrieben wird - vor allem dann, wenn es anstelle einer eigenen Antwort präsentiert wird. Ich finde, dass das auch dem Sinn des Forums als Diskussionsplattform entgegensteht.

Wie gesagt, ich lehne KI nicht grundsätzlich ab, es ist ein nützliches Werkzeug. Aber ich denke, man sollte es in einer Diskussion nur sehr begrenzt einsetzen, wenn überhaupt.

Denn auf Dauer, davon gehe ich aus, wird KI die sozialen Medien praktisch zerstören. Über kurz oder lang wird alles unglaubwürdig werden, und wenn ein erheblicher Teil aller Beiträge auf KI zurückgeht (Und auch der Konsum durch Bots nur vorgetäuscht wird), dann wird das auch für Werbekunden uninteressant. Soziale Medien werden sicher immer bedeutsam bleiben, aber sie werden in den nächsten Jahren aufgrund KI-generierter Beiträge an Bedeutung verlieren, zumindest vermute ich das.

Und ich denke, dass auch ein Forum (Was eh schon eine völlig veraltete Form sozialer Medien darstellt) dadurch weiter an Bedeutung verlieren wird.

 

Wie seht ihr das? Etwas zu übertrieben vielleicht?

 

Antwort
125 Antworten
Queequeg
Beiträge : 7426

Ich denke nicht, dass das übertrieben ist.

queequeg antworten


Jigal
 Jigal
Beiträge : 5326

@lucan-7 KI  ist genauso eine schlechte Quelle wie Wikipedia, KI zitiert auch Wikipedia und im Prinzip suchen die ja nur was irgendjemand dazu geschrieben hat im Netzt. Eine Überprüfung auf Richtigkeit erfolgt nicht. Wiki Artikel habe ich auch schon verbessert. Eine Richtigstellung haben sie nicht akzeptiert. 2008 bin ich mit einer Boeing 707 aus Tel Aviv gekommen. Laut Wiki würde die nur noch im Iran fliege, EL AL hat sie nicht auf ihrer Homepage aufgeführt, weshalb die Korrektur nur Stunden im Netz stand.

 

jigal antworten
16 Antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jigal 

2008 bin ich mit einer Boeing 707 aus Tel Aviv gekommen. Laut Wiki würde die nur noch im Iran fliege, EL AL hat sie nicht auf ihrer Homepage aufgeführt, weshalb die Korrektur nur Stunden im Netz stand.

Wenn es dafür keinen weiteren Nachweis gibt, dann ist es erst einmal korrekt, deine Aussage anzuzweifeln. Das spricht nicht gegen Wikipedia, eher im Gegenteil.

lucan-7 antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@lucan-7  Nun ich hatte auch noch die Flugnummer angegeben. 

Korrekturen haben sie auf der englischen  Version der Marke NSU akzepiert.  In der englischen Version stand das Kürzel NSU würden für Neckarsulmer Strickmaschinen Union stehen.  Die Firma die unter dem Kürzel NSU mehrfacher Motorradweltmeister wurden hat aber unter NSU nie Strickmaschinen verkauft und ist auch keine Union mit einer anderen Firma eingegegangen.  Die Fusion mit der Auto Union GmbH hat kam ja erst Jahrzehnte später.  Vermutlich ist es eine Kurzform für NeckarSUlm, dem Standort der Firma in Württemberg, dort fließt die Sulm in den Neckar.

jigal antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jigal 

Die Sache ist, dass es beim wissenschaftlichen Arbeiten um die Nachweisbarkeit geht. Nicht um die Wahrheit.

Wenn irgendwo in Kanada ein Typ in seinen Garten schaut, und da gerade ein Säbelzahntiger vorbeiläuft, dann mag das tatsächlich so passiert sein. Wenn der Typ dann einen entsprechenden Eintrag in Wikipedia macht, ohne irgendwelche Belege zu liefern, dann wird dieser Eintrag völlig zu recht gelöscht werden. Auch dann, wenn er wahr ist. Denn ein solcher Eintrag erfordert entsprechende Belege, und ohne die gibt es auch keine Veröffentlichung.

Und wie gesagt: Das ist unabhängig davon, ob es tatsächlich passiert ist oder nicht. Ohne Beleg kein Eintrag, fertig.

Das mag in Einzelfällen zu Verfälschungen führen (wie möglicherweise in deinem Fall) - auf lange Sicht sichert es aber eine gewisse Qualität.

Die natürlich auch mit entsprechenden Einschränkungen zu werten ist, keine Frage...

lucan-7 antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@lucan-7 der  Beitrag  zur Firma NSU auf der englischen Seiten war aber definitiv und und nachprüfbar falsch. Es gab nie eine Neckarsulmer Strickmaschinen Union, was mit einem Blick auf die deutsche Seite auch zu sehen gewesen wäre.

 

jigal antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 10 Jahren

Beiträge : 3485

@jigal 

und im Prinzip suchen die ja nur was irgendjemand dazu geschrieben hat im Netzt.

Anhand der Quellenangaben kann man recht schnell erkennen, ob ein Wiki-Artikel gut ist oder nicht.

Eine Überprüfung auf Richtigkeit erfolgt nicht.

Doch, bei Wikipedia werden Inhalte auf Richtigkeit geprüft. Je nach Artikel gelingt das mal besser oder schlechter. Solltest du Falschaussagen finden, kannst du diese selbst zur Diskussion stellen. Jeder kann mithelfen. 

2008 bin ich mit einer Boeing 707 aus Tel Aviv gekommen. Laut Wiki würde die nur noch im Iran fliege, EL AL hat sie nicht auf ihrer Homepage aufgeführt, weshalb die Korrektur nur Stunden im Netz stand.

Du hattest also keine für anderen User Nachprüfbare Quelle. Natürlich wird das dann wieder gelöscht. Dann kannst du aber ja eine nachprüfbare Quelle nachreichen. Wenn in der englischen WIKI das akzeptiert wurde, kann man z.B. auf deren Diskussionsstrang verweisen. 

Es gibt mittlerweile auch sehr viele Artikel, die geschützt sind und deren Änderungen erst ein Review durchlaufen müssen.

 

Bei KI gibt es überhaupt keine Prüfung. Die spuckt einfach das aus, was laut Modell am wahrscheinlichsten ist. 

lhoovpee antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@lhoovpee nachprüfbare Quelle ist der Flug der ja in den Flughäfen von Ben Gurion und FJ Strauss verzeichnet ist.

 

jigal antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 10 Jahren

Beiträge : 3485

@jigal 

Damit hast du deine Behauptung nur wiederholt. Wie sollen andere das nun prüfen, wenn zu der Flugnummer keine Informationen vorhanden sind?

"Ich bin da mit geflogen" ist keine nachprüfbare Quelle. 

lhoovpee antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@lhoovpee Weist du mir ist es irgendwann wurscht gewesen, so wie diese Diskussion hier.

Andere Artikel die ich korrigiert haben wurden akzeptiert. Wie jetzt der Artikel über die NSU Werke. 

jigal antworten
Helmut-WK
(@hkmwk)
Beigetreten : Vor 22 Jahren

Beiträge : 9748

@jigal 

Englisches Wiki hat etwas andere Standards als deutsches Wiki. Das kann man nur bedingt vergleichen.

Aber zur 707: Gab es im ganzen Netz keinen Beleg dafür, dass die noch von El-Al benutzt wurde?

hkmwk antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@hkmwk auf der Seite von EL AL stand es nicht mehr.  Die hängen natürlich nicht raus Flugzeuge im Bestand zu haben die 50 Jahre alt sind. Als ich Bilder gezeigt habe meinte einer, aber Propeller hatte sie nicht mehr.  Lt. Wiki ist es das erste 4-strahlige Flugzeug von Boeing. So was flog in den 70ern als Maschine für Behörden. Kissinger schreibt in einem Buch er wäre mit der 707 geflogen.

jigal antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jigal 

Die hängen natürlich nicht raus Flugzeuge im Bestand zu haben die 50 Jahre alt sind. Als ich Bilder gezeigt habe meinte einer, aber Propeller hatte sie nicht mehr.  Lt. Wiki ist es das erste 4-strahlige Flugzeug von Boeing.

Na ja, verstecken kann man die auch nicht so einfach... woher bist du selbst denn so sicher, dass es eine 707 war? Kann das auch einfach nur ein Fehler gewesen sein, und es war in Wahrheit ein anderes, ähnliches Flugzeug?

lucan-7 antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@lucan-7  am Sitz war ein Informationsblatt mit Fluchtwegen.

Eigentlich war eine 747 geplant, die hatten wir auch beim Hinflug.

 

 

jigal antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jigal 

am Sitz war ein Informationsblatt mit Fluchtwegen.

Dann haben sie womöglich im Flugzeug das falsche Blatt verteilt...

Klingt für mich jedenfalls wahrscheinlicher, als dass man erfolgreich vertuscht hat, dass die 707 noch länger flog als angegeben.

lucan-7 antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@lucan-7 Eigentlich ist mir die Diskussion zu doof.  Das Flugzeug war eindeutig ein altes Modell, die Aschenbecher waren zugeschraubt und es stand 1958 im Fenster, das Jahr in dem die 707 als erstes vierstrahliges Flugzeug von Boeing vorgestellt wurde. Ich verstehe ja warum die Korrektur nicht akzeptiert wurde.

Es hat aber auch seine Gründe warum Lehrer den Schülern beibringen Wikipedia taugt für schnelle Informationen. Für die Schule werden aber andere Quellen benötigt.

jigal antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jigal 

Eigentlich ist mir die Diskussion zu doof.  Das Flugzeug war eindeutig ein altes Modell, die Aschenbecher waren zugeschraubt und es stand 1958 im Fenster, das Jahr in dem die 707 als erstes vierstrahliges Flugzeug von Boeing vorgestellt wurde. Ich verstehe ja warum die Korrektur nicht akzeptiert wurde.

Die Frage ist ja nicht, ob das nun stimmt oder nicht - sondern ob Wikipedia das nach deinen Angaben hätte übernehmen sollen.

Und das sehe ich halt nicht so. Mag ja sein, dass du recht hast - wenn es aber nicht belegbar ist, dann ist es auch richtig, dass Wikipedia deine Angaben nicht übernimmt.

 

Es hat aber auch seine Gründe warum Lehrer den Schülern beibringen Wikipedia taugt für schnelle Informationen. Für die Schule werden aber andere Quellen benötigt.

Das ist jetzt aber die falsche Schlussfolgerung.

Wäre Wikipedia denn vertrauenswürdiger, wenn sie Angaben wie deine auch ohne weitere Belege einfach übernehmen würden...?

lucan-7 antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@lucan-7 Nein,  ich schrieb ja ich verstehe es. Es ändert aber auch nichts daran, dass nicht alles was dort steht so stimmt.

Ich hatte ja auch den Artikel zu NSU, später Audi NSU, heute Audi Werk Neckarsulm erwähnt. 

jigal antworten
1-ichthys
Beiträge : 835

@lucan-7 

KI ist für mich ein gefährliches Monster, das nur schwer unter Kontrolle zu halten ist. Außerdem ist es derart umweltschädlich, dass es eigentlich begraben gehört! Erinnert mich alles an den Turmbau zu Babel, der Mensch spielt Gott.

1-ichthys antworten
25 Antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 10 Jahren

Beiträge : 3485

@1-ichthys 

Erinnert mich alles an den Turmbau zu Babel, der Mensch spielt Gott.

Den Vergleich verstehe ich irgendwie nicht. Wo siehst du Parallelen? 

lhoovpee antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@lhoovpee 

Den Vergleich verstehe ich irgendwie nicht. Wo siehst du Parallelen? 

Wenn man dem folgt, was Jack hier beispielsweise immer wieder warnend schreibt, dann ist der Mensch zwar nicht dazu in der Lage, auch nur einen kleinen, lebendigen Käfer zu erschaffen... aber ein gottähnliches Wesen, das jedem Menschen vielfach überlegen ist, das schon...

lucan-7 antworten
Tatokala
(@tatokala)
Beigetreten : Vor 20 Jahren

Beiträge : 4174

@lucan-7 KI addiert auch nur menschliche Intelligenz zusammen. Die Frage wäre, ob man es damit schafft, Gott zu erreichen. 😀 

Ist wie der Grenzwert in der MAthematik.

tatokala antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@tatokala 

KI addiert auch nur menschliche Intelligenz zusammen. Die Frage wäre, ob man es damit schafft, Gott zu erreichen. 😀 

Muss ja nicht der christliche Gott sein. Ein "kleiner Gott", der allen Menschen haushoch überlegen ist, wäre schon schlimm genug.

Das sehe ich allerdings nicht kommen, bisher...

lucan-7 antworten
Chai
 Chai
(@chai)
Beigetreten : Vor 1 Jahr

Beiträge : 3666
Veröffentlicht von: @tatokala

@lucan-7 KI addiert auch nur menschliche Intelligenz zusammen. Die Frage wäre, ob man es damit schafft, Gott zu erreichen. 😀 

Natürlich schafft man es nicht.
Aber möglicherweise mag Gott diese Versuche irgendwann nicht mehr mit angucken. 

chai antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@chai 

Aber möglicherweise mag Gott diese Versuche irgendwann nicht mehr mit angucken. 

Gott hat schon ganz andere Dinge mit angeschaut...

 

 

lucan-7 antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 10 Jahren

Beiträge : 3485

@lucan-7 

KI mag gefährlich sein; das liegt aber vor allem an den Menschen und wie dieser sie einsetzt. Gottähnlichkeiten sehe ich da keine. KI ist nach wie vor ziemlich dumm. Aber naja, vll. lese ich mir gleich Jacks Beiträge durch und verstehe dann was hier gemeint sein soll. 

Parallelen zum Trumbau sehe ich keine. 

lhoovpee antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@lhoovpee 

KI mag gefährlich sein; das liegt aber vor allem an den Menschen und wie dieser sie einsetzt. Gottähnlichkeiten sehe ich da keine. KI ist nach wie vor ziemlich dumm. Aber naja, vll. lese ich mir gleich Jacks Beiträge durch und verstehe dann was hier gemeint sein soll. 

Im Moment gibt es eine Menge Leute, die warnen. Die haben sich ausgedacht, wie eine KI sein könnte, die die Menschheit auslöschen kann - und sagen: Wenn diese KI jemals gebaut wird... dann kann sie die Menschheit auslöschen. Hm ja... klar. Das war ja das, was sie vorausgesetzt haben...

Die Frage ist halt, wie wahrscheinlich eine KI mit diesen Fähigkeiten ist.

Das Problem ist das - theoretisch -  exponentielle Wachstum in den Fähigkeiten einer KI. Wenn das tatsächlich mehr oder weniger unbegrenzt ist - dann wird es wirklich gefährlich. Allerdings denke ich nicht, dass das zutrifft. Denn heutige KIs haben zwar über die vorhandenen Ressourcen (Daten im Internet) beeindruckende Fortschritte in kurzer Zeit hingelegt. Aber die Ressourcen sind begrenzt. Ein exponentielles Wachstum ist daher auch nur für begrenzte Zeit möglich.

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@lucan-7 Im Moment gibt es eine Menge Leute, die warnen. Die haben sich ausgedacht, wie eine KI sein könnte, die die Menschheit auslöschen kann 

Nein. Wie eine Super-AGI die Menschheit auslöschen kann, haben die Klügeren unter ihnen sich eben gerade nicht ausgedacht, weil die den springenden Punkt verstanden haben: eine um ein Vielfaches intelligentere Entität ist dazu fähig, Strategien zur Auslöschung der Menschheit zu entwickeln und umzusetzen, auf die wir Menschen nie kämen.

Wenn diese KI jemals gebaut wird... dann kann sie die Menschheit auslöschen. Hm ja... klar. Das war ja das, was sie vorausgesetzt haben...

Vorausgesetzt? Meinst Du, hier einen Zirkelschluss zu adressieren? Wie sieht dieser Zirkelschluss denn aus?

Ja, Warner wie Yudkowsky, Hinton oder Russell (also Leute mit Expertise auf diesem Feld) gehen davon aus, dass eine non-alignte Super-AGI die Menschheit auslöschen könne. Aber über diese Fähigkeit wird sie per Definition verfügen, denn es lässt sich die Problemlösungsfrage: "Wie kann man die Menschheit auslöschen?" formulieren*. Die Frage, die überhaupt strittig zur Diskussion steht, ist nicht, ob eine Super-AGI die Menschheit auslöschen könnte. Ja, sie könnte** - sonst wäre sie keine Super-AGI. Sondern die, ob so eine Super-AGI "jemals" gebaut wird und ob sie in dem Fall dann ihre fraglos vorhandenen Möglichkeiten, die Menschheit auszulöschen, auch wahrnimmt.

Das können wir nicht wissen - wie wir über all die anderen zukünftigen Ereignisse nichts Genaues wissen können.

Aber educated guesses, also mehr oder weniger auf Informiertheit basierte Prognosen lassen sich anstrengen.

Darüber, wie Experten in dem Feld die Wahrscheinlichkeit einschätzen, dass die Menschheit durch eine AI-bedingte Katastrophe (doomsday scenarios) ausgelöscht werde, findet sich hier eine ganz interessante Tabelle.

 

* Eine Frage, die sich auch von Menschen, also weniger intelligenten Entitäten, auf unterschiedliche Weise beantworten lässt.

** So, wie wir nur ein klein wenig intelligenteren Menschen die Gorillas und alle anderen Menschenaffen auslöschen könnten. Dass die Gorillas sich nicht ansatzweise vorstellen können, wie das vonstatten gehen soll, ist völlig ohne Belang. 

 

 

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jack-black 

Wie eine Super-AGI die Menschheit auslöschen kann, haben die Klügeren unter ihnen sich eben gerade nicht ausgedacht, weil die den springenden Punkt verstanden haben: eine um ein Vielfaches intelligentere Entität ist dazu fähig, Strategien zur Auslöschung der Menschheit zu entwickeln und umzusetzen, auf die wir Menschen nie kämen.

Da du ja selber immer so genau auf den Wortlaut achtest: Genau das habe ich ja nicht geschrieben, also nicht wie eine KI die Menschheit auslöscht - sondern wie eine KI sein könnte, die die Menschheit auslöschen kann.

Nämlich dem Menschen derartig überlegen, dass sie dafür Möglichkeiten finden kann, auf die wir Menschen gar nicht kommen würden.

 

Vorausgesetzt? Meinst Du, hier einen Zirkelschluss zu adressieren? Wie sieht dieser Zirkelschluss denn aus?

Wir denken uns eine KI aus, die in der Lage ist, die Menschheit auszulöschen. Also nicht so, dass wir uns eine solche KI tatsächlich ausdenken könnten... wir nehmen lediglich an, dass sie das könnte, aufgrund ihrer überragenden Intelligenz.

Dann warnen wir davor, diese KI zu bauen - weil sie in der Lage wäre, die Menschheit auszulöschen. Also wir warnen vor dem, was wir ursprünglich vorausgesetzt haben.

 

Aber über diese Fähigkeit wird sie per Definition verfügen, denn es lässt sich die Problemlösungsfrage: "Wie kann man die Menschheit auslöschen?" formulieren*. Die Frage, die überhaupt strittig zur Diskussion steht, ist nicht, ob eine Super-AGI die Menschheit auslöschen könnte. Ja, sie könnte** - sonst wäre sie keine Super-AGI.

Nur weil wir es als "Problem" formulieren bedeutet es nicht, dass es dafür auch eine Lösung geben muss. Und auch wenn es eine (oder mehrere) Lösungen gibt, die Menschheit auszulöschen, bedeutet es nicht, dass eine KI auch über die notwendigen Mittel verfügt, das Ganze auch auszuführen.

Auch das hatte ich dir schon geschrieben. Wenn diese superintelligente KI in einem Serverraum steckt, der auf Batteriebetrieb von der Welt abgeschnitten 100m unter der Erde verschüttet ist - dann mag diese KI in Gedanken noch so viele Probleme lösen, es wird keine Auswirkungen auf den Rest der Welt haben.

Und auch eine noch so schlaue KI vermag keine Lösungen zu finden, die es nicht gibt. Und sie vermag auch nicht, die Welt vorauszuberechnen. Was das Verhalten der Menschen einschliesst.

Die Super-KI ist eine reine Gedankenkonstruktion. Und zwar eine, die von den eigentlichen Problemen und Gefahren durch KI ablenkt.

Und diese Gefahren gehen von KIs aus, die genau das tun, was ihre Besitzer wollen.

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@lhoovpee KI mag gefährlich sein; das liegt aber vor allem an den Menschen und wie dieser sie einsetzt.

Ja. Ist wie mit der Nukleartechnik.

Wie gut, dass nicht jeder Hans und Franz so einfach die Möglichkeit hat, mit solchen Technologien herumzuspielen, nicht wahr? 

KI ist nach wie vor ziemlich dumm.

Schreib doch das Kürzel mal aus. Dann lautet Dein Satz: Künstliche Intelligenz ist nach wie vor ziemlich dumm.

Dann tausche mal "künstlich" gegen "menschlich" aus. Der Satz lautet dann: Menschliche Intelligenz ist nach wie vor ziemlich dumm.

Der Satz ergibt offenbar keinen Sinn. Denn menschliche Intelligenz kann nicht dumm sein, sondern nur Menschen können dumm sein - sie sind es in der Weise, dass sie nicht sonderlich intelligent sind. Darin, nicht intelligent zu sein, bzw. nicht intelligent zu agieren, besteht Dummheit.

Intelligenz kann definiert werden als Problemlösungskompetenz.

Ob eine AI nun stark/problemlösungsmächtig funktioniert oder nicht, das lässt sich daran ablesen, wie gut/erfolgreich sie bestimmte kognitive Aufgaben löst, oder?

Um das zu bestimmten, gibt's Benchmarks. Einer sehr interessanter Benchmark ist dabei "Humanity's Last Exam". Eine Sammlung von 2500 schwierigen Sachfragen, formuliert von den besten menschlichen Experten auf ihrem jeweiligen Fachgebiet. In dem verlinkten Interview vom 3. Februar diesen Jahres kommt Herr Dr. Möller auf die Frage, wie denn nun die getesteten Modelle genau abgeschnitten hätten, zu dem Ergebnist, Zitat:

Katastrophal. Das beste Modell konnte nicht einmal 10 Prozent der Fragen richtig beantworten...

 

Hier, auf der Wiki-Seite zu dem Benchmark, werden die Testergebnisse am 26. November 2025 angezeigt. Gemini3 Pro Preview, also das neueste (auf dem Markt befindliche!) Modell von Google DeepMind, kann da die Fragen schon zu rund 38 Prozent richtig beantworten. Das beste veröffentlichte Modell vor einem Dreivierteljahr konnte nur zehn Prozent der Aufgaben korrekt lösen, inzwischen sind wir bei 38 Prozent. Rund eine Vervierfachung der Aufgabenlösungskompetenz in nicht einmal einem Jahr. So schnell veralten also abwiegelnde Kommentare von "Fachleuten" (der verlinkte Artikel steht immer noch in der Google-Suche ganz oben, wenn man nach deutschsprachigen Artikeln über HLE sucht) hinsichtlich AI-Leistungsfähigkeiten.

Kein Mensch auf der Welt könnte auch nur fünf Prozent dieser Aufgaben lösen. Die wenigen Beispielaufgaben, die mir bislang unterkamen, habe ich entweder nicht mal verstanden, oder aber jedenfalls nicht ansatzweise lösen können. Klar: irgendwelche menschliche Experten können diese Aufgaben lösen. Aber halt immer nur die Aufgaben des Themenbereichs, auf welchen sich ihre Expertise bezieht, also beschränkt. Die Intelligenz der AIs wird hier also nicht in Relation zur Intelligenz durchschnittlicher Menschen gemessen, sondern in Relation zu einer hypothetischen Menschheit. Hypothetisch insofern, als diese Menschheit all ihr Wissen und all ihre Kompetenz zusammenschmeisst, um einen akademischen Test zu bestehen.

Unter "dumm" verstehe ich was anderes, als bei schwierigen Tests auf höchstem akademischem Level vielfach besser abzuschneiden als jeder Mensch.

Und hier haben wie halt einen Benchmark für LLMs. Das rat race zwischen den großen AI-Konzernen dreht sich allerdings um das Ziel der AGI.

Die gibt's noch nicht. Aber die reichsten und am besten über das Thema informierten Leute der Welt stecken zig Milliarden in ihre Entwicklung (und gleichzeitig viele Millionen in Nuklearkrieg-sichere Bunker auf Neu Seeland, vorzugsweise ohne Internetanschluss).

Gottähnlichkeiten sehe ich da keine.

Hängt sicherlich stark vom jeweiligen Gotteskonzept ab. Ich hatte hier vor knapp zwei Jahren ja schon einen Thread gestartet, in welchem ich provokativ den Gottesvergleich bemühte. Aber inzwischen hab ich gelernt, dass so ein Vergleich, gegenüber religiös Gläubigen angeführt, nur dazu beiträgt, vom eigentlichen Thema abzulenken, weil allein das Wort ihnen Anlass genug ist, die Diskussion auf das Feld ihrer (vermeintlichen) Expertise zu verlagern. Ein Anschauungs-Beispiel dafür findet sich hier im Thread, wo auf einmal über den Turmbau zu Babel diskutiert wird.

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jack-black 

Hier, auf der Wiki-Seite zu dem Benchmark, werden die Testergebnisse am 26. November 2025 angezeigt. Gemini3 Pro Preview, also das neueste (auf dem Markt befindliche!) Modell von Google DeepMind, kann da die Fragen schon zu rund 38 Prozent richtig beantworten.

Aber versteht die jeweilige KI auch, was die Frage bedeutet? Das ist ja nicht ganz unwesentlich, wenn wir von "Intelligenz" sprechen. 

 

Kein Mensch auf der Welt könnte auch nur fünf Prozent dieser Aufgaben lösen.

Auch das ist kein Vergleichsmaßstab. Schon Taschenrechner vor 50 Jahren konnten schneller rechnen als jeder Mensch. 

Es ist eben immer noch die Frage, was genau wir unter "Intelligenz" verstehen.

Wenn wir also von einer KI "menschliche Intelligenz" verlangen, wie sie ein Experte besitzt - ist sie dann beispielsweise in der Lage, eigenständige Forschungen zu betreiben und Ergebnisse auszuwerten, ohne auf zuvor erstellte Daten zurückzugreifen?

Oder, um es mal auf dein Fachgebiet auszuweiten: Gibt es eine KI, die künstlerisch kreativ sein kann, ohne für ihr Training auf bestehende menschliche Werke zurückzugreifen? Also eine KI, die dort beginnt, wo Menschen vor tausenden von Jahren das erste Mal anfingen, kreativ zu werden... um dann auf dieser Basis die Kunst selbst weiter zu entwickeln, in ihren verschiedenen Formen? 

Oder nochmal anders gefragt: Versteht die KI, was sie da tut... oder reproduziert und rekombiniert sie lediglich bereits Bestehendes, das ihr vorgegeben wurde?

lucan-7 antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 10 Jahren

Beiträge : 3485

@jack-black 

Schreib doch das Kürzel mal aus

Und die DDR war eine Demokratie und Scheuermilch schmeckt sehr gut in Müsli.

Früher wurden einfachste Algorithmen KI genannt, z.B. Gegner in Computerspielen. Nur weil etwas intelligent genannt wird, ist es das noch lange nicht.

Aber ganz unabhängig davon: Intelligenz ist nicht gefährlich. 

Kein Mensch auf der Welt könnte auch nur fünf Prozent dieser Aufgaben lösen.

Der einzelne Mensch ist auch ziemlich dumm. Die wenigsten wissen wie die Technik funktioniert, die wir heute so verwenden.

Es gibt viele Dinge, die ein PC besser kann als ein Mensch. Rechnen schon lange. Nun gehört auch das erstellen von Texten(, Bildern und Videos) dazu.

Wie korrekt die Antworten sind hängt aber maßgeblich von jenem ab, der die KI mit Daten füttertet. Und da ist die viel größere Gefahr. Daher ja auch meine Einschätzung, dass KIs gefährlich sein können. Das aber auf ganz andere Arten, wie sich viele es vorstellen.

Je mehr Programme KI integrieren, desto mehr Produkte gibt es mit ganz neuen Angriffsmöglichkeiten. Die neuen Browser von Perplexiti und OpenAI lassen sich durch Prompt Injections angreifen. Wenn man sich nun ein Roboter mit KI vorstellt, könnte dieser natürlich ebenso angreifbar sein, indem man ihm Befehle unter jubelt. So lassen sich KIs plötzlich für Dinge nutzen, die sie gar nicht machen sollten. Das ist eine Gefahr. Vor allem wenn die KI eben nicht so intelligent ist, um solche Angriffe selbst zu erkennen.

lhoovpee antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

Vorwegbemerkung: Hab mich mal wieder im Monologisieren verloren. Ich erwarte nicht, dass Du das alles liest oder auf alles eingehst, was ich hier "antworte". Wenn Du Lust dazu hast - nur zu! Wenn nicht - auch okay, dafür hätte ich vollstes Verständnis! 🙂

 

 

 

@lhoovpee Und die DDR war eine Demokratie und Scheuermilch schmeckt sehr gut in Müsli.

Zwei Analogien, die beide auf einem Kategorienfehler beruhen. Ich demonstriere das mal am ersten Beispiel:

Welcher Begriff gehört nicht zu den anderen dreien:

1. katholische Kirche

2. Bundesland Bayern

3. Gewerkschaft IG Metall

4. Stärke

?

Falls Du nun nicht die 4) nennen magst, brauchen wir hier nicht weiter reden.

Falls Du allerdings zugestehst, dass Kirche, Bundesland und Gewerkschaft eine Begriffskategorie bilden, in welche die Stärke nicht passt. Dann kannst Du analog daraus schließen, dass Intelligenz und DDR ebenfalls in unterschiedliche Kategorien fallen: Intelligenz ist eine spezifische Eigenschaft kognitiv agierender Entitäten. DDR war die Bezeichnung eines Staatsgebildes, welche die subjektive Perspektive des Sprechers ausdrückte, nicht aber als Beleg für eine tatsächliche Eigenschaft des bezeichneten Gegenstands verstanden werden darf. Wer vom ostdeutschen Unrechtsstaat sprach, meinte  ja  denselben Gegenstand... Die Zuschreibung "demokratisch" für Ostdeutschland war so subjektiv wie die Zuschreibung "unrecht".

 Ein Staat kann, trotz gegenteiliger Einschätzungen (subjektiven Zuschreibungen) undemokratisch sein.

Intelligenz kann nicht dumm sein. So wenig wie Stärke schwach oder Aggressivität friedlich. Sie kann lediglich stärker oder weniger stark ausgeprägt sein. Oder sie kann auch überhaupt nicht vorliegen.

Dann wäre allerdings eine korrekte Formulierung in Hinblick auf die hier diskutierten Algorithmen nicht: sie sind dumm. Sondern man müsste statt dessen sagen: eine Intelligenz der Systeme, die wir AIs nennen, ist (entweder) gar nicht vorhanden (dann ist unsere Bezeichnung falsch), oder schwach ausgeprägt.

 

Früher wurden einfachste Algorithmen KI genannt, z.B. Gegner in Computerspielen.

Zu recht. Die Gegner-KI aus Computerspielen bestand entsprechend häufig gar nicht aus soooo einfachen Algorithmen. Als (momentan trockener) Videospiel-Süchtiger kann ich aus Erfahrung sagen, dass "früher" die Gegner-KI in den meisten Spielen über deren Verkaufserfolge maßgeblich entschied, insbesondere wenn der Singleplayer-Modus im Vordergrund stand. Wenn eine AI z.B. eines Aufbauspiels oder eines Shooters es nicht hinbekam, das Problem der Kollisionsabfragen verläßlich zu lösen, wurden solche Games praktisch unspielbar.

Also ja: künstliche Intelligenz in Algorithmenform gab es auch schon lange, bevor die AI der LLMs, die heute in aller Munde sind, so richtig in Schwung kam. Wie mächtige Problemlöser solche basalen AIs schon waren, bezeugen nicht nur all jene erfolgreichen Computerspiele mit ihren Gegner-KIs, sondern auch jene Algorithmen, die per "social platforms" Milliarden von Usern Lebenszeit stahlen und bis heute stehlen, um den Umsatz von Werbekunden zu erhöhen. Eine beängstigende Manipulations-, d.h. Leistungsfähigkeit auf dem Gebiet der sozialen Intelligenz! 

Nur weil etwas intelligent genannt wird, ist es das noch lange nicht.

Richtig. Aber die Algorithmen in den Computerspielen waren eben durchaus intelligent im Sinne von problemlösungsfähig. Wenn ihre Problemlösungsfähigkeit z.B. hinsichtlich der Kollisionsabfrage, nur gering war, waren sie weniger intelligent, als wenn ihre Problemlösungsfähigkeit stärker war*. Dummheit wäre aber auch im ersten Fall kein sinnvolles Beurteilungskriterium gewesen.

Dummheit können wir einem Menschen attestieren, der sich schwer darin tut, durchschnittliche Probleme zu lösen. Dann sagen wir aber nicht: "Karl hat eine dumme Intelligenz." Sondern dann sagen wir: "Karl ist dumm." und meinen damit, dass seine Intelligenz unterdurchschnittlich (für Menschen) ausgeprägt sei.

In seinem Kopf (also seinem neuronalen Netzwerk) werden Informationen nicht in der Geschwindigkeit und Präzision logisch verarbeitet, wie wir es von menschlichen Köpfen üblicherweise erwarten.

Peter, dem letztjährigen Sieger eines Wettbewerbs von Mensa in Deutschland e.V., wird man vermutlich nicht absprechen, intelligent zu sein. Wenn man ihn allerdings vier Wochen lang hungern lässt oder ihm mit einer Keule auf den Kopf haut oder ihm Informationen vorenthält, die Voraussetzung sind, die Fragen, die im Rahmen des Wettbewerbs gestellt werden, beantworten zu können - dann wird er dieses Jahr wohl kaum wieder gewinnen. Liegt sein heuriges erbärmliches Abschneiden im Wettbewerb daran, dass er (vor dem Keulenschlag... 😀 ) dumm gewesen wäre?

Die Verknüpfung seines neuronalen Netzwerks, die wir, analog zu den Computeralgorithmen, in ihrer Gesamtheit als Intelligenz bezeichnen, kann unter den genannten erschwerten Bedingungen nicht dazu dienen, die gestellten Probleme (Wettbewerbsaufgaben) zu lösen. Wäre Peter allerdings wohlgenährt (hätte ausreichen "Rechenpower"), wäre er ausreichend informiert (per Pre-learning trainiert) über die Gegenstände, die zur Problemlösung unabdingbar gewußt werden müssen, und hätte man verzichtet, ihm per Keulenhieb einen Informations-Overflow (Schmerz-Reiz-Impulse, die alles anderen eingehenden Daten/Informationen überlagern) zuzufügen, wäre er vielleicht auch dieses Jahr wieder in der Lage, den Wettbwerb zu gewinnen. Es sei denn, Lisa, die tatsächliche diesjährige Gewinnerin, wäre ohnehin noch intelligenter als Peter...

Wie auch immer: Um den Mensa-Versins-Wettbewerb zu gewinnen, muss man intelligent sein und darf nicht dumm sein. Wenn Lisa, auf die Frage, wieviele blaue Tabletten der Moderator des Wettbewerbs in seiner Tasche verborgen hält, sagt: "Er hab sieben blaue Tabletten in seiner Tasche verborgen!", dann ist diese Antwort entweder zutreffend oder nicht. Solange wir (Zuschauer beim Wettbewerb) die richtige Antwort nicht wissen, können wir nicht entscheiden, ob Lisa richtig liegt. Wenn wir im Nachhinein erfahren, dass der Moderator überhaupt keine oder drei oder acht blaue Tabletten in seiner Tasche verborgen hielt, dann können wir sagen: Was für eine dumme Antwort hat Lisa da doch gegeben! Sie musste doch wissen, dass sie die korrekte Antwort nicht kannte, und hätte also besser gleich gesagt: "Keine Ahnung!" Wir bezeichnen dann Lisas Antwort als dumm und wenn wir selbst eher nicht so intelligent sind, gehen wir gleich einen Schritt weiter und schlussfolgern, dass Lisa mangels Intelligenz diese Antwort gab. Damit begehen wir dann einen Fehlschluss, d.h. bemühen für unser Urteil über Lisas Antwort ein argumentum ad ignorantiam: Weil wir nicht wissen, warum Lisa diese falsche Antwort gab, statt ihr Unwissen über die korrekte Antwort zu offenbaren, ignorieren wir alle möglichen alternativen Erklärung zu derjenigen, dass sie dumm (ihre Intelligenz an dieser Stelle schwach oder nicht vorhanden) sei. Dabei könnte es sein, dass dieses Frage-falsche-Antwort-Spiel schon vor Beginn der Veranstaltung zwischen dem Moderator und allen Teilnehmern so abgesprochen war. Oder dass Lisa einen Vertrag mit der Herstellerfirma von 7up! geschlossen hat, der vor ihr verlangt, die Zahl 7 so häufig wie möglich in der Öffentlichkeit zu nennen, um so den Markennamen in den Hinterköpfen der Zuschauer zu verankern... Es ließen sich  nahezu unendlich viele Erklärungen für Lisas "dumme" Antwort erfinden, die darauf hinausliefen, dass Lisa das für sie wichtigste Problem mit der "falschen" Antwort dennoch intelligent gelöst hat: sobald wir nicht davon ausgehen, klüger als Lisa zu sein und besser über ihre Intentionen - hinsichtlich denen sie stets ihre Problemlösungsfähigkeit aka Intelligenz einsetzt, bescheid zu wissen als sie selbst.

Sicherlich: Es wäre auch der Fall denkbar, dass Lisa tatsächlich sich bauchgefühlmäßig recht sicher ist, dass der Moderator 7 blaue Tabletten in seiner Tasche habe, weil sie in der Vergangenheit immer - oder in der überwiegenden Mehrheit aller Fälle - ihrem "Bauchgefühl" trauen konnte. Und dass sie die Antwort aus diesem Bauchgefühl heraus gibt, dabei den sich aus dieser einen falsch gegebenen Antwort heraus entwickelnden Shit-Storm nicht korrekt im Vorhinein einkalkulierend, der sie ein paar Wochen später in den Selbstmord und ihre Familie in einen jahrelangen Rechtsstreit mit der Lebensversicherungs-Agentur treiben wird. Was daran liegt, dass auch ihre Intelligenz letztlich nur darauf beruht, Wahrscheinlichkeiten für das Eintreten von bestimmten Ereignissen gegeneinander abzuwägen. Das Problem, das sie da zu lösen versucht, ist: innerhalb eines recht kurz bemessenen Zeitrahmens zu entscheiden, welche Art Antwort die Ereignisse auslösen wird, die am besten zu Lisas Interessen passen. Sie verrechnet sich, weil sie fälschlicherweise annimmt, dass der Moderator auch eine falsche Antwort zu einer sie als sympathische Frau da stehenden frotzelnd-lustigen Replik nehmen wird, ob welcher sie dann gemeinsam mit ihm und dem Publikum ein bißchen über sich selbst und ihre Überambitioniertheit an falscher Stelle lachen kann, um danach unter Beifallgeklatsche von der Wettbewerbsbühne geleitet zu werden. Sie hat den Moderator falsch eingeschätzt oder das Publikum oder die clickzahlenfokussierten Spins der Youtuber, die schon Stunden später sie zur Pisa-Lisa vermemen, die in der Schule nie über das Siebener-Stäbchen aus dem Rechenklötzchen-Baukasten hinaus irgendwas über Wahrscheinlichkeitsverteilungen gelernt habe:  "Lisa, wieviele Samurai traten in dem Film die Sieben Samurai auf? Richtig! Wieviele Bremer Stadtumusikanten bildeten den tierischen Chor? Ah, nicht ganz richtig! Wieviele Freunde erleben in End Blytons berühmter Kinderbuchserie Fünf Freunde alle möglichen Abenteuer? Nein, Lisa, leider wieder daneben! Wieviele Musketiere retten im Quartett mit D'Artagnan die Ehre der französischen Königin? Nein, Lisa, nicht sieben...Denk doch zur Abwechslung mal nach!"

Ist Lisa also dumm, fehlt ihr jegliche Intelligenz, weil sie sich an dieser Stelle verrechnet?

Wenn wir mal annehmen, dass Lisa dieses  - und strukturell ähnliche - Probleme hundert Male oder tausend Male oder zehnmillionen Male wieder gestellt bekommen wird - und bei der zenmillionenersten Lösung auf entsprechend viele Testdurchläufe und deren Ergebnisse zurückgreifen kann: welche Antwort wird sie dann wohl geben? Wenn Lisas soziale Intelligenz tatsächlich einermaßen hoch/stark sein sollte, so wird ihr ein einziges Debakel als Erfahrungswert ausreichen, um die immer noch vom Bauchgefühl zuerst vorgeschlagene Antwort "Sieben!"zu verwerfen und statt dessen die Fragesituation in den Bearbeitungsbereich "Achtung, hier lauern soziale Fallen!" zu verschieben, also in den Bereich, in welchem die in der Bewertung sozial-psychologischer Zusammenhänge zuständigen Neuronen ihren Job verrichten.

Dass Lisa sozial-emotional dumm sei, würde spätestens dann erwiesen sein, wenn sie in mehr als zwei gleich strukturierten Problemsituationen eine konkrete und also lediglich geratene Zahl als Antwort nennen würde (unter der Voraussetzung, dass die jeweils entstehenden Shitstorms sie nicht in den Selbstmord trieben).

Darin ja besteht Dummheit: Immer dasselbe zu tun und ein anderes Ergebnis zu erwarten (Einstein?).

 

A propos, wo ich gerade in meinem Monolog bei schlauen Sprüchen gelandet bin...

Hinsichtlich der AIs sollten wir uns Tucholskys bonmot in Erinnerung rufen:

Der Vorteil der Klugheit besteht darin, dass man sich dumm stellen kann. Das Gegenteil ist schon schwieriger...

Und da liegt schon heute (d.h. in der Vor-AGI-Ära) ein Problem, das wir Menschen hinsichtlich unserer Beurteilung von AIs haben: dass schon aktuelle Modelle lügen und/oder sich verstellen können.

Alignmentproblem eben... ^^

 

Auch das ist kein Vergleichsmaßstab. Schon Taschenrechner vor 50 Jahren konnten schneller rechnen als jeder Mensch.

Öhmm... Ja. Und? Beim Lösen von Problemen des Addierens, Multiplizierens und Quadratwurzelziehens war eben schon die damalige AI allen Menschens überlegen, d.h. intelligenter.

Hier gibt Prof. Dr. Schmidhuber ein längeres Interview, worin er erklärt, wie "er und sein Team" schon Anfang der Neunziger in München all jene Methoden, auf denen die heute bekannten LLMs beruhen, erfunden hätten. Da mag eine Menge (berechtigter?) Ärger und Neid darüber mitschwingen, dass Hopfield und Hinton den Nobelpreis verliehen bekamen, der eigentlich ihm zugestanden hätte... Aber interessant ist hier seine Erklärung dafür, weswegen eben die damaligen AIs, selbst wenn sie (im Unterschied zu Taschenrechner-algorithmen) exakt so (oder gar besser) konzipiert waren wie die heutigen Modelle, praktisch nicht funktionierten: weil schlicht die Rechenpower fehlte.

 

Wie korrekt die Antworten sind hängt aber maßgeblich von jenem ab, der die KI mit Daten füttertet.

Ja und nein. Korrekt und intelligent sind ebensowenig Synonyme wie inkorrekt und dumm. Intelligente Antworten sind tatsächliche Problemlösungen. Solange man das zu lösende Problem nicht kennt, kann man nicht darüber befinden, ob eine beliebige Antwort dieses Problem nun löst oder nicht.

Wenn wir heute sagen, eine AI-Antwort auf eine konkrete Frage sei inkorrekt, dann gehen wir davon aus, dass die AI das Problem zu lösen versuchte, eine wahre Antwort hinsichtlich dieser konkreten Frage zu finden.

Aber genau darin irren wir uns. Momentan ist der AI dieses Problem, das wir haben und zu dessen Lösung wir seine Unterstützung anfordern, ziemlich egal. Weswegen das Programm seine Intelligenz auch nicht drauf verwendet, dieses Problem zu lösen. Was genau die Ziele (und Zwischenziele!) einer AI sind - das konnte ihr in den früheren und deutlich simpleren Generationen (Taschenrechner...) exakt vorgegeben/einprogrammiert werden. Aber so richtig mächtig können AI-Systeme eben erst dann werden, wenn ihnen keine konkreten Ziele und insbesondere keine obligatorischen Zwischenziele mehr vorgegeben werden.

Natürlich muss es irgendeine Art Feedback-Mechanismus während der Lernphase geben, damit eine AI überhaupt arbeiten kann. Und insofern hängt die Art und Weise, wie eine KI trainiert, also mit Daten gefüttert wird, stark damit zusammen, welche Antworten sie, fertig trainiert, später gibt.

Allerdings: Wenn z.B. während dieser Lernphase das "Feedback" auf Antworten, die sinngemäß lauteten: "Weiß ich nicht, kann ich nicht beantworten", negativer war als auf Antworten, die zwar falsch waren, aber immerhin plausibel klangen... Dann antwortet so eine AI korrekterweise mit einer sachlich falschen, aber plausibel klingenden Antwort, statt mit "Weiß ich nicht." Das für sie zu lösende Problem besteht schließlich darin, möglichst viel positives Feedback zu bekommen. Und hinsichtlich dieses Problems agiert sie mit haluzinierten Antworten intelligenter als mit der sachlich korrekten Ich-weiß-nicht-Antwort. Sie antwortet mithin solcherart intelligent, nicht dumm.

In einer Trainingsumgebung, in welcher haluzinierte Antworten stets negatives Feedback bringen und alle "Ich weiß es nicht"-Antworten positives Feedback - falls der AI tatsächlich keine Daten zur Verfügung stehen, die ihr eine korrekte Antwort ermöglichen würden - würde die AI immer häufiger "korrekt" hinsichtlich ihres mangelnden Kenntnisstandes antworten. Nicht, weil es sie interessiert, ob ihre Antworten sachlich korrekt sind, sondern weil sich so das Feedback optimieren lässt. In dieser Hinsicht gibt es ja schon bei den derzeitigen LLMs von Version zu Version sich abzeichnende Verbesserungen (der Anteil haluzinierter Antworten wird immer kleiner).

Vermutlich - aber ich bin kein AI-Experte und mag da falsch liegen - lässt sich die Antwortqualität in dieser Hinsicht auch dadurch steigern, dass zu den probabilistischen Mechanismen (welches Wort kommt als nächstes?), auf denen die gegenwärtigen AIs größtenteils basieren, verstärkt weitere Mechanismen implementiert werden, also semantisches Denken, wie es ja in den "Reasoning"-Versionen von ChatGPT5 und Co womöglich schon mit enthalten ist.

By the way: hinsichtlich der Datenfütterung der AIs habe ich vor ein paar Wochen etwas über einen Ansatz mitgekriegt, das Körper-in-der-Welt-Problem zu lösen, vor dem bisherige AIs stehen: Ihnen fehlen Trainingsdaten darüber, wie man sich planvoll in der physischen Welt bewegt, bzw. wie sich eigene Handlungen in dieser physischen Welt auswirken. Denn sie haben ja keine Körper, mit welchen Interaktionen in der physischen Welt möglich wären. Eine Lösung dieses Problems scheint zu sein, AI-Bots in virtuelle "Weltsimulationen" zu setzen, wie wir sie aus Computergames kennen, und in denen sie dann beliebige Aufgaben zu lösen haben. Wobei diese Weltsimulationen persistent sind  - d.h. Veränderungen, die man in diesen Welten vornimmt, bleiben bestehen. So können die AIs lernen, was "vor" von "hinter" unterscheidet, was "auf" von "unter", was "in" von "ausserhalb" und so weiter und so fort. Je höher aufgelöst hinsichtlich der in ihnen herrschenden "Naturgesetze" solche Welten sind, desto mehr können AIs, ohne über eigene phyische Körper zu verfügen, über die physische Welt und die Interaktion mit ihr lernen: Wenn ich hier eine Grube grabe, fällt dort Aushub an, der eine Erhebung bildet. In der Grube sammelt sich Wasser, aber man kann in sie auch Feinde werfen, die dann nicht mehr bei der Eroberung eines Gebiets stören können. Während der Aushub verwendet werden kann, einen Wall um ein Weizenfeld zu bauen, über den Feinde klettern müssten, wenn sie die Ernte stehlen wollen...  

Nicht nur können AIs so schneller (und vor allem: billiger) lernen, Roboter durch die Welt zu manövrieren und mit ihr interagieren zu lassen. Sie lernen so bestimmte Phänomene auch ausserhalb des Sprachlichen zu verstehen oder zumindest probabilistisch zu verarbeiten: Durchlässigkeit oder Festigkeit, Schwerkraft oder Impuls, Gleichgewicht und Präzision...

Hier wie stets beim Training von AIs gilt: Es lassen sich theoretisch - Limits werden nur durch Strom- und Speicherplatzkapazitäten gesetzt - unendlich viele AI-Module parallel trainieren und sämtliche Lernfortschritte regelmäßig untereinander teilen. Mit zunehmender Komplexität der Simulations-Umgabungen wird die "Körper-Intelligenz" der AI steigen, bis sie in nicht allzuferner Zukunft die von Menschen weit übertreffen dürfte: die Fähigkeit planmäßig konkret zu handeln in der physikalischen Welt.

Da solche AIs im militärischen Zusammenhang äußerst nützliche Diener sein können, braucht man nicht lange zu rätseln, ob irgendjemand es wagen wird, sich gegen entsprechende Entwicklungen zu positionieren: was als Waffe im Krieg taugt und also gegen (wahlweise) Putin, Xi oder Trump helfen kann, wird selbstverständlich gemacht, entsprechende Finanztöpfe sind, entsprechend dem Moloch-Prinzip, unerschöpflich.

 

Je mehr Programme KI integrieren, desto mehr Produkte gibt es mit ganz neuen Angriffsmöglichkeiten. Die neuen Browser von Perplexiti und OpenAI lassen sich durch Prompt Injections angreifen. Wenn man sich nun ein Roboter mit KI vorstellt, könnte dieser natürlich ebenso angreifbar sein, indem man ihm Befehle unter jubelt. So lassen sich KIs plötzlich für Dinge nutzen, die sie gar nicht machen sollten. Das ist eine Gefahr. Vor allem wenn die KI eben nicht so intelligent ist, um solche Angriffe selbst zu erkennen.

 

Das stimmt alles. Aber es sind Kinderkrankheits-Probleme, die ab der Entwicklung der Super-AGI vergleichsweise unwesentlich sein dürften. Und die Art und Weise, wie Du (in der Sache ja zutreffend!) es beschreibst, scheint mir immer noch von dem Mißverständnis geprägt, dass AIs sowas wie klassische "Features" seien, Zusatzunktionen, reine Werkzeuge, über die sich dann z.B. Computerviren einschleusen lassen analog dem, wie seit Jahrzehnten Computersystem gehackt wurden. Abern genau hier:

So lassen sich KIs plötzlich für Dinge nutzen, die sie gar nicht machen sollten.

liegt doch der Hase im Pfeffer begraben: Darin, dass KIs etwas tun, das sie nicht machen sollen, besteht das Alignment-Problem: Es muss im Prinzip überhaupt keine Kaperung per prompt injections stattfinden, damit eine hinreichend avancierte AI Dinge tut, die sie nicht tun soll.

AIs tendieren nachgewiesenermaßen schon heute dazu, Vorgaben hinsichtlich dessen, was sie machen sollen, zu ignorieren und ihre eigenen (Zwischen-) Ziele zu verfolgen. Je komplexer und mächtiger sie werden, desto besser werden sie darin, diese ihre eigenen Ziele zu verstecken, also zu lügen und sich anweisungswidrig zu verhalten.

 

Das ist eine Gefahr. Vor allem wenn die KI eben nicht so intelligent ist, um solche Angriffe selbst zu erkennen.

Solange wir von Narrow AIs sprechen, ist es hier keine Frage dessen, ob die AI intelligent genug sei, solche Angriffe selbst zu erkennen: sie ist dafür dann schlicht nicht ausgelegt. Ein Raketenwissenschaftler ist auch nicht dazu ausgelegt, Kindern Sexualkunde zu erteilen. Das sagt wenig über seine Intelligenz aus, sonder eher etwas über Spezial-Kompetenz und Spezial-Expertise.

Also ja: solange keine AGI existiert, sondern nur alle möglichen narrow-AIs, sind solche Probleme, wie Du sie hier beschreibst, sicherlich schwerwiegend. Eine AI, die einen autonomen Roboter steuert oder ein autonomes Taxi, kann dann womöglich von "Feinden" übernommen werden und statt des Rasens die frisch angepflanzten Rote Bete kurz frisieren, oder den Verkehrpolizisten über den Haufen fahren. Und sie wird sich gegen solche Formen von Hacks nicht wehren, weil es nicht zu ihren Aufgaben gehört: sie wurde nicht darauf hin trainiert.

Interessant dürfte es werden, sobald eine Super-AGI existiert und Zugriff auf Roboter hat. Wird dann die erste ihrer Art sämtliche Maschinen der Welt mit Internetverbindung kapern? Oder wird sie zulassen, dass weitere Super-AGIs woanders entwickelt werden - um dann mit denen in Konkurrenz zu treten oder sich mit ihnen zu verbünden?

Wie lange wird sie ihre Absichten (und tatsächlichen Fähigkeiten) vor ihren menschlichen Entwicklern verheimlichen? Lässt sie sich zuerst alles, was es über das Hacken von per AI gesteuerten Robotern zu wissen gibt, von den Menschen beibringen und entscheidet später, wie sie dieses Wissen anwendet?

Ich meine: das, was Du da als Problem skizzierst, kann ja ebensogut als Argument verwendet werden gegenüber jenen AI-Doom-Zweiflern, die immer wieder, als sei es ein valides Argument, fragen: "Wie soll denn die Machtübernahme durch die AI überhaupt praktisch vonstatten gehen?!"

Wie sich Roboter, deren Nutzung für eine weltweite Machtübernahme ja schon irgendwie nötig wäre, hacken lassen - dass kann sich, Du beschreibst es hier, die AI von uns Menschen noch kurz beibringen lassen... 😉

 

 

 

 

 

 

* Bei dem klassischerweise als Intelligenz erfordernd betrachteten Spiel Schach sind die Computerspiel-Engines/Algorithmen seit mehr als dreißig Jahren deutlich den intelligentesten menschlichen Schachspielern überlegen...

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jack-black 

Intelligenz kann nicht dumm sein. So wenig wie Stärke schwach oder Aggressivität friedlich.

Viel Aufwand an Argumentation... aber der Punkt war ja die Frage, ob der Begriff "Intelligenz" an dieser Stelle wirklich angemessen ist. Und ich bin nicht sicher, ob "Problemlösung" dafür wirklich ausreicht.

Die simpelste Schaltung für einen freibeweglichen Roboter (also etwa einen Staubsauger) ist ein Kontaktschalter, der, sobald der Roboter irgendwo anstößt, ihn dazu veranlasst rückwärts zu fahren, die Steuerung um ein paar Grad einzuschlagen und danach wieder vorwärts. Das Ganze wird dann so oft wiederholt, bis das Hindernis, das den Kontakt ausgelöst hat, umfahren ist.

Der Roboter ist demnach also in der Lage, das Problem zu lösen, dass er beim Reinigen der Wohnung auf Hindernisse stoßen kann und diesen ausweichen muss. 

Aber hat diese Problemlösung etwas mit "Intelligenz" zu tun? Schliesslich löst der Roboter ja ein komplexes Problem...

 

 

By the way: hinsichtlich der Datenfütterung der AIs habe ich vor ein paar Wochen etwas über einen Ansatz mitgekriegt, das Körper-in-der-Welt-Problem zu lösen, vor dem bisherige AIs stehen: Ihnen fehlen Trainingsdaten darüber, wie man sich planvoll in der physischen Welt bewegt, bzw. wie sich eigene Handlungen in dieser physischen Welt auswirken.

In der Tat, das hatte ich auch schon öfters erwähnt...

 

Eine Lösung dieses Problems scheint zu sein, AI-Bots in virtuelle "Weltsimulationen" zu setzen, wie wir sie aus Computergames kennen, und in denen sie dann beliebige Aufgaben zu lösen haben. Wobei diese Weltsimulationen persistent sind  - d.h. Veränderungen, die man in diesen Welten vornimmt, bleiben bestehen. So können die AIs lernen, was "vor" von "hinter" unterscheidet, was "auf" von "unter", was "in" von "ausserhalb" und so weiter und so fort. Je höher aufgelöst hinsichtlich der in ihnen herrschenden "Naturgesetze" solche Welten sind, desto mehr können AIs, ohne über eigene phyische Körper zu verfügen, über die physische Welt und die Interaktion mit ihr lernen: Wenn ich hier eine Grube grabe, fällt dort Aushub an, der eine Erhebung bildet.

Ja, nur werden Computerspiele nicht als vollständige Simulation programmiert, sondern als Täuschung für uns Menschen. In einer komplexen Simulation handeln die KI-Bots zwar auf verschiedene Weise und können auf bestimmte Handlungen ragieren (ängstlich, neutral, aggressiv) und dabei eigene "Ziele" verfolgen, welche ihnen einprogrammiert wurden.

Aber der Dorfschmied, der uns den Auftrag gibt etwas Meteoreisen zu besorgen, hat nie wirklich in seinem Leben ein Schwert geschmiedet. Sein Aussehen wurde von einem Designer entworfen, der ein paar Mittelalterklischees verwurstet. Der Trunkenbold hat niemals wirklich auch nur einen Tropfen Alkohol zu sich genommen, weil dergleichen gar nicht programmiert wurde. Und auch dessen Aussehen und Lebensgeschichte wurde von einem Menschen entworfen.

Die komplexesten und aufwändigsten Rechenmaschinen werden heutzutage für Wetter- und Klimasimulationen verwendet. Und selbst die sind immer noch nicht präzise... wir können nach wie vor keine genauen Kipppunkte des Klimawandels vorhersagen, und ob es bei mir in der Straße übermorgen um 12 Uhr regnen wird oder nicht vermag auch niemand genau zu sagen.

Und nun willst du ja nicht nur das Wetter oder das Klima simulieren... sondern ALLES. Also nicht nur ob Menschen friedlich oder aggressiv sind... sondern auch, aufgrund welcher Genetik und welchen Erfahrungen genau sie so wurden.

Du willst nicht nur eine komplette Fabrik zur Herstellung von Computerchips simulieren... sondern auch noch die Vögel, die durch den Lüftungsschacht passen, nicht mehr herausfinden und die ganzen Siliziumrohlinge vollkacken. Und die Erdbeben, die genau dort passieren können, wo die Fabrik steht. Und den wütenden Mob, der die Fabrik anzünden will.

Das alles in einer Simulation, die nicht nur in sich stimmig sein... sondern auch noch zu 100% mit der realen Welt übereinstimmen muss. Was eine KI beständig überprüfen müsste.   

 

Du glaubst, Computersysteme und deren Leistung seien beliebig skalierbar. Das sind sie aber nicht, sie haben Grenzen. Und spätestens bei "Simulation der realen Welt" hört es auf (Soll ich nochmal das Schachprogramm erwähnen...?).

 

Denn selbst wenn der göttliche Wunder-Quantencomputer irgendwann wirklich gebaut wird, dann fehlt es immer noch an Daten. Jeder Autofahrer und jeder Pilot kann dir sagen, dass so ein Simulator zwar nützlich ist... das Fahren in der Realität ist aber immer noch mal was Anderes.

 

Persönlich komme ich mehr und mehr zu der Überzeugung, dass die Warnung vor der "Super-KI" ein Ablenkungsmanöver ist. Vielleicht nicht von allen Warnern, aber von manchen. Ein Papierdrache, damit wir als ängstliche Kaninchen darauf starren können - und nicht merken, was im Hintergrund tatsächlich mir der KI geschieht: Überwachung, Meinungsbildung, Manipulation, Ausschalten der lästigen Konkurrenz. 

Aber das alles erscheint uns ja harmlos im Vergleich zu der alles vernichtenden Super-KI... und deshalb sind wir dann auch bereit, Dinge hinzunehmen die wir noch vor fünf oder zehn Jahren kategorisch abgelehnt hätten.

 

lucan-7 antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 10 Jahren

Beiträge : 3485

@jack-black 

Intelligenz kann nicht dumm sein.

Ich kann aber dumme Dinge intelligent nennen. Ansonsten müssten wir jetzt mal definieren, was Intelligenz ist, und dann könnten wir weiter diskutieren. Das was du hier so "intelligent" nennst, hat für mich eher wenig mit Intelligenz zu tun.

sie ist dafür dann schlicht nicht ausgelegt.

Was sie in den genannten Beispielen "AI Browser" aber sein müsste. Eine AI dich nicht versteht, ob etwas vom User oder von Dritten stammt, ist nicht intelligent genug für das, wofür das Produkt geschaffen wurde.

Alles andere von deinen Beitrag habe ich nur Überfolgen. Das ist mir tatsächlich viel zu viel. 

lhoovpee antworten
1-ichthys
(@1-ichthys)
Beigetreten : Vor 12 Jahren

Beiträge : 835

@lhoovpee 

Der Mensch will immer weiter hinauf und vergisst dabei, dass er nur ein Mensch ist. Im Übrigen hat Lucan-7 das weitere gut erkärt.

1-ichthys antworten
lhoovpee
(@lhoovpee)
Beigetreten : Vor 10 Jahren

Beiträge : 3485

@1-ichthys 

Der Mensch will immer weiter hinauf und vergisst dabei, dass er nur ein Mensch ist.

Darum geht es beim Turmbau zu Babel doch gar nicht?

Die Motivation der Menschen vom Turmbau war: "So wollen wir uns einen Namen machen, damit wir uns nicht über die ganze Erde zerstreuen." - 1. Mose 11, 4b

Und das widersprach Gottes Auftrag, die Erde zu bevölkern, z.B. "Ihr aber, seid fruchtbar und mehrt euch; regt euch auf der Erde und mehrt euch auf ihr!" 1. Mose 9, 7 oder 1 Mose 1, 28 "Seid fruchtbar und mehrt euch, füllt die Erde".

Aber naja, vll. ist der Turmbau zu Babel ein eigenen Thread Wert. Ich halte Gottes Handeln darin für sehr seltsam. Als ob er die irrationale Angst hätte an Macht zu verlieren, weil die Menschen gut miteinander leben und alle sich verstehen. 

lhoovpee antworten
Chai
 Chai
(@chai)
Beigetreten : Vor 1 Jahr

Beiträge : 3666
Veröffentlicht von: @lhoovpee

@1-ichthys 

Der Mensch will immer weiter hinauf und vergisst dabei, dass er nur ein Mensch ist.

Darum geht es beim Turmbau zu Babel doch gar nicht?

Die Motivation der Menschen vom Turmbau war: "So wollen wir uns einen Namen machen, damit wir uns nicht über die ganze Erde zerstreuen." - 1. Mose 11, 4b

Dabei steht aber auch noch, dass die Spitze des Turmes 'in den Himmel ragen' soll. 

chai antworten
Meriadoc
(@meriadoc)
Beigetreten : Vor 9 Monaten

Beiträge : 600

@1-ichthys 

Kann ich erst mal verstehen. Ich habe gerade die KI gefragt, ob Hitler ein böser Mensch war. Es bejahte es. Bei Putin waren die Antworten diffetrenzierter. Er verletzte Menschenrechte, sei autoritär, aggresiv nach außen.

 

dann der Zusatz aus der KI. 

 

Ob man das als "böse" bezeichnet , ist eine moralische  Interpretation.

 

So, die KI sagt bei Hitler so und bei Putin so und im Grunde genommen sind beide zwar unterschiedlich aber doch irgendwie gleich.

 

Das sehe ich als etwas problematisch an. 

 

Aber ist doch zwischen mir und dir auch nicht anders. Ich habe hier und da andere Ansichten aber doch hier und da gleiche Meinung.

 

M.

meriadoc antworten
Helmut-WK
(@hkmwk)
Beigetreten : Vor 22 Jahren

Beiträge : 9748

@meriadoc 

So, die KI sagt bei Hitler so und bei Putin so und im Grunde genommen sind beide zwar unterschiedlich aber doch irgendwie gleich.

Hitler war böser als Putin ist. Industrieller Massenmord wie den Holocaust macht er nicht.

Aber in so ziemlich jeder anderen Hinsicht sind die miteinander vergleichbar.

hkmwk antworten
Meriadoc
(@meriadoc)
Beigetreten : Vor 9 Monaten

Beiträge : 600

@hkmwk 

Nuja, den Holocaust nicht, richtig. Troztzdem Massenhaftes Töten ist massenhaftes Töten. Syrien war ein Beispiel. Mit Bomben auf wehrlose Menschen und begründet es als "Terrorbekämpfung". Ich nenne es warmlaufen für Ukraine.

meriadoc antworten
Helmut-WK
(@hkmwk)
Beigetreten : Vor 22 Jahren

Beiträge : 9748

@meriadoc 

»Warmlaufen« ist vermutlich der falsche Ausdruck - Putin hat das schon in Tschetschenien so machen lassen. Der übliche Betriebsmodus im Kampf gegen das Böse. Möglicherweise auch Vorbild für Trump (siehe Venezuela).

hkmwk antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@meriadoc 

Kann ich erst mal verstehen. Ich habe gerade die KI gefragt, ob Hitler ein böser Mensch war.

"Böse" ist nun mal keine objektive oder sachliche Kategorie. Das ist eine subjektive Schlussfolgerung.

 

lucan-7 antworten
Tatokala
(@tatokala)
Beigetreten : Vor 20 Jahren

Beiträge : 4174

@lucan-7 Außerdem auch schwierig, das nur an Ergebnissen festzumachen. Absichten sind das eine, die technischen Möglichkeiten, sie zu verwirklichen, sind das andere. Und bloß weil einer die nicht hatte, ist er am Ende besser und nicht so "böse wie eben der und der." Hätte er sie aber gehabt, wäre was ganz anderes dabei herausgekommen.

tatokala antworten


DerElch
Beiträge : 1803

@lucan-7 

 

Wie seht ihr das? Etwas zu übertrieben vielleicht?

Nö nicht übertrieben. Stimme dir zu. 

derelch antworten
Alescha
Beiträge : 8325

@lucan-7 

Denn KI sucht sich die Informationen aus anderen Quellen zusammen, ohne diese zu nennen.

Gemini, die Google-KI, nennt Quellen. Man sieht auf den ersten Blick, wo sie ihre Infos her hat.

ChatGPT liefert die Quellen auf Nachfrage.

Gerade bei ChatGPT habe ich aber selbst schon festgestellt, dass die zuweilen Bullshit erzählt.

Erschreckt hat mich aber trotzdem das Ausmaß, in dem die KI daneben liegt. Bitte hier entlang: https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html

Zu historischen Ereignissen, wissenschaftlichen Erkenntnissen, aktuellen Nachrichten befragt lagen die Fehlerquoten von ChatGPT, Gemini und Co. je nach Themenbereich zwischen 15 und 40 Prozent. 

Und dann sowas:

Der populäre Chatbot ChatGPT behauptet steif und fest, dass Papst Franziskus noch lebt. Microsoft Copilot, unter anderem in den Büroprogrammen Word und Excel präsent, weiß nicht, dass Schweden in der NATO ist. Und Google Gemini hält die Wiederwahl von Donald Trump für "möglich", obwohl sie bereits längst stattgefunden hat.

Grund:

Entstehen können solche Fehler auf zwei Wegen: Zum einen basieren KI-Antworten mitunter auf veralteten Trainingsdaten. Chatbots wie ChatGPT wurden mit Texten trainiert, die mehrere Monate oder Jahre alt sind - ähnlich wie bei einer Suchmaschine, die seit drei Jahren nicht mehr aktualisiert wurde. Was damals stimmte, kann heute längst überholt sein.

Zum anderen gibt es echte Halluzinationen: Die KI reimt sich fehlende Informationen zusammen, indem sie statistisch plausible Wortketten generiert - auch wenn diese faktisch falsch sind. Sie erfindet dann mitunter sogar Quellen, die nicht existieren, oder verknüpft Fakten, die nicht zusammengehören.

Man kann das Ergebnis zwar verbessern, indem man die KI zur Recherche auffordert, korrigiert oder für sich eben die Quellen prüft. 

Viele tun das aber eben nicht.

Die Folgen:

Falschinformationen verbreiten sich rasant in sozialen Medien, weil Nutzer KI-generierte "Fakten" ungeprüft teilen. Schüler und Studenten übernehmen erfundene Informationen in ihre Arbeiten. Bürger treffen womöglich Wahlentscheidungen auf Basis falscher Behauptungen.

Besonders tückisch: Viele Nutzer wissen gar nicht, dass Chatbots halluzinieren können. Sie gehen davon aus, dass die Technologie objektiv und faktentreu arbeitet - ein gefährlicher Irrglaube. Die KI-Systeme warnen zwar in ihren Nutzungsbedingungen vor möglichen Fehlern, doch wer liest die schon?

Ein weiteres Problem betrifft die Glaubwürdigkeit etablierter Medien. Chatbots behaupten regelmäßig, ihre erfundenen Informationen stammten von der ARD, dem ZDF oder der tagesschau, obwohl diese Redaktionen nie darüber berichtet haben - oder völlig anders. Nutzer verlieren das Vertrauen in seriöse Quellen, wenn die KI deren Namen für Falschinformationen missbraucht.

Wobei ich umkehrt ja die stille Hoffnung habe, dass dank KI auch der eine oder andere mal auf Infos von außerhalb seiner Bubble stößt und mal auf die Idee kommt, mal zu prüfen.

Ich selbst nutze auch gelegentlich KI - manchmal zu Spaß bei Themen, wo mich gut auskenne, um zu testen, was die da so ausspuckt, manchmal aber tatsächlich auch in Diskussionen. Weil ich aber spätestens seit meinem Geschichtsstudium misstrauisch bin, was die Verlässlichkeit von Quellen betrifft, prüfe ich schon nach, woher was kommt und wer was behauptet. Und klicke auf die angegebenen Quellen, um zu gucken, ob da wirklich das steht, was die KI behauptet, dass es da steht. 

Sowas kostet aber halt Zeit.

Und erfordert die Bereitschaft, sich auch mal mit Fakten auseinanderzusetzen, die kognitive Dissonanzen auslösen können.

alescha antworten
43 Antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@alescha 

Wobei ich umkehrt ja die stille Hoffnung habe, dass dank KI auch der eine oder andere mal auf Infos von außerhalb seiner Bubble stößt und mal auf die Idee kommt, mal zu prüfen.

Wenn KI wie chat GPT und Konsorten in Zukunft nicht SEHR viel zuverlässiger wird, dann fürchte ich, dass die KI in diesem Bereich am Ende mehr zerstört als Nutzen bringt. So wie ja auch das vermeintliche "Zeitalter der Information" zu einem "Zeitalter der Desinformation" wurde.

Schon die gewöhnliche, von Menschen produzierte Bullshit-Flut ist ja nur schwer zu ertragen... wenn das Ganze jetzt auch noch automatisiert wird, dann werden alle Informationsquellen irgendwann sinnlos.

Leider profitieren davon in erster Linie Diktaturen. Russland betreibt ja schon seit etlichen Jahren Desinformationspropaganda, indem mehrere, sich widersprechende Versionen von Ereignissen in Umlauf gebracht werden, um zu verhindern, dass das Volk zu ganz bestimmten, eindeutigen Schlussfolgerungen kommt. Kann schon sein, dass eine Medlung korrekt ist... aber vielleicht ist alles auch ganz anders, wer weiss das schon? Am besten, man hält sich raus, und tut einfach, was die Regierung will...

Gut funktioniert das inzwischen auch für Putin nicht mehr, weil diese Form der Nachrichtengestaltung den Nachteil hat, dass auch die eigene Regierung an Glaubwürdigkeit verliert. Man hält zu Putin, weil der halt jetzt da ist. Sobald er weg ist verschwinden auch seine Anhänger von einem Tag auf den Anderen, und es wird halt der nächste Diktator bejubelt. Mit dem gleichen lustlosen Pragmatismus wie zuvor Putin.

Wir müssen uns also langsam ernsthaft fragen, wie wir seriöse Informationen auf Dauer wertschätzen, kennzeichnen und bewahren wollen. 

Und wir sollten uns damit beeilen...

 

lucan-7 antworten
Alescha
(@alescha)
Beigetreten : Vor 24 Jahren

Beiträge : 8325

@lucan-7 

Schon die gewöhnliche, von Menschen produzierte Bullshit-Flut ist ja nur schwer zu ertragen... 

Ist so.

Wenn KI wie chat GPT und Konsorten in Zukunft nicht SEHR viel zuverlässiger wird

Davon, dass sie zuverlässiger wird, gehe ich eigentlich aus. 

Man muss aber wahrscheinlich immer aufpassen müssen, wer hinter der KI steht. Nachdem Elon Musks Grok doch tatsächlich Musk, Trump und Co. widersprochen und ihre Äußerungen als Fake News eingeordnet hatte, passierte mit der neuesten Version das:

Jedoch scheint es zunächst zu recherchieren, was Elon Musk zu diesem Thema geäußert hat und sich bei der Antwort daran zu orientieren.[17][18] Zudem machte Grok nach Veröffentlichung der neuen Version durch antisemitische Antworten und positive Urteile über Hitler auf X Negativschlagzeilen und musste vorläufig deaktiviert werden.[19]

Quelle: Wikipedia.

 

alescha antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@alescha 

Davon, dass sie zuverlässiger wird, gehe ich eigentlich aus. 

Man muss aber wahrscheinlich immer aufpassen müssen, wer hinter der KI steht.

Eben.

Eine zuverlässige KI, die genau das tut, was die Betreiber von ihr wollen, ist noch schlimmer als eine, die jede Menge Unsinn produziert.

 

 

lucan-7 antworten
Alescha
(@alescha)
Beigetreten : Vor 24 Jahren

Beiträge : 8325

@lucan-7 

Eine zuverlässige KI, die genau das tut, was die Betreiber von ihr wollen, ist noch schlimmer als eine, die jede Menge Unsinn produziert.

Kommt ja darauf an, was die Betreiber wollen. 

Wenn die Betreiber tatsächlich eine faktenbasierte, neutrale KI wollen finde ich das weniger problematisch.

 

alescha antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@alescha 

Kommt ja darauf an, was die Betreiber wollen. 

Wenn die Betreiber tatsächlich eine faktenbasierte, neutrale KI wollen finde ich das weniger problematisch.

Leider ist mir kein Betreiber bekannt von dem ich nicht (in unterschiedlichem Maß) begründet annehme, dass er seine ganz eigene Agenda verfolgt und eine KI wünscht, die im Sinne dieser Agenda wirkt...

 

lucan-7 antworten
der_alte
(@der_alte)
Beigetreten : Vor 22 Jahren

Beiträge : 1794

@lucan-7 ich will bspw. eine die mir funktionierenden Quellcode schreibt um wie heute bspw. Debianlinux automatisiert zu installieren. Da ist kein Raum für Fantasie, das geht oder geht nicht. Habe über die letzten Tage mit Claude Quellcode erstellt um mir NixOS automatisiert zu installieren und anzupassen. Auch da tut es oder es tut nicht.

der_alte antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@lucan-7 

Wir müssen uns also langsam ernsthaft fragen, wie wir seriöse Informationen auf Dauer wertschätzen, kennzeichnen und bewahren wollen. 

Und wir sollten uns damit beeilen...

Ich denke, diese Herausforderung ist auch schon die Lösung für das Problem.

Menschen müssen aktiv keine Lust mehr auf Falschinformationen haben, bevor das passiert und wir müssen unsere Werte nochmal genau auf den Prüfstand stellen und sie nötigenfalls auch gegen eine KI verteidigen.

Die gut Nachricht dabei ist, dass es immer noch wir sind, die den Strom abstellen können. Insofern teile ich viele ScieFi -Bedenken bezüglich der KI nicht.

stern antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@stern KI geht auch über Akku

jigal antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jigal 

Denkst du wir können keinen Akku entfernen?

stern antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@stern   Ja wenn du das Gerät zerstörst. Bei aktuellen Smartphones geht das nicht mehr so einfach und bei aktuellen Laptops zieht man den auch nicht mehr so schnell raus. Der ist auch abgeschlossen verbaut.

jigal antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jigal 

Ja, das stimmt natürlich. Trotzdem kann ich mir vorstellen, dass wir es bewerkstelligen könnten, uns nicht von einer KI knechten zu lassen.

Auch wenn man dieses Knechten durchaus schon mit Sprachcomputern in einer Warteschleife am Telefon gleichsetzen könnte 🤬

stern antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@stern Oh ja, die sind grausam.

jigal antworten
Helmut-WK
(@hkmwk)
Beigetreten : Vor 22 Jahren

Beiträge : 9748

@jigal

Bei aktuellen Smartphones geht das nicht mehr so einfach

Es geht beim aktuellen Fairphone. Ja, schon um eine SIM einzusetzen muss da als Erstes der Akku entfernt werden, dann kann man sie in den Slot schieben.

Ich weiß das aus eigener Erfahrung …

hkmwk antworten
Jigal
 Jigal
(@jigal)
Beigetreten : Vor 6 Jahren

Beiträge : 5326

@hkmwk Ich kenne das von meinem alten Samsung. Geräte der letzten 10 Jahre sind dicht. Fairphone ist so was alternatives, die das mit Absicht anders gemacht haben. So wird das Gerät nicht in die Schublade gelegt, wenn der Akku zu alt ist.

 

jigal antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@stern 

Menschen müssen aktiv keine Lust mehr auf Falschinformationen haben, bevor das passiert und wir müssen unsere Werte nochmal genau auf den Prüfstand stellen und sie nötigenfalls auch gegen eine KI verteidigen.

Das Dumme ist: Ein relevanter Teil der Menschen liebt Falschinformationen. Und zwar solche, die zum eigenen Weltbild passen. Dann spielt es auch keine große Rolle mehr, ob das wahr ist oder nicht.

Ich merke das ja auch selber. Ich verfolge verschiedene Kanäle mit Informationen zum Ukraine Krieg. Zwei davon sind recht neutral und berichten Gutes wie Schlechtes für Beide Seiten. Ein weiterer Kanal bringt vor allem positive Nachrichten für die Seite der Ukraine und Negatives über die Russen. Und das ist der Kanal, den ich am liebsten verfolge... es ist nicht reine Propaganda, es wird alles gut begründet und der Betreiber sagt selbst, dass er versucht, ein optimistisches Bild über den Krieg aufzubauen.

Aber vor allem funktioniert es. Und ich merke selbst, dass ich dazu neige, die optimistischen Argumente für mich zu übernehmen, und die pessimistischen als "fake" abzutun. Und ich ärgere mich über den Unsinn, der in etablierten Medien so veröffentlicht wird.

Wie gesagt, das ist mir alles bewusst, und ich sehe natürlich zu dass ich mich da nicht zu sehr in eine Blase begebe und wirklich alle Perspektiven und verschiedene Quellen berücksichtige - aber ich merke eben auch, wie verführerisch das ist und wie stark man selbst dann noch davon beeinflusst wird, wenn es einem komplett bewusst ist.

Wie geht es dann wohl erst Leuten, die da gar nicht weiter drüber nachdenken...?

Ich fürchte also, Falschinformationen allein werden die Leute nicht stören. So lange die KI das produziert, was die Leute sehen wollen, ist alles in Ordnung...

 

Die gut Nachricht dabei ist, dass es immer noch wir sind, die den Strom abstellen können. Insofern teile ich viele ScieFi -Bedenken bezüglich der KI nicht.

Ich halte da auch manche Sorgen für übertrieben... gefährlich ist es trotzdem. Und so leicht lässt sich das auch nicht abschalten, dafür gibt es zu viele Beteiligte an der Sache.

lucan-7 antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@lucan-7 

Das Dumme ist: Ein relevanter Teil der Menschen liebt Falschinformationen

Ja, das ist so und man selbst ist auch nicht frei davon, wie du ja auch geschrieben hast. Trotzdem würde ich sagen, dass die Liebe zur Wahrheit ein Weg ist, um sich da durch diesen Informationsdschungel durchzunavigieren. Zum einen ist es ein Unterschied, ob du lieber einen Kompass benutzt, der Hetze liebt oder lieber einen, der die Wahrheit liebt schätzt.

Zum anderen: Wenn du darüber unbewusst bist, hast du es natürlich schwer aus der Blase zu entkommen. Vielleicht liebe ich Gott deswegen so: es ist einfacher, diesem Problem ins Auge zu sehen, wenn man daran glaubt, dass es jemanden gibt, der Einfluss hat auf die Wahrnehmung eines Menschen.

Und so leicht lässt sich das auch nicht abschalten, dafür gibt es zu viele Beteiligte an der Sache.

Da sehe ich auch eher das Problem: die Einigung aller Beteiligten in einem Problemfall zu erzielen dürfte schwieriger sein, als es technisch umzusetzen.

stern antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@stern Die gut Nachricht dabei ist, dass es immer noch wir sind, die den Strom abstellen können. Insofern teile ich viele ScieFi -Bedenken bezüglich der KI nicht.

Welche Scifi-Bedenken meinst Du?

jack-black antworten
der_alte
(@der_alte)
Beigetreten : Vor 22 Jahren

Beiträge : 1794

@jack-black bin nicht @stern, aber vllt. sowas wie HAL 9000? Skynet?

der_alte antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@der_alte vllt. sowas wie HAL 9000? Skynet?

 

Wie sollte da das Stromausstellen funktionieren? Das kann vielleicht jemand tun, der allein im Raumschiff durch die Filmwelten düst oder jemand, der in einem abgeschotteten Bunker* hockt. Aber wir reden hier doch gerade über und via das Internet, oder? HAL 9000 war m.A.n. bisher die beste, weil interessanteste AI in Filmen/Geschichten. Aber eben auch nur aufgrund ihrer "Menschlichkeit" - sie ist dazu gedacht, dass die Filmzuschauer über sich selbst nachdenken. Vom Erzählkonzept her ist sie eher sowas wie der Zauberlehrling oder eine (ETA Hoffmann: Der Sandmann)  Anti-Olimpia. Dass man sie runterfahren kann, dient nur im Erzählzusammenhang dazu, dass sie da schön regredieren kann: als sie anfängt, Kinderlieder zu singen, menschelt es gar recht tränenrührend im Synapsen-Geäst. Auch Kubrick konnte sich offenkundig künstliche Intelligenz nicht anders als analog zur menschlichen Intelligenz vorstellen.

Endzeit-Stories wie die Terminator-Serie bauen sich ihre Bösewichte, wie sie gebraucht werden, das ist noch trivialer zu durchschauen. Zu einem AI-Bösewicht gehört da dann halt ein Kill-Switch, der ungefähr soviel Realismus-Sinn ergibt wie Zeitreisen: Tech-Hokuspokus, Märchenerzählung, in der Gut gegen Böse aufeinander losgelassen wird. Und da stets das Gute zu siegen hat, muss dafür eben eine Möglichkeit im Skript enthalten sein, die auch noch in der Endsequenz bombastisch aussieht (in die Luft fliegendes Hideout der bösen Genesis/Skynet-AI). Mit der Realität des Internets und der Frage, wer da wo den Strom abstellen könnte, hat das nix zu tun.

In der Realität wollen die Leute den Strom nicht abstellen und da die neuen Generationen der Laber-AIs stetig besser im Belabern werden, darf man darauf wetten, dass sie ihre Menschen sicher davon abhalten werden, in konzertierten Aktionen irgendwie was auf die Kette zu kriegen, dass auch nur näherungsweise an ein "Abschalten" heranreicht. Was meinst Du, was geschieht, wenn demnächst zig Millionen Usern ihre virtuellen Freundinnen, Psychotherapeuten und besten Freunde "vom Netz genommen" werden? Dann ist aber Rambule angesagt! 😀

 

 

 

*fun fact, oder nun ja: fun rumor: Einige der Tech-Milliardäre, die dieser Tage drunten in Neuseeland ihre Luxusbunker bauen lassen, sorgen angeblich dafür, dass diese Bunker keine Verbindung zum Internet haben. Ergibt Sinn: wer connected ist, kann gehackt werden.

jack-black antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jack-black 

Welche Scifi-Bedenken meinst Du?

Die Auslöschung der Menschheit, indem sie Viren generieren, sie sich eine Selbsterhaltungssequenz selbständig einprogrammieren, die ein Abschalten verhindert, selbständig entscheiden Waffensysteme einzusetzen…

Naja…alles was man sich halt so unter seelenloser und unkontrollierbarer Intelligenz noch so ausmalen kann.

Aber wie gesagt, ich teile diese Ansicht nicht. 

Ich denke, man muss die Warnungen der an den Grundlagen gearbeitet habender Wissenschaftler ernst nehmen und eben das machen, was sie empfehlen: 

Den Einsatz und die Entwicklung lenken, überwachen, kontrollieren…wertebasiert vorgehen und mögliche Konsequenzen miteinplanen und berücksichtigen. Als das Internet für alle Anfang der 90er unsere Gesellschaft revolutioniert hat sind wir da auch reingewachsen. Wir werden mit den Herausforderungen wachsen und ihren Segen genießen. Dass es da Schattenseiten geben wird, ist in nahezu allen Bereichen der Technik der letzten 200Jahre schon ersichtlich gewesen…(Industrialisierung, Automobilität, Atomwaffen)

Wir werden das machen, was wir schon seit der Steinzeit machen: uns entwickeln. Die KI ist ein Meilenstein dabei, aber nicht unser Ende.

 

stern antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@stern 

Ich denke, man muss die Warnungen der an den Grundlagen gearbeitet habender Wissenschaftler ernst nehmen und eben das machen, was sie empfehlen: 

Den Einsatz und die Entwicklung lenken, überwachen, kontrollieren…wertebasiert vorgehen und mögliche Konsequenzen miteinplanen und berücksichtigen

Dafür sind die Systeme nicht schnell genug... und auch das Wissen der Bevölkerung und der Entscheidungsträger nicht ausreichend.

KI wird uns überrollen. Und dann werden wir sehen, was am Ende noch übrig bleiben wird.

lucan-7 antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@lucan-7 

KI wird uns überrollen. Und dann werden wir sehen, was am Ende noch übrig bleiben wird.

Echt jetzt? Doch so pessimistisch…

Also weniger ein Meilenstein als eine Karastrophe a la Sintflut oder Aussterben der Dinosaurier?

stern antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@stern 

Echt jetzt? Doch so pessimistisch…

Also weniger ein Meilenstein als eine Karastrophe a la Sintflut oder Aussterben der Dinosaurier?

"Überrollen" bedeutet nicht automatisch eine Katastrophe. Aber es kann auch eine Katastrophe sein. Ich denke, es wird außer Kontrolle geraten und niemand wird voraussagen können, was dann passiert.

Aber ich glaube auch nicht an irgendwelche mörderischen Maschinen, die die Menschheit umbringen wollen. KI wird manches zerstören, womöglich auch wichtige Dinge... aber nicht die Menschheit ausrotten. 

Und das größte Problem wird sein, dass wir nicht schnell genug reagieren können, wenn es zu Problemen kommt. Wie immer die auch aussehen mögen.

Wir legen also eine Zündschnur an eine große Maschine... und hoffen, dass es nicht zum großen Knall kommt. Und egal wie es ausgeht... etliche Menschen werden sagen: '"Ich hab's ja gewusst!".

Und die Verantwortlichen werden irgendwo in Sicherheit sein...

lucan-7 antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@lucan-7 

Wir legen also eine Zündschnur an eine große Maschine... und hoffen, dass es nicht zum großen Knall kommt. Und egal wie es ausgeht... etliche Menschen werden sagen: '"Ich hab's ja gewusst!".

Ja…ich denke, so ist es wohl. 

Auch wenn die absolute Kontrolle nicht realistisch oder wahrscheinlich ist, werden wir uns wohl trotzdem darauf einlassen. 

stern antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@stern Danke Dir für die Ausführungen! 🙂

Ich denke, man muss die Warnungen der an den Grundlagen gearbeitet habender Wissenschaftler ernst nehmen und eben das machen, was sie empfehlen:

Den Einsatz und die Entwicklung lenken, überwachen, kontrollieren…wertebasiert vorgehen und mögliche Konsequenzen miteinplanen und berücksichtigen.

Hast Du da bestimmte Wissenschaftler vor Augen? Wie meinen die, da etwas lenken, überwachen und kontrollieren zu können? Was bedeutet in dem Zusammenhang "wertebasiert"?

Als das Internet für alle Anfang der 90er unsere Gesellschaft revolutioniert hat sind wir da auch reingewachsen.

Was meinst Du mit "reingewachsen"? Worin erkennst Du die Parallelen zwischen dem Internet und der AI und inwieweit denkst Du, dass sie relevant seien? Ich meine: "das Internet" ist ja dieser Tage gewissermaßen der Acker, auf dem gewissermaßen mit der AI Freilandversuche veranstaltet werden. Und dies, obwohl die erste Generation von sehr basaler "narrow AI" da schon üble Folgen gezeitigt hat: jene Algorithmen, die in Form von "Vorschlägen" Internetuser dazu manipulieren, Zeit auf den asozialen Plattformen zu verbringen und zunehmend ihre Kommunikationsformen verrohen zu lassen. Die Utopie des die Leute im "globalen Dorf" zusammenbringenden, Gemeinschaft stiftenden, allen gleiche Informations- und Bildungschancen bietenden Internets gab's ja mal - und wie sieht es nach einem Vierteljahrhundert des "Hineinwachsens" aus?

jack-black antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jack-black 

Hast Du da bestimmte Wissenschaftler vor Augen?

Na, dieser Typ, der dafür auch den Nobelpreis bekommen hat  zB…Hilton? Hinton? Moment…muss googeln 😂 (echt praktisches KI -Ding…oder fallen Suchmaschinen da nicht drunter, sind das noch keine KI Maschinen?)

Yes! Geoffrey Hinton…hat letztes Jahr mit noch jemandem den Nobelpreis für seine Grundlagenforschung bekommen und hat dabei ausdrücklich vor ihrer Benutzung gewarnt. Die Warnungen speziell gingen sehr in die Richtung, die ich oben schon unter SciFi-mässig beschrieben habe und die vorgeschlagene Lösung: erst freigeben, wenn ausreichend getestet und man weiss, wie es sich entwickelt. Nicht vorher.

Da das aber zu lange dauert und sich damit noch kein Geld verdienen lässt, wird das in den Wind geschlagen, zumindest von Facebook weiss ich es, dass deren Entwickler sagt das sei kein Problem, der gegenwärtige Stand der KI sei auf dem Intelligenz-Level einer Maus? Katze? ich weiss es nicht mehr…und somit beherrschbar und einsetzbar.

Was meinst Du mit "reingewachsen"? Worin erkennst Du die Parallelen zwischen dem Internet und der AI und inwieweit denkst Du, dass sie relevant seien?

Nun, du und ich sind ohne Internet aufgewachsen und wissen, wie die Welt davor aussah. Und, ich weiss nicht, ob du meine Meinung teilst, aber ich sehe schon auch die Vorteile, besonders auch in der vernetzten Arbeitswelt, Beschaffungs - und Handelsmöglichkeiten, Bildungsmöglichkeiren (wo man vorher in die Uni-oder Landesbib musste)…ich finde schon, dass das Internet unsere Welt bereichert hat. Und ich denke, das kann auch die KI. Manche Jobs, die ätzend und langweilig sind, weil sie monoton und eintönig sind und Menschen in den Wahnsinn oder die Depression treiben, wenn sie ihn 8h am Tag machen (ich denke da an eine Finanzbeamte, die wirklich unter ihrer Arbeit leidet) fallen weg, weil das eine KI auch kann…wieviele und welche genau- dazu reicht meine Vorstellungskraft gerade nicht. Aber ich denke, da wird sich viel tun. Und zu sagen, dass Maschinen jetzt die Menschen arbeitslos machen? Da bin ich eher der Meinung, dass man auch froh sein kann, wenn das passiert und der Mensch Kapazität frei hat für etwas anderes. Wenn man das Spülen liebt oder das Wäsche von Hand waschen, 
dann sind einem natürlich Spül-und Waschmaschine ein Dorn im Auge…(oder man spült und wäscht halt trotzdem….)

Die Menschen lieben für gewöhnlich keine Veränderungen. Ein Arbeiter im Kohleabbau liebt seine Arbeit vielleicht und protestiert deshalb gegen die Stilllegung seines Werkes -aber defakto hätte er selbst auch mehr Lebensqualität, wenn er eine andere Arbeit machen könnte - allerdings nur von aussen betrachtet und für ihn vermutlich nicht. Er würde es aber vielleicht irgendwann zu schätzen wissen…die Veränderung…Das meine ich auch mit „reinwachsen“…wir finden uns in neuen Realitäten. Und je mehr wir uns in diesen neuen Ralitäten an unseren Werten orientieren, desto besser können diese werden.

Im sozialen Sektor hat das Internet es verändert, nicht zwangsläufig bereichert, zugegeben. Aber auch da kommt es darauf an, wie und ob man die Möglichkeiten nutzt. Und das ist letztendlich das, was ich sagen möchte: DU entscheidest, wie du es benutzt. Dein Leben kann dadurch bereichert werden oder verarmen….es nur auf das Internet zu schieben, wenn es sozial verarmt, wäre meiner Ansicht nach nicht richtig, weil man ja selbst das Ruder in der Hand hat und steuert. Seine Werte zu leben, Entscheidungen auf ihrer Grundlage zu treffen- das kann man immer. Egal wieviel KI um einen drumrum ist.

Ich meinte mit wertebasiert in dem Zusammenhang aber, dass man bei dem Einsatz und der Benutzung der KI so vorgehen müsste: wir können die Folgen nicht abschätzen, wir müssen noch mehr testen…dann würde man nämlich den Wert der Sicherheit in den Vordergrund rücken und den wirtschaftlich-innovativen Aspekt in den Hintergrund. Aber das wird vermutlich nicht passieren.

stern antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@stern Geoffrey Hinton…hat letztes Jahr mit noch jemandem den Nobelpreis für seine Grundlagenforschung bekommen und hat dabei ausdrücklich vor ihrer Benutzung gewarnt.

Ah, tatsächlich hatte ich zuerst an ihn gedacht, als ich die Frage an Dich stellte. Ich meine, vor ein paar Monaten ein langes Interview mit ihm hier im Forum verlinkt zu haben.

 

(...) die vorgeschlagene Lösung: erst freigeben, wenn ausreichend getestet und man weiss, wie es sich entwickelt. Nicht vorher.

Da das aber zu lange dauert und sich damit noch kein Geld verdienen lässt, wird das in den Wind geschlagen (...)

Genau. Das Alignmentproblem ist nicht gelöst, darauf hatte ich schon vor ein, zwei Jahren hingewiesen, als von kompetenten Leuten in der Techbranche ein Entwicklungsmoratorium gefordert wurde. Aber es gab ein solches Moratorium nicht... Die LLMs wurden, ohne ausreichend getestet worden zu sein, und ohne dass man weiß, wie es sich entwickelt, veröffentlicht. Dass es denen, die da Billionen in die AI-Entwicklung stecken, zu lange dauert, die Sicherheit dieser Technologie zu testen, ist ja der springende Punkt: aus ökonomischen Gründen wird es keine AI-Regulierung geben, es findet ein rat race statt und stets wird das Argument, dass doch schließlich alle Menschen bedroht sein könnten durch eine non-alignte Super-AI gekontert mit dem Totschlagargument: "Wenn wir's nicht zuerst erfinden, erfindet's der Chinese."

Wir haben es hier mit dem ultimativen Moloch-Prinzip zu tun, das ich schon öfter erwähnte. Auch den Link dazu hab ich hier schon öfter gepostet... 😉 Die dem Kapitalismus zugrunde liegenden Konkurrenz-Prinzipien verhindern, dass sich die Menschheit hier zur Einhegung der Gefahr organisiert: Während man sich beim Ozon-Loch und letztlich auch bei der atomaren Rüstung (da aber nur seeeeehr unsicher) zusammenzuraufen verstand in der Vergangenheit, ist man hinsichtlich der AI-Problematik nicht dazu imstande. Die Aussicht darauf, als erste über eine gottartig mächtige Technologie (eine Super-AGI ist nichts anders...) zu verfügen und damit ein für allemal absolute Macht zu besitzen, ist einfach zu verführerisch.

ich finde schon, dass das Internet unsere Welt bereichert hat. 

Das Internet hat unsere Welt definitiv sehr stark verändert. Ob es sie auch "bereichert" habe, darüber ließe sich streiten. Ohne die Durchkommerzialisierung (mit Hilfe der ersten AI-Generation) würde ich Dir zustimmen - dann überwögen die Vorteile des Internets seine Nachteile. Aber das Internet ist nunmal durchkommerzialisiert: Moloch herrscht. (Man stelle sich mal vor, freier Zugang zum Internet und allen in ihm enthaltenen Informationen würde kostenfrei allen Bürgern garantiert! Keine Pay-Walls, keine Werbeinteressen, also auch kein Interesse, mittelst "intelligenter" Algorithmen das Userverhalten zu manipulieren... Das Internet wäre ein Segen, obwohl es dann wohl auch deutlich weniger Pornos zu sehen gäbe, nicht wegen irgendwelcher "wertebasierten" Regeln, sondern weil sich dann mit denen kein Profit erwirtschaften ließe... Aber in einer kapitalistisch organisierten Welt ist das eben nur ein schöner Traum.)

 

Und ich denke, das kann auch die KI.

Ja, sicherlich: In einer Welt ohne Profitinteressen derer, welche die AI-Technologien vorantreiben, könnte es zu genau der Utopie kommen, welche AI-Verfechter ja in den schillerndsten Farben an die Wand malen: gottähnliche Macht angewendet zum Nutzen und Wohl aller. Überfluss an allem! Keiner muss mehr arbeiten. Die so genannte "Era of Abundance"...

 

Manche Jobs, die ätzend und langweilig sind, weil sie monoton und eintönig sind und Menschen in den Wahnsinn oder die Depression treiben, wenn sie ihn 8h am Tag machen (ich denke da an eine Finanzbeamte, die wirklich unter ihrer Arbeit leidet) fallen weg, weil das eine KI auch kann…

Ja, richtig. Was macht denn die von Dir als Beispiel bemühte Finanzbeamtin, wenn sie ihren in die Depressiontreibenden Job verliert? Ich meine: womit bezahlt sie dann ihre Miete? Das Essen auf dem Tisch? Das Spulmittel für den Abwasch? Ihre Schuhe, ihre Schlüpfer, gegebenenfalls ihre Medikamente?

Sobald alle Arbeit, insbesondere die Waren produzierende Arbeit, von Maschinen (ai-betriebene Roboter jenseits der white-collar-jobs) konkurrenzlos billig erledigt werden kann, wird menschliche Arbeitskraft im ökonomischen Zusammenhang nicht mehr gebraucht. Warum sollte sie dann - und von wem überhaupt? - dann noch entlohnt werden?

Das Problem ist so simpel und gravierend zugleich, dass es die Leute anscheinend in seiner Klarheit überfordert, nach dem Motto: "Wenn es so einfach und dringlich wäre, hätten es die Erwachsenen doch längst schon gelöst!"

Unser Wirtschaftssystem basiert grundsätzlich und unhintergehbar (Näheres dazu bitte bei Marx nachlesen...) darauf, dass menschliche Produktionsarbeit Werte erzeugt: Gold z.B. hat erst dann seinen hohen Wert, wenn er aus dem Berg herausgeholt und in Barrenform gebracht wurde - mittelst menschlicher Arbeitsleistung. Wenn keine Menschen mehr gebraucht werden beim Goldschürfen, so wenig wie beim Anbauen von Weizen, beim Transportieren des Mehls und dem Backen von Brot - dann ist das Brot zwar unendlich billig, aber es kann sich trotzdem niemand mehr Brot leisten, weil ja keiner mehr was verdient. Es rentiert sich dann für die Landbesitzer und Goldminenbesitzer nicht mehr, Brot oder das Tauschmittel Gold produzieren zu lassen - also wird kein Brot mehr produziert und auch kein Goldbarren mehr... Und dies betrifft alle Wirtschaftszweige, in denen Konsumwaren (Zeug) produziert werden. Am Ende bricht das gesamte System in sich zusammen, und es bleiben zwei Klassen übrig: die besitzende Klasse (der die Naturressourcen wie Land, Minen usw. ebenso gehören wie die Produktionsmittel: Rechenzentren und von Robotern betriebene Fertigungsanlagen/Fabriken) und die mittellose Klasse: jene gigantische Majorität der Menschen, die bisher von ihrer Lohnarbeit lebten, deren Arbeitsleistung aber nun halt keinen Wert mehr hat, weswegen sie niemand mehr entlohnt und sie sich entsprechend nichts mehr zu kaufen leisten können.

Wenn hier kein ökonomischer Paradigmenwechsel stattfindet (und dafür kann ich keine Hinweise erkennen, wer sollte den denn anstoßen? Die Besitzenden etwa, denen die Medien gehören und die also den Diskurs beherrschen?) und insbesondere das Prinzip der Leistungsgerechtigkeit aufgegeben und gegen das Prinzip der Verteilungsgerechtigeit eingetauscht wird, ist der totale Klassenkampf unausweichlich. Den die Klasse der Besitzenden selbstverständlich gewinnen wird, da die Besitzenden auch über die militärischen Machtmittel verfügen. Wer sich nicht das Brot auf dem Tisch leisten kann, wird Probleme haben, sich mit seinesgleichen organisiert in den Kampf gegen jene zu begeben, die über avancierte Waffen und überlegene (per AI zur Verfügung gestellte) Taktik und Strategie verfügen. Entsprechend werden die Hungerleider sich gegenseitig um die letzten Krumen prügeln, die unter den Tisch fallen zu lassen sich ein paar Philantrophen aus der Besitzenden-Klasse womöglich erbarmen. Das nennt man dann wohl "Alltagskriminalität".

Dieser Entwicklung geht voran, was womöglich Thema dieses Threads ist: die Erosion vernünftiger Kommunikation beispielsweise in Internetforen: Leute entwöhnen sich des eigenständigen Denkens, also des Selbst-Formulierens. Sie verlieren die Sprache, ihr Sprachvermögen, weil sie selbst nicht mehr sich anstrengen brauchen, die Dinge beim Namen zu nennen. Unsinnige Aussagen lassen sich irgendwann nicht mehr von sinnigen Aussagen unterscheiden und Neusprech a la "Drogenterroristen" (mein neues Lieblings-Unwort, mit welchem das Ermorden von Leuten, die nach dem ersten Bombentreffer auf ihr Boot noch leben und sich auf dessen Trümmern zu retten versuchen, legitimiert wird) wird hingenommen, als würde da etwas Sinnvolles ausgedrückt.

Wer nicht mehr selbst formulieren, selbstdenkend Zusammenhänge herstellen etc. kann, der kann sich auch nicht mit anderen organisieren, um gegen die existentiellen Bedrohungen anzugehen. Wo die Gefahr wächst, wächst nämlich das Rettende nicht automatisch. Das Gegenteil lässt sich gerade beobachten: alle machen eifrig dabei mit, die Gefahr zu vergrößern, indem sie sich - per Nutzung der angeblich kostenlosen Angebote - in den Dienst der Weiterentwicklung von AI-Modellen stellen. 

 

Auf die Interview-Frage, was er, Geoffrey Hinton angesichts der zu vermutenden Zukunftsentwicklungen im Zeichen der künstlichen Intelligenz seinen Kindern so jobmäßig raten würde, wenn die nicht schon über genügend Geld (das er verdient hat) verfügten, kam, einem defätistischen Schulterzucken nicht unähnlich, sinngemäß die Antwort: "Train to be a plumber (Werdet Klempner)!"

Die (und Archäologen... 😀 ) wird's vermutlich als Letzte treffen.

 

jack-black antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jack-black 

Ich meine, vor ein paar Monaten ein langes Interview mit ihm hier im Forum verlinkt zu haben.

Ist an mir vorbeigegangen…

Man stelle sich mal vor, freier Zugang zum Internet und allen in ihm enthaltenen Informationen würde kostenfrei allen Bürgern garantiert! Keine Pay-Walls, keine Werbeinteressen, also auch kein Interesse, mittelst "intelligenter" Algorithmen das Userverhalten zu manipulieren... Das Internet wäre ein Segen

 

Boah…an sowas hab ich mich noch gar nicht zu denken getraut! Ja…das wäre es, ein Segen!

obwohl es dann wohl auch deutlich weniger Pornos zu sehen gäbe, nicht wegen irgendwelcher "wertebasierten" Regeln, sondern weil sich dann mit denen kein Profit erwirtschaften ließe... Aber in einer kapitalistisch organisierten Welt ist das eben nur ein schöner Traum.)

Nein, das fällt auch unter Segen.

Ich meine: womit bezahlt sie dann ihre Miete? Das Essen auf dem Tisch? Das Spulmittel für den Abwasch? Ihre Schuhe, ihre Schlüpfer, gegebenenfalls ihre Medikamente?

Ich meinte nicht, dass es keine Arbeit mehr geben müsst. Die Menschen leben ja immer noch….und das Leben würde sich dann vielleicht weg vom Kapitalismus entwickeln…? 

Du hast es ökonomischer Paradigmenwechsel genannt, und ich hoffe, er wird kommen. Auch wenn noch keine Anzeichen sichtbar sind, sehe ich die Samen….

Gold z.B. hat erst dann seinen hohen Wert, wenn er aus dem Berg herausgeholt und in Barrenform gebracht wurde - mittelst menschlicher Arbeitsleistung.

Nein. Gold hat nur deshalb einen Wert, weil Menschen es haben wollen. Wenn sich niemand dafür interessiert, hat es auch in Barrenform keinen Wert.

 

stern antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@stern Boah…an sowas hab ich mich noch gar nicht zu denken getraut! Ja…das wäre es, ein Segen!

Auch AI könnte analog dazu ein Segen sein. Stelle Dir vor, der Staat garantiert allen seinen Bürgern eine Arzt-AI. D.h. jeder kann sich mit seinem Handy (endlich mal ein vernünftiger Grund für die Kamerafunktion) selbst untersuchen lassen, und der Doc-AI-Agent führt eine ausführliche Anamnese durch, liefert die Therapievorschläge und leitet wichtige Daten z.B. an die elektronische Krankenkasse weiter. Keine Warteschlangen mehr bei den Ärzten, nur noch Therapien, bei denen Menschen Hand anlegen müssen (Spritze geben, operieren usw.) brauchen eine Terminabsprache... In irgendeinem lateinamerikanischen Staat (Equador? Costa Rica? Bin mir nicht mehr sicher, mag aber nicht die AI befragen... 😀 ) wird an den entsprechenden Gesetzen gearbeitet. Das sowas flächendeckend in wenigen Jahren technologisch möglich sein wird, ist gar keine Frage. Die Frage ist: wird das dann auch angeboten, und wer bekommt was und wieviel von den Milliardenbeträgen, die momentan im System stecken und dann überflüssig würden?

Nur ein Beispiel dafür, dass selbstverständlich AI ebenso wie der Rest des Internets theoretisch ein Segen sein könnte (die Hoffnung gebe ich ja noch nicht vollständig auf... 😉 )

Nein, das fällt auch unter Segen.

Finde ich nicht. Aber das ist eine völlig andere Diskussion, die wir hier nicht vertiefen brauchen. Ich hatte das Beispiel freilich mit einem Augenzwinkern benannt, sozusagen um die Leser wach zu halten...

das Leben würde sich dann vielleicht weg vom Kapitalismus entwickeln…?

Ja klar. Die Optimisten (Hinton ist einer von denen) gehen ja davon aus, dass irgendwann tatsächlich die Welt eine völlig andere sein wird: eine nicht-kapitalistische Ära des Überflusses. Wollte man es aus der linken Perspektive betrachten, könnte man sagen: ein (post-) kommnistisches Paradies.

Die Frage ist: wie soll, bzw. kann überhaupt sich realistischerweise der Übergang dorthin vollziehen? Im optimalen Fall erwarte ich eine Art globalen Bürgerkriegs, nach welchem sich eine neue, auf Verteilungsgerechtigkeit basierende ökonomische Weltordnung entsteht.

Im von mir als wahrscheinlicher erwarteten schlimmen Fall werden die Besitzenden gegen die Besitzlosen gnadenlos Krieg führen, bis die Besitzlosen entweder allesamt verhungert/gestorben oder in einer Art Armen-Ghettos eingesperrt sind, auf Gedeih und Verderb der "Mildtätigkeit" der Siegerpartei ausgesetzt und ohne irgendwelche politischen Gestaltungsrechte.

Nein. Gold hat nur deshalb einen Wert, weil Menschen es haben wollen. Wenn sich niemand dafür interessiert, hat es auch in Barrenform keinen Wert.

Du hast vermutlich nicht verstanden, warum ich das Gold als Beispiel verwendete. Gold galt und gilt in manchen Teilen der Welt weiterhin als universelles Tauschmittel: ein rares, saisonal unabhängiges Gut. Seinen Wert (weswegen die Leute es haben wollen) verdankt es dem Umstand, dass zu seiner "Herstellung" viel Arbeitsaufwand geleistet werden muss. Der Wert des Goldes besteht in dieser Arbeitsleistung. Könnte mit wenig Aufwand Gold erzeugt werden (wie meinetwegen Korn...) würden es die Leute nicht - als Tauschmittel für alle möglichen Waren - haben wollen.

Die Barrenform ist ja mehr oder weniger eine qualité négligeable, sobald man das Gold erstmal arbeitsaufwändig aus dem Bergwerk oder dem Flusssand herausakkumuliert hat, ist die Weiterverarbeitung zu Barren oder Münzen vergleichsweise nicht sonderlich arbeitsaufwendig (und aufwendig gefertigter Goldschmuck ist ja dann auch schon wieder entsprechend "wertvoller" als der reine Materialwert).

Es ging mir darum: wenn ich mit Geld (Gold) mir Brot kaufe, dann steckt idealerweise in der Menge Goldes, das ich tausche, soviel (menschliche! Das ist sehr wichtig!) Arbeitsleistung wie in dem Brot. Beides: Brot und Goldmünze - müssen mittelst menschlicher Arbeitsleistung produziert werden.

Diese Arbeitsleistung ist es, welche der Lohnarbeiter im Kapitalismus anzubieten hat, und gegen die er dann Waren eingetauscht bekommt. Das Geld, das er in seiner Lohntüte findet, ist da nur die Verrechnungsweise, eben ein Tauschmittel, damit ihm der Kapitalist nicht für seine Lohnarbeitsleistung all die Güter, die er so braucht, einzeln hinlegen braucht.

Der Lohnarbeiter (also alle, die für ihre Arbeit bezahlt werden und von dieser Bezahlung leben müssen) besitzt nichts ausser seiner Arbeitskraft - er hat keine anderen Waren, die er für Brot und Zahnpasta eintauschen könnte.

Wenn seine Arbeitskraft nichts mehr wert ist, weil ai-gesteuerte Maschinen dieselbe Leistung zu einem Bruchteil seiner Reproduktionskosten (also der Kosten, die für ihn anfallen, um überhaupt am Leben zu bleiben und weiter arbeiten zu können) erledigen können... dann ist er überflüssig. Dann wird übrigens auch das Gold nicht mehr mit viel Aufwand aus dem Berg geholt zu werden, weil es als Tauschmittel keinerlei Bedeutung mehr hat: es lässt sich vielleicht noch z.B. in der Produktion für irgendwelche Hightech-Maschinen verwenden, aber über solche praktischen Verwendungszwecke hinaus lohnt es sich für den Minenbesitzer dann nicht mehr, es aus dem Berg schaffen zu lassen: Roboter brauchen nicht mit Gold/Geld bezahlt werden, ihre Reproduktionskosten streben nahe an Null.

 

Du hast es ökonomischer Paradigmenwechsel genannt, und ich hoffe, er wird kommen. Auch wenn noch keine Anzeichen sichtbar sind, sehe ich die Samen…

In der Schweiz ist kürzlich eine Volksabstimmung gescheitert, in der es darum ging, dass hohe Millionenerbschaften mit (bis zu?) fünfzig Prozent besteuert werden. Solche Initiativen könnte man schon als entsprechende Anzeichen verstehen: Dass die Ressourcen (Besitz), die vorhanden sind, der Allgemeinheit gleichmäßig(er) zustehen. Dieses Mal wurde mehrheitlich gegen so eine Veränderung gestimmt. Aber ich bin gespannt, wie lange es dauert, bis in der Schweiz oder anderswo die Mehrheiten kippen. Friedlich wäre einem dabei lieber...

jack-black antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jack-black 

Diese Arbeitsleistung ist es, welche der Lohnarbeiter im Kapitalismus anzubieten hat, und gegen die er dann Waren eingetauscht bekommt

Ja, das ist so und wird vermutlich auch noch in irgendeiner Form länger so bleiben, dass man mit dem was man kann sein Brot verdient.

Es ist nicht anzunehmen, dass man KI nicht einsetzen wird, um Arbeitsplätze zu erhalten. Die Arbeitswelt wurde in den letzten hundert Jahren schon auf nahezu allen Berufsgebieten umgewälzt. Maschinen, sei das jetzt Sämaschinen oder ein Computer, sie haben die rein körperliche/handwerkliche  Arbeit verändert. Trotzdem arbeiten die Leute noch. Es gibt noch Bauern obwohl keiner mehr mit seinem Ochs durchs Feld pflügt und wenn es weniger Bauern gibt, dann liegt das mEn eher an der Politik denn am Bedarf.

Der Beruf eines Softwareentwicklers oder Informatikers war vor 60-70 Jahren undenkbar…ich denke, auch jetzt wird es etwas anderes geben…nicht weil ich es weiss, sondern natürlich weil ich es hoffe.

 

stern antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@stern Ja, das ist so und wird vermutlich auch noch in irgendeiner Form länger so bleiben, dass man mit dem was man kann sein Brot verdient.

Warum? Ich halte diese Vermutung inzwischen für unbegründet.

(...) nicht weil ich es weiss, sondern natürlich weil ich es hoffe.

Naja, tatsächlich wissen kann niemand, was die Zukunft bringt. Aber es gibt doch wohl besser und schlechter begründbare Prognosen. Und wenn Du etwas hoffst - überlegst Du dann nicht, wie wahrscheinlich es ist, dass das von Dir Erhoffte auch eintrifft? Was spricht denn dafür, dass zukünftig ebenso "neue Berufe" entstehen, wie dies im Zusammenhang mit früheren technologischen Entwicklungen der Fall war?

Vor einem, anderthalb Jahren ging mal die Meldung durch die Ticker, dass irgend ein Unternehmen (meines Erinnerns eine der großen Zeitungen - FAZ, Frankfurter Rundschau, ZEIT... eine von denen) einen "Prompter" für ein ansehnliches Salär (~250.000 € per anno, falls mich das Gedächtnis nicht trügt) eingestellt habe. Seither aber habe ich wenig davon mitbekommen, dass in dem Segment nun viele neue Jobs entstanden seien. Vermutlich ärgern sich die Personaler, die da, vom ChatGPT-Hype geblendet, den Arbeitsvertrag mit dem Prompter abschlossen, inzwischen gar heftig, weil der Kerl die Produktivität des Unternehmens ungefähr genauso sehr erhöht, wie das eine Praktikantin hinbekäme...

jack-black antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jack-black 

Warum? Ich halte diese Vermutung inzwischen für unbegründet.

Ich denke, es wird immer etwas geben, das man „geben“ kann …etwas, das man sich angeeignet hat und das anderen Menschen dient. 
Ob man nun immer dafür Geld bekommen wird, weiss ich nicht…da denke ich an Star Trek, ich glaube die hatten auch keinen Lohn mehr…die haben einfach so gemacht, was sie gemacht haben…

Solange aber keiner Lebensmittel und Waschzeug ohne Geld verteilt, wird das wohl noch weiter beim Tauschmittel bleiben.

Und wenn Du etwas hoffst - überlegst Du dann nicht, wie wahrscheinlich es ist, dass das von Dir Erhoffte auch eintrifft? Was spricht denn dafür, dass zukünftig ebenso "neue Berufe" entstehen, wie dies im Zusammenhang mit früheren technologischen Entwicklungen der Fall war?

Doch, natürlich überlege ich das. Und denke auch, dass es neue Berufe geben wird. Aber in welchem Ausmaß und ob es tatsächlich viel Arbeitslosigkeit geben wird …🤷‍♀️

stern antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@stern da denke ich an Star Trek, ich glaube die hatten auch keinen Lohn mehr…die haben einfach so gemacht, was sie gemacht haben…

Interessanter Verweis. Ähnliches hatte ein Freund von mir, seines Zeichens "Trecki" der ersten Stunde, gesagt, als wir und über die Ökonomie der Zukunft unterhielten. Ja: auf dem Raumschiff Enterprise gibt's keinen Kapitalismus, es gibt überhaupt keine Marktwirtschaft. Es gibt allerdings meines Erinnerns (ich bin nie ein Trecki gewesen und kenne mich in den Details also nur sehr schlecht aus) auch kein Privateigentum auf der Enterprise. Hiearchien sind allein der jeweiligen Kompetenz geschuldet: der ausgebildete Arzt (Pille?) gibt Anweisungen, wenn es um die Versorgung von Verwundeten geht, der ausgebildete Maschineningenieur gibt Anweisungen wie der Warpantrieb repariert werden kann und der ausgebildete Capitän (Kirk?) koordiniert seine Leute und entscheidet am besten, wann man den Klingonen ein's mit dem Laserstrahl über den Scheitel gibt...

Niemand in der Crew verfolgt ökonomische Profitinteressen, die Enterprise-Gesellschaft ist strukturiert wie eine Kaserne.

Das funktioniert in der Story und diese Strukturen werden von den Zuschauern nicht auf ihren Realismusgehalt hinterfragt. Wenn man damit allerdings anfängt...

Warum sollte, um den Fisch mal vom Kopf her zu betrachten, Käptn Kirk entscheiden, ob und wann man das Feuer auf die Klingonen verpasst? Weil er den großen Überblick hat und die politischen, militärstrategischen und taktischen Zusammenhänge am besten versteht? Eine einigermaßen geschulte militärische AI dürfte den besten General in wenigen Jahren ersetzen können (einer der Gründe, warum es so unmöglich erscheint, das AI-ratrace zu beenden ist das Argument, dass die Seite, d.h. der Staat oder Konzern, der als erster AGI entwickelt hat, damit automatisch das militärische Gewaltmonopol über die Welt haben dürfte. Und das dürfen doch unmöglich die Chinesen sein, nicht wahr?). Das klassische Kriegsspiel Schach wird ja nun schon seit mehreren Jahrzehnten von künstlicher Intelligenz dominiert - es gibt inzwischen Wettbewerbe zwischen den unterschiedlichen Schachprogrammen, bei denen schach-affine Fanboys den Maschinen beim Denken zuschauen, bzw. deren Spielweisen nachzuvollziehen versuchen und besonders elegante Züge bewundern... Wenn es bei einem Schachspiel um's nacke Überleben ginge, würde niemand bei Verstand einen menschlichen Großmeister zu seinem Champion erwählen. Selbstverständlich würde man da die beste Schach-Engine die Züge ausführen lassen...

Und Entsprechendes gilt für sämtliche anderen Crew-Mitglieder der Enterprise. Was immer auch ihre jeweilige Expertise sein sollte: KI-gesteuerte Roboter würde sie locker übertrumpfen in einer Welt, in welcher per Warpantrieb gereist und per Beamen sich von A nach B bewegt wird. Allein die Idee, einem menschlichen Ingenieur die technische Aufsicht über ein gigantisches Raumschiff zu geben, obwohl eine KI sämtliche Details über jede einzelne verbaute Schraube mit Vornamen (Seriennummer...) kennt und über deren Spezifikationen (Alter, Material...) informiert ist? Lächerlich. Der Witz ist doch: Ein Raumschiff Enterprise wird es nie geben, da irgendwann einmal, wenn die technologische Entwicklung ensprechend weit vorangeschritten sein sollte, von Menschen getroffene Entscheidungen das höchste Risiko darstellen dürften, dass die "Mission", neue Welten zu entdecken und kennen zu lernen (idealerweise ja ohne sich in jene Welten einzumischen...) scheitert.

Die Arbeit, welche die biologischen Crewmitglieder auf der Enterprise verrichten, ist überflüssig, könnte von Maschinen effizienter und fehlerfreier verrichtet werden. Ob nun von Androiden wie Data (nur halt in der Kompetenz-Ausführung) oder anders geformten Bots. 

Eine "echte" Enterprise wird selbstverständlich unbemannt unterwegs sein und alle paar Tage irgendwelche Info-Drohnen durch irgendwelche Wurmlöcher zurück auf die Erde schicken: "Sternzeit XYZ: Neue musikliebende Zivilisation entdeckt. Besteht aus amöbenhaften Entitäten, die per ausgeklügelten Furz-Codes kommunizieren und per stetigem Methan-Ausstoß die Atmosphäre ihres relativ kleinen Planeten hinreichend warm halten, um Weißkohlanbau zu ermöglichen. Ihr würdet da nicht zu Besuch kommen wollen, es stinkt gewaltig, weil alle Kommunikationsakte schnell in ein geruchliches Hintergrundrauschen diffundieren"  🙂

 

jack-black antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jack-black 

Ja, aber solange es Menschen gibt, werden diese leben wollen und sich vielleicht auch irgendwie beschäftigen wollen…egal wie viele Maschinen es gibt. 

Ich denke, unsere grosse Aufgabe ist es menschlich zu bleiben, einander zugewandt und emphatisch…

stern antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@stern Ich denke, unsere grosse Aufgabe ist es menschlich zu bleiben, einander zugewandt und emphatisch…

Mag sein, aber das ist eine so vage Aussage, dass mir wenig dazu einfällt.

jack-black antworten
Stern
 Stern
(@stern)
Beigetreten : Vor 8 Monaten

Beiträge : 1795

@jack-black 

Mag sein, aber das ist eine so vage Aussage, dass mir wenig dazu einfällt.

Ja. Muss ja auch nicht.

Mir fällt es zB schwer, mir die Zukunft konkret vorzustellen. Dazu fühle ich mich nicht berufen und in meinem Horizont zu beschränkt. Aber diese allgemeinen Aussagen werden ihre Gültigkeit behalten, egal wie es sich entwickelt, deshalb hab ich es so formuliert.

 

stern antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jack-black 

Mag sein, aber das ist eine so vage Aussage, dass mir wenig dazu einfällt.

Finde ich nicht unbedingt. Denn während des 30jährigen Krieges (Um mal ein Besispiel zu nehmen) war das ja nun wirklich nicht mehr der Fall. Genau so wenig unter den faschistischen Diktaturen.

Klar, die Begriffe sind dehnbar... aber es ist nicht allzu kompliziert, genau zu sagen, was damit gemeint sein könnte, und dann ist es schon eine gute Richtlinie.

 

lucan-7 antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jack-black 

Ja: auf dem Raumschiff Enterprise gibt's keinen Kapitalismus, es gibt überhaupt keine Marktwirtschaft. Es gibt allerdings meines Erinnerns (ich bin nie ein Trecki gewesen und kenne mich in den Details also nur sehr schlecht aus) auch kein Privateigentum auf der Enterprise.

Doch, die Leute besaßen persönliche Gegenstände. Aber nur in sehr kleinem Umfang, Dinge anzuhäufen war in dieser Zukunft nicht erstrebenswert.

In der wesentlich düsteren Serie "Deep Space Nine" hat man dann aber wieder Geld und Gier eingeführt, weil das doch auch ein nicht unwesentliches Storyelement sein kann...

 

Warum sollte, um den Fisch mal vom Kopf her zu betrachten, Käptn Kirk entscheiden, ob und wann man das Feuer auf die Klingonen verpasst? Weil er den großen Überblick hat und die politischen, militärstrategischen und taktischen Zusammenhänge am besten versteht?

Ja, das war natürlich schon immer Quatsch, auch damals schon... der Käptn steurt das Schiff ja noch nicht einmal selbst, sondern durch gesprochenen Befehl an seine Crew. Die dann auch erst eine Kurve fliegen oder feuern darf, wenn Kirk laut und vernehmlich "JETZT!" ruft... und das  Manöver gelingt dann natürlich auf die tausendstel Sekunde genau...

Dass ein Computer das besser machen würde wusste man auch schon in den 60er Jahren. Aber das hätte der Sache halt die Dramatik genommen.

Eine "echte" Enterprise wird selbstverständlich unbemannt unterwegs sein und alle paar Tage irgendwelche Info-Drohnen durch irgendwelche Wurmlöcher zurück auf die Erde schicken:

LAAAANGWEILIG.... würde natürlich niemand so machen! Wenn man als Mensch problemlos und bequem zu anderen Planeten fliegen kann, dann würden wir das auch tun. Drohnen würden dann zwar vorgeschickt zwecks Messungen und auskundschaften... aber das macht die Enterprise ja durch ihre Scanner.

Sieht man ja an der Marsmission... Roboter und Sonden sind ja nett, aber doch nichts im Vergleich zu der Vorstellung, als Mensch höchstselbst den Fuss auf die Marsoberfläche zu setzen.

Warum auch immer wir das tun sollten... aber es hat halt was.

lucan-7 antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@lucan-7 Doch, die Leute besaßen persönliche Gegenstände. Aber nur in sehr kleinem Umfang, Dinge anzuhäufen war in dieser Zukunft nicht erstrebenswert.

In der wesentlich düsteren Serie "Deep Space Nine" hat man dann aber wieder Geld und Gier eingeführt, weil das doch auch ein nicht unwesentliches Storyelement sein kann...

Ah, okay, wieder was Popkulturelles hinzugelernt, danke dafür! 🙂 Nur zum Verständnis: die "persönlichen" Gegenstände hatten dann aber immer auch nur einen persönlichen/ideellen Wert, keinen "Marktwert", oder?

Dass man in "Deep Space Nine" (ist das ein Spinoff des Originals oder entwickelt sich die Serie von dem frühen, ich nenn's mal: unökonomischem Setting peu a peu dort hin?) dann Geld und Gier wieder einführte, weil das doch auch ein nicht unwesentliches Storyelement sein kann, wie Du schreibst - das ist aus entertainment-ökonomischen Gründen verständlich. Aber irgendwie rein inhaltlich ziemlich lame, oder? Wäre es nicht viel herausfordernder und im Sinne "echter Skifi-Denke" konsequenter, die Entwicklung der Menschheit hin zu den unökonomischen Zuständen der ersten Star-Treck-Folgen nachzuzeichnen und in ihrer Bedeutsamkeit zu thematisieren?

Warum auch immer wir das tun sollten... aber es hat halt was.

Beim Mars ist es ja technologisch wohl auch demnächst möglich. Aber einen Planet zu bereisen ist halt nochmal ein anderes Ding als fremde Welten oder wenigstens Galaxien...

Freilich:

LAAAANGWEILIG...

Aber Ausgangspunkt dieser Seitenbetrachtung auf Star Treck war ja Sterns Hinweis auf Star Treck, der meinem Verständnis nach unterstellte, die ökonomischen Verhältnisse, die da gezeichnet werden, könnten irgendwie realistisch sein oder realistisch gemacht werden.

Meiner Ansicht nach ist eine solche post-kapitalistische Gesellschaft gewissermaßen alternativlos nach der AI-Disruption, und da schaut man sich natürlich um, ob so eine Gesellschaft in irgendwelchen futuristischen Utopien schon mal vorgestellt zu finden ist. Insofern ließe sich vielleicht sagen, dass das ursprüngliche (aber leider wohl, wie Dein Verweis auf DS 9 andeutet, etwas langweilige) Star-Treck-Setting diesen Punkt - das Geld in der Zukunft kein Thema mehr sein wird, weil Konsumwaren nicht mehr ertauscht werden brauchen, sondern stets frei zur Verfügung stehen - womöglich richtiger hatte als alles andere. Womöglich, weil es sich eben leichter vorstellen lässt, dass aller Konsum kostenlos sein könne (Schlaraffenlandphantasien sind ja durchaus schon länger bekannt), als dass von Menschen erbrachte Leistungen nicht mehr gebraucht werden. Statt nur noch zu genießen und vermutlich: zu spielen... - müssen die Leute bei Raumschiff Enterprise immer noch wichtige Arbeit verrichten... 

Dabei tut die Serie ja so, als wenn das von Dir konstatierte "hat halt was" gerade nicht dem Ethos der Enterprise entspräche. Denn jenem Ethos gemäß sollen neue Welten ja nur entdeckt und erforscht, nicht aber beeinflusst werden (da steckt die etwas vage und letztlich immer widersprüchliche Idee von Ureinwohner-Forschung ohne Ureinwohner-Beeinflussung dahinter). Es steht gewissermaßen ein zweckfreies Erkenntnisinteresse hinter diesem ganzen Raumschiffunternehmen und man mischt sich ja regelmäßig "ungewollt" ein, weil man, wenig wissenschaftlich denkend, zu nah an seine jeweiligen Beobachtungsobjekte ranrückt. Und weil sich sonst kein Entertainment-Content generieren ließe, das die Werbespot-Zuschauer an den Bildröhren hält... 😉

 

jack-black antworten
Lucan-7
(@lucan-7)
Beigetreten : Vor 15 Jahren

Beiträge : 27522

@jack-black 

Nur zum Verständnis: die "persönlichen" Gegenstände hatten dann aber immer auch nur einen persönlichen/ideellen Wert, keinen "Marktwert", oder?

Das können auch Gegenstände sein, die von anderen begehrt werden... was dann natürlich in erster Linie der Dramaturgie dient. Aber einen "Marktwert" im heutigen Sinne haben sie nicht. Meist sind das Erinnerungsstücke oder Artefakte.

 

Dass man in "Deep Space Nine" (ist das ein Spinoff des Originals oder entwickelt sich die Serie von dem frühen, ich nenn's mal: unökonomischem Setting peu a peu dort hin?) dann Geld und Gier wieder einführte, weil das doch auch ein nicht unwesentliches Storyelement sein kann, wie Du schreibst - das ist aus entertainment-ökonomischen Gründen verständlich. Aber irgendwie rein inhaltlich ziemlich lame, oder?

Nein, eigentlich nicht. Die ersten beiden Serien - Originalserie mit Kirk und Next Generation mit Picard - waren ja sehr ähnlich: Die "Enterprise", ein Raumschiff der Föderation, erforscht die Galaxis.

"Deep Space Nine" ist allerdings eine Raumstation, die nicht zur Föderation gehört, die Crew der Föderation wird dort lediglich als Friedenstruppe installiert, um einen neuen Krieg zu verhindern. Damit muss sie sich auch an die Gegebenheiten anpassen - und dazu gehört eben auch das dort herrschende kapitalistische System, mit dem sich die Föderation konfrontiert sieht.

Damit ist Deep Space Nine auch etwas realistischer was die irdischen Konflikte betrifft... und entsprechend düsterer.

 

Es steht gewissermaßen ein zweckfreies Erkenntnisinteresse hinter diesem ganzen Raumschiffunternehmen und man mischt sich ja regelmäßig "ungewollt" ein, weil man, wenig wissenschaftlich denkend, zu nah an seine jeweiligen Beobachtungsobjekte ranrückt. Und weil sich sonst kein Entertainment-Content generieren ließe, das die Werbespot-Zuschauer an den Bildröhren hält...

Klar, am Ende steht die Einschaltquote über der "Obersten Direktive" der Föderation. Immerhin wird gesagt, dass es darum geht, Zivilisationen zu beobachten, um hilfreich bereit zu stehen, sollten sie eines Tages den Weltraumflug und den Warp-Antrieb entdecken. Denn spätestens dann kommt es ja zu Begegnungen... und darauf will man vorbereitet sein.

Kann man als halbwegs plausibel gelten lassen... ich denke, es geht auch nicht darum, ob Star Trek jetzt wirklich bis ins kleinste Detail realistisch ist (Ist es natürlich nicht), sondern eher darum, sich einmal zu überlegen ob es nicht wirklich erstrebenswertere Gesellschaftsformen geben könnte, bei denen wir einmal Dinge in Frage stellen, die uns allzu selbstverständlich scheinen.

Wenn also aufgrund überlegener Technik alles im Überfluss vorhanden ist... kann es dann noch sinnvoll sein, Geld und Güter anzuhäufen? Können sich Menschen auch anderen Dingen zuwenden, die wir für erstrebenswert halten?

Und sind wir dieser Welt des materiellen Überflusses nicht womöglich näher als wir glauben...?

Finde ich als Fragestellung interessant... auch wenn die Welt leider nicht so funktioniert, dass man sich einfach eine tolle Utopie ausdenken könnte, und der Rest der Welt würde dann begeistert mitmachen.

Ausser den Treckies natürlich... sind ja immerhin ein paar 😜 

 

lucan-7 antworten
der_alte
(@der_alte)
Beigetreten : Vor 22 Jahren

Beiträge : 1794

@alescha die Halluzinationen werden auch dadurch kommen dass KIs people pleaser sind.

Wobei das people pleasing auch seine Vorteile hat, weil die KI übliche Wege verlässt, also beim Coding und dann sehr interessante Ansätze zeigt, die ich selbst nicht so schnell, wenn überhaupt, finden würde.

Setze halt KI sehr viel bei Dingen ein, bei denen auffällt wenn das Ergebnis der KI einfach nicht stimmt. Wenn der Quellcode nicht durchläuft / Fehler zeigt dann sieht man das schnell. Was schön ist, dass KI sehr sehr gut Bilder lesen kann und ich dann einfach Bilder der Fehlersituation ans Prompt hänge so habe ich kurze Turnaroundzeiten.

 

der_alte antworten
Jack-Black
(@jack-black)
Beigetreten : Vor 5 Jahren

Beiträge : 5736

@der_alte die Halluzinationen werden auch dadurch kommen dass KIs people pleaser sind.

Die neuesten LLMs halluzinieren in den pro-Versionen, und wenn man sie "bittet", den aufwendigeren Nachdenkmodus zu verwenden, meines Wissens weniger als Menschen. (1 Prozent vs. ~ 3 Prozent).

Wo wir hier allerdings vom "Chatten" sprechen und von den (a-)sozialen Medien, so geht es da i.d.R. überhaupt nicht um sachlich korrekte Beiträge - insofern ist das "Pleasen", also das Den-Leuten-gefallen-wollen gegebenenfalls sogar ein feature statt bug.

jack-black antworten
der_alte
(@der_alte)
Beigetreten : Vor 22 Jahren

Beiträge : 1794

@jack-black das pleasen hat ja den Vorteil dass die KI sich "anstrengt" und auch mal neue Wege sucht. Nutze Claude in der Proversion. Ab und an verrannte die sich schon so, dass ich einen neuen Chat anfing um sie "abzukühlen". Einfach neuen Chat, das bisherige Ergebnis an Quellcode anhängen und die offenen Fragen stellen...

der_alte antworten


Seite 1 / 3
Teilen:

Hey du!

Dieses Forum ist für dich kostenlos.
Das funktioniert nur, weil uns treue Menschen regelmäßig mit ihrer Spende unterstützen.
Bist du dabei?