ChatGPT lernt Bildzeitung
Mittwoch, 13.12.2023, 21:44 > daMaxDas wird unsere Welt endlich besser machen. Seufz Warum entwickelt sich eigentlich alles nur in Richtung Dystopie?
Das wird unsere Welt endlich besser machen. Seufz Warum entwickelt sich eigentlich alles nur in Richtung Dystopie?
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>
Ey, lass mich einfach rein, okay? |
Ich will das hier nie wieder sehen. |
Ihr Browser versucht gerade eine Seite aus dem sogenannten Internet auszudrucken. Das Internet ist ein weltweites Netzwerk von Computern, das den Menschen ganz neue Möglichkeiten der Kommunikation bietet.
Da Politiker im Regelfall von neuen Dingen nichts verstehen, halten wir es für notwendig, sie davor zu schützen. Dies ist im beidseitigen Interesse, da unnötige Angstzustände bei ihnen verhindert werden, ebenso wie es uns vor profilierungs- und machtsüchtigen Politikern schützt.
Sollten Sie der Meinung sein, dass Sie diese Internetseite dennoch sehen sollten, so können Sie jederzeit durch normalen Gebrauch eines Internetbrowsers darauf zugreifen. Dazu sind aber minimale Computerkenntnisse erforderlich. Sollten Sie diese nicht haben, vergessen Sie einfach dieses Internet und lassen uns in Ruhe.
Die Umgehung dieser Ausdrucksperre ist nach §95a UrhG verboten.
Mehr Informationen unter www.politiker-stopp.de.
Ach komm, Blödheit im Geschäftsumfeld mendelt sich aus. Ohne Journalisten keine Zeitung. Und ChatCPG raubmörderkopert nur das, was echte Menschen (real Humans) geschaffen haben. Irgendwann überwiegt der KI Inhalt und die KIs geraten in eine Endlosschleife.
Die Alternative bei den Medien sehen wir bei 1984. Ups...
@Joachim: nee, es sollen in dem Fall ja Inhalte des Springer-Verlages als Trainingsmaterial für ChatGPT rangezogen werden. Mit anderen Worten: ChatGPT lernt lügen.
öhm, again, capitalism? und wir machen halt nix gegen? nich wirklich? immer noch zu bequem, alles? sind halt alle gefangene des systems, wir.
@daMax: Nennt man das dann Wahrheitsministerium?
@DasKleineTeilchen: Machen wir. Ich meine etwas gegen "capitalism". Max macht das hier. Ihr tut das in den Kommentaren. Ich eben anders, etwa auch beim Einkaufen oder beim Konsumverhalten.
Ich würde auch sagen, eigentlich ist da kein Dogma. Ich habe nix etwa gegen eine CDU oder Wirtschaftsfreundlichkeit. Nur kann man das nicht gegen Menschenrechte im weitesten Sinn ausspielen.
Anders gesagt: Kaplitalisten gehen mir am A***h vorbei. Manchmal gehören die Verantwortlichen einfach in den Knast. Dumm nur, wenn etwa der Bundeskanzler Gedächnislücken aufweist.
@Joachim: Wenn sie konsequent wären, würden sie das machen, ja. Trump macht's mit seinem Truth-Social-Media-Scheiß ja vor.
Tue ich hier was gegen den Kapitalismus? Ich bin mir da nicht so sicher
Und Bundeskanzler mit Erinnerungslücken sind leider - im doppelten Wortsinn - Teil des Systems
Medien als Teil und Sprachrohr der herrschenden Klasse?
Und Springer war schon immer manipulativ, verhetzend und tendenziös, was ändert sich jetzt mit dem Einsatz eines Bots daran bis auf den Umstand, dass sie auf ihre Denunzianten - äääh Zuträger - etwas weniger angewiesen sind?
Im dümmsten Fall buddelt ChatGPT dann das eigene Gequirlte wieder aus, denn es ist aus dem Internet und was dort steht, ist wahr!
"Gelogen" hat der Mist doch trotz "Trainingsdaten" von Anfang an, wenn schlichtweg Falsches oder Unpassendes zusammengebastelt wurde, bei dem es weder Quellen noch überhaupt einen Nachweis dafür gibt, dass es stattgefunden hat. Das so etwas passieren kann und wird, hatte ich m.E. bereits ganz am Anfang dieses Hypes um "KI" erwähnt. Funktionieren kann das aber nur deshalb, weil die Meisten eben keine Quellen prüfen oder im Gegensatz zu ihren häufig als Protest getätigten Aussagen wirklich kritisch sind. Ob der Bullshit dann auf Papier oder digital in den asozialen Medien oder anderen Portalen daherkommt, spielt dafür keine Rolle. Wenn es der vermeintlich Richtige sagt und über seine Anhänger verbreiten lässt, wird es eben erst ungeprüft geglaubt und damit irgendwann "Wahrheit".
Ein echtes Lehrbeispiel dafür, wie das auch ganz ohne diesen Müll funktioniert, liefert jüngst erst wieder der Graslutscher in einem Blog-Beitrag bei einem der üblichen Versuche von konservativer Seite, den erneuerbaren Energien an´s Bein zu pinkeln. Da kann man sehr schön sehen, wie über einen vermeintlich prominenten Namen und tendenziösen Berichten dank Rosinenpicken manipuliert wird. Auch vorher arbeitet er sich an der Deppenzeitung ab. Aber wer liest schon solche Blogs und wer inhaliert im Vorbeigehen dieses Wurstblatt für seine "Meinung" und nicht für die Fakten...
@Siewurdengelesen: ACK. Allerdings war das für mich jetzt nicht ganz einfach zu lesen
Warum ChatGPT schon mal "lügen" muss liegt am Prinzip.
und er Link auf "in einem Blog-Beitrag" geht bei mir nicht. Liegt vielleicht an meinem verrammelten FF. Der Graslutscher hat mich aber nicht so überzeugt (wegen "wer liest schon solche Blogs)
(Sorry, nix begründet. Kann ich auf Nachfrage nachholen)
Nachtrag zur Kapitalismusdiskussion:
hört sich vielleicht etwas "extrem" an, ist aber sicher nicht blöde: https://feynsinn.org/?p=10503
und @daMax: was sagst du dazu in diesem Kontext: https://www.heise.de/news/Polizeibefugnis-CDU-und-SPD-in-Hessen-wollen-digitale-Wanzen-im-Wohnzimmer-9577621.html
@Joachim:
Wenn es mit Code nicht klappt, dann eben direkt, vermutlich habe ich es vermurkst:
https://graslutscher.de/ueber-gabor-steingarts-groteske-thesen-zu-lebensluegen-gruener-klimapolitik/
Letzen Endes geht´s ja nicht um das Überzeugen, sondern darum, dass mit falschen Fakten etwas suggeriert wird, was so nicht stimmt und dem Manipulieren dient.
@Siewurdengelesen: Oh, danke schön Kann das aber erst nach Feierabend lesen.
@alle, hui hier geht's ja ab Mal der Reihe nach.
@Siewurdengelesen (6): ich kann deine negative Einstellung ggü. ChatGPT & Co. nicht so ganz teilen, seit ich ChatGPT auf Arbeit selber nutze. Für mich ist das Ding in erster Linie einfach nur ein Werkzeug, von dem ich zwar im Moment noch GAR keine Ahnung habe, das mir aber schon gute Dienste geleistet hat. Z.B. muss ich derzeit Code in Java schreiben unter Verwendung von Bibliotheken und Schnittstellen, die ich überhaupt nicht kenne (abgesehen davon, dass meine Java-Kenntnisse vor knapp 20 Jahren aufgehört haben, sich weiter zu entwickeln und ich das ganze Konglomerat aus reingelutschten Bibliotheken für völlig entsetzlich halte). ChatGPT hilft mir tatsächlich dabei, Ideen zu bekommen, wie man gewisse Dinge umsetzen könnte. Zum Glück ist das, was ich da mache, "nur" ein proof-of-concept, der hoffentlich so, wie ich ihn derzeit entwickele, niemals in den Produktiveinsatz geht, denn dagegen werde ich mit aller Macht opponieren.
Und ja, man könnte sagen, es "lügt". Andere reden vom "halluzinieren", was ich persönlich treffender finde. Das Ding behauptet tatsächlich immer wieder totalen Bullshit und man muss höllisch aufpassen, die Aussagen nicht für bare Münze zu nehmen.
Und genau da wird mir dann blümerant wenn ich daran denke, dass ChatGPT jetzt Inhalte der Bildzeitung "lernt". Denn zum schon inhärenten "Halluzinieren" kommt dann noch ein "Lernen aus Lügen" dazu, was mir zumindest Unbehagen bereitet. Aber der Geist ist raus aus der Flasche und lässt sich auch nicht mehr zurück stopfen. Ich fürchte, wir werden lernen müssen, irgendwie damit umzugehen.
@Joachim (7): was hat du gegen den Graslutscher? Ich fand den bisher immer ziemlich gut, weil viel Ahnung und Hintergrundwissen (auch der verlinkte Artikel bestätigt mich in meiner Ansicht) und war ziemlich traurig, dass der sich so eine lange Auszeit gegeben hatte, dass ich den Blog schon geistig abgehakt hatte. Vielen Dank an dieser Stelle an@Siewurdengelesen für's Wieder-Ins-Gedächtnis-Rufen.
@Joachim (8): in welchem Kontext jetzt genau? Den Kontext zu ChatGPT und BILD kann ich jetzt nicht direkt herstellen, aber dass Hessen die faschistoidesten Vorstöße beim Polizeirecht macht, wundert mich gar nicht. War das nicht deren Aufgabe seit Anbeginn dieses Bundeslandes? Kommt mir zumindest so vor. Zum Vorschlag selber kann ich nur sagen:
@Siewurdengelesen: ja, du hattest da wohl irgendwas falsch gemacht, der Link beinhaltete kein
href=""
, dafür aber ein / zuviel und konnte nicht funktionieren. Hab's für dich gefixt@daMax:
Klingt wahrscheinlich wieder rantiger, als es ist.
Es ist ja auch ok, wenn Du einen Nutzen daraus ziehen kannst. Andererseits gehört dann irgendwie auch Weiterbilden im Beruf dazu und da hilft ggf. ein Buch oder Lehrgang genauso. Deine Arbeitsumstände kenne ich jetzt freilich nicht und wie Dein Häuptling zu so etwas steht, wenn er es finanzieren und Dich dafür freistellen muss, falls Du kein freischaffender Künstler bist. So hast Du ggf. eine schnelle Lösung, die sich aber wie so oft sicher auch über eine "normale Suche" finden liesse statt über einen Bot. Wahrscheinlich geht es in diesem Fall tatsächlich auch schneller.
"Und ja, man könnte sagen, es "lügt". Andere reden vom "halluzinieren", was ich persönlich treffender finde. Das Ding behauptet tatsächlich immer wieder totalen Bullshit und man muss höllisch aufpassen, die Aussagen nicht für bare Münze zu nehmen."
Und das ist für mich so einer der absoluten Kritikpunkte. Wenn ich dann mehr Zeit aufwenden muss, um zu prüfen, ob das stimmt, was mir da vorgesetzt wird, kann ich es auch lassen. Ob da jetzt die Deppenzeitung auch noch auf diesen Mist aufspringt oder nicht, ist dabei so spannend wie der berühmte Sack Reis in China. Die Klitsche wird dadurch weder besser noch schlechter und im dümmsten Fall war es wieder nur so ein Gag, der irgendwann stillschweigend eingedamoft wird wie das Fernsehprogramm Springers.
PS. Danke für´s Fixen, denn vermutlich lag es an den fehlenden Anführungszeichen, die m.E. hier eine Weile nicht nötig waren!?
Dass ChatGPT „lügt“ passt schon ganz gut. Menschen lügen etwa auch schon einmal, wenn sie etwas nicht wissen und das nicht zugeben können.
Eine KI will natürlich nichts, schon gar nichts zugeben, doch neuronale Netzwerke sind Klassifizierungsmaschinen. Die haben N Inputs, M Outputs und was dazwischen das die Inputs (in Schichten) gewichtet addiert (und wieder bewertet). Folglich muss zu jedem Input ein Output existieren. Eine KI kann gar nicht sagen „Keine Ahnung“ wenn sie nicht gelernt hat, keine Ahnung zu bestimmten Inputs zu haben.
Ein neuronales Netzwerk kann nicht „abstürzen“ oder sich „aufhängen“ wie ein Computer, weil die lineare Abfolge der + und * und „Schwellwertfunktion“ eben keine Schleifen beinhaltet. Ein solches neuronales Netz kann weniger als ein einfacher Computer.
(Anmerkung: die „Schwellwertfunktion ist oftmals nur etwas wie summe > 0.5)
So, und nun erklärt ihr mir mal, warum die Erfindung des PET oder einer PDP-8 nicht eine größere Revolution ausgelöst hat, als jetzt der Hype simuliert, der um die sogenannte KI gemacht wird.
Ich könnte nun erklären, dass µ-Prozessoren Arbeitsplätze kosteten, in Waffen steuern, uns das Rechnen abnehmen oder bei der Steuer helfen. Alle Argumente habe ich schon einmal gehört.
Der Hype um die KI ist Geschäftsmodell und Vehikel, an deine Daten zu kommen, weil unendlich viele Daten notwendig sind, das Ding anzulernen. Dieses „Lernen“ ist nichts als ein geschickter Optimierungsalgorithmus für die Gewichte der Neuronen. Das wird genutzt, damit du vor der KI in Ehrfurcht erstarrst und freiwillig etwa deine Gesundheitsdaten heraus rückst.
Das passt zu 100% in den Turbokapitalismus, dem wirklich total egal ist, ob du etwa krank bist. Es muss sich nur genügend Geld damit generieren lassen. Du sollst einfach glauben genau so wie du dem Versicherungsvertreter glauben sollst.
Wenn das klar ist, dann gebe ich gerne zu, dass ChatGPT und auch stable diffusion geniale Ideen sind, Spaß machen können und ab und an in den richtigen Händen sogar nützlich sein können.
Ups, zu lang, sorry. Zum Rest: vielleicht später noch mal. Und wenn du nicht auf mich hören, „Siewudengelesen“ hat mit Sicherheit ein paar korrekte „absolute Kritikpunkte“. ACK dazu.