Von lügenden "KI"s (update)

Dienstag, 23.9.2025, 07:04 > daMax

"KI"s sind ja leider in aller Munde und in jedem Gerät. Mein Handy kommt wöchentlich mit irgendwelchen "KI"-Features daher und selbst Firefox will mich jetzt ständig mit "AI"-Mumpitz beglücken, bei jedem markierten Stück Text:

Manche Menschen in meinem Umfeld nerven mich richtiggehend mit ihrer Verehrung von allem, wo "AI" draufsteht. Ich meine, ich kann die Faszination schon verstehen, denn was da aus so mancher "AI" rauspurzelt, mutet zunächst schon irgendwie toll an. Aber im Laufe der letzten 3 Monate habe ich so oft erlebt, dass diese Programme mir das Blaue von Himmel runter lügen und dabei ständig behaupten "doch doch, das ist so", dass ich inzwischen nicht mehr sonderlich überzeugt bin von deren Gequassel.

Ganz schlimm sind die "AI"-Priester aus meinem Umfeld, die inzwischen für alles und jedes nur noch ChatGPT & Co. einsetzen wollen, sei es, um Bücher über Beziehungsfragen zu schreiben, Kochideen für heute Abend zu bekommen oder mir zu "beweisen", wie einfach irgendetwas zu coden sei.

Aber ich fasele, eigentlich wollte ich euch nur diesen Artikel ans Herz legen: OpenAI’s research on AI models deliberately lying is wild:

While we’ve all experienced the frustration of poorly performing technology (thinking of you, home printers of yesteryear), when was the last time your not-AI software deliberately lied to you? Has your inbox ever fabricated emails on its own? Has your CMS logged new prospects that didn’t exist to pad its numbers? Has your fintech app made up its own bank transactions?

It’s worth pondering this as the corporate world barrels toward an AI future where companies believe agents can be treated like independent employees. The researchers of this paper have the same warning.

Update 1: siehe auch Lost in KI: Wenn die beste Freundin ChatGPT heißt. Supergruselig. Echt. Schöne neue Welt. HDL m(

(via kottke)