Mit KI arbeiten

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Mo 12. Jan 2026, 16:01

nullplan hat geschrieben :
Mo 12. Jan 2026, 14:44
ich nutze die westlichen Modelle eher nicht, weil die mir viel zu zensiert sind.

[...]

jedes Modell [ist] durch seine Alignments geprägt und somit zwangsläufig nicht "neutral".
perplexity hat geschrieben : AI-Alignment-Programme zielen darauf ab, künstliche Intelligenzen so zu trainieren und zu gestalten, dass ihre Ziele, Entscheidungen und Handlungen mit menschlichen Werten, Ethik und Absichten übereinstimmen.
Burkart hat geschrieben :
Mi 31. Dez 2025, 12:13
Damit meinte ich [KI], die entsprechend "für Mensch" programmiert wurde.

[...]

"Für Mensch" bedeutet das für wertvoll zu halten, was er (möglichst grundlegend) wünscht.
Wenn ich es richtig sehe, sind Alignments für nullplan eine Form von Zensur (korrigiere mich, wenn ich mich irre), während sie für Burkhard ein essentielles Merkmal zukünftiger starker KI sein sollen.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
nullplan
Beiträge: 39
Registriert: Do 1. Jan 2026, 20:15

Mo 12. Jan 2026, 16:31

Zensur im Kontext von KI ist jede Form der Ausgabeverweigerung, ungachtet der Gründe und Begründungen, und außerhalb jeder Wertung ihrer betreffend.

Aber nebenbei: Gehört das nicht in einen Thread zur KI-Ethik?



zero trust ist snakeoil-marketing, weil es auf libs vertraut, die keiner vollständig prüft

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Mo 12. Jan 2026, 17:01

nullplan hat geschrieben :
Mo 12. Jan 2026, 16:31
Zensur im Kontext von KI ist jede Form der Ausgabeverweigerung, ungachtet der Gründe und Begründungen, und außerhalb jeder Wertung ihrer betreffend.
Meines Erachtens ist das ungereimt. Denn der Ausdruck „Zensur“ ist gar nicht ohne Wertung zu haben. Wenn ich sage, das und das war Zensur, dann ist damit natürlich nicht bloß eine neutrale, deskriptive Beschreibung gemeint, sondern eine Missbilligung ausgesprochen. Eine Definition, die Zensur ausdrücklich „außerhalb jeder Wertung“ ansiedeln will, verfehlt daher den Begriff selbst – in etwa so wie ein „rundes Quadrat“.

Der Ausdruck „Zensur“ verweist historisch wie systematisch auf illegitime, unangemessene oder sonst wie problematische Eingriffe in Kommunikation, Meinungsäußerung oder Publikation. Gerade darin unterscheidet sich Zensur von Formen der Einschränkung, die legitim und geboten sind. Nicht jede Einschränkung von Kommunikation ist bereits Zensur.

Zudem ist mehr als fraglich, ob man AI-Alignment-Programme, mit denen Unternehmen ihre KI-Systeme ausrichten und optimieren, per se als eine Form von Zensur bezeichnen sollte. Solche Programme können ebenso Ausdruck eines Verantwortungsbewusstseins oder einer ethischen Orientierung sein.

Dass ethisch motivierte Beschränkungen zugleich ein attraktives Produktmerkmal darstellen können, macht sie jedenfalls nicht zu Zensur. Andernfalls müsste man auch Elektroautos als eine Form der Verbrennungsmotor-Zensur bezeichnen.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Mo 12. Jan 2026, 17:44

nullplan hat geschrieben :
Mo 12. Jan 2026, 16:31
Zensur im Kontext von KI ist jede Form der Ausgabeverweigerung, ungachtet der Gründe und Begründungen, und außerhalb jeder Wertung ihrer betreffend.
Das hier klingt (vielleicht) noch etwas anders:
nullplan hat geschrieben :
Mo 12. Jan 2026, 14:44
Für mich ist die Freiheit des Denkens das höchste Gut, und jede systemische Blockade, die unabhängig vom Inhalt greift, untergräbt diese Freiheit strukturell.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Mo 12. Jan 2026, 19:16

t3n.de hat geschrieben : KI kann faszinierende Bilder erstellen, aber was passiert, wenn die Technologie für schädliche Inhalte missbraucht wird? 🤔

Auf der Plattform X hat der hauseigene KI-Chatbot Grok eine Flut von sexuell expliziten und entwürdigenden Bildern erzeugt. Das führte zu heftiger Kritik und sogar zur Androhung rechtlicher Schritte durch mehrere Länder, darunter Großbritannien.

Die Reaktion von X auf den Skandal ist mindestens genauso umstritten. Mehr dazu im Artikel: https://t3n.de/news/fragwuerdige-massna ... t-1724841/



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
nullplan
Beiträge: 39
Registriert: Do 1. Jan 2026, 20:15

Mo 12. Jan 2026, 22:08

Ich betrachte Zensur nicht als moralische Kategorie, sondern als Werkzeug.
Für einen Diktator ist sie Machtstabilisierung, für den Kritiker Freiheitsverlust.
Ist es nun positiv oder negativ? Geht es nicht, vorallem wenn wir über Maschinen reden, nicht ausschließlich um Haftungsauschluss?
Ein Vorgang bekommt Bedeutung erst durch den Standpunkt, nicht durch sich selbst.
Deshalb sehe ich Zensur als neutralen Prozess.

Ach noch am Rande: nominativ vs normativ - das bekannte Problem der Ebenen...



zero trust ist snakeoil-marketing, weil es auf libs vertraut, die keiner vollständig prüft

Benutzeravatar
nullplan
Beiträge: 39
Registriert: Do 1. Jan 2026, 20:15

Mo 12. Jan 2026, 23:24

Anmerkung zu dem "Zeitungsartikel":
Das scheint nur aufgewärmt aus 2024 zu sein - nichts Neues, typische Grok-Probleme wie schon immer.
Die IT-relevanten Zeitungen schreiben nichts dazu.



zero trust ist snakeoil-marketing, weil es auf libs vertraut, die keiner vollständig prüft

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Di 13. Jan 2026, 06:31

nullplan hat geschrieben :
Mo 12. Jan 2026, 22:08
Deshalb sehe ich Zensur als neutralen Prozess.
Warum nutzt du dann einen Begriff, der das nicht ausdrückt? Oder sagst du auch zu "Apfelsinen" "Stein" und zu "Hund" "Tisch"?



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Di 13. Jan 2026, 07:28

nullplan hat geschrieben :
Mo 12. Jan 2026, 23:24
Anmerkung zu dem "Zeitungsartikel":
Das scheint nur aufgewärmt aus 2024 zu sein - nichts Neues, typische Grok-Probleme wie schon immer.
Die IT-relevanten Zeitungen schreiben nichts dazu.
perplexity hat geschrieben : das ist ein hochaktuelles Problem aus dem Januar 2026, das durch eine neue Bildgenerierungsfunktion von Grok auf X eskaliert ist. Die Behauptung, es stamme aus 2024, ist irreführend – frühere Kontroversen um Grok-Bilder gab es zwar, aber der Massenmissbrauch mit expliziten Deepfakes begann erst Ende Dezember 2025.

[...]

Elon Musk nennt Regulierungen "Zensur" ...
In dem aktuellen Artikel auf t3n heißt es jetzt:
t3n hat geschrieben : Fragwürdige Maßnahme: Das Erstellen pornografischer Bilder wird auf X zum Premium-Produkt

Nachdem Nutzer:innen auf X massenhaft sexuell explizite KI-Bilder erzeugt haben, wollen mehrere Länder rechtliche Schritte gegen die Plattform einleiten. Eigentümer Elon Musk spricht von Zensur. [Hervorhebung von mir]
Wenn Musk hier von Zensur spricht, dann meint er das sicher als Vorwurf.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
nullplan
Beiträge: 39
Registriert: Do 1. Jan 2026, 20:15

Di 13. Jan 2026, 10:16

2024 und aufgewärmt: Ja reiht sich halt in die Liste von Skandalen nur ein. War zu erwarten, wird nicht besser und wenn das Update nächsten Monat kommt, wirds bestimmt auch nicht besser. Das spannende wird eher sein, wie das noch übertroffen werden kann.
Da es sich nur um einen weiteren Skandal handelt, scheint es den IT-relevanten Zeitungen, wie bleepingcomputer und thehackernews völlig egal zu sein.

Hochaktuell: Ja, der einzelne Skandal ist seit Ende 2025 bekannt. Nur weil es dann nach ca 2 Wochen im Mainstream ankommt, es als Hochakltuell zu bezeichnen ist meines Erachtens eher schwierig. Selbst Netzpolitik.org hatte bereits am 07.01.2026 die Sache thematisiert.

Zensur: Logisch bezeichnet Musk das als Zensur, was will er auch sonst schreien? Die Frage an der Stelle, sollte her sein, wieso noch immer Nutzer auf der Platform sind, und sich nicht kollektiv davon abwenden.
Musks Macht per "X" rührt doch daher, dass diese Art von Propaganda-Plattform überhaupt noch User hat.
Entzieht man die Grundlage durch Abwandern, verliert "X" seine Relevanz und verkommt im Müllberg des Internetz. Der User hat auch Macht und es ist ein Unding das permanent unter den Teppich kehren zu wollen.

Zu Apfelsinen: Ich bezeichne Apple-Geräte auch als Fallobst :P.



zero trust ist snakeoil-marketing, weil es auf libs vertraut, die keiner vollständig prüft

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Di 13. Jan 2026, 11:03

nullplan hat geschrieben :
Di 13. Jan 2026, 10:16
Zu Apfelsinen: Ich bezeichne Apple-Geräte auch als Fallobst :P.
Das erklärt aber nicht, warum du den Begriff „Zensur“ gegen seine Bedeutung verwendest. Meines Erachtens ist das ein wichtiger Punkt, das Musk-Beispiel zeigt das sehr anschaulich.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
nullplan
Beiträge: 39
Registriert: Do 1. Jan 2026, 20:15

Di 13. Jan 2026, 11:44

Bezug nehmend auf Post 97854:
Zeile 1 und Zeile 7 enthalten bereits die Antwort auf Ihre Frage.
Ich unterscheide bewusst zwischen nominativer Beschreibung und normativer Bewertung –
und nutze „Zensur“ als analytischen Begriff, nicht als moralische Keule.
Dass Musk den Begriff instrumentalisiert, ändert nichts daran,
dass er strukturell beschreibbar ist, unabhängig von seiner Absicht.

Ich agiere aus der Perspektive des Beobachters heraus, um wertfreie Analysen zu tätigen.
Nur so ist es mir überhaupt möglich, systemische blinde Flecken zu vermeiden.



zero trust ist snakeoil-marketing, weil es auf libs vertraut, die keiner vollständig prüft

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Di 13. Jan 2026, 11:47

Was auch immer deine Absichten sein mögen, es ist merkwürdig, dazu ein Wort zu nutzen, das einfach etwas anderes bedeutet. Und du kannst mir auch nicht erzählen, dass du das nicht genau weißt, das kauf ich nicht. Dennoch schreibst du – ohne jede Erläuterung –: „Wie erwähnt, ich nutze die westlichen Modelle eher nicht, weil die mir viel zu zensiert sind.“



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
nullplan
Beiträge: 39
Registriert: Do 1. Jan 2026, 20:15

Di 13. Jan 2026, 12:54

Wie auch immer Ihre Absichten sein mögen, es bleibt beim Problem der Ebenen und der Tatsache, dass die Teildiskussion in einen Thread zum Thema KI-Ethik gehört.
Dieser Thread dient laut Titel dem Arbeiten mit KI.
Die erste Seite des Threads agiert genau an der Stelle.
Usability ohne Moral, Fehleranalyse bezüglich des Alters zwischen Platon und Sokrates.
Dass der Thread nun zu Spaghetti-Code verkommt, initiiert durch einen User mit Adminrechten, ist bemerkenswert.
Zwar gehe ich von der ungeprüften Annahme aus, dass dies auf die Abneigung meiner Denkweise zurückzuführen sein könnte, ändert jedoch nichts am technischen Blickwinkel.

Logik braucht auch keinen Sinn, sie braucht nur Konsistenz und Konsequenz.
Begriffe sind Werkzeuge, keine Denkmäler.



zero trust ist snakeoil-marketing, weil es auf libs vertraut, die keiner vollständig prüft

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Di 13. Jan 2026, 12:58

Wenn es um „Arbeiten mit KI“ geht, geht es logischerweise (nicht nur, aber auch) um Ethik, weil das Arbeiten mit KI natürlich oft auch ethische Fragen aufwirft, siehe das Beispiel mit X und Musk: Ist es ethisch vertretbar, dass Porno-Deep-Fakes auf X gezeigt werden, oder wäre es Zensur, wie Musk glaubt, das zu verbieten? (Spoiler: natürlich nicht)

Und zur Erinnerung: Das ethische Thema, über das wir gerade sprechen, hast du aufgeworfen, ich hab es nur aufgenommen. Ethische Fragen waren aber natürlich auch schon zuvor Gegenstand in diesem Faden.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
nullplan
Beiträge: 39
Registriert: Do 1. Jan 2026, 20:15

Di 13. Jan 2026, 14:31

Gegenfrage 1: Wieso nennen sich die "freien" Modelle dann "uncensored"? Würde ja im Widerspruch der Bedeutungsschlacht stehen.

Gegenfrage 2: Wieso wurde die Thematik dann aufgenommen und weiter geführt ohne auf einen Threadwechsel zu verweisen? Adminfunktion und Userrolle sind nicht grundlos getrennt. Meine Systemphilosophie sieht das zumindest als Bruch.

Gegenfrage 3: Wieso soll es verwerflich sein, im Rahmen der Philosophie nicht den Gebrauch der deskriptiven Definition zu nutzen?
Es wurde ja von dieser erst möglich gemacht. Laut meinen Recherchen wird dahin gehend bewusst unterschieden.
"Deskriptiv → Deskribieren = beschreiben
Normativ → Normen = Vorschriften machen"



zero trust ist snakeoil-marketing, weil es auf libs vertraut, die keiner vollständig prüft

Benutzeravatar
Jörn P Budesheim
Beiträge: 1998
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Di 13. Jan 2026, 14:52

Ob deine Begriffsverwendung „verwerflich“ ist, kann ich dir nicht sagen :-) Du sprichst jedoch von Zensur, auch da wo keine vorliegt, das halte ich für fragwürdig. Diese Verdrehung des Begriffs, so wie du es auf die eine Weise machst und wie Musk es auf eine andere Weise macht, ist meines Erachtens ein eminent wichtiges Thema, auch und gerade im Zusammenhang mit KI.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Timberlake
Beiträge: 3087
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Di 13. Jan 2026, 15:38

nullplan hat geschrieben :
Di 13. Jan 2026, 14:31
Gegenfrage 1: Wieso nennen sich die "freien" Modelle dann "uncensored"? Würde ja im Widerspruch der Bedeutungsschlacht stehen.

Gegenfrage 2: Wieso wurde die Thematik dann aufgenommen und weiter geführt ohne auf einen Threadwechsel zu verweisen? Adminfunktion und Userrolle sind nicht grundlos getrennt. Meine Systemphilosophie sieht das zumindest als Bruch.

Dazu nur mal zur Erinnerung ..
Jörn Budesheim hat geschrieben :
Sa 27. Jul 2024, 16:13
In diesem Thread soll es nicht darum gehen, ob KI intelligent ist oder denken kann, sondern darum, wie ihr im Alltag mit KI in Kontakt kommt, wie ihr mit ihr arbeitet oder ob ihr sie vielleicht bewusst meidet oder was auch immer. Beispiele wären sehr hilfreich.
Wenn man im Alltag mit der KI in Kontakt kommt, dann ist meiner Meinung nach die Ethik stets ein Teil dessen.
nullplan hat geschrieben :
Mo 12. Jan 2026, 16:31
Zensur im Kontext von KI ist jede Form der Ausgabeverweigerung, ungachtet der Gründe und Begründungen, und außerhalb jeder Wertung ihrer betreffend.

Aber nebenbei: Gehört das nicht in einen Thread zur KI-Ethik?
So das ich den Thread zur KI-Ethik (Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, Stellungnahme des Deutschen Ethikrates) buchstäblich als eine Teilmenge des Threads "Mit KI arbeiten .." einstufen würde. Wenn es allerdings um die Stellungnahme des Deutschen Ethikrates im Besonderen geht , so sollte das doch besser dort diskutiert werden. Was allerdings , weil , wie gesagt als Teilmengen des Threads "Mit KI arbeiten .." , eine Erwähnung , hier in diesem Thread, nicht ausschließt.
Dia_Logos hat geschrieben :
So 28. Dez 2025, 10:07
Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, Stellungnahme des Deutschen Ethikrates

Digitale Technologien und Künstliche Intelligenz (KI) haben mittlerweile in nahezu allen Bereichen des öffentlichen und privaten Lebens Einzug gehalten. Für die ethische Bewertung solcher Entwicklungen und ihres Einsatzes in verschiedenen Bereichen ist es nötig, nicht nur die Technologien zu verstehen, sondern auch ihre Wechselwirkungen mit den Personen, die sie verwenden oder von ihrer Anwendung betroffen sind. Zentral ist dabei die Frage, welche Auswirkungen damit verbunden sind, wenn Tätigkeiten, welche zuvor Menschen vorbehalten waren, an Maschinen delegiert werden. Werden menschliche Autorschaft und Handlungsmöglichkeiten durch den Einsatz von KI erweitert oder vermindert?...

https://www.ethikrat.org/fileadmin/Publ ... schine.pdf


Wo wir schon mal dabei sind , also dessen Erwähnung und "freien" Modelle dann "uncensored"? , so habe ich mal in der Publikation nach dem Begriff "Zensur" suchen lassen. Auf den immerhin 403 seiten umfassenden Dokument findet sich der Begriff auf Seite 359 nur ein einziges mal. Insofern man anscheinend zumindest diesbezüglich die Stellungnahme des Deutschen Ethikrates getrost vernachlässigen kann .. gelinde gesagt. Echt .. manchmal frage ich mich ernsthaft, auf was für einen Planeten die leben.




Benutzeravatar
nullplan
Beiträge: 39
Registriert: Do 1. Jan 2026, 20:15

Di 13. Jan 2026, 16:17

Wenn dies ein so "eminent wichtiges Thema" sei, warum wird dann im Gegenzug ausschließlich auf der normativen Ebene verweilt, anstatt alle Ebenen zu berücksichtigen?
Die Aussage zur Verwerflichkeit ergibt sich somit zwangsläufig aus der dogmatischen, normativen Betrachtungsweise.
Wie ich bereits anmerkte, nennt die Wissenschaft freie Modelle "uncensored", was innerhalb der normativen Setzung einen Widerspruch erzeugt.
Es ist somit gegeben Zensur als Prozess ohne Wertung zu betrachten.
Selbst die Philosophie lehnt das nicht ab und hält dies für legitime Herangehensweise.
Entsprechend wird jede Informationsunterdrückung zur Zensur, wenn man sie analytisch betrachtet.
Alle Ebenen die aus dieser entstehen, sind sozialverträglich angepasste Varianten.
Wer den Begriff moralisch fixiert, entzieht ihm seine analytische Verwendbarkeit.



zero trust ist snakeoil-marketing, weil es auf libs vertraut, die keiner vollständig prüft

Timberlake
Beiträge: 3087
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Di 13. Jan 2026, 16:32

Timberlake hat geschrieben :
Di 13. Jan 2026, 15:38


Wo wir schon mal dabei sind , also dessen Erwähnung und "freien" Modelle dann "uncensored"? , so habe ich mal in der Publikation nach dem Begriff "Zensur" suchen lassen. Auf den immerhin 403 seiten umfassenden Dokument findet sich der Begriff auf Seite 359 nur ein einziges mal. Insofern man anscheinend zumindest diesbezüglich die Stellungnahme des Deutschen Ethikrates getrost vernachlässigen kann .. gelinde gesagt. Echt .. manchmal frage ich mich ernsthaft, auf was für einen Planeten die leben.


.. und so wende ich mich ma, weil dort anscheinend deplaziert , dem Thema Zensur hier in diesem Thread zu ..
nullplan hat geschrieben :
Di 13. Jan 2026, 11:44
Bezug nehmend auf Post 97854:
Zeile 1 und Zeile 7 enthalten bereits die Antwort auf Ihre Frage.
Ich unterscheide bewusst zwischen nominativer Beschreibung und normativer Bewertung –
und nutze „Zensur“ als analytischen Begriff, nicht als moralische Keule.
Dass Musk den Begriff instrumentalisiert, ändert nichts daran,
dass er strukturell beschreibbar ist, unabhängig von seiner Absicht.

Ich agiere aus der Perspektive des Beobachters heraus, um wertfreie Analysen zu tätigen.
Nur so ist es mir überhaupt möglich, systemische blinde Flecken zu vermeiden.
Aus der Perspektive des Beobachters heraus sei es dir, im Hinblick "Mit KI arbeiten … ", unbenommen, die „Zensur“ als analytischen Begriff und nicht als moralische Keule zu nutzen. Nur bedenke, dass du dabei selbst unter der Beobachtung eines Beobachters stehst. Möglicherweise sogar eines Beobachters, auf den solche wertfreien Analysen befremdlich wirken.
Dia_Logos hat geschrieben :
So 28. Dez 2025, 10:07
Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, Stellungnahme des Deutschen Ethikrates

Eine algorithmisch gesteuerte personalisierte Informations-
auswahl, in der ökonomische und aufmerksamkeitsbasierte
Faktoren derart eng verbunden sind und die sich anhand des
Nutzungsverhaltens ständig weiterentwickelt, führt dazu, dass
Inhalte, die besonders sensationell erscheinen oder intensi-
ve emotionale Reaktionen auslösen, sich überproportional
schnell und weit verbreiten. Dies begünstigt unter anderem
Falschnachrichten259 und Beiträge, auf die mit Wut reagiert
wird260, so zum Beispiel Inhalte wie Hassreden, Beleidigun-
gen und Volksverhetzungen. Das stellt Plattformen vor die
Herausforderung, wie solche potenziell problematischen und
gleichzeitig verbreitungsstarken Inhalte erkannt werden kön-
nen und wie mit ihnen umzugehen ist.


https://www.ethikrat.org/fileadmin/Publ ... schine.pdf
Das gilt um so mehr , wie das durch die Arbeit mit KI bei einem Beobachter, wie hier beschrieben, emotionale Reaktionen ausgelöst werden. Emotionale Reaktionen, die wiederum auf einer Plattform , wie dieser hier, befremdlich wirken. Wenngleich mir mitunter durchaus danach ist. Insbesondere wenn es um Nachrichten geht , bei denen man es sich wünschen würde, dass sie Falschnachrichten wären. Zumal wenn sie hier, auf dieser Plattform, so rein gar nichts auslösen. Beispiel ..Das Anthropozän




Antworten