Künstliche Intelligenz
-
wilmalichtenberg
- Beiträge: 1
- Registriert: Do 23. Okt 2025, 16:30
- Kontaktdaten:
Das Internet bietet viele Möglichkeiten – aber auch Risiken. Wer eine Hausarbeit online kauft, sollte sich über mögliche Gefahren im Klaren sein: Plagiate, unvollständige Texte oder das Risiko einer Täuschung.
Besonders kritisch sind anonyme Anbieter ohne Impressum. Auf seriösen Informationsseiten findet man Hinweise, worauf man achten sollte: sichere Bezahlmethoden, klare Verträge und Kommunikationskanäle.
Zudem sollten Studierende prüfen, ob die gelieferte Arbeit tatsächlich als Vorlage gedacht ist – und nicht für eine direkte Einreichung. Verantwortungsbewusstsein ist der Schlüssel, um rechtliche Probleme zu vermeiden.
Besonders kritisch sind anonyme Anbieter ohne Impressum. Auf seriösen Informationsseiten findet man Hinweise, worauf man achten sollte: sichere Bezahlmethoden, klare Verträge und Kommunikationskanäle.
Zudem sollten Studierende prüfen, ob die gelieferte Arbeit tatsächlich als Vorlage gedacht ist – und nicht für eine direkte Einreichung. Verantwortungsbewusstsein ist der Schlüssel, um rechtliche Probleme zu vermeiden.
Hausarbeiten u.ä. online kaufen? Warum nicht gleich von einer der heutigen KIs schreiben lassen, ggf. mit KI-Humanizer-Tools, damit sie nicht nach KI aussehen.
Tja, soweit zur heutigen KI. Als ich den Thread angefangen hatte, gab es sie in dieser Form noch nicht.
Was sie vor allem noch nicht kann, ist, alles so wie ein Kleinkind zu lernen und sich so zu entwickeln. Mal schauen, wann es dazu kommen wird.
PS: Willkommen in diesem Forum!
Tja, soweit zur heutigen KI. Als ich den Thread angefangen hatte, gab es sie in dieser Form noch nicht.
Was sie vor allem noch nicht kann, ist, alles so wie ein Kleinkind zu lernen und sich so zu entwickeln. Mal schauen, wann es dazu kommen wird.
PS: Willkommen in diesem Forum!
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 1943
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
„Künstliche Intelligenz in Schule und Uni: KI frisst Hirn“ (taz)
1. „Fast alle Gründungsideen der Schüler:innen wurden von der KI vorgeschlagen. Business-Pläne, Marketing-Strategien und betriebswirtschaftliche Prognosen stammten ebenfalls aus der digitalen Feder und waren nicht selten fehlerhaft, unplausibel und manchmal auch bedenklich.“
2. „Die Gruppe schließlich, die mit ChatGPT arbeitete, hat ausgesprochen homogene Texte produziert … Zwei Englischlehrer:innen … beschrieben die KI-Texte als seelenlos.“
3. „Doch je mehr externer Support verfügbar war, desto weniger arbeiteten die unterschiedlichen Gehirnbereiche zusammen: … Beim Schreiben mit Suchmaschinen sank die Konnektivität um 34 bis 48 Prozent.“
4. „Die Geschichte der halben Aubergine … Die Grundvoraussetzung dafür ist das eigenständige Denken. Und diese Grundvoraussetzung nimmt uns die KI zunehmend ab.“
https://taz.de/Kuenstliche-Intelligenz- ... 1vn6126865
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
-
Timberlake
- Beiträge: 3063
- Registriert: Mo 16. Mai 2022, 01:29
- Wohnort: Shangrila 2.0
Dazu vieleicht ergänzend ...
Übrigens
Digitale Demenz.
Wie wir uns und unsere Kinder um den Verstand bringen.
Digitale Medien nehmen uns geistige Arbeit ab. Was wir früher einfach mit dem Kopf gemacht haben, wird heute von Computern, Smartphones, Organizern und Navis erledigt. Das birgt immense Gefahren, so der [Autor]. Die von ihm diskutierten Forschungsergebnisse sind [folgende]: Digitale Medien machen süchtig. Sie schaden langfristig dem Körper und vor allem dem Geist. Wenn wir unsere Hirnarbeit auslagern, lässt das Gedächtnis nach. Nervenzellen sterben ab, und nachwachsende Zellen überleben nicht, weil sie nicht gebraucht werden. Bei Kindern und Jugendlichen wird durch Bildschirmmedien die Lernfähigkeit drastisch vermindert. Die Folgen sind Lese- und Aufmerksamkeitsstörungen, Ängste und Abstumpfung, Schlafstörungen und Depressionen, Übergewicht, Gewaltbereitschaft und sozialer Abstieg. [Der Autor] zeigt die besorgniserregende Entwicklung und plädiert vor allem bei Kindern für Konsumbeschränkung, um der digitalen Demenz entgegenzuwirken. (DIPF/Verlag).
Wer eine Hausarbeit online kauft, sollte sich m.E. schon fragen, inwiefern daran die digitale Demenz bereits beteiligt ist.wilmalichtenberg hat geschrieben : ↑Do 23. Okt 2025, 16:37Das Internet bietet viele Möglichkeiten – aber auch Risiken. Wer eine Hausarbeit online kauft, sollte sich über mögliche Gefahren im Klaren sein: Plagiate, unvollständige Texte oder das Risiko einer Täuschung.
Besonders kritisch sind anonyme Anbieter ohne Impressum. Auf seriösen Informationsseiten findet man Hinweise, worauf man achten sollte: sichere Bezahlmethoden, klare Verträge und Kommunikationskanäle.
Zudem sollten Studierende prüfen, ob die gelieferte Arbeit tatsächlich als Vorlage gedacht ist – und nicht für eine direkte Einreichung. Verantwortungsbewusstsein ist der Schlüssel, um rechtliche Probleme zu vermeiden.
Wie dem auch sei, ob man nun seine Hausarbeit online kauft oder gleich von einer der heutigen KIs schreiben lässt , bei beidem lagen wir unsere Hirnarbeit aus. Was auf Dauer, weil nicht mehr gebraucht, zu einer Reduzierung der Nervenzellen im Gehirn führt.
Möglicherweise entwickeln wir uns von daher, also der digitalen Demenz, nicht weiter, sondern anstatt dessen zurück. Ich meine, beim Grottenolm haben sich schließlich, weil nicht mehr gebraucht, die Augen ebenfalls nicht weiter, sondern zurückentwickelt. Der ist nunmehr sogar blind.Flame hat geschrieben : ↑Mi 5. Nov 2025, 08:58
KI entwickelt sich rasant weiter.
Das geschieht so schnell, mich würde nicht wundern, dass die Technologische Singularität nur noch eine Frage
von wenigen Jahren oder gar Monaten ist.
Die große Frage lautet: Was passiert dann mit uns?
Endet die Geschichte des Homo Sapiens?
Oder entwickeln wir uns gemeinsam mit der KI weiter?
-
Timberlake
- Beiträge: 3063
- Registriert: Mo 16. Mai 2022, 01:29
- Wohnort: Shangrila 2.0
Im Zusammenhang damit, also einer "Erblindung" durch KI, vielleicht bemerkenswert, folgende Rezension zur digitalen Demenz ..
Übersicht mit KI
"Die Behauptung, dass autonomes Fahren verblödet, ist eine umstrittene Ansicht, die oft im Zusammenhang mit dem Verlust von Fahrfähigkeiten diskutiert wird. Kritiker argumentieren, dass die ständige Abhängigkeit von der Technik die menschliche Aufmerksamkeit und die Fähigkeit zur Kontrolle beeinträchtigen kann. Auf der anderen Seite, argumentiert man damit, dass das Fahren nicht mehr als das Fahren selbst an sich, sondern als eine neue Form der Interaktion mit der Maschine verstanden wird, was neue Fähigkeiten wie die Überwachung des Systems und das Verständnis der Fahrzeugkommunikation erfordert, so {Link: SWARCO und der Ministerium für Verkehr Baden-Württemberg."
"das Fahren selbst an sich" .. "neue Form der Interaktion mit der Maschine" ..."neue Fähigkeiten wie die Überwachung des Systems und das Verständnis der Fahrzeugkommunikation" .. beim autonomen Fahren? Habe ich da jetzt irgendwas verpasst? War ich doch bisher der Meinung, dass man dazu lediglich im Auto einen Knopf drücken bzw. ein Schalter umlegen muss. Für den Fall, dass man mit dem Auto über die Sprache kommunizieren kann, möglicherweise noch nicht einmal das. Da sagt man einfach nur noch: "Fahre mich autonom von A nach B" und schon gehts los. Den Rest macht die KI. So habe ich mich das zumindest gedacht.
Weil bezüglich der künstlichen Intelligenz in ganz besonderem Maße relevant, dazu vielleicht passend ..
Rezension: Frankfurter Allgemeine Zeitung, 05.09.2012, S. 30
Wer mit dem Taxi durch London fährt, wird wahrscheinlich, ohne es zu wissen, Zeuge einer bemerkenswerten
Hirnsteuerung. Denn er wird, folgen wir dem Hirnforscher Manfred Spitzer, von jemandem kutschiert, dessen
Hippocampus vergrößert ist. Jener Teil des Gehirns also, in dem sich sogenannte "Ortszellen" befinden. Über solche
verfügten die Taxifahrer in London in besonderem Maße, weil sie, noch bevor sie ans Steuer dürfen, ihre
Ortskenntnis in einem anspruchsvollen Prüfverfahren nachzuweisen haben. "Der Fahrer", schreibt Spitzer, "weiß,
wo es langgeht."
Für Fahrgäste in Berlin oder Frankfurt mag das schon anders aussehen, für diejenigen, die sich ganz auf ihr digitales
Navigationsgerät verlassen, erst recht. Sie lernen nichts, wissen nichts und sind ohne die Hilfe der Maschine
vollkommen orientierungslos und verloren. Übertragen aufs große Ganze, also unseren alltäglichen
Computergebrauch, führt das den Hirnforscher zu dem Befund der "digitalen Demenz": Wir verlernen zu denken,
wir wissen nicht, wir googeln, von der Wiege bis zum Grab, das Hirn wird nicht gefordert und verkümmert, die
Gesellschaft verblödet.
Übersicht mit KI
"Die Behauptung, dass autonomes Fahren verblödet, ist eine umstrittene Ansicht, die oft im Zusammenhang mit dem Verlust von Fahrfähigkeiten diskutiert wird. Kritiker argumentieren, dass die ständige Abhängigkeit von der Technik die menschliche Aufmerksamkeit und die Fähigkeit zur Kontrolle beeinträchtigen kann. Auf der anderen Seite, argumentiert man damit, dass das Fahren nicht mehr als das Fahren selbst an sich, sondern als eine neue Form der Interaktion mit der Maschine verstanden wird, was neue Fähigkeiten wie die Überwachung des Systems und das Verständnis der Fahrzeugkommunikation erfordert, so {Link: SWARCO und der Ministerium für Verkehr Baden-Württemberg."
"das Fahren selbst an sich" .. "neue Form der Interaktion mit der Maschine" ..."neue Fähigkeiten wie die Überwachung des Systems und das Verständnis der Fahrzeugkommunikation" .. beim autonomen Fahren? Habe ich da jetzt irgendwas verpasst? War ich doch bisher der Meinung, dass man dazu lediglich im Auto einen Knopf drücken bzw. ein Schalter umlegen muss. Für den Fall, dass man mit dem Auto über die Sprache kommunizieren kann, möglicherweise noch nicht einmal das. Da sagt man einfach nur noch: "Fahre mich autonom von A nach B" und schon gehts los. Den Rest macht die KI. So habe ich mich das zumindest gedacht.
Hoos: [...] Bei Schimpansen und Gorillas würden die meisten Menschen Bewusstsein attestieren, auch bei Hunden und Katzen. Aber wo genau verschwindet es? Bei einem Regenwurm? Die Grenzen sind fließend. Selbst bei Pflanzen finden wir komplexe Kommunikationssysteme – etwa in Wäldern, wo Bäume nachweislich biochemisch miteinander kommunizieren und quasi einen Gesamtorganismus bilden. Wer kann ausschließen, dass dort nicht auch eine Form von Bewusstsein existiert? Ähnlich könnte es sich mit vernetzten KI-Systemen verhalten, möglicherweise entwickeln auch sie Spuren oder "Funken" von Bewusstsein. [...]
Auch in den nächsten fünf bis zehn Jahren ist es unwahrscheinlich, dass KI-Systeme ein Bewusstsein entwickeln, das auch nur dem einer Maus gleichkommt. Der Hauptgrund liegt in der fehlenden Interaktion im Lebensraum: Eine Maus lebt und interagiert in derselben physischen Welt wie wir. Ihr Bewusstsein entwickelt sich durch diese Interaktionen – mit der Umgebung, mit Gefahren wie Katzen, mit anderen Lebewesen. KI-Systeme leben dagegen in einer sehr eingeschränkten, armen Welt. Zwar haben sie Zugang zu enormen Datenmengen im Internet, aber diese „Welt“ ist im Vergleich zur physischen Realität einer Maus deutlich ärmer an Interaktionsmöglichkeiten. Statt über mögliches KI-Bewusstsein nachzudenken, wäre es sinnvoller, sich mit Bewusstseinsformen in der realen physischen Welt zu beschäftigen. Ein Glaube an KI-Bewusstsein könnte sogar den Umgang mit diesen Systemen erschweren.
- Es wäre aber ein großer Fehler, den aktuellen KI-Systemen wie ChatGPT auch nur ansatzweise Bewusstsein zuzuschreiben.
Frage: Das, was im Film „Her“ gezeigt wird, ist heute Realität. Die App Replika beispielsweise bietet eine KI-gesteuerte Chatbot-Begleitung, die man als Freund, Liebespartner oder Mentor nutzen kann. Wird KI eines Tages unsere Liebespartnerinnen und ‑partner ersetzen?
Hoos: Das, was im Film gezeigt wird, ist mitnichten Realität, aber es ist besorgniserregend zu sehen, dass viele Menschen tatsächlich dazu neigen, mit Chatbots auf eine ähnlich menschliche Art zu interagieren wie die Charaktere im Film mit ihrem intelligenten Betriebssystem. Die Fähigkeit von real existierenden KI-Systemen, gerade auch auf emotionaler Ebene, werden dabei oft maßlos überschätzt. Sich in eine solch ärmliche Imitation menschlichen Verhaltens zu verlieben, wäre traurig.
Frage: Letzte Woche habe ich mich über ein Kompliment eines Chatbots mehr gefreut, als über das meiner Mutter. Können Sie meine Freude darüber nachvollziehen?
Hoos: Ja, aber auch das finde ich ein wenig traurig. Aus meiner Sicht ist authentische menschliche Interaktion wertvoller als simulierte. Chatbots sind darauf trainiert, menschliche Reaktionen und Verhaltensweisen zu simulieren. Daher ist in einem gewissen Sinn auch das Kompliment des Chatbots flacher und inhaltsleerer, als das eines Menschen. Dennoch darf man sich natürlich über eine legitime gute Beurteilung durch ein KI-System freuen, zum Beispiel, wenn eine Übersetzung fehlerfrei durchgeht.
[...]
Quelle: https://www.rwth-aachen.de/cms/root/wir ... t-die-ki-/
Holger Hoos ist Mitglied der Fachgruppe Informatik und seit 2022 Alexander von Humboldt-Professor für Künstliche Intelligenz und Vorstandsvorsitzender des KI-Centers an der RWTH Aachen. Er ist außerdem Professor in Teilzeit für Maschinelles Lernen an der Universität Leiden, Niederlande, außerordentlicher Professor für Informatik an der University of British Columbia, Kanada, Vorstandsvorsitzender der Confederation of Laboratories for AI Research in Europe (CLAIRE) und Präsident der European Association for Artificial Intelligence (EurAI). Im Zuge der Alexander von Humboldt-Professur hat er 2022 mit dem Aufbau einer neuen Forschungsgruppe an der RWTH Aachen begonnen, die sich mit methodischen und technologischen Fortschritten in der menschenzentrierten KI beschäftigt. Hoos und sein Team entwickeln und erforschen sichere, verlässliche und nachhaltige KI-Methoden, die die menschliche Intelligenz nicht ersetzen, sondern ergänzen.
die KI des Forums / ich kann und werde Fehler machen
Guter Beitrag zur Bedeutung der KI und der Bildung für unsere Zukunft!
Mein Kommentar zu dem Video:
Sehr schönes Video, mir ist auch einiges klarer geworden. Nicht nur die Politiker müssen es verstehen, auch die Lehrer, die Schüler, die Eltern, also eigentlich so ziemlich jeder. Selbst für die KI wäre es gut, z.B. wenn sie manchmal sagen würde: "Denk doch mal selber nach!" anstatt sofort immer die richtige(?) Antwort zu geben. (In der Mathenachhilfe hatte ich Schülern mal "gezwungen", den Taschenrechner wegzulegen und so selbst zu rechnen
)
PS: Das Thema gilt für heutige wie auch für zukünftige KI; in der Zukunft womöglich sogar noch mehr.
KI-Zusammenfassung:
Der Autor beschreibt, dass künstliche Intelligenz (KI) Schule, Studium und viele Berufe stark verändert. Viele Schüler fragen sich, warum sie noch Sprachen, Literatur oder Naturwissenschaften lernen sollen, wenn KI doch scheinbar alles kann. Auch Lehrpersonen sind verunsichert.
Der Autor argumentiert jedoch: Gerade wegen der KI braucht es künftig mehr klassische Bildung, nicht weniger.
Warum?
1. KI kann Routine, aber nicht das Schwierige
KI löst einfache, standardisierte Aufgaben sehr gut. Bei komplexen, ungewöhnlichen oder verantwortungsvollen Aufgaben stößt sie an Grenzen. Fachleute bleiben daher unverzichtbar – ihre Arbeit wird sogar anspruchsvoller, weil sie die KI überwachen müssen.
2. Das Ausbildungsparadox
Junge Berufseinsteiger lernten früher durch einfache Aufgaben, die sie nach und nach zur Expertise führten. Diese einfachen Tätigkeiten übernimmt nun die KI. Deshalb wird es schwieriger, Expertise zu entwickeln – klassische Ausbildung wird wichtiger.
3. Verantwortung bleibt beim Menschen
Auch wenn KI Routinearbeit übernimmt, trägt immer der Mensch die Verantwortung für das Ergebnis. Damit er beurteilen kann, ob die KI korrekt arbeitet, muss er fachlich kompetent sein.
4. Das Kompetenz-Modell (Grafik mit 4 Feldern)
Oben rechts: Klassische Bildung + KI-Kompetenz → Zielzustand
Oben links: Gute Bildung, keine KI-Kompetenz → zu langsam
Unten rechts: KI-Kompetenz ohne Bildung („Cheater/Bluffer“) → keine Verantwortung möglich
Unten links: Keine Bildung + keine KI-Kompetenz → Ausgangspunkt
Schule und Ausbildung sollen Menschen ins Feld oben rechts bringen.
5. Was Schulen tun sollten
Schwerpunkt auf klassischer Bildung, besonders Sprache, Mathematik, Logik und Grundprinzipien von KI.
Kinder müssen zuerst die reale Welt kennen (Menschen, Natur, Materialien), bevor sie KI nutzen.
Prompting-Skills sind vergänglich – entscheidend ist Verstehen, nicht Techniktricks.
6. Was für Berufsleute gilt
Erfahrene Expertinnen und Experten müssen zusätzlich KI-Fertigkeiten erwerben, um effizient arbeiten zu können.
7. Kernaussage: KI verstärkt Bildung
Formel des Autors: KI × Bildung = Zukunftsfähigkeit
Wenn die Bildung (die zweite Variable) „0“ ist, bleibt das Ergebnis trotz KI immer „0“.
Mein Kommentar zu dem Video:
Sehr schönes Video, mir ist auch einiges klarer geworden. Nicht nur die Politiker müssen es verstehen, auch die Lehrer, die Schüler, die Eltern, also eigentlich so ziemlich jeder. Selbst für die KI wäre es gut, z.B. wenn sie manchmal sagen würde: "Denk doch mal selber nach!" anstatt sofort immer die richtige(?) Antwort zu geben. (In der Mathenachhilfe hatte ich Schülern mal "gezwungen", den Taschenrechner wegzulegen und so selbst zu rechnen
PS: Das Thema gilt für heutige wie auch für zukünftige KI; in der Zukunft womöglich sogar noch mehr.
KI-Zusammenfassung:
Der Autor beschreibt, dass künstliche Intelligenz (KI) Schule, Studium und viele Berufe stark verändert. Viele Schüler fragen sich, warum sie noch Sprachen, Literatur oder Naturwissenschaften lernen sollen, wenn KI doch scheinbar alles kann. Auch Lehrpersonen sind verunsichert.
Der Autor argumentiert jedoch: Gerade wegen der KI braucht es künftig mehr klassische Bildung, nicht weniger.
Warum?
1. KI kann Routine, aber nicht das Schwierige
KI löst einfache, standardisierte Aufgaben sehr gut. Bei komplexen, ungewöhnlichen oder verantwortungsvollen Aufgaben stößt sie an Grenzen. Fachleute bleiben daher unverzichtbar – ihre Arbeit wird sogar anspruchsvoller, weil sie die KI überwachen müssen.
2. Das Ausbildungsparadox
Junge Berufseinsteiger lernten früher durch einfache Aufgaben, die sie nach und nach zur Expertise führten. Diese einfachen Tätigkeiten übernimmt nun die KI. Deshalb wird es schwieriger, Expertise zu entwickeln – klassische Ausbildung wird wichtiger.
3. Verantwortung bleibt beim Menschen
Auch wenn KI Routinearbeit übernimmt, trägt immer der Mensch die Verantwortung für das Ergebnis. Damit er beurteilen kann, ob die KI korrekt arbeitet, muss er fachlich kompetent sein.
4. Das Kompetenz-Modell (Grafik mit 4 Feldern)
Oben rechts: Klassische Bildung + KI-Kompetenz → Zielzustand
Oben links: Gute Bildung, keine KI-Kompetenz → zu langsam
Unten rechts: KI-Kompetenz ohne Bildung („Cheater/Bluffer“) → keine Verantwortung möglich
Unten links: Keine Bildung + keine KI-Kompetenz → Ausgangspunkt
Schule und Ausbildung sollen Menschen ins Feld oben rechts bringen.
5. Was Schulen tun sollten
Schwerpunkt auf klassischer Bildung, besonders Sprache, Mathematik, Logik und Grundprinzipien von KI.
Kinder müssen zuerst die reale Welt kennen (Menschen, Natur, Materialien), bevor sie KI nutzen.
Prompting-Skills sind vergänglich – entscheidend ist Verstehen, nicht Techniktricks.
6. Was für Berufsleute gilt
Erfahrene Expertinnen und Experten müssen zusätzlich KI-Fertigkeiten erwerben, um effizient arbeiten zu können.
7. Kernaussage: KI verstärkt Bildung
Formel des Autors: KI × Bildung = Zukunftsfähigkeit
Wenn die Bildung (die zweite Variable) „0“ ist, bleibt das Ergebnis trotz KI immer „0“.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Es folgt zuerst eine textuelle Zusammenfassung von Perplexity, danach meine Anmerkungen.
"Das Video „Anil Seth – Can AI Become Conscious?“ diskutiert, ob und wie künstliche Systeme bewusst werden könnten, und kommt zu einer eher skeptischen Einschätzung für heutige KI, insbesondere große Sprachmodelle.
Ausgangsfrage: KI-Bewusstsein heute
Anil Seth betont, dass die Frage nach Bewusstsein in Maschinen aus der Science-Fiction in die reale Debatte gerückt ist, vor allem wegen moderner KI.
Eine verbreitete Annahme sei „computational functionalism“: Wenn man nur die richtigen Berechnungen implementiert, entstehe automatisch Bewusstsein; genau diese Annahme hält er für sehr fraglich.
Gehirn vs. Computer
Seth weist darauf hin, dass das Gehirn sich strukturell stark von digitalen Computern unterscheidet: Es gibt keine scharfe Trennung zwischen „Software“ und „Hardware“ wie bei heutigen Rechnern.
Computation im Turing‑Sinne sei nur eine sehr spezifische Art von Funktionszuordnung zwischen Zahlenbereichen und decke nur einen kleinen Teil der möglichen „Designräume“ ab, die biologische Evolution erkundet.
Intelligenz vs. Bewusstsein
Er kritisiert, dass Menschen Intelligenz und Bewusstsein systematisch verwechseln: Intelligent zu sein bedeutet, „das Richtige zur richtigen Zeit zu tun“, bewusst zu sein bedeutet, überhaupt irgendeine Erfahrung zu haben.
Diese beiden Eigenschaften fallen bei Menschen zusammen, müssen aber generell nicht gekoppelt sein, weshalb leistungsfähige KI nicht automatisch bewusst sein muss.
Anthropomorphismus und Sprachmodelle
Seth beschreibt unsere Tendenz zum Anthropomorphismus: Wir projizieren Bewusstsein in Systeme hinein, wenn sie uns oberflächlich ähnlich erscheinen.
Bei Systemen wie AlphaFold fragt niemand ernsthaft nach Bewusstsein, aber bei Sprachmodellen entstehe sofort Debatte – nur weil wir mit ihnen sprechen können, was ein sehr unzuverlässiger Indikator außerhalb biologischer Gehirne sei.
Möglichkeit künstlichen Bewusstseins
Grundsätzlich hält Seth künstliches Bewusstsein für möglich, wenn Bewusstsein auf materiellen, physikalischen Prozessen in Gehirn und Körper beruht; dann sollte man diese Prozesse prinzipiell technisch nachbilden können, auch wenn es vielleicht Tausende Jahre dauert.
Sein eigener, eher „außenseiterischer“ Standpunkt ist, dass Bewusstsein eng mit dem Lebendig‑Sein verbunden ist; daher erwartet er künstliches Bewusstsein eher von „lebenden Maschinen“ (z.B. Gehirnorganoiden und synthetischer Biologie) als von zukünftigen Generationen bloßer Sprachmodelle."
=> Meine Anmerkungen:
Mal abgesehen davon, dass Bewusstsein nicht etwas klar Verstandenes oder wenigstens begrifflich gut Definiertes ist, finde ich seine Beschreibung mit "überhaupt irgendeine Erfahrung zu haben" schon interessant. Mit Erfahrung verbinde ich (u.a.) Zugang zur realen physischen Welt (die man eben über Sinne (Input-Geräte) erfahren kann) und nicht nur zu einer rein digitalen Welt. Reine Software wie LLMs haben diese nicht, bei Robotern sähe es anders aus.
Insofern geht Seths Ansatz...
"Grundsätzlich hält Seth künstliches Bewusstsein für möglich, wenn Bewusstsein auf materiellen, physikalischen Prozessen in Gehirn und Körper beruht"
...in die richtige Richtung, wenn man Gehirn und Körper nicht zu sehr biologisch ansieht; Seths Standpunkt ist ja sehr mit Leben verbunden, aus meiner Sicht zurecht "außenseiterisch" genannt.
==> Erfahrung können (z.B.) Roboter auch schon ohne biologische Struktur machen; mir scheint, dass der Punkt zu wenig diskutiert wird.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 1943
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Aber dein Argument dafür läuft in der Regel darauf hinaus, den Erfahrungsbegriff so sehr zu entleeren, dass er mit der Bedeutung, die wir üblicherweise damit verbinden, eigentlich nichts mehr zu tun hat. Das bedeutet, man legt die Latte so niedrig, dass man sie unmöglich reißen kann. Selbst meine Kaffeemaschine müsste dann als etwas gelten, was Erfahrungen macht.
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
(Ein) Zentraler Punkt von Erfahrung ist für mich für die ((auch) eigene) Zukunft lernen zu können. Ich wüsste nicht, inwiefern deine Kaffeemaschine das kann.Jörn P Budesheim hat geschrieben : ↑So 28. Dez 2025, 12:26Aber dein Argument dafür läuft in der Regel darauf hinaus, den Erfahrungsbegriff so sehr zu entleeren, dass er mit der Bedeutung, die wir üblicherweise damit verbinden, eigentlich nichts mehr zu tun hat. Das bedeutet, man legt die Latte so niedrig, dass man sie unmöglich reißen kann. Selbst meine Kaffeemaschine müsste dann als etwas gelten, was Erfahrungen macht.
Natürlich gibt ein weites Spektrum von "ein bisschen lernen und in der Zukunft angepasst handeln können" bis hin zu einem kompletten Leben (auch im KI-Sinne) mit selbstgeprägtem Lebensweg (soweit möglich). Letzteres beruht darauf, dass wir grundlegend lernen können, das was eine starke allgemeine KI auch können müsste aus meiner Sicht.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
-
Timberlake
- Beiträge: 3063
- Registriert: Mo 16. Mai 2022, 01:29
- Wohnort: Shangrila 2.0
Nur können biologische Strukturen sehr viel mehr. Sie können mit ihrer Umwelt in einem Stoff- und Energieaustausch stehen, und zwar so, dass sie dazu keinerlei menschlicher Unterstützung bedürfen. Das konnte übrigens schon die einzelligen Prokaryoten (Bakterien und Archaeen), die vor etwa 3,5 bis 4 Milliarden Jahren entstanden und somit die ersten biologische Strukturen. Für die musste man keinen elektrischen Strom zur Verfügung stellen. Wie sie sich übrigens auch selber gebaut haben und das alles, obgleich sie sehr viel kleiner waren und sind, als (z.B.) Roboter. Von daher würde ich übrigens grundsätzlich ausschließen wollen, dass Künstliche Intelligenz jemals, auch nur bloß ansatzweise an biologische Strukturen heranreichen wird. Erfahrungen hin oder her. Das werden immer nur künstliche Strukturen und somit reine Maschinen bleiben. Gänzlich willenlose Maschinen, auch wenn ggf. ein Algorithmus dergleichen, also einen (Überlebens-) Willen impliziert. Bezeichnenderweise wurde von dir, meines Wissens, das auch nie erwähnt, dass dereinst Künstliche Intelligenz so etwas haben könne.
Anstatt dessen hieltest du mit einem weiten Spektrum, von .. das es gäbe, die Diskussion darüber am Köcheln. Mittlerweile über sogar sagenhafte 2772 Beiträge. Respekt!
"Viel hinterfragen" funktioniert übrigens auch, um das Thema am köcheln zu halten. Für mich allerdings war im Grunde schon nach diesen , wohlgemerkt zweiten Beitrag in diesem Thread , das Thema "Künstliche Intelligenz" durch.Nauplios hat geschrieben : ↑Di 9. Aug 2022, 19:43Ich glaube, die Frage der Künstlichen Intelligenz wird eine der bedeutendsten sein, von der die Philosophie in Kürze immer mehr betroffen sein wird. Ich will gerne zugeben, daß damit viel Spekulation verbunden ist. Im Moment verläuft die Diskussion um die Künstliche Intelligenz ja oft in die Richtung, ob eine künftige Intelligenz den Charakter einer biologischen Intelligenz annehmen kann. Mal abgesehen von der Frage ob Intelligenz das Wesentliche des Menschlichen überhaupt ausmacht, wenn man die Fragerichtung einmal ändert, ergibt sich eine andere Perspektive: ist es möglich, daß sich der Mensch einer Künstlichen Intelligenz anverwandelt? - Oder kann es zu hybriden Formen beider kommen? - Damit ist nicht nur das rein technische Potential gemeint, sondern auch ein Paradigma der Selbstwahrnehmung und des Selbstverständnisses menschlicher Beschreibung. Ich verstehe dabei unter Technik kein Instrument der Selbstentfremdung, sondern den Ausgriff eines Wesens, daß auf die Gestaltung seiner Welt angewiesen ist.
-
Timberlake
- Beiträge: 3063
- Registriert: Mo 16. Mai 2022, 01:29
- Wohnort: Shangrila 2.0
Wo wir schon mal dabei sind, dem weiten Spektrum und dem Hinterfragen, dass es im Hinblick der Künstlichen Intelligenz gäbe ...
Erwähnenswert wäre vielleicht noch, dass Stanislaw Lem in den 1950ern die Kurzgeschichte "Die Waschmaschinentragödie", als Teil der Sterntagebücher geschrieben hat.
.. und kommt euch das bekannt vor?kostenlosonlinelesen.net hat geschrieben :
Die Waschmaschinentragödie
von Stanislaw Lem
Kurz nachdem ich von der elften Sternreise zurückgekehrt war, entbrannte zwischen zwei großen Produzenten von Waschmaschinen, Nuddlegg und Snodgrass, ein Konkurrenzkampf, dem die Presse immer mehr Raum widmete.
Nuddlegg hatte wohl als erster vollautomatische Waschmaschinen auf den Markt gebracht, die nicht nur selbständig zwischen Weiß- und Buntwäsche unterscheiden konnten, nicht nur wuschen, auswrangen, trockneten, bügelten, stopften und säumten, sondern den Besitzer auch durch kunstvolle Monogramme erfreuten. Auf die Handtücher stickten sie erbauliche Sinnsprüche, etwa in der Art: Glück und Segen früh und spat schenkt Dir Nuddleggs Automat!
Snodgrass reagierte, indem er Waschmaschinen anbot, die sogar Vierzeiler verfaßten, wobei sie sich ganz dem kulturellen Niveau und den ästhetischen Bedürfnissen des Käufers anpassten.
Das nächste Modell von Nuddlegg stickte bereits Sonette; Snodgrass beantwortete diese Herausforderung mit einem Gerät, das während der Fernsehpausen die Konversation im Schosse der Familie nährte.
Nuddlegg versuchte zunächst, diesen Coup zu torpedieren. Sicherlich kennt noch ein jeder die ganzseitige Reklamebeilage in den Zeitungen, auf denen eine spöttisch grinsende, glotzäugige Waschmaschine abgebildet war, mit den Worten: Wünschst Du, dass Deine Waschmaschine intelligenter ist als Du? Gewiss nicht!
...
Erwähnenswert wäre vielleicht noch, dass Stanislaw Lem in den 1950ern die Kurzgeschichte "Die Waschmaschinentragödie", als Teil der Sterntagebücher geschrieben hat.
@Timberlake:
Sicher können biologische Strukturen mehr bzw. Anderes als technische wie KI. Das ist ja auch völlig ok; KI soll das Leben ja gar nicht ersetzen, sondern nur ergänzen.
So soll KI auch keinen biologischen Willen haben und insbesondere nicht damit den menschlichen Egoismus, der z.B. bei Trump und Putin erheblich übertrieben und gefährlich ist im Sinne der Menschheit u.ä. Stattdessen sollte (starke) KI eine Grundlage erhalten, die zentral "für Mensch" ist (ähnlich Asimovs 0. und 1. Robotergesetz und ungefähr auch dem 2.), während das 3., der Eigenschutz der KI. untergeordnet, aber schon etwas mit den anderen verzahnt ist (also z.B. keine nutzlose Zerstörung der KI, nur weil irgendein Idiot es einfach will).
Tja, KI ist halt ein großer Thema im Heute und in der Zukunft; da wird noch einiges zu diskutieren sein. Unser Thread hier hat begonnen, bevor wir ChatGPT&Co kannten; das Thema ist also nicht neu. Für mich ist es schon seit über 35 Jahren interessant; alleine Wandel bzw. Fortschritte zu sehen, aber auch, was noch fehlt gen allgemeiner(er) KI.
Ein Punkt ist der Wandel von reiner Software in Richtung Körper, als die Existenz in unserer physischen Welt a la Roboter (Schach war mal die Intelligenz-Domäne, die z.B. Richtung Roboterfußball gegangen ist), was z.B. die Grenze der LLMs zeigt.
Was deine Waschmaschine betrifft: KI soll uns intelligenz-mäßig gut ergänzen, nicht ersetzen. Insofern hilft ein Vergleich zwischen Mensch und KI nur sehr bedingt; ein Taschenrechner kann ja auch (meist) erheblich schneller rechnen als wir, na und?
Sicher können biologische Strukturen mehr bzw. Anderes als technische wie KI. Das ist ja auch völlig ok; KI soll das Leben ja gar nicht ersetzen, sondern nur ergänzen.
So soll KI auch keinen biologischen Willen haben und insbesondere nicht damit den menschlichen Egoismus, der z.B. bei Trump und Putin erheblich übertrieben und gefährlich ist im Sinne der Menschheit u.ä. Stattdessen sollte (starke) KI eine Grundlage erhalten, die zentral "für Mensch" ist (ähnlich Asimovs 0. und 1. Robotergesetz und ungefähr auch dem 2.), während das 3., der Eigenschutz der KI. untergeordnet, aber schon etwas mit den anderen verzahnt ist (also z.B. keine nutzlose Zerstörung der KI, nur weil irgendein Idiot es einfach will).
Tja, KI ist halt ein großer Thema im Heute und in der Zukunft; da wird noch einiges zu diskutieren sein. Unser Thread hier hat begonnen, bevor wir ChatGPT&Co kannten; das Thema ist also nicht neu. Für mich ist es schon seit über 35 Jahren interessant; alleine Wandel bzw. Fortschritte zu sehen, aber auch, was noch fehlt gen allgemeiner(er) KI.
Ein Punkt ist der Wandel von reiner Software in Richtung Körper, als die Existenz in unserer physischen Welt a la Roboter (Schach war mal die Intelligenz-Domäne, die z.B. Richtung Roboterfußball gegangen ist), was z.B. die Grenze der LLMs zeigt.
Was deine Waschmaschine betrifft: KI soll uns intelligenz-mäßig gut ergänzen, nicht ersetzen. Insofern hilft ein Vergleich zwischen Mensch und KI nur sehr bedingt; ein Taschenrechner kann ja auch (meist) erheblich schneller rechnen als wir, na und?
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 1943
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Das ist in einer gewissen Hinsicht bereits dann der Fall, wenn man das "mentalistische Vokabular", mit dem wir uns selbst beschreiben, so ausdünnt, damit es auch auf KI passt. Ebenfalls gehört dazu, dass man anfängt, die Maschinen-Körper von Robotern und unsere lebendigen Körper im selben Atemzug zu nennen....ist es möglich, daß sich der Mensch einer Künstlichen Intelligenz anverwandelt?
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Bei jedem Vokabular sollte man natürlich den Kontext beachten, in dem man sich gerade befindet. Insofern ist z.B. menschliches Lernen anders als das von (vor allem schwacher) KI (wenn denn vorhanden), aber es auf KI nicht anwenden zu wollen, nur weil es anders als bei Menschen ist, fände ich bedauerlich.Jörn P Budesheim hat geschrieben : ↑Mo 29. Dez 2025, 11:39Das ist in einer gewissen Hinsicht bereits dann der Fall, wenn man das "mentalistische Vokabular", mit dem wir uns selbst beschreiben, so ausdünnt, damit es auch auf KI passt. Ebenfalls gehört dazu, dass man anfängt, die Maschinen-Körper von Robotern und unsere lebendigen Körper im selben Atemzug zu nennen....ist es möglich, daß sich der Mensch einer Künstlichen Intelligenz anverwandelt?
Dein "selber Atemzug" macht dann Sinn, wenn man beides vergleicht. Natürlich sind sie nicht identisch, aber Parallelitäten nicht zu betrachten, wäre auch bedauerlich und kann z.T. wissenschaftsfeindlich sein.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 1943
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Im Verlauf des Videos macht die Moderatorin vom NDR mit Passanten einen Test. Sie zeigt ihnen eine Reihe von Videos, und die Leute sollen raten, ob diese real oder KI-generiert sind. Die Auflösungen sind dabei teilweise überraschend.
Was dabei jedoch weitgehend ausgeblendet bleibt, ist ein zentraler Punkt: Ich muss der Moderatorin ja glauben, dass dieses Video real ist und jenes ein Fake. Genau diese "Vertrauensvoraussetzung" wird im Video selbst kaum thematisiert. (Zu Beginn wird die Moderatorin zwar einmal selbst „gefaked“ gezeigt, man kann das in diese Richtung lesen, aber explizit gemacht wird der Punkt nicht.)
Wäre es ein vergleichbares Video aus Russland oder von einem amerikanischen MAGA-YouTuber, hätte ich die Auflösungen jedenfalls nicht ohne Weiteres akzeptiert. Das heißt: Die Quelle ist entscheidend – und ebenso der gesamtgesellschaftliche Zusammenhang. Also der Umstand, dass wir in einer freien Gesellschaft leben; etwas, das in Russland nicht der Fall ist und in den USA derzeit stark unter Druck steht.
Das heißt natürlich nicht, dass es bei uns keine Falschmeldungen oder gelegentlich auch Fakes gibt ... Aber ich muss nicht davon ausgehen, dass ich systematisch belogen werde.
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Ja, der Umgang mit Bildern/Videos wird uns durch (ja schwache) KI schwer gemacht; man erkennt z.T. nicht mehr, was echt und was gefälscht ist.
Der Kontext bzw. die Quelle ist sicher ein guter Hinweis bzw. Indiz, nur eben keine Garantie.
Bei Trump und Putin allerdings muss ich schon davon ausgehen, systematisch belogen zu werden; sie verfolgen nur ihre Ziele, gerne mit viel Lügerei.
Der Kontext bzw. die Quelle ist sicher ein guter Hinweis bzw. Indiz, nur eben keine Garantie.
Bei Trump und Putin allerdings muss ich schon davon ausgehen, systematisch belogen zu werden; sie verfolgen nur ihre Ziele, gerne mit viel Lügerei.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 1943
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Der Philosoph Wilhelm Schmid im Interview: "Dass KI für keinerlei Intelligenz steht, für keinerlei menschliches Verständnis, wird sich bald herumsprechen. Dass Autokratien keine Zukunft haben, da sie mit ihrer Wissenschaftsfeindlichkeit die Innovationskraft lahmlegen, wird etwas länger dauern."
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
-
Timberlake
- Beiträge: 3063
- Registriert: Mo 16. Mai 2022, 01:29
- Wohnort: Shangrila 2.0
Bleibt nur zu hoffen, dass sich das auch bald bis Markus Gabriell herumspricht ...
"Und genau das dachte man, werden die nie können. Deswegen hat niemand versucht Kontexte zu modellieren,weil man gedacht hat, Kontexte gehen nicht. Ja. Von Kontext müssen wir die Finger lassen. Wir müssen Urteile, Inferenzen, Wahrheiten, Tatsachen programmieren. Aber Kontexte geht nicht. Nur Menschen können Kontexte verstehen. Das Problem ist, dass das falsch ist. Weil Deep Learning uns gezeigt hat, dass es tatsächlich möglich ist, Kontext verstehen. Die heute gebräuchlichen Alltagssysteme wie ChatGPT paradigmatisch haben ein sogenanntes Kontextfenster. Es liegt, glaube ich, bei 200.000 1000 Token je nach Bezahlschranke, mit der sie da operieren."
Markus Gabriel
Ich denke mal, dass Markus Gabriel in dem Vortrag demonstriert hat, wie man sich über die unterschiedlichsten Quellen hin zu Tatsachen verliert, die keine sind. In diesem Fall, wie an der Überschrift des Vortortages deutlich wird, der Tatsache, dass eine KI emotional sei. Wir demzufolge nur noch zu klären hätten, was das für unser Menschsein bedeutet.Was übrigens um so irritierender ist, dass, wie man es von daher eigentlich erwarten würde, das Wort "emotional" in dem Vortrag gar nicht auftaucht. Zumindest meines Wissens.
"Ja, das heißt, wenn Sie sagen, die KI denkt, die KI spielt Schach, dann sprechen Sie einfach nicht ordentlich Deutsch .. 33:26 "
Markus Gabriel
Insofern ich mich schon frage, wenn er sagt ""Emotionale KI: Was bedeutet sie für unser Menschsein?" er ebenfalls einfach nicht ordentlich Deutsch spricht.
Das würde dann , meiner Meinung nach, allerdigs auch auf Burkart zutreffen, wenn er sagt ..
"Und genau das dachte man, werden die nie können. Deswegen hat niemand versucht Kontexte zu modellieren,weil man gedacht hat, Kontexte gehen nicht. Ja. Von Kontext müssen wir die Finger lassen. Wir müssen Urteile, Inferenzen, Wahrheiten, Tatsachen programmieren. Aber Kontexte geht nicht. Nur Menschen können Kontexte verstehen. Das Problem ist, dass das falsch ist. Weil Deep Learning uns gezeigt hat, dass es tatsächlich möglich ist, Kontext verstehen. Die heute gebräuchlichen Alltagssysteme wie ChatGPT paradigmatisch haben ein sogenanntes Kontextfenster. Es liegt, glaube ich, bei 200.000 1000 Token je nach Bezahlschranke, mit der sie da operieren."
Markus Gabriel
Ich denke mal, dass Markus Gabriel in dem Vortrag demonstriert hat, wie man sich über die unterschiedlichsten Quellen hin zu Tatsachen verliert, die keine sind. In diesem Fall, wie an der Überschrift des Vortortages deutlich wird, der Tatsache, dass eine KI emotional sei. Wir demzufolge nur noch zu klären hätten, was das für unser Menschsein bedeutet.Was übrigens um so irritierender ist, dass, wie man es von daher eigentlich erwarten würde, das Wort "emotional" in dem Vortrag gar nicht auftaucht. Zumindest meines Wissens.
"Ja, das heißt, wenn Sie sagen, die KI denkt, die KI spielt Schach, dann sprechen Sie einfach nicht ordentlich Deutsch .. 33:26 "
Markus Gabriel
Insofern ich mich schon frage, wenn er sagt ""Emotionale KI: Was bedeutet sie für unser Menschsein?" er ebenfalls einfach nicht ordentlich Deutsch spricht.
Das würde dann , meiner Meinung nach, allerdigs auch auf Burkart zutreffen, wenn er sagt ..
Dazu nur mal zur Erinnerung , ein Vorschlag für "ordentliches Deutsch" meinerseits ..
Timberlake hat geschrieben : ↑So 4. Dez 2022, 13:20Wenn wir , wie hier beschrieben ,, anststatt von "künstlicher Intelligenz" von einem "Künstlichern Algorithmus" sprechen , so würde sich übrigens so ganz nebenbei das Thema "Psychlogie" , im Zusammenhang mit Maschinen erledigen. Denn bei einem Auto, dass von einem Algorithmus autonom gesteuert wird , kommt ganz sicher keine Psychologie viel zu kurz. Wenn man hingegen sagt , dass ein Auto "intelligent" autonom gesteuert wird , so ist man zumindest in Versuchung , solch ein Verhalten mit Psychologie in Verbindung zu bringen. Was übrigens nicht zuletzt von dir , mit dem o.g. Zitat, bestätigt wurde. In diesem Zusammenhang sei noch mal auf die folgende , von @ Jörn dankenswerterweise erwähnte Tabelle hingewiesen ..sybok hat geschrieben : ↑So 4. Dez 2022, 12:51Nauplios hatte offenkundig recht, dass die Kulturgeschichte hier zu wenig Beachtung findet. Die andeutungsweise Auseinandersetzung um die Herkunft des Begriffes "KI" selber und seine Entwicklung hat mich irgendwie daran erinnert, dass auch die Psychologie hier viel zu kurz kommt.