sybok hat geschrieben : ↑ So 22. Jan 2023, 11:02
Burkart hat geschrieben : ↑ So 22. Jan 2023, 10:31
Dass man statistisch viel erreicht, ist nicht ganz neu. Z.B. wurde ein Schachprogramm geschaffen, dass in kurzer Zeit (Stunden?) zu einem hervorragend spielenden Programm wurde, durch mAn statischer Analyse von unzähligen Schachpartien.
Das ist doch aber qualitativ eine ganz andere "Baustelle" - zumindest bei einem
ersten, oberflächlichen Blick.
Es ging mir hier nur darum, dass Statistik nichts Neues war/ist. Klar, die Baustelle sieht anders und viel umfangreicher aus, aber ist sie es wirklich so sehr? "Erster, oberflächlicher Blick" könnte schon gut passen.
Bei Schach ist vollständige Information,
Vollständig? Niemand ja das Spiel völlig durchanalysiert, dazu gibt es zu viele Möglichkeiten.
eine abgeschlossene Welt und ein überschaubares Regelsystem gegeben.
Sicher ist Schach eine kleine Welt mit überschaubaren Regeln.
Interessant ist die Frage, welche Welt und Regeln ChatGPT denn so analysiert und aufstellt: Doch die unserer Sprache, oder? Ist diese nicht auch recht abgeschlossen mit mehr oder weniger überschaubaren Regeln?
Burkart hat geschrieben : ↑ So 22. Jan 2023, 10:31
Immerhin entschuldigt es sich manchmal für Fehler, versteht in dem Sinne schon etwas (gleicht also Wissenslemente mit etwas früheren ab und erkennt Fehler), aber das Verstehen hat schnell Grenzen.
Das hast du schon mal erwähnt, dass dir das gefällt. Dann fällst du aber doch genau auf den "ELIZA-Trick" herein

- im Sinne von schmeichle dem User, befriedige seinen latenten Narzissmus und sorge dafür, dass er sich mit sich selbst beschäftigt

. Würde mich nicht wundern, wenn solche Dinge für diese Chat-Version sogar hard-coded wurden.
So kann man es sehen, aber mir ist nicht der "Trick" wichtig, sondern, dass einige Fehler richtig erkannt werden, also dass (auch tempräre) Inhalte gegenüber gestellt und abgeglichen und logisch bewertet werden können, wenn auch nicht immer richtig
Burkart hat geschrieben : ↑ So 22. Jan 2023, 10:31
Klar, ChatGPT soll keine KI sein, dürfte aber von nicht wenigen Leute trotzdem als solche gesehen werden.
Ja, weil es so verdammt gut ist, dass es irgendwo eine Grenze zu kratzen scheint.
Die Grenze ist in unseren Köpfen, bei mir hat sie an keiner Grenze gekratzt. Ich finde es aber interessant, wie solche "Grenzen" verschoben werden, also was inzwischen machbar ist und was nicht.
Manchmal, ein Auge zudrückend und naiv angegangen, könnte man ja tatsächlich fast vermuten, dass das Ding "versteht" was es tut. Was zu diesen ambivalenten Gefühlen führt: Natürlich versteht es nicht, was es tut, aber ist es da wirklich noch weit von entfernt?
Tja, was genau ist "Verstehen" bzw. ab wann akzeptieren wir ein solches? Wieder mal etwas, was unseren Kopf betrifft.
ChatGPT erkennt immerhin teilweise Fehler und "versteht" (statistisch zumindest) meist, was wir von ihm sprachlich wollen.
Aber es versteht halt nicht im tieferen Sinne, also z.B. bzgl. der realen Welt oder einem komplexen mathematischen Modell, wie man an seinen Fehlern sieht.
Future06's Frage wird ganz konkret ernst und deutet bereits den Schmerz an: Machen wir bei all dem, wofür wir uns so grossartig halten, letztlich was anderes als elaborierte Statistik?
Wie gesagt: Jein. Wir machen Stastistik, aber bauen auf ihr unsere Logik auf, in dem wir mit der realen Welt und unseren Bedüfnissen u.ä. abgleichen. Insofern sehe ich da einen erheblichen Unterschied, sodass mir kein Schmerz bereitet wird. (Wenn Schmerz, dann nur, dass ChatGPT zu unkritsch gesehen und missbraucht wird.)
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.