Künstliche Intelligenz
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
(Es gibt dafür eigentlich nur einen Grund: Nämlich etwas als was erscheinen zu lassen was es nicht ist. Das ist ein Etikettenschwindel)
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Achso, hierzu noch was.
Du meinst eigentlich gar nicht die Farbe Blau, sondern was Du meinst sind Farbcodierungen. Wellenlängen.
Du meinst etwas Physikalisches.
Blau ist aber viel mehr als das. Das wirst Du merken, wenn Du dir mal in Ruhe und gewissenhaft ansiehst, wie wir Menschen diesen Begriff verwenden, wie wir Blau erleben und was Blau für uns bedeutet.
Du kannst nicht einfach einen Begriff nehmen, ihn von allem befreien was er bedeutet und ihn dann immer noch so nennen.
Wenn Du aus dem Blau alles weg nimmst und nichts mehr übrig lässt ausser das was die Maschine gerade eben noch erkennen kann, dann hast Du Blau auf eine technische, rudimentäre Ebene heruntergebrochen in der das Meiste was den Begriff ausmacht (und ja, es ist nun mal ein menschlicher Begriff, was denn sonst?) gar nicht vorkommt.
Das Gleiche macht Burkart mit dem Intelligenzbegriff. Er radiert einfach alles aus, was Maschinen aufgrund ihren Konstruiertheit (also prinzipbedingt) nicht verstehen können, reduziert den Begriff auf eine primitive, rudimentäre Form dessen was er eigentlich ist um dann sagen zu können: "Siehste, Maschinen sind intelligent." Anstatt also Maschinen an den Intelligenzbegriff anzunähern, nähert er den Intelligenzbegriff an Maschinen an, behauptet aber das Gegenteil (wir machen Maschinen intelligent).
Wenn Dir das nicht komisch vorkommt... tja, dann weiß ich es auch nicht. Aber ich falle auf diesen Etikettenschwindel nicht herein. Auf keinen Fall.
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
Natürlich für mich Okay. Bin aber natürlich auch hochgradig skeptisch, wenn wir bei dem Bild von einer Simulation der Intelligenz abweichen.Burkart hat geschrieben : ↑Fr 2. Sep 2022, 07:54Warum soll denn ein Programm überhaupt korrigiert werden, in welcher Hinsicht bzw. warum/wofür?Steinmetz hat geschrieben : ↑Fr 2. Sep 2022, 00:58Ich bin noch auf den Sprung in Richtung starker KI aus. Wenn nicht ein Programm, ein Programm korrigiert dann muss es ein Mensch machen.Burkart hat geschrieben : ↑Do 1. Sep 2022, 19:43
Wofür brauchst es unendlich viele Programme für dich? Bzw. warum soll es beliebig viele untergeordnete Programm-Ebenen geben?
Grundsätzlich kann es übrigens Programme geben, die ihren eigenen Code verändern können (Viren u.ä. tun das z.T. in gewisser Weise), aber heutzutage lässt man das üblicherweise nicht mehr zu, auch weil es leicht unübersichtlich werden kann. Beim Krieg der Kerne geht ist darum in gewissem Sinne aber.
Und richtig, ein Abstürzrisiko besteht beim Ändern des eigenen Codes mehr oder weniger.
Oder siehst du Lernen schon als ein Korrigieren an? Das kann innerhalb eines Programmes selbst geschehen.
Mir ist nicht klar, wofür du diese Veränderbarkeit möchtest.Wenn die starke KI komplett autonom sein will würde das nach meinem bisherigen Wissensstand auf eben diese unendliche Menge an Programmen hinauslaufen. Da wir sonst ein Programm hatten, welches nicht veränderbar durch andere Programme wäre.
Genauer können sie sich klonen und dabei verändern.Wenn du aber sagst, dass es am Beispiel von Computerviren möglich ist, dann ist mein Gedankengang wohl hinfällig.
Das Problem ist, was eine Persönlichkeit sein soll. Wenn es ein künstlicher Mensch sein soll, hast du recht.Wie würdest du nun eine starke KI definieren?
Ich denke da gehen die Meinungen auch stark auseinander.
Ich glaube herauszulesen, dass du nicht erwartest, dass wir eine künstliche Persönlichkeit erschaffen können.
Starke KI kann auch wirklich unterschiedlich ausgefasst werden. Hier meine Punkte:
- Notwendige Grundlage ist immer Software und ggf. Computer-Hardware.
- Der Gegensatz ist schwache KI, die in i.a. festprogrammierter Software (z.B. Expertensysteme) besteht, die es heute schon gibt.
- Starke KI ist das Ziel zu einer Computer-/Roboter-Technologie, die ähnlich gut intelligent ist bzw. sein kann wie Menschen oder auch besser.
- Mein K.-Intelligenzbegriff bezieht sich auf logische, praktische Intelligenz, also das Lösen von solchen Aufgaben. Er soll nicht alles Menschliche nachbilden, z.B. soll KI nicht körperlichen Nöte wie (unabschaltbare) Schmerzen haben (die sich nur negativ auswirken), soll nicht etwas wie eine Todesangst haben.
- Auf dem Weg zur starken KI ist mir jeder Aspekt recht, der Intelligenz irgendwie ausbaut. So ist Lernen auf jeden Fall wichtig, aber auch Verstehen u.a.; was man darunter jeweils bei KI versteht, sollte im Detail dann beschrieben werden.
- Letztlich hoffe ich auf eine alternative Intelligenz zum Menschen, die einige seiner Nachteile nicht hat. Dabei sollte die KI aber ein Diener des Menschen sein/bleiben.
- Ach ja, und KI sollte nicht (nur) als Simulation von Intelligenz angesehen werden, sondern als deren reale Nachbildung (in gewissen Aspekten halt), denn sie soll eben auch Aufgaben in der Welt real lösen können und sei es nur z.B. als Roboter von A nach B zu kommen und dabei ggf. Hindernisse zu umgehen.
Soweit für dich ok? Bzw. es ist eine Diskussionsgrundlage halt.
Du fragtest, warum ich die Idee hatte, eine Starke KI müsste ihren eigenen Code ändern können.
Derzeit verstehen wir KI als Expertensysteme. Sie werden in dem was sie tun immer genauer, allerdings nur auf dem eigenen Gebiet und dem jeweils eigenem Datensatz. Ohne eigene Anpassungen währen Transferleistungen zu anderen Expertengebieten denke ich unüberwindbar. Vielleicht befinde ich mich da aber auch auf dem Holzweg.
Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Änderungen eines Programms sind in der Laufzeit (also während das Programm ausgeführt wird) nicht möglich.Steinmetz hat geschrieben : ↑Fr 2. Sep 2022, 12:08Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
Was aber geht ist veränderte Kopien des Codes zu erstellen, den ursprünglichen Prozess zu beenden und dann die veränderten Kopien zu starten.
Das machen Programme heute eigentlich dauernd, z.B. immer dann wenn es Updates gibt.
Nur: Die inhaltlichen Veränderungen werden nicht von der Maschine selbst erdacht, sondern da sitzt ein menschlicher Programmierer, der den Code anpasst und die Maschine dann anweist sich upzudaten.
Das hat mit der Idee, dass die Maschine ihre eigenen Fehler erkennt und dann auch selbsttätig korrigiert nichts zu tun.
Das Problembewusstsein (ah, da ist ein Fehler im Code!) liegt ganz und gar beim Menschen. Ebenso die Lösung.
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
Selbstverständlich kann ein ausgeführtes Programm die nächsten auszuführenden Codestellen verändern (man orientiere sich bitte nicht an irgendwelchen Witzsprachen , sondern an den Möglichkeiten der CPU).
Es gibt Programme, die nur aus einem Anfangscode bestehen, den restlichen Code aus den geladenen Daten auspacken/zusammenbauen und dann anspringen (kein Neustart des Programms notwendig).
Über eine einzige Anweisung, kann man die CPU veranlassen die unmittelbar nächste Codestelle abzuändern, ausgeführt wird sie ja sowieso demnächst, da sie die nächste Anweisung ist.
Es gibt Programme, die nur aus einem Anfangscode bestehen, den restlichen Code aus den geladenen Daten auspacken/zusammenbauen und dann anspringen (kein Neustart des Programms notwendig).
Über eine einzige Anweisung, kann man die CPU veranlassen die unmittelbar nächste Codestelle abzuändern, ausgeführt wird sie ja sowieso demnächst, da sie die nächste Anweisung ist.
Stellen wir uns ein intelligentes selbstfahrendes Auto vor. Dies muss aufgrund dessen, was es sieht, Entscheidungen treffen, z.B. ob es bremsen oder ausweichen muss. Dies betrifft also reale Entscheidungen mit realen Konsequenzen, nicht simulierte in einer Spielzeugwelt oder so.Steinmetz hat geschrieben : ↑Fr 2. Sep 2022, 12:08Natürlich für mich Okay. Bin aber natürlich auch hochgradig skeptisch, wenn wir bei dem Bild von einer Simulation der Intelligenz abweichen.Burkart hat geschrieben : ↑Fr 2. Sep 2022, 07:54Warum soll denn ein Programm überhaupt korrigiert werden, in welcher Hinsicht bzw. warum/wofür?
Oder siehst du Lernen schon als ein Korrigieren an? Das kann innerhalb eines Programmes selbst geschehen.
Mir ist nicht klar, wofür du diese Veränderbarkeit möchtest.Wenn die starke KI komplett autonom sein will würde das nach meinem bisherigen Wissensstand auf eben diese unendliche Menge an Programmen hinauslaufen. Da wir sonst ein Programm hatten, welches nicht veränderbar durch andere Programme wäre.
Genauer können sie sich klonen und dabei verändern.Wenn du aber sagst, dass es am Beispiel von Computerviren möglich ist, dann ist mein Gedankengang wohl hinfällig.
Das Problem ist, was eine Persönlichkeit sein soll. Wenn es ein künstlicher Mensch sein soll, hast du recht.Wie würdest du nun eine starke KI definieren?
Ich denke da gehen die Meinungen auch stark auseinander.
Ich glaube herauszulesen, dass du nicht erwartest, dass wir eine künstliche Persönlichkeit erschaffen können.
Starke KI kann auch wirklich unterschiedlich ausgefasst werden. Hier meine Punkte:
- Notwendige Grundlage ist immer Software und ggf. Computer-Hardware.
- Der Gegensatz ist schwache KI, die in i.a. festprogrammierter Software (z.B. Expertensysteme) besteht, die es heute schon gibt.
- Starke KI ist das Ziel zu einer Computer-/Roboter-Technologie, die ähnlich gut intelligent ist bzw. sein kann wie Menschen oder auch besser.
- Mein K.-Intelligenzbegriff bezieht sich auf logische, praktische Intelligenz, also das Lösen von solchen Aufgaben. Er soll nicht alles Menschliche nachbilden, z.B. soll KI nicht körperlichen Nöte wie (unabschaltbare) Schmerzen haben (die sich nur negativ auswirken), soll nicht etwas wie eine Todesangst haben.
- Auf dem Weg zur starken KI ist mir jeder Aspekt recht, der Intelligenz irgendwie ausbaut. So ist Lernen auf jeden Fall wichtig, aber auch Verstehen u.a.; was man darunter jeweils bei KI versteht, sollte im Detail dann beschrieben werden.
- Letztlich hoffe ich auf eine alternative Intelligenz zum Menschen, die einige seiner Nachteile nicht hat. Dabei sollte die KI aber ein Diener des Menschen sein/bleiben.
- Ach ja, und KI sollte nicht (nur) als Simulation von Intelligenz angesehen werden, sondern als deren reale Nachbildung (in gewissen Aspekten halt), denn sie soll eben auch Aufgaben in der Welt real lösen können und sei es nur z.B. als Roboter von A nach B zu kommen und dabei ggf. Hindernisse zu umgehen.
Soweit für dich ok? Bzw. es ist eine Diskussionsgrundlage halt.
Richtig, so ist das bei Expertensystemen i.a.Du fragtest, warum ich die Idee hatte, eine Starke KI müsste ihren eigenen Code ändern können.
Derzeit verstehen wir KI als Expertensysteme. Sie werden in dem was sie tun immer genauer, allerdings nur auf dem eigenen Gebiet und dem jeweils eigenem Datensatz.
Meinst du, dass KI mit eigenen Anpassungen andere Gebiete erschließt? Ganz ist mir nicht klar, ob du darauf hinaus willst.Ohne eigene Anpassungen währen Transferleistungen zu anderen Expertengebieten denke ich unüberwindbar. Vielleicht befinde ich mich da aber auch auf dem Holzweg.
Also, von Expertensystemen erwarte ich sowas nicht.
Für eine allgemeinere KI werden dagegen grundlegendere Aspekte benötigt, eine KI, die gewissermaßen abstrahieren kann anhand des Erkennens von Gemeinsamkeiten.
Alles völlig ok, schauen wir mal, was hier herausarbeiten können. Das ganze Gebiet ist ja nun auch nicht einfach und klar, sonst hätten wir allgemeinere KI schon (mehr).Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Natürlich würde eine simulierte Intelligenz , welche Entscheidungen trifft auf die reale Welt einwirken, wenn die Entscheidungen umgesetzt werden. Das etwas, wenn es getan wird auch passiert, fällt schwer zu wiederlegen. Wenn ich eine Münze werfe um zu entscheiden ob ich links oder rechts gehe dann geschieht dies auch wirklich. KI ist eine großartige Sache und es ist erstaunlich wieviel Mathematik doch bewirken kann. Ich kann aber nicht anders als es als ein Modell der Intelligenz zu betrachten, mit dem wir spielen und immer weiter ausbauen.Burkart hat geschrieben : ↑Fr 2. Sep 2022, 22:09Stellen wir uns ein intelligentes selbstfahrendes Auto vor. Dies muss aufgrund dessen, was es sieht, Entscheidungen treffen, z.B. ob es bremsen oder ausweichen muss. Dies betrifft also reale Entscheidungen mit realen Konsequenzen, nicht simulierte in einer Spielzeugwelt oder so.Steinmetz hat geschrieben : ↑Fr 2. Sep 2022, 12:08Natürlich für mich Okay. Bin aber natürlich auch hochgradig skeptisch, wenn wir bei dem Bild von einer Simulation der Intelligenz abweichen.Burkart hat geschrieben : ↑Fr 2. Sep 2022, 07:54
Warum soll denn ein Programm überhaupt korrigiert werden, in welcher Hinsicht bzw. warum/wofür?
Oder siehst du Lernen schon als ein Korrigieren an? Das kann innerhalb eines Programmes selbst geschehen.
Mir ist nicht klar, wofür du diese Veränderbarkeit möchtest.
Genauer können sie sich klonen und dabei verändern.
Das Problem ist, was eine Persönlichkeit sein soll. Wenn es ein künstlicher Mensch sein soll, hast du recht.
Starke KI kann auch wirklich unterschiedlich ausgefasst werden. Hier meine Punkte:
- Notwendige Grundlage ist immer Software und ggf. Computer-Hardware.
- Der Gegensatz ist schwache KI, die in i.a. festprogrammierter Software (z.B. Expertensysteme) besteht, die es heute schon gibt.
- Starke KI ist das Ziel zu einer Computer-/Roboter-Technologie, die ähnlich gut intelligent ist bzw. sein kann wie Menschen oder auch besser.
- Mein K.-Intelligenzbegriff bezieht sich auf logische, praktische Intelligenz, also das Lösen von solchen Aufgaben. Er soll nicht alles Menschliche nachbilden, z.B. soll KI nicht körperlichen Nöte wie (unabschaltbare) Schmerzen haben (die sich nur negativ auswirken), soll nicht etwas wie eine Todesangst haben.
- Auf dem Weg zur starken KI ist mir jeder Aspekt recht, der Intelligenz irgendwie ausbaut. So ist Lernen auf jeden Fall wichtig, aber auch Verstehen u.a.; was man darunter jeweils bei KI versteht, sollte im Detail dann beschrieben werden.
- Letztlich hoffe ich auf eine alternative Intelligenz zum Menschen, die einige seiner Nachteile nicht hat. Dabei sollte die KI aber ein Diener des Menschen sein/bleiben.
- Ach ja, und KI sollte nicht (nur) als Simulation von Intelligenz angesehen werden, sondern als deren reale Nachbildung (in gewissen Aspekten halt), denn sie soll eben auch Aufgaben in der Welt real lösen können und sei es nur z.B. als Roboter von A nach B zu kommen und dabei ggf. Hindernisse zu umgehen.
Soweit für dich ok? Bzw. es ist eine Diskussionsgrundlage halt.
Richtig, so ist das bei Expertensystemen i.a.Du fragtest, warum ich die Idee hatte, eine Starke KI müsste ihren eigenen Code ändern können.
Derzeit verstehen wir KI als Expertensysteme. Sie werden in dem was sie tun immer genauer, allerdings nur auf dem eigenen Gebiet und dem jeweils eigenem Datensatz.
Meinst du, dass KI mit eigenen Anpassungen andere Gebiete erschließt? Ganz ist mir nicht klar, ob du darauf hinaus willst.Ohne eigene Anpassungen währen Transferleistungen zu anderen Expertengebieten denke ich unüberwindbar. Vielleicht befinde ich mich da aber auch auf dem Holzweg.
Also, von Expertensystemen erwarte ich sowas nicht.
Für eine allgemeinere KI werden dagegen grundlegendere Aspekte benötigt, eine KI, die gewissermaßen abstrahieren kann anhand des Erkennens von Gemeinsamkeiten.
Alles völlig ok, schauen wir mal, was hier herausarbeiten können. Das ganze Gebiet ist ja nun auch nicht einfach und klar, sonst hätten wir allgemeinere KI schon (mehr).Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
Wird eine starke KI dann als solches Entwickelt, oder ist eher der Gedanke, dass es aus dem Entwicklungsprozess der Expertensysteme mittels maschinellen Lernen entsteht?
Mir scheint, dass der Begriff der Simulation hier ein Problem ist.Steinmetz hat geschrieben : ↑Sa 3. Sep 2022, 00:39Natürlich würde eine simulierte Intelligenz , welche Entscheidungen trifft auf die reale Welt einwirken, wenn die Entscheidungen umgesetzt werden. Das etwas, wenn es getan wird auch passiert, fällt schwer zu wiederlegen. Wenn ich eine Münze werfe um zu entscheiden ob ich links oder rechts gehe dann geschieht dies auch wirklich.Burkart hat geschrieben : ↑Fr 2. Sep 2022, 22:09Stellen wir uns ein intelligentes selbstfahrendes Auto vor. Dies muss aufgrund dessen, was es sieht, Entscheidungen treffen, z.B. ob es bremsen oder ausweichen muss. Dies betrifft also reale Entscheidungen mit realen Konsequenzen, nicht simulierte in einer Spielzeugwelt oder so.
Richtig, so ist das bei Expertensystemen i.a.Du fragtest, warum ich die Idee hatte, eine Starke KI müsste ihren eigenen Code ändern können.
Derzeit verstehen wir KI als Expertensysteme. Sie werden in dem was sie tun immer genauer, allerdings nur auf dem eigenen Gebiet und dem jeweils eigenem Datensatz.
Meinst du, dass KI mit eigenen Anpassungen andere Gebiete erschließt? Ganz ist mir nicht klar, ob du darauf hinaus willst.Ohne eigene Anpassungen währen Transferleistungen zu anderen Expertengebieten denke ich unüberwindbar. Vielleicht befinde ich mich da aber auch auf dem Holzweg.
Also, von Expertensystemen erwarte ich sowas nicht.
Für eine allgemeinere KI werden dagegen grundlegendere Aspekte benötigt, eine KI, die gewissermaßen abstrahieren kann anhand des Erkennens von Gemeinsamkeiten.
Alles völlig ok, schauen wir mal, was hier herausarbeiten können. Das ganze Gebiet ist ja nun auch nicht einfach und klar, sonst hätten wir allgemeinere KI schon (mehr).Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
Wenn man z.B. einen Flug simuliert, gibt es kein reales Flugzeug in der realen Welt. Es ist ein anderer Punkt, dass man als Mensch durch eine Simulation etwas lernt und in der realen Welt umsetzt.
Wenn ein selbstfahrendes Auto eine Entscheidung trifft, geschieht dies nicht in einer simulierten Welt, sondern in der realen. Das Auto gibt die Entscheidung auch nicht erst an einen Menschen weiter, sondern bremst in der realen Welt selbst o.ä. Insofern nutzt es diesen Aspekt der Intelligenz selbst zum Bremsen.
Stimmt, es ist ein Modell von Intelligenz, das wir ausbauen. Und dieses implementieren wir dann jeweils als eine KI.KI ist eine großartige Sache und es ist erstaunlich wieviel Mathematik doch bewirken kann. Ich kann aber nicht anders als es als ein Modell der Intelligenz zu betrachten, mit dem wir spielen und immer weiter ausbauen.
Ich bin nicht sicher, ob ich dich richtig verstehe. Maschinelles Lernen ist ein Aspekt bzw. eine Fähigkeit einer KI selbst, nicht der Entwicklungsprozess gen starker KI.Wird eine starke KI dann als solches Entwickelt, oder ist eher der Gedanke, dass es aus dem Entwicklungsprozess der Expertensysteme mittels maschinellen Lernen entsteht?
Ansonsten scheint mir, dass normale Expertensysteme recht spezialisierte Systeme sind, die direkt mit Wissen bzw. Expertise explizit ausgestattet werden und nicht (groß) maschinell lernen. Ein solches spezielles System direkt auf ganz andere Bereiche auszubauen scheint mir schwierig.
Insofern sehe ich es eher so, das starke KI grundlegend als solche entwickelt werden muss, u.a. um nicht so eingeschränkt zu sein. Z.B. soll sie das (maschinelle) Lernen prinzipiell möglichst allgemein anwenden können und nicht nur in einer Domäne (einem speziellen Bereich). Das macht sie anfangs natürlich umständlicher und ihr ist mehr grundlegend beizubringen, auch ggf. gezielter ("Lernen mittels (speziellem KI-)Lehrer"). Na ja, Kinder gehen ja auch zur Schule, warum nicht ähnlich auch eine KI, auch wenn letztere vielleicht gezielter geschult werden muss.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Ich finde eher dass die Begriffe 'Entscheidung', 'Verhalten' und 'Autonom' hier problematisch sind.
Ich finde nämlich, dass die Maschine hier zu sehr vermenschlicht wird.
Es wurde das Beispiel mit dem Fahrzeug genannt.
Das Fahrzeug 'erkennt' ein Hindernis und weicht dann aus.
Wenn Hindernis dann Aktion.
Das gleiche macht eine Lichtschranke am Fahrstuhl. Wenn Licht unterbrochen (Hindernis in der Tür) dann Aktion (Tür auf).
Wieso wird das Fahrzeug jetzt als intelligent angesehen, der Fahrstuhl aber nicht, obwohl sie genau das selbe machen, also gemäß ihrer Programmierung agieren?
Wieso erkennt das Fahrzeug etwas, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen (Signal auswerten und entsprechend agieren)?
Wieso hat das Fahrzeug ein Verhalten, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen?
Wieso trifft das Fahrzeug Entscheidungen, der Fahrstuhl aber nicht, obwohl sie beide auf eine Situation reagieren?
Wieso meint man im Fahrzeug wäre eine Intelligenz am Werk im Fahrstuhl aber nicht?
Wie wird aus einem programmierten Ablauf ein autonomes Verhalten?
Weil das Fahrzeug mehrere Verhaltensoptionen hat, aus denen es wählen muss?
Und wo kommen diese Optionen her? Die sind doch auch Teil der Programmierung. Das Fahrzeug wählt ja nur aus Optionen die ihm vorher per Programmierung gegeben werden.
Ich finde nämlich, dass die Maschine hier zu sehr vermenschlicht wird.
Es wurde das Beispiel mit dem Fahrzeug genannt.
Das Fahrzeug 'erkennt' ein Hindernis und weicht dann aus.
Wenn Hindernis dann Aktion.
Das gleiche macht eine Lichtschranke am Fahrstuhl. Wenn Licht unterbrochen (Hindernis in der Tür) dann Aktion (Tür auf).
Wieso wird das Fahrzeug jetzt als intelligent angesehen, der Fahrstuhl aber nicht, obwohl sie genau das selbe machen, also gemäß ihrer Programmierung agieren?
Wieso erkennt das Fahrzeug etwas, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen (Signal auswerten und entsprechend agieren)?
Wieso hat das Fahrzeug ein Verhalten, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen?
Wieso trifft das Fahrzeug Entscheidungen, der Fahrstuhl aber nicht, obwohl sie beide auf eine Situation reagieren?
Wieso meint man im Fahrzeug wäre eine Intelligenz am Werk im Fahrstuhl aber nicht?
Wie wird aus einem programmierten Ablauf ein autonomes Verhalten?
Weil das Fahrzeug mehrere Verhaltensoptionen hat, aus denen es wählen muss?
Und wo kommen diese Optionen her? Die sind doch auch Teil der Programmierung. Das Fahrzeug wählt ja nur aus Optionen die ihm vorher per Programmierung gegeben werden.
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
Wenn, erscheinen dir vielleicht die Begriffe zu sehr vermenschtlich; ein selbstfahrendes Auto ist natürlich absolut kein Mensch. Aber die Begriffe benutzen wir nun mal, weil diese am besten aussagen, was gemeint ist, ob Mensch oder Maschine.NaWennDuMeinst hat geschrieben : ↑Sa 3. Sep 2022, 10:13Ich finde eher dass die Begriffe 'Entscheidung', 'Verhalten' und 'Autonom' hier problematisch sind.
Ich finde nämlich, dass die Maschine hier zu sehr vermenschlicht wird.
Ich sehe den Unterschied in der Komplexität. Ein autonomes Auto hat sehr viel zu 'können'.Es wurde das Beispiel mit dem Fahrzeug genannt.
Das Fahrzeug 'erkennt' ein Hindernis und weicht dann aus.
Wenn Hindernis dann Aktion.
Das gleiche macht eine Lichtschranke am Fahrstuhl. Wenn Licht unterbrochen (Hindernis in der Tür) dann Aktion (Tür auf).
Wieso wird das Fahrzeug jetzt als intelligent angesehen, der Fahrstuhl aber nicht, obwohl sie genau das selbe machen, also gemäß ihrer Programmierung agieren?
Wieso erkennt das Fahrzeug etwas, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen (Signal auswerten und entsprechend agieren)?
Wieso hat das Fahrzeug ein Verhalten, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen?
Wieso trifft das Fahrzeug Entscheidungen, der Fahrstuhl aber nicht, obwohl sie beide auf eine Situation reagieren?
Wieso meint man im Fahrzeug wäre eine Intelligenz am Werk im Fahrstuhl aber nicht?
So weiß ich z.B. nicht, ob eine Ameise (gegenüber dem Menschen) für dich immer noch intelligent ist, oder eine Amöbe.
Das Fahrzeug ist auch nur schwach intelligent, insofern es nicht dazulernen kann (nehme ich hier mal an); insofern ist alles direkt Teil sener Programmierung. Bei selbstlernenden Systemen wäre es schon was anderes.Wie wird aus einem programmierten Ablauf ein autonomes Verhalten?
Weil das Fahrzeug mehrere Verhaltensoptionen hat, aus denen es wählen muss?
Und wo kommen diese Optionen her? Die sind doch auch Teil der Programmierung. Das Fahrzeug wählt ja nur aus Optionen die ihm vorher per Programmierung gegeben werden.
Autonom ist das Verhalten, weil es nicht manuell gesteuert wird, sondern eben programmiert fährt ohne weiteren menschlichen Eingriff.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Ok. Wo liegt die Schwelle? Wie viel Komplexität braucht es?
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
Warum Schwelle? Intelligenz hat mAn auch keine Schwelle.NaWennDuMeinst hat geschrieben : ↑Sa 3. Sep 2022, 11:55Ok. Wo liegt die Schwelle? Wie viel Komplexität braucht es?
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Du sagtest der Unterschied zwischen dem Auto und dem Fahrstuhl liege in der Komplexität.Burkart hat geschrieben : ↑Sa 3. Sep 2022, 12:01Warum Schwelle? Intelligenz hat mAn auch keine Schwelle.NaWennDuMeinst hat geschrieben : ↑Sa 3. Sep 2022, 11:55Ok. Wo liegt die Schwelle? Wie viel Komplexität braucht es?
Also ab wie viel Komplexität geht das los?
Ich will ja nur wissen wieso wir ein Fahrzeug das irgendwas "entscheidet" intelligent nennen, einen Fahrstuhl der etwas entscheidet aber nicht.
Du sagst ja das liege daran, dass das Fahrzeug viel komplexer ist. Also sagst Du ja je komplexer desto eher neigen wir dazu etwas intelligent zu nennen.
Aber ab wann ist denn genug Komplexität erreicht dass wir den Unterscheid machen?
Wenn der Fahrstuhl nun nicht eine sondern fünf Entscheidungen treffen müsste, wäre er dann intelligent?
Oder wie viele müssen es sein?
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
Auch hier: Warum "ab wie viel"? Es gibt mehr oder weniger Komplexität, mehr oder weniger Intelligenz usw.NaWennDuMeinst hat geschrieben : ↑Sa 3. Sep 2022, 12:17Du sagtest der Unterschied zwischen dem Auto und dem Fahrstuhl liege in der Komplexität.Burkart hat geschrieben : ↑Sa 3. Sep 2022, 12:01Warum Schwelle? Intelligenz hat mAn auch keine Schwelle.NaWennDuMeinst hat geschrieben : ↑Sa 3. Sep 2022, 11:55
Ok. Wo liegt die Schwelle? Wie viel Komplexität braucht es?
Also ab wie viel Komplexität geht das los?
Ich will ja nur wissen wieso wir ein Fahrzeug das irgendwas "entscheidet" intelligent nennen, einen Fahrstuhl der etwas entscheidet aber nicht.
Du sagst ja das liege daran, dass das Fahrzeug viel komplexer ist. Also sagst Du ja je komplexer desto eher neigen wir dazu etwas intelligent zu nennen.
Aber ab wann ist denn genug Komplexität erreicht dass wir den Unterscheid machen?
Wenn der Fahrstuhl nun nicht eine sondern fünf Entscheidungen treffen müsste, wäre er dann intelligent?
Oder wie viele müssen es sein?
Wann "man" etwas als "intelligent" (oder komplex) bezeichnet, dürfte subjektiv, u.U. auch situativ verschieden sein. Bei Fahrstühlen dürfte es nicht viele Menschen dafür geben, bei autonom fahrenden Autos sicherlich mehr.
Immerhin finde ich Fahrstühle netter, die dort stehen, wo man/Leute voraussichtlich eher reinwollen. So könnte man hier mehr Intelligenz reinstecken (und auf sie "abfärben"), wenn man möchte; wie weit sich das lohnt (z.B. wegen Stromverbrauch), ist natürlich die Frage; z.B. wären Bewegungsdetektoren in Fluren vor Fahrstühlen denkbar oder so, um sie intelligenter zu machen.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Verstehe ich nicht. Du sagst Komplexität ist der Faktor kannst mir aber nicht sagen ab wann genug Komplexität vorhanden ist damit man etwas als intelligent bezeichnen kann.Burkart hat geschrieben : ↑Sa 3. Sep 2022, 12:47Auch hier: Warum "ab wie viel"? Es gibt mehr oder weniger Komplexität, mehr oder weniger Intelligenz usw.NaWennDuMeinst hat geschrieben : ↑Sa 3. Sep 2022, 12:17Du sagtest der Unterschied zwischen dem Auto und dem Fahrstuhl liege in der Komplexität.
Also ab wie viel Komplexität geht das los?
Ich will ja nur wissen wieso wir ein Fahrzeug das irgendwas "entscheidet" intelligent nennen, einen Fahrstuhl der etwas entscheidet aber nicht.
Du sagst ja das liege daran, dass das Fahrzeug viel komplexer ist. Also sagst Du ja je komplexer desto eher neigen wir dazu etwas intelligent zu nennen.
Aber ab wann ist denn genug Komplexität erreicht dass wir den Unterscheid machen?
Wenn der Fahrstuhl nun nicht eine sondern fünf Entscheidungen treffen müsste, wäre er dann intelligent?
Oder wie viele müssen es sein?
Wann "man" etwas als "intelligent" (oder komplex) bezeichnet, dürfte subjektiv, u.U. auch situativ verschieden sein. Bei Fahrstühlen dürfte es nicht viele Menschen dafür geben, bei autonom fahrenden Autos sicherlich mehr.
Immerhin finde ich Fahrstühle netter, die dort stehen, wo man/Leute voraussichtlich eher reinwollen. So könnte man hier mehr Intelligenz reinstecken (und auf sie "abfärben"), wenn man möchte; wie weit sich das lohnt (z.B. wegen Stromverbrauch), ist natürlich die Frage; z.B. wären Bewegungsdetektoren in Fluren vor Fahrstühlen denkbar oder so, um sie intelligenter zu machen.
Ok. Intelligent ist wenn irgendwer das intelligent findet?, nicht wenn es wirklich intelligent ist?subjektiv, u.U. auch situativ
Wenn ich also finde, dass eine Saftpresse intelligent ist, dann ist sie das, und wenn ich finde das Frau Baerbock nicht sehr intelligent ist, dann ist sie das nicht?
Und wenn jetzt Du es genau umgekehrt sagst, dann ist beides richtig (obwohl widersprüchlich) oder beides falsch? Oder nur eines richtig?
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
-
- Beiträge: 2409
- Registriert: Mo 16. Mai 2022, 01:29
- Wohnort: Shangrila 2.0
Respekt .. zumindest einer , der meinen Beitrag dazu , zu Kenntnis genommen hat . Dazu nur mal zur Erinnerung ..Jörn Budesheim hat geschrieben : ↑Fr 2. Sep 2022, 08:41Und wenn man die Unterschiede anerkennt, welchen Grund hat man dann noch, dieselben Begriffe anwenden zu wollen? Das verstehe ich einfach nicht.
Timberlake hat geschrieben : ↑Do 1. Sep 2022, 17:03. Wenn man allerdings vom Farben "sehen" spricht , so bewegt man sich damit bezüglich einer KI unwillkürlich auf dem zu , was Luhmann „Kategorienfehler“ nennt. Sehen können.. kategorial ..nur Lebewesen! Leider haben wir beim Lernen noch kein Begriff dafür , wie man ihn , wie beim Sehen durch registrieren , sinnvoll ersetzen könnte. Das ist m.E. die eigentliche Problematik , bei der Diskussion um die KI. Denn wenn man über das Lernen einer KI spricht, ist man unwillkürlich bei den Lebewesen.
-
- Beiträge: 2409
- Registriert: Mo 16. Mai 2022, 01:29
- Wohnort: Shangrila 2.0
Dazu , und zwar zu dem , wozu Intelligenz. kategorial .. im eigentlichen Sinne gehört , nur noch mal zur Erinnerung ..NaWennDuMeinst hat geschrieben : ↑Sa 3. Sep 2022, 16:00
Ok. Intelligent ist wenn irgendwer das intelligent findet?, nicht wenn es wirklich intelligent ist?
Wenn ich also finde, dass eine Saftpresse intelligent ist, dann ist sie das, und wenn ich finde das Frau Baerbock nicht sehr intelligent ist, dann ist sie das nicht?
Und wenn jetzt Du es genau umgekehrt sagst, dann ist beides richtig (obwohl widersprüchlich) oder beides falsch? Oder nur eines richtig?
Wenn man den Begriff Intelligenz auf Computer und damit auf etwas anwendet, was nicht lebt, so liefert man übrigens in unzähligen Beiträgen das ab , von dem wir bei Burkart und NaWennDuMeinst derzeit Zeuge werden .. eine unendliche Geschichte, ..Timberlake hat geschrieben : ↑Do 1. Sep 2022, 18:25danke , dass du mit Intelligenz , die Liste der problematischen Begriffe , im Zusammenhang mit der KI ergänzt hast ..NaWennDuMeinst hat geschrieben : ↑Do 1. Sep 2022, 18:14Die Maschine soll nicht intelligent sein um intelligent sein (was soll der Quatsch? D.
Können doch . kategorial . nur Lebewesen Intelligenz haben.Timberlake hat geschrieben : ↑Do 1. Sep 2022, 17:03Jörn Budesheim hat geschrieben : ↑Do 1. Sep 2022, 16:55Ich versuche es noch mal auszudrücken. Das Bewusstsein hat in der Regel (zumindest) zwei notwendige Aspekte. Man greift damit auf etwas zu (da ist ein Tisch) und es ist eine Form von Erleben. Zugriff allein ist noch kein Bewusstsein, denn es fehlt dann der Erlebens-Aspekt. Was ist dein Einwand dagegen?
.. dagegen habe ich kein Einwand. Für den Fall , dass das so gemeint sein sollte. Für Maschinen, die gleichfalls auf ein Tisch zu greifen , denen fehlt tatsächlich der Erlebens-Aspekt. Zugriff allein bzw. das Registrieren von Farben allein , ist deshalb noch kein Bewusstsein. Wenn man allerdings vom Farben "sehen" spricht , so bewegt man sich damit bezüglich einer KI unwillkürlich auf dem zu , was Luhmann „Kategorienfehler“ nennt. Sehen können.. kategorial ..nur Lebewesen! Leider haben wir beim Lernen noch kein Begriff dafür , wie man ihn , wie beim Sehen durch registrieren , sinnvoll ersetzen könnte. Das ist m.E. die eigentliche Problematik , bei der Diskussion um die KI. Denn wenn man über das Lernen einer KI spricht, ist man unwillkürlich bei den Lebewesen.
- Intelligenz
Intelligenz (von lateinisch intellegere „erkennen“, „einsehen“; „verstehen“; wörtlich „wählen zwischen …“ von lateinisch inter „zwischen“ und legere „lesen, wählen“) ist die kognitive bzw. geistige Leistungsfähigkeit speziell im Problemlösen.
Übrigens würde ich auch einen metaphorischen Gebrauch des Begriffs Intelligenz , auf Computer , ablehnen wollen . ..
Wo hätte man sich in den "unzähligen Beiträgen" von NaWennDuMeinst und Burkart, wie auch in den anderen Beiträgen zur KI , auch nur ein einziges mal , auf eine solche "metaphorische REDEweise" bezogen ?Nauplios hat geschrieben : ↑Do 25. Aug 2022, 12:48Vielleicht liegt hier ein Mißverständnis vor, Burkart. Ich meinte es so, daß der Gebrauch des Ausdrucks "Lernen", sofern er auf Maschinen über-tragen (meta-pherein) wird ein metaphorisches Sprechen ist. Was die Maschine macht, wenn sie "lernt": sie lernt.Das macht sie dann ganz real im Rahmen ihrer Möglichkeiten.
Ich komm' deswegen drauf, weil Du ja den "Teddybären" und die "Glühbirne" angeführt hast, also ebenfalls figurative Ausdrücke. So wie diese Ausdrücke als bildliche akzeptiert sind, so hätte das Lernen der Maschine auch für mich Akzeptanz. Nur handelt es sich dann - eben wie bei "Glühbirne" oder "Briefkopf" u.ä. - auch beim "Lernen" der Maschine um eine metaphorische REDEweise, gleichwohl bei der Maschine REALE "Lernvorgänge" vonstatten gehen.
Wie dem auch sei , NaWennDuMeinst und Burkart werden sich mit vermutlich auch von diesem Beitrag ,nicht davon abbringen lassen , weiter , in unzähligen Beiträgen im Trüben zu fischen ..
Timberlake hat geschrieben : ↑So 14. Aug 2022, 15:27Burkart hat geschrieben : ↑Sa 13. Aug 2022, 12:02Ich gebe dir insofern recht, dass man nicht "auf einmal" starke KI haben wird, sondern es erst "stärkere" (als schwache) Zwischenstufen geben wird, wobei man "Stufe" nicht zu wörtlich nehmen sollte.NaWennDuMeinst hat geschrieben : ↑Sa 13. Aug 2022, 11:41Im Prinzip ist diese Unterscheidung "schwache KI" und "Starke KI" die selbe wie wir sie auch bei biologischen Organismen vornehmen. Dort sprechen wir von "niederer" und "höherer" Intelligenz.
Dass man Intelligenz graduell bewertet macht schon Sinn glaube ich.
Dein Draht beschränkt sich auf die Beiträge von @NaWennDuMeinst und all jenen , die mit euch .. so zumindest meine Meinung .. bezüglich dieser "Zwischenstufen" im Trüben zu fischen. Unter diesen Umständen , dass man de facto unter Zwang steht , auf einen Beitrag antworten zu müssen, bin ich allerdings, zugegebener maßen, auch an einer Diskussion nicht interessiert.
Zuletzt geändert von Timberlake am Sa 3. Sep 2022, 17:20, insgesamt 3-mal geändert.
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Nun warte doch mal. Burkart wird mir gleich erklären wie genau Komplexität und Intelligenz zusammenhängen.Timberlake hat geschrieben : ↑Sa 3. Sep 2022, 16:36Wie dem auch sei , NaWennDuMeinst und Burkart werden sich mit wohl auch mit diesem Beitrag , nicht davon abbringen lassen , weiter , in unzähligen Beiträgen im Trüben zu fischen ..
Er hat bisher sämtliche Defintionen abgelehnt, besonders die die irgendwas mit Leben zu tun haben.
Nun möchte ich gerne wissen wie man seiner Meinung nach das Intelligente vom Nicht-Intelligenten unterscheidet.
Das wäre ja schon klasse, wenn man einfach nur die Komplexität messen müsste um zu wissen ob etwas intelligent ist oder nicht.
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
Daß die Sprache der Wissenschaften von bildlichen Ausdrücken, von Tropen wie Metaphern und Analogien, also von figurativen Sprachformen, die traditionell in die Zuständigkeit der Figurenlehre der Rhetorik fallen, durchsetzt ist ... erschließt ein oberflächlicher Blick in die Literatur.
"Als Beispiel für den Erkenntniswert kategorialer Metaphern sei die chemische Metapher der 'Ungesättigtheit' angeführt. Sie dient dem Logiker (!) Gottlob Frege, der ansonsten mit Blick auf die Geltung des tertium non datur für seine Forderung nach 'scharfer Begrenzung der Begriffe' bekannt ist, zur Erläuterung des kategorialen Begriffs der Funktion. Der Begriff der Funktion ist nach Frege logisch einfach, also definitorisch nicht auf andere Begriffe zurückführbar, so daß wir mit unseren Begriffen an ein Ende kommen. Zur Erläuterung müsse man daher - so Frege - auf 'bildliche Ausdrücke' zurückgreifen. Dabei geht es nicht um eine ergänzende Veranschaulichung bereits bestehender Begrifflichkeiten, sondern die Metapher tritt an die Stelle fehlender Begrifflichkeit. An ihrem Ur-Grunde, beim logisch Einfachen angelangt, kann also selbst eine so strenge Wissenschaft wie die Logik nicht auf rhetorische Elemente des Unbegrifflichen verzichten." (Gottfried Gabriel; Präzision und Prägnanz. Logische, rhetorische, ästhetische und literarische Erkenntnisformen; S. 44)
Gottfried Gabriel hatte von 1995 bis 2009 den Lehrstuhl für Logik und Wissenschaftstheorie an der Friedrich-Schiller-Universität in Jena inne.
"Als Beispiel für den Erkenntniswert kategorialer Metaphern sei die chemische Metapher der 'Ungesättigtheit' angeführt. Sie dient dem Logiker (!) Gottlob Frege, der ansonsten mit Blick auf die Geltung des tertium non datur für seine Forderung nach 'scharfer Begrenzung der Begriffe' bekannt ist, zur Erläuterung des kategorialen Begriffs der Funktion. Der Begriff der Funktion ist nach Frege logisch einfach, also definitorisch nicht auf andere Begriffe zurückführbar, so daß wir mit unseren Begriffen an ein Ende kommen. Zur Erläuterung müsse man daher - so Frege - auf 'bildliche Ausdrücke' zurückgreifen. Dabei geht es nicht um eine ergänzende Veranschaulichung bereits bestehender Begrifflichkeiten, sondern die Metapher tritt an die Stelle fehlender Begrifflichkeit. An ihrem Ur-Grunde, beim logisch Einfachen angelangt, kann also selbst eine so strenge Wissenschaft wie die Logik nicht auf rhetorische Elemente des Unbegrifflichen verzichten." (Gottfried Gabriel; Präzision und Prägnanz. Logische, rhetorische, ästhetische und literarische Erkenntnisformen; S. 44)
Gottfried Gabriel hatte von 1995 bis 2009 den Lehrstuhl für Logik und Wissenschaftstheorie an der Friedrich-Schiller-Universität in Jena inne.
-
- Beiträge: 2409
- Registriert: Mo 16. Mai 2022, 01:29
- Wohnort: Shangrila 2.0
Kannst gerne darauf "warten" ..NaWennDuMeinst hat geschrieben : ↑Sa 3. Sep 2022, 17:18Nun warte doch mal. Burkart wird mir gleich erklären wie genau Komplexität und Intelligenz zusammenhängen.Timberlake hat geschrieben : ↑Sa 3. Sep 2022, 16:36Wie dem auch sei , NaWennDuMeinst und Burkart werden sich mit wohl auch mit diesem Beitrag , nicht davon abbringen lassen , weiter , in unzähligen Beiträgen im Trüben zu fischen ..
Er hat bisher sämtliche Defintionen abgelehnt, besonders die die irgendwas mit Leben zu tun haben.
Nun möchte ich gerne wissen wie man seiner Meinung nach das Intelligente vom Nicht-Intelligenten unterscheidet.
Das wäre ja schon klasse, wenn man einfach nur die Komplexität messen müsste um zu wissen ob etwas intelligent ist oder nicht.
Jörn Budesheim hat geschrieben : ↑Do 11. Aug 2022, 08:41Nö, es gibt keine schwache, keine mittlere und keine starke KI. Intelligenz heißt, Probleme in beschränkter Zeit zu lösen. Maschinen haben keine Probleme, also sind sie auch nicht intelligent. Für Maschinen geht es um nichts, das ist einer der entscheidenden Punkte, da ist keiner zu Hause, wie es so schön heißt.
Was ist sog. KI stattdessen? KI sind unsere Werkzeuge. Das Problem ist meines Erachtens nicht die Frage, ob Maschinen intelligent sind, sondern zum Beispiel, wie tief wir in das Zauberlehrling-Szenario reinrutschen werden.
- "Als Beispiel für den Erkenntniswert kategorialer Metaphern sei die chemische Metapher der 'Ungesättigtheit' angeführt. Sie dient dem Logiker (!) Gottlob Frege, der ansonsten mit Blick auf die Geltung des tertium non datur für seine Forderung nach 'scharfer Begrenzung der Begriffe' bekannt ist, zur Erläuterung des kategorialen Begriffs der Funktion. Der Begriff der Funktion ist nach Frege logisch einfach, also definitorisch nicht auf andere Begriffe zurückführbar, so daß wir mit unseren Begriffen an ein Ende kommen. Zur Erläuterung müsse man daher - so Frege - auf 'bildliche Ausdrücke' zurückgreifen. Dabei geht es nicht um eine ergänzende Veranschaulichung bereits bestehender Begrifflichkeiten, sondern die Metapher tritt an die Stelle fehlender Begrifflichkeit. An ihrem Ur-Grunde, beim logisch Einfachen angelangt, kann also selbst eine so strenge Wissenschaft wie die Logik nicht auf rhetorische Elemente des Unbegrifflichen verzichten." (Gottfried Gabriel; Präzision und Prägnanz. Logische, rhetorische, ästhetische und literarische Erkenntnisformen; S. 44)
Nauplios hat geschrieben : ↑Sa 3. Sep 2022, 17:30Daß die Sprache der Wissenschaften von bildlichen Ausdrücken, von Tropen wie Metaphern und Analogien, also von figurativen Sprachformen, die traditionell in die Zuständigkeit der Figurenlehre der Rhetorik fallen, durchsetzt ist ... erschließt ein oberflächlicher Blick in die Literatur.
"Als Beispiel für den Erkenntniswert kategorialer Metaphern ..
Zuletzt geändert von Timberlake am Sa 3. Sep 2022, 18:11, insgesamt 9-mal geändert.