Künstliche Intelligenz

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 2. Sep 2022, 10:44

(Es gibt dafür eigentlich nur einen Grund: Nämlich etwas als was erscheinen zu lassen was es nicht ist. Das ist ein Etikettenschwindel)



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 2. Sep 2022, 11:34

Ottington hat geschrieben :
Fr 2. Sep 2022, 07:09
Es geht um das simple Erkennen der Farbe Blau.
Achso, hierzu noch was.
Du meinst eigentlich gar nicht die Farbe Blau, sondern was Du meinst sind Farbcodierungen. Wellenlängen.
Du meinst etwas Physikalisches.
Blau ist aber viel mehr als das. Das wirst Du merken, wenn Du dir mal in Ruhe und gewissenhaft ansiehst, wie wir Menschen diesen Begriff verwenden, wie wir Blau erleben und was Blau für uns bedeutet.
Du kannst nicht einfach einen Begriff nehmen, ihn von allem befreien was er bedeutet und ihn dann immer noch so nennen.
Wenn Du aus dem Blau alles weg nimmst und nichts mehr übrig lässt ausser das was die Maschine gerade eben noch erkennen kann, dann hast Du Blau auf eine technische, rudimentäre Ebene heruntergebrochen in der das Meiste was den Begriff ausmacht (und ja, es ist nun mal ein menschlicher Begriff, was denn sonst?) gar nicht vorkommt.
Das Gleiche macht Burkart mit dem Intelligenzbegriff. Er radiert einfach alles aus, was Maschinen aufgrund ihren Konstruiertheit (also prinzipbedingt) nicht verstehen können, reduziert den Begriff auf eine primitive, rudimentäre Form dessen was er eigentlich ist um dann sagen zu können: "Siehste, Maschinen sind intelligent." Anstatt also Maschinen an den Intelligenzbegriff anzunähern, nähert er den Intelligenzbegriff an Maschinen an, behauptet aber das Gegenteil (wir machen Maschinen intelligent).
Wenn Dir das nicht komisch vorkommt... tja, dann weiß ich es auch nicht. Aber ich falle auf diesen Etikettenschwindel nicht herein. Auf keinen Fall.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Steinmetz
Beiträge: 95
Registriert: Mo 8. Aug 2022, 23:19

Fr 2. Sep 2022, 12:08

Burkart hat geschrieben :
Fr 2. Sep 2022, 07:54
Steinmetz hat geschrieben :
Fr 2. Sep 2022, 00:58
Burkart hat geschrieben :
Do 1. Sep 2022, 19:43

Wofür brauchst es unendlich viele Programme für dich? Bzw. warum soll es beliebig viele untergeordnete Programm-Ebenen geben?

Grundsätzlich kann es übrigens Programme geben, die ihren eigenen Code verändern können (Viren u.ä. tun das z.T. in gewisser Weise), aber heutzutage lässt man das üblicherweise nicht mehr zu, auch weil es leicht unübersichtlich werden kann. Beim Krieg der Kerne geht ist darum in gewissem Sinne aber.
Und richtig, ein Abstürzrisiko besteht beim Ändern des eigenen Codes mehr oder weniger.
Ich bin noch auf den Sprung in Richtung starker KI aus. Wenn nicht ein Programm, ein Programm korrigiert dann muss es ein Mensch machen.
Warum soll denn ein Programm überhaupt korrigiert werden, in welcher Hinsicht bzw. warum/wofür?
Oder siehst du Lernen schon als ein Korrigieren an? Das kann innerhalb eines Programmes selbst geschehen.
Wenn die starke KI komplett autonom sein will würde das nach meinem bisherigen Wissensstand auf eben diese unendliche Menge an Programmen hinauslaufen. Da wir sonst ein Programm hatten, welches nicht veränderbar durch andere Programme wäre.
Mir ist nicht klar, wofür du diese Veränderbarkeit möchtest.
Wenn du aber sagst, dass es am Beispiel von Computerviren möglich ist, dann ist mein Gedankengang wohl hinfällig.
Genauer können sie sich klonen und dabei verändern.
Wie würdest du nun eine starke KI definieren?
Ich denke da gehen die Meinungen auch stark auseinander.
Ich glaube herauszulesen, dass du nicht erwartest, dass wir eine künstliche Persönlichkeit erschaffen können.
Das Problem ist, was eine Persönlichkeit sein soll. Wenn es ein künstlicher Mensch sein soll, hast du recht.

Starke KI kann auch wirklich unterschiedlich ausgefasst werden. Hier meine Punkte:
- Notwendige Grundlage ist immer Software und ggf. Computer-Hardware.
- Der Gegensatz ist schwache KI, die in i.a. festprogrammierter Software (z.B. Expertensysteme) besteht, die es heute schon gibt.
- Starke KI ist das Ziel zu einer Computer-/Roboter-Technologie, die ähnlich gut intelligent ist bzw. sein kann wie Menschen oder auch besser.
- Mein K.-Intelligenzbegriff bezieht sich auf logische, praktische Intelligenz, also das Lösen von solchen Aufgaben. Er soll nicht alles Menschliche nachbilden, z.B. soll KI nicht körperlichen Nöte wie (unabschaltbare) Schmerzen haben (die sich nur negativ auswirken), soll nicht etwas wie eine Todesangst haben.
- Auf dem Weg zur starken KI ist mir jeder Aspekt recht, der Intelligenz irgendwie ausbaut. So ist Lernen auf jeden Fall wichtig, aber auch Verstehen u.a.; was man darunter jeweils bei KI versteht, sollte im Detail dann beschrieben werden.
- Letztlich hoffe ich auf eine alternative Intelligenz zum Menschen, die einige seiner Nachteile nicht hat. Dabei sollte die KI aber ein Diener des Menschen sein/bleiben.
- Ach ja, und KI sollte nicht (nur) als Simulation von Intelligenz angesehen werden, sondern als deren reale Nachbildung (in gewissen Aspekten halt), denn sie soll eben auch Aufgaben in der Welt real lösen können und sei es nur z.B. als Roboter von A nach B zu kommen und dabei ggf. Hindernisse zu umgehen.

Soweit für dich ok? Bzw. es ist eine Diskussionsgrundlage halt.
Natürlich für mich Okay. Bin aber natürlich auch hochgradig skeptisch, wenn wir bei dem Bild von einer Simulation der Intelligenz abweichen.

Du fragtest, warum ich die Idee hatte, eine Starke KI müsste ihren eigenen Code ändern können.
Derzeit verstehen wir KI als Expertensysteme. Sie werden in dem was sie tun immer genauer, allerdings nur auf dem eigenen Gebiet und dem jeweils eigenem Datensatz. Ohne eigene Anpassungen währen Transferleistungen zu anderen Expertengebieten denke ich unüberwindbar. Vielleicht befinde ich mich da aber auch auf dem Holzweg.

Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 2. Sep 2022, 14:15

Steinmetz hat geschrieben :
Fr 2. Sep 2022, 12:08
Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
Änderungen eines Programms sind in der Laufzeit (also während das Programm ausgeführt wird) nicht möglich.
Was aber geht ist veränderte Kopien des Codes zu erstellen, den ursprünglichen Prozess zu beenden und dann die veränderten Kopien zu starten.
Das machen Programme heute eigentlich dauernd, z.B. immer dann wenn es Updates gibt.
Nur: Die inhaltlichen Veränderungen werden nicht von der Maschine selbst erdacht, sondern da sitzt ein menschlicher Programmierer, der den Code anpasst und die Maschine dann anweist sich upzudaten.
Das hat mit der Idee, dass die Maschine ihre eigenen Fehler erkennt und dann auch selbsttätig korrigiert nichts zu tun.
Das Problembewusstsein (ah, da ist ein Fehler im Code!) liegt ganz und gar beim Menschen. Ebenso die Lösung.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Körper
Beiträge: 483
Registriert: Fr 18. Feb 2022, 20:14

Fr 2. Sep 2022, 15:28

Selbstverständlich kann ein ausgeführtes Programm die nächsten auszuführenden Codestellen verändern (man orientiere sich bitte nicht an irgendwelchen Witzsprachen , sondern an den Möglichkeiten der CPU).
Es gibt Programme, die nur aus einem Anfangscode bestehen, den restlichen Code aus den geladenen Daten auspacken/zusammenbauen und dann anspringen (kein Neustart des Programms notwendig).

Über eine einzige Anweisung, kann man die CPU veranlassen die unmittelbar nächste Codestelle abzuändern, ausgeführt wird sie ja sowieso demnächst, da sie die nächste Anweisung ist.




Burkart
Beiträge: 2806
Registriert: Sa 11. Jul 2020, 09:59

Fr 2. Sep 2022, 22:09

Steinmetz hat geschrieben :
Fr 2. Sep 2022, 12:08
Burkart hat geschrieben :
Fr 2. Sep 2022, 07:54
Steinmetz hat geschrieben :
Fr 2. Sep 2022, 00:58

Ich bin noch auf den Sprung in Richtung starker KI aus. Wenn nicht ein Programm, ein Programm korrigiert dann muss es ein Mensch machen.
Warum soll denn ein Programm überhaupt korrigiert werden, in welcher Hinsicht bzw. warum/wofür?
Oder siehst du Lernen schon als ein Korrigieren an? Das kann innerhalb eines Programmes selbst geschehen.
Wenn die starke KI komplett autonom sein will würde das nach meinem bisherigen Wissensstand auf eben diese unendliche Menge an Programmen hinauslaufen. Da wir sonst ein Programm hatten, welches nicht veränderbar durch andere Programme wäre.
Mir ist nicht klar, wofür du diese Veränderbarkeit möchtest.
Wenn du aber sagst, dass es am Beispiel von Computerviren möglich ist, dann ist mein Gedankengang wohl hinfällig.
Genauer können sie sich klonen und dabei verändern.
Wie würdest du nun eine starke KI definieren?
Ich denke da gehen die Meinungen auch stark auseinander.
Ich glaube herauszulesen, dass du nicht erwartest, dass wir eine künstliche Persönlichkeit erschaffen können.
Das Problem ist, was eine Persönlichkeit sein soll. Wenn es ein künstlicher Mensch sein soll, hast du recht.

Starke KI kann auch wirklich unterschiedlich ausgefasst werden. Hier meine Punkte:
- Notwendige Grundlage ist immer Software und ggf. Computer-Hardware.
- Der Gegensatz ist schwache KI, die in i.a. festprogrammierter Software (z.B. Expertensysteme) besteht, die es heute schon gibt.
- Starke KI ist das Ziel zu einer Computer-/Roboter-Technologie, die ähnlich gut intelligent ist bzw. sein kann wie Menschen oder auch besser.
- Mein K.-Intelligenzbegriff bezieht sich auf logische, praktische Intelligenz, also das Lösen von solchen Aufgaben. Er soll nicht alles Menschliche nachbilden, z.B. soll KI nicht körperlichen Nöte wie (unabschaltbare) Schmerzen haben (die sich nur negativ auswirken), soll nicht etwas wie eine Todesangst haben.
- Auf dem Weg zur starken KI ist mir jeder Aspekt recht, der Intelligenz irgendwie ausbaut. So ist Lernen auf jeden Fall wichtig, aber auch Verstehen u.a.; was man darunter jeweils bei KI versteht, sollte im Detail dann beschrieben werden.
- Letztlich hoffe ich auf eine alternative Intelligenz zum Menschen, die einige seiner Nachteile nicht hat. Dabei sollte die KI aber ein Diener des Menschen sein/bleiben.
- Ach ja, und KI sollte nicht (nur) als Simulation von Intelligenz angesehen werden, sondern als deren reale Nachbildung (in gewissen Aspekten halt), denn sie soll eben auch Aufgaben in der Welt real lösen können und sei es nur z.B. als Roboter von A nach B zu kommen und dabei ggf. Hindernisse zu umgehen.

Soweit für dich ok? Bzw. es ist eine Diskussionsgrundlage halt.
Natürlich für mich Okay. Bin aber natürlich auch hochgradig skeptisch, wenn wir bei dem Bild von einer Simulation der Intelligenz abweichen.
Stellen wir uns ein intelligentes selbstfahrendes Auto vor. Dies muss aufgrund dessen, was es sieht, Entscheidungen treffen, z.B. ob es bremsen oder ausweichen muss. Dies betrifft also reale Entscheidungen mit realen Konsequenzen, nicht simulierte in einer Spielzeugwelt oder so.
Du fragtest, warum ich die Idee hatte, eine Starke KI müsste ihren eigenen Code ändern können.
Derzeit verstehen wir KI als Expertensysteme. Sie werden in dem was sie tun immer genauer, allerdings nur auf dem eigenen Gebiet und dem jeweils eigenem Datensatz.
Richtig, so ist das bei Expertensystemen i.a.
Ohne eigene Anpassungen währen Transferleistungen zu anderen Expertengebieten denke ich unüberwindbar. Vielleicht befinde ich mich da aber auch auf dem Holzweg.
Meinst du, dass KI mit eigenen Anpassungen andere Gebiete erschließt? Ganz ist mir nicht klar, ob du darauf hinaus willst.
Also, von Expertensystemen erwarte ich sowas nicht.
Für eine allgemeinere KI werden dagegen grundlegendere Aspekte benötigt, eine KI, die gewissermaßen abstrahieren kann anhand des Erkennens von Gemeinsamkeiten.
Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
Alles völlig ok, schauen wir mal, was hier herausarbeiten können. Das ganze Gebiet ist ja nun auch nicht einfach und klar, sonst hätten wir allgemeinere KI schon (mehr).



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Steinmetz
Beiträge: 95
Registriert: Mo 8. Aug 2022, 23:19

Sa 3. Sep 2022, 00:39

Burkart hat geschrieben :
Fr 2. Sep 2022, 22:09
Steinmetz hat geschrieben :
Fr 2. Sep 2022, 12:08
Burkart hat geschrieben :
Fr 2. Sep 2022, 07:54

Warum soll denn ein Programm überhaupt korrigiert werden, in welcher Hinsicht bzw. warum/wofür?
Oder siehst du Lernen schon als ein Korrigieren an? Das kann innerhalb eines Programmes selbst geschehen.


Mir ist nicht klar, wofür du diese Veränderbarkeit möchtest.


Genauer können sie sich klonen und dabei verändern.


Das Problem ist, was eine Persönlichkeit sein soll. Wenn es ein künstlicher Mensch sein soll, hast du recht.

Starke KI kann auch wirklich unterschiedlich ausgefasst werden. Hier meine Punkte:
- Notwendige Grundlage ist immer Software und ggf. Computer-Hardware.
- Der Gegensatz ist schwache KI, die in i.a. festprogrammierter Software (z.B. Expertensysteme) besteht, die es heute schon gibt.
- Starke KI ist das Ziel zu einer Computer-/Roboter-Technologie, die ähnlich gut intelligent ist bzw. sein kann wie Menschen oder auch besser.
- Mein K.-Intelligenzbegriff bezieht sich auf logische, praktische Intelligenz, also das Lösen von solchen Aufgaben. Er soll nicht alles Menschliche nachbilden, z.B. soll KI nicht körperlichen Nöte wie (unabschaltbare) Schmerzen haben (die sich nur negativ auswirken), soll nicht etwas wie eine Todesangst haben.
- Auf dem Weg zur starken KI ist mir jeder Aspekt recht, der Intelligenz irgendwie ausbaut. So ist Lernen auf jeden Fall wichtig, aber auch Verstehen u.a.; was man darunter jeweils bei KI versteht, sollte im Detail dann beschrieben werden.
- Letztlich hoffe ich auf eine alternative Intelligenz zum Menschen, die einige seiner Nachteile nicht hat. Dabei sollte die KI aber ein Diener des Menschen sein/bleiben.
- Ach ja, und KI sollte nicht (nur) als Simulation von Intelligenz angesehen werden, sondern als deren reale Nachbildung (in gewissen Aspekten halt), denn sie soll eben auch Aufgaben in der Welt real lösen können und sei es nur z.B. als Roboter von A nach B zu kommen und dabei ggf. Hindernisse zu umgehen.

Soweit für dich ok? Bzw. es ist eine Diskussionsgrundlage halt.
Natürlich für mich Okay. Bin aber natürlich auch hochgradig skeptisch, wenn wir bei dem Bild von einer Simulation der Intelligenz abweichen.
Stellen wir uns ein intelligentes selbstfahrendes Auto vor. Dies muss aufgrund dessen, was es sieht, Entscheidungen treffen, z.B. ob es bremsen oder ausweichen muss. Dies betrifft also reale Entscheidungen mit realen Konsequenzen, nicht simulierte in einer Spielzeugwelt oder so.
Du fragtest, warum ich die Idee hatte, eine Starke KI müsste ihren eigenen Code ändern können.
Derzeit verstehen wir KI als Expertensysteme. Sie werden in dem was sie tun immer genauer, allerdings nur auf dem eigenen Gebiet und dem jeweils eigenem Datensatz.
Richtig, so ist das bei Expertensystemen i.a.
Ohne eigene Anpassungen währen Transferleistungen zu anderen Expertengebieten denke ich unüberwindbar. Vielleicht befinde ich mich da aber auch auf dem Holzweg.
Meinst du, dass KI mit eigenen Anpassungen andere Gebiete erschließt? Ganz ist mir nicht klar, ob du darauf hinaus willst.
Also, von Expertensystemen erwarte ich sowas nicht.
Für eine allgemeinere KI werden dagegen grundlegendere Aspekte benötigt, eine KI, die gewissermaßen abstrahieren kann anhand des Erkennens von Gemeinsamkeiten.
Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
Alles völlig ok, schauen wir mal, was hier herausarbeiten können. Das ganze Gebiet ist ja nun auch nicht einfach und klar, sonst hätten wir allgemeinere KI schon (mehr).
Natürlich würde eine simulierte Intelligenz , welche Entscheidungen trifft auf die reale Welt einwirken, wenn die Entscheidungen umgesetzt werden. Das etwas, wenn es getan wird auch passiert, fällt schwer zu wiederlegen. Wenn ich eine Münze werfe um zu entscheiden ob ich links oder rechts gehe dann geschieht dies auch wirklich. KI ist eine großartige Sache und es ist erstaunlich wieviel Mathematik doch bewirken kann. Ich kann aber nicht anders als es als ein Modell der Intelligenz zu betrachten, mit dem wir spielen und immer weiter ausbauen.
Wird eine starke KI dann als solches Entwickelt, oder ist eher der Gedanke, dass es aus dem Entwicklungsprozess der Expertensysteme mittels maschinellen Lernen entsteht?




Burkart
Beiträge: 2806
Registriert: Sa 11. Jul 2020, 09:59

Sa 3. Sep 2022, 07:33

Steinmetz hat geschrieben :
Sa 3. Sep 2022, 00:39
Burkart hat geschrieben :
Fr 2. Sep 2022, 22:09
Steinmetz hat geschrieben :
Fr 2. Sep 2022, 12:08


Natürlich für mich Okay. Bin aber natürlich auch hochgradig skeptisch, wenn wir bei dem Bild von einer Simulation der Intelligenz abweichen.
Stellen wir uns ein intelligentes selbstfahrendes Auto vor. Dies muss aufgrund dessen, was es sieht, Entscheidungen treffen, z.B. ob es bremsen oder ausweichen muss. Dies betrifft also reale Entscheidungen mit realen Konsequenzen, nicht simulierte in einer Spielzeugwelt oder so.
Du fragtest, warum ich die Idee hatte, eine Starke KI müsste ihren eigenen Code ändern können.
Derzeit verstehen wir KI als Expertensysteme. Sie werden in dem was sie tun immer genauer, allerdings nur auf dem eigenen Gebiet und dem jeweils eigenem Datensatz.
Richtig, so ist das bei Expertensystemen i.a.
Ohne eigene Anpassungen währen Transferleistungen zu anderen Expertengebieten denke ich unüberwindbar. Vielleicht befinde ich mich da aber auch auf dem Holzweg.
Meinst du, dass KI mit eigenen Anpassungen andere Gebiete erschließt? Ganz ist mir nicht klar, ob du darauf hinaus willst.
Also, von Expertensystemen erwarte ich sowas nicht.
Für eine allgemeinere KI werden dagegen grundlegendere Aspekte benötigt, eine KI, die gewissermaßen abstrahieren kann anhand des Erkennens von Gemeinsamkeiten.
Ich habe mich weit weniger mit der digitalen Welt beschäftigt als viele andere Menschen. Daher darf man mich nicht auf meine Argumente festnageln, bei denen ich technisch werde. Mein darf mir aber durchaus erklären wie es funktioniert. Dann kann man die Grenzen des Digitalen gemeinsam herausarbeiten.
Alles völlig ok, schauen wir mal, was hier herausarbeiten können. Das ganze Gebiet ist ja nun auch nicht einfach und klar, sonst hätten wir allgemeinere KI schon (mehr).
Natürlich würde eine simulierte Intelligenz , welche Entscheidungen trifft auf die reale Welt einwirken, wenn die Entscheidungen umgesetzt werden. Das etwas, wenn es getan wird auch passiert, fällt schwer zu wiederlegen. Wenn ich eine Münze werfe um zu entscheiden ob ich links oder rechts gehe dann geschieht dies auch wirklich.
Mir scheint, dass der Begriff der Simulation hier ein Problem ist.
Wenn man z.B. einen Flug simuliert, gibt es kein reales Flugzeug in der realen Welt. Es ist ein anderer Punkt, dass man als Mensch durch eine Simulation etwas lernt und in der realen Welt umsetzt.
Wenn ein selbstfahrendes Auto eine Entscheidung trifft, geschieht dies nicht in einer simulierten Welt, sondern in der realen. Das Auto gibt die Entscheidung auch nicht erst an einen Menschen weiter, sondern bremst in der realen Welt selbst o.ä. Insofern nutzt es diesen Aspekt der Intelligenz selbst zum Bremsen.
KI ist eine großartige Sache und es ist erstaunlich wieviel Mathematik doch bewirken kann. Ich kann aber nicht anders als es als ein Modell der Intelligenz zu betrachten, mit dem wir spielen und immer weiter ausbauen.
Stimmt, es ist ein Modell von Intelligenz, das wir ausbauen. Und dieses implementieren wir dann jeweils als eine KI.
Wird eine starke KI dann als solches Entwickelt, oder ist eher der Gedanke, dass es aus dem Entwicklungsprozess der Expertensysteme mittels maschinellen Lernen entsteht?
Ich bin nicht sicher, ob ich dich richtig verstehe. Maschinelles Lernen ist ein Aspekt bzw. eine Fähigkeit einer KI selbst, nicht der Entwicklungsprozess gen starker KI.
Ansonsten scheint mir, dass normale Expertensysteme recht spezialisierte Systeme sind, die direkt mit Wissen bzw. Expertise explizit ausgestattet werden und nicht (groß) maschinell lernen. Ein solches spezielles System direkt auf ganz andere Bereiche auszubauen scheint mir schwierig.
Insofern sehe ich es eher so, das starke KI grundlegend als solche entwickelt werden muss, u.a. um nicht so eingeschränkt zu sein. Z.B. soll sie das (maschinelle) Lernen prinzipiell möglichst allgemein anwenden können und nicht nur in einer Domäne (einem speziellen Bereich). Das macht sie anfangs natürlich umständlicher und ihr ist mehr grundlegend beizubringen, auch ggf. gezielter ("Lernen mittels (speziellem KI-)Lehrer"). Na ja, Kinder gehen ja auch zur Schule, warum nicht ähnlich auch eine KI, auch wenn letztere vielleicht gezielter geschult werden muss.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 3. Sep 2022, 10:13

Ich finde eher dass die Begriffe 'Entscheidung', 'Verhalten' und 'Autonom' hier problematisch sind.
Ich finde nämlich, dass die Maschine hier zu sehr vermenschlicht wird.

Es wurde das Beispiel mit dem Fahrzeug genannt.
Das Fahrzeug 'erkennt' ein Hindernis und weicht dann aus.
Wenn Hindernis dann Aktion.

Das gleiche macht eine Lichtschranke am Fahrstuhl. Wenn Licht unterbrochen (Hindernis in der Tür) dann Aktion (Tür auf).

Wieso wird das Fahrzeug jetzt als intelligent angesehen, der Fahrstuhl aber nicht, obwohl sie genau das selbe machen, also gemäß ihrer Programmierung agieren?
Wieso erkennt das Fahrzeug etwas, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen (Signal auswerten und entsprechend agieren)?
Wieso hat das Fahrzeug ein Verhalten, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen?
Wieso trifft das Fahrzeug Entscheidungen, der Fahrstuhl aber nicht, obwohl sie beide auf eine Situation reagieren?
Wieso meint man im Fahrzeug wäre eine Intelligenz am Werk im Fahrstuhl aber nicht?

Wie wird aus einem programmierten Ablauf ein autonomes Verhalten?
Weil das Fahrzeug mehrere Verhaltensoptionen hat, aus denen es wählen muss?
Und wo kommen diese Optionen her? Die sind doch auch Teil der Programmierung. Das Fahrzeug wählt ja nur aus Optionen die ihm vorher per Programmierung gegeben werden.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2806
Registriert: Sa 11. Jul 2020, 09:59

Sa 3. Sep 2022, 10:49

NaWennDuMeinst hat geschrieben :
Sa 3. Sep 2022, 10:13
Ich finde eher dass die Begriffe 'Entscheidung', 'Verhalten' und 'Autonom' hier problematisch sind.
Ich finde nämlich, dass die Maschine hier zu sehr vermenschlicht wird.
Wenn, erscheinen dir vielleicht die Begriffe zu sehr vermenschtlich; ein selbstfahrendes Auto ist natürlich absolut kein Mensch. Aber die Begriffe benutzen wir nun mal, weil diese am besten aussagen, was gemeint ist, ob Mensch oder Maschine.
Es wurde das Beispiel mit dem Fahrzeug genannt.
Das Fahrzeug 'erkennt' ein Hindernis und weicht dann aus.
Wenn Hindernis dann Aktion.

Das gleiche macht eine Lichtschranke am Fahrstuhl. Wenn Licht unterbrochen (Hindernis in der Tür) dann Aktion (Tür auf).

Wieso wird das Fahrzeug jetzt als intelligent angesehen, der Fahrstuhl aber nicht, obwohl sie genau das selbe machen, also gemäß ihrer Programmierung agieren?
Wieso erkennt das Fahrzeug etwas, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen (Signal auswerten und entsprechend agieren)?
Wieso hat das Fahrzeug ein Verhalten, der Fahrstuhl aber nicht, obwohl sie das Gleiche machen?
Wieso trifft das Fahrzeug Entscheidungen, der Fahrstuhl aber nicht, obwohl sie beide auf eine Situation reagieren?
Wieso meint man im Fahrzeug wäre eine Intelligenz am Werk im Fahrstuhl aber nicht?
Ich sehe den Unterschied in der Komplexität. Ein autonomes Auto hat sehr viel zu 'können'.
So weiß ich z.B. nicht, ob eine Ameise (gegenüber dem Menschen) für dich immer noch intelligent ist, oder eine Amöbe.
Wie wird aus einem programmierten Ablauf ein autonomes Verhalten?
Weil das Fahrzeug mehrere Verhaltensoptionen hat, aus denen es wählen muss?
Und wo kommen diese Optionen her? Die sind doch auch Teil der Programmierung. Das Fahrzeug wählt ja nur aus Optionen die ihm vorher per Programmierung gegeben werden.
Das Fahrzeug ist auch nur schwach intelligent, insofern es nicht dazulernen kann (nehme ich hier mal an); insofern ist alles direkt Teil sener Programmierung. Bei selbstlernenden Systemen wäre es schon was anderes.
Autonom ist das Verhalten, weil es nicht manuell gesteuert wird, sondern eben programmiert fährt ohne weiteren menschlichen Eingriff.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 3. Sep 2022, 11:55

Burkart hat geschrieben :
Sa 3. Sep 2022, 10:49
Ich sehe den Unterschied in der Komplexität.
Ok. Wo liegt die Schwelle? Wie viel Komplexität braucht es?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2806
Registriert: Sa 11. Jul 2020, 09:59

Sa 3. Sep 2022, 12:01

NaWennDuMeinst hat geschrieben :
Sa 3. Sep 2022, 11:55
Burkart hat geschrieben :
Sa 3. Sep 2022, 10:49
Ich sehe den Unterschied in der Komplexität.
Ok. Wo liegt die Schwelle? Wie viel Komplexität braucht es?
Warum Schwelle? Intelligenz hat mAn auch keine Schwelle.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 3. Sep 2022, 12:17

Burkart hat geschrieben :
Sa 3. Sep 2022, 12:01
NaWennDuMeinst hat geschrieben :
Sa 3. Sep 2022, 11:55
Burkart hat geschrieben :
Sa 3. Sep 2022, 10:49
Ich sehe den Unterschied in der Komplexität.
Ok. Wo liegt die Schwelle? Wie viel Komplexität braucht es?
Warum Schwelle? Intelligenz hat mAn auch keine Schwelle.
Du sagtest der Unterschied zwischen dem Auto und dem Fahrstuhl liege in der Komplexität.
Also ab wie viel Komplexität geht das los?

Ich will ja nur wissen wieso wir ein Fahrzeug das irgendwas "entscheidet" intelligent nennen, einen Fahrstuhl der etwas entscheidet aber nicht.
Du sagst ja das liege daran, dass das Fahrzeug viel komplexer ist. Also sagst Du ja je komplexer desto eher neigen wir dazu etwas intelligent zu nennen.
Aber ab wann ist denn genug Komplexität erreicht dass wir den Unterscheid machen?
Wenn der Fahrstuhl nun nicht eine sondern fünf Entscheidungen treffen müsste, wäre er dann intelligent?
Oder wie viele müssen es sein?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2806
Registriert: Sa 11. Jul 2020, 09:59

Sa 3. Sep 2022, 12:47

NaWennDuMeinst hat geschrieben :
Sa 3. Sep 2022, 12:17
Burkart hat geschrieben :
Sa 3. Sep 2022, 12:01
NaWennDuMeinst hat geschrieben :
Sa 3. Sep 2022, 11:55

Ok. Wo liegt die Schwelle? Wie viel Komplexität braucht es?
Warum Schwelle? Intelligenz hat mAn auch keine Schwelle.
Du sagtest der Unterschied zwischen dem Auto und dem Fahrstuhl liege in der Komplexität.
Also ab wie viel Komplexität geht das los?

Ich will ja nur wissen wieso wir ein Fahrzeug das irgendwas "entscheidet" intelligent nennen, einen Fahrstuhl der etwas entscheidet aber nicht.
Du sagst ja das liege daran, dass das Fahrzeug viel komplexer ist. Also sagst Du ja je komplexer desto eher neigen wir dazu etwas intelligent zu nennen.
Aber ab wann ist denn genug Komplexität erreicht dass wir den Unterscheid machen?
Wenn der Fahrstuhl nun nicht eine sondern fünf Entscheidungen treffen müsste, wäre er dann intelligent?
Oder wie viele müssen es sein?
Auch hier: Warum "ab wie viel"? Es gibt mehr oder weniger Komplexität, mehr oder weniger Intelligenz usw.
Wann "man" etwas als "intelligent" (oder komplex) bezeichnet, dürfte subjektiv, u.U. auch situativ verschieden sein. Bei Fahrstühlen dürfte es nicht viele Menschen dafür geben, bei autonom fahrenden Autos sicherlich mehr.
Immerhin finde ich Fahrstühle netter, die dort stehen, wo man/Leute voraussichtlich eher reinwollen. So könnte man hier mehr Intelligenz reinstecken (und auf sie "abfärben"), wenn man möchte; wie weit sich das lohnt (z.B. wegen Stromverbrauch), ist natürlich die Frage; z.B. wären Bewegungsdetektoren in Fluren vor Fahrstühlen denkbar oder so, um sie intelligenter zu machen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 3. Sep 2022, 16:00

Burkart hat geschrieben :
Sa 3. Sep 2022, 12:47
NaWennDuMeinst hat geschrieben :
Sa 3. Sep 2022, 12:17
Burkart hat geschrieben :
Sa 3. Sep 2022, 12:01

Warum Schwelle? Intelligenz hat mAn auch keine Schwelle.
Du sagtest der Unterschied zwischen dem Auto und dem Fahrstuhl liege in der Komplexität.
Also ab wie viel Komplexität geht das los?

Ich will ja nur wissen wieso wir ein Fahrzeug das irgendwas "entscheidet" intelligent nennen, einen Fahrstuhl der etwas entscheidet aber nicht.
Du sagst ja das liege daran, dass das Fahrzeug viel komplexer ist. Also sagst Du ja je komplexer desto eher neigen wir dazu etwas intelligent zu nennen.
Aber ab wann ist denn genug Komplexität erreicht dass wir den Unterscheid machen?
Wenn der Fahrstuhl nun nicht eine sondern fünf Entscheidungen treffen müsste, wäre er dann intelligent?
Oder wie viele müssen es sein?
Auch hier: Warum "ab wie viel"? Es gibt mehr oder weniger Komplexität, mehr oder weniger Intelligenz usw.
Wann "man" etwas als "intelligent" (oder komplex) bezeichnet, dürfte subjektiv, u.U. auch situativ verschieden sein. Bei Fahrstühlen dürfte es nicht viele Menschen dafür geben, bei autonom fahrenden Autos sicherlich mehr.
Immerhin finde ich Fahrstühle netter, die dort stehen, wo man/Leute voraussichtlich eher reinwollen. So könnte man hier mehr Intelligenz reinstecken (und auf sie "abfärben"), wenn man möchte; wie weit sich das lohnt (z.B. wegen Stromverbrauch), ist natürlich die Frage; z.B. wären Bewegungsdetektoren in Fluren vor Fahrstühlen denkbar oder so, um sie intelligenter zu machen.
Verstehe ich nicht. Du sagst Komplexität ist der Faktor kannst mir aber nicht sagen ab wann genug Komplexität vorhanden ist damit man etwas als intelligent bezeichnen kann.
subjektiv, u.U. auch situativ
Ok. Intelligent ist wenn irgendwer das intelligent findet?, nicht wenn es wirklich intelligent ist?
Wenn ich also finde, dass eine Saftpresse intelligent ist, dann ist sie das, und wenn ich finde das Frau Baerbock nicht sehr intelligent ist, dann ist sie das nicht?
Und wenn jetzt Du es genau umgekehrt sagst, dann ist beides richtig (obwohl widersprüchlich) oder beides falsch? Oder nur eines richtig?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timberlake
Beiträge: 1677
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 3. Sep 2022, 16:31

Jörn Budesheim hat geschrieben :
Fr 2. Sep 2022, 08:41
Ottington hat geschrieben :
Fr 2. Sep 2022, 07:09
Bei Maschinen müssen (!) wir auf einer rudimentären, technischen Ebene bleiben.
Und wenn man die Unterschiede anerkennt, welchen Grund hat man dann noch, dieselben Begriffe anwenden zu wollen? Das verstehe ich einfach nicht.
Respekt .. zumindest einer , der meinen Beitrag dazu , zu Kenntnis genommen hat . Dazu nur mal zur Erinnerung ..

Timberlake hat geschrieben :
Do 1. Sep 2022, 17:03
. Wenn man allerdings vom Farben "sehen" spricht , so bewegt man sich damit bezüglich einer KI unwillkürlich auf dem zu , was Luhmann „Kategorienfehler“ nennt. Sehen können.. kategorial ..nur Lebewesen! Leider haben wir beim Lernen noch kein Begriff dafür , wie man ihn , wie beim Sehen durch registrieren , sinnvoll ersetzen könnte. Das ist m.E. die eigentliche Problematik , bei der Diskussion um die KI. Denn wenn man über das Lernen einer KI spricht, ist man unwillkürlich bei den Lebewesen.




Timberlake
Beiträge: 1677
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 3. Sep 2022, 16:36

NaWennDuMeinst hat geschrieben :
Sa 3. Sep 2022, 16:00

Ok. Intelligent ist wenn irgendwer das intelligent findet?, nicht wenn es wirklich intelligent ist?
Wenn ich also finde, dass eine Saftpresse intelligent ist, dann ist sie das, und wenn ich finde das Frau Baerbock nicht sehr intelligent ist, dann ist sie das nicht?
Und wenn jetzt Du es genau umgekehrt sagst, dann ist beides richtig (obwohl widersprüchlich) oder beides falsch? Oder nur eines richtig?
Dazu , und zwar zu dem , wozu Intelligenz. kategorial .. im eigentlichen Sinne gehört , nur noch mal zur Erinnerung ..
Timberlake hat geschrieben :
Do 1. Sep 2022, 18:25
NaWennDuMeinst hat geschrieben :
Do 1. Sep 2022, 18:14
Die Maschine soll nicht intelligent sein um intelligent sein (was soll der Quatsch? D.
danke , dass du mit Intelligenz , die Liste der problematischen Begriffe , im Zusammenhang mit der KI ergänzt hast ..
Timberlake hat geschrieben :
Do 1. Sep 2022, 17:03
Jörn Budesheim hat geschrieben :
Do 1. Sep 2022, 16:55
Ich versuche es noch mal auszudrücken. Das Bewusstsein hat in der Regel (zumindest) zwei notwendige Aspekte. Man greift damit auf etwas zu (da ist ein Tisch) und es ist eine Form von Erleben. Zugriff allein ist noch kein Bewusstsein, denn es fehlt dann der Erlebens-Aspekt. Was ist dein Einwand dagegen?

.. dagegen habe ich kein Einwand. Für den Fall , dass das so gemeint sein sollte. Für Maschinen, die gleichfalls auf ein Tisch zu greifen , denen fehlt tatsächlich der Erlebens-Aspekt. Zugriff allein bzw. das Registrieren von Farben allein , ist deshalb noch kein Bewusstsein. Wenn man allerdings vom Farben "sehen" spricht , so bewegt man sich damit bezüglich einer KI unwillkürlich auf dem zu , was Luhmann „Kategorienfehler“ nennt. Sehen können.. kategorial ..nur Lebewesen! Leider haben wir beim Lernen noch kein Begriff dafür , wie man ihn , wie beim Sehen durch registrieren , sinnvoll ersetzen könnte. Das ist m.E. die eigentliche Problematik , bei der Diskussion um die KI. Denn wenn man über das Lernen einer KI spricht, ist man unwillkürlich bei den Lebewesen.

Können doch . kategorial . nur Lebewesen Intelligenz haben.
  • Intelligenz
    Intelligenz (von lateinisch intellegere „erkennen“, „einsehen“; „verstehen“; wörtlich „wählen zwischen …“ von lateinisch inter „zwischen“ und legere „lesen, wählen“) ist die kognitive bzw. geistige Leistungsfähigkeit speziell im Problemlösen.
Wenn man den Begriff Intelligenz auf Computer und damit auf etwas anwendet, was nicht lebt, so liefert man übrigens in unzähligen Beiträgen das ab , von dem wir bei Burkart und NaWennDuMeinst derzeit Zeuge werden .. eine unendliche Geschichte, ..

Übrigens würde ich auch einen metaphorischen Gebrauch des Begriffs Intelligenz , auf Computer , ablehnen wollen . ..

Nauplios hat geschrieben :
Do 25. Aug 2022, 12:48
Burkart hat geschrieben :
Di 23. Aug 2022, 19:19


Damit hast du recht, eine Metapher soll das wirklich nicht sein.

Ich sage nicht, dass Maschinen genau so lernen (müssen) wie Menschen, aber schon, dass sie auch real lernen können und nicht nur metaphorisch oder simuliert.
Vielleicht liegt hier ein Mißverständnis vor, Burkart. Ich meinte es so, daß der Gebrauch des Ausdrucks "Lernen", sofern er auf Maschinen über-tragen (meta-pherein) wird ein metaphorisches Sprechen ist. Was die Maschine macht, wenn sie "lernt": sie lernt. ;) Das macht sie dann ganz real im Rahmen ihrer Möglichkeiten.

Ich komm' deswegen drauf, weil Du ja den "Teddybären" und die "Glühbirne" angeführt hast, also ebenfalls figurative Ausdrücke. So wie diese Ausdrücke als bildliche akzeptiert sind, so hätte das Lernen der Maschine auch für mich Akzeptanz. Nur handelt es sich dann - eben wie bei "Glühbirne" oder "Briefkopf" u.ä. - auch beim "Lernen" der Maschine um eine metaphorische REDEweise, gleichwohl bei der Maschine REALE "Lernvorgänge" vonstatten gehen.
Wo hätte man sich in den "unzähligen Beiträgen" von NaWennDuMeinst und Burkart, wie auch in den anderen Beiträgen zur KI , auch nur ein einziges mal , auf eine solche "metaphorische REDEweise" bezogen ?


Wie dem auch sei , NaWennDuMeinst und Burkart werden sich mit vermutlich auch von diesem Beitrag ,nicht davon abbringen lassen , weiter , in unzähligen Beiträgen im Trüben zu fischen ..
Timberlake hat geschrieben :
So 14. Aug 2022, 15:27
Burkart hat geschrieben :
Sa 13. Aug 2022, 12:02
NaWennDuMeinst hat geschrieben :
Sa 13. Aug 2022, 11:41
Im Prinzip ist diese Unterscheidung "schwache KI" und "Starke KI" die selbe wie wir sie auch bei biologischen Organismen vornehmen. Dort sprechen wir von "niederer" und "höherer" Intelligenz.
Dass man Intelligenz graduell bewertet macht schon Sinn glaube ich.
Ich gebe dir insofern recht, dass man nicht "auf einmal" starke KI haben wird, sondern es erst "stärkere" (als schwache) Zwischenstufen geben wird, wobei man "Stufe" nicht zu wörtlich nehmen sollte.


Dein Draht beschränkt sich auf die Beiträge von @NaWennDuMeinst und all jenen , die mit euch .. so zumindest meine Meinung .. bezüglich dieser "Zwischenstufen" im Trüben zu fischen. Unter diesen Umständen , dass man de facto unter Zwang steht , auf einen Beitrag antworten zu müssen, bin ich allerdings, zugegebener maßen, auch an einer Diskussion nicht interessiert.
Zuletzt geändert von Timberlake am Sa 3. Sep 2022, 17:20, insgesamt 3-mal geändert.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 3. Sep 2022, 17:18

Timberlake hat geschrieben :
Sa 3. Sep 2022, 16:36
Wie dem auch sei , NaWennDuMeinst und Burkart werden sich mit wohl auch mit diesem Beitrag , nicht davon abbringen lassen , weiter , in unzähligen Beiträgen im Trüben zu fischen ..
Nun warte doch mal. Burkart wird mir gleich erklären wie genau Komplexität und Intelligenz zusammenhängen.
Er hat bisher sämtliche Defintionen abgelehnt, besonders die die irgendwas mit Leben zu tun haben.
Nun möchte ich gerne wissen wie man seiner Meinung nach das Intelligente vom Nicht-Intelligenten unterscheidet.
Das wäre ja schon klasse, wenn man einfach nur die Komplexität messen müsste um zu wissen ob etwas intelligent ist oder nicht.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Nauplios
Beiträge: 3002
Registriert: Mo 27. Mai 2019, 16:12

Sa 3. Sep 2022, 17:30

Daß die Sprache der Wissenschaften von bildlichen Ausdrücken, von Tropen wie Metaphern und Analogien, also von figurativen Sprachformen, die traditionell in die Zuständigkeit der Figurenlehre der Rhetorik fallen, durchsetzt ist ... erschließt ein oberflächlicher Blick in die Literatur.

"Als Beispiel für den Erkenntniswert kategorialer Metaphern sei die chemische Metapher der 'Ungesättigtheit' angeführt. Sie dient dem Logiker (!) Gottlob Frege, der ansonsten mit Blick auf die Geltung des tertium non datur für seine Forderung nach 'scharfer Begrenzung der Begriffe' bekannt ist, zur Erläuterung des kategorialen Begriffs der Funktion. Der Begriff der Funktion ist nach Frege logisch einfach, also definitorisch nicht auf andere Begriffe zurückführbar, so daß wir mit unseren Begriffen an ein Ende kommen. Zur Erläuterung müsse man daher - so Frege - auf 'bildliche Ausdrücke' zurückgreifen. Dabei geht es nicht um eine ergänzende Veranschaulichung bereits bestehender Begrifflichkeiten, sondern die Metapher tritt an die Stelle fehlender Begrifflichkeit. An ihrem Ur-Grunde, beim logisch Einfachen angelangt, kann also selbst eine so strenge Wissenschaft wie die Logik nicht auf rhetorische Elemente des Unbegrifflichen verzichten." (Gottfried Gabriel; Präzision und Prägnanz. Logische, rhetorische, ästhetische und literarische Erkenntnisformen; S. 44)

Gottfried Gabriel hatte von 1995 bis 2009 den Lehrstuhl für Logik und Wissenschaftstheorie an der Friedrich-Schiller-Universität in Jena inne. 




Timberlake
Beiträge: 1677
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 3. Sep 2022, 17:33

NaWennDuMeinst hat geschrieben :
Sa 3. Sep 2022, 17:18
Timberlake hat geschrieben :
Sa 3. Sep 2022, 16:36
Wie dem auch sei , NaWennDuMeinst und Burkart werden sich mit wohl auch mit diesem Beitrag , nicht davon abbringen lassen , weiter , in unzähligen Beiträgen im Trüben zu fischen ..
Nun warte doch mal. Burkart wird mir gleich erklären wie genau Komplexität und Intelligenz zusammenhängen.
Er hat bisher sämtliche Defintionen abgelehnt, besonders die die irgendwas mit Leben zu tun haben.
Nun möchte ich gerne wissen wie man seiner Meinung nach das Intelligente vom Nicht-Intelligenten unterscheidet.
Das wäre ja schon klasse, wenn man einfach nur die Komplexität messen müsste um zu wissen ob etwas intelligent ist oder nicht.
Kannst gerne darauf "warten" ..
Jörn Budesheim hat geschrieben :
Do 11. Aug 2022, 08:41
Burkart hat geschrieben :
Do 11. Aug 2022, 07:05
Schwache KI z.B. in Form von Expertensystemen gibt es ja schon.
Nö, es gibt keine schwache, keine mittlere und keine starke KI. Intelligenz heißt, Probleme in beschränkter Zeit zu lösen. Maschinen haben keine Probleme, also sind sie auch nicht intelligent. Für Maschinen geht es um nichts, das ist einer der entscheidenden Punkte, da ist keiner zu Hause, wie es so schön heißt.

Was ist sog. KI stattdessen? KI sind unsere Werkzeuge. Das Problem ist meines Erachtens nicht die Frage, ob Maschinen intelligent sind, sondern zum Beispiel, wie tief wir in das Zauberlehrling-Szenario reinrutschen werden.
  • "Als Beispiel für den Erkenntniswert kategorialer Metaphern sei die chemische Metapher der 'Ungesättigtheit' angeführt. Sie dient dem Logiker (!) Gottlob Frege, der ansonsten mit Blick auf die Geltung des tertium non datur für seine Forderung nach 'scharfer Begrenzung der Begriffe' bekannt ist, zur Erläuterung des kategorialen Begriffs der Funktion. Der Begriff der Funktion ist nach Frege logisch einfach, also definitorisch nicht auf andere Begriffe zurückführbar, so daß wir mit unseren Begriffen an ein Ende kommen. Zur Erläuterung müsse man daher - so Frege - auf 'bildliche Ausdrücke' zurückgreifen. Dabei geht es nicht um eine ergänzende Veranschaulichung bereits bestehender Begrifflichkeiten, sondern die Metapher tritt an die Stelle fehlender Begrifflichkeit. An ihrem Ur-Grunde, beim logisch Einfachen angelangt, kann also selbst eine so strenge Wissenschaft wie die Logik nicht auf rhetorische Elemente des Unbegrifflichen verzichten." (Gottfried Gabriel; Präzision und Prägnanz. Logische, rhetorische, ästhetische und literarische Erkenntnisformen; S. 44)
.. es könnte ja doch jemand dort zu Hause, um dazu ... - so Frege - auf 'bildliche Ausdrücke' zurückgreifen. Eine Diskussion über das Problem , ob und wie tief wir in das Zauberlehrling-Szenario reinrutschen werden, wird wohl während dessen auf der Strecke bleiben müssen. Möglichweise liegt es ja daran , dass der Erkenntniswert dieser kategorialen Metapher weit weiniger dazu taugt , als chemische Metapher 'Ungesättigtheit' an zu führen , um sich mal der Sprache der Wissenschaften von bildlichen Ausdrücken, von Tropen wie Metaphern und Analogien zu bedienen ..
Nauplios hat geschrieben :
Sa 3. Sep 2022, 17:30
Daß die Sprache der Wissenschaften von bildlichen Ausdrücken, von Tropen wie Metaphern und Analogien, also von figurativen Sprachformen, die traditionell in die Zuständigkeit der Figurenlehre der Rhetorik fallen, durchsetzt ist ... erschließt ein oberflächlicher Blick in die Literatur.

"Als Beispiel für den Erkenntniswert kategorialer Metaphern ..
Zuletzt geändert von Timberlake am Sa 3. Sep 2022, 18:11, insgesamt 9-mal geändert.




Antworten