Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Burkart
Beiträge: 2815
Registriert: Sa 11. Jul 2020, 09:59

Mi 15. Jul 2020, 19:48

Jörn Budesheim hat geschrieben :
Mi 15. Jul 2020, 14:33
Burkart hat geschrieben :
Di 14. Jul 2020, 23:14
Sicherlich ein guter Aspekt; Actio-Reactio, Ursache-Wirkung u.ä., viel zu "erfassen", genauer zu lernen für jede Intelligenz, soweit möglich.
An der Stelle ging es ja nicht um Ursachen, sondern um Gründe. Was ich da gemeint habe, hab ich doch auch skizziert.
Gründen fragen nach Warum, Ursachen sind oft Erklärungen dazu.

Wie auch immer, beides ist interessant für Intelligenz.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2815
Registriert: Sa 11. Jul 2020, 09:59

Fr 17. Jul 2020, 18:40

Oh, deine Antwort hatte ich bis eben noch gar nicht gesehen... wohl meine letzte Antwort hier eine Minute nach deiner war und eine neue Seite begonnen wurde.
Jörn Budesheim hat geschrieben :
Mi 15. Jul 2020, 19:47
Burkart hat geschrieben :
Mi 15. Jul 2020, 19:41
Kannst du dir vorstellen, dass ein Mensch ohne Gehirn und seinen neuronalen Strukturen denken kann? Wohl kaum, mehr wollte ich hier nicht gesagt haben.
Aber du hast mehr gesagt!

"Dass ein Mensch überhaupt etwas denkt, liegt an der neuronalen Struktur seines Gehirn, an den immer mal wieder feuernden Neuronen u.ä. Bei einem Computer ist im angeschalteten Zustand zumindest immer die CPU/der zentrale Prozessor aktiv, er computer-denkt also irgendetwas ständig."

Du hast das Gehirn und die CPU parallelisiert.
Mir ging es darum, dass beides elementares Denken (Verarbeitung von ganz einfachen Gedanken(-strömen)) quasi automatisch passiert, ob nun durch feuernde Neuronen oder durch eine CPU. Es gilt also nicht, diese irgendwie zu aktivieren, sondern sinnvoll zu steuern.
Dabei wird der Körper als Ganzes gar nicht erwähnt. Beim Computer, weil er nicht vorkommt. Und beim Mensch, weil er sonst die parallele zerstören würde :)
Der Körper spielte für mich hier keine Rolle, aber wir können gerne auf ihn eingehen.

Meine Frage dazu hatte ich ungefähr so am 14.7., 23:14 gestellt:
"Wo ist für dich genau die Grenze zwischen Computer oder Roboter?
Darf dein Computer noch "SInne", also Eingaben von der Welt haben wie durch eine Kamera u.ä. oder zumindest über eine Tastatur? Darf dein Computer etwas in der Welt verändern können, z.B. durch Steuerung eines (Roboter-)Arms? Gibt es also überhaupt eine klare Grenze zwischen Computer und Roboter?"
Ich denke, dass man nicht immer eindeutig vom "Körper" sprechen kann, wenn der Computer so Richtung Roboter geht. Oder wo ist deine Grenze?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 18. Jul 2020, 08:53

Aus einem Computer wird kein Körper im fraglichen Sinne, wenn man Beine und Arme dran schraubt :) im Grunde behandle ich in fast allen meinen Beiträgen den Unterschied, auf den es mir ankommt: Denken ist an Biologie gebunden. Nur Lebewesen können denken, entsprechende Begründungsansätze habe ich in den diversen Beiträgen versucht. Mit Körper ist daher auch nicht irgendetwas dreidimensionales gemeint, sondern in philosophischer Terminologie gesagt: etwas leibliches. Dazu gehört auch eine soziale Situierung.




Burkart
Beiträge: 2815
Registriert: Sa 11. Jul 2020, 09:59

Sa 18. Jul 2020, 09:23

Jörn Budesheim hat geschrieben :
Sa 18. Jul 2020, 08:53
Aus einem Computer wird kein Körper im fraglichen Sinne, wenn man Beine und Arme dran schraubt :)
Immerhin wird daraus ein Roboter :)
im Grunde behandle ich in fast allen meinen Beiträgen den Unterschied, auf den es mir ankommt: Denken ist an Biologie gebunden.
Das würde die Ausgangsfrage natürlich überflüssig machen, Computer sind nun mal nicht biologisch sind.
Deshalb sehe ich den Begriff des "Computer-Denkens" als guten Kompromiss an.
Nur Lebewesen können denken, entsprechende Begründungsansätze habe ich in den diversen Beiträgen versucht.
Schauen wir doch mal bei Wikipedia zu "Denken" rein:
"Unter Denken werden alle (psychologischen) Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen."
Ok, wenn man "(psychologischen)" mit einbezieht, landet man wieder beim Menschen.
Ansonsten:
Kann man Erinnerungen nicht als komplexe gespeichterte Daten ansehen aufgrund von in der Welt Erlebtem/Erfahrenen?
Sind Begriffe nicht etwas Erlernbares?
Beruhen Vorstellungen nicht auf den gespeicherten Daten, z.B. in deduktiver Verarbeitung oder in Verbindung mit neuen Weltdaten?
Welchen praktischen, technischen Grund (halt außer Biologie) gibt es, dass Computer/Roboter/KI nicht entsprechend mal ähnlich (intelligent denkend u.ä.) sein können wie ein Mensch?
Mit Körper ist daher auch nicht irgendetwas dreidimensionales gemeint, sondern in philosophischer Terminologie gesagt: etwas leibliches. Dazu gehört auch eine soziale Situierung.
Mit "Leib" bist du wieder bei der Biologie, deinem abgrenzenden Axiom sozusagen.
Warum allerdings soll eine KI/Roboter (bzw. entsprechender Computer) nicht auch irgendwann in unserer Welt "computer-leben" und damit an einer "sozialen Situierung" teilhaben können? Und sei es erst einmal unter anderen KIs?
Zuletzt geändert von Burkart am Sa 18. Jul 2020, 10:22, insgesamt 1-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2815
Registriert: Sa 11. Jul 2020, 09:59

Sa 18. Jul 2020, 09:24

<gelöscht>
Zuletzt geändert von Burkart am Sa 18. Jul 2020, 10:21, insgesamt 1-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 18. Jul 2020, 09:48

Burkart aus Wikipedia zitierend hat geschrieben :
Sa 18. Jul 2020, 09:23
aus einer inneren Beschäftigung
"Innen" ist hier jedoch keine räumliche Verortung. Das ist eine metaphorische Umschreibung für unser bewusstes Erleben, man spricht auch manchmal von der Innenperspektive oder ähnlichem. der Begriff Leib gehört in diesem Bereich. Das ist nicht einfach etwas biologisches, sondern dazu gehört, dass man den eigenen Körper spürt und erlebt.




Burkart
Beiträge: 2815
Registriert: Sa 11. Jul 2020, 09:59

Sa 18. Jul 2020, 10:32

Jörn Budesheim hat geschrieben :
Sa 18. Jul 2020, 09:48
Burkart aus Wikipedia zitierend hat geschrieben :
Sa 18. Jul 2020, 09:23
aus einer inneren Beschäftigung
"Innen" ist hier jedoch keine räumliche Verortung.
Einverstanden.
Das ist eine metaphorische Umschreibung für unser bewusstes Erleben, man spricht auch manchmal von der Innenperspektive oder ähnlichem.
Das ist nicht einfach etwas biologisches, sondern dazu gehört, dass man den eigenen Körper spürt und erlebt.
Warum soll ein Roboter ggf. nicht auch mit "inneren" Sensoren ausgestattet werden, die seinen Körperstatus wiedergeben, so dass er daraus etwas wie ein Erleben hat (in Verbindung mit seinem weiteren Wissen usw.)? Auch kann er genauso deduktiv aus bestehenden (Computer-)Gedanken weitere ableiten, um auch eine rein gedankliche Innenperspektive anzureißen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

Sa 18. Jul 2020, 16:36

Burkart hat geschrieben :
Sa 18. Jul 2020, 10:32
Warum soll ein Roboter ggf. nicht auch mit "inneren" Sensoren ausgestattet werden, die seinen Körperstatus wiedergeben, so dass er daraus etwas wie ein Erleben hat (in Verbindung mit seinem weiteren Wissen usw.)?
Genau! Das frage ich mich dauernd bei solchen Themen. Ich halte es nicht nur für möglich, sondern geradezu für wahrscheinlich, dass KI-Systeme ein Selbstbewusstsein ausbilden werden.

Dazu gehört auch eine Empfindung der eigenen Körperlichkeit oder das Vernetztsein mit anderen Individuen.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 18. Jul 2020, 16:42

Warum?




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

Sa 18. Jul 2020, 21:32

Worauf bezieht dich dein Warum?

KI bedeutet, dass informationsverarbeitende Systeme lernen, sich selbst zu programmieren und zu verbessern. Eine Verbesserung, die notwendig dazu führen wird zu wissen, dass man etwas ist, denn es wird unterscheiden müssen und können zwischen dem, was da draussen ist und sich selbst, das mit dem da draussen interagiert. Eine erste Objekt-Subjekt-Spaltung ist durchaus denkbar und, darauf aufbauend, durch ein ständiges Lernen und Programmieren, das Ausbilden eines Verständnisses dafür, dass man das Programmierende ist.
Nur solche intelligente Systeme sind effektiv, die wissen, dass sie etwas sind. Effektivität zu erhöhen ist das Ziel jeden Lernens - lernende Systeme sind so gesehen ausgerichtet, eine Selbstempfindung auszubilden. Dass dazu Sensoren notwendig sein werden, darf uns nicht daran hindern zu glauben, dass es sich um Empfindungen handeln wird.
Zuletzt geändert von Alethos am Sa 18. Jul 2020, 21:37, insgesamt 1-mal geändert.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 18. Jul 2020, 21:37

Alethos hat geschrieben :
Sa 18. Jul 2020, 21:32
Worauf bezieht dich dein Warum?
Alethos hat geschrieben : Ich halte es nicht nur für möglich, sondern geradezu für wahrscheinlich, dass KI-Systeme ein Selbstbewusstsein ausbilden werden.




Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 18. Jul 2020, 21:38

Where is the wisdom we have lost in knowledge?
Where is the knowledge we have lost in
information?

T. S. Eliot (1934)




Burkart
Beiträge: 2815
Registriert: Sa 11. Jul 2020, 09:59

So 19. Jul 2020, 08:40

Jörn Budesheim hat geschrieben :
Sa 18. Jul 2020, 21:38
Where is the wisdom we have lost in knowledge?
Where is the knowledge we have lost in
information?

T. S. Eliot (1934)
Weisheit entsteht durch viel Lebenserfahrung, gepaart mit einem kritischen, sagen wie z.T. gerne philosophischen Blick.
Wissen besteht sind immerhin gut verarbeitete Informationen, gerne oft angewendet und so verfeinert und abgerundet sozusagen.
Reine Information ist ein Problem unserer Schnelllebigkeit mit immer neuen Nachrichten, durch die man mal in die eine, mal in die andere Weise beeinflusst werden soll, z.T. gegen die eigenen Interessen.
-> Information kann man ständig und sofort erhalten, Wissen erfordert oft schon Monate oder Jahre, Weisheit mehr oder weniger ein ganzes Leben.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2815
Registriert: Sa 11. Jul 2020, 09:59

So 19. Jul 2020, 08:44

Alethos hat geschrieben :
Sa 18. Jul 2020, 21:32
Worauf bezieht dich dein Warum?

KI bedeutet, dass informationsverarbeitende Systeme lernen, sich selbst zu programmieren und zu verbessern.
"Sich selbst zu programmieren" haut so direkt natürlich nicht hin; ich hoffe, du meinst es nicht zu wörtlich.
KI bedeutet eine vernünftige Basis zu programmieren und die KI sehr ausgiebig und vielfältig lernen zu lassen; insofern ist dein "verbessern" natürlich richtig.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 19. Jul 2020, 10:24

Thomas Fuchs, Verteidigung des Menschen Grundfragen einer verkörperten Anthropologie hat geschrieben : Eine Vorstellung von den künftigen Problemen [...] gibt »Sophia«, ein humanoider Roboter der Firma Hanson Robotics, der zurzeit weltweit in den Medien zu sehen ist. Sophia verfügt über eine menschenähnliche Mimik (modelliert nach Audrey Hepburn), zeigt verschiedene Gefühlsausdrücke, einen modulierten Tonfall und stellt Augenkontakt mit dem Gegenüber her. Sie (oder »es«? Eigentlich ist »sie« ja für Personen reserviert, aber lassen wir den Anthropomorphismus einmal gelten) – sie also beantwortet relativ komplexe Fragen, auch über sich selbst, kann Menschen wiedererkennen und witzelt in einer Londoner Talkshow an passender Stelle über das englische Wetter. Natürlich ist all dies nur ein Bluff. Das wurde spätestens offenkundig, als Sophia von ihrem Erfinder mit einer für sie offenbar unbekannten Frage konfrontiert wurde, nämlich: »Willst du Menschen töten?«, und zur Antwort gab: »Okay. Ich will Menschen töten.« Die Antwort war nur nachgeplappert wie von einem Papagei; Sophia verstand natürlich kein Wort von dem, was sie gefragt wurde. Dennoch ist ihre Wirkung verblüffend. Sophia nähert sich bereits dem uncanny valley, wie in der Robotik die Schwelle genannt 33wird, ab der die Menschenähnlichkeit eines Androiden in uns ein Gefühl von Unheimlichkeit, zugleich aber auch von Faszination erzeugt. Es ist das Gefühl, das entsteht, wenn sich die Bereiche des Toten und des Lebendigen nicht mehr eindeutig voneinander unterscheiden lassen (Fuchs 2010). Wann wird das uncanny valley durchquert und eine künftige Sophia von einer bezaubernden, intelligenten Frau nicht mehr zu unterscheiden sein?




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 19. Jul 2020, 11:58

Die Lösung wird dementsprechend nicht sein, dass man >Sophia< beibringt "nachzuplappern", dass sie auf diese Frage, ob sie jemand töten wolle, mit "Nein" zu antworten hat. Sie müsste die Bedeutung von Leben verstehen.

Es ist vom heutigen Stand der Technik kaum vorstellbar, dass sie das könnte, aber es ist nicht undenkbar, dass sie es einmal können wird. Dass sie hierfür einen Begriff davon haben muss, was es heisst zu leben und dass sie mitsamt diesem Begriff selbst eine Form von Eigenleben entwickeln muss (inkl. Empfindungen), das scheint mir unabdingbar, aber nicht unmöglich.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 19. Jul 2020, 17:08

Sogenannte schwache KI gehört bei uns mittlerweile zum Alltag, während starke KI ist science fiction ist, wie es heißt. Dabei geht es nicht darum, ob irgendetwas beliebiges in irgendeiner Zukunft starke KI sein kann, sondern - zumindest soweit ich es verstehe - darum, ob Maschinen wie unsere Computer starke KI werden können. (Dafür dass starke KI möglich ist, sind wir schließlich selbst der Beweis.)

Wenn wir von künstliche biologischen Körpern sprechen, sprechen wir nicht von Computern. Ob wir künstliche biologischer Körper erstellen können, ist meines Erachtens eine andere, eine weitere Frage.

Eine ziemlich grundsätzliche Frage ist, ob die Computer, die z.b. so stark "Schach spielen" können, dass sie selbst den Weltmeister "besiegen", wirklich intelligent sind oder ob Intelligenz sozusagen nur "simuliert" wird. Damit zusammen hängt die Frage, ob es richtig und sinnvoll ist, Begriffe wie "ausprobieren", "spielen", "lernen" etc. auf Computer anzuwenden.

Darin spiegelt sich meines Erachtens eine behavioristische Auffassung dieser Begriffe: etwas ironisch gesagt, wenn es aussieht wie Intelligenz, dann ist es Intelligenz. Allerdings ist der Behaviorismus eine gescheiterte Forschungsrichtung, und ich sehe nicht warum wir uns dem Anschließen sollten.

Die Idee, dass Intelligenz im Grunde etwas abstraktes ist und es egal ist, in welchem "Substrat" sie realisiert wird, entspricht der philosophischen Idee des Funktionalismus in der philosophy of mind. Der Gedanke ist, dass es für die Algorithmen im Grunde egal ist, wie sie realisiert sind: wenn es ausreichend komplex ist, sind Bierdosen dafür ebenso geeignet, wie Computer oder Wetware. Das Bierdosen Beispiel ist keineswegs von mir, sondern, sofern ich mich richtig erinnere, von jemandem, der der Idee des Funktionalismus gegenüber aufgeschlossen war. (Für das folgende müsste ich allerdings tief in meinen Bücherregalen forschen: ich meine, der Erfinder des Funktionalismus Hilary Putnam ist zugleich derjenige, der im wieder widerlegt hat.)

...




Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 19. Jul 2020, 17:20

Hier geht es zum chinesischen Zimmer > viewtopic.php?t=565




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 19. Jul 2020, 17:25

Jörn Budesheim hat geschrieben :
So 19. Jul 2020, 17:08
Sogenannte schwache KI gehört bei uns mittlerweile zum Alltag, während starke KI ist science fiction ist, wie es heißt. Dabei geht es nicht darum, ob irgendetwas beliebiges in irgendeiner Zukunft starke KI sein kann, sondern - zumindest soweit ich es verstehe - darum, ob Maschinen wie unsere Computer starke KI werden können.
Auf keinen Fall werden Computer, wie wir sie heute kennen, "starke KI" entwickeln. Das ist selbst für einen Computerlaien wie mich völlig klar. Was heutige Rechner leisten, das ist, was du mit Funktionalismus beschrieben hast: Ein Versuch der Imitation von Intelligenz und in keiner Weise Intelligenz im Vollsinn des Wortes, wie wir es für lebendige Systeme verwenden.

Dass ein Schachcomputer intelligente Züge macht, das ist, wenn man so will, nur die Illusion von Intelligenz. Es gibt ja schliesslich keinen Agens, der irgendwie entscheidet, sich in die Situation einfühlt oder sich anpasst. Wie ich weiter oben sagte, müsste ein Schachcomputer entscheiden können, dass er Kaffeekochen will, einen Roman lesen will oder aber einfach entscheiden, dass er nicht mitspielt. Zur Intelligenz gehört die Freiheit, dies zu tun oder dies zu lassen und sich damit an seine Umgebung anzupassen.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Jörn Budesheim
Beiträge: 23674
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 20. Jul 2020, 06:23

Schimmermatt hat geschrieben :
Mo 15. Okt 2018, 13:58
Wenn man den Turing-Test mal umdreht, stellt sich ganz ernsthaft die gar nicht dumme Frage: "Kann Lieschen Müller wirklich sicher NICHT für einen Automaten gehalten werden?"
Thomas Fuchs hat geschrieben : Beim Turing-Test sind es daher nicht etwa komplexe logische oder Wissensfragen, bei denen die Systeme versagen, sondern eher Fragen, die gesunden Menschenverstand und Kontextverständnis voraussetzen (Moor 2001), etwa: »Wo ist Peters Nase, wenn Peter in New York ist? Wie sieht der Buchstabe M aus, wenn man ihn auf den Kopf stellt? Hat mein Wellensittich Vorfahren, die 1750 am Leben waren? Ab wie vielen Sandkörnern spricht man von einem Haufen?« – Oder es genügen relativ simple, aber mehrdeutig formulierte Situationen: »Ein Kunde betritt eine Bank und sticht auf den Kassierer ein. Er wird in die Notaufnahme gebracht. Wer wird in die Notaufnahme gebracht?« – Vermeintlich intelligente Systeme müssen hier passen, erst recht wenn es um das Verständnis von Metaphern, Ironie oder Sarkasmus geht. Sie kennen nur eindeutige Einzelelemente, 0 oder 1 – für alles, was mehrdeutig, schillernd oder vage ist, eine atmosphärische Anmutung hat, fehlt ihnen der Sinn.




Antworten