Die Kontextverständnis-Beispiele zeigen gut, wie Allgemeinwissen und Verständnis wichtig sind. Die aktuellen Systemen haben beides nicht wirklich und scheitern deshalb. Verständnis ist halt ein wichtiger Punkt, den wir einer starken KI beibringen müssen, und natürlich muss sie auch viel Allgemeinwissen samt desses Verstehens erlernen. Dazu gehören auch Metaphern u.ä. Das hat aber nichts mit 0/1-"Einzelelementen" zu tun.Jörn Budesheim hat geschrieben : ↑Mo 20. Jul 2020, 06:23In welcher Beziehung ist das für dich so interessant? Dass L.M. auch einfach zu dumm sein kann? Dass irgendwann Automaten doch so gut sind, das L.M. für ähnlich dumm gehalten werden kann?Schimmermatt hat geschrieben : ↑Mo 15. Okt 2018, 13:58Wenn man den Turing-Test mal umdreht, stellt sich ganz ernsthaft die gar nicht dumme Frage: "Kann Lieschen Müller wirklich sicher NICHT für einen Automaten gehalten werden?"
Thomas Fuchs hat geschrieben : Beim Turing-Test sind es daher nicht etwa komplexe logische oder Wissensfragen, bei denen die Systeme versagen, sondern eher Fragen, die gesunden Menschenverstand und Kontextverständnis voraussetzen (Moor 2001), etwa: »Wo ist Peters Nase, wenn Peter in New York ist? Wie sieht der Buchstabe M aus, wenn man ihn auf den Kopf stellt? Hat mein Wellensittich Vorfahren, die 1750 am Leben waren? Ab wie vielen Sandkörnern spricht man von einem Haufen?« – Oder es genügen relativ simple, aber mehrdeutig formulierte Situationen: »Ein Kunde betritt eine Bank und sticht auf den Kassierer ein. Er wird in die Notaufnahme gebracht. Wer wird in die Notaufnahme gebracht?« – Vermeintlich intelligente Systeme müssen hier passen, erst recht wenn es um das Verständnis von Metaphern, Ironie oder Sarkasmus geht. Sie kennen nur eindeutige Einzelelemente, 0 oder 1 – für alles, was mehrdeutig, schillernd oder vage ist, eine atmosphärische Anmutung hat, fehlt ihnen der Sinn.
Wissenschaftler: Computer werden niemals denken können
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Was verstehst du unter diesen Computer? Sind Roboter für dich schon was anderes? Falls ja, wo ist der große Unterschied (z.B. wenn ein Computer einen Roboterarm bedienen kann u.ä.)?Alethos hat geschrieben : ↑So 19. Jul 2020, 17:25Auf keinen Fall werden Computer, wie wir sie heute kennen, "starke KI" entwickeln.Jörn Budesheim hat geschrieben : ↑So 19. Jul 2020, 17:08Sogenannte schwache KI gehört bei uns mittlerweile zum Alltag, während starke KI ist science fiction ist, wie es heißt. Dabei geht es nicht darum, ob irgendetwas beliebiges in irgendeiner Zukunft starke KI sein kann, sondern - zumindest soweit ich es verstehe - darum, ob Maschinen wie unsere Computer starke KI werden können.
Wie unterscheidest du Illusion von Realtität? Kann man sie wirklich so einfach trennen? Ist es nicht egal, ob ein Mensch oder Computer einen Schachzug ausknobelt?Das ist selbst für einen Computerlaien wie mich völlig klar. Was heutige Rechner leisten, das ist, was du mit Funktionalismus beschrieben hast: Ein Versuch der Imitation von Intelligenz und in keiner Weise Intelligenz im Vollsinn des Wortes, wie wir es für lebendige Systeme verwenden.
Dass ein Schachcomputer intelligente Züge macht, das ist, wenn man so will, nur die Illusion von Intelligenz.
Kannst du dich entscheiden, Arme schwingend fliegen zu wollen? Kannst du dich entscheiden, ab morgen ein Fisch zu sein?Es gibt ja schliesslich keinen Agens, der irgendwie entscheidet, sich in die Situation einfühlt oder sich anpasst. Wie ich weiter oben sagte, müsste ein Schachcomputer entscheiden können, dass er Kaffeekochen will, einen Roman lesen will oder aber einfach entscheiden, dass er nicht mitspielt. Zur Intelligenz gehört die Freiheit, dies zu tun oder dies zu lassen und sich damit an seine Umgebung anzupassen.
Jedes System ist irgendwo beschränkt.
Klar, heutige Computer/Programme/KI ist/sind es viel mehr als Menschen, aber deshalb gibt es halt auch noch keine starke KI, die noch zu entwickeln ist.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Das hängt von "Maschinen wie unsere Computer" ab. Sind welche, die Richtung Roboter gehen, auch noch solche? (Das Thema habe ich schon mehrfach so oder ähnlich aufgegriffen ohne echte Antwort hier.)Jörn Budesheim hat geschrieben : ↑So 19. Jul 2020, 17:08Sogenannte schwache KI gehört bei uns mittlerweile zum Alltag, während starke KI ist science fiction ist, wie es heißt. Dabei geht es nicht darum, ob irgendetwas beliebiges in irgendeiner Zukunft starke KI sein kann, sondern - zumindest soweit ich es verstehe - darum, ob Maschinen wie unsere Computer starke KI werden können. (Dafür dass starke KI möglich ist, sind wir schließlich selbst der Beweis.)
Das sehe ich auch so.Wenn wir von künstliche biologischen Körpern sprechen, sprechen wir nicht von Computern. Ob wir künstliche biologischer Körper erstellen können, ist meines Erachtens eine andere, eine weitere Frage.
Kann ein Zug bzw. ein Spiel nur simuliert werden? Dass Intelligenz gerne immer das ist, was Computer noch nicht können, ist ja nichts Neues.Eine ziemlich grundsätzliche Frage ist, ob die Computer, die z.b. so stark "Schach spielen" können, dass sie selbst den Weltmeister "besiegen", wirklich intelligent sind oder ob Intelligenz sozusagen nur "simuliert" wird.
Warum sollte das nicht sinnvoll sein? Dass Programme lernen können, ist wirklich nichts Neues. Ok, bei "spielen" wird es etwas haariger.Damit zusammen hängt die Frage, ob es richtig und sinnvoll ist, Begriffe wie "ausprobieren", "spielen", "lernen" etc. auf Computer anzuwenden.
Der Turingtest als behavioristischer Beweis (bzw. Zeichen) für Intelligenz ist für mich nicht gescheitert; das chinesische Zimmer ist jedenfalls kein Gegenbeweis.Darin spiegelt sich meines Erachtens eine behavioristische Auffassung dieser Begriffe: etwas ironisch gesagt, wenn es aussieht wie Intelligenz, dann ist es Intelligenz. Allerdings ist der Behaviorismus eine gescheiterte Forschungsrichtung, und ich sehe nicht warum wir uns dem Anschließen sollten.
Und was hast du gegen Bierdosen?Die Idee, dass Intelligenz im Grunde etwas abstraktes ist und es egal ist, in welchem "Substrat" sie realisiert wird, entspricht der philosophischen Idee des Funktionalismus in der philosophy of mind. Der Gedanke ist, dass es für die Algorithmen im Grunde egal ist, wie sie realisiert sind: wenn es ausreichend komplex ist, sind Bierdosen dafür ebenso geeignet, wie Computer oder Wetware. Das Bierdosen Beispiel ist keineswegs von mir, sondern, sofern ich mich richtig erinnere, von jemandem, der der Idee des Funktionalismus gegenüber aufgeschlossen war. (Für das folgende müsste ich allerdings tief in meinen Bücherregalen forschen: ich meine, der Erfinder des Funktionalismus Hilary Putnam ist zugleich derjenige, der im wieder widerlegt hat.)
...
Schon klar, der Funktionalismus wirkt kalt und fremd, aber so abwegig ist er auch nicht.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn Budesheim
- Beiträge: 23495
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
du hast meines Erachtens von Alethos und mir dazu schon wiederholt Antworten kommen. Ich weiß nicht ob die echt waren, wir leben schließlich in Zeiten der Fake News. Der Unterschied ist der Leib.
Die Unterscheidung zwischen Computern, wie wir sie heute kennen, und Computern, wie ich sie mir für die Entwicklung von Intelligenz vorstelle, liegt nicht so sehrBurkart hat geschrieben : ↑Mo 20. Jul 2020, 18:12Was verstehst du unter diesen Computer? Sind Roboter für dich schon was anderes? Falls ja, wo ist der große Unterschied (z.B. wenn ein Computer einen Roboterarm bedienen kann u.ä.)?Alethos hat geschrieben : ↑So 19. Jul 2020, 17:25Auf keinen Fall werden Computer, wie wir sie heute kennen, "starke KI" entwickeln.Jörn Budesheim hat geschrieben : ↑So 19. Jul 2020, 17:08Sogenannte schwache KI gehört bei uns mittlerweile zum Alltag, während starke KI ist science fiction ist, wie es heißt. Dabei geht es nicht darum, ob irgendetwas beliebiges in irgendeiner Zukunft starke KI sein kann, sondern - zumindest soweit ich es verstehe - darum, ob Maschinen wie unsere Computer starke KI werden können.
in der Anordnung des Computers (auf dem
Tisch, in einem Roboter). Ich denke, dass diese Computer der Zukunft grundsätzlich anders funktionieren müssen: nicht als binäres, sondern eher als holistisches System. Ich kann dazu aber nichts genaues sagen, da ich kein Informatikwissenschaftler bin.
Der Computer knobelt ja nicht, der rattertWie unterscheidest du Illusion von Realtität? Kann man sie wirklich so einfach trennen? Ist es nicht egal, ob ein Mensch oder Computer einen Schachzug ausknobelt?
nur alle Optionen ab und kommt
zu einem Ergebnis. Da ist keine Intuition dabei, keine Aufregung, keine Anstrengung. Das gehört für mich zum Knobeln dazu.
Betreffend Illusion von Intelligenz und realer Intelligenz: Wenn man die Spielregeln ändert, kann ein Mensch mit "Knobeln" rausfinden, wie das neue Spiel funktioniert. Ein Mensch kann deduzieren und adaptieren, weil er intelligent ist. Das kann ein Computer nicht, man muss ihm zuerst alle Schritte neu programmieren, damit er richtig Schach spielt. Da ist kein Wissendes oder Intelligentes, sondern nur etwas, das so scheint, als wäre es intelligent.
Nimm das Beispiel mit Sophia und ihrer Mimik: Da steckt kein Gefühl hinter der Mimik, keine Emotion im sich verändernden Tonfall. Das ist alles nur Hülle. Auch der Schachcomputer ist nur der Hülle nach ein intelligentes Ding.
Ja, das meine ich ja. Eine starke KI müsste entscheiden können, ob sie statt Schach zu spielen doch lieber einen Roman liest. Und damit sie das eine dem anderen vorziehen kann, muss sie den Dingen einen Wert beimessen können - nicht zuletzt sich selbst und den eigenen Wünschen und Befindlichkeiten. Dass dies möglich sein wird, halte ich für möglich, wie schon gesagt.Kannst du dich entscheiden, Arme schwingend fliegen zu wollen? Kannst du dich entscheiden, ab morgen ein Fisch zu sein?
Jedes System ist irgendwo beschränkt.
Klar, heutige Computer/Programme/KI ist/sind es viel mehr als Menschen, aber deshalb gibt es halt auch noch keine starke KI, die noch zu entwickeln ist.
-------------------------------
Alle lächeln in derselben Sprache.
Alle lächeln in derselben Sprache.
- Jörn Budesheim
- Beiträge: 23495
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Es ist uns ja sogar lästig, Mensch zu sein – ein Mensch mit wirklichem, eigenem Fleisch und Blut; wir schämen uns dessen, halten es für eine Schmach und trachten lieber danach, irgendwelche phänomenalen Allgemeinmenschen zu sein. […] Bald werden wir so weit sein, dass wir von einer Idee gezeugt werden.
F. J. Dostojewski (zitiert nach Thomas Fuchs, Verteidigung des Menschen)
Wenn "Leib" als etwas Biologisches dein Kriterium ist, können wir uns eine weitere Diskussion ersparen, da du Leben voraussetzt, was für Computer/Roboter keinen Sinn macht.Jörn Budesheim hat geschrieben : ↑Mo 20. Jul 2020, 18:30du hast meines Erachtens von Alethos und mir dazu schon wiederholt Antworten kommen. Ich weiß nicht ob die echt waren, wir leben schließlich in Zeiten der Fake News. Der Unterschied ist der Leib.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn Budesheim
- Beiträge: 23495
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Denken, Intelligenz, Wünschen, Ziele anstreben und so weiter und so fort ... das gibt es nur da, wo es Leben gibt. Deswegen künstliche Intelligenz bereits ein Widerspruch in sich.
Alethos hat geschrieben : ↑Mo 20. Jul 2020, 23:38Die Unterscheidung zwischen Computern, wie wir sie heute kennen, und Computern, wie ich sie mir für die Entwicklung von Intelligenz vorstelle, liegt nicht so sehr
in der Anordnung des Computers (auf dem
Tisch, in einem Roboter). Ich denke, dass diese Computer der Zukunft grundsätzlich anders funktionieren müssen: nicht als binäres, sondern eher als holistisches System. Ich kann dazu aber nichts genaues sagen, da ich kein Informatikwissenschaftler bin.Was würdest du dazu sagen, dass ein Mensch nicht als atomares, sondern als holistisches System bestehen soll? Daran erinnert mich dein der Vergleich sehr. Nimm das "atomar" sonst "synaptisch", wenn dir das besser gefällt. Ich wundere mich, warum so oft völlig verschiedene Ebenen durcheinander geworfen werden.
Wie unterscheidest du Illusion von Realtität? Kann man sie wirklich so einfach trennen? Ist es nicht egal, ob ein Mensch oder Computer einen Schachzug ausknobelt?Ok, die schwache KI ist da etwas langweilig, aber wenn das Ergebnis das gleiche ist... Also hälst du auch nichts von Turingtest, weil das ein Computer auch nur alles "runterrattern" könnte?Der Computer knobelt ja nicht, der rattert nur alle Optionen ab und kommt zu einem Ergebnis.
Bei starker KI kann Intuition durch Un(ter)bewusstein dabei sein. Intelligenz hat mit Aufregung und menschlicher Anstrengung allerdings nicht viel zu tun, wobei komplexe Lösungen allerdings auch mit etwas wie "Anstrengung" im übertragenen Sinne zu tun haben kann.Da ist keine Intuition dabei, keine Aufregung, keine Anstrengung. Das gehört für mich zum Knobeln dazu.
Das könnte ein allgemeine KI u.U. schon, wenn sie Spiele richtig versteht, also auch deren Ziele, Sinn u.ä.Betreffend Illusion von Intelligenz und realer Intelligenz: Wenn man die Spielregeln ändert, kann ein Mensch mit "Knobeln" rausfinden, wie das neue Spiel funktioniert. Ein Mensch kann deduzieren und adaptieren, weil er intelligent ist. Das kann ein Computer nicht,
> man muss ihm zuerst alle Schritte neu programmieren, damit er richtig Schach spielt.
Na ja, es gab schon Systeme, die angeblich in wenigen Stunden durch Lernen von unzähligen Partien und Stellungen sehr gut Schach spielen konnten.
> Da ist kein Wissendes oder Intelligentes, sondern nur etwas, das so scheint, als wäre es intelligent.
Nur wenn es wirklich alles durchprogrammiert wäre.
So wird es bei Sophia wohl sein.Nimm das Beispiel mit Sophia und ihrer Mimik: Da steckt kein Gefühl hinter der Mimik, keine Emotion im sich verändernden Tonfall. Das ist alles nur Hülle.
Es ist halt schach-intelligent sozusagen.Auch der Schachcomputer ist nur der Hülle nach ein intelligentes Ding.
Wenn die KI ein Werkzeug/Diener sein soll, muss sich unbedingt groß eigene Wünsche haben (und "Befindlichkeiten" klingt sehr menschlich); sie soll vor allem für uns da sein. (Und ja, auch Diener können intelligent sein.)
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Nur weil die Intelligenz u.a. so axiomatisch an Leben bindest.Jörn Budesheim hat geschrieben : ↑Di 21. Jul 2020, 20:30Denken, Intelligenz, Wünschen, Ziele anstreben und so weiter und so fort ... das gibt es nur da, wo es Leben gibt. Deswegen künstliche Intelligenz bereits ein Widerspruch in sich.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn Budesheim
- Beiträge: 23495
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Am Wochenende habe ich mir ein Buch gekauft von Thomas Fuchs, ich habe das ja schon erwähnt. Dort hat er die wesentlichen Unterschiede, auf die Alethos und ich zum Teil schon hingewiesen haben, in systematischer Form in eine Tabelle gepackt. (Für so etwas hat man die Philosophen ja schließlich.)
Leben
Von 1981 bis 1988 studierte Fuchs Medizin, Philosophie und Wissenschaftsgeschichte. 1990 wurde er in Medizingeschichte mit einer Dissertation über Die Mechanisierung des Herzens – Harvey und Descartes promoviert. In den Jahren von 1989 bis 1996 folgte eine psychiatrische Ausbildung an der TU München. 1995 wurde er zum Facharzt für Psychiatrie und Psychotherapie ernannt. Seit 1997 ist Fuchs Oberarzt an der Psychiatrischen Universitätsklinik Heidelberg sowie Leiter der Sektion Phänomenologische Psychopathologie und Psychotherapie. 1999 folgte seine Habilitation in Psychiatrie an der Universität Heidelberg. 1999 promovierte er in Philosophie zum Thema "Leib, Raum, Person. Entwurf einer phänomenologischen Anthropologie".
Seit 2004 ist er Leiter des Referats "Philosophische Grundlagen" der Deutschen Gesellschaft für Psychiatrie, Psychotherapie und Nervenheilkunde, seit 2005 Professor für Psychiatrie und Psychotherapie an der Universität Heidelberg. Seit 2008 Fellow im Marsilius-Kolleg (Center for Advanced Interdisciplinary Studies) Heidelberg und Direktor des Interdisziplinären Forums für Biomedizin und Kulturwissenschaften (IFBK). 2010 schließlich folgte seine Habilitation in Philosophie an der Universität Heidelberg und die Ernennung zum Karl Jaspers-Professor für Philosophische Grundlagen der Psychiatrie und Psychotherapie.[1] Seit 2012 ist er Forschungsstellenleiter des Editionsprojekts "Karl-Jaspers-Gesamtausgabe" an der Heidelberger Akademie der Wissenschaften und seit 2013 erster Vorsitzender der Deutschen Gesellschaft für Phänomenologische Anthropologie, Psychiatrie und Psychotherapie (DGAP). 2019 wurde Fuchs zum Vize-Präsidenten der Deutsche Gesellschaft für phänomenologische Forschung gewählt. Zusammen mit Lambert Wiesing, der zeitgleich zum Präsidenten gewählt wurde, leitet er die Gesellschaft.
(Wikipedia)
Thomas Fuchs (* 29. September 1958 in München) ist ein deutscher Psychiater und Philosoph.Thomas Fuchs hat geschrieben : Verteidigung des Menschen, Grundfragen einer verkörperten Anthropologie
Die nachfolgende Tabelle fasst die herausgearbeiteten Unterschiede zwischen menschlicher und künstlicher Intelligenz noch einmal zusammen.
Leben
Von 1981 bis 1988 studierte Fuchs Medizin, Philosophie und Wissenschaftsgeschichte. 1990 wurde er in Medizingeschichte mit einer Dissertation über Die Mechanisierung des Herzens – Harvey und Descartes promoviert. In den Jahren von 1989 bis 1996 folgte eine psychiatrische Ausbildung an der TU München. 1995 wurde er zum Facharzt für Psychiatrie und Psychotherapie ernannt. Seit 1997 ist Fuchs Oberarzt an der Psychiatrischen Universitätsklinik Heidelberg sowie Leiter der Sektion Phänomenologische Psychopathologie und Psychotherapie. 1999 folgte seine Habilitation in Psychiatrie an der Universität Heidelberg. 1999 promovierte er in Philosophie zum Thema "Leib, Raum, Person. Entwurf einer phänomenologischen Anthropologie".
Seit 2004 ist er Leiter des Referats "Philosophische Grundlagen" der Deutschen Gesellschaft für Psychiatrie, Psychotherapie und Nervenheilkunde, seit 2005 Professor für Psychiatrie und Psychotherapie an der Universität Heidelberg. Seit 2008 Fellow im Marsilius-Kolleg (Center for Advanced Interdisciplinary Studies) Heidelberg und Direktor des Interdisziplinären Forums für Biomedizin und Kulturwissenschaften (IFBK). 2010 schließlich folgte seine Habilitation in Philosophie an der Universität Heidelberg und die Ernennung zum Karl Jaspers-Professor für Philosophische Grundlagen der Psychiatrie und Psychotherapie.[1] Seit 2012 ist er Forschungsstellenleiter des Editionsprojekts "Karl-Jaspers-Gesamtausgabe" an der Heidelberger Akademie der Wissenschaften und seit 2013 erster Vorsitzender der Deutschen Gesellschaft für Phänomenologische Anthropologie, Psychiatrie und Psychotherapie (DGAP). 2019 wurde Fuchs zum Vize-Präsidenten der Deutsche Gesellschaft für phänomenologische Forschung gewählt. Zusammen mit Lambert Wiesing, der zeitgleich zum Präsidenten gewählt wurde, leitet er die Gesellschaft.
(Wikipedia)
Ist ja schön, so eine Gegenüberstellung laut Thomas Fuchs... er ist eben anscheinend keiner, der sich Potential starker KI vorstellen kann.
Z.B.: Hochspezialisierung gilt vor allem für schwache KI; eine allgemeine hat ganz andere Ziele. Ähnlich ist es mit "ohne Verständnis", dies erfordert halt nur einiges mehr als schwache KI u.ä.
Zukunftsbezug ist möglich, auch Problemlösen auf Basis von früheren Lösungen und somit eigenen KI-Erfahrungen usw. usf.
Z.B.: Hochspezialisierung gilt vor allem für schwache KI; eine allgemeine hat ganz andere Ziele. Ähnlich ist es mit "ohne Verständnis", dies erfordert halt nur einiges mehr als schwache KI u.ä.
Zukunftsbezug ist möglich, auch Problemlösen auf Basis von früheren Lösungen und somit eigenen KI-Erfahrungen usw. usf.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn Budesheim
- Beiträge: 23495
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Zukunftsbezug ist nicht möglich, wenn es kein Ich und kein Zeitempfinden gibt.
Ein Selbstbewusstsein (zum Ich) ist schon möglich, weil eine KI ja individuell lernt und auch lernt, wo sie selbst in der Welt etwas verändert und die Änderung selbst ausgelöst hat und so auf sich beziehen kann.Jörn Budesheim hat geschrieben : ↑Mi 22. Jul 2020, 05:56Zukunftsbezug ist nicht möglich, wenn es kein Ich und kein Zeitempfinden gibt.
Für Zeit mag man ihr eine interne Uhr einbauen; wie sie Zeit dann "empfindet" bzw. genauer verarbeitet, muss man dann mal schauen. Zumindest kann sie z.B bei Gelerntem feststellen, dass etwas nicht gut (genug) war und sich *in der Zukunft* vornehmen, es besser zu machen bzw. machen zu wollen.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn Budesheim
- Beiträge: 23495
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Das ist doch sehr eingängig geschrieben! Quelle: Matthias Eckoldt, Kann sich das Bewusstsein bewusst sein? (Sehr empfehlenswert!)CHRISTOF KOCH hat geschrieben :
Diese Technik, die wir zip and zap nennen, ist für den Kortex entwickelt und würde für andere Strukturen, wie die, die man bei Computern findet, nicht funktionieren. Aber die Integrated Information Theory (IIT) ist eine mathematische Theorie, die auf jedes physikalische System anwendbar ist. Wenn man sich digitale, programmierbare Computer anschaut, sagt die Theorie voraus, dass das Phi von einem solchen System eher gering ist. Ein Programm kann kausale Wirkung simulieren, aber das ist nicht dasselbe, wie kausale Wirksamkeit zu besitzen. Lassen Sie es mich an einem Beispiel erklären. Betrachten wir ein Computerprogramm, das die einsteinschen Feldgleichungen der Allgemeinen Relativitätstheorie simuliert und Masse in Relation zur Krümmung des Raumes setzt. Dieses Programm kann ein schwarzes Loch simulieren, das eine derart starke Gravitationswirkung auf seine Nachbarschaft ausübt, dass nicht einmal Licht von diesem erkalteten Stern entfliehen kann. Dennoch wird der Mikroprozessor, der dieses Programm rechnet, die Raum-Zeit um ihn herum nicht beeinflussen. Denn seine Masse ist winzig und die Kosmologin, die dieses Programm geschrieben hat, muss nicht befürchten, dass sie durch die extreme Anziehungskraft des schwarzen Lochs, das sie simuliert, in ihren Laptop gesaugt wird. Die Fähigkeit des schwarzen Lochs, die Raumkrümmung zu beeinflussen – also seine Wirksamkeit auf andere Dinge – kann man simulieren. Aber diese Simulation besitzt nicht die tatsächliche Wirkung des schwarzen Lochs.
MATTHIAS ECKOLDT: Ebenso wenig wie es in einem Computer nass wird, wenn man Regen mit einem Wetterprogramm simuliert.
CHRISTOF KOCH: So ist es. Was nun für die kausale Wirkung nach außen, für andere Systeme gilt, gilt ebenso für die nach innen – für die Selbstwirksamkeit. Daher kann menschliches Bewusstsein nicht durch einen Computer simuliert werden, weil ein programmierbarer Computer so gut wie keinerlei Selbstwirksamkeit hat und dementsprechend auch so gut wie nichts erleben würde. Selbst dann noch, wenn der Computer das menschliche Gehirn simuliert. Wenn wir in, sagen wir, einhundert Jahren alles vom menschlichen Gehirn wissen und das alles in einen Computer einspeisen, dann könnte dieses System aufwachen und sagen: Ich bin bewusst! Dann ist das aber alles nur Show. Denn dieses System, das die Abläufe im menschlichen Gehirn simuliert, fühlt sich eben nicht nach einem menschlichen Bewusstsein an.
MATTHIAS ECKOLDT: Die Frage von Thomas Nagel, die er 1974 in seinem Essay »Wie ist es, eine Fledermaus zu sein?« stellte, ist für Sie tatsächlich die entscheidende in der Erforschung des Bewusstseins? Wenn es sich für das System – ob nun biologisch oder technisch – nicht irgendwie anfühlt, dieses System zu sein, dann kann es nicht den Anspruch erheben, bewusst zu sein?
CHRISTOF KOCH: Genau. Die Mathematik in dieser Theorie ist sehr kompliziert. Aber die Theorie bestimmt, im Prinzip, nicht nur die Quantität, sondern ebenso die Qualität des Bewusstseins. Die Theorie sagt voraus, dass Sie Bewusstsein nicht simulieren können, sondern nur erzeugen können durch Selbstwirksamkeit; d. h., man muss ein physikalisches System mit kausaler Wirksamkeit für sich selbst tatsächlich bauen. Wenn man das Verhalten dieses Systems simuliert, entsteht kein Bewusstsein. Wenn es also einen Computer mit Bewusstsein geben wird, muss es sich, ganz im Sinne von Thomas Nagel, tatsächlich irgendwie anfühlen, dieser Computerzu sein. Denken Sie an den Film »Her«. Da verliebt sich der Protagonist in seinen digitalen Assistenten, mit Namen Samantha, ein App(let) auf seinem Smartphone, das man sich als weiterentwickeltes iPhone vorstellen muss. Der Film spielt zu einem Zeitpunkt in der Zukunft, zu dem man nicht mehr unterscheiden kann, ob man mit einem iPhone oder einem Menschen spricht. Das iPhone weiß einfach alles über seinen Besitzer, weil es all seine Mails und Telefonate kennt. Es kann einen Menschen perfekt simulieren, mit allen seinen Fehlern und Macken. Es würde spielend den Turing-Test bestehen. IIT sagt nun aber, dass es trotzdem nur wenig Bewusstsein hat, weil seine kausale Selbstwirksamkeit minimal ist. Es fühlt sich kaum irgendwie an, dieses System zu sein.
MATTHIAS ECKOLDT: Es fehlt die phänomenale Komponente.
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Man kann das auch in einem einfachen Satz zusammenfassen: Eine Simulation ist nicht das echte Ding.
Die Simulation eines Bewusstseins ist kein Bewusstsein.
Die Simulation eines Bewusstseins ist kein Bewusstsein.
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
Eine Simulation ist nur eine Simulation, völlig richtig.NaWennDuMeinst hat geschrieben : ↑Sa 12. Sep 2020, 12:40Man kann das auch in einem einfachen Satz zusammenfassen: Eine Simulation ist nicht das echte Ding.
Die Simulation eines Bewusstseins ist kein Bewusstsein.
Nur was hat das So-Sein wie eine Fledermaus mit Bewusstsein zu tun?MATTHIAS ECKOLDT: Die Frage von Thomas Nagel, die er 1974 in seinem Essay »Wie ist es, eine Fledermaus zu sein?« stellte, ist für Sie tatsächlich die entscheidende in der Erforschung des Bewusstseins? Wenn es sich für das System – ob nun biologisch oder technisch – nicht irgendwie anfühlt, dieses System zu sein, dann kann es nicht den Anspruch erheben, bewusst zu sein?
Wenn die Fledermaus ihr Bewusstsein hat und wir ihr das nicht nachempfinden können, haben wir deshalb kein Bewusstsein?
Wenn wir an Regen denken, simulieren wir im Denken den Regen. Genau kann es ein Computer prinzipiell auch machen.
Heißt das dann, dass das reine denkende Gehirn auch kein Bewusstsein hat, weil es selbst nur reale Dinge denken, also nur simulieren kann?
Wenn man aber einem Computer mittels Roboter ein Körper gibt, vergleichbar wie das Gehirn an ein Körper angeschlossen ist, wo ist hier dann noch der entscheidende Unterschied? Also hinsichtlich Simulation und nicht? (Und nicht hinsichtlich "Leben" oder dem mystischen "Bewusstsein", solange dies nicht unabhängig von Leben definiert ist.)
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn Budesheim
- Beiträge: 23495
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Nein, natürlich nicht. Nehmen wir mal für einen Moment an, an Regen zu denken oder sagen wir: uns Regen vorzustellen sei eine Art "innere" Simulation des Regens. Wem simulieren wir in diesem Fall den Regen? Uns selbst!
Genau das machen die Computer aber nicht. Die Regensimulation des Computers ist nur eine Simulation für uns.
- NaWennDuMeinst
- Beiträge: 4640
- Registriert: Sa 30. Mai 2020, 12:37
Das Problem mit dem Bewusstsein ist, dass wir kein (oder nur ein sehr geringes) Verständnis von seiner Entstehung und Funktion haben.
Deshalb können wir es auch nicht nachbilden. Aus dieser Verlegenheit heraus machen wir etwas anderes: Wir versuchen stattdessen das Verhalten von Wesen mit einem Bewusstsein auf den Maschinen zu imitieren.
Ziel ist es eine Maschine zu erschaffen, die sich wie ein Wesen mit Bewusstsein verhält.
Nehmen wir an, das gelänge. Eine Maschine verhält sich exakt so, wie ein Wesen mit Bewusstsein.
Den Nachweis, dass es sich um ein Bewusstsein handelt, könnten wir ja wieder nur anhand des beobachteten Verhaltens erbringen.
Unglücklicherweise ist das bei unseren Mitmenschen genauso: Ob mein Gegenüber ein Bewusstsein hat, kann ich nur daraus ableiten, wie sich mein Gegenüber verhält.
Dass aber hinter diesem Verhalten ein reales Bewusstsein steckt, und keine Simulation oder Imitation, wissen wir dann noch nicht.
Trotzdem gehen wir ja davon aus, dass das Gegenüber über ein Bewusstsein verfügt, wenn es das erwartete Verhalten zeigt.
Daher kommt dann auch die Annahme: Sobald eine Maschine das erwartete Verhalten zeigt, verfügt sie über ein Bewusstsein.
Und jetzt kommt die schwierigste Frage, nämlich welches Verhalten soll ein Indiz für Bewusstsein sein? Wenn es zum Beispiel zum Bewusstsein gehört, emotionale Reaktionen zu zeigen, gekränkt, fröhlich, motiviert oder demotiviert zu sein , rational und irrational sein zu können - wenn es dazu gehört, dass sich dieses Bewusstsein auch eigene Ziele schaffen kann, dass es sich selbst motivieren kann, Träume und Phantasien hat, dann sehe ich schwarz für das Bewusstsein auf Siliziumbasis.
Deshalb können wir es auch nicht nachbilden. Aus dieser Verlegenheit heraus machen wir etwas anderes: Wir versuchen stattdessen das Verhalten von Wesen mit einem Bewusstsein auf den Maschinen zu imitieren.
Ziel ist es eine Maschine zu erschaffen, die sich wie ein Wesen mit Bewusstsein verhält.
Nehmen wir an, das gelänge. Eine Maschine verhält sich exakt so, wie ein Wesen mit Bewusstsein.
Den Nachweis, dass es sich um ein Bewusstsein handelt, könnten wir ja wieder nur anhand des beobachteten Verhaltens erbringen.
Unglücklicherweise ist das bei unseren Mitmenschen genauso: Ob mein Gegenüber ein Bewusstsein hat, kann ich nur daraus ableiten, wie sich mein Gegenüber verhält.
Dass aber hinter diesem Verhalten ein reales Bewusstsein steckt, und keine Simulation oder Imitation, wissen wir dann noch nicht.
Trotzdem gehen wir ja davon aus, dass das Gegenüber über ein Bewusstsein verfügt, wenn es das erwartete Verhalten zeigt.
Daher kommt dann auch die Annahme: Sobald eine Maschine das erwartete Verhalten zeigt, verfügt sie über ein Bewusstsein.
Und jetzt kommt die schwierigste Frage, nämlich welches Verhalten soll ein Indiz für Bewusstsein sein? Wenn es zum Beispiel zum Bewusstsein gehört, emotionale Reaktionen zu zeigen, gekränkt, fröhlich, motiviert oder demotiviert zu sein , rational und irrational sein zu können - wenn es dazu gehört, dass sich dieses Bewusstsein auch eigene Ziele schaffen kann, dass es sich selbst motivieren kann, Träume und Phantasien hat, dann sehe ich schwarz für das Bewusstsein auf Siliziumbasis.
But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)
Tread softly because you tread on my dreams.
(William Butler Yeats)
Ok, "Simulation im Denken" bzw. "innere Simulation" ist vielleicht eine unglückliche Begriffsbildung. Vielleicht sollte man einfach von "Vorstellung" sprechen, also sich den Regen vorzustellen. Vorzustellen heißt, die über ihn irgendwann aufgenommenen Daten und über ihn Gelerntes ins aktuelle Denken zu bringen.Jörn Budesheim hat geschrieben : ↑Sa 12. Sep 2020, 19:15Nein, natürlich nicht. Nehmen wir mal für einen Moment an, an Regen zu denken oder sagen wir: uns Regen vorzustellen sei eine Art "innere" Simulation des Regens.
Kann man so sagen.Wem simulieren wir in diesem Fall den Regen? Uns selbst!
Warum soll der Computer das nicht auch können mit entsprechendem Wissen und Erfahrungen? Warum soll er nicht auch in einen aktuellen Denk- bzw. Datenverarbeitungsprozess haben?Genau das machen die Computer aber nicht. Die Regensimulation des Computers ist nur eine Simulation für uns.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.