Burkart hat geschrieben : ↑ So 27. Sep 2020, 10:57
NaWennDuMeinst hat geschrieben : ↑ So 27. Sep 2020, 03:17
Burkart hat geschrieben : ↑ So 27. Sep 2020, 01:25
Sicherlich, deshalb schrieb ich ja u.a. auch "nur".
Aber warum soll ich denn Dinge "verbreiten" von denen ich glaube, dass sie falsch sind?
Das wirst du nicht bewusst tun, warum auch - wir hätte gerade hier im Forum nichts davon.
"Falsch" ist nur halt nicht immer objektiv.
Wenn Du damit sagen willst, dass auch ich mich irren kann: Das ist geschenkt.
Nur müsstest Du mir dann auch plausible Gründe nennen, warum ich mich irre.
- Schlussfolgerungen ziehen können
- dies auf Basis von gelerntem Wissen
- und in Verbindung mit zu erreichenden Zielen
- und diese z.T. abgeleitet aus grundlegenden Zielen ("Mensch dienen") oder aktuellen Anweisungen von Menschen
- womit es eine Sprache zwischen Mensch und KI geben muss, die die KI verstehen kann
- und auch die Sprache soll sie im Laufe der Zeit ausbauen/weiter lernen
- ...
Das ist alles ok. Aber es fehlen da halt die Punkte um die es Jörn und mir hier geht. Und sie fehlen bei Dir deshalb, weil sie auf Maschinen nicht anwendbar sind.
Das ist das was ich mit "reduzierter Denkbegriff" meine. Anstatt Maschinen zu bauen, die das können was zum Denken gehört, wird das Denken auf ein Niveau reduziert, das Maschinen erreichen können.
Für mich ist das Schummeln.
Das Beispiel mit den Wegbeschreibungen, dass ihr leider nicht mehr aufnehmen mögt, ist ein gutes, dass für eine KI lösbar ist.
Auch das stimmt nicht. Jörn hat damals - wie ich finde - sehr schön und ausführlich beschrieben, warum eine Wegbeschreibung nicht nur das Ausrechnen einer Strecke ist.
Dabei laufen eine ganze Reihe von (Denk)-Prozessen ab, die uns als Menschen im Alltag gar nicht so bewusst sind, die aber trotzdem wichtig sind. Man merkt das (also das da was fehlt) dann, wenn die Maschine nicht das liefert was man möchte.
Sei mir bitte nicht böse, aber du erinnerst mich an meine Partnerin, die Diskussionen auch gleich als Streit bezeichnet
Nimm das bitte nicht allzu wörtlich. Mit "streiten" meine ich hier einfach nur, dass wir uns im Kreis drehen, und das bereits Gesagte immer wiederholen.
Wir drehen uns im Kreis um den Denkbegriff.
Dabei wirst Du alles, was Computer niemals können werden (z.B. Emotionen haben) zu eliminieren versuchen und ich werde darauf bestehen, dass das dazugehört.
Das haben wir doch jetzt schon mehrfach gemacht. Es bringt nichts. Wir können uns nicht auf eine Begriffsverwendung einigen.
Und deshalb können wir hier auch zu keinem Ergebnis kommen.
Akzeptiere es doch einfach, dass ich Deine Ansicht nicht teile.
Das wäre mir zu einfach
Gerade gegenteilige Meinungen können gut zu einer kreativen Lösung wie auch immer führen.
Du wirst es aber nicht schaffen mich davon zu überzeugen, dass Denken bloß das Abarbeiten von Logikaufgaben ist.
Würde ich diesen Denkbegriff übernehmen, hätte ich das Gefühl meine Erkenntnis wissentlich geschmälert zu haben.
Kann es sein, dass du gerne bastelst bzw. mehr hineininterpretierst als nötig? Beide Begriffe finden sich nicht im wikipedia-Artkel zu "Denken".
Da geht es ja auch nicht um einen Vergleich Mensch-Maschine.
Schon richtig, allerdings sehe ich das dort als neutral an und kann aus meiner Sicht so auch gerne auf KI bezogen werden.
Der Begriff aus der Wiki kann nicht auf KI bezogen werden, weil er auch die Anwendung/Verarbeitung von Emotionen beinhaltet.
Diesen Teil müsstest Du auslasen. Und das ist das, was ich mit der "Reduzierung" meine.
Mit "unfangreich" meine ich zum Beispiel, dass Menschen verschiedene Methoden des Denkens kennen, wie in dem selben Wikiartikel auch beschrieben:
"Denken kann auf einem Einfall basieren, spontan durch Gefühle, Situationen, Sinneseindrücke oder Personen ausgelöst werden, oder es wird abstrakt-konstruktiv entwickelt."
Hm, sind das Methoden oder nur verschiedene Anlässe zu Gedanken?
Beides. Einmal sind Emotionen Motivatoren (Also wie Du sagst Anlässe zum Denken). Andererseits bezieht sich unser Denken auf sie, das heißt die Denkinhalte sind von Emotionen geprägt.
Einerseits erhält man durch Situationen, Sinneseindrücke oder Personen neuen Input, dass sein Denken leicht beeinflussen kann.
Andererseits kann man "nur" Denken, also sich über dies und jenes Gedanken machen und so zu neuen Erkenntnissen kommen; dazu zähle ich den EInfall.
Das (wenn) Letzteres möglich ist, nützt uns ja aber nichts, wenn es um die KI geht. Sie wird an der Stelle scheitern wo Emotionen Gedanken prägen.
Du kannst ja nicht einfach diesen für uns ganz wichtigen Teil des Denkens weglassen.
Wenn ich einen Vergnügungspark planen soll, muss ich eine Vorstellung von Vergnügen haben. Problemstellungen die Emotionen voraussetzen können nur von Wesen gelöst werden die Emotionen haben.
Ich kann den Computer auf alles ansetzen, was mit Logik zu tun hat. Das ist ja aber nur ein Teil unserer Welt, nur ein Teil unseres Denkens.
Nehmen wir an, mein Bruder und ein anderer mir unbekannter Mensch sind in Lebensgefahr und ich bin die einzige anwesende Person die helfen kann.
Rein rechnerisch betrachtet mag es so ein, dass die andere Person ein höhere Chance auf Rettung hat.
Ich würde aber trotzdem meinen Bruder retten. Einfach weil ich meinen Bruder liebe, weil ich emotional mit ihm "verhaftet" bin.
Hinterher wird das auch jeder Mensch verstehen. Eine Maschine kann das aber nicht verstehen, weil ihr die Fähigkeit zu lieben fehlt.
Wenn Du, anstatt meines Bruders und mich, eine Mutter und ihr Kind ins Beispiel einsetzt wird es vielleicht noch deutlicher.
Niemand würde der Mutter vorwerfen, dass sie sich für das eigene Kind entschieden hat.
Wir würden sagen die Mutter konnte nicht anders handeln. Einer Maschine kriegst Du das nicht beigebracht.
Insbesondere der Teil der mit Gefühlen zu tun hat, kommt bei Maschinen nicht vor.
Ja, Gefühle sind natürlich ein Unterschied zwischen Mensch und Maschine; die Frage ist, ob nicht auch ohne sie gut genug gedacht werden kann sozusagen.
Das ist die Frage, ja. Und ich sage eben nun: Nein. Weil Emotionen nicht irgendein unnötiges Beiwerk sind. Sie sind fundamentaler Bestandteil unseres Denkens.
Und wenn eine Maschine uns (und nicht irgendwem anders) "dienen" soll, muss sie damit umgehen können.
Warum greift ihr dann das Beispiel mit der Wegbeschreibung nicht wieder auf? Oder sollte es doch nicht passend sein?
Es ist insofern passend, weil es sehr schön zeigt, was Du bei deinem Denkbegriff alles ausblendest.
Ebenso wichtig ist das "Selbstständig". Es ist nämlich auch kein echtes Denken, wenn das Denken nur "vorgedacht" wird. Wenn also der Computer gar nicht selbst denkt, sondern als Werkzeug nur die Gedanken seiner Schöpfer umsetzt.
Wieso nur "vorgedacht"? Die KI soll lernen, selbst Schlussfolgerungen ziehen usw. Somit ist nicht alles einfach "vorgedacht".
Oder denkst du, dass ein Schüler nicht selbstständig lernt, wenn ihm ein Lehrer in der Schule alles vorkaut? Oder seine Eltern?
Selbstständig Denken bedeutet z.B. auch Anweisungen in Frage zu stellen und gegebenenfalls auch zu ignorieren.
Selbst wenn eine Maschine das könnte (was sie nicht kann), wir würden ja gar nicht wollen, dass sie das tut.
Ich sehe hier also keine Chance, dass wir zu einem Denkbegriff kommen werden, den wir gemeinsam verwenden können.
Mag sein. Vielleicht reicht es ja auch, wenn wir vom "Menschen-Denken" und "Computer-Denken" sprechen und dann Gefühle als Unterschied haben.
Wir wollen aber keine KI schaffen, die i
rgendwie denkt. Wir wollen eine KI schaffen die wie ein Mensch denkt. Denn wir wollen ja, dass sie
unsere Probleme löst und nicht die von irgendwem.
Das erinnert mich an das alte Dogma, dass der Mensch die einzige Intelligenz sein muss, bevor der böse Darwin auf andere Ideen kam und auch einmal Tiere auch wichtig waren
Deine Assoziationen in allen Ehren, aber hier geht es nicht darum ein Kränkung des Menschen zu verhindern.
Es geht darum festzustellen was nötig ist, damit eine Maschine denkt wie ein Mensch. Und natürlich ist das das Ziel: Sie soll denken wie ein Mensch, denn wenn sie menschliche Probleme lösen soll, muss sie mehr können als nur Logikaufgaben abarbeiten. Denn wir Menschen haben nicht nur Logikprobleme.
Und klar, Roboter sind keine Tiere, aber darum geht es nicht - sondern (mir) vielmehr um die Gemeinsamkeiten zwischen Mensch und Computer/KI/Roboter, damit wir letztere auch sinnvoll entwickeln und einsetzen können.
Ich habe überhaupt nichts dagegen wenn wir Apparate schaffen, die Logikaufgaben lösen. Ich habe auch nichts dagegen, wenn sie das besser können als wir. Ich finde das sogar sehr hilfreich, wenn sie uns diese lästige Aufgabe abnehmen oder uns dabei helfen. Nur haben wir Menschen nicht nur Logikprobleme. Wir haben auch Probleme, an die man anders rangehen muss. Dabei kann uns aber keine leblose, emotionslose Maschine helfen.