Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 27. Sep 2020, 11:00

Jörn Budesheim hat geschrieben :
So 27. Sep 2020, 10:01
Burkart hat geschrieben :
So 27. Sep 2020, 09:13
ach, das ist über zwei Monate her...
Dann ist das natürlich überholt, stimmt.
Aus meinem Gehirn entwichen. Idealerweise würde man alles miteinander vernetzen/verlinken, damit der Andere immer weiß, worauf man sich bezieht, aber der Aufwand ist natürlich zu hoch.
Von "überholen" habe ich nichts gesagt (hinsichtlich der zwei Monate), aber wenn die der Sarkasmus was bringt, bitte sehr.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 27. Sep 2020, 11:37

Jörn Budesheim hat geschrieben :
So 27. Sep 2020, 10:24
Burkart hat geschrieben :
So 27. Sep 2020, 09:13
Er ist aber kein KI-ler, dann wären seine Einwände wenigstens schon "näher am Geschehen dran", er hätte mehr (KI-)fachliche Expertise.
Dass Fuchs nicht nah am Geschehen ist, behauptest du allerdings einfach bloß. Welche Artikel oder Bücher von ihm hast du gelesen, die das zeigen?
Ich habe mich darauf bezogen, dass er kein KI-ler ist und somit nicht im Kern der KI-Entwicklungsexperten. Somit hat er auf jedenfalls eine andere Perspektive.
Dieser Faden beginnt übrigens mit einem Artikel von einem Computerwissenschaftler, der wahrscheinlich auch nicht so viel Expertisen mitbringt, dennoch zitiere ich hier mal ein paar Ausschnitte:
Es ist natürlich immer attraktiv zu sagen, alles ist möglich, aber so wie ein digitaler Computer, so wie ich ihn verstehe, kann da überhaupt kein Bewusstsein sein. Also selbst wenn man davon ausgeht, dass vielleicht eine Maschine eines Tages mal in der Lage ist, so etwas wie ein Bewusstsein zu entwickeln, dann wird das auf keinen Fall ein digitaler Computer sein.
...
Der wirklich fundamentale Unterschied besteht in dem Bewusstsein. Der Mensch hat ein Bewusstsein, er hat auch ein Bewusstsein von sich selbst. Er ist in der Lage, Gefühle auszudrücken, er kann sich erinnern. Ein Mensch hat Emotionen. Eine Maschine hat kein Bewusstsein. Ich kann keine Software herunterladen, die es ermöglicht, Bewusstsein zu entwickeln und das kann, was einem Menschen bewusst ist. Was eine Maschine nicht hat, ist das, was ich eine interne mentale Landschaft nenne. Zum Beispiel können wir Dinge visualisieren, wir können uns einen Berg vorstellen, wir können uns ein Auto vorstellen, und wir können, wenn wir an einen Menschen denken, uns auch diesen Menschen visualisieren mithilfe unseres Gedächtnisses. Und das ist etwas, was der Mensch kann, er hat diese Möglichkeit des Bewusstseins und der Vorstellung und diese inneren Landschaften zu visualisieren. Und eine Maschine ist dazu nicht in der Lage. Es gibt überhaupt keine digitalen Speichermedien, die bisher dazu in der Lage wären, ein Bewusstsein zu entwickeln, wie wir es beim Menschen verstehen.
...
Ja, das ist ein sehr, sehr wichtiger Punkt, den Sie da gerade genannt haben, weil da muss man zwischen zwei Dingen wirklich unterscheiden. Also nehmen wir mal an, wir vernachlässigen jetzt den Körper und konzentrieren uns wirklich nur noch auf das Gehirn, dann ist immer noch kein digitaler Computer in der Lage, so zu denken, wie man mit seinem Körper denkt, weil meiner Meinung nach ist es so, dass der Körper und das Gehirn erst das menschliche Denken insgesamt ermöglichen. Und diese Strukturen sind einfach verschieden. Was ganz wichtig ist und wofür wir den Körper unbedingt brauchen, das sind eben die Gefühle, das sind eben die Emotionen. Und das ist ein physisches Erleben, was wir da haben, das ist ein Zusammenspiel zwischen Körper und Geist, was dieses physische Erleben und die Emotionen erst möglich macht. Und das wiederum halte ich für sehr unwahrscheinlich, dass da ein digitales Speichermedium wie zum Beispiel ein Computer dazu in der Lage wäre.
Es geht mir an dieser Stelle um folgendes: du hast oben behauptet, dass wir (na wenn und ich) rückschrittlich (bzw dogmatisch) denken, wir würden uns bildlich gesprochen auf eine alte Kirche beziehen und immer noch glauben, dass die Erde der Mittelpunkt der Welt ist. Aber de facto beziehen wir uns auf aktuelle Forschungsergebnisse.
Mal ehrlich, was ist an dem Artikel neu (und somit "aktuell Forschung")?
Es ist eine Meinung; er schreibt ja auch "wie ein digitaler Computer, so wie ich ihn verstehe". VIelleicht kann man ihn ja auch anders verstehen...?
Er redet von Bewusstsein u.a. von "Der Mensch hat ein Bewusstsein, er hat auch ein Bewusstsein von sich selbst." Und was soll das genau heißen, warum soll sich ein Roboter nicht auch seine Umgebung und sich selbst "bewusst" werden im Sinne von sie wahrzunehmen durch im "weitesten Sinne das Erleben mentaler Zustände und Prozesse" (wikipedia zu "Bewusstsein")?
Ja, Gefühle und Emotionen unterscheiden Mensch und KI, aber mehr auch nicht (mal so provokant gesagt).

Putzig fand ich die Aussage " Ich kann keine Software herunterladen, die es ermöglicht, Bewusstsein zu entwickeln und das kann, was einem Menschen bewusst ist.". Kann denn ein Mensch sich Bewusstsein herunterladen? ;) Bewusstsein muss sich entwickeln.
Und warum soll sie bei einer KI einfach so etwas herunterladbar sein, z.B. wenn sie erst viel zu lernen hat, damit sich Bewusstsein entwickelt?
Z.B. kann man meines Wissens nach auch kein neuronales Netz einfach herunterladen und in ein anderes hochladen.

Zu "Was eine Maschine nicht hat, ist das, was ich eine interne mentale Landschaft nenne. Zum Beispiel können wir Dinge visualisieren, wir können uns einen Berg vorstellen, wir können uns ein Auto vorstellen, und wir können, wenn wir an einen Menschen denken, uns auch diesen Menschen visualisieren mithilfe unseres Gedächtnisses. Und das ist etwas, was der Mensch kann, er hat diese Möglichkeit des Bewusstseins und der Vorstellung und diese inneren Landschaften zu visualisieren. Und eine Maschine ist dazu nicht in der Lage."
Mir scheint er hat eine zu eingeschränkte Vorstellung von KI bzw. dessen Möglichkeiten.
Natürlich kann eine (hinreichend gute) KI mit Eingabemöglichkeiten ggf. auch Dinge wahrnehmen und sich ein Modell von ihnen machen und diese dann zu einer "internen mentalen Landschaft" verknüpfen.
Wer hat das geschrieben? Ich möchte zu gerne mit ihm in Kontakt treten und mit ihm darüber diskutieren.

Hinsichtlich Körper und Gehirn vermischt er zwei Dinge: Das physische Erleben und Emotion. Über letztere hatten wir ja schon oft gesprochen; sie mag Mensch und KI trennen.
Das physische Erleben in einem versachtlichen Sinne, also unabhängig von Leben, also als Wahrnehmen der Umwelt, aus ihr Konsequenzen und Handlungen zu ziehen und natürlich entsprechend die "Anpassungen" im Gehirn (Daten sammeln, Lernen...) ist dagegen sehr wohl möglich.
Burkart hat geschrieben :
Sa 26. Sep 2020, 23:41
Alethos, ich werde niemals aufgeben, die starke KI versuchen zu vertreten bzw. voranzutreiben (*), wenn nicht hier, dann ggf. woanders.
Und was willst du mir mit meinem Zitat sagen? Wissenschaft ist nun mal oft ein langwieriger Prozess.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 27. Sep 2020, 12:49

Burkart hat geschrieben :
So 27. Sep 2020, 11:37
Ich habe mich darauf bezogen, dass er kein KI-ler ist und somit nicht im Kern der KI-Entwicklungsexperten. Somit hat er auf jedenfalls eine andere Perspektive.
Er ist ein renommierter Philosoph und Hochschullehrer und hat ein Buch geschrieben, das in diesem Jahr erschienen ist, in dem man sich unter anderem mit menschlicher und künstlicher Intelligenz beschäftigt, also mit dem Thema, über das wir hier reden.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 27. Sep 2020, 12:52

Jörn Budesheim hat geschrieben :
So 27. Sep 2020, 12:49
Burkart hat geschrieben :
So 27. Sep 2020, 11:37
Ich habe mich darauf bezogen, dass er kein KI-ler ist und somit nicht im Kern der KI-Entwicklungsexperten. Somit hat er auf jedenfalls eine andere Perspektive.
Er ist ein renommierter Philosoph und Hochschullehrer und hat ein Buch geschrieben, das in diesem Jahr erschienen ist, in dem man sich unter anderem mit menschlicher und künstlicher Intelligenz beschäftigt, also mit dem Thema, über das wir hier reden.
Damit hat eine philosophische Perspektive, die traditionell gegenüber KI kritischer ist - und er ist eben kein KI-ler mit deren Insider-Wissen und -Ideen.

Insofern wäre interessanter für mich, wer der zitierter Computerwissenschaftler ist.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 27. Sep 2020, 13:10

Burkart hat geschrieben :
So 27. Sep 2020, 10:57
NaWennDuMeinst hat geschrieben :
So 27. Sep 2020, 03:17
Burkart hat geschrieben :
So 27. Sep 2020, 01:25

Sicherlich, deshalb schrieb ich ja u.a. auch "nur".
Aber warum soll ich denn Dinge "verbreiten" von denen ich glaube, dass sie falsch sind?
Das wirst du nicht bewusst tun, warum auch - wir hätte gerade hier im Forum nichts davon.
"Falsch" ist nur halt nicht immer objektiv.
Wenn Du damit sagen willst, dass auch ich mich irren kann: Das ist geschenkt.
Nur müsstest Du mir dann auch plausible Gründe nennen, warum ich mich irre.
- Schlussfolgerungen ziehen können
- dies auf Basis von gelerntem Wissen
- und in Verbindung mit zu erreichenden Zielen
- und diese z.T. abgeleitet aus grundlegenden Zielen ("Mensch dienen") oder aktuellen Anweisungen von Menschen
- womit es eine Sprache zwischen Mensch und KI geben muss, die die KI verstehen kann
- und auch die Sprache soll sie im Laufe der Zeit ausbauen/weiter lernen
- ...
Das ist alles ok. Aber es fehlen da halt die Punkte um die es Jörn und mir hier geht. Und sie fehlen bei Dir deshalb, weil sie auf Maschinen nicht anwendbar sind.
Das ist das was ich mit "reduzierter Denkbegriff" meine. Anstatt Maschinen zu bauen, die das können was zum Denken gehört, wird das Denken auf ein Niveau reduziert, das Maschinen erreichen können.
Für mich ist das Schummeln.
Das Beispiel mit den Wegbeschreibungen, dass ihr leider nicht mehr aufnehmen mögt, ist ein gutes, dass für eine KI lösbar ist.
Auch das stimmt nicht. Jörn hat damals - wie ich finde - sehr schön und ausführlich beschrieben, warum eine Wegbeschreibung nicht nur das Ausrechnen einer Strecke ist.
Dabei laufen eine ganze Reihe von (Denk)-Prozessen ab, die uns als Menschen im Alltag gar nicht so bewusst sind, die aber trotzdem wichtig sind. Man merkt das (also das da was fehlt) dann, wenn die Maschine nicht das liefert was man möchte.

Sei mir bitte nicht böse, aber du erinnerst mich an meine Partnerin, die Diskussionen auch gleich als Streit bezeichnet ;)
Nimm das bitte nicht allzu wörtlich. Mit "streiten" meine ich hier einfach nur, dass wir uns im Kreis drehen, und das bereits Gesagte immer wiederholen.
Wir drehen uns im Kreis um den Denkbegriff.
Dabei wirst Du alles, was Computer niemals können werden (z.B. Emotionen haben) zu eliminieren versuchen und ich werde darauf bestehen, dass das dazugehört.
Das haben wir doch jetzt schon mehrfach gemacht. Es bringt nichts. Wir können uns nicht auf eine Begriffsverwendung einigen.
Und deshalb können wir hier auch zu keinem Ergebnis kommen.
Akzeptiere es doch einfach, dass ich Deine Ansicht nicht teile.
Das wäre mir zu einfach ;) Gerade gegenteilige Meinungen können gut zu einer kreativen Lösung wie auch immer führen.
Du wirst es aber nicht schaffen mich davon zu überzeugen, dass Denken bloß das Abarbeiten von Logikaufgaben ist.
Würde ich diesen Denkbegriff übernehmen, hätte ich das Gefühl meine Erkenntnis wissentlich geschmälert zu haben.
Kann es sein, dass du gerne bastelst bzw. mehr hineininterpretierst als nötig? Beide Begriffe finden sich nicht im wikipedia-Artkel zu "Denken".
Da geht es ja auch nicht um einen Vergleich Mensch-Maschine.
Schon richtig, allerdings sehe ich das dort als neutral an und kann aus meiner Sicht so auch gerne auf KI bezogen werden.
Der Begriff aus der Wiki kann nicht auf KI bezogen werden, weil er auch die Anwendung/Verarbeitung von Emotionen beinhaltet.
Diesen Teil müsstest Du auslasen. Und das ist das, was ich mit der "Reduzierung" meine.

Mit "unfangreich" meine ich zum Beispiel, dass Menschen verschiedene Methoden des Denkens kennen, wie in dem selben Wikiartikel auch beschrieben:

"Denken kann auf einem Einfall basieren, spontan durch Gefühle, Situationen, Sinneseindrücke oder Personen ausgelöst werden, oder es wird abstrakt-konstruktiv entwickelt."
Hm, sind das Methoden oder nur verschiedene Anlässe zu Gedanken?
Beides. Einmal sind Emotionen Motivatoren (Also wie Du sagst Anlässe zum Denken). Andererseits bezieht sich unser Denken auf sie, das heißt die Denkinhalte sind von Emotionen geprägt.
Einerseits erhält man durch Situationen, Sinneseindrücke oder Personen neuen Input, dass sein Denken leicht beeinflussen kann.
Andererseits kann man "nur" Denken, also sich über dies und jenes Gedanken machen und so zu neuen Erkenntnissen kommen; dazu zähle ich den EInfall.
Das (wenn) Letzteres möglich ist, nützt uns ja aber nichts, wenn es um die KI geht. Sie wird an der Stelle scheitern wo Emotionen Gedanken prägen.
Du kannst ja nicht einfach diesen für uns ganz wichtigen Teil des Denkens weglassen.
Wenn ich einen Vergnügungspark planen soll, muss ich eine Vorstellung von Vergnügen haben. Problemstellungen die Emotionen voraussetzen können nur von Wesen gelöst werden die Emotionen haben.
Ich kann den Computer auf alles ansetzen, was mit Logik zu tun hat. Das ist ja aber nur ein Teil unserer Welt, nur ein Teil unseres Denkens.
Nehmen wir an, mein Bruder und ein anderer mir unbekannter Mensch sind in Lebensgefahr und ich bin die einzige anwesende Person die helfen kann.
Rein rechnerisch betrachtet mag es so ein, dass die andere Person ein höhere Chance auf Rettung hat.
Ich würde aber trotzdem meinen Bruder retten. Einfach weil ich meinen Bruder liebe, weil ich emotional mit ihm "verhaftet" bin.
Hinterher wird das auch jeder Mensch verstehen. Eine Maschine kann das aber nicht verstehen, weil ihr die Fähigkeit zu lieben fehlt.
Wenn Du, anstatt meines Bruders und mich, eine Mutter und ihr Kind ins Beispiel einsetzt wird es vielleicht noch deutlicher.
Niemand würde der Mutter vorwerfen, dass sie sich für das eigene Kind entschieden hat.
Wir würden sagen die Mutter konnte nicht anders handeln. Einer Maschine kriegst Du das nicht beigebracht.
Insbesondere der Teil der mit Gefühlen zu tun hat, kommt bei Maschinen nicht vor.
Ja, Gefühle sind natürlich ein Unterschied zwischen Mensch und Maschine; die Frage ist, ob nicht auch ohne sie gut genug gedacht werden kann sozusagen.
Das ist die Frage, ja. Und ich sage eben nun: Nein. Weil Emotionen nicht irgendein unnötiges Beiwerk sind. Sie sind fundamentaler Bestandteil unseres Denkens.
Und wenn eine Maschine uns (und nicht irgendwem anders) "dienen" soll, muss sie damit umgehen können.
Warum greift ihr dann das Beispiel mit der Wegbeschreibung nicht wieder auf? Oder sollte es doch nicht passend sein?
Es ist insofern passend, weil es sehr schön zeigt, was Du bei deinem Denkbegriff alles ausblendest.

Ebenso wichtig ist das "Selbstständig". Es ist nämlich auch kein echtes Denken, wenn das Denken nur "vorgedacht" wird. Wenn also der Computer gar nicht selbst denkt, sondern als Werkzeug nur die Gedanken seiner Schöpfer umsetzt.
Wieso nur "vorgedacht"? Die KI soll lernen, selbst Schlussfolgerungen ziehen usw. Somit ist nicht alles einfach "vorgedacht".
Oder denkst du, dass ein Schüler nicht selbstständig lernt, wenn ihm ein Lehrer in der Schule alles vorkaut? Oder seine Eltern?
Selbstständig Denken bedeutet z.B. auch Anweisungen in Frage zu stellen und gegebenenfalls auch zu ignorieren.
Selbst wenn eine Maschine das könnte (was sie nicht kann), wir würden ja gar nicht wollen, dass sie das tut.
Ich sehe hier also keine Chance, dass wir zu einem Denkbegriff kommen werden, den wir gemeinsam verwenden können.
Mag sein. Vielleicht reicht es ja auch, wenn wir vom "Menschen-Denken" und "Computer-Denken" sprechen und dann Gefühle als Unterschied haben.
Wir wollen aber keine KI schaffen, die irgendwie denkt. Wir wollen eine KI schaffen die wie ein Mensch denkt. Denn wir wollen ja, dass sie unsere Probleme löst und nicht die von irgendwem.
Das erinnert mich an das alte Dogma, dass der Mensch die einzige Intelligenz sein muss, bevor der böse Darwin auf andere Ideen kam und auch einmal Tiere auch wichtig waren ;)
Deine Assoziationen in allen Ehren, aber hier geht es nicht darum ein Kränkung des Menschen zu verhindern.
Es geht darum festzustellen was nötig ist, damit eine Maschine denkt wie ein Mensch. Und natürlich ist das das Ziel: Sie soll denken wie ein Mensch, denn wenn sie menschliche Probleme lösen soll, muss sie mehr können als nur Logikaufgaben abarbeiten. Denn wir Menschen haben nicht nur Logikprobleme.
Und klar, Roboter sind keine Tiere, aber darum geht es nicht - sondern (mir) vielmehr um die Gemeinsamkeiten zwischen Mensch und Computer/KI/Roboter, damit wir letztere auch sinnvoll entwickeln und einsetzen können.
Ich habe überhaupt nichts dagegen wenn wir Apparate schaffen, die Logikaufgaben lösen. Ich habe auch nichts dagegen, wenn sie das besser können als wir. Ich finde das sogar sehr hilfreich, wenn sie uns diese lästige Aufgabe abnehmen oder uns dabei helfen. Nur haben wir Menschen nicht nur Logikprobleme. Wir haben auch Probleme, an die man anders rangehen muss. Dabei kann uns aber keine leblose, emotionslose Maschine helfen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 27. Sep 2020, 14:47

Burkart hat geschrieben :
So 27. Sep 2020, 11:37
Mal ehrlich, was ist an dem Artikel neu (und somit "aktuell Forschung")?
Es ist eine Meinung; er schreibt ja auch "wie ein digitaler Computer, so wie ich ihn verstehe". VIelleicht kann man ihn ja auch anders verstehen...?
Er redet von Bewusstsein u.a. von "Der Mensch hat ein Bewusstsein, er hat auch ein Bewusstsein von sich selbst." Und was soll das genau heißen
Ja eben. Du weißt gar nicht was genau das heißt, weißt aber das es falsch ist?
, warum soll sich ein Roboter nicht auch seine Umgebung und sich selbst "bewusst" werden im Sinne von sie wahrzunehmen durch im "weitesten Sinne das Erleben mentaler Zustände und Prozesse" (wikipedia zu "Bewusstsein")?
Weil dieses "Erleben" nicht einfach nur das Auswerten von Daten ist. Schmerzen zu haben (zu erleben) ist etwas anderes als die nüchterne Feststellung das man verletzt ist. Das weiß jeder, der schon mal Schmerzen hatte.
Nur die Maschine weiß das nicht. Aus bekannten Gründen.
Ja, Gefühle und Emotionen unterscheiden Mensch und KI, aber mehr auch nicht (mal so provokant gesagt).
Und wieder: Hier wird ganz deutlich, was du von Emotionen hälst. Nämlich nichts. Sie sind bei dir einfach nur "unnötiges Beiwerk".
Genau an der Stelle irrst Du Dich aber. Und zwar fundamental. Genauso provakant würde ich sagen: Du hast zu viel Zeit mit Maschinen verbracht.
Putzig fand ich die Aussage " Ich kann keine Software herunterladen, die es ermöglicht, Bewusstsein zu entwickeln und das kann, was einem Menschen bewusst ist.". Kann denn ein Mensch sich Bewusstsein herunterladen? ;) Bewusstsein muss sich entwickeln.
Und warum soll sie bei einer KI einfach so etwas herunterladbar sein, z.B. wenn sie erst viel zu lernen hat, damit sich Bewusstsein entwickelt?
Da steht ja nicht, dass man (k)ein Bewusstsein herunterladen kann, sondern da steht, dass es kein Programm zum Herunterladen gibt, das Bewusstsein entwickelt.
Und da hat er völlig recht.
Und er will damit sagen: Bewusstsein ist kein Programm. Computer können aber gar nichts anderes verarbeiten als Programme.
Darüber hatten wir schon gesprochen. Dem liegt der Irrtum zugrunde, dass Hardware und Software getrennt werden können.
Hier die CPU, und dort die Software (Das Programm). So funktioniert "Denken" nicht. Darum geht es.
Z.B. kann man meines Wissens nach auch kein neuronales Netz einfach herunterladen und in ein anderes hochladen.
Eben. Es ist nicht so, dass man da ein Gehirn (Hardware) hat, auf dem dann ein Programm (Software) ausgeführt wird. So funktionieren neuronale Netze nicht.
Zu "Was eine Maschine nicht hat, ist das, was ich eine interne mentale Landschaft nenne. Zum Beispiel können wir Dinge visualisieren, wir können uns einen Berg vorstellen, wir können uns ein Auto vorstellen, und wir können, wenn wir an einen Menschen denken, uns auch diesen Menschen visualisieren mithilfe unseres Gedächtnisses. Und das ist etwas, was der Mensch kann, er hat diese Möglichkeit des Bewusstseins und der Vorstellung und diese inneren Landschaften zu visualisieren. Und eine Maschine ist dazu nicht in der Lage."
Mir scheint er hat eine zu eingeschränkte Vorstellung von KI bzw. dessen Möglichkeiten.
Nein. Er benennt sehr schön die entscheidenden Unterschiede.
Natürlich kann eine (hinreichend gute) KI mit Eingabemöglichkeiten ggf. auch Dinge wahrnehmen und sich ein Modell von ihnen machen und diese dann zu einer "internen mentalen Landschaft" verknüpfen.
Aber kann sie das auch wie ein Mensch?
Ein so "simples" Objekt wie ein Apfel ist z.B. für uns nicht einfach nur eine Abfolge von numerischen Parametern.
Wir erleben einen Apfel und bilden uns eine Vorstellung von ihm ganz anders als eine Maschine (sofern Maschinen überhaupt etwas erleben oder Vorstellungen haben).
Nimm doch einfach mal einen Apfel und betrachte ihn. Was geschieht da?
Ist der Apfel nur Länge mal Breite mal Höhe? Wie erlebst Du seinen Geruch? Ist das nur "Moleküle in der Nase", oder was ist das?
Und was ist mit der Farbe? Rot ist einfach nur eine Wellenlänge auf die Deine Rezeptoren reagieren? Wirklich?
Und wenn Du reinbeisst: Ist das nur die Analyse der Inhaltstoffe die den Geschmack (was heißt es eigentlich zu schmecken) ausmachen?
Und was verbindest Du mit dem Apfel? Welche Bedeutung hat er für Dich oder für andere Menschen?
Wenn Du ihn gegessen hast: Gehört zu Deiner Vorstellung vom Apfel nicht auch, wie Du Dich dann fühlst?
Welche Beziehung hast Du zu dem Apfel? Was löst er in dir (zum Beispiel an Erinnerungen und Gefühlen) aus?

Das heißt: Wir bilden diese interne Landschaft auf eine Art und Weise wie es eine Maschine nicht kann.
Aus dieser internen Landschaft speist sich dann u.a. unser Denken (unsere Denkinhalte). Und die Denkinhalte der Subjekte gehen dann per Interaktion in eine Gemeinschaft über.
Daraus formen sich dann Weltbilder usw. Wie soll eine Maschine, für die die Dinge nur Nullen und Einsen sind, das begreifen?

Und nochmal: Wir wollen keine Maschine die irgendwas macht. Wie wollen Maschinen die Aufgaben lösen wie wir Menschen sie lösen.
Was ist dazu alles nötig? Reicht es dazu einfach irgendwas wahrzunehmen oder ist das "wie" entscheidend?
Mit einem Apparat, der "Vorstellungen" entwickelt, die mit unseren nicht das Geringste zu tun haben, können wir nichts anfangen.
Das ist dann vielleicht eine schöne Spielerei für gelangweilte Informatiker. Das hat aber mit der eigentlichen Aufgabenstellung nichts zu tun.
Wer hat das geschrieben? Ich möchte zu gerne mit ihm in Kontakt treten und mit ihm darüber diskutieren.
Ja, mach das. Das werden sehr interessante Lehrstunden werden. Für Dich.
Hinsichtlich Körper und Gehirn vermischt er zwei Dinge: Das physische Erleben und Emotion.
Nein. Er hat einfach einen viel ausgefeilteren Begriff von (menschlichem) Erleben als Du.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 27. Sep 2020, 15:09

NaWennDuMeinst hat geschrieben :
So 27. Sep 2020, 13:10
Burkart hat geschrieben :
So 27. Sep 2020, 10:57
Das Beispiel mit den Wegbeschreibungen, dass ihr leider nicht mehr aufnehmen mögt, ist ein gutes, dass für eine KI lösbar ist.
Auch das stimmt nicht. Jörn hat damals - wie ich finde - sehr schön und ausführlich beschrieben, warum eine Wegbeschreibung nicht nur das Ausrechnen einer Strecke ist.
Nur eben kurz zu diesem Punkt, mir fehlt die Zeit, die Pflicht ruft...
Es geht ja nicht nur darum, die Strecke auszurechen, das ist klar.
Es geht vielmehr darum, auch die anderen Kriterien zu erkennen und miteinzubeziehen (In Rollstuhl? Welches Fahrzeug? Etc.).
Warum soll die KI das nicht auch können?
Dabei laufen eine ganze Reihe von (Denk)-Prozessen ab, die uns als Menschen im Alltag gar nicht so bewusst sind, die aber trotzdem wichtig sind. Man merkt das (also das da was fehlt) dann, wenn die Maschine nicht das liefert was man möchte.
Ach, du meinst, dass eine KI kein Un(ter)bewusstsein haben kann o.ä.
Was ist dies denn?
Ich gehe davon aus, dass die KI an einem (oder wenigen) Dingen aktuell denkend arbeitet, ähnlich wie sich der Mensch eher auf eine Sache konzentriert, z.B. hier auf die Beantwortung nach dem Weg.
Oder genauer: Sie hat vorher eher an etwas anderes als einen Weg gedacht und wird nun dazu befragt. Damit schiebt sie ihr aktuell Gedachtes beiseite und wird nun mit der Weg-Frage konfrontiert. In dem Moment sollten sich bei ihr menschlich gesprochen die Assoziationen einstellen, die zu diesem Thema passen. Oder technisch gesprochen: Die KI schaut in ihrem Gedächtnis nach, was sie als Erfahrungen so schon zu dem Thema hat und was dazu passen könnte. Vielleicht filtert sie nur die wichtigsten DInge aus, das hängt auch von der Zeit ab, die ihr zur Verfügung steht.
So kann sie dann ggf. leicht feststellen, dass laut Gedächtnis früher einmal wichtig war, auf Kriterien wie "in Rollstuhl" o.ä. zu achten.
Dies sollte insgesamt aber quasi "unbewusst" erfolgen, also ohne dass die KI sich lange bewusst dazu neue Ziele o.ä. setzen muss (und diese gar noch analysieren u.ä.), sondern "nur" durch Speicherabfragen.

Na, warum gefällt dir dieses hier nicht? ;)
Natürlich kann man nicht von heutigen Navis u.ä. ausgehen, das ist sicher klar.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 27. Sep 2020, 18:24

Burkart hat geschrieben :
So 27. Sep 2020, 01:25
Heißt das, dass du der wikipedia-Beschreibung vom Denken nicht zustimmst?
Dann gibt gerne eine bessere/genauere Beschreibung an.
Sie werden es unterlassen, eine Definition von Intelligenz zu liefern, weil es entlarven würde, dass ihr Begriff eben nicht auf alles Lebendige passt. Damit würde aber erkennbar, dass Lebendigkeit des Systems nicht die notwendige Bedingung für die Ausbildung von Intelligenz ist, sondern die Komplexität des Systems zur Problemlösung resp. seine autopoietische Lernfähigkeit notwendige Bedingungen sind.

Aber nur deshalb, weil uns klare Intelligenz-Definitionen und darauf aufbauend stringente Argumente fehlen, müssen wir auf die "Einsicht" (Jörn) vertrauen.




Das ist mein letzter Beitrag in dieser Diskussion.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 27. Sep 2020, 20:00

Mir ist bisher nicht aufgefallen, dass ihr auf meine Ansicht vertraut. Aber immerhin: gut zu wissen :)

In diesem Thread wurde ja zu einigen Beiträgen zum Thema künstliche Intelligenz verlinkt. Und wenn man etwas googelt, kommt man zu einem ähnlichen Ergebnis, wie in diesen Beiträgen. Es gibt keine allgemeinverbindliche/allgemein anerkannte Definition von Intelligenz. Dennoch gibt es gewisse Fingerzeige: Oft heißt es, Intelligenz ist ein Sammelbegriff für die geistige Leistungsfähigkeit. Neben dem Begriff der Intelligenz im allgemeinen, spricht man oft auch von emotionaler Intelligenz oder auch Körperintelligenz.

Markus Gabriel beschäftigt sich aktuell mit der Gründung des Instituts für Künstliche Intelligenz im menschlichen Kontext, wo es um das Verhältnis zwischen künstlicher und menschlicher Intelligenz gehen wird. Er wagt sich vor und definiert Intelligenz als die Fähigkeit, Probleme innerhalb bestimmter Zeit-Fenster zu lösen. "Diese Probleme stellen sich uns nicht in einem abstrakten Problemlösungsraum, sondern im konkreten Rahmen unseres Überlebens. Für Computerprogramme gibt es keine Fragen des Überlebens, weil sie nicht lebendig sind."

Über das Buch von Gabriel (der Sinn des Denkens) und diese Definition von Intelligenz haben wir in diesem Forum, wenn ich mich nicht täusche, auch schon öfter gesprochen.

Wie auch immer: Wenn man diese kleine Auswahl betrachtet, sieht es natürlich für die Möglichkeit der Intelligenz von Computer - an diesen Erläuterungen gemessen - schlecht aus. Denn etwas, was keinen Geist hat, kann natürlich auch keine geistige Leistungsfähigkeit haben. Und etwas was keine Gefühle hat und kennt, kann auch keine emotionale Intelligenz haben und z.b. die Gefühle der anderen erkennen. Und auch nur ein Wesen, das überhaupt Probleme haben kann, kann auch seine Probleme lösen. Aber Computer haben natürlich keine Probleme, wie auch? Wir nutzen Computer, um unsere eigenen Probleme zu lösen. Dementsprechend sagt Markus Gabriel, dass wir sie nutzen, um unsere Intelligenz zu erhöhen.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 28. Sep 2020, 06:25

Burkart hat geschrieben :
So 27. Sep 2020, 15:09
Warum soll die KI das nicht auch können?
Es war ja ein zentraler Teil der Ausführung, zu erläutern, warum eine KI das nicht kann. Um eine solche angemessene Wegbeschreibung abzugeben, muss man sich in sein Gegenüber einfühlen können, und die Perspektive des anderen übernehmen können. Dazu bedarf es meines Erachtens eines intrinsischen Wissens, wie es ist, ein Akteur dieser Art zu sein, nämlich ein Wesen aus Fleisch und Blut, dem es stets um etwas geht, das Teil einer komplexen Lebenswelt mit Seinesgleichen ist. Das kann man sich vielleicht veranschaulichen, wenn man sich überlegt, wie schwierig Kommunikation selbst dann sein kann, wenn viele Gemeinsamkeiten gegeben sind, wenn man mit Menschen aus ganz anderen Kulturen spricht, weil dort ganz andere implizite Normen gelten, die den Akteuren oftmals nicht mal bewusst sind.

Das folgende ist vergleichbar und hängt wohl damit zusammen. Es geht um das sogenannte principle of charity, das Prinzip des Wohlwollens. Das ist ein Begriff aus der Sprachphilosophie. Es geht dabei im Grunde um eine Bedingung der Möglichkeit von Kommunikation überhaupt. Diesem Prinzip gemäß müssen die Kommunikationspartner einen Begriff von Wahrheit haben und dem jeweils anderen, also dem Gegenüber "Wahrheit unterstellen". Das kann man vermutlich grob mit diesem berühmten dictum von Ludwig Wittgenstein verständlich machen: einen Satz verstehen, heißt wissen was der Fall ist, wenn er wahr ist. (Sinngemäß zitiert.) Dazu gehört auch, dass man den anderen, also das Gegenüber als rationalen Akteur begreift. (Hier muss man sich auch klar machen, dass "gegenüber" nicht einfach eine raumzeitliche Beziehung darstellt, sondern bereits eine Form der Anerkennung.)

Sprechen, so wie wir uns darauf verstehen, ist unendlich kompliziert, auch wenn uns das selbst gar nicht immer aufhält, weil wir es alltäglich praktizieren. Es ist an Bedingungen geknüpft: unsere Gefühle, unsere Rationalität, unser Sinn für Wahrheit, unsere Leiblichkeit, unsere Sozialität... Dazu gehören auch unsere intrinsischen Wünsche vieles mit anderen zu teilen, sie zu informieren oder ihn zu helfen, so wie es Tomasello ausgearbeitet hat. Wie unwahrscheinlich das alles im Grunde ist, zeigt der einfache Umstand, dass Kommunikation in dieser Art auf diesem Planeten bisher nur ein einziges Mal entstanden ist.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mo 28. Sep 2020, 17:35

Ja, spannendes Thema. Aber auch ein bißchen lustig.
Ich habe mich heute gefragt, was wohl passiert, wenn wir eine Maschine trainieren Menschen und Hasen zu erkennen und wir ihr dann einen Menschen in einem Hasenkostüm vorsetzen. Hat das mal einer probiert?

:-D



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timelaios
Beiträge: 35
Registriert: Sa 26. Sep 2020, 22:59

Mo 28. Sep 2020, 18:00

Es scheint vielleicht zuerst wie eine spielerische Verbesserung von Dienstleistungen, aber wenn der "Durchschnittsuser" das technische Verständnis und die Basis dafür bekommt, eigene Lösungen mitzuentwickeln, könnte ein Hype wie bei der Smartphonekommunikation entstehen.

Das könnte die KI- Industrie beflügeln, ansonsten muss vllt auf die langsamere, aber stetige Entwicklung der Sicherheitstechnologie gewartet werden. Raumfahrt und Militär sind weitere Anwendungsbereiche, H. Lesch meinte vor kurzem, dass die Zukunft der ersteren ohne Menschen weit weniger gefährlich und deshalb wahrscheinlicher wäre.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 28. Sep 2020, 18:11

herzlich willkommen im Forum Timelaios!




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 28. Sep 2020, 20:24

catrin misselhorn, grundfragen der maschinenethik hat geschrieben : In der KI erstarkte das Interesse an Emotionen insbesondere im Zusammenhang mit der psychologischen Forschung zur Bedeutung, die emotionale Reaktionen für rationales Verhalten besitzen. Besonders bekannt wurden die Arbeiten des Neurowissenschaftlers Antonio Damasio, der anhand empirischer Fallstudien zeigte, dass Personen mit bestimmten Hirnverletzungen nicht mehr in der Lage waren, ihr Leben zu organisieren, obwohl ihre intellektuellen Fähigkeiten nicht beeinträchtigt zu sein schienen. Sie schnitten in IQ-Tests etwa normal ab, trafen aber fatale Entscheidungen und waren unfähig, einen Plan in die Tat umzusetzen oder eine begonnene Sache zu vollenden. Dies ging mit tiefgreifenden emotionalen Störungen einher.
...

Eine recht ausführliche Klassifikation sieht zwölf solcher Funktionen für Emotionen vor:
  1. Alarmmechanismen zur schnellen, reflexartigen Reaktion in kritischen Situationen,
  2. Auswahl unter verschiedenen Handlungsalternativen,
  3. kurz- oder langfristige Anpassung des Verhaltens,
  4. soziale Kommunikation und Kooperation,
  5. Verstärkung bei Lernprozessen,
  6. Motivation,
  7. Ausbildung von Zielen und ihre Gewichtung,
  8. Integration oder Filterung von Informationen aus verschiedenen Informationskanälen,
  9. Steuerung der Aufmerksamkeit,
  10. Kontrolle des Gedächtnisses,
  11. Informationsverarbeitungsstrategie, z. B. Auswahl unterschiedlicher Suchstrategien,
  12. Bildung eines Selbstmodells, einschließlich der Repräsentation der Auswirkungen, welche eine Situation für den Akteur besitzt. ...




Timelaios
Beiträge: 35
Registriert: Sa 26. Sep 2020, 22:59

Di 29. Sep 2020, 08:00

Danke, Jörn ! Emotionen können auf psychologischer und physiologischer Ebene noch grundsätzlicher und allgemeiner definiert werden, z.B. hinsichtlich verschiedener Organismen. Kleinstmögliche Nenner sind vllt Appetenz, Erfolg und Schmerz.
Am ehesten erscheint mir eine abstrekte Modellierungsmöglichkeit für 1 und 2 möglich, oft aber eher einschliessend als umfänglich, d.h. für verschiedene Anwendungsgebiete eher als umfassend. Schmerz klingt dagegen phänomenal eher einfach, obwohl Platos und Wittgensteins klassische Beiträge dazu nur die Spitze des Eisberges sind, hier scheinen aber spezielle, anthropomorphe Faktoren und Eigenschaften eine grössere Rolle zu spielen.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 29. Sep 2020, 15:05

Der Hintergrund meines Posts ist, dass Burkart die Bedeutung von Emotionen ganz anders einschätzt. Eine KI, wie er sie sich vorstellt, sollte - so wie ich ihn verstanden habe - im Idealfall keine Emotionen haben.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Di 29. Sep 2020, 22:56

Timelaios hat geschrieben :
Mo 28. Sep 2020, 18:00
Das könnte die KI- Industrie beflügeln, ansonsten muss vllt auf die langsamere, aber stetige Entwicklung der Sicherheitstechnologie gewartet werden. Raumfahrt und Militär sind weitere Anwendungsbereiche, H. Lesch meinte vor kurzem, dass die Zukunft der ersteren ohne Menschen weit weniger gefährlich und deshalb wahrscheinlicher wäre.
Ein großes Problem bei der unbemannten Raumfahrt sind die wachsenden Entfernungen (wir stossen immer weiter vor).
Nur als Beispiel: Beim größten Abstand Erde - Mars braucht ein Funksignal zum Mars (zum Beispiel zur Steuerung einer Sonde, eines Landers usw) gute 20 Minuten (insgesamt - also hin und zurück - doppelt so lange).
Spontane, schnelle Reaktionen sind da nicht mehr möglich (wenn das Signal ankommt ist es vielleicht schon zu spät).
Was man sich deshalb wünscht sind Computer und Roboter, die Situationen selbstständig erkennen und darauf basierend autonom Entscheidungen treffen können.
Also ja, dort herrscht ein großes Interesse an KI.
Der Standarduser, ohne nennenswerte Kenntnisse in der Informatik, kann wohl aktuell von keinem großen Nutzen sein, ausser als "Datenlieferant".
Jedes Mal wenn wir zum Beispiel Suchmaschinen verwenden, machen wir diese "schlauer".



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 30. Sep 2020, 06:22

NaWennDuMeinst hat geschrieben :
Di 29. Sep 2020, 22:56
Jedes Mal wenn wir zum Beispiel Suchmaschinen verwenden, machen wir diese "schlauer".
heise.de hat geschrieben : Im Namen des Algorithmus

Wenn Software Haftstrafen verhängt

Bei Justiz und Polizei kommen immer häufiger Programme zum Einsatz, die Aussagen zur Wahrscheinlichkeit zukünftiger Straftaten treffen sollen. In den USA nehmen solche Vorhersage-Algorithmen bereits aktiven Einfluss auf Gerichtsurteile – mit zum Teil verheerenden Folgen für die Betroffenen. Und China verwandelt sich gleich ganz in eine totalitäre Datengesellschaft.

Von Peter-Michael Ziegler

https://www.heise.de/select/ct/2017/25/1512700333136715
Den Hinweis auf Compas habe ich aus einem Buch mit dem Titel "ein Algorithmus hat kein Taktgefühl" von Katharina Zweig, IT-Expertin für Sozioinformatik und vielfach ausgezeichneter Informatikprofessorin.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Mi 30. Sep 2020, 22:04

Timelaios, auch von mir noch ein herzliches Willkommen hier im Forum!
Jörn Budesheim hat geschrieben :
Di 29. Sep 2020, 15:05
Der Hintergrund meines Posts ist, dass Burkart die Bedeutung von Emotionen ganz anders einschätzt. Eine KI, wie er sie sich vorstellt, sollte - so wie ich ihn verstanden habe - im Idealfall keine Emotionen haben.
Wir haben vor allem zwei unterschiedliche Sichtweisen.

Du (bzw. auch Jörn 2 ;) ) gehst vom Menschen mit seinem Denken aus und sieht es als sein Alleinstellungsmerkmal an, also dass nichts Anderes ähnlich intelligent wie er sein kann. (Zumindest nichts auf der Erde, soweit bekannt.)

Mein Weg ist zu schauen, was für allgemeine, starke künstliche bzw. maschinelle Intelligenz machbar ist und sehe keine prinzipielle Grenzen hinsichtlich Intelligenz. Mir ist noch kein Beispiel bekannt, was eine KI auf keinen Fall können kann; die Wegbeschreibungen können z.B. mittels einigem Wissen oder ggf. Nachfragen ermittelt werden (ein Hinversetzen ist sicherlich von Vorteil, aber nicht der einzige Weg zum Ziel), auch die Planung eines Vergnügungspark mit noch erheblich mehr Wissen, was ggf. gut recherchert oder erfragt werden muss. Wenn wir z.B. für Tiere oder gar Pflanzen etwas möglichst gut machen wollen, müssen wir sie, ihr Verhalten oder auch Zusammenleben u.ä. auch genau analysieren, wenn es gut werden soll, weil wir uns spätestens in Pflanzen nicht wirklich hineinversetzen können.

Wir können Emotionen gerne als Unterschied zwischen Mensch und Maschine sehen und daraus auf andere Art von Intelligenz folgern. Ob erstere aber langfristig immer besser sein kann, wird sich langfristig zeigen und vermutlich irgendwann widerlegt, wie so vieles im Laufe des Fortschritts. Es ist doch auch gut, wenn sich unterschiedliche Intelligenzen ergänzen können, die eine halt mit Emotionen, die andere mehr Sachlichkeit u.ä.
Sicher haben Emotionen auch Vorteile, aber keine Emotionen eben auch - mir ist eine rein sachliche KI zumindest erstmal lieber als eine, die rumzickt und bockig ist und gar noch Trump unterstützt ;)

Apropos "angemessene Wegbeschreibung" (aus früherem Beitrag):
Mögen Menschen gerne einfacher und perfektere Wegbeschreibungen geben können, weil sie eben von und für Menschen sind.
Aber reichen uns nicht schon oft genug gar schon einfachere Wegbeschreibungen, die wir als hinreichend angemessen ansehen? Zumindest bei denen in Autos oder auch im Web, um von A nach B zu kommen, sind diese oft anscheinend hinreichend gut.
Klar, für andere Wegbeschreibungen wird mehr Differenzierung benötigt, aber was davon soll nicht über Sinne eingelesen und notfalls mit Hilfe einer umfangreichen Datenbank mit Wissen über Menschen analysierbar sein?
Natürlich soll eine KI "besser" sein, nicht nur einfach lernen, sondern auch menschliche Begriffen lernen u.v.a.m. und so schon näher am Menschen dran sein. Dies beeinhaltet auch gute Kommunikation, in der KI versteht (u.a. aufgrund von Begriffen und deren erlernten Zusammenhängen), idealerweise in menschlicher Sprache.

Ein Stichpunkt zu NaWennDuMeinst:
Wir wollen aber keine KI schaffen, die irgendwie denkt. Wir wollen eine KI schaffen die wie ein Mensch denkt. Denn wir wollen ja, dass sie unsere Probleme löst und nicht die von irgendwem.
Es ist eben nicht das Ziel, dass die KI perfekt genauso denkt, wie ein Mensch, wobei eine Nähe natürlich nicht schaden kann.
Viele unserer Probleme kann sie auch lösen, ohne 100% genauso zu denken, ähnlich wie ein Flugzeug fliegen und so in der Luft längere Strecken überwinden kann, ohne es genau wie ein Vogel zu tun.

Wenn dir (oder auch euch) noch ein paar Punkte wichtig sind, auf die ich eingehen soll, wiederholt sie bitte; ich hatte ein paar Tage nicht die Zeit zu antworten - man hat ja auch ein reales Leben, das einen oft genug braucht.
Zuletzt geändert von Burkart am Mi 30. Sep 2020, 22:57, insgesamt 9-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Mi 30. Sep 2020, 22:19

Jörn Budesheim hat geschrieben :
Mi 30. Sep 2020, 06:22
NaWennDuMeinst hat geschrieben :
Di 29. Sep 2020, 22:56
Jedes Mal wenn wir zum Beispiel Suchmaschinen verwenden, machen wir diese "schlauer".
In dem Sinne, das sie Suchmaschinenbetreiber immer mehr von uns wissen und deshalb deren Algorithmen immer präziser uns Werbung schicken können u.ä.
heise.de hat geschrieben : Im Namen des Algorithmus

Wenn Software Haftstrafen verhängt

Bei Justiz und Polizei kommen immer häufiger Programme zum Einsatz, die Aussagen zur Wahrscheinlichkeit zukünftiger Straftaten treffen sollen. In den USA nehmen solche Vorhersage-Algorithmen bereits aktiven Einfluss auf Gerichtsurteile – mit zum Teil verheerenden Folgen für die Betroffenen. Und China verwandelt sich gleich ganz in eine totalitäre Datengesellschaft.
Tja, solange Menschen(gruppen) solche Macht über andere haben und die Gesellschaft, Politik u.ä. dies zulässt, ist das natürlich ein Problem, also dass aus statistischen Dingen pauschal auf ganze Menschengruppen geschlossen und nicht individuell differenziert wird.
Den Hinweis auf Compas habe ich aus einem Buch mit dem Titel "ein Algorithmus hat kein Taktgefühl" von Katharina Zweig, IT-Expertin für Sozioinformatik und vielfach ausgezeichneter Informatikprofessorin.
Sozioinformatik klingt sehr nach dem Gebiet, auf solche Probleme hinzuweisen. Auch in meinem Informatikstudium grob vor 30 Jahren gab es solche Richtungen schon.
Natürlich hat ein (einfacher, normaler) Algorithmus kein Taktgefühl, genauso wenig wie ein Arm oder Bein oder auch Mund.
Man könnte aber Systeme entwickeln, die sich auf Basis von viel erlerntem Wissen über Menschen irgendwann auf Menschen einstellen können und so etwas wie Taktgefühl hätten, möge es auch quasi simuliert sein. Aber davon sind wir noch weit weg.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Antworten