Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Timelaios
Beiträge: 35
Registriert: Sa 26. Sep 2020, 22:59

Sa 3. Okt 2020, 07:39

Sicher fällt es Menschen nicht immer leicht, Meinungsverschiedenheiten zu akzeptieren, womit die SONNY Baureihe vllt weniger Probleme hat/hätte.
Der Hintergrund von Elektronik/Meta-/Posi-/Negatroniken etc beruht ja eigtl nur nicht unbedingt in Variationen.
Das "Unmessbare" zu finden und messbar zu machen, gehört dagegen zu einem psychischen Antriebssystem, das als Verbesserungsroutine auch in Suchmaschinen "lebt". :?:




Benutzeravatar
Jörn Budesheim
Beiträge: 23578
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 3. Okt 2020, 08:10

Burkart hat geschrieben :
Fr 2. Okt 2020, 22:32
Was den meisten Menschen zumindest im Großen und Ganzen erfolgreich gelehrt wird, also dass sie nicht zu Massenmördern o.ä. werden.
In so einer Welt möchte ich nicht leben, wo Menschen keine Massenmörder werden, weil man ihnen beigebracht hat, dass das falsch ist.

Menschen sind schließlich in der Lage, sich folgendes selbst zu fragen: ist es richtig/falsch dieses oder jenes zu tun, weil man es mir beigebracht ha (weil man nicht so "programmiert" hat) oder hat man es mir beigebracht, weil es richtig/falsch ist. Auf was immer man das Richtige oder das Falsche zu gründen versucht (Konventionen, Kriterien, Programme, Gottes Gebote,...) diese Frage ist immer noch möglich. Nur aus diesem Grund kommen wir überhaupt moralisch vom Fleck und lernen z.b., das es eben doch falsch ist, Menschen aufgrund ihrer Hautfarbe zu benachteiligen, obwohl man es uns gelehrt hat.

Hier sind wir übrigens wieder in subjektiv/objektiv/Ästhetik-Thread, wo ich die Frage nach den Kriterien für das ästhetisch gelungene für fehlgeleitet erachtet habe.




Burkart
Beiträge: 2805
Registriert: Sa 11. Jul 2020, 09:59

Sa 3. Okt 2020, 09:51

Jörn Budesheim hat geschrieben :
Sa 3. Okt 2020, 08:10
Burkart hat geschrieben :
Fr 2. Okt 2020, 22:32
Was den meisten Menschen zumindest im Großen und Ganzen erfolgreich gelehrt wird, also dass sie nicht zu Massenmördern o.ä. werden.
In so einer Welt möchte ich nicht leben, wo Menschen keine Massenmörder werden, weil man ihnen beigebracht hat, dass das falsch ist.
Dir ist sicher klar, dass das nur ein überspitztes Beispiel war.
Menschen sind schließlich in der Lage, sich folgendes selbst zu fragen: ist es richtig/falsch dieses oder jenes zu tun, weil man es mir beigebracht ha (weil man nicht so "programmiert" hat) oder hat man es mir beigebracht, weil es richtig/falsch ist.
Und du meinst, dass das immer klar zu trennen ist? Genauer gesagt: Was soll "richtig" und "falsch" denn objektiv überhaupt sein? Ist nicht vieles nur eine Übereinkunft, oft aus pragmatischen Erkenntnissen bzw. Überlegungen entstanden? Z.B. dass Einem dann eher geschadet wird, wenn man Anderen schadet u.ä.
Klar gibt es angeborene Emotionen wie die Mutter-Kind-Liebe, die dann direkt als "richtig" eingestuft wird.
Genauso gibt es Emotionen wie Eifersucht, die zerstörerisch sein können. Ist damit Eifersucht dann nicht eher "falsch"? Dies wird allerdings kaum allgemeinen Konsens finden.
Auf was immer man das Richtige oder das Falsche zu gründen versucht (Konventionen, Kriterien, Programme, Gottes Gebote,...) diese Frage ist immer noch möglich. Nur aus diesem Grund kommen wir überhaupt moralisch vom Fleck und lernen z.b., das es eben doch falsch ist, Menschen aufgrund ihrer Hautfarbe zu benachteiligen, obwohl man es uns gelehrt hat.
Erweitern wir mal die Hautfarbe auf Ethnien bzw. der Herkunft aus anderen, ggf. fernen Ländern, ok?
Mag es da nicht vielleicht Gründe für geben, warum man (ob bewusst oder nicht) solche Menschen benachteiligt, weil man sie nicht so gerne mag? (Übrigens ein weiteres gutes Beispiel für eine sich negativ auswirkende Emotion; KI hat keine emotionalen Vorurteile zu Herkunft u.ä.)
So kann man z.B. einzelne Menschen mit anderer Hautfarbe oder Herkunft mögen (geht mir z.B. so), aber es sich nicht wünschen, dass Deutschland immer weiter entfremdet wird durch Überschwemmung von Menschen aus anderen Ländern. Ihre Kultur ist eine andere, so dass es klar zu mehr Konflikten kommt (die große Familienfeier, die kürzlich zu etlichen Corona-Fällen führte, war ein türkische Familie). Ihre Sprache ist anders (nur als ein Beispiel), so dass man oft nur noch ihre "Gemeinsprachen" zu hören bekommt (mir geht es oft so).
Kürzlich hat ein deutscher (oder zumindest so wirkender) Mensch islamischer Herkunft klar gesagt (im Fernsehen... hm bei Maischberger? Weiß ich nicht mehr genau), dass der Islam aus seiner Sicht *nicht* zu Deutschland gehört, weil er andere Werte hat, z.B. patriarchatische.
Soll insgesamt heißen: Moral ist nicht so einfach, wie du es dargestellt hast. Und insofern kann man auch nicht einfach erkennen, was richtig ist.
Hier sind wir übrigens wieder in subjektiv/objektiv/Ästhetik-Thread, wo ich die Frage nach den Kriterien für das ästhetisch gelungene für fehlgeleitet erachtet habe.
Hm, das habe ich nicht verstanden, insbesondere nicht dein "ästhetisch gelungene[s]".



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23578
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 3. Okt 2020, 10:07

Wie lautet hier dein Argument bezüglich der KI-Frage? Willst du sagen, dass KI bzw Maschinenethik möglich ist, weil es manchmal schwierig zu beantworten ist, was richtig oder falsch ist?

Warum sollte der Umstand, dass manche moralische Fragen schwierig zu beantworten sind und dass wir uns manchmal in moralischen Dingen irren, ein Argument für deine Position sein?




Benutzeravatar
Jörn Budesheim
Beiträge: 23578
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 3. Okt 2020, 10:16

j hat geschrieben : Menschen sind schließlich in der Lage, sich folgendes selbst zu fragen: ist es richtig/falsch dieses oder jenes zu tun, weil man es mir beigebracht ha (weil man nicht so "programmiert" hat) oder hat man es mir beigebracht, weil es richtig/falsch ist.
b hat geschrieben : Und du meinst, dass das immer klar zu trennen ist?


Es geht hier nicht darum, ob das immer klar zu trennen ist. Es geht darum, dass diese Frage, die ich oben formuliert habe, immer möglich ist, wenn man sich auf das bezieht, was einem beigebracht wurde, was Gott befiehlt, was die Programmierung besagt etc.




Burkart
Beiträge: 2805
Registriert: Sa 11. Jul 2020, 09:59

Sa 3. Okt 2020, 10:29

Jörn Budesheim hat geschrieben :
Sa 3. Okt 2020, 10:07
Wie lautet hier dein Argument bezüglich der KI-Frage? Willst du sagen, dass KI bzw Maschinenethik möglich ist, weil es manchmal schwierig zu beantworten ist, was richtig oder falsch ist?
Was meinst du mit "KI-/Maschinenethik"? Dass eine KI eine eigene Ethik hat? (Oder doch alternativ, wie wir KI ansehen?)
Zumindest anfangs halte ich das Thema Ethik für/in der KI nicht für sinnvoll, weil es zu kompliziert ist. Auch Kinder kommen erst mit der Zeit dazu, z.B. hinsichtlich Lügen (was sie bringen, wann sie vielleicht doch falsch sind...).
Ob es später einmal sinnvoll ist, dass KI sich damit auch ausgiebig beschäftigen soll, ist die Frage. Immerhin könnte sie einfach erstmal alle Menschen als gleichwertig ansehen und darauf aufbauen. Andererseits hat sie natürlich (davon gehe ich aus) mit realen Menschen zu tun und kann feststellen, dass einige "besser" oder "schlechter" als andere sind, was das im Detail genau heißen möge (z.B. "besser" sei es Anderen zu helfen). Sie kann natürlich versuchen, situativ die eine (alle gleich) oder andere (z.T. "besser") Position anzunehmen, wo es sinnvoller erscheint. Menschen scheinen da z.T. nicht sehr zu differenzieren, z.B. wenn sie einfach alle Menschen nach Deutschland hineinlassen wollen, weil sie woanders in Not sind.
Warum sollte der Umstand, dass manche moralische Fragen schwierig zu beantworten sind und dass wir uns manchmal in moralischen Dingen irren, ein Argument für deine Position sein?
Welche (r Teil meiner) Position genau? Dass ich neben Menschen gerne eine (beratende) KI-Intelligenz gestellt sähe (mein Hauptanliegen hierzu)?
Wie schon an anderer Stelle betont, erhoffe ich mir durch KI mehr Objektivität gegenüber den emotionalen, egoistischen Menschen, insbesondere der Macht-Elite.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2805
Registriert: Sa 11. Jul 2020, 09:59

Sa 3. Okt 2020, 10:40

Jörn Budesheim hat geschrieben :
Sa 3. Okt 2020, 10:16
j hat geschrieben : Menschen sind schließlich in der Lage, sich folgendes selbst zu fragen: ist es richtig/falsch dieses oder jenes zu tun, weil man es mir beigebracht ha (weil man nicht so "programmiert" hat) oder hat man es mir beigebracht, weil es richtig/falsch ist.
b hat geschrieben : Und du meinst, dass das immer klar zu trennen ist?


Es geht hier nicht darum, ob das immer klar zu trennen ist. Es geht darum, dass diese Frage, die ich oben formuliert habe, immer möglich ist, wenn man sich auf das bezieht, was einem beigebracht wurde, was Gott befiehlt, was die Programmierung besagt etc.
Ich kann nicht behaupten, dass ich dich genau verstanden hätte. Meinst du, dass eine KI nicht die Möglichkeit hat zu unterscheiden, was einem beigebracht wurde und was nicht? Falls es darum geht: Kann der Mensch das denn immer?
Im Übrigen kann die KI eigene Schlussfolgerungen ziehen, also dieses und jenes kombinieren, bewerten anhand von (z.B. erlernten) Kriterien und so zu letztlich eigenem Ergebnis kommen. (Es ist "eigen" und nicht vorgegeben, weil es eben nicht programmiert wurde u.ä.)

Falls du es anders gemeint hast: Geht es dir um die höhere Frage, ob eine KI sich die obige Frage selbst stellen kann? (Ein Mensch müsste dafür zumindest schon eine gewisse Reife haben.)

Oder meinst du, dass eine KI bzw. der Mensch sich immer bewusst ist/sein sollte, woher er etwas weiß? (Das dürfte ziemlich unmöglich sein, zumindest beim Menschen.)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 3. Okt 2020, 11:24

Burkart hat geschrieben :
Sa 3. Okt 2020, 10:29
Menschen scheinen da z.T. nicht sehr zu differenzieren, z.B. wenn sie einfach alle Menschen nach Deutschland hineinlassen wollen, weil sie woanders in Not sind.
Ja, oder wenn sie allen Menschen die Hilfe verweigern wollen, weil einige wenige sich schlecht benehmen.
Wie schon an anderer Stelle betont, erhoffe ich mir durch KI mehr Objektivität gegenüber den emotionalen, egoistischen Menschen, insbesondere der Macht-Elite.
Wie das? Wie verhinderst Du denn, dass eine Maschine egoistisch entscheidet?
Woraus resultiert Deiner Meinung nach die "Objektivität" der Maschine?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2805
Registriert: Sa 11. Jul 2020, 09:59

Sa 3. Okt 2020, 12:44

NaWennDuMeinst hat geschrieben :
Sa 3. Okt 2020, 11:24
Burkart hat geschrieben :
Sa 3. Okt 2020, 10:29
Menschen scheinen da z.T. nicht sehr zu differenzieren, z.B. wenn sie einfach alle Menschen nach Deutschland hineinlassen wollen, weil sie woanders in Not sind.
Ja, oder wenn sie allen Menschen die Hilfe verweigern wollen, weil einige wenige sich schlecht benehmen.
Ich denke, wir verzichten zumindest in diesem Thread auf eine weitere politische Diskussion, außer du möchtest es gerne.
(Zwei Problemstichpunkte: Einzelne Menschen gegenüber vielen (Domino- bzw. Nachmacher-Effekt), Ort der Hilfe bei uns oder woanders)
Wie schon an anderer Stelle betont, erhoffe ich mir durch KI mehr Objektivität gegenüber den emotionalen, egoistischen Menschen, insbesondere der Macht-Elite.
Wie das? Wie verhinderst Du denn, dass eine Maschine egoistisch entscheidet?
Woraus resultiert Deiner Meinung nach die "Objektivität" der Maschine?
Egoismus basiert (zumindest u.a.) auf emotionalen Wünschen, z.B. nach (besserem) Leben, (netterem) Essen, mehr Geld für was auch immer usw.
Eine Maschine hat solche Wünsche aber nicht.
Insofern kann sie erheblich objektiver sein, weil ihr die egoistisch-subjektiven Dinge fehlen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 3. Okt 2020, 18:41

Burkart hat geschrieben :
Sa 3. Okt 2020, 12:44
NaWennDuMeinst hat geschrieben :
Sa 3. Okt 2020, 11:24
Burkart hat geschrieben :
Sa 3. Okt 2020, 10:29
Menschen scheinen da z.T. nicht sehr zu differenzieren, z.B. wenn sie einfach alle Menschen nach Deutschland hineinlassen wollen, weil sie woanders in Not sind.
Ja, oder wenn sie allen Menschen die Hilfe verweigern wollen, weil einige wenige sich schlecht benehmen.
Ich denke, wir verzichten zumindest in diesem Thread auf eine weitere politische Diskussion, außer du möchtest es gerne.
Es war Dein Beispiel. Wenn Du nicht willst, das es einer aufgreift, dann lass es weg,
Wie schon an anderer Stelle betont, erhoffe ich mir durch KI mehr Objektivität gegenüber den emotionalen, egoistischen Menschen, insbesondere der Macht-Elite.
Wie das? Wie verhinderst Du denn, dass eine Maschine egoistisch entscheidet?
Woraus resultiert Deiner Meinung nach die "Objektivität" der Maschine?
Egoismus basiert (zumindest u.a.) auf emotionalen Wünschen, z.B. nach (besserem) Leben, (netterem) Essen, mehr Geld für was auch immer usw.
Eine Maschine hat solche Wünsche aber nicht.
Warum denn nicht? Warum soll (d)eine Maschine nicht die Vorstellung entwickeln, dass es besser wäre mehr Geld in ihre Hardware zu investieren, als in wohltätige Projekte?
Insofern kann sie erheblich objektiver sein, weil ihr die egoistisch-subjektiven Dinge fehlen.
Ok, also gegen negative Emotionen ist sie Immun, aber positive, emotionale Impulse (wie zum Beispiel Liebe, Mitgefühl etc) kann sie einfach durch Logik ersetzen.
Ist das in etwa Deine Vorstellung?
Das wäre dann die Ansicht, dass es für das "Gute" keine Emotionen braucht, aber das "Böse" und "Schlechte" immer mit Emotionen zu tun hat.
Ich glaube nicht, dass das so richtig ist. Wenn alles Gute auch durch Logik erreicht werden kann, dann natürlich auch alles Schlechte.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23578
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 4. Okt 2020, 08:56

Max soll lernen, seinen kleinen Bruder Moritz nicht immer mit der Schippe zu hauen. Was sollte hier das Ziel sein? Dass er aufhört, weil er sich der Autorität des Vaters beugt. Oder sollte er aufhören, weil er einsieht, dass es in aller Regel falsch ist, anderen Schmerzen zuzufügen?




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 4. Okt 2020, 11:22

Wir sollten nicht so tun, als seien alle
unsere inneren Einstellungen auf einer Einsicht gegründet. Oftmals ist das, was wir denken, glauben und für richtig oder falsch befinden Folge einer Konditionalisierung durch kulturelle Millieus. Dazu zählen soziale wechselseitige Korrektive, aber auch Erziehung in der Kindheit. Vieles von dem können wir in einem gewissen Sinne auch als "Einprogrammierung" verstehen, sodass es nicht weit her ist zu meinen, dass wir "innere Einstellungen" auch Maschinen beibringen können.

Eine Maschine muss nicht wissen, was Schmerzen sind, um zu wissen, dass es falsch ist, diese einem Menschen zuzuführen, indem man ihr es sagt, dass es falsch ist. Sie muss die moralischen, ethischen, empathischen usw. Implikationen nicht haben, um das Wissen zu haben, dass es falsch ist. Es ist falsch, weil es falsch ist, und das muss der Maschine reichen, um zu wissen, dass es solches Schmerz zufügendes Verhalten vermeiden soll. Und warum sollte sie es vermeiden: Weil wir es ihr beibringen können, dass sie es soll.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 4. Okt 2020, 11:34

Jörn Budesheim hat geschrieben :
So 4. Okt 2020, 08:56
Max soll lernen, seinen kleinen Bruder Moritz nicht immer mit der Schippe zu hauen. Was sollte hier das Ziel sein? Dass er aufhört, weil er sich der Autorität des Vaters beugt. Oder sollte er aufhören, weil er einsieht, dass es in aller Regel falsch ist, anderen Schmerzen zuzufügen?
Wenn es "in aller Regel falsch" sein soll, einen Menschen zu verletzen, was ich glaube, so müsste sich diese Regel eigentlich auch ausformulieren lassen so, dass sie sich in eine Maschine programmieren lässt.

Denn der Regel liegen Gründe zugrunde, die real sind und unabhängig davon real sind, dass wir Menschen es sind, die sie nachvollziehen, einsehen oder sie uns einprägen. Nicht die Einsicht in den Grund gibt dem Grund seine Realität, sondern der Grund selbst hat sie. Diese vielen "Weils", die den Grund ausmachen, gründen also nicht primär in unserer Empathie oder in der Tatsache, dass wir Menschen sind, die diese Weils verstehen, sondern in der Regelkraft selbst, die diese Gründe ausmachen. Sie sind zwingend und autoritativ durch sich selbst. Deshalb ihre Universalität und ihre Geltung unter allen Umständen.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 4. Okt 2020, 11:52

Nicht jeder Mensch (als Individuum) hinterfragt all sein Denken und Handeln. Das stimmt.
Aber insgesamt, als Menschheit, gibt es glaube ich so gut wie nichts, was wir nicht hinterfragen würden.
Und natürlich ist das die Ursache dafür, dass es überhaupt so etwas wie Fortschritt (in der Ethik, in der Wissenschaft etc) gibt.

Was ist Aufklärung?
Was meinte Kant damit, als er sagte: "Habe den Mut Dich Deines eigenen Verstandes zu bedienen?"
Ich glaube nicht, dass er damit gemeint hat, dass es einfach reicht "Programme" entgegen zu nehmen.
Alethos hat geschrieben :
So 4. Okt 2020, 11:34
Diese vielen "Weils", die den Grund ausmachen, gründen also nicht primär in unserer Empathie oder in der Tatsache, dass wir Menschen sind, die diese Weils verstehen, sondern in der Regelkraft selbst, die diese Gründe ausmachen.
Aber wodurch begründet sich die "Regelkraft"? Wieso sollte es falsch sein, Menschen zu quälen, oder ihnen Leid zuzufügen? Warum soll diese Regel z.B. mehr Gewicht haben als andere?
Ich mache jetzt mal die Maschine und sage: Menschen Leid zuzufügen ist nicht falsch. Wieso sollte das falsch sein? Es ist wichtiger Geld für meine Hard- und Software auszugeben, als das Geld für Nahrung zu verschwenden. Essen ist sowieso überflüssig,. Das sind minderwertige Bedürfnisse von minderwertigen Wesen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 4. Okt 2020, 12:14

Gespräch zwischen dem Androiden David und seinem Schöpfer, Mr. Wayland.
Szene aus dem Film "Alien - Covenant".
"Darf ich Ihnen eine Frage stellen, Vater?"

"Bitte."

"Wenn Sie mich erschaffen haben, wer hat dann Sie erschaffen?"

"Ah, die ewige Frage. Die Du und ich eines Tages hoffentlich beantworten.
Das Alles hier, all die Wunder der Kunst, der Gestaltung, der menschlichen Erfindungsgabe
ist ganz und gar bedeutungslos vor der einzigen Frage die von Belang ist:
Woher kommen wir?
Ich weigere mich zu glauben, dass die Menschheit ein beliebiges Nebenprodukt eines molekularen Umstandes ist.
Nur das Resultat eines bloßen, biologischen Zufalls?
Nein. Da muss noch mehr sein.
Und Du und ich mein Sohn, wir werden es finden."

"Erlauben Sie mir einen Augenblick nachzudenken.
Sie suchen ihren Schöpfer.
Ich sehe hier meinen.
Ich werde ihnen dienen, obwohl Sie ein Mensch sind.
Sie vergehen, ich vergehe nicht. "

"Ich möchte jetzt Tee, David. Ich möchte den Tee."

(David bringt seinem Herren Tee)
Wir können froh sein, dass Maschinen nicht denken können, dass sie solche Fragen nicht stellen können.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23578
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 4. Okt 2020, 13:20

@Alethos,

Ja, stimmt, das Richtige ist "zwingend und autoritativ durch sich selbst." Das ist mein Punkt. Es gilt nicht aufgrund einer Konvention, weil Gott es gesetzt hat oder ein Programmierer es programmiert hat.

Aber es ist ein Teil der ethischen Praxis, dass man aus Einsicht in das Richtige handelt und nicht, weil man sich einer Autorität beugt oder gemäß einem Programm agiert. Wer nicht aus Einsicht handelt, sondern einfach einer Norm folgt, handelt nicht wirklich ethisch. Insbesondere ist dann die Möglichkeit verbaut, falsche Konventionen, "falsche Programmierungen" zu hinterfragen!

Ethik ist Teil einer Praxis der Freien und Mündigen. Deswegen sollen unsere Kinder ja auch lernen, nicht einfach Autoritäten zu folgen, sondern aus Einsicht in das Richtige und Angemessene handeln.




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 4. Okt 2020, 13:46

NaWennDuMeinst hat geschrieben :
So 4. Okt 2020, 11:52
Aber wodurch begründet sich die "Regelkraft"? Wieso sollte es falsch sein, Menschen zu quälen, oder ihnen Leid zuzufügen? Warum soll diese Regel z.B. mehr Gewicht haben als andere?
Ich will hier nicht so tun, als hätte ich die objektive Wahrheit moralischer Aussagen gepachtet. Wenn wir uns aber an Jörn erinnern, sagte er doch sinngemäss, dass die Objektivität moralischer Richtigkeit nicht immer bedeutet, dass wir sie erkennen. D.h., dass etwas an und für sich richtig ist, muss nicht heissen, dass wir wissen, was das in jedem Fall heisst.
Wir müssen der Maschine auch zugestehen können zu irren, gerade wenn sie nach unseren Massstäben irrt. Auch wir irren.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 4. Okt 2020, 13:49

Der Punkt ist aber nicht, was richtig an und für sich ist, sondern ob wir danach handeln, was wir für richtig halten und wir handeln mit Bezug auf moralische Richtigkeit dann richtig, wenn wir nach moralischen Reglen handeln so, dass wir Moralität Ausdruck geben. Moralisch handeln heisst, so zu handeln, dass ethische Regeln eingehalten werden, es heisst nicht, so zu handeln, als könnte man in jedem Fall sagen, dass es objektiv richtig war, so zu handeln. Die Antwort auf die Frage, ob wir Menschen kein Leid zufügen sollen, hat eine objektive Wahrheit - Dass wir es nicht sollen, ist eine wahrheitsfähige Aussage. D.h. ob wir irren oder nicht, entscheiden nicht wir durch Begründungen, sondern müssen wir am Sachverhalt entscheiden. Er gibt vor, was richtig oder falsch ist, denn er hat eine objektive moralische Dimension, an der sich unsere Begründungen ausrichten müssen, wenn sie ihn richtig erfassen wollen. Das ist die Bedingung dafür, dass unsere Ansichten über moralische Sachverhalte wahr sind: Dass ihnen Tatsachen zugrunde liegen, die explizit moralische sind.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 4. Okt 2020, 14:05

Nehmen wie z.B. die selbstevidente Wahrheit, dass wir Menschen kein Leid zufügen sollen. Wir müssen annehmen, dass es die richtigste aller möglichen Antworten auf diese Frage ist: Sollen wir Menschen leid zufügen dürfen? Die Antwort ist klar "Nein", wenn wir die ethischen Implikationen durchdenken. Der Umstand, dass der Mensch ein leidfähiges Wesen ist, dass er ein Recht auf Unversehrtheit und Schutz hat, dass er eine Würde hat, dass er stellvertretend für die Menschheit steht (und in ihm eine ganze Humanität repräsentiert ist), das alles begründet die Wahrheit der Antwort "Nein". Wir sollen Menschen kein Leid zufügen.
Es gibt also eine Vielzahl von objektiven Umständen, die gute Gründe für diese Antwort liefern. Ob wir damit die volle Wahrheit der moralischen Objektivität des Neins erfassen, wissen wir nicht, aber wir haben sehr gute Gründe anzunehmen, dass wir richtig liegen. Jedenfalls haben wir deutlich mehr und bessere Gründe anzunehmen, dass wir richtig liegen als dafür, dass wir uns irren.

Nun müssen wir uns also fragen, was denn eine Menschine "wissen" muss, um
so zu handeln, dass wir sagen können, sie handle moralisch richtig. Sie muss nicht die Gründe kennen, die wir unseren Handlungen geben, sie muss nicht verstehen, wie sich Schmerzen anfühlt, damit sie sie bei anderen vermeiden kann. Sie muss nur so handeln, dass sie der Regel folgt, die wir als richtige setzen: "Verhindere mit deinen Taten Schmerzen bei Menschen."

Nun gebe man einem futuristischen Robo-Moralwächter diese Regel und setze ihn in eine Situation, in welcher er wich zurechtfinden muss. Verfügt er bspw. nur über diese eine Anweisung, mit seinen Handlungen Schmerzen bei Menschen zu verhindern, und soll er so handeln, dass er diese Regel einhalten kann, so muss er ja erkennen, was ein Mensch ist. Er muss also über Informationen verfügen, die ihn zur Erfüllung der Regel befähigen. Er ist beim Unterscheiden von Menschen von Nichtmenschen im Prinzip so fehleranfällig wie wir: auch wir können eine Wachsfigur oder eine Puppe für einen Menschen halten, je nachdem wie viel Informationen uns über diesen Gegenstand gegeben sind. Auch wir können irren, aber wir irren weniger, je mehr wir über etwas wissen und es anhand von Merkmalen als das einordnen können, was es ist. Das geht unserem Robo-Wächter nicht anders. Und das auch mit Bezug auf Schmerzen: Wir wissen nur, dass etwas Schmerzen bereitet in eine
approximativen Weise, indem wir verschiedene Tatsachen so miteinander kombinieren, dass wir sagen können: "Das hat sicherlich wehgetan." Der Sachverhalt des Schmerzhabens ist ein objektiver, auch wenn ein Subjekt notwendig ist, um diesen Schmerz zu fühlen, aber den Sachverhalt als schmerzlichen zu erkennen, dazu brauchen wir nur die Informationen, die diesen Sachverhalt ausmachen.

Nun verkomplizieren wir den moralischen Sachverhalt und lassen den Robowächter in einer Situation erscheinen, in der er es in einer Menschenmenge mit einer Vielzahl von Individuen zu tun hat. Eine Person unter ihnen sei ein Terrorist, der andere Personen verletzt.
Nach der ihm eingegebenen Regel dürfte er dieses Terroristen-Individuum nicht verletzen, um Leid bei den anderen Menschen zu vermeiden, da auch er ein Mensch ist, bei dem gilt, dass man ihm kein Leid zufügen soll. Gleichzeitig aber soll er vermeiden, dass Menschen Leid widerfährt. Das ist offenbar ein moralischer Konflikt, aber es ist derselbe Konflikt, den wir im Zweifelsfall so oder so lösen. Wir können nicht sagen, dass wir wüssten, was moralisch gesehen richtig ist, aber wir würden in dieser Situation so handeln, wie wir denken, dass es richtig ist. Um die Richtigkeit beurteilen zu können, sind auch hier verschiedene und wahrscheinlich sehr viele Informationen hilfreich: Wer ist das Übeltäter-Individuum, wer sind die Opfer-Individuen? Wir müssen unterscheiden können zwischen Gefährdern und Gefährdeten, zwischen Gefahr und Nichtgefahr etc. Nicht aber nach einem
Gefühl entscheiden wir, sondern nach Merkmalen, und wir können irren. Auch eine Maschine würde in diesem Fall nach Merkmalen entscheiden und irren, aber diese Merkmale sind objektive für beide (weshalb beide irren können).

Die Frage ist also nicht, irrt die Maschine mehr als der Mensch, sondern wendet sie Regeln in einer bestimmten Situation an, dass sie sie richtig erfasst. Mehr muss sie nicht tun, um etwas Moralisches zu tun, obwohl sie natürlich irren kann.

Nun muss man sich eine solche Maschine nicht mit zwei oder drei Regeln ausgestattet denken, wenn man sie sich als "denkende Einheit" vorstellen will, sondern als eine mit Abermilliarden von Regeln, ja, und sogar mit solchen, die sich wechselseitig anpassen, ergänzen und ausbauen. Das wäre ein lernfähiger Apparat, der seine Fähigkeiten dahingehend verfeinert, dasjenige, was um ihn herum geschieht, richtig zu erfassen - darunter zählt aber auch die moralische Richtigkeit.

Es ist nun jedoch voreilig zu meinen, eine solche Maschine könnte einen Menschen und die ihn betreffenden Rechte, seine Moralität und Würde grundsätzlich nicht erkennen, wieso sollte das nicht eine Information sein, die er hat? Er benötigt diese Information sogar, will er sich in der Welt der realen Dinge zurechtfinden, denn, insofern diese "Dinge" real sind, muss er über sie wissen, will er sich in der Welt
richtig bewegen. Eine Maschine, die das nicht kann, funktionierte nicht richtig, wie ein Toaster, der nicht toastet oder ein Staubsauger, der nicht saugt. Eine künstliche Intelligenz, die diese Intelligenz nicht hätte, wäre darum keine künstliche Intelligenz wie ein Toaster, der nicht toastet, kein Toaster ist.

Nun kann man einwenden, dass ein Toaster nicht wissen muss, was es da tut, um die Tatsache des getoasteten Brotes zu schaffen, aber ein Roboter müsse wissen, was Würde sei, was Verletzlichkeit sei, was Schutzbedürftigkeit sei, um eine moralische Tat zu bewerkstelligen. Das muss er in der Tat, aber, was das alles ist, ist eine Information, die er haben kann, ohne das zu sein oder zu werden, worüber er diese Information hat. Er benötigt diese Informationen nur zur hinreichenden Begründung der Tat als moralische, aber dabei ist er im Grunde genauso fehleranfällig wie jeder andere Mensch auch, der jeweils nur über beschränkte Informationen verfügt.

Man muss sie ihm beibringen, diese Informationen. Man muss einem Kind bspw. beibringen, dass es das kleine Geschwister nicht schlagen soll, und wir setzen bei einem Kind nicht voraus, dass er versteht, weshalb es das nicht soll (obwohl wir es ihm vielleicht sagen). Wir setzen lediglich voraus, dass er versteht, dass er es nicht soll, weil wir ihm sagen, dass er es nicht soll. Das ist ein erzieherischer, korrigierender Eingriff in sein Tun, d.h. das Kind macht es richtig, wenn es das tut, was wir ihm sagen (ohne dass wir unumstösslich und in jedem Fall wüssten, dass das Beigebrachte an und für sich richtig wäre).

Nun muss man sich eine Maschine gewiss nicht wie ein Kind vorstellen, aber doch wie etwas, das tun kann, was wir ihm sagen.
Wir können sie uns sogar so vorstellen, dass sie ein Ding ist, das sich selber Gründe geben kann zu handeln, indem wir sie uns als lernende Einheit vorstellen, die mit
der Wirklichkeit interagiert.
Sie müsste, genauso wie wir, zu wahren Annahmen über die Wirklichkeit kommen, sofern sie Informationen über diese Wirklichkeit ihren Handlungen zugrundelegt.

Dass eine Maschine denken können kann, folgt also einer optimistischen Grundeinstellung, dass sich die Wirklichkeit Bahn bricht in jedem wie auch immer gearteten kognitiven System. Dieses kann biologisch oder artifziell sein, solange es Informationen aus der Wirklichkeit zu einem Tun verarbeitet, um sich in dieser Wirklichkeit erfolgreich zu bewegen.

Was aber erfolgreich bedeutet, das ist gewiss eine Frage der Zielsetzung und die Zielsetzung eine Frage der Sinnhaftigkeit. Sinn aber ist nicht etwas, das auf der Autorität des Ichs allein beruht, sondern im Zusammenspiel der Tatsachen emergiert.
Was soll dem Computerhirn und dem artifziellen Empfinden des Robo-Cops
als sinnvoll erscheinen? Was soll ihm am Herzen liegen? Was soll ihm das und das Wert sein? Lassen wir es ihn herausfinden, geben wir ihm die Möglichkeiten, es herauszufinden, indem wir ihn so konstruieren, dass er es kann. Ein langer Weg, gewiss, aber kein grundsätzlich undenkbarer.

Falls hier nun der Eindruck entstanden sein sollte, dass ich dächte, der Roboter entwickelte sich zu einem
menschenähnlichen Wesen mit gleichen Einsichten, hat mich nicht ganz richtig verstanden. Auch eine Biene sieht die Wirklichkeit, wie sie ist, wenn sie sie anders sieht. Die Vielfalt der epistemologischen Mittel zur Wirklichkeitsverarbeitung sollten wir nicht limiteren auf eine bestimmte Art der Wirklichkeitserfassung: Das ist epistemischer Pluralismus und die Realität gibt uns Pluralität vor, nicht Einfalt, darum ist es richtiger, weil wahrer, Pluralität zu befördern - weil es realitätsnäher ist. Und künstliche Intelligenz, sofern sie einmal möglich sein sollte, wäre Ausruck eben dieser Pluralität.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 4. Okt 2020, 14:20

Alethos hat geschrieben :
So 4. Okt 2020, 14:05
Nehmen wie z.B. die selbstevidente Wahrheit, dass wir Menschen kein Leid zufügen sollen.
Sorry, wenn ich gleich hier einhake. Woher kommt die "Selbstevidenz"?
Es ist Fakt, dass wir Menschen empfindungsfähig sind. Aber woraus folgt, dass man Menschen kein Leid zufügen darf?
ich würde gerne wissen wie Du das begründest.
Nicht aber nach einem Gefühl entscheiden
Warum nicht? Warum soll z.B. Mitleid kein guter Grund sein? Ist dieses Gefühl einfach nur sinn- und nutzloser Ballast, oder eine wichtige Entscheidungshilfe?
Und ist es denn wirklich so, dass bei der Schaffung menschlicher, moralischer Regeln Gefühle stets kein Rolle spielen? Ist das so?
Ich denke die (menschliche) Realität ist eine andere. Es ist gerade so, dass viele unserer moralischen Regeln auch auf Gefühlen (wie zum Beispiel Mitleid) basieren.
Viele gute Dinge die wir Menschen machen, würde es ohne die zu diesen Handlungen motivierenden Emotionen gar nicht geben.

Gibt es nicht auch Situationen, in denen wir rein logisch betrachtet A tun müssten, aber wir tun B, weil wir zum Beispiel den Menschen um den es geht, lieben?
Was bedeutet es denn z.B. aus Liebe zu handeln? Findest Du das wichtig, dass solche Emotionen berücksichtigt werden soll, oder findest Du sie sollten gänzlich unberücksichtigt bleiben?

Wenn wir zum Beispiel Jemanden, der sein ganzes Leben in wohltätigen Einrichtungen verbracht hat, und dabei vielleicht auch auf vieles verzichten musste, fragen warum er sich das überhaupt antut, und er dann sagt "Ich mache das, weil ich die Menschen liebe", ist dieser Mensch dann verrückt, oder nennt er einen gewichtigen Grund?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Antworten