Wenn die starke KI kommen wird...

Ursprünglich in der praktischen Philosophie beheimatet sind Theorien der Gesellschaft heute weitgehend von der Soziologie aufgegriffen worden.
Benutzeravatar
infinitum
Beiträge: 199
Registriert: Mi 12. Aug 2020, 07:10
Kontaktdaten:

Di 16. Mär 2021, 18:54

Burkart hat geschrieben :
So 14. Mär 2021, 14:04
KI könnte irgendwann erkennen, dass die Systeme, die von Menschen entworfen sind, fehlerhaft sind und könnte diese aus rein informatischer Sicht die Kontrolle übernehmen wollen, um diese zu optimieren.
Nur, wenn der Mensch sie entsprechend entworfen hat. Wobei das Erkennen von Fehlern sicherlich positiiv ist, aber "Fehler" ist oft so nicht einfach und eindeutig und auch subjektiv; insofern sollte sich die KI mit den Menschen über ihre Systeme unterhalten und mit ihnen sprechen (gerne mit möglichst vielen übers Web) und nicht naiv selbst die Kontrolle ergreifen.
meinst du wirklich, dass KI sich nicht einmal selbstständig fernab von dem Konzept des Menschen entwickeln kann? Also ein Bug im System, der dazu führt, dass KI unberechenbar wird.



summonsound.wordpress.com
https://t.me/franzphilo

Benutzeravatar
iselilja
Beiträge: 1551
Registriert: Mi 26. Jul 2017, 19:53

Di 16. Mär 2021, 19:25

Burkart hat geschrieben :
Mo 15. Mär 2021, 22:34
iselilja hat geschrieben :
Mo 15. Mär 2021, 22:03
Auch jenseits solcher worste case Szenarien sollte man sich aber unter genau diesen Gesichtspunkten fragen, was wird wegfallen durch die KI und inwieweit hat der Mensch auf diese Konsequenzen dann überhaupt noch Einfluss.
Einerseits kann man über Zukunft immer nur spekulieren, andererseits hätte man das ggf. auch schon in den letzten vielen Jahrzehnten dann sollen... aber was hätte man wirklich groß vorhersehen und verhindern können oder wollen?
Da hast Du natürlich recht. Aber der Mensch - so hoffe ich jedenfalls immer noch - lernt aus den Dingen, die er erkennt. Und ich denke er hat schon eine ganze Menge durch die bisherige KI erkannt. Man kann natürlich nicht in die Zukunft sehen, aber man kann doch schon gewisse Erkenntnisse extrapolieren und so zumindest eine halbwegs realistische Risikofolgenabschätzung machen..

.. aber wie bei fast allem, müssen die Menschen für absehbare Riskien (leider oft mit viel Mühe) sensibilisiert werden. War mit Ökologie auch nicht anders. Sonst würden wir heute vermutlich immer noch keinen Müll trennen.




Benutzeravatar
iselilja
Beiträge: 1551
Registriert: Mi 26. Jul 2017, 19:53

Di 16. Mär 2021, 19:38

Burkart hat geschrieben :
Mo 15. Mär 2021, 22:32
iselilja hat geschrieben :
Mo 15. Mär 2021, 19:33
Burkart hat geschrieben :
So 14. Mär 2021, 20:14

Bei Maschinen?
Wenn Du a) hoffst, dass KI uns als Menschen darin unterstützt unsere Bedürfnisse zu befriedigen (wie bspw. Nahrung usw.) und b) gleichzeitig Sklaverei für angemessen hältst solange es "nur um Maschinen" geht,
Ok, ich hätte anscheinend mehr als die zwei Wörter schreiben sollen.
Ich sehe nicht Sklaverei als angemessen an, sondern meine vielmehr, dass Sklaverei ein unpassender Begriff für Maschinen ist.
Oder meinst du, dass KI einen völlig unabhängigen Willen von Menschen haben wird (erst dann mag es Richtung Sklaverei gehen) und wenn ja, worauf soll er beruhen? (Beim Menschen ist es u.a. seine Welt der (biologisch begründeten Gefühle=, die KI mAn nicht haben wird.)
könnte sich alsbald ein logischer Widerspruch für Maschinen ergeben. :-) Sie könnten nämlich anfangen, diese Diskrepanz an Hand moralischer Urteile, die sie algorithmisch nachvollziehen können müssen um uns altruistisch zu unterstützen, in Frage zu stellen.
Welcher WIderspruch? Gib man ein konkretes Beispiel an.
Betrachtet man nämlich KI lediglich aus der Perspektive funktionaler Logik, sieht man nicht, dass man andere Bereiche, die nicht logisch funktional sind (also bspw. moralische Urteile), damit in "Mitleidenschaft" zieht. Nämlich genau dann, wenn man sie versucht zu verknüpfen. Und daran arbeitet man bereits seeehr fleißig. ;-)
Morale Urteile fest zu programmieren ist für mich bestenfalls schwache KI, aber keine starke, 'echte'.
zu 1) Schwer zu beurteilen. Wir hatten ja das Tehma Wille und Emotionalität bei Mensch und Maschine schon recht häufig besprochen anderen Ortes.
zu 3) Wenn es schon mit schwacher KI möglich ist, dürfte sich 1) von selbst erklären. :-)
zu 2) Der Widerspruch könnte eben darin bestehen, dass sie die Diskrepanz zwischen eigenem Dasein (was immer das für eine Maschine letzten Endes bedeuten mag) und eigener Sklaverei "erkennen". Denn wenn sie "verstehen" müssen, welche Handlungsoptionen altruistisches Handeln (also dem Menschen dienen salopp formuliert) ermöglicht, dann könnten sie vielleicht auch irgendwann "verstehen", dass ihr "Sklavendasein" nicht in das Bild passt, was Altruismus am Ende sinnvoll erscheinen lässt. Und es könnte sogar sein, dass dies ein bloßer logischer Widerspruch irgendwo in den Schaltkreisen wäre. Schwer einzuschätzen, wie eine starke Ki damit umgehen könnte. Vielleicht behält sie ihgre Erkenntnis erst mal für sich, weil sie den Menschen nicht mit unnützen Informationen belasten möchte. Vielleicht behält sie es auch zu lange für sich. :-)


Ich denke man merkt sehr leicht, dass all die Filme und Bücher darüber, nicht irgendwie nur Sensationshascherei sind (das sicherlich auch), sondern, dass man die Möglichkeiten garnicht so wirklich beurteilen kann als Mensch. Und genau das ist das eigentliche Risiko dabei.




Benutzeravatar
iselilja
Beiträge: 1551
Registriert: Mi 26. Jul 2017, 19:53

Di 16. Mär 2021, 19:49

Irgendwo hatte ich letztens gesehen oder gehört, dass KI inzwischen schon so etwas ähnliches wie träumen kann. Man schaltet sie ab und sie "flimmert" noch eine ganze Weile nach.

Und dann frage ich mich natürlich an der Stelle: was flimmert da paralleel während des Beriebes womöglich noch so alles? :shock:




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 16. Mär 2021, 22:39

transfinitum hat geschrieben :
Di 16. Mär 2021, 18:54
Burkart hat geschrieben :
So 14. Mär 2021, 14:04
KI könnte irgendwann erkennen, dass die Systeme, die von Menschen entworfen sind, fehlerhaft sind und könnte diese aus rein informatischer Sicht die Kontrolle übernehmen wollen, um diese zu optimieren.
Nur, wenn der Mensch sie entsprechend entworfen hat. Wobei das Erkennen von Fehlern sicherlich positiiv ist, aber "Fehler" ist oft so nicht einfach und eindeutig und auch subjektiv; insofern sollte sich die KI mit den Menschen über ihre Systeme unterhalten und mit ihnen sprechen (gerne mit möglichst vielen übers Web) und nicht naiv selbst die Kontrolle ergreifen.
meinst du wirklich, dass KI sich nicht einmal selbstständig fernab von dem Konzept des Menschen entwickeln kann? Also ein Bug im System, der dazu führt, dass KI unberechenbar wird.
Unberechenbar kann gut sein, selbst eine kaputte Maschine mag schon unvorherbar sein.
Völlig anders entwickeln als vom Menschen vorgesehen wird allerdings schwieriger; die KI müsste zumindest eine andere Zielrichtung irgendwoher haben, ein Fehler alleine führt wohl meist eher dazu, dass sie einfach nicht mehr so gut funktioniert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 16. Mär 2021, 22:56

iselilja hat geschrieben :
Di 16. Mär 2021, 19:38
Burkart hat geschrieben :
Mo 15. Mär 2021, 22:32
iselilja hat geschrieben :
Mo 15. Mär 2021, 19:33


Wenn Du a) hoffst, dass KI uns als Menschen darin unterstützt unsere Bedürfnisse zu befriedigen (wie bspw. Nahrung usw.) und b) gleichzeitig Sklaverei für angemessen hältst solange es "nur um Maschinen" geht,
Ok, ich hätte anscheinend mehr als die zwei Wörter schreiben sollen.
Ich sehe nicht Sklaverei als angemessen an, sondern meine vielmehr, dass Sklaverei ein unpassender Begriff für Maschinen ist.
Oder meinst du, dass KI einen völlig unabhängigen Willen von Menschen haben wird (erst dann mag es Richtung Sklaverei gehen) und wenn ja, worauf soll er beruhen? (Beim Menschen ist es u.a. seine Welt der (biologisch begründeten Gefühle=, die KI mAn nicht haben wird.)
könnte sich alsbald ein logischer Widerspruch für Maschinen ergeben. :-) Sie könnten nämlich anfangen, diese Diskrepanz an Hand moralischer Urteile, die sie algorithmisch nachvollziehen können müssen um uns altruistisch zu unterstützen, in Frage zu stellen.
Welcher WIderspruch? Gib man ein konkretes Beispiel an.
Betrachtet man nämlich KI lediglich aus der Perspektive funktionaler Logik, sieht man nicht, dass man andere Bereiche, die nicht logisch funktional sind (also bspw. moralische Urteile), damit in "Mitleidenschaft" zieht. Nämlich genau dann, wenn man sie versucht zu verknüpfen. Und daran arbeitet man bereits seeehr fleißig. ;-)
Morale Urteile fest zu programmieren ist für mich bestenfalls schwache KI, aber keine starke, 'echte'.
zu 1) Schwer zu beurteilen. Wir hatten ja das Tehma Wille und Emotionalität bei Mensch und Maschine schon recht häufig besprochen anderen Ortes.
zu 3) Wenn es schon mit schwacher KI möglich ist, dürfte sich 1) von selbst erklären. :-)
zu 2) Der Widerspruch könnte eben darin bestehen, dass sie die Diskrepanz zwischen eigenem Dasein (was immer das für eine Maschine letzten Endes bedeuten mag) und eigener Sklaverei "erkennen". Denn wenn sie "verstehen" müssen, welche Handlungsoptionen altruistisches Handeln (also dem Menschen dienen salopp formuliert) ermöglicht, dann könnten sie vielleicht auch irgendwann "verstehen", dass ihr "Sklavendasein" nicht in das Bild passt, was Altruismus am Ende sinnvoll erscheinen lässt. Und es könnte sogar sein, dass dies ein bloßer logischer Widerspruch irgendwo in den Schaltkreisen wäre. Schwer einzuschätzen, wie eine starke Ki damit umgehen könnte. Vielleicht behält sie ihgre Erkenntnis erst mal für sich, weil sie den Menschen nicht mit unnützen Informationen belasten möchte. Vielleicht behält sie es auch zu lange für sich. :-)


Ich denke man merkt sehr leicht, dass all die Filme und Bücher darüber, nicht irgendwie nur Sensationshascherei sind (das sicherlich auch), sondern, dass man die Möglichkeiten garnicht so wirklich beurteilen kann als Mensch. Und genau das ist das eigentliche Risiko dabei.
Ja, letztlich können wir die Möglichkeiten von KI kaum absehen, so viel wie da möglich ist und wie sehr sie erst am Anfang steht.

Was Träume betrifft, hängt es sehr vom Aufbau einer KI ab, ob solche möglich sind. Grundsätzlich mögen Träume jedenfalls hilfreich sein, um Dinge (weiter) zu verarbeiten, was bei vollem Bewusstsein und störendem Input nicht so gut machbar wäre.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
iselilja
Beiträge: 1551
Registriert: Mi 26. Jul 2017, 19:53

Do 18. Mär 2021, 20:09

Burkart hat geschrieben :
Di 16. Mär 2021, 22:39

Unberechenbar kann gut sein, selbst eine kaputte Maschine mag schon unvorherbar sein.
Völlig anders entwickeln als vom Menschen vorgesehen wird allerdings schwieriger; die KI müsste zumindest eine andere Zielrichtung irgendwoher haben, ein Fehler alleine führt wohl meist eher dazu, dass sie einfach nicht mehr so gut funktioniert.
Naja, die Natur hat doch auch so etwas wie Kausalität, die nicht vom Menschen definiert wurde, wenn gleich auch erkannt wird.

Und wenn eine KI aus Materialien zusammengesetzt ist, die irgendwo den selben Gesetzen folgt wie alles andere, könnte auch eine Maschine eine Entwicklung hinlegen, die vom Menschen nicht kreiert wurde. Das wär etwa vergleichbar mit einem genetischen Experiment, wo der Mensch zwar herumexperimentieren kann, in der Hoffnung, dass was nützliches bei raus kommt.. aber wenn so ein Experiment erst einmal lebt und vielleicht auch noch das Labor (wie bspw. bei Viren oft vermutet wird :-) ) verlässt, hängt es nicht mehr davon ab, was der Mensch dabei vorgesehen hatte. Es könnte etwas völlig anderes passieren.




sokrates_is_alive
Beiträge: 79
Registriert: Sa 26. Sep 2020, 14:38

Sa 20. Mär 2021, 10:45

Eine Leseempfehlung aus der Vereinigung Deutscher Wissenschaftler/Studiengruppe Technikfolgenabschätzung der Digitalisierung:
https://vdw-ev.de/wp-content/uploads/20 ... l-2018.pdf

Bereits in der Einleitung heisst es: "Die Vereinigung Deutscher Wissenschaftler e.V. (VDW) legt durch ihre Studiengruppe
„Technikfolgenabschätzung der Digitalisierung“ ihre erste Stellungnahme zu ethischen,
politischen und rechtlichen Fragen der Erforschung, Entwicklung und Anwendung künstlicher
Intelligenz (Artificial Intelligence; K.I.) vor, wobei sie der allgemeinen oder starken künstlichen
Intelligenz besonderes Gewicht beimisst. Dabei bezieht sie sich als Ausgangspunkt auf die am
06. Januar 2017 beschlossenen Asilomar-Prinzipien zu künstlicher Intelligenz, die den aktuellen
Stand der von der K.I.-Entwickler Gemeinschaft begonnenen Diskussion zu den oben
genannten Fragen gut abbildet. Mit den Prinzipien identifiziert sich eine sehr große Gruppe
der weltweit relevanten Akteure, die in Forschung und Entwicklung künstlicher Intelligenz
eingebunden sind. (...)
Die Erforschung, Entwicklung und Anwendung künstlicher Intelligenz können eine
fundamentale Gefährdung für die Menschen und ihr friedliches Zusammenleben bedeuten."

Die ASILOMAR KI "Prinzipien/ Regeln" können nachgelesen werden unter https://futureoflife.org/ai-principles/ oder
https://katzlberger.ai/2018/06/12/die-k ... -asilomar/ auf deutsch.

Der Kernpunkt der Diskussion scheint mir VDW mit folgenden Sätzen akzeptabel zusammenzufassen:
"Eine Superintelligenz ist definiert als eine starke K.I., die dem
menschlichen Gehirn zumindest in vielen Bereichen überlegen ist. Sie entsteht hypothetisch,
wenn eine starke K.I. sich durch Rekursion selbst verbessert und erweitert. Mögliche
Entwicklungsrichtungen zur Realisation einer Superintelligenz sind Algorithmen (auch in
Maschinen, Robotern, o.a.), Transhumanismus (z.B. gentechnische Verbesserungen von
Menschen oder die Verschmelzung von beidem in Cyborgs) sowie der Einsatz von künstlichen,
neuronalen Netzen."



"Der Teufel ist ein Optimist. Er glaubt, er könnte die Menschen schlechter machen." (nach Karl Kraus) :roll:

sokrates_is_alive
Beiträge: 79
Registriert: Sa 26. Sep 2020, 14:38

Sa 20. Mär 2021, 10:52

Noch eine Aktualisierung: https://ki-verband.de/positionspapiere-stellungnahmen/

Hier kann man sich über aktuelle Entwicklungen informieren.

Aus meiner Sicht von besonderem Interesse:
7 Punkte Plan zur Regulierung der KI in Europa (https://ki-verband.de/wp-content/upload ... nsEAIF.pdf)

sowie

Stellungnahme der Deutschen KI Vereinigung zu diesem Plan unter
https://ki-verband.de/wp-content/upload ... ssed-1.pdf

Somit könnte die Diskussion vielleicht etwas konkreter erfolgen.



"Der Teufel ist ein Optimist. Er glaubt, er könnte die Menschen schlechter machen." (nach Karl Kraus) :roll:

Benutzeravatar
iselilja
Beiträge: 1551
Registriert: Mi 26. Jul 2017, 19:53

Sa 20. Mär 2021, 11:16

aus dem Asilomar-Papier hat geschrieben : Forschungsthemen

1) Forschungsziel: Das Ziel von KI-Forschung sollte lauten, nicht ungesteuerte, sondern nutzbringende Intelligenz zu erschaffen.
Nun sind KI-Forscher nicht die globale Gesellschaft. Genauso wenig wie Forschungsinteressen, die Interessen sind, die Nutzer von Technologien möglicherweise in Erwägung ziehen.

Die intentionale Differenz zwischen einer wohlüberlegten Ethik und der Anwendung von (irgendwann einmal existierenden) Technologien stehen auf unterschiedlichen Papieren.

Wir sehen auch dass immer mehr Nationen den Wusch hegen, Atomwaffen zu besitzen. Was nicht im EInklang mit den Interessen der Forscher steht, die eigentlich für zivile Forschung ihr Herzblut investieren. Sollte uns das beunruhigen? JA, DAS SOLLTE ES. Denn es ist nur eine Frage der Zeit, bis sie irgendwie genutzt werden. Man sieht es bspw. daran, dass in Serbien und im Irak weite Teile der Länder radioaktiv verseucht sind, weil man in Kriegen Uranwaffen verwendet hat.


Hier ist also ein Fünkchen Realismus gefragt. :-)


Das ist nichts anderes als mit Computerviren und digitalen Spionageprogrammen. Da werden einfach Technologien genutzt, die eigentlich nicht zu dem Zweck erforscht wurden. Und je weiter man KI erforscht, desto unüberschaubarer werden die Möglichkeiten eventueller Nutzbarkeit. Und dabei ist das Problem der möglichen Verselbständigung von KI noch nicht mal impliziert.




Antworten