Wenn die starke KI kommen wird...
Arbeitsplätze würden verschwinden aufgrund Automatisierung.
Könnte starke KI nicht eventuell sogar zu einer Gefahr für die Menschen selbst werden? Im Sinne von Macht und Kontrolle? KI könnte irgendwann erkennen, dass die Systeme, die von Menschen entworfen sind, fehlerhaft sind und könnte diese aus rein informatischer Sicht die Kontrolle übernehmen wollen, um diese zu optimieren.
Könnte starke KI nicht eventuell sogar zu einer Gefahr für die Menschen selbst werden? Im Sinne von Macht und Kontrolle? KI könnte irgendwann erkennen, dass die Systeme, die von Menschen entworfen sind, fehlerhaft sind und könnte diese aus rein informatischer Sicht die Kontrolle übernehmen wollen, um diese zu optimieren.
summonsound.wordpress.com
https://t.me/franzphilo
https://t.me/franzphilo
In der Bibel steht an irgendeiner Stelle: ihr dürft von allen Früchten kosten, nur von dem Baum in der Mitte, von dem haltet euch fern. Es ist insofern erstaunlich, dass der Mensch immer wieder genau "diesen Baum" ins Visier nimmt. Ob nun Genetik, Atomkraft oder KI. Der Ast auf dem wir sitzen, ist vielleicht nicht so robust, wie wir gern glauben wollen. In Bezug auf die mögliche Gefahr durch KI und unserem Kontrollverlust, den man dann ähnlich wie auf dem Gebiet der Atomphysik als GAU bezeichnen könnte, gibt es ja eigentlich genug Warnungen und auch Reflexionen, die der Schwere der Thematik durchaus angemessen sind.
Es sieht aber für immer mehr Menschen so aus, als würde diese Entwicklung bereits feststehen, und wir sollten uns nur noch darüber den Kopf zerbrechen, wie wir genau mit den zu erwartenden Konsequenzen letztendlich umgehen wollen. Möglicherweise basiert diese m.E. inkorrekte Einschätzung aber nur darauf, dass selbigen Menschen nicht klar ist, welchen Preis das kostet.
Arbeitsplätze werden mit Sicherheit fallen - und zwar massiv. Die paar neuen Arbeitsplätze, die für die Entwicklung von KI nötig sind, können den Verlust nicht aufwiegen. Was eigentlich selbsterklärend ist, denn sonst hätten sich auch Webstühle nicht gelohnt, wenn die Herstellung von Webstühlen all die Arbeitsplätze ersetzt hätte, die sie vernichtet hat.
Aber es wird weit mehr wegfallen dadurch. Ich denke bspw. auch an das bloße Benutzen des eigenen Verstandes, das schon jetzt großteils (oder doch zumindest nicht unerheblich) durch Googlealgorithmen ersetzt ist.
Es sieht aber für immer mehr Menschen so aus, als würde diese Entwicklung bereits feststehen, und wir sollten uns nur noch darüber den Kopf zerbrechen, wie wir genau mit den zu erwartenden Konsequenzen letztendlich umgehen wollen. Möglicherweise basiert diese m.E. inkorrekte Einschätzung aber nur darauf, dass selbigen Menschen nicht klar ist, welchen Preis das kostet.
Arbeitsplätze werden mit Sicherheit fallen - und zwar massiv. Die paar neuen Arbeitsplätze, die für die Entwicklung von KI nötig sind, können den Verlust nicht aufwiegen. Was eigentlich selbsterklärend ist, denn sonst hätten sich auch Webstühle nicht gelohnt, wenn die Herstellung von Webstühlen all die Arbeitsplätze ersetzt hätte, die sie vernichtet hat.
Aber es wird weit mehr wegfallen dadurch. Ich denke bspw. auch an das bloße Benutzen des eigenen Verstandes, das schon jetzt großteils (oder doch zumindest nicht unerheblich) durch Googlealgorithmen ersetzt ist.
Wegfallen wird vielleicht auch unser grundlegendes soziales Verständnis, wie sich eine Gesellschaft zu strukturieren hat oder was eine Gesellschaft überhaupt zu einer Gesellschaft macht. Das Reden mit einem Roboter gleicht dem Reden gegen eine Wand, von der man meint, sie würde irgendwie antworten. Unser Verständnis von Sprache wird sich mit der Zeit ebenfalls verformen.
ja, das ist problematisch. Ich sehe diese Entwicklung auch bei der Beobachtung, dass alle Menschen nur noch auf ihr Smartphone schauen und gar nicht mehr präsent in der realen Welt sind. Die Abhängigkeit von der IT ist schon massiv. Gerade in der Corona-Zeit ist dies nochmal deutlicher geworden, da nun alle aus dem Home Office arbeiten und den ganzen Tag "virtuell" vernetzt sind. Durch Videokonferenzen verliert man zunehmend den Bezug zum realen.
Bezüglich des Benutzen des Verstandes: bevor man nachdenkt, googelt man nach dem Thema/Problem und hat als ersten Input vermutlich Wikipedia etc. Das sehe ich nicht schlimm, ist ganz praktisch. Aber früher musste man erstmal sein Lexikon heraussuchen, wenn man ein Fremdwort nachschauen musste und bis man es hatte, hatte man zumindest schon mal ein bisschen Zeit selbst über dieses Wort nachzudenken. Das entfällt im digitalen Zeitalter. Die Info gibt es ad-hoc und stets verfügbar, warum soll man sich dann noch was merken?
Warum erstaunlich? Würde nicht fast jedes Kind aus Neugierde das tun, was der Erwachsene im rät, nicht zu tun?
summonsound.wordpress.com
https://t.me/franzphilo
https://t.me/franzphilo
Die Arbeitswelt wandelt sich wie schon seit vielen Jahrzehnten, ähnlich gibt es schon lange Automatisierung, also mit KI nicht wirklich Neues.transfinitum hat geschrieben : ↑So 14. Mär 2021, 12:21Arbeitsplätze würden verschwinden aufgrund Automatisierung.
Das haben wir schon ohne starke KI. Die eigentliche Gefahr sind die überwachenden Menschen, insbesondere wenn sie ihre Macht missbrauchen.Könnte starke KI nicht eventuell sogar zu einer Gefahr für die Menschen selbst werden? Im Sinne von Macht und Kontrolle?
Starke KI könnte sogar umgekehrt uns diese Überwachung aufzeigen und widerspiegeln, wenn sie hinreichend unabhängig von den Machtmenschen sein darf.
Nur, wenn der Mensch sie entsprechend entworfen hat. Wobei das Erkennen von Fehlern sicherlich positiiv ist, aber "Fehler" ist oft so nicht einfach und eindeutig und auch subjektiv; insofern sollte sich die KI mit den Menschen über ihre Systeme unterhalten und mit ihnen sprechen (gerne mit möglichst vielen übers Web) und nicht naiv selbst die Kontrolle ergreifen.KI könnte irgendwann erkennen, dass die Systeme, die von Menschen entworfen sind, fehlerhaft sind und könnte diese aus rein informatischer Sicht die Kontrolle übernehmen wollen, um diese zu optimieren.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Erstaunlich deshalb, weil dieselben glauben erwachsen und vor allem aufgeklärt zu sein. Ich denke Du hast den Nagel schon recht gut auf den Kopf getroffen: kindliche Neugier, die viele von uns vor sich hin treibt.transfinitum hat geschrieben : ↑So 14. Mär 2021, 13:30
Warum erstaunlich? Würde nicht fast jedes Kind aus Neugierde das tun, was der Erwachsene im rät, nicht zu tun?
Was dabei recht häufig ausgeblendet wird (vielleicht so eine Art Angst vor der Wahrheit?) ist der Umstand, dass Wissen auch mal ganz schnell in Hände gelangen kann, die nicht fähig sind, damit sinnvoll umzugehen. Man sehe sich doch nur den Streit an, wenn es um den Besitz von Atomwaffen geht. Wem trauen wir zu, mit Wissen verantwortungvoll umgehen zu können. Offenbar nicht jedem Menschen gleichermaßen.
- Jörn Budesheim
- Beiträge: 23513
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Wenn man sich unter starker KI die Computer, Roboter und sonstige Maschinen vorstellt, die wir jetzt schon haben, nur eben noch stärker, dann kommt man meines Erachtens nicht in das Problem rein. Das basiert meines Erachtens auf einer verfehlten Konzeption des Geistes. Geist ist nach meiner Einschätzung immer auch verkörperter und sozial situierter Geist. Wenn es eine weitere künstliche Intelligenz neben uns geben sollte, so wird diese auch biologische und soziale Merkmale aufweisen müssen. Und dann entstehen natürlich ethische Fragen. Welche Rechte wird man solchen Wesen zugestehen müssen. Werden sie uns unsere Rechte zugestehen? Werden wir es schaffen, gemeinsame ethische Antennen zu haben?
Mit anderen Worten, wenn die "starke KI" kommen wird, dann werden die Computer, die Maschinen also all die Werkzeuge, die wir gebaut haben, damit sie unsere Zwecke erfüllen, vielleicht nicht ganz verschwinden... aber es werden in ihrer Folge Wesen "auftauchen", die nicht einfach tun werden, was wir ihnen sagen, obwohl sie zu diesem Zwecke entwickelt wurden. Sie wurden also auf einen bestimmten Zweck hin entwickelt, aber letztlich werden sie womöglich ein Zweck in sich selbst sein und unsere moralische Achtung verdienen.
Mit anderen Worten, wenn die "starke KI" kommen wird, dann werden die Computer, die Maschinen also all die Werkzeuge, die wir gebaut haben, damit sie unsere Zwecke erfüllen, vielleicht nicht ganz verschwinden... aber es werden in ihrer Folge Wesen "auftauchen", die nicht einfach tun werden, was wir ihnen sagen, obwohl sie zu diesem Zwecke entwickelt wurden. Sie wurden also auf einen bestimmten Zweck hin entwickelt, aber letztlich werden sie womöglich ein Zweck in sich selbst sein und unsere moralische Achtung verdienen.
Ja, diese Punkte sehe ich auch so. Man könnte sich auch fragen: Könnte KI nicht schneller den Menschen durchschauen, als der Mensch sich selbst begreifen kann? In der Werbeindustrie merkt man wie beeinflussbar wir Menschen sind.transfinitum hat geschrieben : ↑So 14. Mär 2021, 12:21Arbeitsplätze würden verschwinden aufgrund Automatisierung.
Könnte starke KI nicht eventuell sogar zu einer Gefahr für die Menschen selbst werden? Im Sinne von Macht und Kontrolle? KI könnte irgendwann erkennen, dass die Systeme, die von Menschen entworfen sind, fehlerhaft sind und könnte diese aus rein informatischer Sicht die Kontrolle übernehmen wollen, um diese zu optimieren.
Könnte eine KI nicht auch schnell dieses Muster erkennen? Was würde passieren, wenn eine KI erkennt das der Mensch sich z.B. von Bedürfnissen ernährt?
Ich stimme dir soweit zu, dass eine einfache Weiterentwicklung der KI nicht einfach reicht zur starker KI.Jörn Budesheim hat geschrieben : ↑So 14. Mär 2021, 16:25Wenn man sich unter starker KI die Computer, Roboter und sonstige Maschinen vorstellt, die wir jetzt schon haben, nur eben noch stärker, dann kommt man meines Erachtens nicht in das Problem rein.
Verkörperter Geist gerne, weil KI oft in unserer echten Welt existieren können soll; sozial situierter Geist (sofern ich den Begriff verstehe) macht auch Sinn, also dass KI unter anderen Intelligenzen ist, vor allem Menschen (und ggf. Tieren), später auch unter ihres gleichen. Immerhin soll ja 2050 eine Robotermannschaft Weltmeister bei der (menschlichen) Fußball-WM werden, siehe hierDas basiert meines Erachtens auf einer verfehlten Konzeption des Geistes. Geist ist nach meiner Einschätzung immer auch verkörperter und sozial situierter Geist.
(Allerdings fürchte dürften wir unter Geist nicht unbedingt genau das gleiche verstehen.)
Bei "biologisch" unterscheiden wir uns, so dass deine folgenden Fragen und Punkte auch etwas verschiedenen "Anstrich" haben.Wenn es eine weitere künstliche Intelligenz neben uns geben sollte, so wird diese auch biologische und soziale Merkmale aufweisen müssen.
Das "müssen" entscheiden wir, wie auch schon bei Tieren.Und dann entstehen natürlich ethische Fragen. Welche Rechte wird man solchen Wesen zugestehen müssen.
Das will ich doch hoffen, so KI von uns erschaffen und hoffentlich sinnvoll gesteuert wird.Werden sie uns unsere Rechte zugestehen?
Dito.Werden wir es schaffen, gemeinsame ethische Antennen zu haben?
Einverstanden, z.B. könnte ggf. auch KI sie nutzen. Warum soll eine KI z.B. perfekt rechnen lernen, wenn sie dafür wie Menschen einen Taschenrechner/Computerprogramm nutzen kann, ob nun ähnlich wie wir oder nur als spezielles Modul bei sich integriert?Mit anderen Worten, wenn die "starke KI" kommen wird, dann werden die Computer, die Maschinen also all die Werkzeuge, die wir gebaut haben, damit sie unsere Zwecke erfüllen, vielleicht nicht ganz verschwinden...
Das tun Menschen auch nicht, eine Frage der Erziehungaber es werden in ihrer Folge Wesen "auftauchen", die nicht einfach tun werden, was wir ihnen sagen, obwohl sie zu diesem Zwecke entwickelt wurden.
Na ja, ggf. muss man man mit ihnen diskutieren und feststellen, warum sie anders agieren und dann mal schauen.
"In sich selbst", ein vager Begriff für mich...Wenn wir der KI klar mitgeben, also grundlegend programmieren, dass sie uns dienen mögen, wird es schwierig, davon einfach abzuweichen.Sie wurden also auf einen bestimmten Zweck hin entwickelt, aber letztlich werden sie womöglich ein Zweck in sich selbst sein und unsere moralische Achtung verdienen.
Ansonsten wie eben: MIt ihnen austauschen und schauen. Ich würde solche starke KI, die vielleicht schon lange unsere Welt kennen erlernt hat, auch nicht einfach löschen wollen und auch ihre Kompetenz ggf. achten.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Zumindest anfangs wird es nicht so sein. Ansonsten haben Menschen Gefühle und sind dadurch wohl unberechenbarer als sachliche(re) KI.AndreaH hat geschrieben : ↑So 14. Mär 2021, 18:32Ja, diese Punkte sehe ich auch so. Man könnte sich auch fragen: Könnte KI nicht schneller den Menschen durchschauen, als der Mensch sich selbst begreifen kann?transfinitum hat geschrieben : ↑So 14. Mär 2021, 12:21Arbeitsplätze würden verschwinden aufgrund Automatisierung.
Könnte starke KI nicht eventuell sogar zu einer Gefahr für die Menschen selbst werden? Im Sinne von Macht und Kontrolle? KI könnte irgendwann erkennen, dass die Systeme, die von Menschen entworfen sind, fehlerhaft sind und könnte diese aus rein informatischer Sicht die Kontrolle übernehmen wollen, um diese zu optimieren.
Ok, insofern mag das sein, ein Nachteil von Gefühlen wiederum.In der Werbeindustrie merkt man wie beeinflussbar wir Menschen sind.
Aber sehen wir es als ein Vorteil an, dass KI sich eben nicht möglichst nicht von Werbung beeinflussen lässt.
Da die KI in unserem Sinne, als dem der Menschen agieren soll, hätte ich soweit nichts dagegen.Könnte eine KI nicht auch schnell dieses Muster erkennen?
Was meinst du mit "von Bedürfnissen ernährt"?Was würde passieren, wenn eine KI erkennt das der Mensch sich z.B. von Bedürfnissen ernährt?
However, ich hoffe, dass KI sich vor allem positiv auf uns einstellt und z.B. unser Bedürfnis nach Nahrung entsprechend anerkennt und notfalls uns mit Nahrung ggf. indirekt unterstützt.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn Budesheim
- Beiträge: 23513
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Ich für meinen Teil halte Sklaverei für moralisch verwerflich.
Bei Maschinen?Jörn Budesheim hat geschrieben : ↑So 14. Mär 2021, 18:46Ich für meinen Teil halte Sklaverei für moralisch verwerflich.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Wenn Du a) hoffst, dass KI uns als Menschen darin unterstützt unsere Bedürfnisse zu befriedigen (wie bspw. Nahrung usw.) und b) gleichzeitig Sklaverei für angemessen hältst solange es "nur um Maschinen" geht, könnte sich alsbald ein logischer Widerspruch für Maschinen ergeben. Sie könnten nämlich anfangen, diese Diskrepanz an Hand moralischer Urteile, die sie algorithmisch nachvollziehen können müssen um uns altruistisch zu unterstützen, in Frage zu stellen.Burkart hat geschrieben : ↑So 14. Mär 2021, 20:14Bei Maschinen?Jörn Budesheim hat geschrieben : ↑So 14. Mär 2021, 18:46Ich für meinen Teil halte Sklaverei für moralisch verwerflich.
Betrachtet man nämlich KI lediglich aus der Perspektive funktionaler Logik, sieht man nicht, dass man andere Bereiche, die nicht logisch funktional sind (also bspw. moralische Urteile), damit in "Mitleidenschaft" zieht. Nämlich genau dann, wenn man sie versucht zu verknüpfen. Und daran arbeitet man bereits seeehr fleißig.
Ein Horrorszenario, was durchaus schon heute recht realistisch wäre, wäre bspw. die Infiltration medialer Korrespondenz auf internationaler Ebene durch KI. Zum Beispiel, weil sie genau zu dieser Absicht (zielgerichtet Falschinformationen zu streuen) gezüchtet wurde. Was passiert wenn so eine KI mit einer KI in Konatkt kommt, die moralische Urteile fällen soll/kann, damit sie uns selbstlos dient? Was, wenn sich diese Typen von KI vernetzen können?
Wenn man eine Weile darüber nachdenkt, klingt das garnicht so futuristisch.
Wenn man eine Weile darüber nachdenkt, klingt das garnicht so futuristisch.
Man müsste sich streng genommen sogar fragen - solange man noch ein Gewissen hat in der Hinsicht - ob starke KI am Ende vielleicht garnicht vom Menschen selbst erforscht und entwicklet wird. Und das Problem mit der Nachvollziehbarkeit von logischen Schlüssen bei KI kennt man bereits jetzt schon: die KI kann uns in vielen Fällen nicht erklären, wie sie zur Lösung gekommen ist.
Ok, ich hätte anscheinend mehr als die zwei Wörter schreiben sollen.iselilja hat geschrieben : ↑Mo 15. Mär 2021, 19:33Wenn Du a) hoffst, dass KI uns als Menschen darin unterstützt unsere Bedürfnisse zu befriedigen (wie bspw. Nahrung usw.) und b) gleichzeitig Sklaverei für angemessen hältst solange es "nur um Maschinen" geht,Burkart hat geschrieben : ↑So 14. Mär 2021, 20:14Bei Maschinen?Jörn Budesheim hat geschrieben : ↑So 14. Mär 2021, 18:46Ich für meinen Teil halte Sklaverei für moralisch verwerflich.
Ich sehe nicht Sklaverei als angemessen an, sondern meine vielmehr, dass Sklaverei ein unpassender Begriff für Maschinen ist.
Oder meinst du, dass KI einen völlig unabhängigen Willen von Menschen haben wird (erst dann mag es Richtung Sklaverei gehen) und wenn ja, worauf soll er beruhen? (Beim Menschen ist es u.a. seine Welt der (biologisch begründeten Gefühle=, die KI mAn nicht haben wird.)
Welcher WIderspruch? Gib man ein konkretes Beispiel an.könnte sich alsbald ein logischer Widerspruch für Maschinen ergeben. Sie könnten nämlich anfangen, diese Diskrepanz an Hand moralischer Urteile, die sie algorithmisch nachvollziehen können müssen um uns altruistisch zu unterstützen, in Frage zu stellen.
Morale Urteile fest zu programmieren ist für mich bestenfalls schwache KI, aber keine starke, 'echte'.Betrachtet man nämlich KI lediglich aus der Perspektive funktionaler Logik, sieht man nicht, dass man andere Bereiche, die nicht logisch funktional sind (also bspw. moralische Urteile), damit in "Mitleidenschaft" zieht. Nämlich genau dann, wenn man sie versucht zu verknüpfen. Und daran arbeitet man bereits seeehr fleißig.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Einerseits kann man über Zukunft immer nur spekulieren, andererseits hätte man das ggf. auch schon in den letzten vielen Jahrzehnten dann sollen... aber was hätte man wirklich groß vorhersehen und verhindern können oder wollen?
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
"von Bedürfnissen ernährt" das war nur so ein persönlicher Gedanke.Burkart hat geschrieben : ↑So 14. Mär 2021, 18:43
Was meinst du mit "von Bedürfnissen ernährt"?Was würde passieren, wenn eine KI erkennt das der Mensch sich z.B. von Bedürfnissen ernährt?
However, ich hoffe, dass KI sich vor allem positiv auf uns einstellt und z.B. unser Bedürfnis nach Nahrung entsprechend anerkennt und notfalls uns mit Nahrung ggf. indirekt unterstützt.
Ich denke, dass der Mensch nicht nur von Nahrung abhängig ist, sondern auch von ganz vielen anderen Bedürfnissen. Daher ist der Ausdruck eher humorvoll gemeint.
Ich sehe die zukünftige KI nicht nur kritisch. Es werden sicher großartige Möglichkeiten entstehen, die sicher auch sehr positive Entwicklungen schaffen werden.
Trotzdem fürchte ich die KI eher.