eigentlich hatte ich noch kurz nach 16 Uhr einen Beitrag geschrieben und abgeschickt, aber der ist irgendwie nicht angekommen, und danach musste ich Kirschen pflücken
Jut, mit Zielerreichung und Problemlösung sind wir schon mal auf einer Linie.Ich würde es so ähnlich verstehen. Intelligenz ist die Fähigkeit, ein Ziel zu erreichen, bzw Probleme zu lösen. Und weil wir endlich sind, muss das in einem vernünftigen (den Problem angemessenen) Zeitrahmen geschehen. Es hat keinen Sinn, wenn ich im Schach zwar den richtigen Zug finde, dafür aber 3 Jahre brauche, werde ich nur eine Stunde Bedenkzeit zur Verfügung habe
Hier ergibt sich eben das erste Problem, wie oben schon angedeutet: Welche Art von Problemen sollte eine Maschine haben?
Und richtig, die Zeit dafür ist i.a. begrenzt, insbesondere oft bei praktischen Problemen, nicht allerdings unbedingt bei so großen Weiterentwicklungen wie z.B. zu einer allgemeinen KI; auch z.B. bei einem Corona-Impfstoff gibt es keine klare Zeitbegrenzung, auch wenn natürlich möglich schnell geforscht wird. Bei diesen zeitlichen Begrenzung muss dann halt die bis dahin beste Lösung herangezogen werden - oder in bestimmten Fällen klar gemacht werden, dass keine Lösung gefunden wurde. Beim Schach kann man natürlich notfalls irgendwas ziehen, was in extremen Zeitnotphasen schon mal vorgekommen sein soll
Zur Art der Probleme:
Na ja, bei der KI als Werkzeug erst einmal einfach die, die ihr zur Lösung aufgetragen werden (top down gesehen).
Wobei du "Probleme" möglicherweise allgemeiner siehst, das kannst du ja ggf. erläutern.
Ein zu lösendes Problem hat mAn (meiner Ansicht nach) immer ein zu erreichendes Ziel und dies gilt es halt möglichst objektiv zu erreichen, also ohne Gefühlsduselei, nenne ich es mal
I.A. geht es dabei natürlich um sachlich zu lösende Problem, halt z.B. wie die Ermittlung des möglichst besten Schachzuges; klar dass es bei menschlichen Problemen oft nicht mehr einfache objektive Lösungen gibt und es ggf. viel Kenntnisse über Menschen benötigt, aber solche Probleme möchte ich der KI zumindest in absehbarer Zeit nicht stellen.
Das grobe Ziel soll der Mensch bzw. Maschinenbenutzer auch vorgeben, die KI soll ja ein Werkzeug sein.Das ist aber nicht das Ziel der Maschine, sondern das Ziel der Maschinenbenutzer. Ein Hammer hat ebenso wenig ein Ziel wie Photoshop
Aber denk z.B. an selbstfahrende Autos: Das Ziel wird ihm vorgegeben, aber wie es dort hinkommt, bleibt dem Auto weitestgehend überlassen. Dabei wird es Zwischenziele planen, z.B. wird es, um bei mir vor der Haustür in Norderstedt zu dir nach Kassel zu fahren, zuerst das Ziel haben, auf die Autobahn zu fahren.
Insofern hat eine KI es mit vielen Zielen in Form von Zwischenzielen zu tun.
Eine KI ist halt nicht so primitives, unflexibles Werkzeug wie ein Hammer.
Zur Programmierung:
Ok, ActionScript kenne ich nun nicht, aber solche elementaren Dinge wie "if", Schleifen usw. werden dir davon z.B. vermutlich bekannt sein, stimmt's?Nein, ich kenne mich damit praktisch gar nicht aus. Ich habe vor Jahren mal ein wenig ActionScript gekonnt, das ist eine Sprache, die es im Moment (glaube ich) gar nicht mehr gibt. Damit konnte man das Animations-Programm Flash steuern.
Das Programm war natürlich ziemlich stupide, das merkte man schon daran, dass nicht mal die allerkleinsten Fehler verziehen wurden, einfach deshalb, weil das Programm zu keinem Moment wusste, worum es jeweils eigentlich ging
Und richtig, unsere heutigen Programmiersprachen sind leider i.a. so, dass sie kleinste Fehler nicht 'verzeihen'; blöd wird es vor allem dann, wenn man sie nicht einmal sinnvoll erkennen bzw. analysieren (debuggen) kann. Ein Grund mehr, dass wir gerne auch hier mehr maschinelle Intelligenz in die Welt bringen sollten
Wenn ich das Ziel habe, nach Kassel zu fahren, hat dieses Ziel doch nichts mit Freude oder Leid zu tun (höchstens indirekt, aber das spielt für das Ziel selbst keine Rolle).Probleme und Ziele sind stets etwas normatives. In einfachen, aber grundlegenden Fällen geht es darum, Freude anzustreben und Leid zu vermeiden. Diese Gefühle sind vermutlich so eine Art Eingang in die Welt des Normativen. Ohne so etwas kann ein System keine eigenen Ziele haben.
Wenn du speziell *eigene* Ziele meinst: Diese können einfach auf übergeordneten Zielen entstehen, s.o. beim selbstfahrenden Auto: Das Ziel zur Autobahn zu kommen ist dann ein eigenes Ziel.
Zu deiner letzten Antwort (gestern, 17:25):
Dass Sex nun gerade was mit Intelligenz zu tun haben soll, ist wirklich weit hergeholt. Mal ehrlich: Ist jemand weniger intelligent, wenn er keinen hat? (Ok, vielleicht lebensferner, aber ein intelligenter Freund von mir hat mAn keinen.)
"Geist(los)" ist mir ein zu schwammiger Begriff (oder was soll er genau bedeuten)?Das Zitat ist aus dem Aufsatz "Ohne Körper wäre das Gehirn geistlos".
Am Ende des kurzen Aufsatzes fragt er: "Wenn der Körper und seine Interaktion mit dem Gehirn und der Planung von Handlungen so entscheidend wichtig für den menschlichen Geist ist, wie stehen dann die Chancen, innerhalb des Computers einen intelligenten entkörperlichten [= ohne biologische Grundlage] Geist zu schaffen? [..] Mit anderen Worten wäre es möglich, dass Computer erst dann etwas sinnvolles zustande bringen wenn sie Sex haben können."
Aber ich stimme zu, dass eine KI erst mit Kontakt zu (einer) Welt wirklich verstehen kann, was in ihr vorgeht, und durch deren Komplexität erst wirklich viel lernen und so etwas wie einen komplexen "Geist" entwickeln kann.
Man sollte dabei unterscheiden zwischen
1. dem allgemeinen "Kontakt zur Welt" (das kann z.B. ein Computer sein, der Zugriff auf Kameradaten und einem ggf. fernen Roboterarm hat)
2. einer KI in einem Roboter (das sollte das/ein KI-Ziel sein, wenn sie halbwegs selbständig sein soll; sie hat somit einen Körper und kann die Konsequenzen ihrer eigenen Aktionen in der Welt feststellen)
3. einem biologischen Körper (nicht das Ziel von KI; dieser kann gerne Sex haben)
Ein "eigenes Leben führen": Wollen wir das von einem Werkzeug? Na ja, irgendwie vielleicht mehr oder weniger irgendwann mal...
Aber Intelligenz im Sinne von Lösen von Aufgaben bzw. Erreichen von Zielen benötigt wahrlich kein "eigenes Leben".