Ansicht:   

#460743 @ Johann, KI GPT-4, Emergenz, Interpolation und Extrapolation (ot.kultur)

verfaßt von Johann, 22.05.2023, 15:55:35
(editiert von Johann, 22.05.2023, 16:10:04)

Danke für den Hinweis zu dem Artikel!

Meine subjektive Meinung: Die neuen Sprachmodelle sind, wie dort beschrieben, sehr leistungsfähig was die Kenntnis von Information angeht, ganz klare Sache.
Aber bis zur Entwicklung etwas ganz bestimmten, dem "internen Gefühl" dieser Maschine und der Art und Weise, wie diese Ein- und Ausgaben behandelt, nämlich nicht linear sondern senso-emotional-motorisch, bleiben sie sehr leistungsfähige Statistikmaschinen und sind keinesfalls intelligent, bzw. haben sie kein Bewusstsein.

Erst wenn eine solche Maschine ununterbrochen in einer kontinuierlichen Schleife darüber "nachdenkt", welche externen Reize/Eingaben sie erhält, welche Ausgaben (=Wirkung in die Realität) sie dadurch entfaltet und, ganz wichtig, welches interne Gefühl bei dieser Handlung mit abgespeichert wird (=Basis zur eigenen Entscheidungsfindung), ist sie intelligent/bewusst.

Mit anderen Worten: Wenn Pinocchio nur rumsitzt und reagiert, sobald man ihn anspricht und dabei niemals bewusst lügt, auch wenn er alle Bücher der Welt im Kopf hat, ist das eine Statistikmaschine.

Nimmt Pinocchio über all seine Sensorik aber ständig Reize auf, simuliert sie in seinem internen neuronalen Netz mit vorhandener Information UND dem entsprechenden, lebenslang erlernten Gefühl/Emotion dabei und handelt dann aufgrund dieser internen Simulation über seine Aktoren entsprechend zurück in die Realität, dann ist er intelligent, er wäre sich "bewusst".
In so einem Falle würde sich Gipetto vor Freude in die Hose machen, wenn er merkt, dass Pinocchio ihn bewusst, aufgrund eines eigenen Vorteilsdenkens, belogen hat.

Ich weiß nicht, ob Du genau verstehst, worauf ich da hinaus will. Bis jetzt sind diese Systeme halt meines Erachtens nicht den Terminus "KI" wert.
Erst, wenn ein System ununterbrochen eine sogenannte Senso-(emotional)-Motorische Schleife implementiert,
die nicht nur mit einem Wissens-, sondern auch mit einem Emotionsspeicher läuft, wird es zu einer KI. Ansonsten kann so ein System nämlich keine eigenen Entscheidungen treffen.
Würde es dies, wäre es sogar mit Moral/Gewissen (=internem Bauchgefühl) ausgestattet.

Und sollte so etwas eines Tages, und da gehe ich von aus das wir das noch erleben, hergestellt werden, dann stehen wir vor ethischen Fragen und weiteren Problemen, die alles dagewesene sprengen.
Stell Dir vor, ein solches System wäre in der Lage, sich selbst weiterzuentwickeln und/oder sich zu replizieren.
Wie würden wir Menschen damit umgehen, ohne in eine Art "Nazi"-denken zu verfallen und denen sogar "kill-switches" zu verpassen?!
Als was würden wir diese Systeme betrachten? Gefahr oder Hilfe? Als lebendig oder nicht?
Ich schwöre: Das Fass liegt bereits am Strand des menschlichen Könnens aber ist noch nicht geöffnet und wenn, dann hat es einen sehr, sehr tiefen Boden.

 

gesamter Thread:

Ansicht:   
Auf unserer Web-Seite werden Cookies eingesetzt, um diverse Funktionalitäten zu gewährleisten. Hier erfährst du alles zum Datenschutz