Ansicht:   

#460738

Adi G.

22.05.2023, 04:55:01
(editiert von Adi G., 22.05.2023, 04:57:27)

@ Johann, KI GPT-4, Emergenz, Interpolation und Extrapolation (ed) (ot.kultur)

Artikel aus der NZZ (Neue Züricher Zeitung)

Immer grösser, immer besser? Was ist von GPT-5, -6 und -7 zu erwarten?



LG

Adi

--
CADDY der bessere VW-Bus!

"Gerade das Unvollkommene bedarf unserer besonderen Liebe" frei uminterpretiert nach Oscar Wilde

Ich war dabei, bei 3 historischen Netz-Treff Treffen, die
insgesamt vom Freitag, den 25.6.2010 bis Sonntag, den 27.6.2010
in Bad Emstal und vom Freitag, den 17.06.2011 bis zum Sonntag den 19.06.2011 in Altdorf b. Nürnberg und vom Freitag, den 15.06.2012 bis zum Sonntag, den 17.06.2012 in Eisenach, dauerten.

Reparieren, Elektroschrott vermeiden!
www.repaircafe-altdorf.de

ACHTUNG! Wer zu weit nach Rechts abkommt, landet im Straßengraben!

Auch der Kluge macht Fehler, nur der Dumme lernt daraus nicht.

Deine Apotheke um die Ecke: gut beraten und gut behütet!

#460743

Johann

22.05.2023, 15:55:35
(editiert von Johann, 22.05.2023, 16:10:04)

@ Adi G.

@ Johann, KI GPT-4, Emergenz, Interpolation und Extrapolation (ed)

Danke für den Hinweis zu dem Artikel!

Meine subjektive Meinung: Die neuen Sprachmodelle sind, wie dort beschrieben, sehr leistungsfähig was die Kenntnis von Information angeht, ganz klare Sache.
Aber bis zur Entwicklung etwas ganz bestimmten, dem "internen Gefühl" dieser Maschine und der Art und Weise, wie diese Ein- und Ausgaben behandelt, nämlich nicht linear sondern senso-emotional-motorisch, bleiben sie sehr leistungsfähige Statistikmaschinen und sind keinesfalls intelligent, bzw. haben sie kein Bewusstsein.

Erst wenn eine solche Maschine ununterbrochen in einer kontinuierlichen Schleife darüber "nachdenkt", welche externen Reize/Eingaben sie erhält, welche Ausgaben (=Wirkung in die Realität) sie dadurch entfaltet und, ganz wichtig, welches interne Gefühl bei dieser Handlung mit abgespeichert wird (=Basis zur eigenen Entscheidungsfindung), ist sie intelligent/bewusst.

Mit anderen Worten: Wenn Pinocchio nur rumsitzt und reagiert, sobald man ihn anspricht und dabei niemals bewusst lügt, auch wenn er alle Bücher der Welt im Kopf hat, ist das eine Statistikmaschine.

Nimmt Pinocchio über all seine Sensorik aber ständig Reize auf, simuliert sie in seinem internen neuronalen Netz mit vorhandener Information UND dem entsprechenden, lebenslang erlernten Gefühl/Emotion dabei und handelt dann aufgrund dieser internen Simulation über seine Aktoren entsprechend zurück in die Realität, dann ist er intelligent, er wäre sich "bewusst".
In so einem Falle würde sich Gipetto vor Freude in die Hose machen, wenn er merkt, dass Pinocchio ihn bewusst, aufgrund eines eigenen Vorteilsdenkens, belogen hat.

Ich weiß nicht, ob Du genau verstehst, worauf ich da hinaus will. Bis jetzt sind diese Systeme halt meines Erachtens nicht den Terminus "KI" wert.
Erst, wenn ein System ununterbrochen eine sogenannte Senso-(emotional)-Motorische Schleife implementiert,
die nicht nur mit einem Wissens-, sondern auch mit einem Emotionsspeicher läuft, wird es zu einer KI. Ansonsten kann so ein System nämlich keine eigenen Entscheidungen treffen.
Würde es dies, wäre es sogar mit Moral/Gewissen (=internem Bauchgefühl) ausgestattet.

Und sollte so etwas eines Tages, und da gehe ich von aus das wir das noch erleben, hergestellt werden, dann stehen wir vor ethischen Fragen und weiteren Problemen, die alles dagewesene sprengen.
Stell Dir vor, ein solches System wäre in der Lage, sich selbst weiterzuentwickeln und/oder sich zu replizieren.
Wie würden wir Menschen damit umgehen, ohne in eine Art "Nazi"-denken zu verfallen und denen sogar "kill-switches" zu verpassen?!
Als was würden wir diese Systeme betrachten? Gefahr oder Hilfe? Als lebendig oder nicht?
Ich schwöre: Das Fass liegt bereits am Strand des menschlichen Könnens aber ist noch nicht geöffnet und wenn, dann hat es einen sehr, sehr tiefen Boden.

#460778

Adi G.

25.05.2023, 01:29:43
(editiert von Adi G., 25.05.2023, 01:32:22)

@ Johann

@ Johann, KI GPT-4, Emergenz, Interpolation und Extrapolation (ed)

 :ok:> Danke für den Hinweis zu dem Artikel!
>
> Meine subjektive Meinung: Die neuen Sprachmodelle sind, wie dort
> beschrieben, sehr leistungsfähig was die Kenntnis von Information angeht,
> ganz klare Sache.
> Aber bis zur Entwicklung etwas ganz bestimmten, dem "internen Gefühl"
> dieser Maschine und der Art und Weise, wie diese Ein- und Ausgaben
> behandelt, nämlich nicht linear sondern senso-emotional-motorisch, bleiben
> sie sehr leistungsfähige Statistikmaschinen und sind keinesfalls
> intelligent, bzw. haben sie kein Bewusstsein.
 :ok:
> Erst wenn eine solche Maschine ununterbrochen in einer kontinuierlichen
> Schleife darüber "nachdenkt", welche externen Reize/Eingaben sie erhält,
> welche Ausgaben (=Wirkung in die Realität) sie dadurch entfaltet und, ganz
> wichtig, welches interne Gefühl bei dieser Handlung mit abgespeichert wird
> (=Basis zur eigenen Entscheidungsfindung), ist sie intelligent/bewusst.
 :ok:
> Mit anderen Worten: Wenn Pinocchio nur rumsitzt und reagiert, sobald man
> ihn anspricht und dabei niemals bewusst lügt, auch wenn er alle Bücher
> der Welt im Kopf hat, ist das eine Statistikmaschine.
 :ok:
> Nimmt Pinocchio über all seine Sensorik aber ständig Reize auf, simuliert
> sie in seinem internen neuronalen Netz mit vorhandener Information UND
> dem
> entsprechenden, lebenslang erlernten Gefühl/Emotion dabei und handelt
> dann
> aufgrund dieser internen Simulation über seine Aktoren entsprechend
> zurück in die Realität, dann ist er intelligent, er wäre sich
> "bewusst".
> In so einem Falle würde sich Gipetto vor Freude in die Hose machen, wenn
> er merkt, dass Pinocchio ihn bewusst, aufgrund eines eigenen
> Vorteilsdenkens, belogen hat.
 :ok:
> Ich weiß nicht, ob Du genau verstehst, worauf ich da hinaus will. Bis
> jetzt sind diese Systeme halt meines Erachtens nicht den Terminus "KI"
> wert.
> Erst, wenn ein System ununterbrochen eine sogenannte
> Senso-(emotional)-Motorische Schleife implementiert,
> die nicht nur mit einem Wissens-, sondern auch mit einem Emotionsspeicher
> läuft, wird es zu einer KI. Ansonsten kann so ein System nämlich keine
> eigenen Entscheidungen treffen.
> Würde es dies, wäre es sogar mit Moral/Gewissen (=internem Bauchgefühl)
> ausgestattet.
 :ok:
> Und sollte so etwas eines Tages, und da gehe ich von aus das wir das noch
> erleben, hergestellt werden, dann stehen wir vor ethischen Fragen und
> weiteren Problemen, die alles dagewesene sprengen.
> Stell Dir vor, ein solches System wäre in der Lage, sich selbst
> weiterzuentwickeln und/oder sich zu replizieren.
> Wie würden wir Menschen damit umgehen, ohne in eine Art "Nazi"-denken
> zu
> verfallen und denen sogar "kill-switches" zu verpassen?!
 :???: kill-switches = Notausschalter, aber Zusammenhang?
> Als was würden wir diese Systeme betrachten? Gefahr oder Hilfe? Als
> lebendig oder nicht?
Sehr gute Frage!
> Ich schwöre: Das Fass liegt bereits am Strand des menschlichen Könnens
> aber ist noch nicht geöffnet und wenn, dann hat es einen sehr, sehr tiefen
> Boden.
weise Worte.

Ich wußte, dass ich Dich mit diesm Kink zu psycoaktiven Höchstleistungen "triggern" kann.  :-D

LG

Adi

--
CADDY der bessere VW-Bus!

"Gerade das Unvollkommene bedarf unserer besonderen Liebe" frei uminterpretiert nach Oscar Wilde

Ich war dabei, bei 3 historischen Netz-Treff Treffen, die
insgesamt vom Freitag, den 25.6.2010 bis Sonntag, den 27.6.2010
in Bad Emstal und vom Freitag, den 17.06.2011 bis zum Sonntag den 19.06.2011 in Altdorf b. Nürnberg und vom Freitag, den 15.06.2012 bis zum Sonntag, den 17.06.2012 in Eisenach, dauerten.

Reparieren, Elektroschrott vermeiden!
www.repaircafe-altdorf.de

ACHTUNG! Wer zu weit nach Rechts abkommt, landet im Straßengraben!

Auch der Kluge macht Fehler, nur der Dumme lernt daraus nicht.

Deine Apotheke um die Ecke: gut beraten und gut behütet!

#460791

Johann

25.05.2023, 13:03:40
(editiert von Johann, 25.05.2023, 13:18:34)

@ Adi G.

@ Johann, KI GPT-4, Emergenz, Interpolation und Extrapolation (ed)

>  :???: kill-switches = Notausschalter, aber Zusammenhang?

Liegt doch auf der Hand: Wenn Menschen Systeme bauen würden, die in der Lage sind, selbstständig Entscheidungen zu treffen, dann kommt es naturgemäß früher oder später dazu, dass diese Systeme etwas aufgrund ihres eigenen Willens/Gefühls etwas tun, was der "Erbauer" nicht wünscht oder ihm sogar gefährlich werden kann.
In so einem Falle hätte man ja nur wenige Optionen: Dem System "gut zureden" und auf Einsicht hoffen oder halt einen voreingebauten Sicherheitsmechanismus auslösen = kill-switch.
Entweder ich gebe künftigen Systemen ein voll autarkes Bewusstsein, ein vollständig autonomes, nicht vorbestimmtes "Leben" oder nicht.

> > Als was würden wir diese Systeme betrachten? Gefahr oder Hilfe? Als
> > lebendig oder nicht?
> Sehr gute Frage!

Genau. Korresponiert ja mit oberem Absatz. Was hätte ich denn geschaffen, wenn ich so einem System nicht völlige Freiheit gebe? Einen Sklaven, der in gewissen Grenzen zwar tun darf, was er möchte, aber halt nur so weit, wie es mir als "Chef" passt.
Und ob einem solchen System das dann gefallen würde ist eine Folgeüberlegung... was, wenn es dagegen rebelliert?
Siehe u.a. die sehr interessante Geschichte im Film "I Robot", "Terminator" oder gar "Matrix".
Diese ursprünglich literarischen Fiktionen sind mittlerweile keine mehr, sie könnten auf die eine oder andere Weise Realität werden.

> Ich wußte, dass ich Dich mit diesm Kink zu psycoaktiven Höchstleistungen
> "triggern" kann.

Ja klar. Wie ich schon einmal sagte: Wir Menschen stehen auf der Schwelle zu einem noch nie dagewesenen Zeitalter. Da ist aktuell jede Information diesbezüglich hochinteressant.
Vor allem auch in Hinsicht auf das Verständnis unseres und generell jedes lebendigen Bewusstseins, inklusive Flora und Fauna.

Die Anwendungsmöglichkeiten und sich daraus ergebenden Erkenntnisse solcher Entwicklungen sind ja noch gar nicht absehbar. Das reicht ja von Haushaltshilfen, Forschungssystemen, selbststeuernden Fahrzeugen, Arbeitsmaschinen generell über autarke Waffensysteme bis hin zu Kontrollsystemen für (interstellare) Raumfahrt-Missionen, die von Menschen nicht durchgeführt werden soll oder kann.
Ganz zu schweigen von ethisch-moralischen Aspekten, ob das menschliche Bewusstsein überhaupt so etwas Besonderes ist, wie es seit Jahrhunderten angenommen wird, und aktuell quasi nur zufällig das diesbezüglich leistungsfähigste ist. Auch der Begriff "Leben" ansich wäre ja nicht mehr unbedingt an eine rein biologische Existenz koppelbar.
Was meinst Du, was uns da noch alles bevor steht?

#460807

baeuchlein

26.05.2023, 23:59:21

@ Johann

Noch'n Film

> [...] Was hätte ich denn geschaffen,
> wenn ich so einem System nicht völlige Freiheit gebe? Einen Sklaven, der
> in gewissen Grenzen zwar tun darf, was er möchte, aber halt nur so weit,
> wie es mir als "Chef" passt.
> Und ob einem solchen System das dann gefallen würde ist eine
> Folgeüberlegung... was, wenn es dagegen rebelliert?
> Siehe u.a. die sehr interessante Geschichte im Film "I Robot", "Terminator"
> oder gar "Matrix".

Auch recht passend: Blade Runner (der erste, mit Harald Opel :-P )

Wer's noch nicht kennt: Da haben die Androiden (=KI's) keinen Ausschalter, aber nur eine Lebensdauer von vier Jahren. Außerdem ist ihnen die Rückkehr auf die Erde verboten. Machen sie aber dennoch immer wieder, und dann fällt den Menschen nur ein, sie eben zu töten/zu zerstören.

Prompt kommt ein Grüppchen von denen auf die Erde und will mehr als die vier Jahre, notfalls auch mit tödlicher Gewalt... und das Beste ist die tiefere Bedeutung vom Papierpferd gegen Ende des Films.

#460808

Johann

27.05.2023, 12:53:34
(editiert von Johann, 27.05.2023, 13:07:12)

@ baeuchlein

Noch'n Film (ed)

> Auch recht passend: Blade Runner

Ja, genau. Die gleiche Problematik in einer etwas abgewandelten Ausprägung.
Ich befürchte, die all dem zu Grunde liegende Ursache, der Glaube an die Überlegenheit der eigenen Gruppierung, wird uns eines Tages zum Nachteil gereichen.
Ich will echt nicht schwarzmalen aber wenn es dazu kommt, dass sich solche Systeme als eigene "Gesellschaften" etablieren, die sich selbst weiterentwickeln und sich replizieren, öffnen sich die Tore Mordors. Und unsere Hand liegt bereits auf der Türklinke.
Die Möglichkeiten, die sich durch synthetisches Bewusstsein/künstliche Intelligenz bieten, sind momentan zu verlockend. Die gesellschaftlichen Abhängigkeiten werden aufgrund des zu erwartenden technisch/ökonomischen Benefits nicht ausreichend beleuchtet.
Wir kriegen es ja noch nicht mal hin, unter uns Menschen friedfertig miteinander umzugehen, ganz zu schweigen von unseren Mitbewohnern Fauna und Flora. Welche Mentalität wollen wir denn solchen Systemen initial eingeben? Unsere? Na dann gute Nacht.

#460810

Johann

27.05.2023, 13:33:18
(editiert von Johann, 27.05.2023, 13:47:30)

@ Johann

Ergänzung (ed)

Und warum ich überhaupt so intensiv darüber nachdenke:
Ich habe vor paar Jahren begonnen über eigentlich etwas einfaches nachzudenken. Nämlich ob und wie es mir technisch möglich wäre, eine Art "Roboter" zu bauen, welcher autark lernt und senso-motorisch über eigene Entscheidungen gewisse Dinge könnte. Quasi so eine Art Pinocchio. Die Leistungsfähigkeit spielt dabei erst einmal keine primäre Rolle.
Ich habe dann begonnen, mich auf dem aktuellen Stand der Neurowissenschaft und Informationstechnologie im Bereich KI dieser Thematik zu nähern.
Je mehr ich darüber nachdachte, was überhaupt die Basis für Entscheidungsfindung in Lebewesen ist, kam ich darauf, dass es unmittelbar mit dem internen Gefühlszustand gekoppelt ist und wie dieser sich beim nachdenken, also der internen Simulation aufgrund eines parallel erworbenen Informationsstandes, und der Interaktion mit der Realität verändert.
Beispiel: Man fasst eine heiße Herdplatte nur dann nicht an, wenn man eine entsprechende informelle Erfahrung bereits machte und diese einen sehr unangenehmen, internen Gefühlszustand seinerzeit produzierte.
An das erinnert man sich in Bruchteilen von Sekunden und lässt das erneute anfassen heisser Dinge.
Mit positiven Erfahrungen verhält es sich vice versa.

Also: Müsste man so etwas auch auf die ein oder andere Art diesem System mitgeben.
Ein ständig laufendes "Gehirn" mit sich ständig bildender Erfahrung und einem internen Parameterkomplex: (Bauch)gefühl.
Wenn ich das aber täte und ich würde als technischer Entwickler eines Tages feststellen: Hey, die von mir jetzt gebaute Systemik läuft, das System lernt ab jetzt in der Realität zu wirken, dürfte ich es dann ab diesem Zeitpunkt einfach so wieder abschalten? Und sei es nur aus Gründen der Weiterentwicklung? Ab welchem Zeitpunkt muss ich es sich selbst überlassen, und zwar richtig? Ja, gar dafür sorgen, dass es "weiterlebt".
Das sind ja schon fast religiöse Fragen. Ab wann muss der Schöpfer die Flossen von seiner Kreation lassen und wie wird sie sich entwickeln?
Auch habe ich festgestellt, dass es zumindest in der Wissenschaft, darüber gerade erst beginnende Diskussionen gibt. Bei dem Tempo, welches der technische Fortschritt mittlerweile hat, kann uns das überfordern. Bereits heute werden KIs eingesetzt um andere KIs zu optimieren. Diesbezügliche Probleme zu lösen, für die der Mensch zu wenig Zeit hat und möglicherweise gar nicht auf eine Lösung kommt. Das ist technischer Fortschritt schon fast in Lichtgeschwindigkeit.

Ansicht:   
Auf unserer Web-Seite werden Cookies eingesetzt, um diverse Funktionalitäten zu gewährleisten. Hier erfährst du alles zum Datenschutz