verfaßt von Timbatuku, 14.02.2026, 10:56:35
> Bei KI wird es, meiner Meinung nach, irgendwann so sein, das selbst
> erfahrene User den Unterschied nicht mehr mit bloßem Auge erkennen
> können.
> Und da sehe ich die Gefahr.
Stimmt. Das ist aber nichts Neues und nicht auf KI beschränkt. Potentielle Gefahren werden selbst von Experten nicht immer erkannt. Das Fazit daraus: Das Leben ist mit Gefahren und Risiken verbunden. Der Staat und seine Behörden können uns nicht vor allem schützen. Wir werden lernen, auch mit neuen Gefahren umzugehen.
> Während man mit dem Auto, dem Messer, dem Backstein oder der Mail nur eine
> begrenzte Anzahl von Menschen schaden kannst (was auch schon schlimm und
> traurig genug ist) erreichst du mit KI tausende und abertausende.
Die Menge der Opfer erhöht die Wahrscheinlichkeit, dass es eine bestimmte Person trifft. Für die Betrachtung des Schadens selbst ist es aber egal. Für das Opfer macht es keinen Unterschied, ob nur es selbst betroffen ist oder noch Zigtausend andere. Eine hohe Wahrscheinlichkeit hat aber auch einen positiven Punkt: Je höher, desto eher werden sich zuständige Stellen darum kümmern.
> Da muss niemand vor die Tür um jemand andern zu schaden.
Das muss man ohne KI auch nicht. Internetbetrug inkl. Identitätsdiebstahl und all diese Dinge gibt es schon lang und die haben allesamt nichts mit KI zu tun. Allerdings machen die neuen Werkzeuge die möglichen Straftaten noch etwas effizienter. Das schon.
> Eine Person reicht aus, mit ein paar Klicks, millionen Menschen zu
> erreichen um diese gezielt zu manipulieren.
Wie einfach oder schwer jemand zu manipulieren ist, liegt meiner Meinung nach hauptsächlich an der zu manipulierenden Person und weniger an dem dafür benutzten Werkzeug. Wir werden künftig wesentlich kritischer sein müssen. Wer das nicht ist, wird eben leichter manipuliert. Jetzt schon und künftig noch mehr.
> Und wer garantiert mir das nicht auch irgendwann die Nachrichtendienste,
> Politik, Wirtschaft auf eben diese Manipulationsmöglichkeit
> zurückgreifen um ihre Ziele beim Volk/der Welt zu erreicht bzw.
> durchzusetzen.
Niemand garantiert das. Das Problem haben wir aber schon längst, ganz ohne KI. Der einzige Garant ist, dass die genannten Institutionen auf Vertrauen angewiesen sind. Wird das Vertrauen ge- oder zerstört, kommen ihre Botschaften nicht mehr an. Vertrauen ist deren größtes Kapital. Deshalb werden sie, in gewissem Rahmen natürlich, alles dafür tut, dass dieses Vertrauen nicht gefährdet wird. Das ist natürlich keine hundertprozentige Sicherheit, aber das ist alles, was wir haben.
> Da gibt es Video und Bild Material und man zweifelt an der Echtheit, weil
> man sich durch KI nie mehr wirklich sicher sein kann was echt und was
> manipuliert ist.
Oder es werden zu einem aktuellen Beitrag Video und Bildmaterial aus einer anderen Zeit und von einem anderen Ort hinzugefügt, um eine bestimmte Botschaft zu untermauern. Ganz ohne KI. Ist im Prinzip dasselbe. Für Betrug braucht es nicht zwingend KI. Aber unterm Strich bestätigst du mit "und man zweifelt an der Echtheit ..." meinen Punkt aus dem Absatz zuvor: Wenn das Vertrauen weg ist, kommt die Botschaft nicht mehr an. Deshalb glaube ich daran, dass sich die seriösen Medien hüten werden, uns (als Gesellschaft) mit gefakten Bildern zu verarschen. Das wäre nämlich ihr eigener Untergang. In den sozialen Netzwerken wird der Schrott allerdings grassieren. Aber da wird es nicht lang dauern, bis wirklich niemand mehr die Meldungen von dort ernst nimmt. Welche Folgen das haben wird - keine Ahnung.
> Schon vorher, ohne KI war es teilweise mühselig die Spreu vom Weizen zu
> trennen.
> Jetzt mit KI wird es , meinen Befürchtungen nach, fast unmöglich werden.
Wenn die Trennung unmöglich ist, wird der Grundsatz "im Zweifel ist es Fake" gelten. Ich schrieb es schon mal an anderer Stelle: Da es nicht möglich sein wird, alle Fakes als solche zu kennzeichnen, werden wir im Umkehrschluss ein fälschungssicheres Echtheitszertifikat brauchen.
gesamter Thread: