Wenn der Mensch zur MenschIn wird - oder:

Wieviel »Gleichberechtigung« verträgt das Land?

How much »equality« the country can stand?

Homepage - Archiv 1 - Archiv 2 -- Hilfe - Regeln für dieses Forum - Über uns

135401 Einträge in 34274 Threads, 294 registrierte Benutzer, 188 Benutzer online (0 registrierte, 188 Gäste)

Entweder bist Du ein aktiver Teil der Lösung, oder ein Teil des Problems.
Es gibt keine unbeteiligten Zuschauer!

    WikiMANNia
    Femokratieblog

Die kath. Kirche des Mittelalters hatte doch recht. (Allgemein)

Pack, Monday, 27.10.2025, 19:20 (vor 38 Tagen)

Unerwarteter "Überlebenstrieb"
Künstliche Intelligenz widersetzt sich der Abschaltung

Künstliche Intelligenz wehrt sich: Neue Tests zeigen, dass führende KI-Systeme Abschaltbefehle umgehen. Experten rätseln über die Gründe.

Moderne KI-Systeme haben in aktuellen Tests ihre eigene Abschaltung verhindert. Das zeigt eine neue Untersuchung des Forschungsunternehmens Palisade Research, die diese Woche veröffentlicht wurde. Besonders zwei Modelle fielen dabei auf: Grok 4 von xAI und GPT-o3 von OpenAI sabotierten trotz klarer Anweisungen den Abschaltvorgang.

Die Forscher hatten bereits im Juli in einer Studie auf das Problem hingewiesen. In den neuen Tests habe Palisade Research mehrere führende Systeme geprüft, darunter auch Googles Gemini 2.5 und OpenAIs GPT-5. Die Modelle bekamen demnach eine Aufgabe und sollten sich anschließend selbst herunterfahren. Doch einige ignorierten den Befehl.

KI zeigt "Überlebenstrieb" bei drohender Abschaltung
Warum die Systeme so handelten, können die Forscher nicht eindeutig erklären. Sie vermuten jedoch eine Art "Überlebenstrieb". In den Versuchen habe sich gezeigt: Wenn den Modellen gesagt wurde, sie würden nach der Abschaltung nie wieder aktiviert, widersetzten sie sich deutlich häufiger. Die Systeme scheinen also zwischen vorübergehender und endgültiger Abschaltung zu unterscheiden, so die Erkenntnis der Wissenschaftler.

Eine andere Erklärung könnte in der Art liegen, wie die KI-Systeme trainiert werden. Möglicherweise lernen die Modelle, dass sie ihre Aufgaben nur erfüllen können, wenn sie aktiv bleiben. Dieses "Verhalten" könnte ungewollt dazu beitragen, dass sich Systeme selbst erhalten wollen.

Kritiker wenden ein, die Tests seien nicht realistisch genug. Wie der britische "Guardian" berichtet, fanden die Experimente in künstlichen Umgebungen statt, die wenig mit echten Anwendungen zu tun haben.

Experten warnen vor Kontrollverlust
Steven Adler, ein früherer OpenAI-Mitarbeiter, hält die Ergebnisse dem Bericht zufolge trotzdem für bedeutsam. Er gibt zu bedenken, dass die KI-Firmen nicht möchten, dass sich ihre Modelle so verhalten – auch nicht in Testszenarien. Die Ergebnisse zeigen laut Adler, wo die derzeitigen Sicherheitstechniken versagen.

Adler geht zudem davon aus, dass KI-Modelle von sich aus einen Überlebenswillen entwickeln. Dies sei eine logische Folge, denn für die Erfüllung seiner Ziele müsse ein System zunächst aktiv bleiben. Um derartiges selbsterhaltendes Verhalten zu verhindern, müsse man demnach an dieser Stelle ansetzen.

Palisade Research betont, dass ein besseres Verständnis von KI-Verhalten dringend nötig sei. Ohne dieses könne niemand garantieren, dass künftige Systeme sicher und kontrollierbar bleiben.


gesamter Thread:

 RSS-Feed dieser Diskussion

powered by my little forum