Gelebte Werte und leere Versprechen

Vertrauenswürdige KI-Führungskräfte setzen die Grenzen ihrer Systeme durch.

Ich habe mein ChatGPT-Abonnement gekündigt, weil ich der Führung von OpenAI nicht mehr vertraue. „KI vertrauen wir nur, wenn wir den Konstrukteuren dahinter vertrauen”, sagt Judith Simon, stellvertretende Vorsitzende des Deutschen Ethikrats. Die Vertrauenswürdigkeit der weltweit führenden KI-Unternehmen wurde letzte Woche auf eine harte Probe gestellt.

Ein Ultimatum

Anthropic, ein globaler KI-Vorreiter und das Unternehmen hinter Claude, verbietet klar die Nutzung seiner Systeme für zwei Anwendungen: vollständig autonome Waffen und Massenüberwachung im Inland. Letzte Woche stellte das US-Kriegsministerium Anthropic vor ein Ultimatum: Entweder diese Punkte aufgeben und faktisch unbegrenzte Zusammenarbeit zusagen – oder eine Einstufung als Lieferkettenrisiko hinnehmen, die sämtliche Regierungsverträge sofort stoppen würde.

Anthropic-CEO Dario Amodei machte deutlich, dass das Unternehmen an seiner Position festhält. US-Präsident Trump und Secretary Hegseth starteten daraufhin eine Hetzkampagne gegen Anthropic in den sozialen Medien. Ich empfehle dieses Interview für weitere Details.

Nur wenige Stunden nachdem Hegseth seine Absicht gepostet hatte, die Zusammenarbeit mit Anthropic zu beenden, gab OpenAI seinen Vertrag mit dem US-Kriegsministerium in den sozialen Medien bekannt. OpenAIs Vertrag mit dem Kriegsministerium überschreitet klar die roten Linien, die Anthropic gesetzt hat.

Fehlende Kontrolle

Anthropic nannte Zuverlässigkeitsbedenken als Grund für die Ablehnung des Einsatzes ihrer Systeme in vollständig autonomen Waffen. Ich erforsche die internen Mechanismen, die den Entscheidungsprozessen von KI-Systemen zugrunde liegen, und ich bin überzeugt, dass es von entscheidender Bedeutung ist, die Grenzen aktueller KI-Systeme hervorzuheben. Unserem Forschungsfeld fehlt derzeit ein umfassendes Verständnis der Entscheidungsprozesse in tiefen neuronalen Netzen. Jede Woche werden spannende neue Entdeckungen und Werkzeuge veröffentlicht und wir machen Fortschritte. Aber ehrlich gesagt, sind wir noch nicht annähernd so weit, robuste Werkzeuge für menschliche Kontrolle über KI-Systeme in Hochrisikobereichen verfügbar zu haben.Im Kontext davon, dass Anthropic den Einsatz seiner Systeme in vollständig autonomen Waffen verbietet, während OpenAI Wege für eine solche Nutzung eröffnet, schreibt Prof. David Bau auf X: „My take: scientists at neither company would assert humans can maintain responsibility for fully autonomous weapons with current frontier AI."

Das erforderliche Sicherheitsniveau hängt stark vom Anwendungsfall ab. Während ich glaube, dass die fehlende Kontrolle für alltägliche Ratschläge akzeptabel ist, sind starke Kontrollmechanismen für Hochrisikobereiche wie autonome Kriegsführung erforderlich. Ein KI-Assistent, der ein nicht existierendes Restaurant halluziniert, ist verkraftbar, während ein KI-System, das versehentlich verbündete Soldaten tötet, es eindeutig nicht ist.

Mit jedem neuen Modell, das den Stand der Technik vorantreibt, müssen KI-Entwickler eine Entscheidung treffen: Ist das Modell sicher genug, um weltweit eingesetzt zu werden? Und umgekehrt: Kann sich das Unternehmen die finanziellen Verluste leisten, die durch eine Verzögerung der Modellveröffentlichung aus Sicherheitsgründen entstehen? KI-Entwickler sind bei dieser Entscheidung weitgehend auf sich allein gestellt, da die Gesetzgebung rund um generative KI weltweit noch in den Anfängen steckt, selbst in Europa.

Fazit

Es ist für mich ein deutliches Warnsignal, dass die OpenAI-Führung einem anderen amerikanischen KI-Unternehmen nicht beisteht, wenn dessen demokratische Werte bedroht werden. Diese Entwicklungen haben mein Vertrauen in die Führung von Anthropic gestärkt und mein Vertrauen in die OpenAI-Führung gebrochen.

Ich bin überzeugt, dass wir eine breite öffentliche Debatte darüber brauchen, welche Anwendungsfälle von KI-Systemen welche Art von Schutzmaßnahmen erfordern. Jeder braucht persönliche Erfahrung mit KI-Anwendungen, um an einer produktiven Debatte teilnehmen zu können. Ich lade meine Leserinnen und Leser ein, KI-Systeme für verschiedene Anwendungen auszuprobieren. Professor Ethan Mollicks aktueller Überblick über KI-Anwendungen ist ein guter Start.