Vertrauenswürdige KI-Führungskräfte setzen die Grenzen ihrer Systeme durch.
Ich habe mein ChatGPT-Abonnement gekündigt, weil ich der Führung von OpenAI nicht mehr vertraue. „KI vertrauen wir nur, wenn wir den Konstrukteuren dahinter vertrauen”, sagt Judith Simon, stellvertretende Vorsitzende des Deutschen Ethikrats.
Anthropic, ein globaler KI-Vorreiter und das Unternehmen hinter Claude, verbietet klar die Nutzung seiner Systeme für zwei Anwendungen: vollständig autonome Waffen und Massenüberwachung im Inland.
Anthropic-CEO Dario Amodei machte deutlich, dass das Unternehmen an seiner Position festhält. US-Präsident Trump und Secretary Hegseth starteten daraufhin eine Hetzkampagne gegen Anthropic in den sozialen Medien. Ich empfehle dieses Interview für weitere Details.
Nur wenige Stunden nachdem Hegseth seine Absicht gepostet hatte, die Zusammenarbeit mit Anthropic zu beenden, gab OpenAI seinen Vertrag mit dem US-Kriegsministerium in den sozialen Medien bekannt. OpenAIs Vertrag mit dem Kriegsministerium
Anthropic nannte Zuverlässigkeitsbedenken als Grund für die Ablehnung des Einsatzes ihrer Systeme in vollständig autonomen Waffen. Ich erforsche die internen Mechanismen, die den Entscheidungsprozessen von KI-Systemen zugrunde liegen, und ich bin überzeugt, dass es von entscheidender Bedeutung ist, die Grenzen aktueller KI-Systeme hervorzuheben. Unserem Forschungsfeld fehlt derzeit ein umfassendes Verständnis der Entscheidungsprozesse in tiefen neuronalen Netzen.
Jede Woche werden spannende neue Entdeckungen und Werkzeuge veröffentlicht und wir machen Fortschritte. Aber ehrlich gesagt, sind wir noch nicht annähernd so weit, robuste Werkzeuge für menschliche Kontrolle über KI-Systeme in Hochrisikobereichen verfügbar zu haben.
Das erforderliche Sicherheitsniveau hängt stark vom Anwendungsfall ab. Während ich glaube, dass die fehlende Kontrolle für alltägliche Ratschläge akzeptabel ist, sind starke Kontrollmechanismen für Hochrisikobereiche wie autonome Kriegsführung erforderlich. Ein KI-Assistent, der ein nicht existierendes Restaurant halluziniert, ist verkraftbar, während ein KI-System, das versehentlich verbündete Soldaten tötet, es eindeutig nicht ist.
Mit jedem neuen Modell, das den Stand der Technik vorantreibt, müssen KI-Entwickler eine Entscheidung treffen: Ist das Modell sicher genug, um weltweit eingesetzt zu werden? Und umgekehrt: Kann sich das Unternehmen die finanziellen Verluste leisten, die durch eine Verzögerung der Modellveröffentlichung aus Sicherheitsgründen entstehen? KI-Entwickler sind bei dieser Entscheidung weitgehend auf sich allein gestellt, da die Gesetzgebung rund um generative KI weltweit noch in den Anfängen steckt,
Es ist für mich ein deutliches Warnsignal, dass die OpenAI-Führung einem anderen amerikanischen KI-Unternehmen nicht beisteht, wenn dessen demokratische Werte bedroht werden. Diese Entwicklungen haben mein Vertrauen in die Führung von Anthropic gestärkt und mein Vertrauen in die OpenAI-Führung gebrochen.
Ich bin überzeugt, dass wir eine breite öffentliche Debatte darüber brauchen, welche Anwendungsfälle von KI-Systemen welche Art von Schutzmaßnahmen erfordern. Jeder braucht persönliche Erfahrung mit KI-Anwendungen, um an einer produktiven Debatte teilnehmen zu können. Ich lade meine Leserinnen und Leser ein, KI-Systeme für verschiedene Anwendungen auszuprobieren. Professor Ethan Mollicks aktueller Überblick über KI-Anwendungen