Bild zeigt die Illustration einer bösartigen künstlichen Intelligenz
Ein hochrangiger KI-Forscher befürchtet "schlechte Zeiten", wenn die Möglichkeiten künstlicher Intelligenz nicht eingeschränkt wird.
Midjourney/bbr

Als Beobachter jüngster KI-Entwicklungen gewinnt man den Eindruck, dass sich die KI-Branche nach und nach der Geister bewusst wird, die sie heraufbeschworen hat. Dario Amodei, CEO von Anthropic und hochrangiger Vertreter seiner Zunft, warnte nun vor einem Technologie-Unterausschuss des US-Senats erneut vor den Gefahren, die durch den Missbrauch von KI entstehen könnten. "Wenn wir nicht in der Lage sind, die Möglichkeiten von KI-Systemen einzuschränken, stehen uns schlechte Zeiten bevor", sagte der KI-Forscher bei der Anhörung.

Er betonte, dass die rasante Entwicklung dieser Technologie nicht nur wissenschaftliche Entdeckungen beschleunigen, sondern auch Kriminellen ermöglichen könnte, innerhalb von nur zwei bis drei Jahren Biowaffen und gefährliche Viren zu entwickeln. Anthropic, ein von ehemaligen OpenAI-Mitarbeitern gegründetes Unternehmen, habe im letzten halben Jahr mit Sicherheitsexperten zusammengearbeitet, um zu untersuchen, wie neuronale Netze in der Zukunft zur Herstellung von Waffen eingesetzt werden könnten.

Mit dem KI-Assistenten zur Biowaffe

Die Untersuchung resultiert in einem Appell, der eindringlicher nicht sein könnte: Amodei sprach von der dringenden Notwendigkeit einer Regulierung, um den Missbrauch leistungsfähiger Modelle in Bereichen wie Cybersicherheit, Nukleartechnik, Chemie und Biologie zu bekämpfen. Der Wissenschaftler, der bereits auf eine Karriere bei Baidu, Google und OpenAI zurückblicken kann, wies darauf hin, dass KI-Systeme jetzt schon in der Lage seien, komplexe Schritte in Produktionsprozessen von biologischen Waffen zu übernehmen.

Sollten keine geeigneten Schutz- und Gegenmaßnahmen ergriffen werden, könnten neue KI-System bis spätestens 2026 in der Lage sein, sogar alle dafür notwendigen Schritte zu übernehmen. Dadurch könnte sich das Spektrum jener Akteure, die theoretisch in der Lage sind, einen groß angelegten biologischen Angriff durchzuführen, erheblich erweitern.

Amodei wies auch auf das bestehende Problem hin, dass Chatbots, die schon jetzt nach Anleitungen für die Herstellung von Rohrbomben, Napalm oder Drogenrezepten gefragt werden, sensible Informationen in Zukunft noch leichter zugänglich machen könnten. Zwar sind Chatbots normalerweise mit Sicherheitsvorkehrungen ausgestattet, um die Preisgabe heiklen Wissens zu verhindern. Tatsächlich besteht dennoch ein hohes Risiko für Missbrauch, weil diese Vorkehrungen viel zu leicht aushebelbar sind.

Verantwortlichkeit offen

Bei dieser Gelegenheit ebenfalls diskutiert wurde die Haftungsfrage bei einem Missbrauch von KI. Stuart Russell, Professor für Informatik an der University von Kalifornien, Berkeley, der ebenfalls an der Anhörung teilnahm, wies darauf hin, dass die Frage der Verantwortlichkeit in solchen Fällen noch nicht geklärt sei.

In einer Analogie, wonach ein Unternehmen plötzlich beschließen würde, Uran im Supermarkt zu verkaufen, stellte er eine rhetorische Haftungsfrage und nahm dabei auch die Open-Source-Gemeinschaft in die Verantwortung. „Sie muss anfangen, darüber nachzudenken, ob sie dafür haftbar gemacht werden sollte, dass sie Dinge veröffentlicht, die für den Missbrauch reif sind", so der Informatiker.

Trotz dieser und ähnlicher Bedenken argumentieren deren Vertreter, dass Open-Source-KI-Projekte laut europäischem AI Act nicht der gleichen regulatorischen Kontrolle unterliegen sollten wie Produkte und Dienstleistungen privater Unternehmen.

KI-Konsortium als neue Maßnahme

Um negativen Entwicklungen im KI-Bereich entgegenzuwirken, wurde erst kürzlich ein neues Konsortium unter der Bezeichnung "Frontier Model Forum" von Tech-Größen wie OpenAI, Google, Microsoft und Anthropic ins Leben gerufen. Ziel dieses Forums sei es, den Fortschritt in der Forschung und Entwicklung von sogenannten "Frontier"-KI-Modellen, die über die Leistungsfähigkeit von Chatbots wie ChatGPT hinausgehen, auf sichere und verantwortungsbewusste Weise zu überwachen.

Mit Blick auf die Zukunft soll das Forum zudem bewährte Praktiken und Standards etablieren und einen effektiven Informationsaustausch zwischen Industrie und politischen Entscheidungsträgern ermöglichen. Ein Beratungsgremium mit vielfältigem Hintergrund soll in den kommenden Monaten etabliert werden, um die strategische Ausrichtung und Prioritäten des Forums zu steuern, wie TechCrunch berichtete.

Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, betonte in diesem Zusammenhang die Notwendigkeit, schnell zu handeln, um den Stand der KI-Sicherheit zu verbessern. Das Forum ziele auch darauf ab, wertvolle Beiträge bestehender industrieller, zivilgesellschaftlicher und wissenschaftlicher Bemühungen in seine Arbeit einfließen zu lassen und diese weiter voranzutreiben. (bbr, 30.07.2023)