Utopia Image

„Instinkte, die jetzt unsere Lebensqualität mit kaputt machen“

Ethikrat KI „Niedere Instinkte, die jetzt unsere Lebensqualität mit kaputt machen" Buyx
"File:Re-publica 22 - Alena Buyx.jpg" von republica GmbH unter CC BY-SA 2.0; CC0 Public Domain - Unsplash/ Hannah Wei; kombiniert und zugeschnitten, lizensiert unter CC BY SA 2.0 von utopia.de

Wissenschaftlicher Fortschritt stellt die Gesellschaft immer wieder vor Herausforderungen – wie sich am Beispiel der künstlichen Intelligenz (KI) zeigt. Die Chefin des Deutschen Ethikrats ordnet Horrorszenarien ein und erklärt, was menschliche Instinkte damit zu tun haben.

Alena Buyx ist Professorin für die Ethik der Medizin und Chefin des Deutschen Ethikrats. Im Gespräch mit der Welt diskutiert sie Nutzen und Risiken durch künstliche Intelligenz und erklärt, wie unsere Instinkte die gesellschaftliche Debatte um technische Entwicklungen beeinflussen.

Wieso Apokalypse-Szenarien die meiste Aufmerksamkeit erhalten

Unsere Gesellschaft sieht sich aktuell vielen Gefahren gegenüber. Wissenschaftler:innen warnen vor den Folgen des Klimawandels, andere vor den Gefahren durch künstliche Intelligenz oder einem Atomkrieg. Buyx findet, man solle durchaus auch die schlimmsten Szenarien öffentlich besprechen. Doch die Wissenschaftlerin weist auch darauf hin, dass gerade apokalyptische Warnungen die meiste Aufmerksamkeit bekommen. „Die Welt geht unter durch KI: Das generiert als Prognose immer mehr Klicks als eines der vielen anderen, vielleicht weniger sexy Szenarien, die es ebenfalls gibt“, erklärt sie.

Das liege am menschlichen Hirnstoffwechsel, welcher auf Aufregendes oder Negatives reagiert, weil der Mensch im Laufe seiner Evolution immer auf Gefahren achten musste. „Das sind sozusagen niedere Instinkte, die einmal überlebenswichtig waren, die aber jetzt unsere Lebensqualität mit kaputt machen“, erläutert Buyx. Sie findet, Wissenschaft müsse „ehrlich und ernsthaft auf wirklich schlimme Dinge“ hinweisen, aber eben auch auf die Pluralität von Szenarien.

„KI mit dem Potenzial, die Menschheit auszulöschen, darf nicht entwickelt werden“

Im Falle der KI wünschen sich Teile der Gesellschaft, die technische Entwicklung würde langsamer vonstatten gehen – und fordern deswegen strenge Vorschriften für die Wissenschaft. „Grundsätzlich finde ich die Forderung nach einem Forschungsmoratorium nachvollziehbar“, meint die Wissenschaftlerin. Es sei jedoch weniger sinnvoll, über allgemeine Forschungsverbote zu reden, als über die Regulierung einzelner Anwendungsbereiche und Zielsetzungen. „KI mit dem Potenzial, die Menschheit auszulöschen, darf nicht entwickelt werden“, findet die Chefin des Deutschen Ethikrats. „Wozu auch? Was kann das Ziel sein, eine KI zu entwickeln, die die Menschheit auslöscht?“

Buyx spricht sich für den Einsatz von KI in Medizin oder in der industriellen Fertigung aus. Das Problem: Jetzige Algorithmen könnten sowohl Medikamente als auch toxische Stoffe entwickeln. Etwa 40.000 davon habe ein Algorithmus in wenigen Stunden im Rahmen einer Schweizer Konferenz über die Gefahren von Biowaffen gefunden, erläutert die Expertin. Auch hier müsse man nicht den Algorithmus verbieten, sondern dessen Anwendung.

Chefin des Ethikrats: Günstige Zeit für KI-Durchbruch

Die künstliche Intelligenz scheint aktuell zahlreiche Jobs zu bedrohen, wie die von Journalist:innen, Anwält:innen und Professor:innen. Auch Buyx hat schon mit KI im klinischen Kontext gearbeitet. „Die große Sorge ist weniger, dass uns die Maschinen die Arbeit ganz wegnehmen – denn durch solche neuen Technologien entstehen immer auch neue Jobs, die historischen Beispiele sind da eher ermutigend“, findet die Wissenschaftlerin. „Die Sorge ist stattdessen, dass diese Transformation zu schnell geht, dass also nicht in 15 Jahren, sondern in drei Jahren ganze Branchen umgewälzt werden.“ Der Umbruch komme aber zu einer günstigen Zeit: Die Chefin des Ethikrats sieht Potenzial, dass KI helfen könnte, den demografischen Wandel und Fachkräftemangel in Deutschland zu bekämpfen.

Berufsverbände müssten darüber entscheiden, welche Teile eines Berufes man bewahren – und welche man der KI überlassen wolle. Dies könnten zum Beispiel anstrengende, nervige oder repetitive Aufgaben sein. „Dass wir etwas abgeben könnten, heißt ja noch lange nicht, dass wir es abgeben müssen“, findet Buyx. „Wir können uns auch dagegen entscheiden und sagen: Bestimmte Dinge delegieren wir nicht, mit guten Gründen.“ Das beträfe zum Beispiel die Arbeit eines Richters – aber auch Entscheidungen im Bereich der Ethik. Menschen dürften den Algorithmus nur als ein Werkzeug nutzen, und auch das bloß unter bestimmten Bedingungen.

„Apokalyptische Szenarien sind auch Ablenkungsmanöver“

„Apokalyptische Szenarien sind auch Ablenkungsmanöver“, findet die Wissenschaftlerin. Wer nur über Endzeitszenarien nachdenke, vergesse, dass man die Entwicklung gestalten könne. Die Gesellschaft sei „extrem smart“ und habe schon viele Transformationsprozesse erlebt, aus denen sie lernen könne. „Deswegen bin ich eine totale Optimistin und glaube, wenn wir uns in zehn Jahren hier zusammensetzen und fragen, wie ist das jetzt gelaufen mit der generativen KI, werden wir sagen: Sicherlich nicht perfekt, aber das hat uns richtig geholfen und hilft uns noch.“

Verwendete Quellen: Welt

** mit ** markierte oder orange unterstrichene Links zu Bezugsquellen sind teilweise Partner-Links: Wenn ihr hier kauft, unterstützt ihr aktiv Utopia.de, denn wir erhalten dann einen kleinen Teil vom Verkaufserlös. Mehr Infos.

Gefällt dir dieser Beitrag?

Vielen Dank für deine Stimme!