Technologiekritik

Mit diesen Argumenten kannst du bei der KI-Debatte mitreden

· Online seit 09.05.2023, 20:50 Uhr
Sie schreibt Gedichte, malt Bilder und fliegt Drohnen – die Software, die mit sogenannter künstlicher Intelligenz menschliches Schaffen nachahmt, sorgt aktuell für Furore. So beeindruckend die Ergebnisse sind, so gross sind auch die Gefahren der Technologie. Eine kritische Übersicht.
Anzeige

Verlust von Arbeitsplätzen durch Automatisierung

Dass Arbeitsplätze durch künstliche Intelligenzen, Automatisierung und Roboter bedroht sind, darüber wurde schon lange vor ChatGPT, Stable Diffusion & Co. debattiert. 2018 schon sorgte etwa eine Studie in Deutschland für Aufsehen. Die Autoren behaupteten damals, bereits ein Viertel aller Jobs sei von einer Ersetzung durch Maschinen bedroht. Vor allem Tätigkeiten in der fertigenden Industrie müssten damit rechnen, aber auch in der Logistik, bei den Dienstleitungsberufen und in der Unternehmensleitung könnten viele Abläufe automatisiert werden.

Die grosse Vernichtung von Arbeitsplätzen ist seither ausgeblieben. Und das, obwohl Corona die Arbeitswelt tüchtig durchgeschüttelt und die Entwicklung keine Pause eingelegt hat. Skeptiker führen beispielsweise an, dass technologische Sprünge zwar bereits in der Vergangenheit Jobs überflüssig gemacht haben, unter dem Strich aber immer mehr Arbeitsmöglichkeiten entstanden sind. Aus gewerkschaftlicher Sicht wird kritisiert, dass künstliche Intelligenz als Vorwand benutzt werde, um Löhne zu drücken und Arbeitsbedingungen zu verschlechtern. Nach dem Motto: Passt ihr euch nicht an, werdet ihr von einer KI ersetzt.

Manipulation der öffentlichen Meinung durch Fakes

Vielen Menschen wurde das technologische Potenzial von künstlicher Intelligenz wohl erst durch die fingierten Bilder, Videos und Tonaufnahmen bewusst, die damit hergestellt werden können. Im Internet kursierten Aufnahmen eines von der Polizei festgenommenen Donald Trump. Europäische Offizielle fielen auf gefälschte Interviews mit dem ukrainischen Präsidenten Wolodymyr Selenskyj herein. Von Papst Franziskus wurden reihenweise Fotos erzeugt, die so nie aufgenommen wurden. Alle diese Beispiele zeigen: KI-generierte Inhalte machen es zunehmend schwer, die Authentizität von Medieninhalten einzuschätzen.

Lange Zeit war es sehr aufwändig, Medien wie Videos zu manipulieren. Durch KI-Methoden ist dies heute deutlich einfacher und Fälschungen können mit vergleichsweise wenig Aufwand und Expertise in einer hohen Qualität erstellt werden. Damit ist es potenziell möglich, Desinformationskampagnen durchzuführen, die Öffentlichkeit zu täuschen und den Ruf von Personen zu schädigen. Verschiedene Gegenmassnahmen zum Aufdecken von Fakes werden untersucht, etwa eine verstärkte Aufklärung oder kryptografische Verfahren. Bei letzteren werden Medieninhalte mit einer digitalen Signatur versehen, die Manipulationen verhindern soll.

Aufbau eines Überwachungsstaats

KI-Technologien sind nicht nur immer besser darin, Medieninhalte aufgrund von gelernten Vorbildern neu zu erschaffen, ihre Stärke ist die Erkennung von Mustern. Ob es um das Heulen von Wölfen in den Schweizer Bergen, um Gesichter von Menschen bei Grossveranstaltungen oder um nächtliche Bewegungen auf Spielplätzen geht – eine Software sucht die relevanten Informationen aus riesigen Datenmengen heraus. Damit lassen sich nicht nur Problemfälle schneller aufspüren, auch eine Vorhersage ist möglich, zum Beispiel wo und wann Verbrechen stattfinden werden.

Für die Arbeit der Sicherheitsbehörden ist KI eine Erleichterung, für Datenschützerinnen und Datenschützer ist sie ein Albtraum. Vor allem gegen die biometrische Überwachung des öffentlichen Raums mittels Kameras hat sich Widerstand formiert. Kritiker verweisen auf China, wo solche Massenüberwachung bereits praktiziert wird. In der Europäischen Union wird seit 2021 über eine KI-Verordnung beraten. Sie soll in den Mitgliedstaaten den rechtlichen Rahmen für den Umgang mit KI regeln. Zugleich soll mit der Verordnung festgelegt werden, wofür Sicherheitsbehörden die Technologie nutzen dürfen. Der Schweizer Bundesrat sieht indes noch keinen unmittelbaren Handlungsbedarf.

Ungerechtigkeit wird zementiert

Künstliche Intelligenz, Software, Algorithmen – das klingt technisch, kalt und unnahbar, aber auch neutral, mathematisch und unparteiisch. Doch auch KI kann ungerecht entscheiden oder Ungerechtigkeit erzeugen, monieren Kritikerinnen und Kritiker. Zum einen wird auch die Software hinter der KI von Menschen programmiert und mit bestimmten Daten trainiert, spiegelt damit auch deren Vorurteile und Verzerrungen wider. Zum anderen ist der Zugang zu KI-Technologien weder gratis noch frei. Dahinter stehen Unternehmen, die mit einem Produkt Geld verdienen möchten.

Da KI immer häufiger hinter den Kulissen eingesetzt wird, etwa bei Bewerbungen, Darlehen oder Versicherungen, merken viele Betroffene nicht, dass sie Opfer von Diskriminierung werden. Frauen bemerken zum Beispiel nicht, dass sie bei der Kreditvergabe benachteiligt werden oder dass sogenannte Symptom-Checker-Apps ihre Krankheitssymptome falsch deuten. Menschen mit nicht-weisser Hautfarbe werden von Gesichtserkennungs-Software schlechter wahrgenommen, Personen mit Übergewicht wundern sich, dass ihr Content auf sozialen Plattformen weniger ausgespielt oder sogar gesperrt wird.

Waffensysteme entgleiten menschlicher Kontrolle

Roboter identifizieren und bekämpfen selbständig Ziele, Computer analysieren Bedrohungen und schlagen Strategien vor, Abwehrsysteme erkennen einen Angriff und setzen zum Gegenschlag an, schneller als ein Mensch es je könnte. Das ist die Hintergrundgeschichte des 80er-Actionfilms «Terminator», es kommt dem heutigen Potenzial autonomer Waffensysteme aber bereits ziemlich nahe. Schon seit Jahren warnen Experten, dass militärische Konflikte sich durch KI-Einsatz verselbstständigen könnten. Gegnerische Kräfte könnten falsch eingeschätzt und automatisierte Vergeltungsschläge ausgelöst werden. Zudem besteht die Gefahr, dass Roboterwaffen durch Cyberangriffe gekapert und gegen Zivilisten eingesetzt werden.

KI-Wissenschaftler lehnen aus diesen Gründen den Einsatz von KI-Systemen in militärischen Zusammenhängen ab. Rückgängig machen lasse sich der Umstand aber nicht mehr, dass auch in Waffensystemen KI enthalten ist. Deshalb sei eine internationale Regulierung der Rüstung wichtig. Hier gebe es aber noch viel zu tun: Vorstösse zur Ächtung autonomer Waffensysteme auf internationaler Ebene kommen kaum voran. Staaten wie China, die USA, Russland, Israel und Indien – aber auch die Schweiz – sind gegen ein Verbot von «Killerrobotern».

Cyberbetrug mit gefälschten Identitäten

Sogenannte «Deepfakes», also mit den Mitteln künstlicher Intelligenz hergestellte Imitate von echten Personen, lassen sich prinzipiell von jedem Mensch anfertigen. Bereits wurde von ersten Fällen berichtet, bei denen Schockanrufer die Stimme von Familienangehörigen mit einer Stimmen-KI nachmachten, um ihre Opfer zu erpressen. Smarte Textgeneratoren wie «ChatGPT» können real existierende Personen oder Organisationen täuschend echt imitieren. Cyberkriminelle könnten so einen Chatbot nutzen, um vermeintlich echte Nachrichten eines Freundes oder Unternehmens zu senden, nach sensiblen Informationen zu fragen oder Zugang zu einem Nutzerkonto zu erlangen.

Um dem digitalen Diebstahl von Identitäten einen Riegel zu schieben, werden verschiedene Massnahmen vorgeschlagen. Schweizer Forschende arbeiten zum Beispiel an einer Software, die Deepfakes erkennen soll. Auch sie macht sich KI-Technologie zunutze, aber diesmal zur Unterscheidung von Original und Imitat. Neben solchen technischen Verfahren kann man sich durch einen sorgfältigen Umgang mit den eigenen Daten vor Identitätsdiebstahl schützen. Betriebssysteme und Software sollten stets auf dem aktuellen Stand sein. Passwörter sollten für jeden Account einzigartig und – wenn überhaupt – sicher aufbewahrt werden. Und schliesslich sollte man sehr bewusst entscheiden, welche Informationen man von sich im Internet öffentlich macht – und welche nicht.

Wo siehst du die grössten Möglichkeiten und Gefahren von künstlicher Intelligenz? Schreib es uns in die Kommentare!

Du willst keine News mehr verpassen? Hol dir jetzt die Today-App:

veröffentlicht: 9. Mai 2023 20:50
aktualisiert: 9. Mai 2023 20:50
Quelle: Today-Zentralredaktion

Anzeige
zueritoday@chmedia.ch