Der Zeigefinger einer Roboterhand sowie einer menschlichen Hand berühren sich. Um die beiden Hände herum befinden sich bunte Sprechblasen mit Frage- und Ausrufezeichen.

Was hat KI mit mir zu tun?

Ob Routen bei Google Maps, Instagram-Feed oder Serien-Tipps bei Netflix: Die Ergebnisse von KI begegnen uns an vielen Stellen im Alltag. Schon heute übertreffen Computer die Fähigkeiten von Menschen dort, wo große Datenmengen interpretiert werden müssen. Einen Überblick über die Einsatzfelder von Künstlicher Intelligenz bietet diese Seite.

Gesundheit: KI in der Medizin

Von Apps zur Schlafüberwachung bis hin zur Früherkennung von Tumoren durch automatisierte Bildanalysen: KI ist bereits heute ein fester Bestandteil des Gesundheitssektors. Die Analyse großer Datenmengen macht es möglich, gefährliche Veränderungen frühzeitig zu erkennen. Das zeigt ein Beispiel aus Japan. Dort konnte mithilfe von Künstlicher Intelligenz einer an Leukämie erkrankten Frau das Leben gerettet werden. Ein Computer führte die komplexen Daten von Patientin und Forschung innerhalb kürzester Zeit zusammen und fand so rechtzeitig eine passende Behandlung – Ärztinnen und Ärzte hätten dafür Tage gebraucht und damit das Leben der Patientin riskiert.

Allerdings wirft der Einsatz von KI im Gesundheitswesen ethische und rechtliche Fragen auf. Denn bei Gesundheitsdaten handelt es sich um höchst sensible Informationen. Um KI einsetzen zu können, müssen diese oft weitergegeben werden, zum Beispiel an Unternehmen, die bestimmte Dienstleistungen übernehmen, wie die Speicherung und Auswertung der Daten. Wenn internationale Konzerne oder Unternehmen in verschiedenen Ländern beteiligt sind, ist schwer nachvollziehbar, welche Regelungen zum Schutz der Daten greifen.

Hinzu kommen Bedenken in Bezug auf Verantwortung und Transparenz, gerade wenn es um Entscheidungen über Leben und Tod geht. Viele Fachleute betonen deshalb, dass KI in der Medizin nur als Unterstützung für Ärztinnen und Ärzte eingesetzt werden sollte.

zum Inhalts-Überblick

Sicherheit: KI und autonomes Fahren

Autofahren ohne Lenkrad, Gaspedal und Bremse? Das soll in Zukunft mit selbstfahrenden Autos möglich sein. Sogenanntes autonomes Fahren ist nur mithilfe von KI möglich. Sie sorgt dafür, dass Sensordaten zu Verkehr, Hindernissen auf der Fahrbahn oder Wetter zuverlässig miteinander verknüpft werden. Forscherinnen und Forscher erhoffen sich dadurch einen besseren Verkehrsfluss sowie weniger Unfälle. Denn Computer werden nicht müde oder lassen sich etwa vom Smartphone ablenken. Ein weiterer Vorteil: Passagiere könnten die Fahrtzeit besser nutzen.

Doch KI am Steuer birgt Risiken. Auch beim autonomen Fahren kann es zu Fehlentscheidungen kommen. Was passiert beispielsweise, wenn ein Fahrzeug einem Kind ausweichen muss, das über die Straße läuft, beim Ausweichmanöver aber andere Menschen erfasst? Hier stellt sich die Frage, nach welchen Kriterien die Künstliche Intelligenz Unfallfolgen bewertet. Fraglich ist auch, ob die komplexen Systeme ausreichend prüfbar sind, um Schwachstellen ausfindig zu machen und schwerwiegende Folgen vermeiden zu können. Hier muss überdies geklärt werden, wer für mögliche Folgen haftet.

zum Inhalts-Überblick

Gerechtigkeit: Menschliches Verhalten auswerten

In manchen Branchen wird Künstliche Intelligenz dazu genutzt, Schlüsse über Menschen zu ziehen, wie etwa bei der Vergabe von Jobs oder Krediten. Ein bekanntes Beispiel sind sogenannte Scoring-Verfahren, wie das der Schufa. Das Unternehmen bewertet die Kreditwürdigkeit von Menschen und vergibt dafür eine Punktzahl. Dazu wertet eine KI personenbezogene Daten aus, zum Beispiel bisherige Ratenkäufe und Kredite. Wie die KI genau funktioniert, gibt die Schufa allerdings nicht preis. Es wird vermutet, dass auch der Wohnort und die Zahl der Umzüge ausgewertet werden, und dass viele Menschen unverschuldet eine schlechte Bewertung erhalten.

Auf den Schufa-Score stützen sich Banken, Mobilfunkunternehmen, Onlinehandel und Vermieterinnen und Vermieter. Wenn die Bewertung nicht gut ist, vergeben etwa Banken keinen Kredit. So wollen sie Risiken durch Zahlungsausfälle verringern.

Eine solche Einschätzung gründet allerdings allein auf statistischen Daten und typischen Mustern. Bei der Betrachtung individueller Fälle sind solche Verfahren fehleranfällig und können Menschen diskriminieren, oft aufgrund von Merkmalen wie Geschlecht, Herkunft und Alter. Das zeigt ein Beispiel aus Österreich. Dort sollte eine KI des Arbeitsamtes die Chancen arbeitsloser Menschen bewerten, in Zukunft einen Job zu finden. Die KI schätzte das Risiko für Langzeitarbeitslosigkeit bei Frauen, alten Menschen und Migrantinnen und Migranten besonders hoch ein. Sie erhielten aufgrund vermeintlich schlechter Aussichten seltener Angebote wie Coachings oder Weiterbildungen. Solche Beispiele zeigen, dass KI nicht wertfrei entscheidet, sondern diskriminierendes Verhalten reproduzieren kann.

Mehr dazu siehe „Du bist raus!“ – Diskriminierung durch KI

zum Inhalts-Überblick

Partizipation: Biometrie und Gesichtserkennung

Ob beim Entsperren des Smartphones oder bei der Passkontrolle am Flughafen: Technologien zur automatischen Gesichtserkennung gehören längst zum Alltag. Dabei werden verschiedene Punkte im Gesicht gemessen und miteinander abgeglichen, wie etwa der Abstand der Augen oder die Form der Lippen. Biometrische Verfahren können dabei helfen, die Identität einer Person innerhalb weniger Sekunden zu bestätigen. Das spart Zeit und Personal, etwa am Flughafen.

Ein entscheidender Aspekt bei der automatischen Gesichtserkennung ist die Kontrolle über das eigene Bild. Es werden immer wieder Fälle bekannt, in denen Bilder von Gesichtern ohne ausdrückliche Zustimmung gespeichert werden oder in die Hände von Dritten geraten. Für Kritik sorgte zum Beispiel ein Einsatz der Polizei in London. Sie filmte feiernde Menschen auf dem Notting Hill Carnival mit hochauflösenden Kameras. Anschließend glich eine Erkennungssoftware die Bilder mit einer Liste gesuchter Personen ab. Dabei kam es immer wieder auch zur Überprüfung unschuldiger Personen. Verfahren wie diese berühren unser Recht auf Anonymität im öffentlichen Raum und verstoßen schnell gegen geltende Datenschutzregeln.

Mehr dazu siehe Unternehmen sammeln wegen KI noch mehr Daten

zum Inhalts-Überblick

Öffentlichkeit: In den Sozialen Medien

Neue Sportschuhe, süße Katzenvideos, Selfies am Strand: Soziale Medien wissen genau, was Nutzerinnen und Nutzer sehen wollen. Sogenannte Algorithmen bestimmen, wer was wann zu sehen bekommt. Sie sind darauf ausgerichtet, dass Userinnen und User möglichst viel Zeit auf der Plattform verbringen. Algorithmen sorgen auch dafür, dass personalisierte Werbung eingeblendet wird. Darauf beruhen die Geschäftsmodelle der großen Plattformen wie Instagram, TikTok, YouTube und Co. Wie ihre Algorithmen genau funktionieren, geben die Unternehmen allerdings nicht preis.

Weil die Algorithmen dafür sorgen sollen, dass Menschen auf die Inhalte reagieren, pushen sie bestimmte Themen und Meinungen. Was Emotionen schürt oder für Aufregung sorgt, erhält so auf den Plattformen eine größere Reichweite als andere Inhalte. Das kann zu einer Verzerrung der öffentlichen Meinung beitragen. Denn Userinnen und User interagieren vor allem mit zugespitzten Aussagen. Das kann zur Polarisierung von Debatten beitragen.

Mehr dazu siehe KI verstärkt Polarisierung von Meinungen

zum Inhalts-Überblick

Exkurs: Wird unsere Arbeit überflüssig?

KI schreibt Texte, malt Bilder, beantwortet Fragen und produziert Podcasts. Manchmal lässt sich auf den ersten Blick gar nicht so leicht erkennen, ob Mensch oder Maschine die Urheber sind. Eine kleine Galerie von KI-Erzeugnissen.

KI malt Bilder

Ein Astronaut spielt eine Partie Schach: Das Bild hat die KI-Software „Dall-E 2“ erstellt, die im Internet öffentlich zugänglich ist. Nutzerinnen und Nutzer können dort beliebige Stichworte in ein Textfeld eingeben. Anschließend erzeugt Dall-E ein entsprechendes Bild dazu. Welche Bildideen zu welchen Worten passen, hat die KI mithilfe von Bildern aus dem Internet gelernt.

KI macht Podcasts

Die Fähigkeiten von Künstlicher Intelligenz reichen noch weiter. So hat eine KI ein fiktives Interview zwischen dem Podcast-Macher Joe Rogan und dem 2011 verstorbenen Apple-Gründer Steve Jobs erstellt und daraus einen Podcast gemacht. Für das Interview wurde die KI mit Informationen aus Jobs‘ und Rogans Leben trainiert. Auf dieser Grundlage konnte die KI authentisch wirkende Fragen und Antworten simulieren. Die Stimmen wurden mithilfe des KI-Sprachgenerators Play.ht nachgebildet.

KI schreibt Texte

Was ist eigentlich ein Podcast? Auch darauf weiß KI eine Antwort: „Ein Podcast ist eine digitale Audiomedien-Datei, die über das Internet verteilt wird. Die Datei kann entweder heruntergeladen oder gestreamt werden und beinhaltet in der Regel eine Folge von Audio-Inhalten. Diese Inhalte können unter anderem Diskussionsrunden, Hörspiele, Interviews, Vorträge oder auch Musik sein.“ Dieser Textabschnitt wurde mithilfe eines KI-Textgenerators erzeugt.

Das Programm Chat GPT der Stiftung OpenAI macht bereits Schlagzeilen, da es besonders beeindruckende Ergebnisse liefert. Über ein Chatfenster kann mit der KI interagiert und ihr Fragen gestellt werden. Aber Chat GPT findet nicht nur Antworten auf alle möglichen Fragen, sondern es kann auch programmieren oder Lieder schreiben. Dabei greift das Programm auf ein sehr großes Allgemeinwissen zurück und wurde schon als Konkurrenz zu der Suchmaschine Google ins Spiel gebracht.

Kann KI alles?

Die Beispiele zeigen, dass Künstliche Intelligenz bereits heute in vielen Bereichen verblüffende Ergebnisse erzielt. Viele Menschen äußern deshalb Bedenken, dass KI in Zukunft ganze Berufe überflüssig machen könnte. Allerdings gibt es immer noch zahlreiche Tätigkeiten, die nicht von Maschinen übernommen werden können, das gilt vor allem für leitende, beratende oder kreative Aufgaben.

Wird mein Job in Zukunft von Robotern ausgeführt? Der sogenannte Job-Futuromat des Instituts für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit wagt eine Prognose. Mach den Test!