Künstliche Intelligenz kann bestehende Vorurteile reproduzieren. Um die Potenziale der Anwendungen dennoch nutzen zu können, sollten sich Healthcare- und Pharmamarketing in einem bewussten Umgang mit KI üben.

Auf der diesjährigen Digitalkonferenz re:publica berichtete Netzjournalistin Barbara Wimmer von einer persönlichen Erfahrung mit Künstlicher Intelligenz (KI). Sie hatte eine KI-Anwendung mit ganz normalen, alltäglichen Bildern von sich gefüttert und wollte auf dieser Basis Porträtfotos von sich erzeugen lassen. Das Ergebnis: bis ins Absurde sexualisierte Bilder, um die sie keinesfalls gebeten hatte.

Ihre Neugier war geweckt: Sie speiste noch einmal Bilder von sich selbst in die KI-Anwendung ein und bat um Porträts. Diesmal allerdings gab sie an, ein Mann zu sein. Prompt fielen die Ergebnisse vollkommen anders aus: Die KI porträtierte die Journalistin mal erfolgreichen im seriösen Business-Look, mal als kantigen Rockstar. Was war da los?

KI spiegelt, was es in der Welt gibt

Mit ihrem persönlichen Experiment war die Journalistin auf eine noch nicht gelöste Herausforderung im Umgang mit Künstlicher Intelligenz gestoßen: KI reproduziertVorurteile. Geschlechterklischees, Ableismus, Rassismus, LGBTQ+-Feindlichkeit – alles, was es draußen in der Welt gibt, kann sich potenziell in den Erzeugnissen von KI spiegeln und etwa zu Diskriminierung führen.

Das wurzelt bereits in der Entwicklung der KI-Tools – Entwickler:innen sind eben auch nur Menschen und unterliegen gewissen Vorurteilen und kognitiven Verzerrungen (Cognitive Bias). Hinzu kommt, dass die Daten, mit denen die KI gefüttert und trainiert wird, Bias enthalten können.

Ethikrat: „Scheinbar neutrale Technologien“

„Datenbasierte KI-Systeme lernen auf Basis vorhandener Daten. Resultierende Prognosen und Empfehlungen schreiben somit die Vergangenheit in die Zukunft fort, wodurch Stereotype, aber auch bestehende gesellschaftliche Ungerechtigkeiten durch den Einbau in scheinbar neutrale Technologien reproduziert und sogar verstärkt werden können“, schreibt der deutsche Ethikrat in einer Stellungnahme zu den Herausforderungen durch Künstliche Intelligenz (2023).

Dem Ethikrat zufolge gibt es nicht nur in der Medizin Beispiele dafür, wie verzerrte Trainingsdaten zu diskriminierenden Ergebnissen bei der KI-basierten Beurteilung von Patient:innen führen können. Auch im Kontext von Sozialen Medien und Suchmaschinen können algorithmische Systeme demnach gesellschaftliche Stereotype und Ungerechtigkeiten reproduzieren und zu diskriminierenden Verzerrungen führen. Damit müssen sich Healthcare- und Pharmamarketing auseinandersetzen, wenn sie marketing- und kommunikationsrelevante KI-Tools nutzen wollen.

Das Problem aus verschiedenen Perspektiven adressieren

Was also tun? Aktuell nähern sich verschiedene Akteur:innen dem Problem von unterschiedlichen Seiten. So will die Europäische Union mit dem KI-Gesetz eine erste Regulierung der künstlichen Intelligenz schaffen. Das Ziel: Die in der EU eingesetzten KI-Systeme sollen sicher, transparent, nachvollziehbar und umweltfreundlich sein – und nicht diskriminieren.

Auch auf Anbieterseite gibt es Bemühungen, möglichst Bias-freie Künstliche Intelligenzen zu schaffen. Microsoft beispielsweise hat sich selbst sechs ethische Prinzipien für die Entwicklung und den Einsatz von KI gesetzt. Prinzip Nummer 1: die Diskriminierungsfreiheit.

Healthcare und Pharma: auch Anwender:innen sind gefragt

Ob als kreativer Sparringspartner, bei der Erstellung von Customer Journeys, in der Kampagnenplanung oder bei der Generierung von Text- und Bildinhalten: KI-Tools bieten dem Healthcare- und Pharmamarketing viele und vielversprechende Einsatzmöglichkeiten.

Damit die Anwendung von Tools wie ChatGPT, Midjourney und Co. trotz Bias-Herausforderung zum Erfolg führt, können Nutzer:innen derzeit vor allem eins tun: ihre Sensibilität für die Problematik schärfen – und einen reflektierten Umgang mit den Tools pflegen.

Zwei Stellschrauben, mit denen Anwender:innen den Bias in KI-Inhalten reduzieren können:

  • Im Prompting: Eine Bias-minimierende Arbeit mit KI-Tools fängt schon beim Prompten an, sprich mit den richtigen Fragestellungen und Eingaben. So ist es zum Beispiel möglich, die Anwendungen von vornherein um diverse, inklusive, nicht-diskriminierende Inhalte zu bitten und so dafür zu sorgen, dass die Erstellung der Contents direkt in einem sensibilisierten Kontext stattfindet.
  • In der Überprüfung der Inhalte: Wer auf KI-generierten Content setzt, sollte die Ergebnisse bewusst auf enthaltene Vorurteile oder Verzerrungen abklopfen. Je diverser das Team aufgestellt ist, das auf die Inhalte blickt, desto besser: Verschiedene Perspektiven und Erfahrungen helfen, mögliche Bias zu identifizieren und auszuräumen.

Fazit

Die KI bietet dem Healthcare- und Pharmamarketing große Potenziale – um sie zu heben, braucht es einen kritischen, menschlichen Blick. Wer Künstliche Intelligenz verwenden will, muss eine Sensibilität dafür entwickeln, dass Vorurteile oder Verzerrungen einfließen können. Mit diesem Wissen gilt es KI bewusst zu steuern und ihre Erzeugnisse zu prüfen.


Dieses Thema könnte Sie auch interessieren: https://www.healthrelations.de/ki-und-vorurteile-dmea/