Fortschritt und Fehltritt – diese Dinge liegen bei der Künstlichen Intelligenz nah beieinander. Davon kann auch Sibylle Peuker, User Experience Architect, ein Lied singen. Weshalb KI die Menschen dennoch glücklich machen kann, erzählt sie im Interview.
Sibylle Peuker, Sie haben ursprünglich Mathematik studiert, überzeugen nun jedoch mit einer sehr praxisorientierten Arbeitsweise. Stimmt es, dass sie selber einige Tage in einem Callcenter sitzen, um zu erfahren, wie die Angestellten dort arbeiten? Oder mit einem Postboten unterwegs sind, um zu sehen, wie er den Scanner einsetzt?
Ja, das stimmt. Ursprünglich habe ich Mathematik und Informatik studiert, inzwischen aber sozusagen die «Seiten gewechselt». Ich habe schnell gemerkt, dass wir die Menschen nicht ausser Acht lassen dürfen, wenn wir technologische Systeme entwickeln. Die Technik funktioniert nur dann gut, wenn sie der Mensch auch bedienen kann.
Was heisst das für Ihre Arbeit als User Experience Architect?
Um eine Applikation zu entwickeln, muss ich wissen, wie die Menschen damit arbeiten. Welche Aufgabe wollen sie damit genau lösen? Wie ist die Herangehensweise? Welches Hintergrundwissen benutzen sie? Was kommunizieren sie mündlich statt in der App? Welche Hindernisse oder Fehler gibt es und wie könnte man sie vermeiden? Das alles muss ich wissen, damit ich eine gute neue Lösung entwickeln kann. Gleichzeitig macht es meine Arbeit auch so spannend, weil ich immer wieder neue Arbeitsplätze und Menschen kennenlernen kann.
Viele denken ja, Mathematik und Informatik sind sehr trockene Materien. Sie beweisen also das Gegenteil.
Es hat mir schon immer Spass gemacht, mit Menschen zusammenzuarbeiten. In meiner jetzigen Rolle arbeite ich ja nicht mehr als Mathematikerin – doch das Hintergrundwissen ist sehr praktisch. Gerade im Hinblick auf die Algorithmen bin ich immer wieder froh, darauf zurückgreifen zu können.
Wann nutzen Sie denn KI besonders gerne im Alltag?
Das ist schwierig zu beantworten – denn es gibt verschiedene Definitionen, was KI genau ist. Im allgemeinen Sprachgebrauch steht der Begriff für verschiedene Sachen. Die meisten verbinden KI derzeit wohl mit ChatGPT oder damit, Bilder und Videos künstlich zu erstellen. Um auf Ihre Frage zurückzukommen: Ich bräuchte eigentlich eine Lesebrille und nutze deshalb oft und gerne den Sprachassistenten. Manchmal ist es einfacher, eine Nachricht zu diktieren oder sie vorlesen zu lassen, als umständlich die Brille zu suchen (lacht).
Und wie sieht es im Hinblick auf ChatGPT aus? Nutzen Sie das Tool?
Manchmal nutze ich es für meine Texte und immer häufiger als «Gesprächspartner», um Ideen zu generieren oder um mir andere Sichtweisen aufzeigen zu lassen. Ich sehe ChatGPT als eine «neue Praktikantin» an. Sie sprüht vor Ideen, aber längst nicht alle sind zu gebrauchen: Einige sind spannend, andere wiederum totaler Quatsch. Für mich ist es ein hilfreiches Tool, aber nur in Kombination mit meiner eigenen Arbeit und meinem eigenen Hintergrundwissen.
Sie bringen es auf den Punkt. KI ist bei vielen Leuten mit Unsicherheit behaftet, weil auch beispielsweise viele Fake-News im Umlauf sind. Sie führen in Ihrem Referat am Inspirations- Day aus, dass die Probleme oft vermeidbar wären. Aber wie?
Die Leute sind oftmals vorsichtig, weil sie von schlechten Beispielen gehört oder bereits selbst Erfahrungen damit gemacht haben. Beispielsweise mit automatischen Abfragen in einer Telefonwarteschleife, wenn das eigene Anliegen gar nicht verstanden wird. In den Medien liest man oft von Beispielen, wo Menschen aufgrund eines Algorithmus benachteiligt wurden, wie beispielsweise im Jahr 2018 bei Amazon.
Was ist passiert?
Amazon entwickelte einen Algorithmus, um den Bewerbungsprozess zu automatisieren und zu verbessern. Ziel war es, die besten Kandidaten für technische Positionen im Unternehmen zu finden. Der Algorithmus wurde darauf trainiert, Bewerbungen zu analysieren und zu bewerten, basierend auf Daten von Bewerbungen, die über einen Zeitraum von zehn Jahren eingereicht wurden. Jedoch stellte sich heraus, dass der Algorithmus voreingenommen war. Er bevorzugte männliche Bewerber und diskriminierte Frauen, obwohl im Lebenslauf kein Geschlecht explizit angeben war.
Wie ist das möglich?
Dies lag daran, dass die Trainingsdaten hauptsächlich von männlichen Bewerbern stammten, da die Technologiebranche historisch gesehen männlich dominiert ist. Der Algorithmus lernte also, dass männliche Bewerber bevorzugt eingestellt wurden und bewertete dementsprechend Bewerbungen von Frauen schlechter. Zum Beispiel bestrafte der Algorithmus Lebensläufe, die Begriffe wie «Frau» enthielten, beispielsweise «Frauen-Fussball-Team». Als dieses Problem entdeckt wurde, versuchte Amazon, den Algorithmus anzupassen. Das hat jedoch nicht funktioniert, weshalb das Projekt schliesslich 2017 aufgegeben wurde.
Wo liegt das Problem begraben?
Dieses Beispiel zeigt deutlich, wie wichtig es ist, bei der Entwicklung von KI-Systemen auf die Qualität und Diversität der Trainingsdaten zu achten, um Verzerrungen und Diskriminierung zu vermeiden. Wenn der Algorithmus mit Infos von erfolgreichen Personen aus der Vergangenheit gefüttert wird, zementiert man den Status Quo, statt eine schöne, neue Zukunft zu begünstigen, in der auch viele Frauen in der IT arbeiten. Oft werden solche Probleme mit den Trainingsdaten aber gar nicht erkannt. Menschen, die das System benutzen, können dann gar nicht genau wissen, was das System wirklich kann. Deshalb ist es auch oft schwierig, einem KI-System zu vertrauen.
Also im Sinne von «Vertrauen ist gut, Kontrolle besser»?
Ja, aber das kommt auch auf den Einsatzbereich an. Ein KI-System, das mir passende Filme vorschlägt, ist sicher weniger kritisch, als eines, das einer Ärztin hilft, auch seltene Krankheiten zu erkennen. Soll sie so behandeln, wie sie es bisher bei den vorliegenden Symptomen gemacht hat oder lieber dem System glauben, dass es sich um eine seltene Krankheit handelt, die ganz anders behandelt werden muss?
Was muss denn gemacht werden, damit Menschen den neuen Technologien wirklich vertrauen können?
Dafür muss man bei jedem System erst verstehen, wie es eingesetzt wird. Dazu reicht es meistens nicht, sich auf Zahlen zu verlassen. Ich rede viel mit Menschen, beobachte sie bei der Arbeit und habe inzwischen einiges Wissen darüber, wie Menschen sich verhalten und Entscheidungen treffen. Dann ist die Herausforderung, die Zusammenarbeit zwischen Mensch und Maschine so zu gestalten, dass man sich gegenseitig ergänzt und die Fähigkeiten von beiden zusammenspielen. Dabei ist sowohl zu viel als auch zu wenig Vertrauen hinderlich. Wie kann ich beispielsweise der Ärztin zeigen, wie das System auf sein Ergebnis gekommen ist, so dass sie selbst die Möglichkeit hat, dieses zu hinterfragen? Da werden wir in den nächsten Jahren sicher noch viel dazulernen und immer bessere Lösungen entwickeln.
Das tönt kompliziert und aufwendig. Dennoch sagen Sie, dass Menschen mit Hilfe von KI glücklicher werden können und sogar Leben gerettet werden kann.
Den Satz habe ich vor vielen Jahren gesagt. Das ist meine Motivation, mich mit User Experience, also insbesondere mit der Verbesserung der Benutzerfreundlichkeit, zu beschäftigen. Ich glaube, wir sind alle oft in Situationen, in denen wir die Technologie verfluchen, mit der wir arbeiten müssen und die uns eigentlich unterstützen soll. Wenn die Technologie mühsam und schwer zu verstehen ist, macht man viel mehr Fehler. Mit KI kann man Menschen wirklich Arbeit abzunehmen und die Ergebnisse sicherer zu machen. Das gelingt aber nur, wenn wir die KI-Produkte und Services umsichtig und mit Blick auf die Menschen entwickeln, die sie benutzen sollen – und vor allem die nicht vergessen, die davon betroffen sind. Das sind unter anderem der Patient oder die Bewerberin, die ja nicht die Hauptnutzer sind, aber trotzdem am stärksten betroffen.
Und wie wird ein Mensch durch KI glücklicher?
Da gibt es viele Möglichkeiten: Wenn mein Hausarzt mit Hilfe von KI eine sehr seltene Krankheit bei mir entdeckt, die er selbst noch nie gesehen hat und mein Leben dadurch rettet, damit ich rechtzeitig Zugang zur nötigen Therapie bekomme. Inzwischen können ja einige Krankheiten schon durch die Technologie, die wir am Körper tragen, entdeckt werden, wenn sich zum Beispiel mein Gangmuster selbst unbemerkt verändert. Und natürlich liegt viel Potential zum glücklicher werden darin, dass wir Technologie nutzen können, um uns den Alltag zu erleichtern, statt ihn zu verkomplizieren.
Gerade ältere Menschen sind von der Technik häufig ausgeschlossen. Was müsste gemacht werden, um auch sie «mit ins Boot zu holen»?
Ich würde das nicht nur anhand des Alters festmachen. Viele Menschen über 60 sind zwar nicht mit der Technologie gross geworden, sind aber durch ihren Beruf oft sehr erfahren, beispielsweise im Umgang mit E-Mail oder Videotelefonie. Sie nutzen dann auch privat, was sie aus dem Berufsleben kennen, und sind offen für Neues. Ausgeschlossen sind oft auch Kinder, die noch kein Smartphone haben, Menschen, die keine Kreditkarte haben (wollen) und Menschen mit körperlichen oder kognitiven Einschränkungen. Schon heute funktionieren gewisse Services nur noch digital, zum Beispiel die Vermietung von E-Scootern, aber auch, mein Kind für einen Ferien-Kurs anzumelden. Es müssen sehr viele Schrauben gedreht werden, damit möglichst viele Menschen mitmachen können.
Was bedeutet das für Ihre Arbeit?
Niemanden auszuschliessen, ist oft gar nicht möglich. Wir möchten ja gar nicht, dass sich schon kleine Kinder einen E-Scooter ausleihen können. Wir helfen unseren Auftraggebern dabei, sich bewusst zu werden, wen sie ausschliessen, denn oft passiert das aus Versehen. Zum Beispiel der Seifenspender, der nur funktioniert, wenn eine Person mit heller Haut die Hand darunter hält. Jede Firma muss sich überlegen, wen seine Technologie ansprechen soll. Wir zeigen unter anderem immer auf, was man tun muss, damit auch blinde Menschen den Service bedienen können. Eine technisch versierte blinde Person kann in einem Online-Shop oft viel einfacher einkaufen als in einem Supermarkt. Dazu muss aber die Shopping App so programmiert sein, dass ein Screenreader alles vernünftig und logisch sortiert vorlesen kann. Oder vielleicht hat meine App ganz tolle Funktionen, die aber nur bei ganz neuen Handys funktionieren. Ist das in Ordnung, wenn wir Menschen mit älteren Handys von der Benutzung ausschliessen? Da auch immer mehr Services der öffentlichen Hand digitalisiert werden, wird es immer wichtiger, dafür zu sorgen, dass möglichst viele Menschen Zugang dazu haben. Andererseits müssen wir uns auch darüber Gedanken machen, wie wir verhindern, dass die falschen Menschen unsere Services benutzen.
Was meinen Sie damit?
Beispielsweise beim Apple AirTag, einem Produkt, das entwickelt wurde, um seinen Schlüsselbund oder Koffer wiederzufinden. Das ist ein sehr benutzerfreundliches Produkt, das aber auch sehr gerne von Stalkern benutzt wird, beispielsweise, um es unerkannt der Ex-Freundin unter das Auto zu kleben. Darüber gab es gleich nach der Markteinführung viele Beschwerden. Mal im Ernst: Das hätte man sich auch vorher überlegen und vielleicht schon während der Produktentwicklung gegensteuern können. Dazu ist es wichtig, von Beginn an mehr Leute an der Entwicklung teilhaben zu lassen. Je diverser die Erfahrungen der Personen sind, die bei der Entwicklung dabei sind, umso früher wird erkannt, was potenziell schief gehen kann.
Im Bereich KI stehen wir noch am Anfang. Was denken Sie: Wie könnte sich die Technologie entwickeln?
Wie heute vom Internet wird unser Alltag in Zukunft sicher von vielen Produkten und Services geprägt sein, die KI verwenden. Die Entwicklung von KI-Produkten ist heute noch oft technisch getrieben. Unter dem Stichwort «Digitale Ethik» gibt es aber immer mehr Bemühungen, Technologie so zu gestalten, dass sie für viele nützlich ist und niemandem schadet. Dabei gibt es viele nicht-technische Probleme zu lösen. Wir alle gemeinsam müssen daran arbeiten, dass das gut kommt.
Wo sollen wir da anfangen?
Es gibt viele Hebel – und einer ist sicher die Schule. Tools wie ChatGPT sind toll, aber auch bedenklich. Man muss sich darüber bewusst sein, dass die Antworten, die man erhält, nicht immer richtig sind. Das lernt man heute schon oft in der Schule. Aber für die Zukunft: Viele Berufe werden sich ändern, und wir müssen uns fragen, was wir den Kindern beibringen sollen. Wie sinnvoll ist die Trennung in einzelne Fächer wie Mathematik, Deutsch, Biologie, wenn wir doch Probleme lösen müssen, die viel umfassender sind und viele Fächer vereinen? Es wäre super, wenn in der Schule mehr kritisches Denken, komplexes Problemlösen und Empathie für Menschen gefördert werden, die andere Fähigkeiten und Erfahrungen haben als man selbst. Statt Konkurrenz zu fördern, müsste ein grösserer Fokus darauf gelegt werden, gemeinsam etwas zu erreichen und Fähigkeiten von unterschiedlichen Menschen zu verbinden. Wir Erwachsenen müssen mit gutem Vorbild vorangehen, wenn wir wollen, dass die nächste Generation gemeinsam Probleme löst, so dass wir auch noch im Alter gut leben und mitmachen können.
(Bilder: Depositphotos/pd)
Manuela Bruhin (*1984) ist Redaktorin von «Die Ostschweiz».
Hier klicken, um die Mobile App von «Die Ostschweiz» zu installieren.