Zum Hauptinhalt springen
Maschinen und Moral: Wie sieht Ethik in der KI aus?
Technologie

Maschinen und Moral: Wie sieht Ethik in der KI aus?

Michaela Regneri erklärt in ihrem Gastbeitrag, warum wir Menschenprobleme lösen müssen und keine Maschinenprobleme.

Lesedauer: 1 Minute
Vielfältige Debatten über digitale Ethik und künstliche Intelligenz (KI) begleiten uns schon über 20 Jahre. Auch bei OTTOs Codingcamp der developHER, und der KI-Konferenz MAIN Session, wurde dazu zwei Tage lang diskutiert, gelehrt, gelernt und ausgetauscht. Ich selbst begrüße diese Aufmerksamkeit für das Thema digitale Verantwortung sehr – obwohl ich „KI-Ethik“ für Etikettenschwindel halte. Aber der Reihe nach

Was macht KI-Ethik so speziell?

KI-Anwendungen sind mittlerweile längst in unserer Gesellschaft angekommen, sei es als Navigationsgeräte, Sprachassistent*innen, Suchmaschinen oder Empfehlungen beim Online-Shopping. Natürlich diskutieren wir mehr über Themen, die uns alle betreffen. Künstliche Intelligenz scheint hier aber heftigere Debatten zu wecken als andere Themen – vielleicht, weil etwas Intelligentes, Selbstständiges in unserem Denken immer auch einen moralischen Maßstab braucht. Tatsächlich hat KI das Potential, gesellschaftliche Entwicklungen zu beschleunigen und zu verändern. Und weil mit so großer Macht große Verantwortung einhergeht, ist es wichtig, den Einsatz von KI verantwortlich zu gestalten. Die Frage ist nur: Wie kommt die Moral in die Maschine? Und welche Moral ist überhaupt die „richtige“?

Es wird auch niemand widersprechen, dass wir im digitalen Zeitalter viel in Datenschutz und Informationssicherheit investieren müssen, eben weil Daten zu einem unserer wichtigsten und präsentesten Rohstoffe geworden sind

Wie muss eine KI-Ethik aussehen?

Ich halte es hier mit all denen, die klar sagen, dass es eigentlich keine digitale Ethik geben kann – es kann nur Ethik geben, und ihre Übertragung auf die digitale Welt. Dementsprechend gibt es auch in den meisten ethischen Fragestellungen rund um künstliche Intelligenz kaum Uneinigkeit: Natürlich soll eine KI keinen Rassismus verbreiten, und abgesehen von ethischen Fragen geht Bias auch oft mit schlechter Qualität einher. Und natürlich ist Ressourcenschonung durch Datensparsamkeit immer besser, als unnötig viele Rechenzentren zu beschäftigen. Es wird auch niemand widersprechen, dass wir im digitalen Zeitalter viel in Datenschutz und Informationssicherheit investieren müssen, eben weil Daten zu einem unserer wichtigsten und präsentesten Rohstoffe geworden sind. Selbst darüber, dass digitale Kompetenzen in Schulen und Studiengängen repräsentiert werden müssen, wird kaum gestritten. Unklar bleibt aber, wie man gewährleisten kann, dass eine künstliche Intelligenz immer in unserem Sinne handelt und niemandem schadet.

Wie kommt die Moral in die KI?

Argumente wie „diverse Teams produzieren faire KI“ sind schwierig, sie verschieben das Problem zu den Entwickler*innen und lassen sie mit Design und Anwendung fairer Algorithmen alleine. KI lernt aber aus Daten von uns allen – also sind wir alle für sie verantwortlich. Denn genau das tut KI: sie lernt Regeln aus dem, was Menschen tun. Ob das dann ethisch korrekt ist, ist folglich eine Diskussion über Menschen. Deshalb müssen wir auch Menschenfragen im KI-Kontext gezielt beantworten: Brauchen wir Verbote oder hindern uns Gesetze an Innovation? Wer haftet für eine KI, die Minderheiten diskriminiert oder sogar Existenzen mit Diffamierung oder sogar kritischen Versicherungsentscheidungen zerstört? Brauchen Kinder Laptops im Kindergarten, und müssen wirklich alle programmieren lernen? Wie bereiten wir uns darauf vor, dass eine Vielfalt teils hochqualifizierter Jobs so nicht mehr existieren wird, brauchen wir ein bedingungsloses Grundeinkommen oder bessere Qualifizierungsmaßnahmen?

Unklar bleibt, wie man gewährleisten kann, dass eine künstliche Intelligenz immer in unserem Sinne handelt und niemandem schadet.



Viele dieser Fragen stellen wir uns so oder so ähnlich schon lange. Insbesondere Themen wie moderne Bildung und Informationssicherheit sind älter als jegliche Digitaltechnologie – wir haben nur noch keine ausreichenden Lösungen gefunden. Alle diese Fragen zielen darauf, wie wir uns als Gesellschaft entwickeln wollen und wie wir Macht und Einfluss für das Gute nutzen. Letzten Endes lernt KI also von uns allen, und wir sollten ihr ein möglichst gutes Vorbild sein.

Viele Menschen haben Angst vor KI – und sollen jetzt selbst für sie verantwortlich sein?

Oft wird der Gesellschaft Angst vor KI unterstellt, die erst mal damit begegnet wird, zu erklären, dass so schnell keine superintelligente Terminator-KI kommen wird, die uns alle vernichtet, weil KI dafür noch viel zu schwach sei. Grundsätzlich stimmt es natürlich, dass die aktuellen KI-Systeme noch keinen Terminator abgeben können. Der wichtigste Faktor hierbei ist weniger ihre mangelnde Intelligenz als die völlige Abwesenheit von sozialen Gefühlen und eigenen Zielen. Das haben nur die Menschen, die KI nutzen, oder von ihrer Nutzung betroffen sind – und genau die müssen auch miteinander über Ethik reden.
Die Angst vor dem Terminator hat dabei genauso wenig Einfluss auf uns wie Serien über Zombie-Apokalypsen den Verlauf Corona-Pandemie gemildert haben. Zwischen Film und Realität unterscheiden hier alle sehr genau. Worüber wir aber reden müssen ist, wie die Menschen handeln müssen, die KI einsetzen, und damit das Leben aller anderen beeinflussen können. KI trifft Entscheidungen viel schneller als Menschen und ohne jegliche Ausnahmen. Damit können zum Beispiel Systeme für das Recruiting viel mehr Bewerber*innen aus rassistischen Gründen ablehnen, als es menschliche Recruiter*innen je könnten, obwohl man es dem System viel leichter verbieten könnte. Beim Einsatz von KI muss man also eigentlich Menschen von menschlichem Handeln überzeugen, und weniger davon, wie eine Technologie gebaut werden muss. Wenn wir also alle Daten produzieren, die eine KI ethisch korrekt handeln lässt und wenn die Verantwortlichen eine KI auch so anlernen und handeln lassen, gibt es weniger Ängste vor der „neuen“ Technologie.