Viele Bilder von Muffins und Chihuahuas, die sich alle sehr ähnlich sehen und schwer voneinander zu unterscheiden sind

Bildquelle: https://medium.freecodecamp.org/chihuahua-or-muffin-my-search-for-the-best-computer-vision-api-cbda4d6b425d

Aufgabe 

Was seht ihr auf den einzelnen Bildern: Muffins oder Chihuahuas?  

Und was denkt ihr: Was würde eine KI auf den einzelnen Bildern sehen? 

Manchmal ist es auf den ersten Blick gar nicht so einfach, Bilder richtig einer Kategorie zuzuordnen. Die meisten Menschen erkennen bei genauer Betrachtung in den einzelnen Bildern Chihuahuas oder Muffins. Für eine KI ist dieser Unterschied viel schwieriger zu erkennen, weil die Bilder sehr ähnliche Muster (z. B. Farben und Formen) besitzen.

Wie wir an diesem Beispiel sehen, ist Künstliche Intelligenz nicht unfehlbar! Sie kann in bestimmten Situationen Schwierigkeiten haben, etwas richtig zu erkennen oder sogar auch Fehler machen. Denn ihre Entscheidungen basieren immer auf den Daten, mit denen sie trainiert wurde. Die Verantwortung dafür, was eine KI erkennt und lernt, liegt also bei den Menschen, die sie entwerfen, trainieren und einsetzen.

Voreingenommene Daten

Da KIs von Menschen trainiert und entwickelt werden, können sie Vorurteile wie rassistische oder sexistische Annahmen reproduzieren. 

Beispielsweise wurde festgestellt, dass einige KI-Systeme Gesichter von Menschen mit dunklerer Hautfarbe weniger genau erkennen als die Gesichter von Menschen mit hellerer Hautfarbe. Dies liegt daran, dass diese Modelle überwiegend mit Fotos von Menschen mit heller Hautfarbe trainiert wurden und dunklere Hauttöne in den Datensätzen unterrepräsentiert waren.

Auch KI-Tools zur Bildgenerierung können soziale Stereotypen reproduzieren: Bestimmte Berufsgruppen werden beispielsweise oft nur mit einem bestimmten Geschlecht in Verbindung gebracht. Während Krankenpflegende meist weiblich dargestellt werden, zeigen KI-Bildgeneratoren Ingenieur*innen oft als Männer. Wenn KI mit solchen Bildern trainiert wird, übernehmen und reproduzieren diese Systeme automatisch bestehende gesellschaftliche Vorurteile.

In beiden Fällen spielen also die für das Training genutzten Datensätze eine entscheidende Rolle: Sind sie ausreichend vielfältig und inklusiv?

Datenschutz

Ein weiteres Risiko, welches oft im Zusammenhang mit KI besprochen wird, ist der Datenschutz. 

Künstliche Intelligenz benötigt große Datenmengen und sammelt teilweise eigenständig Informationen. Wenn beispielsweise eine Sprachsteuerung im eigenen Zuhause verwendet wird, ist nicht immer klar, welche Gespräche aufgezeichnet und gespeichert werden.

Auch im Internet werden zunehmend mehr Nutzer*innendaten gesammelt - wie beispielsweise Standortdaten, also an welchem Ort ihr euch wie lange aufgehalten habt. Es bleibt jedoch oft unklar, was genau mit diesen teilweise sehr persönlichen Informationen geschieht und wer auf diese Daten Zugriff hat.

Illustration: Kopf eines Roboters mit unsicherem Geischtsausdruck und einem Fragezeichen über seinem Kopf