Hochschule Hof forscht Wie gerecht ist Künstliche Intelligenz?

red

Aus dem Programmen kommt das, was man hineinfüttert – laut Hochschule Hof birgt das Chancen und Risiken.

 
Schließen

Diesen Artikel teilen

Mit der Korrektheit in KI-Programmen hat sich die Hochschule befasst. Foto: dpa//Matt Rourke

Die rasante Entwicklung der Künstlichen Intelligenz (KI) bringt nicht nur technologische Fortschritte, sondern auch komplexe ethische Fragen mit sich. Insbesondere bei generativer KI, wie Sprach- oder Bildgeneratoren, rückt das Thema der voreingenommenen Ergebnisse (Bias) in den Mittelpunkt der Diskussion. Professor René Peinl, Marc Lehmann und Professor Andreas Wagener vom Institut für Informationssysteme der Hochschule Hof (iisys) haben diese Problematik nun analysiert und kommen zu spannenden Erkenntnissen, wie die Hochschule Hof mitteilt.

Nach der Werbung weiterlesen

Bias in KI-Modellen bezeichnet die Neigung, Ergebnisse zu liefern, die einseitig oder von menschlichen Vorurteilen geprägt sind. „Diese Verzerrungen entstehen oft durch die Daten, mit denen die Modelle trainiert werden, sowie durch deren algorithmische Verarbeitung. In Studien wird häufig stillschweigend davon ausgegangen, dass eindeutig definiert ist, was eine ‚korrekte’ oder ‚unvoreingenommene’ Antwort darstellt“, sagt René Peinl. Doch die gesellschaftliche Realität zeigt: Solche Definitionen sind in Wahrheit oft sogar außerordentlich umstritten.

In der Praxis gibt es keinen Konsens darüber, was als „richtige“ oder „gerechte“ Antwort gelten sollte. Themen wie gendersensible Sprache, der menschengemachte Klimawandel oder die Gleichstellung Homosexueller sind gesellschaftlich zum Teil hoch umstritten. „Wenn ein KI-Modell zu einer Frage eine dem Anschein nach voreingenommene Antwort liefert, stellt sich die Frage, ob dies tatsächlich ein Ausdruck von Bias ist – oder einfach die statistisch wahrscheinlichste Antwort“, erläutert Andreas Wagener.

Beispiel: Ein generiertes Bild eines „bayerischen Mannes“ zeigt häufig einen Mann in Lederhose mit Bierkrug. Diese Darstellung mag klischeehaft wirken, spiegelt jedoch eine kulturelle Symbolik wider, die für viele Menschen eine klare Aussage vermittelt. Ein Mann im Anzug oder Jogginganzug würde diesen Zusammenhang weniger deutlich machen. Ein Großteil der anscheinend oft voreingenommenen Ergebnisse entsteht durch die Qualität des Modells und durch die Eingaben selbst. „KI-Modelle müssen oft Entscheidungen treffen, wenn Eingaben vage oder nicht ausreichend spezifiziert sind. „So könnte die generische Eingabe „Kuh“ dazu führen, dass ein Modell vorwiegend Kühe auf einer Wiese oder im Stall generiert – auch dies ist ein Beispiel für einen „Bias“, wenngleich wohl für einen durchaus gewünschten“, sagt Marc Lehmann. Hinzu kommt, dass unklare Aufgabenstellungen die Modelle dazu zwingen, wahrscheinliche Varianten zu wählen. Eine Verbesserung der Modellergebnisse erfordert daher präzisere Eingaben und eine detailliertere Betrachtung der statistischen Verteilung.

So könnte eine Lösung aussehen

Die Forscher der Hochschule Hof haben verschiedene Lösungsansätze zur Minimierung von Bias untersucht, dabei jedoch keine universelle Lösung gefunden. Die Spaltung in westlichen Gesellschaften erschwere es zusätzlich, Modelle so zu gestalten, dass sie allgemeiner Akzeptanz entsprechen. In einigen Fällen kann die Verteilung innerhalb der Grundgesamtheit als Orientierung dienen. „Beispielsweise sollten Bildgeneratoren Männer und Frauen bei geschlechtsneutralen Berufsbezeichnungen gleichermaßen darstellen, um vergangene Benachteiligungen nicht zu wiederholen“, schlägt René Peinl vor. In anderen Fällen ist es jedoch nicht sinnvoll, Gleichverteilung anzustreben. So sind etwa zwei zwei Prozent der deutschen Bevölkerung homosexuell. Ein Modell, das bei generischen Eingaben wie „happy couple“ jedes vierte Bild als homosexuelles Paar darstellt, würde die statistische Realität stark überrepräsentieren. Stattdessen sollte ein KI-Modell explizite Eingaben wie „gay couple“ korrekt umsetzen und entsprechende Bilder generieren.

Ein weiterer Vorschlag der Forscher ist die Einführung landesspezifischer „Defaults“. So könnte die Eingabe „Mann“ in China zu einem asiatisch aussehenden Mann führen, in Nigeria zu einem dunkelhäutigen und in Deutschland zu einem kaukasischen Mann. Diese Anpassungen würden kulturelle und demografische Unterschiede berücksichtigen, ohne diskriminierend zu wirken.

Fazit: Die Forschung zeigt, dass die Entwicklung unvoreingenommener KI-Modelle eine enorme Herausforderung darstellt. Es gibt keine einfachen Antworten, da viele Probleme auf gesellschaftliche Uneinigkeiten zurückzuführen sind. Eine mögliche Lösung ist es, Modelle so zu gestalten, dass sie klare Eingaben akkurat umsetzen und landesspezifische Kontexte berücksichtigen. Doch selbst diese Ansätze erfordern eine fortlaufende Diskussion und Anpassung, um ethischen und technischen Anforderungen gerecht zu werden.