Situation und (verkürzte) Historie
Gerade in den letzten Monaten wird überall und sehr medienpräsent nach künstlicher Intelligenz und intelligenten digitalen Assistenten geschrien. Auch wenn sich definitiv deutliche Verbesserung bei den produktiv eingesetzten Lösungen abzeichnen (wer kennt noch die nervige Büroklammer in MS Office?) ist es immer noch ein langer Weg. In der Vergangenheit empfand ich es besonders schwierig, das praktische alle sprachbasierten Lösungen (z.B. ChatBots oder Toolhilfen) keinen Kontext kannten und nur dummdödelige Antworten bauten, die entweder vorher manuell konfiguriert oder aus Beispielgesprächen in Chats und öffentlichen Foren generiert wurden. Damit wurde zwar (je nach Aufwand des Trainings) schon sowas wie ein Gespräch erreicht, aber ein Gefühl einer echten Kommunikation ist da nicht aufgekommen. Auch ein eigener Versuch mit einer Chatbot-Lösung zeigte zwar erstaunlich schnell Erfolge, aber eigentlich plapperte das System nur Aussagen von mir wieder nach. Modernere Lösungen werden hier besser, da die Umgebungen zunehmend besser eine Art von Kontextwissen erwerben und damit nicht mehr so einfach am Kommunikationspartner vorbei plappern.

Die neueste Variante nennt sich nun künstliche Intelligenz. Wenn man sich einliest, findet sich dahinter eigentlich immer ein Deep-Learning-Ansatz. Ohne auf Details einzugehen, steht dahinter ein Konzept wo ein Netz an Knoten mit entsprechenden Eingangsdaten darauf trainiert wird, auf gleichartige Eingaben ähnlich zu reagieren und auf neuartige möglichst sinnvoll. Knackpunkt ist hierbei, das es entscheidend auf die Eingabedaten ankommt wie das System am Ende reagiert. Sind die Daten nicht ausreichend umfangreich und nicht hinreichend gleichförmig und strukturiert, kann es zu merkwürdigen Effekten kommen.Das gleiche Problem hatte man übrigens auch, wenn als Basis für ChatBots vorhandene Forenbeiträge verwendet wurden und daraus Antworten generiert wurden. Leider kann man ein trainiertes Netz nicht so einfach korrigieren, indem man unpassende Antwortsätze einfach löscht. Hier muss also auf jeden Fall der Input bereinigt werden.

Gedanken dazu
Das Thema kann in beliebiger Breite und Tiefe diskutiert werden (und muss auch bis zu einem gewissen Grad dringend erfolgen), dennoch stark verkürzt ein Paar Gedanken dazu.
Egal welche Technologie Anwendung findet, die Qualität der Lösung ist stark abhängig von den Eingabedaten. Wenn aber reale Gespräche die (alleinige) Basis darstellen, vielleicht ergänzt um Schlüsselantworten auf Schlüsselfragen, werden zwangsläufig Wertvorstellungen die in den Gesprächen gezeigt werden übernommen. Je nach Hintergrund der beteiligten Personen ist somit klar, dass die Lösung hier stark beeinflusst wird.
Wenn also viele Daten, die schon des Volumen wegen nicht mehr vollständig gefiltert und bewertet werden können, gelernt und angewendet werden, wird das System folglich, z.B. als digitaler Assistent genauso kommunizieren wie die beteiligten Personen. Je nach Datenauswahl wird das System damit mehr oder weniger rassistisch, dominant, chauvinistisch, beleidigend oder sogar kriminell werden, aber definitiv ähnlich wie die Eingaben es waren. Ohne ergänzende Merkmale zur Bewertung sind alle Eingaben gleichwertig und werden auch gleich integriert.
Auch dürften sich verschiedene Gesprächsschwerpunkte ergeben, je nach Input. Um beim Beispiel eines ChatBots zu bleiben: Eine rechtsextremes Forum dürfte einen ausgeprägt rechtsextremen Chatbot ergeben, analog sollte ein Kinderchat hier ganz andere Effekte bewirken. Leider hat sich das schon als richtig erwiesen, da aktuell einzelne Lösungen mit frauenfeindlichen oder rassistischen Antworten aufgefallen sind und in der Form vom Netz genommen wurden.
Bei Analysesystemen stellt sich auch schon vereinzelt heraus, dass es entscheidend auf die Eingangsdaten und auf Begrenzung der Anwendbarkeit ankommt. Wenn z.B. überproportional viele Personen einer Ethnie verhaftet werden und ein Expertensystem mit reinen Falldaten gefüttert wird, kann es z.B. leicht folgern, dass diese Ethnie überproportional zu kriminellen Handlungen neigt.

Was ist daraus zu folgern?
Wie immer ist es wichtig, nicht einfach irgendwelche Daten in möglichst großer Anzahl in ein System zu pressen, nur um ein möglichst gutes Antwortverhalten zu bewirken. Auch muss sehr genau darauf geachtet werden, in welchem Bereich das System aus seiner “Erfahrung” heraus überhaupt sinnvolle Aussagen liefern kann. Systeme dieser Art haben ebenso wie menschliche Kommunikationspartner eine Verantwortung gegenüber dem Gegenüber und müssen auch für Antworten geradestehen. Da dies für IT-Systeme kaum direkt gelten kann, sind deren Entwickler und Betreiber dafür verantwortlich (und sollten in direkter Konsequenz auch entsprechend haften).
Bei offenen Foren ohne Klarnamenzwang zeigt sich häufig ausgeprägtes asozialen Verhalten (nicht kausal, aber leider häufig in der Praxis wohl aufgrund der schlechten direkten Rückverfolgbarkeit). Wenn sich Lösungsanbieter und Betreiber darauf zurückziehen, das es nicht deren Verantwortung ist was das System tut, obgleich sie bei dessen Entstehung entscheidend beitragen, wird am Ende keiner verantwortlich sein. Und sich auf Unwissenheit zu berufen sollte auch keine Option sein.

Fehlende Verantwortlichkeit darf eigentlich nicht akzeptiert werden, zumal der Anspruch an eine solche Lösung vergleichbar ist wie bei einem menschlichen Akteur. Gerade auch weil diese Lösungen oft menschliche Akteure ergänzen oder sogar ersetzen. Zumindest im Bereich der strafbaren Aspekte und des asozialen Verhaltens ist eine gleichartige Beurteilung zwingend notwendig. Es ist auch kein Grundrecht eines Menschen in dieser Art und Weise zu agieren, ohne die Konsequenzen daraus zu tragen (auch wenn das derzeit bei vielen Leuten die vorherrschende Meinung zu sein scheint).

Stark vereinfacht muss also das Fazit sein, das KI-Systeme und semiintelligente Assistenten genauso rassistisch, dominant, chauvinistisch, beleidigend oder sogar kriminell sind wie deren Ersteller und Betreiber es erlauben. Und das es eine Kernverantwortung bei solchen Umgebungen sein muss, genau in Hinblick auf diese Eigenschaften besondere Sorgfalt walten zu lassen, aber auch für Fehlverhalten gerade zu stehen. Wie es auch im richtigen Leben sein sollte.

Wir benutzen Cookies und Logs mit personenbezogenen Daten ausschließlich für essentielle Funktionen wie z.B. bei der Benutzeranmeldung oder der Fehlersuche. Für Videos werden weitere Cookies von Drittanbietern benötigt. Details finden sie unter dem Link "Weitere Informationen".