AI – Ein neues Zeitalter? Ja, aber..

In den letzten Monaten hat sich gezeigt, dass Künstliche Intelligenz in der Gesellschaft angekommen ist. Und das nicht nur als Theorie und mehr oder weniger akademisch, sondern sehr konkret, unmittelbar und zumindest in Teilaspekten auch meist praktisch und nützlich.

 Nehmen wir (auszugweise) ein Paar aktuelle Beispiele aus den Medien:

  • ChatGPT zeigt erstaunliche Möglichkeiten bei der Erstellung von Texten, die ohne Prüfung oft nicht mehr von „echten“ Fachtexten unterscheidbar sind.
  • Midjourney oder DALL-E baut auf Basis von Schlagworten unglaublich gute Bilder, die professionellen Arbeiten nicht mehr nachstehen und bis hin zum Deepfake taugen.
  • Bing arbeitet nun AI-unterstützt und rollt die dominante Suchmaschinenmacht von Google von hinten auf.
  • Apple Face erkennt AI-gestützt anhand von gesichtsbiometrischen Daten, ob der Benutzer wirklich berechtigt ist.
  • Facebook und Instagram werden bei den Feeds inzwischen stark von AI gesteuert.
  • Bei Amazon haben in der Logistik angeblich KIs über Voraussagemodelle erheblichen Einfluss auf viele Kernprozesse.
  • Chinesische Überwachungssysteme sind in der Personenerkennung inzwischen breit aktiv und wohl sehr gut geworden.
  • Die Steuerungen von Fahrzeugen werden zunehmend von entsprechenden Systemen zumindest zeitweilig übernommen, zuletzt sogar für einen Jet.

Zuerst einmal sind diese ganzen Beispiele interessant und auch gar kein Problem an sich, sondern schlicht Beispiele von unglaublichen Fortschritten in der Anwendung. Das ist eine sehr pauschale Aussage, trifft aber als Basisannahme durchaus zu. Neu ist aber die Qualität und die Einfachheit, mit denen auch nicht-Spezialisten ansprechende oder zumindest qualitativ sehr hochwertige Ergebnisse zu bekommen.

Auch wird von seitens der Entwickler darauf hingewiesen, wo der genaue Fokus der Anwendung dieser Lösungen liegt. Allerdings ist dieser Fokus, sofern formuliert, bei weiten weniger leicht zugänglich als die Funktion an sich. Und natürlich kann man zur Nutzung beliebiger Meinung sein, sobald Menschen sich damit beschäftigen, wird auch in anderen, oft auch deutlich dunkleren Gefilden nach Möglichkeiten gesucht.

Bisher ist es versäumt worden, sich mit den genauen gesellschaftlichen Auswirkungen zu beschäftigen im Sinne einer klaren Abgrenzung, was nun eine „gute KI“ sein soll und was nicht. Der Technik ist die Anwendung egal, sie tut primär, was sie kann, und ihr erlaubt wird.
Die (ebenfalls recht pauschale) Argumentation seitens der Interessenvertreter für breite und aktive KI-Nutzung geht in die Richtung, dass uns diese Technologie „langweilige“ und „wenig fordernde“ Aufgaben abnehmen kann und dafür mehr Zeit und Ressourcen für „interessantere“ und „mehr fordernde“ Aufgabenstellungen bleiben.

Dabei gibt es neben der Funktion erhebliche Querwirkungen in andere, persönliche Aspekte. Nicht zu vergessen, dass diese Argumente natürlich erst mal in der Realität bewiesen werden müssen.

Ganz vorne dran sind da Schutzrechte an den Lerndaten als völlig ungelöstes Thema zu nennen.
Die aktuelle AI-Technologie erfordert Lerndaten im erheblichen Rahmen. Diese Daten unterliegen fast immer Schutzrechten, wie z.B. Persönlichkeitsschutzrechte, Nutzungsschutzrechte, Lizenzrechten usw., auch wenn diese nicht immer explizit formuliert sind.
Diese sind bei der Entwicklung der Lösungen gerne sehr frei interpretiert worden, oft mit der Aussage, dass ein rein akademisches Projekt eine andere Interpretation der Rechtesituation ermöglicht als eine kommerzielle Lösung.
Auch ist der Umgang mit solchen Rechten in den verschiedenen Ländern sehr unterschiedlich.
Ein fertiges Modell hat allerdings diese Einschränkung nicht und ist sehr schnell international verfügbar.

Wenn eine Lösung dann existiert (und sei es auch nur als ein Prototyp), wird sehr schnell die kommerzielle Nutzbarkeit erkennbar und bei entsprechender Attraktivität auch bald umgesetzt. Auch hier gibt es dann sehr interessante rechtliche Argumentationen, die ich grundsätzlich mal als legitim ansehe, in der Sache aber kritisch.
Am Ende steht dann gerne eine Umgebung, deren Herstellung scheinbar grundlegende Aspekte der Rechteprüfung und zur Übernahme der Verantwortung vermissen lässt. Klar ist auch, dass mit dem Veröffentlichen der Lösung auch kein Weg mehr zurückführt, die Büchse der Pandora ist geöffnet und die neue Realität ist gesetzt. Selbst wenn diese eine Lösung schnell wieder verschwindet, das Konzept ist etabliert, die Umsetzbarkeit bewiesen und eine Reproduktion in relativ kurzer Zeit möglich.

Je nachdem, wie stark die mediale Präsenz dieser Umgebung wird, kommen dann (erst) die Diskussionen um die Konsequenzen stärker zum Tragen. Da die letzten Beispiele ChatGPT und Midjourney sowohl eine ungewohnte technische Reife (auch aufgrund besonders vielen Lerndaten) als auch unmittelbare Auswirkungen haben, ist diese Diskussion dadurch erheblich stärker und konkreter und lauter geworden.

Interessanterweise zeigt sich in einzelnen Bereichen bereits, dass die Aussagen, eine KI hätte für Mitarbeiter oder Dienstleister in Unternehmen nur positive Auswirkungen, wohl eher ein Wunschtraum ist.
Am Beispiel von Midjourney und vergleichbaren Bildgeneratoren hat sich eine Veränderung für Tätige im Bereich Design/Illustration bereits angedeutet. Es scheint so, als würden hier Beschäftigte ihren Schwerpunkt von der Erstellung von Bildern und Designs hin zur Nachbearbeitung derselben verlagern (müssen). Der kreative, „interessante“ Teil erfolgt also schon in Teilen in der Maschine, nur das „langweilige“ Finetuning ist (noch) Handarbeit. Natürlich dann zu schlechteren Konditionen (Gehalt oder Honorare, Zeit, Freiheiten, …).

Eine ähnliche Problematik hat sich im Bereich der Musiker ergeben, nachdem es nun wohl schon möglich ist, Songs automatisch zu erzeugen, die von denen einer Band nicht mehr unterscheidbar sind, aber völlig ohne deren Beteiligung erstellt wurden. Interessanterweise scheinen die Auswirkungen hier geringer zu sein, da die Rechteverwertung juristisch erheblich stärker definiert, überwacht und durchgesetzt wird und damit eine „Einführung durch die Hintertür“ erheblich erschwert wird.

Bereits länger in der aktiven (kommerziellen) Nutzung sind KI-gestützte Textgeneratoren, auch im Journalismus. Hier hat wohl ChatGPT ein neues Kapitel aufgeschlagen, die Auswirkungen werden sich noch in seiner ganzen Schönheit zeigen müssen. Man kann aber davon ausgehen, dass der Anteil automatisch erzeugter Texte erheblich gesteigert wird, je besser die Qualität der erzeugten Texte ist oder in Zukunft sein wird.

Besonders spannend war für mich die aktuelle Forderung nach einem Stopp in der Entwicklung von KIs, unterstützt von einer nennenswerten Anzahl von Experten. Auch wenn ich manchen dieser Experten hierbei eine gewisse Schizophrenie bescheinigen möchte, ist es in der Sache durchaus ein wichtiges Signal.
Ich glaube persönlich zwar weniger an ein Szenario der Machtübernahme durch eine KI, sehr wohl aber an breite strukturelle Benachteiligung einzelner Gruppen aufgrund von durchautomatisierten Vorgängen in kritischen Bereichen.
Wie wäre es z.B. mit einer KI-gestützten Bearbeitung von staatlichen Hilfeleistungen? Oder eine starke Etablierung im Bereich der medizinischen Diagnostik? Beides wären sinnvolle Bereiche, die aber genauso katastrophale Auswirkungen auf einzelne haben könnte.

Persönlich sehe ich in der Technologie unglaubliches Potential, sowohl im positiven wie auch im negativen Sinne. Allerdings glaube ich derzeit nicht an die nötige gesellschaftliche und persönliche Reife, dass diese Technologie die oft beschworenen Vorteile für alle bringen wird. Realistisch gesehen sind praktisch alle Bereiche des Lebens marktwirtschaftlich durchdrungen und werden auch anhand deren Kriterien faktisch gesteuert. Und da Firmen (per Definition) die primäre Aufgabe haben, Geld zu erwirtschaften, wird wohl der erste ausgeprägte Aspekt bei der Nutzung dieser Technologie(n) die Optimierung der Kostenstruktur bleiben, damit der Mitarbeiter.

Grundsätzlich müssen Spielregeln her, wie diese schöne neue Welt der KI-basierten Lösungen, die man durchaus mit dem Schlagwort „Breaking Invention“ gleichsetzen kann, nun für die Masse an Leuten sinnvoll eingesetzt werden kann und nicht nur als alleiniges Mittel zur Optimierung der Kostenstrukturen. Dabei muss es sowohl darum gehen, einen gesellschaftlichen Konsens (mindestens aber eine offene Diskussion) zu den vielen Aspekten zu schaffen und weiter zu treiben, aber auch mit den Kosten der Schaffung dieser Lösungen. Nicht zu vergessen mit der Kontrolle dieser Umgebungen. Den einfachen Weg, einfach alles zu verbieten, weil nicht zu kontrollieren, würde ich als wenig erfolgsversprechend sehen. Zum einen dürfte es die Weiterentwicklung auch in unerwünschten Aspekten lediglich behindern, zum anderen wird durch ein simples Verbot kein Fortschritt im gesellschaftlichen Diskurs erreicht. Auch wird ein Verbot bei fehlender Akzeptanz durch die Mehrheit der Bevölkerung (z.B. bei bekanntem Nutzen für den Einzelnen) wahrscheinlich in gezielter Unterwanderung im rechtlichen Graubereich führen, was keinem am Ende weiterhilft.

Wichtige Punkte sind hier der Umgang mit den Eingangsdaten und der Ressourcenhunger der Lernumgebungen zur Erstellung dieser Datenmodelle. Denn zum Training dieser Modelle ist erhebliches Maß an Daten, Hardware und Energie vonnöten.

Auch ist es derzeit noch kaum möglich, eine verlässliche Aussage zu Ergebnissen zu machen. Obgleich (wieder am Beispiel von ChatGPT) die Ergebnisse erstaunlich sind, sind diese kaum geeignet ohne Prüfung direkt verwendet zu werden. Auch wurde das System schon pseudowissenschaftlichem Geschwurbel und Falschaussagen überführt. Ohne Kontrolle sollten solche Systeme keine Anwendung finden.

Ebenso wichtig ist die offensichtliche Auswirkung auf die Arbeitswelt, wenn Bestandsberufe stark unter Druck geraten oder hinfällig werden. Das muss nicht notwendiger ein Verhinderungsgrund sein, aber der Umgang mit diesem Effekt muss klar sein und für Betroffene auch unmittelbar hilfreich. Strukturwandel ist eine Notwendigkeit, aber vom Einzelnen allein kaum zu lösen. Schon gar nicht in den kurzen Zeitspannen, die durch die IT allgemein faktisch gesetzt werden.

Das ganze wird erst richtig komplex, weil man diese ganzen Dinge im Verbund betrachten muss.
Ein Song besteht z.B. aus dem Text, der Musik, Cover, einer Produktion, Vertrieb etc.
Wenn man (basierend auf den aktuellen Lösungen) z.B. den Text durch eine spezialisierte KI bauen lässt, die Musik und das Cover auch, das Ganze dann über Streaming-Dienstleister vertreibt (deren KIs die Sichtbarkeit und Vermarktung beeinflussen) ist in der gesamten Wertschöpfungskette kein einziger professionell ausgebildeter Mensch mehr tätig.
Und das ist mit den Lösungen heute durchaus möglich, keine Fiktion.

Ebenso wichtig (allerdings kein alleiniges Thema bei KI-Anwendungen) ist das (sichere) Szenario von Missbrauch. Wieder am Beispiel von Midjourney konnten erstaunliche Deepfakes von Prominenten erstellt werden, die einer oberflächlichen Prüfung jederzeit standhalten können. Vergleichbare Ergebnisse konnten bei Videomaterial erreicht werden bis zu einem Grad, an dem nur noch Spezialisten eine Fälschung erkennen konnten. Wenn man sich dir Wertigkeit von Bildern und Videomaterial in der aktuellen Rechtsprechung vor Augen führt, sollte klar sein, wie weitreichend diese Entwicklung Einfluss auf unsere Gesellschaft nehmen wird. Gerade auch, weil viele Kontroll- und Prüfmechanismen schon jetzt entweder schlicht nicht (mehr) existieren oder nur noch minimal vorhanden sind. Gutes Beispiel ist die aktuelle Qualität mancher journalistischen Quellen, bei denen Quellenprüfung offenbar kein Schwerpunkt mehr ist.

Wichtig ist aber trotzdem nicht zu vergessen, dass die Technologie an sich ein sehr wertvoller Baustein in der Zukunft sein kann und sein wird (wie z.B. auch das Internet es war und ist). Aber nicht im wertefreien, rechtsfreien oder kontrollfreien Raum, sondern unter Beachtung von gesellschaftlich akzeptierten Regeln und Normen. Und genau da sollten wir erheblich aktiver werden, als bisher geschehen.

BTW: Dieser Text wurde persönlich ohne Zuhilfenahme einer KI erstellt, überarbeitet und veröffentlicht und enthält damit auch persönliche Fehler, Ungenauigkeiten und durchaus diskutable Meinungen. Nicht zu vergessen, ich übernehme auch persönlich die Verantwortung dafür. In meinen Augen die wichtigste Aufgabe, die man einer KI nicht übertragen sollte, kann oder darf. 

 

KI – Sind Siliziumhirne rassistisch?

Situation und (verkürzte) Historie
Gerade in den letzten Monaten wird überall und sehr medienpräsent nach künstlicher Intelligenz und intelligenten digitalen Assistenten geschrien. Auch wenn sich definitiv deutliche Verbesserung bei den produktiv eingesetzten Lösungen abzeichnen (wer kennt noch die nervige Büroklammer in MS Office?) ist es immer noch ein langer Weg. In der Vergangenheit empfand ich es besonders schwierig, das praktische alle sprachbasierten Lösungen (z.B. ChatBots oder Toolhilfen) keinen Kontext kannten und nur dummdödelige Antworten bauten, die entweder vorher manuell konfiguriert oder aus Beispielgesprächen in Chats und öffentlichen Foren generiert wurden. Damit wurde zwar (je nach Aufwand des Trainings) schon sowas wie ein Gespräch erreicht, aber ein Gefühl einer echten Kommunikation ist da nicht aufgekommen. Auch ein eigener Versuch mit einer Chatbot-Lösung zeigte zwar erstaunlich schnell Erfolge, aber eigentlich plapperte das System nur Aussagen von mir wieder nach. Modernere Lösungen werden hier besser, da die Umgebungen zunehmend besser eine Art von Kontextwissen erwerben und damit nicht mehr so einfach am Kommunikationspartner vorbei plappern.

Die neueste Variante nennt sich nun künstliche Intelligenz. Wenn man sich einliest, findet sich dahinter eigentlich immer ein Deep-Learning-Ansatz. Ohne auf Details einzugehen, steht dahinter ein Konzept wo ein Netz an Knoten mit entsprechenden Eingangsdaten darauf trainiert wird, auf gleichartige Eingaben ähnlich zu reagieren und auf neuartige möglichst sinnvoll. Knackpunkt ist hierbei, das es entscheidend auf die Eingabedaten ankommt wie das System am Ende reagiert. Sind die Daten nicht ausreichend umfangreich und nicht hinreichend gleichförmig und strukturiert, kann es zu merkwürdigen Effekten kommen.Das gleiche Problem hatte man übrigens auch, wenn als Basis für ChatBots vorhandene Forenbeiträge verwendet wurden und daraus Antworten generiert wurden. Leider kann man ein trainiertes Netz nicht so einfach korrigieren, indem man unpassende Antwortsätze einfach löscht. Hier muss also auf jeden Fall der Input bereinigt werden.

Gedanken dazu
Das Thema kann in beliebiger Breite und Tiefe diskutiert werden (und muss auch bis zu einem gewissen Grad dringend erfolgen), dennoch stark verkürzt ein Paar Gedanken dazu.
Egal welche Technologie Anwendung findet, die Qualität der Lösung ist stark abhängig von den Eingabedaten. Wenn aber reale Gespräche die (alleinige) Basis darstellen, vielleicht ergänzt um Schlüsselantworten auf Schlüsselfragen, werden zwangsläufig Wertvorstellungen die in den Gesprächen gezeigt werden übernommen. Je nach Hintergrund der beteiligten Personen ist somit klar, dass die Lösung hier stark beeinflusst wird.
Wenn also viele Daten, die schon des Volumen wegen nicht mehr vollständig gefiltert und bewertet werden können, gelernt und angewendet werden, wird das System folglich, z.B. als digitaler Assistent genauso kommunizieren wie die beteiligten Personen. Je nach Datenauswahl wird das System damit mehr oder weniger rassistisch, dominant, chauvinistisch, beleidigend oder sogar kriminell werden, aber definitiv ähnlich wie die Eingaben es waren. Ohne ergänzende Merkmale zur Bewertung sind alle Eingaben gleichwertig und werden auch gleich integriert.
Auch dürften sich verschiedene Gesprächsschwerpunkte ergeben, je nach Input. Um beim Beispiel eines ChatBots zu bleiben: Eine rechtsextremes Forum dürfte einen ausgeprägt rechtsextremen Chatbot ergeben, analog sollte ein Kinderchat hier ganz andere Effekte bewirken. Leider hat sich das schon als richtig erwiesen, da aktuell einzelne Lösungen mit frauenfeindlichen oder rassistischen Antworten aufgefallen sind und in der Form vom Netz genommen wurden.
Bei Analysesystemen stellt sich auch schon vereinzelt heraus, dass es entscheidend auf die Eingangsdaten und auf Begrenzung der Anwendbarkeit ankommt. Wenn z.B. überproportional viele Personen einer Ethnie verhaftet werden und ein Expertensystem mit reinen Falldaten gefüttert wird, kann es z.B. leicht folgern, dass diese Ethnie überproportional zu kriminellen Handlungen neigt.

Was ist daraus zu folgern?
Wie immer ist es wichtig, nicht einfach irgendwelche Daten in möglichst großer Anzahl in ein System zu pressen, nur um ein möglichst gutes Antwortverhalten zu bewirken. Auch muss sehr genau darauf geachtet werden, in welchem Bereich das System aus seiner „Erfahrung“ heraus überhaupt sinnvolle Aussagen liefern kann. Systeme dieser Art haben ebenso wie menschliche Kommunikationspartner eine Verantwortung gegenüber dem Gegenüber und müssen auch für Antworten geradestehen. Da dies für IT-Systeme kaum direkt gelten kann, sind deren Entwickler und Betreiber dafür verantwortlich (und sollten in direkter Konsequenz auch entsprechend haften).
Bei offenen Foren ohne Klarnamenzwang zeigt sich häufig ausgeprägtes asozialen Verhalten (nicht kausal, aber leider häufig in der Praxis wohl aufgrund der schlechten direkten Rückverfolgbarkeit). Wenn sich Lösungsanbieter und Betreiber darauf zurückziehen, das es nicht deren Verantwortung ist was das System tut, obgleich sie bei dessen Entstehung entscheidend beitragen, wird am Ende keiner verantwortlich sein. Und sich auf Unwissenheit zu berufen sollte auch keine Option sein.

Fehlende Verantwortlichkeit darf eigentlich nicht akzeptiert werden, zumal der Anspruch an eine solche Lösung vergleichbar ist wie bei einem menschlichen Akteur. Gerade auch weil diese Lösungen oft menschliche Akteure ergänzen oder sogar ersetzen. Zumindest im Bereich der strafbaren Aspekte und des asozialen Verhaltens ist eine gleichartige Beurteilung zwingend notwendig. Es ist auch kein Grundrecht eines Menschen in dieser Art und Weise zu agieren, ohne die Konsequenzen daraus zu tragen (auch wenn das derzeit bei vielen Leuten die vorherrschende Meinung zu sein scheint).

Stark vereinfacht muss also das Fazit sein, das KI-Systeme und semiintelligente Assistenten genauso rassistisch, dominant, chauvinistisch, beleidigend oder sogar kriminell sind wie deren Ersteller und Betreiber es erlauben. Und das es eine Kernverantwortung bei solchen Umgebungen sein muss, genau in Hinblick auf diese Eigenschaften besondere Sorgfalt walten zu lassen, aber auch für Fehlverhalten gerade zu stehen. Wie es auch im richtigen Leben sein sollte.

Wir benutzen Cookies und Logs mit personenbezogenen Daten ausschließlich für essentielle Funktionen wie z.B. bei der Benutzeranmeldung oder der Fehlersuche. Für Videos werden weitere Cookies von Drittanbietern benötigt. Details finden sie unter dem Link "Weitere Informationen".