AI – Ein neues Zeitalter? Ja, aber..

In den letzten Monaten hat sich gezeigt, dass Künstliche Intelligenz in der Gesellschaft angekommen ist. Und das nicht nur als Theorie und mehr oder weniger akademisch, sondern sehr konkret, unmittelbar und zumindest in Teilaspekten auch meist praktisch und nützlich.

 Nehmen wir (auszugweise) ein Paar aktuelle Beispiele aus den Medien:

  • ChatGPT zeigt erstaunliche Möglichkeiten bei der Erstellung von Texten, die ohne Prüfung oft nicht mehr von „echten“ Fachtexten unterscheidbar sind.
  • Midjourney oder DALL-E baut auf Basis von Schlagworten unglaublich gute Bilder, die professionellen Arbeiten nicht mehr nachstehen und bis hin zum Deepfake taugen.
  • Bing arbeitet nun AI-unterstützt und rollt die dominante Suchmaschinenmacht von Google von hinten auf.
  • Apple Face erkennt AI-gestützt anhand von gesichtsbiometrischen Daten, ob der Benutzer wirklich berechtigt ist.
  • Facebook und Instagram werden bei den Feeds inzwischen stark von AI gesteuert.
  • Bei Amazon haben in der Logistik angeblich KIs über Voraussagemodelle erheblichen Einfluss auf viele Kernprozesse.
  • Chinesische Überwachungssysteme sind in der Personenerkennung inzwischen breit aktiv und wohl sehr gut geworden.
  • Die Steuerungen von Fahrzeugen werden zunehmend von entsprechenden Systemen zumindest zeitweilig übernommen, zuletzt sogar für einen Jet.

Zuerst einmal sind diese ganzen Beispiele interessant und auch gar kein Problem an sich, sondern schlicht Beispiele von unglaublichen Fortschritten in der Anwendung. Das ist eine sehr pauschale Aussage, trifft aber als Basisannahme durchaus zu. Neu ist aber die Qualität und die Einfachheit, mit denen auch nicht-Spezialisten ansprechende oder zumindest qualitativ sehr hochwertige Ergebnisse zu bekommen.

Auch wird von seitens der Entwickler darauf hingewiesen, wo der genaue Fokus der Anwendung dieser Lösungen liegt. Allerdings ist dieser Fokus, sofern formuliert, bei weiten weniger leicht zugänglich als die Funktion an sich. Und natürlich kann man zur Nutzung beliebiger Meinung sein, sobald Menschen sich damit beschäftigen, wird auch in anderen, oft auch deutlich dunkleren Gefilden nach Möglichkeiten gesucht.

Bisher ist es versäumt worden, sich mit den genauen gesellschaftlichen Auswirkungen zu beschäftigen im Sinne einer klaren Abgrenzung, was nun eine „gute KI“ sein soll und was nicht. Der Technik ist die Anwendung egal, sie tut primär, was sie kann, und ihr erlaubt wird.
Die (ebenfalls recht pauschale) Argumentation seitens der Interessenvertreter für breite und aktive KI-Nutzung geht in die Richtung, dass uns diese Technologie „langweilige“ und „wenig fordernde“ Aufgaben abnehmen kann und dafür mehr Zeit und Ressourcen für „interessantere“ und „mehr fordernde“ Aufgabenstellungen bleiben.

Dabei gibt es neben der Funktion erhebliche Querwirkungen in andere, persönliche Aspekte. Nicht zu vergessen, dass diese Argumente natürlich erst mal in der Realität bewiesen werden müssen.

Ganz vorne dran sind da Schutzrechte an den Lerndaten als völlig ungelöstes Thema zu nennen.
Die aktuelle AI-Technologie erfordert Lerndaten im erheblichen Rahmen. Diese Daten unterliegen fast immer Schutzrechten, wie z.B. Persönlichkeitsschutzrechte, Nutzungsschutzrechte, Lizenzrechten usw., auch wenn diese nicht immer explizit formuliert sind.
Diese sind bei der Entwicklung der Lösungen gerne sehr frei interpretiert worden, oft mit der Aussage, dass ein rein akademisches Projekt eine andere Interpretation der Rechtesituation ermöglicht als eine kommerzielle Lösung.
Auch ist der Umgang mit solchen Rechten in den verschiedenen Ländern sehr unterschiedlich.
Ein fertiges Modell hat allerdings diese Einschränkung nicht und ist sehr schnell international verfügbar.

Wenn eine Lösung dann existiert (und sei es auch nur als ein Prototyp), wird sehr schnell die kommerzielle Nutzbarkeit erkennbar und bei entsprechender Attraktivität auch bald umgesetzt. Auch hier gibt es dann sehr interessante rechtliche Argumentationen, die ich grundsätzlich mal als legitim ansehe, in der Sache aber kritisch.
Am Ende steht dann gerne eine Umgebung, deren Herstellung scheinbar grundlegende Aspekte der Rechteprüfung und zur Übernahme der Verantwortung vermissen lässt. Klar ist auch, dass mit dem Veröffentlichen der Lösung auch kein Weg mehr zurückführt, die Büchse der Pandora ist geöffnet und die neue Realität ist gesetzt. Selbst wenn diese eine Lösung schnell wieder verschwindet, das Konzept ist etabliert, die Umsetzbarkeit bewiesen und eine Reproduktion in relativ kurzer Zeit möglich.

Je nachdem, wie stark die mediale Präsenz dieser Umgebung wird, kommen dann (erst) die Diskussionen um die Konsequenzen stärker zum Tragen. Da die letzten Beispiele ChatGPT und Midjourney sowohl eine ungewohnte technische Reife (auch aufgrund besonders vielen Lerndaten) als auch unmittelbare Auswirkungen haben, ist diese Diskussion dadurch erheblich stärker und konkreter und lauter geworden.

Interessanterweise zeigt sich in einzelnen Bereichen bereits, dass die Aussagen, eine KI hätte für Mitarbeiter oder Dienstleister in Unternehmen nur positive Auswirkungen, wohl eher ein Wunschtraum ist.
Am Beispiel von Midjourney und vergleichbaren Bildgeneratoren hat sich eine Veränderung für Tätige im Bereich Design/Illustration bereits angedeutet. Es scheint so, als würden hier Beschäftigte ihren Schwerpunkt von der Erstellung von Bildern und Designs hin zur Nachbearbeitung derselben verlagern (müssen). Der kreative, „interessante“ Teil erfolgt also schon in Teilen in der Maschine, nur das „langweilige“ Finetuning ist (noch) Handarbeit. Natürlich dann zu schlechteren Konditionen (Gehalt oder Honorare, Zeit, Freiheiten, …).

Eine ähnliche Problematik hat sich im Bereich der Musiker ergeben, nachdem es nun wohl schon möglich ist, Songs automatisch zu erzeugen, die von denen einer Band nicht mehr unterscheidbar sind, aber völlig ohne deren Beteiligung erstellt wurden. Interessanterweise scheinen die Auswirkungen hier geringer zu sein, da die Rechteverwertung juristisch erheblich stärker definiert, überwacht und durchgesetzt wird und damit eine „Einführung durch die Hintertür“ erheblich erschwert wird.

Bereits länger in der aktiven (kommerziellen) Nutzung sind KI-gestützte Textgeneratoren, auch im Journalismus. Hier hat wohl ChatGPT ein neues Kapitel aufgeschlagen, die Auswirkungen werden sich noch in seiner ganzen Schönheit zeigen müssen. Man kann aber davon ausgehen, dass der Anteil automatisch erzeugter Texte erheblich gesteigert wird, je besser die Qualität der erzeugten Texte ist oder in Zukunft sein wird.

Besonders spannend war für mich die aktuelle Forderung nach einem Stopp in der Entwicklung von KIs, unterstützt von einer nennenswerten Anzahl von Experten. Auch wenn ich manchen dieser Experten hierbei eine gewisse Schizophrenie bescheinigen möchte, ist es in der Sache durchaus ein wichtiges Signal.
Ich glaube persönlich zwar weniger an ein Szenario der Machtübernahme durch eine KI, sehr wohl aber an breite strukturelle Benachteiligung einzelner Gruppen aufgrund von durchautomatisierten Vorgängen in kritischen Bereichen.
Wie wäre es z.B. mit einer KI-gestützten Bearbeitung von staatlichen Hilfeleistungen? Oder eine starke Etablierung im Bereich der medizinischen Diagnostik? Beides wären sinnvolle Bereiche, die aber genauso katastrophale Auswirkungen auf einzelne haben könnte.

Persönlich sehe ich in der Technologie unglaubliches Potential, sowohl im positiven wie auch im negativen Sinne. Allerdings glaube ich derzeit nicht an die nötige gesellschaftliche und persönliche Reife, dass diese Technologie die oft beschworenen Vorteile für alle bringen wird. Realistisch gesehen sind praktisch alle Bereiche des Lebens marktwirtschaftlich durchdrungen und werden auch anhand deren Kriterien faktisch gesteuert. Und da Firmen (per Definition) die primäre Aufgabe haben, Geld zu erwirtschaften, wird wohl der erste ausgeprägte Aspekt bei der Nutzung dieser Technologie(n) die Optimierung der Kostenstruktur bleiben, damit der Mitarbeiter.

Grundsätzlich müssen Spielregeln her, wie diese schöne neue Welt der KI-basierten Lösungen, die man durchaus mit dem Schlagwort „Breaking Invention“ gleichsetzen kann, nun für die Masse an Leuten sinnvoll eingesetzt werden kann und nicht nur als alleiniges Mittel zur Optimierung der Kostenstrukturen. Dabei muss es sowohl darum gehen, einen gesellschaftlichen Konsens (mindestens aber eine offene Diskussion) zu den vielen Aspekten zu schaffen und weiter zu treiben, aber auch mit den Kosten der Schaffung dieser Lösungen. Nicht zu vergessen mit der Kontrolle dieser Umgebungen. Den einfachen Weg, einfach alles zu verbieten, weil nicht zu kontrollieren, würde ich als wenig erfolgsversprechend sehen. Zum einen dürfte es die Weiterentwicklung auch in unerwünschten Aspekten lediglich behindern, zum anderen wird durch ein simples Verbot kein Fortschritt im gesellschaftlichen Diskurs erreicht. Auch wird ein Verbot bei fehlender Akzeptanz durch die Mehrheit der Bevölkerung (z.B. bei bekanntem Nutzen für den Einzelnen) wahrscheinlich in gezielter Unterwanderung im rechtlichen Graubereich führen, was keinem am Ende weiterhilft.

Wichtige Punkte sind hier der Umgang mit den Eingangsdaten und der Ressourcenhunger der Lernumgebungen zur Erstellung dieser Datenmodelle. Denn zum Training dieser Modelle ist erhebliches Maß an Daten, Hardware und Energie vonnöten.

Auch ist es derzeit noch kaum möglich, eine verlässliche Aussage zu Ergebnissen zu machen. Obgleich (wieder am Beispiel von ChatGPT) die Ergebnisse erstaunlich sind, sind diese kaum geeignet ohne Prüfung direkt verwendet zu werden. Auch wurde das System schon pseudowissenschaftlichem Geschwurbel und Falschaussagen überführt. Ohne Kontrolle sollten solche Systeme keine Anwendung finden.

Ebenso wichtig ist die offensichtliche Auswirkung auf die Arbeitswelt, wenn Bestandsberufe stark unter Druck geraten oder hinfällig werden. Das muss nicht notwendiger ein Verhinderungsgrund sein, aber der Umgang mit diesem Effekt muss klar sein und für Betroffene auch unmittelbar hilfreich. Strukturwandel ist eine Notwendigkeit, aber vom Einzelnen allein kaum zu lösen. Schon gar nicht in den kurzen Zeitspannen, die durch die IT allgemein faktisch gesetzt werden.

Das ganze wird erst richtig komplex, weil man diese ganzen Dinge im Verbund betrachten muss.
Ein Song besteht z.B. aus dem Text, der Musik, Cover, einer Produktion, Vertrieb etc.
Wenn man (basierend auf den aktuellen Lösungen) z.B. den Text durch eine spezialisierte KI bauen lässt, die Musik und das Cover auch, das Ganze dann über Streaming-Dienstleister vertreibt (deren KIs die Sichtbarkeit und Vermarktung beeinflussen) ist in der gesamten Wertschöpfungskette kein einziger professionell ausgebildeter Mensch mehr tätig.
Und das ist mit den Lösungen heute durchaus möglich, keine Fiktion.

Ebenso wichtig (allerdings kein alleiniges Thema bei KI-Anwendungen) ist das (sichere) Szenario von Missbrauch. Wieder am Beispiel von Midjourney konnten erstaunliche Deepfakes von Prominenten erstellt werden, die einer oberflächlichen Prüfung jederzeit standhalten können. Vergleichbare Ergebnisse konnten bei Videomaterial erreicht werden bis zu einem Grad, an dem nur noch Spezialisten eine Fälschung erkennen konnten. Wenn man sich dir Wertigkeit von Bildern und Videomaterial in der aktuellen Rechtsprechung vor Augen führt, sollte klar sein, wie weitreichend diese Entwicklung Einfluss auf unsere Gesellschaft nehmen wird. Gerade auch, weil viele Kontroll- und Prüfmechanismen schon jetzt entweder schlicht nicht (mehr) existieren oder nur noch minimal vorhanden sind. Gutes Beispiel ist die aktuelle Qualität mancher journalistischen Quellen, bei denen Quellenprüfung offenbar kein Schwerpunkt mehr ist.

Wichtig ist aber trotzdem nicht zu vergessen, dass die Technologie an sich ein sehr wertvoller Baustein in der Zukunft sein kann und sein wird (wie z.B. auch das Internet es war und ist). Aber nicht im wertefreien, rechtsfreien oder kontrollfreien Raum, sondern unter Beachtung von gesellschaftlich akzeptierten Regeln und Normen. Und genau da sollten wir erheblich aktiver werden, als bisher geschehen.

BTW: Dieser Text wurde persönlich ohne Zuhilfenahme einer KI erstellt, überarbeitet und veröffentlicht und enthält damit auch persönliche Fehler, Ungenauigkeiten und durchaus diskutable Meinungen. Nicht zu vergessen, ich übernehme auch persönlich die Verantwortung dafür. In meinen Augen die wichtigste Aufgabe, die man einer KI nicht übertragen sollte, kann oder darf. 

 

Rasa – intelligente Assistenten

Über Recherchen für meinen Chatbot bin ich auf das Framework Rasa Open Source gestolpert. Damit ist es relativ einfach möglich, einen vergleichsweise intelligenten Assistenten zu entwickeln ohne sich allzu tief mit den notwendigen Grundlagen wie z.B. NLP zu befassen. Je nach Neigung kann man aber auch richtig tief einsteigen.

Projekt: Rasa Open Source

Kontakt: Rasa Technologies

Link: Homepage Youtube

Wir benutzen Cookies und Logs mit personenbezogenen Daten ausschließlich für essentielle Funktionen wie z.B. bei der Benutzeranmeldung oder der Fehlersuche. Für Videos werden weitere Cookies von Drittanbietern benötigt. Details finden sie unter dem Link "Weitere Informationen".