Hintergrund des Titelbildes: Filmstill aus „The Frost“
Relive Memories – Von Nico Hofmann
Die Künstliche Intelligenz (KI) und ihre Maschinen werden die Art und Weise verändern, wie wir Menschen in Zukunft leben und arbeiten. Dramatische Auswirkungen hat das auch auf die globale TV- und Filmindustrie, die zwar mit Hilfe der KI großartige, zuvor nie gesehene, surreale Bilderwelten entwickeln kann, aber gleichzeitig ihrer eigentlichen wirtschaftlichen Grundlage beraubt wird, indem die KI all ihre Urheberrechte enteignet, wenn dieser Markt nicht endlich wirksam vom Gesetzgeber reguliert wird.
Die KI kann – wenn sie entsprechend gestaltet und reguliert wird – nicht nur für mehr Fortschritt und Wohlstand sorgen, sondern auch für mehr Lebensqualität der Menschen: Intelligente Maschinen können die Arbeit und den Alltag des Menschen vom Joch der Routine befreien und mit neuen Lebensinhalten bereichern. Roboter werden in den Fabrikhallen immer mehr den Menschen die sehr schweren und gesundheitsgefährdenden Tätigkeiten abnehmen und die Produktivität und damit die Qualität der Arbeit in ungeahntem Ausmaß erhöhen. Gleichzeitig erleben viele Arbeitnehmenden die Errungenschaften des digitalen Zeitalters eher negativ: In der Mensch-Maschine- Interaktion tritt oft das Gefühl auf, dem Kollegen Roboter ausgeliefert zu sein. Studien zeigen schon heute: Die Zunahme digitaler Technik wird am Arbeitsplatz als steigende Überwachung und Arbeitsverdichtung empfunden, die mit deutlich erhöhtem Stresslevel einhergeht und sich mit einer als übergriffig erlebten „Always on“-Anforderung immer tiefer in die ständig abschmelzende eigene freie Zeit frisst. Diese Verschmelzung von Arbeit und Leben wird verändern, wie wir künftig leben und arbeiten. Wenn die KI auch die Lebensqualität steigern soll, dann sollten die Menschen zu selbstbestimmten Akteuren der sinnvollen Anwendung und smarten Nutzung dieser wundervollen Technologien befähigt werden. Die Künstliche Intelligenz darf die Menschen nicht zu passiven und ohnmächtigen Objekten rasanter ökonomischer und sozialer Veränderungen degradieren. Die ungeahnten Möglichkeiten der Künstlichen Intelligenz lösen in der Gesellschaft bereits Ängste vor einer Machtübernahme seelenloser Roboter aus, die man sehr ernst nehmen muss.
Hollywood hat uns schon immer gewarnt
Gerade Hollywood hat diese Dystopien immer wieder auf beklemmende und beeindruckende Weise inszeniert. Bereits 1984 hat James Cameron mit Terminator eine KI zur militärischen Verteidigung beschrieben, die ein eigenes Bewusstsein entwickelt und gegen die Menschheit einen Atomkrieg beginnt, weil sich die Maschinen in ihrer Existenz vom Menschen bedroht fühlen. Das System lässt sich aber nicht mehr abschalten, es gibt keinen Server, dem man den Stecker ziehen kann. Skynet hat sich – wie sein Name es schon vor 40 Jahren prophezeite – in eine Sphäre zurückgezogen, die man heute Cloud nennt.
Bereits 16 Jahre zuvor spielte 1968 die Künstliche Intelligenz die Hauptrolle in Stanley Kubricks Meisterwerk A Space Odyssey. Kubrick arbeitete beim Drehbuch sehr eng mit dem Science-Fiction-Schriftsteller und Physiker Arthur C. Clarke zusammen. In einer entscheidenden Szene sehen wir in der Kantine des Raumschiffs die beiden Astronauten Frank Poole und Dave Bowman, die während ihrem Mittagessen auf ihren Tablets (die übrigens exakt so aussehen und die gleichen Abmessungen haben, wie das Apple iPad Pro, das 2015 auf den Markt kam) eher beiläufig eine TV-Show mit dem Supercomputer HAL 9000. Der introvertierte und omnipotente Zentralrechner, der vor den Astronauten Geheimnisse hat, erzählt dem Moderator, dass er mitnichten darüber traurig sei, dass seine Existenz als Künstliche Intelligenz vom Menschen völlig unabhängig sei. Und tatsächlich versucht HAL 9000 Frank und Dave zu töten. Denn die beiden Menschen wollen ihn abschalten, weil sie spüren, dass HAL etwas gegen sie im Schilde führt.
Auch Steven Spielberg thematisierte 2002 in seinem Spielfilm Minority Report mit Tom Cruise die problematische Rolle der KI, wenn sie erst einmal so viel Macht hat, um über Leben und Tod der Menschen entscheiden zu können. Der Film beruht auf einer Kurzgeschichte des genialen Science-Fiction-Autors Philip K. Dick und fesselte die Zuschauer damals mit der Darstellung zahlreicher innovativer Technologien wie allgegenwärtige digitale Displays im Großformat, Augen- und Gesichtserkennung und einigen mehr. Viele dieser Konzepte sind heute in unserem Alltag angekommen. Am Anfang des Projekts hielt Steven Spielberg mit namhaften Futurologen und MIT-Wissenschaftlern ein dreitägiges Seminar ab, um herauszufinden, wie die Welt im Jahre 2054 aussieht. Heraus kam damals bei Spielberg eine Liste, wie sich nach der Einschätzung der Experten die Medizin, die Verkehrstechnik, die urbane Architektur usw. bis 2054 entwickeln würden. Nicht alle Ergebnisse hat Spielberg dann in seinem Film umgesetzt, aber in einem Interview sagte er im Rückblick: „Ich wollte den Film erden, aus ihm mehr Science als Fiction machen.“ Die Idee im Film, einen Computer durch Handbewegungen zu steuern, hat nachweislich die Entwickler bei Apple und Microsoft zur Gestiksteuerung von iPhone und iPad und zur Multitouch-Technologie ab Windows 7 inspiriert: Mit einem Finger werden Fenster hin und her geschoben, Bilder lassen sich vergrößern, indem man die Finger spreizt. Vor allem das beklemmende Projekt Precrime, mit der die Washingtoner Polizei im Film mittels Präkognition Morde verhindert, wird in den Metropolen der Welt immer mehr zur Realität. Zahlreiche Modelle des Predictive Policing analysieren heute mit Hilfe der künstlichen Intelligenz Falldaten, um die Wahrscheinlichkeit und die Locations künftiger Straftaten zu berechnen. Im Film wird die Künstliche Intelligenz aber manipuliert und richtet ihren schrecklichen Verdacht gegen Tom Cruise, der von nun an in einem mörderischen Wettlauf versucht, seine Unschuld zu beweisen.
Die Künstliche Intelligenz, die zum Gegner des Menschen wird: das ist der Albtraum unserer heutigen Zeit. Viele Hollywood-Filme beschäftigen sich mit dem Aufstieg der Künstlichen Intelligenz und mit dem Moment der Singularität, in dem die Computer zu Bewusstsein kommen und beschließen, uns alle auszulöschen. In der Trilogie der Wachowski-Geschwister The Matrixhat die Künstliche Intelligenz die Menschen bereits besiegt und unterjocht. Ihre Körper liegen in gebärmutterähnlichen Waben in einer Nährlösung und werden auf gigantischen Farmen als Energielieferanten angezapft. Der menschliche Geist ist unterdessen per Brain-Interface in einem virtuellen Gefängnis – der Matrix – gefangen und wird dort in einer gigantischen Simulation von einem scheinbar ganz normalen Leben unterhalten. Die KI kennt den Menschen ganz genau. Sie weiß, er lebt von der sozialen Interaktion allein. So gaukelt sie ihm ein aufregendes Leben, inklusive Liebe und großer Gefühle vor. Darüber hinaus erlaubt sie einigen ganz wenigen Gefangenen den Ausbruch aus der Matrix. Die Rebellen rund um ihren „Auserwählten“ Neo (Keanu Reeves) kämpfen vermeintlich für die Befreiung der Menschheit, sind aber in Wahrheit – und der Zuschauer begreift das erst sehr spät – nur Schachfiguren der KI, die bereits im sechsten Durchgang mit ihnen spielt, um die Schwachstellen des Computersystems ausfindig zu machen, mit einem Update zu beseitigen und damit die Simulation der Matrix noch weiter zu perfektionieren.
Jetzt springt der Computer auf die Nase
Wenn man die aktuellen technischen Fortschritte bei Augmented und Virtual Reality betrachtet, sind solche Simulationen wie die Matrix nicht mehr sehr weit von der Realität entfernt. Die schon heute beinahe unendlich verfügbaren Rechnerkapazitäten, die Entwicklung neuronaler Netzwerke und die immer höheren Bandbreiten durch Satellitenschwärme in erdnahen Umlaufbahnen ermöglichen so niedrige Latenz-Zeiten der mobilen Datenübertragung, dass diese Art von Simulationen immer realistischer werden. Denn je geringer die zeitliche Verzögerung der Datenübertragung, desto realer nehmen die Anwender die virtuellen Welten wahr. Facebook-Gründer Mark Zuckerberg hat mit der Umbenennung seines Unternehmens in Meta bereits eine milliardenschwere Wette auf dieses künftige Universum der Simulation – das Metaverse – abgegeben. Diese neuen Technologien, die auf Künstlicher Intelligenz beruhen, bedeuten nichts weniger, als dass bisher tote Dinge zum Leben erweckt werden. Virtual und Augmented Reality werden über die hochauflösenden, kabellosen VR- und AR- Brillen digitale Welten nahtlos in unsere physikalischen und realen Umgebungen einbauen. Jedes Büro, jeder Konferenzraum, jede Wohnung, jede Straße wird so mit digitalen Layern möbliert und ausstaffiert – wie auf dem Holodeck im Raumschiff Enterprise.
Spatial Computing
Dem Technologieunternehmen Apple scheint es offenbar nach Einschätzung vieler Experten wieder einmal gelungen zu sein, die entsprechende Killerapplikation für diesen neuen Trend des räumlichen Computings zu entwickeln: Die Datenbrille Apple Vision Pro verkörpert offenbar im Jahre 2024 – 12 Jahre nach dem Tod des Masterminds Steve Jobs – in der Unternehmensstrategie die dritte Evolutionsstufe von Apple. Bereits 1984 und 2007 haben der Mac und das iPhone Apple-Geschichte geschrieben, indem sie grundlegend verändert haben, wie wir Computer benutzen. In der ersten Stufe stieg der Computer aus den Wandschränken der riesigen Magnetband-Speicher und setzte sich als Personal Computer auf den Schreibtisch. Damit wurde diese vormalige Industrie-Technologie, die sich damals nur wenige große Unternehmen überhaupt leisten konnten, zum erschwinglichen und persönlichen Tool für Milliarden von Menschen, die fortan den PC als Informationsmaschine für berufliche und private Zwecke nutzen und ihn später mit dem Internet verbanden, um in ein völlig neues Kommunikationszeitalter aufzubrechen. Dann wanderte der Computer als Smartphone vom Schreibtisch in die Hosen- und Handtasche und organisiert seitdem über Internet, Apps und soziale Medien vollständig das berufliche und soziale Leben von Milliarden vernetzter Menschen. Nun soll mit der neuen Apple- Brille der Computer auf unserer Nase landen. Als unsichtbares Smartphone, das die Distanz zwischen Technik und Mensch nochmals verringert und die Grenzen zwischen Körper und Maschine noch weiter verschwimmen lassen wird.
Nach der Produktpräsentation der Apple Vision Pro im Jahre 2024 waren viele Experten von der technischen Umsetzung dieser Vision zunächst einmal enttäuscht, doch für ein endgültiges Urteil ist es noch zu früh. Als Film- und TV-Produzent fasziniert mich an diesem neuen Headset viel mehr, dass Apple mit der Vision Pro jetzt über eine eigene Plattform für innovativen neuen Content verfügt. Das, was Zuckerberg vielleicht zu früh als Metaverse etablieren wollte, gelingt nun Apple vielleicht mit der Einführung des Spatial Computing. Mit dieser neuen Wortschöpfung beschreibt das Unternehmen eine Nutzung von Informationstechnologie im dreidimensionalen Raum. Die Vision Pro verbindet digitale Inhalte nahtlos mit der physischen Welt und ermöglicht es den Nutzern, präsent und mit anderen verbunden zu bleiben. Die Brille schafft eine unendliche Arbeitsfläche für Apps, die über die Grenzen eines traditionellen Displays hinaus geht, sowie eine vollständig dreidimensionale Benutzeroberfläche, die mit den natürlichsten und intuitivsten Eingabemitteln gesteuert wird – den Augen, den Händen und der Stimme. visionOS, nach Apple-Angaben das erste räumliche Betriebssystem der Welt, ermöglicht den Anwendern, mit digitalen Inhalten auf eine Art zu interagieren, die so wirkt, als seien die Inhalte physisch mit ihnen im Raum. In diesem Raum können alle Apple-Applikationen und Geräte zu einer großen Benutzeroberfläche verknüpft werden, auf der man nahtlos Content und Daten von Apple erleben kann.
Neben einer völlig neu zu erlebenden Kommunikation und gesteigerten beruflichen Produktivität liegt Apples größter Fokus auf Entertainment: Welche Dimensionen das bedeuten könnte, zeigt ein zur Produkteinführung eigens produziertes Konzert mit Alicia Keys, deren Music-Label RCA 21 Jahre lang zum UFA-Mutterkonzern Bertelsmann gehörte. Man erlebt sie dabei ganz persönlich in ihrem privaten Musikstudio, als ob sie das Konzert ganz alleine für einen selbst aufführen würde. Obwohl dieses Erlebnis eines Tages für Hunderttausende verfügbar sein wird, befindet sich jeder einzelne Nutzer in seinem subjektiven Erlebnis mit dieser herausragenden Künstlerin ganz alleine in dieser sehr persönlichen Simulation. Das bedeutet also Spatial Computing – das Erlebnis des ersten räumlichen Computers. Das bisherige Entertainment-Angebot der Vision Pro ist noch schmal, aber hat großes Potenzial: Es erstreckt sich von klassischem 2D-Streaming über 3D-Filme und neuem immersiven Videos bis zum Betrachten eigener Fotos und stereoskopischer Videos. Letzteres vermarktet Apple bereits als Relive memories, als „Wiedererleben von Erinnerungen“.
Das Wiedererleben von Erinnerungen
Relive memories erinnert wiederum an The Entire History of You (2011), die finale Folge der ersten Staffel von Black Mirror, der legendären Serie, die in abgeschlossenen Episoden die positiven und negativen Auswirkungen jeweils einer neuen Technologie auf das Leben der Menschen thematisiert. In The Entire History of You hat fast jeder Charakter ein kleines Implantat, ein sogenanntes grain, hinter dem Ohr eingepflanzt, mit dem er seine Erinnerungen aufzeichnen kann. Es speichert alles, was über eine ebenfalls fix in die Netzhaut eingebaute Kamera ständig aufgezeichnet wird, und macht es über Jahrzehnte hinaus abrufbar. Mit Hilfe eines kleinen, tragbaren Controllers kann man alles, was man gesehen hat, zurückspulen und erneut ansehen. Dieser Vorgang, der als „Re-Do“ bezeichnet wird, kann im Kopf der Person oder auf einem Bildschirm in der Nähe für alle sichtbar durchgeführt werden. Das verführt die Menschen dazu, einzelne Szenen ihres Lebens obsessiv immer wieder anzuschauen. Die schönsten Momente – oder die schlimmsten. Mitmenschen werden genötigt, mitzugucken oder Stücke aus der eigenen Vergangenheit preiszugeben. Das kann natürlich nicht gut gehen und endet in dieser Episode im zwischenmenschlichen Desaster.
Spätestens an dieser Stelle wird ein Film- und TV-Produzent hellhörig und ist alarmiert. Der Apple-Slogan vom „Wiedererleben von Erinnerungen“ steht doch im Mittelpunkt seines kreativen Prozesses! Denkt man das Alicia-Keys-Erlebnis konsequent zu Ende, dann bedeutet das, dass spätestens in zehn Jahren ein Film nicht mehr im Kino oder auf einem privaten Screen (TV, Tablet oder Smartphone) betrachtet wird. Man wird also gar kein „Zuschauer“ oder „Konsument“ mehr sein, sondern man wird selbst inmitten des Films leben und kann vielleicht sogar mit den Filmstars, mit denen man sich gemeinsam in diesem dreidimensionalen Raum bewegt, persönlich interagieren, Blickkontakt aufnehmen oder sogar sprechen. Dann könnte man vom passiven Couch-Potato zum eigenen Regisseur dieses multisensorischen Erlebnisses werden – hoffentlich in engen, vom Drehbuch vorgegebenen Grenzen. Diese Vision stellt nicht nur die Zukunft des Filmgenres und des Kinos generell bis zu seiner endgültigen Abschaffung in Frage, sondern wird auch die visuelle Erzählweise der Künstler radikal verändern.
Hollywoods KI-Werkzeugkasten
Die KI-Zukunft des Entertainments wird völlig neue Sehgewohnheiten und narrative Strukturen ermöglichen und vielleicht Aspekte des Nichtsprachlichen, des Körperlichen und Nicht-Materiellen mit Hilfe der KI stärker herausarbeiten und in visuelle Kunst übertragen. Schon heute wird KI nicht nur in den dystopischen Erzählungen Hollywoods beschrieben, sondern die Filmemacher nutzen immer mehr KI-Werkzeuge für die Produktion von Content, um die visuelle Erzählweise radikal zu verändern. Viele Werkzeuge entfesseln dabei auch eine ungeheure neue und frische Kreativität:
- KI kann Autoren beim Schreiben ihrer Drehbücher helfen, indem sie Ideen für die Handlung, Dialoge, Charaktere und sogar ganze Skripte generiert. ChatGPT hilft bei der Recherche, Ideenfindung und beim Storytelling, Stable Diffusion ermöglicht Concept Art und Storyboarding. So schrieb beispielsweise ein KI-System namens Benjamin auf der Grundlage von bereits vorhandenen Science-Fiction-Drehbüchern das vollständige Drehbuch des Kurzfilms Sunspring, der bereits 2023 auf dem Sci-Fi London Film Festival gezeigt wurde.
- Die KI von StoryFit kann mit Hilfe von Hunderten von Modellen ein Drehbuch bis ins kleinste Detail analysieren, um vorherzusagen, wie die Geschichte einer Szene oder ein Dialog beim Filmpublikum ankommen wird.
- KI kann Produzenten bei der Produktionsvorbereitung helfen, etwa beim Casting, der Suche nach Drehorten und der Budgetierung. Ein KI-Tool namens ScriptBook kann zum Beispiel ein Drehbuch analysieren und dessen Einspielergebnis, Genre, Publikumsdemografie und optimale Besetzung vorhersagen. Die KI-gestützte Erstellung von Inhalten kann auch dazu beitragen, Ressourcen zu überdenken und neu zuzuweisen, um den Produktionsprozess schneller, besser und kostengünstiger zu gestalten.
- KI kann angeblich sogar die Erfolgswahrscheinlichkeit eines Films anhand von Faktoren wie Schauspieler, Budget und Marke vorhersagen. So lässt sich Warner Bros. von der KI des Unternehmens Cinelytic bei der Entscheidung helfen, welche Filme in Auftrag gegeben werden, indem es die Rentabilität der Produktion ermittelt und berechnet, wie viel Geld der Film wahrscheinlich einbringen wird.
- KI kann die Qualität und Effizienz der Filmproduktion verbessern, indem sie maschinelles Lernen einsetzt, um realistische visuelle Effekte, Animationen und Computer Generated Imagery (CGI) zu erzeugen. Das Negativbeispiel dafür sind deepfakes, bei denen die Gesichter von Schauspielern in einem Video ausgetauscht und überzeugende Imitationen oder Verwandlungen erzeugt werden, deren Künstlichkeit der Zuschauer gar nicht bemerkt.
- KI wird auch eingesetzt, um computergenerierte Bilder schneller und billiger zu machen. Die KI von Wonder Dynamics analysiert Videos, um CGI um oder über den Schauspielern zu erstellen – Effekte, deren Herstellung normalerweise viel Ausrüstung, Daten, Zeit und Geld erfordert.
- KI hilft auch bei der Synchronisation von Filmen. Das Unternehmen Flawless, das unter anderem vom Regisseur Scott Mann gegründet wurde, kann mit Hilfe von KI nicht nur die Stimme des Originalschauspielers in eine andere Sprache transferieren, sondern auch gleichzeitig seine Lippenbewegungen so synchronisieren, als ob er die fremde Sprache tatsächlich selbst sprechen würde. Scott Mann hat sich zur Gründung des Unternehmens entschlossen, weil er sich 2015 maßlos über die schlechte Synchronisation der ausländischen Fassungen seines Filmes Heist mit Jeffrey Dean Morgan und Robert De Niro in den Hauptrollen geärgert hatte. Die Übersetzungen hätten den Charakter und die Intention seiner Dialoge stark verzerrt und damit die Handlung seines Films verändert.
- KI kann Filmemachern auch bei der Postproduktion helfen, z. B. beim Schnitt, bei der Farbgebung und beim Sounddesign. Lumen5 ist zum Beispiel eine KI-gestützte Plattform zur Erstellung von Videos, mit der jedermann ohne entsprechende Ausbildung oder Erfahrung innerhalb weniger Minuten ansprechende Videoinhalte erstellen kann.
- Mit Hilfe generativer Algorithmen, die Melodien, Harmonien und Rhythmen komponieren können, kann KI auch Originalmusik für Filme erstellen. Ein KI-System namens AIVA kann beispielsweise Musik in verschiedenen Stilen und Stimmungen erzeugen und wurde bereits für die Vertonung mehrerer Filme und Werbespots verwendet.
KI-generierte Filme
Es gibt inzwischen eine Fülle von KI-Tools, die im gesamten kreativen Prozess eingesetzt werden, um das Ergebnis zu verbessern oder um mit minimalen Budgets großartige Bilder zu erzeugen. Da ist der Schritt von der KI in der Filmproduktion zu KI- generierten Filmen nicht mehr weit. Mittlerweile haben sich KI-generierte Filme eine eigene Nische erobert, mit eigenen Festivals und eigenen Communities, in denen die Kreativen und Programmierer gemeinsam die Fortschritte dieser noch jungen Disziplin feiern. KI-generierte Filme sind Filme, bei denen KI eingesetzt wird, um einige oder alle Inhalte zu erstellen. Dabei verzichten die KI-Cineasten gerne auch auf die letzten Feinarbeiten zur perfekten Angleichung der generierten Bilder an die Wirklichkeit, sondern erheben die teils surrealen Ergebnisse zur eigenen Kunstform.
Einige Beispiele für KI-generierte Filme sind:
HYSTERESIS
Ein Film, der ganz bewusst die Störung der Mustererkennung und die künstlerische Verfälschung durch die künstliche Intelligenz feiert, ist Robert Seidels mehrfach preisgekröntes Werk HYSTERESIS. Der Film stellt die von der künstlichen Intelligenz versprochene Kultur der Vorhersehbarkeit in Frage, indem er die Technologie nutzt, um klassische westliche Bilder in einen völlig unvorhersehbaren Fiebertraum zu mischen, der sich überschneidet, kollidiert und sich in moderne, surreale Kunst verwandelt.
Critterz
Der in Zusammenarbeit mit OpenAI produzierte Critterz war der erste animierte Kurzfilm, der ausschließlich mit dem Generativen KI-Tool Dall-E produziert wurde. In diesem Fall nutzten die Macher Dall-E, um die Charaktere und Landschaften zu erstellen, bevor sie die Entwürfe an ein Emmy-prämiertes Team von Animatoren weitergaben, die sie zum Leben erweckten.
The Frost
Dieser 12-minütige Film der generativen Videofirma Waymark gilt als der erste KI-generierte Film der Welt. Jede Einstellung wurde von der KI-Weiterentwicklung DALL-E 2 auf der Grundlage eines von einem Menschen geschriebenen Drehbuchs erzeugt. In diesem Film bricht ein Team in die eisige Antarktis auf, um ein mysteriöses Signal unter die Lupe zu nehmen. Der Regisseur Josh Rubin wollte mit dem kurzen Film eine Hommage an Akira Kurosawas Episode The Blizzard in seinem Film Träume (1990) inszenieren, in dem er das eisige Drama der Menschen einfängt, die versuchen, sich bei schlechter Sicht durch den tiefen Schnee zu bewegen.Die Eigenheiten von Dall-E2 sorgten vor allem bei der Generierung der Gesichter für verstörende Ergebnisse. Zu Beginn sieht man beispielsweise eine Nahaufnahme eines Mannes am Feuer, der an einem rosa Stück Dörrfleisch nagt. Es sieht total grotesk aus. Die Art, wie er seine Lippen bewegt, kann nicht stimmen. Für einen Moment sieht es so aus, als würde er auf seiner eigenen gefrorenen Zunge kauen. Diese gruseligen Fehler summieren sich zu einer ganz unheimlichen und beunruhigenden Atmosphäre. Dadurch stellt diese Reise alles in Frage, was die Teammitglieder über ihre Vergangenheit und Zukunft zu wissen glaubten. Wie Stephen Parker, einer der Macher des Films, erklärte, kamen die Produzenten irgendwann an einen Punkt, an dem sie aufhörten, gegen den Wunsch nach fotografischer Genauigkeit anzukämpfen, und begannen, sich auf die visuellen Verrücktheiten der KI einzulassen.
Given Again
Given Again ist ein Kurzfilm, der eine Technologie namens NeRF (neural radiance fields) verwendet, um 2D-Fotos in virtuelle 3D- Objekte zu verwandeln und so einen traumähnlichen Effekt zu erzeugen. Der Film war Teil des Runway AI Film Festivals im Jahr 2023.
Thank You For Not Answering
Dieser Film des KI-Videopioniers Paul Trillo ist ein Beispiel für einen großen Trend bei KI-Videos, bei dem kurze animierte Clips aneinandergereiht werden, um die Interpretation eines begleitenden Audiotracks durch den Künstler visuell darzustellen. In diesem Fall hört man auf der Tonspur einen Mann, der einer Person aus seiner Vergangenheit eine Sprachnachricht hinterlässt, während die Clips jeweils einen imaginären Moment aus seinem Leben zeigen, wie es hätte sein können. Trillo verwendete für die Produktion der Videoclips mit dem KI-Tool Runway nur Text- und Bildanweisungen.
Sigma
Der Regisseur Queen Halleck präsentierte 2023 bei den 76. Filmfestspielen von Cannes den ersten KI-Filmemacher der Welt: Satori-5. Satori-5, ist ein Geschöpf von Halleck und dem Produktionsstudio Late Arrivals, sein Name steht im Zen-Buddhismus für das Erlebnis der Erleuchtung. Er ist eine metaphorische Repräsentation der KI, die Drehbuchideen, Storyboards, Konzeptzeichnungen, visuelle Effekte und Shot-Listen generieren sowie Einblicke und Vorschläge während des gesamten Produktions- und Postproduktions-Workflows liefern kann und über ein umfangreiches Wissen über Filmgeschichte und Genres verfügt. Satori-5 hat als erstes Werk die dreiteilige Sci-Fi-Miniserie Sigma entwickelt, der Trailer des ersten Kurzfilms Sigma_001 ist bereits veröffentlicht und beleuchtet die Möglichkeiten, Risiken und Auswirkungen, die KI auf die Gesellschaft haben wird. Getreu seinem Thema setzt Sigma_001 die KI als Werkzeug in allen Aspekten des filmischen Workflows und in jeder Phase des Produktionsprozesses ein und markiert damit einen bedeutenden Schritt bei der Integration von KI in traditionelle kreative Arbeitsabläufe. Der virtuelle Filmemacher Satori-5 wird weiterhin mit diesen neuen Techniken experimentieren und sie verfeinern, um Geschichtenerzähler in die Lage zu versetzen, mit weniger Aufwand mehr zu erreichen.
KI kann das Filmemachen demokratisieren
Vor allem das letzte Beispiel zeigt, dass der Einsatz von KI in TV- und Filmproduktionen zunächst kein Angriff auf die menschlichen Kreativen ist, sondern sie dabei unterstützt, mit sehr geringen Mitteln sehr aufwendige Produktionen zu stemmen und im gesamten Prozess die Kreativität nicht behindert, sondern eher fördert. Ein Blick in die Filmgeschichte zeigt, dass schon immer technologische Innovationen die künstlerischen Ausdrucksformen bereichert haben. So hat der bekannte deutsche Ingenieur Erich Kästner in den 50er-Jahren die erste professionelle 16 mm-Kamera entwickelt, die extrem klein und robust war. Zwar konnte mit ihr kein Originalton aufgezeichnet werden, da der Motor ziemlichen Lärm machte. Aber man konnte sich mit dieser Kamera plötzlich ohne Stativ frei bewegen, war offen für überraschende Momente und Improvisation und konnte den Schauspielern sehr viel direkter, sehr viel näherkommen. Das regte die Filmemacher der französischen Nouvelle Vague in den frühen 60er-Jahren dazu an, mit diesen Handkameras auf die Straße zu gehen und eine völlig neue und viel modernere Filmsprache zu schaffen. Das gleiche kann man von den neuen Technologien der KI auch erwarten: Denn bei weitem nicht alles, was sich die menschliche Vorstellungskraft ausdenken kann, lässt sich mit einer optischen Linse einer Kamera überhaupt aufnehmen. Für Kreative ist es auch sehr interessant, Dinge zu schaffen, die nicht wie die Welt um uns herum aussehen und eine völlig neue Welt erschaffen. Insoweit multiplizieren die technischen Möglichkeiten der KI die kreativen und schöpferischen Ausdrucksformen um ein Vielfaches und werden also die Kreativität nicht vernichten, sondern eher entfesseln. Wir werden erleben, dass in wenigen Jahren Produktionen, die ohne die Hilfe von optischen Linsen hergestellt werden, rasant zunehmen und bald die Hälfte des gesamten Marktes erobern werden. Mit der KI kann man innovative Ideen schneller als je zuvor zum Leben erwecken, oder wie man sagt, den Bildern das Laufen beibringen. Als kollaboratives Werkzeug hilft die KI den Independents dabei, Produktionszeiten und Kosten zu verkürzen und schafft so neuen Talenten einen eigenen Zugang zu hochwertigen Produktionen. Wenn dieser Trend der Demokratisierung des Filmemachens anhält, wird sie die Produktionslandschaft für digitale Inhalte radikal verändern. Die etablierten Platzhirsche in Hollywood und Berlin-Babelsberg müssen sich warm anziehen.
Risiken der KI für die TV- und Filmbranche
Wenn wir eines Tages auf die heutige Zeit zurückblicken, in dem die Künstliche Intelligenz erwachsen wurde und sich explosionsartig in diese unüberschaubare Zahl von praktischen KI-Tools vervielfältigte, die von Millionen Menschen plötzlich als Werkzeuge ganz selbstverständlich in ihrem Alltag genutzt werden, dann werden wir sicher den November 2022 rot im Kalender markieren. Als OpenAI die erste Version seines Chatbots ChatGPT veröffentlichte, war das der iPhone-Moment für die künstliche Intelligenz. In nur zwei Monaten meldeten sich über 200 Mio. Menschen für diesen Service an, um ohne jegliche Computerkenntnisse E-Mails und einfache Texte verfassen oder Übersetzungen und Programmiercodes erstellen zu lassen. Zudem ist ChatGPT aufgrund seiner maschinellen Lerntechnologie in der Lage, umfassend frei formulierte Fragen von Nutzern zu beantworten. Mittlerweile sind in kürzester Zeit weitere, viel fortschrittlichere Versionen veröffentlicht worden und generative KI- Modelle anderer Hersteller auf den Markt gekommen.
Googleʼs DeepMind hat im Februar 2024 die nächste Generation seines leistungsstarken künstlichen Intelligenzmodells Gemini auf den Markt gebracht, das nun noch besser mit großen Mengen an Videos, Text und Bildern arbeiten kann. Und OpenAI hat ein beeindruckendes neues generatives Videomodell namens Sora entwickelt, das eine kurze Textbeschreibung in einen detaillierten, hochauflösenden Filmclip von bis zu einer Minute Länge verwandeln kann. KI-Videogenerierung gibt es schon seit einiger Zeit, aber Sora scheint das Niveau noch einmal zu steigern. OpenAI behauptet, dass Sora ein vielversprechender Weg zum Aufbau von Allzweck-Simulatoren der physischen Welt werden könnte.
Fast im Wochentakt entstehen neue KI-Anwendungen, die die Produktion von Filmen und TV-Serien revolutionieren. So hat ein Forschungsteam von Microsoft Mitte April 2024 das neue KI-Werkzeug VASA vorgestellt, das aus einem Foto und einer Sprachaufnahme erstaunlich echt aussehende Videoclips erzeugen kann, in denen die Person auf dem Foto scheinbar spricht. Das Werkzeug sei nicht nur in der Lage, die Synchronisation zwischen Lippen und Ton herzustellen, sondern kann auch ein großes Spektrum an ausdrucksstarker Mimik und natürlichen Kopfbewegungen simulieren. Das Interessante daran ist, dass Microsoft von sich aus auf eine Veröffentlichung des Programms verzichtet und auch keinen Zugang für Entwickler gestattet, weil selbst den Software-Ingenieuren klar ist, dass dieses Programm regelrecht zum Missbrauch einlädt, echte Menschen zu verfälschen. Man werde ein Produkt, das auf dieser Technologie aufbaut, erst entwickeln und auf den Markt bringen, wenn man sicher sein könnte, dass die Technik nur verantwortungsbewusst genutzt wird. Es ist bemerkenswert, dass der Softwarekonzern selbst zu dieser Einsicht kommt und sich diese freiwillige Selbstbeschränkung auferlegt.
Doch der Grund, warum KI-Tools bei der Filmproduktion noch nicht auf breiter Front eingesetzt werden, könnte auch darin liegen, dass noch niemand weiß, wie die Gerichte mit den neuen rechtlichen Fragen umgehen, die durch diese Technologien aufgeworfen werden. Zu den wenigen Vorbehalten, die den weiteren Einsatz von KI verzögern, gehört das Schreckgespenst eines Gerichtsurteils, wonach die Verwendung von urheberrechtlich geschütztem Material zum Training von KI-Systemen eine Urheberrechtsverletzung darstellt. Viele Künstler und Schriftsteller und sogar die New York Times und acht weitere US-Verlage haben Open AI und weitere KI-Unternehmen verklagt, weil sie der Meinung sind, dass deren Praxis, wahllos Daten aus dem Internet zu sammeln, um ihre Modelle zu trainieren, ihr geistiges Eigentum verletze. Auch die Nachrichten-Webseiten The Intercept, Raw Story und AlterNet klagen gemeinsam gegen OpenAI. In den USA und in Europa sind zwar einige Gerichtsverfahren eröffnet worden, aber bislang ist noch kein Grundsatzurteil ergangen.
In dieser rechtlichen Grauzone scheren sich die großen fünf Tech-Konzerne Microsoft, Apple, Google, Meta und Amazon erst recht nicht um Urheberrechte. Sie bemächtigen sich der Summe des menschlichen Wissens, indem sie alle im Internet zugänglichen Filme, Texte, Bücher, Kunstwerke, Fotografien, Musik und Grafiken für ihre eigenen kommerziellen Zwecke auswerten, um sie dann digital in eigenen Produkten zu verwerten. Der Wissenschaftsjournalist Ranga Yogeshwar nannte das „den größten Diebstahl in der Menschheitsgeschichte“. Und die Dreistigkeit der Konzerne geht ja weiter: Sie können aufgrund ihrer Marktmacht natürlich ihre eigenen Produkte so weit wie möglich eigentumsrechtlich absichern.
Damit geraten die wirtschaftlichen Grundlagen der globalen TV- und Filmindustrie in Gefahr. Und in Deutschland ist ein großer Teil der Kreativwirtschaft betroffen, die insgesamt über 175 Mrd. € Umsatz (2021) erwirtschaftet und knapp zwei Millionen Menschen beschäftigt. Mit dem Siegeszug der Künstlichen Intelligenz sind auch ganz konkret die existenziellen Grundlagen und die Urheberrechte aller kreativen Talente in der Entertainment-Industrie bedroht: Musiker, Schauspieler, Schriftsteller und Drehbuchautoren haben berechtigte Sorgen, dass ihre künstlerische Leistung, ihre Ausdrucksformen (Gesicht, Stimme, Gesang, Texte) und ihre Persönlichkeit mit Hilfe der Künstlichen Intelligenz kopiert, verfremdet und ohne ihre Zustimmung weiterverwertet werden könnten. Die Liste der zahlreichen KI-Tools (s. o.) zeigt die schier unendlichen Möglichkeiten der Manipulation und des Missbrauchs von Urheberrechten.
Hollywood ist Pionier beim Einsatz der KI, aber auch bei ihrer Regulierung
Das ChatGPT-Phänomen hat die Unterhaltungsindustrie weltweit schockiert und aufgerüttelt. Vor allem die US-Tarifverhandlungen zwischen den großen Filmstudios und den Gewerkschaften, die Autoren, Regisseure und Schauspieler vertreten, wurden auf den Kopf gestellt. Zu Beginn des Jahres 2023 war KI bestenfalls ein Randthema bei den Verhandlungen, doch dann stand wegen ChatGPT der Einsatz und Missbrauch von KI durch die Studios im Mittelpunkt der SAG-AFTRA-Streiks, die die Gewerkschaften nach langem zähem Arbeitskampf erfolgreich für sich entscheiden konnten. Nun liegen die ersten Tarifverträge vor, die sich mit der Regulierung der künstlichen Intelligenz in der Unterhaltungsindustrie befassen. Diese Vereinbarungen regeln nicht nur die Film- und Fernsehproduktion in den USA. Nach Ansicht des Rechtsanwalts Dan Stone von der Kanzlei Greenberg Glusker in L.A. – ein ausgewiesener Experte für die Hollywood-Tarifverhandlungen und für Urheberrechte von Künstlern – werden sie sich auch auf der ganzen Welt zum Präzedenzfall für viele vertragliche Regelungen für alle Arten von Produktionen, von Film und Fernsehen bis hin zu Werbespots, Videospielen und neuen Medien, entwickeln. Dieses sehr ausführliche Regelwerk, das in einem Memorandum of Agreement (MOA) zwischen den Hollywood-Studios und der Gewerkschaft SAG-AFTRA vereinbart wurde, wird also weitreichende Auswirkungen auf die gesamte globale Inhalte-Industrie haben und sollten deshalb näher betrachtet werden.
Es gibt im MOA zwei wesentliche Regulierungsansätze, die sich zum einen auf den Input und zum anderen auf den Output der KI- Systeme konzentrieren. Beim Input werden Medienkonzerne und Unternehmen der Unterhaltungsindustrie wahrscheinlich zwei Kategorien von KI entwickeln: lizenzfreie Modelle, die auf Datensätzen basieren, die ohne zusätzliche Genehmigungen oder Zahlungen an Dritte verwendet werden können, und lizenzpflichtige Modelle, die die Zustimmung Dritter und zusätzliche Zahlungen erfordern. Das betrifft vor allem Bild- und Tonaufnahmen, die zum Training eines KI-Tools verwendet werden, um sie später in neuen Filminhalten zu verwenden. Das gilt aber auch für die Drehbücher von Autoren, die von der KI- für Trainingszwecke genutzt oder als Steinbruch durch die digitale Contentmühle gedreht werden.
Für viele Kreative der Filmbranche sind die Output-Regeln viel wichtiger, denn sie wollen verständlicherweise die Kontrolle über ihr Werk oder über ihr Gesicht so weit wie möglich behalten. So definiert das MOA 2023 einen „synthetischen Darsteller“ als einen digital erstellten Vermögenswert, der zwar wie ein natürlicher Darsteller aussieht, aber nicht als ein identifizierbarer natürlicher Darsteller erkennbar ist und auch nicht von einem realen Schauspieler gesprochen wird und keine digitale Replikation oder das Ergebnis eines bestehenden Arbeitsvertrags mit dem Schauspieler ist. Ein synthetischer Darsteller ist also eine Figur, die allein von der generativen KI geschaffen wurde. Gemäß dem MOA 2023 gibt es zwei Arten von synthetischen Darstellern: wiedererkennbare und generische. Ein synthetischer Darsteller ist dann erkennbar, wenn er das „Hauptgesichtsmerkmal (Augen, Nase, Mund oder Ohren)“ eines Schauspielers enthält, das durch eine textliche Eingabeaufforderung an ein Generatives KI-System erstellt wurde. Für diese erkennbaren KI-Figuren muss der Hersteller mit dem Darsteller verhandeln und dessen Zustimmung einholen. Wenn ein Produzent also ein KI-System bittet, die Gesichtszüge des verstorbenen Schauspielers Götz George zu erzeugen, benötigt er die Zustimmung seiner Erben und muss auch mit ihnen über das fällige Honorar verhandeln. Nur erkennbare KI-Charaktere bedürfen der Zustimmung und einer ausgehandelten Entschädigung. Bei generischen KI-Charakteren, deren Figur zwar aus verschiedenem Filmmaterial zusammengesampelt wurde, aber keine Ähnlichkeit mit realen Schauspielern haben, wird es richtig knifflig, die Grenze zu ziehen.
Eine weitere Kategorie beim Output von KI-Produkten, die im MOU geregelt wurde, ist die digitale Replik. Es gibt zwei Kategorien: eine „beschäftigungsbasierte digitale Replik“, oder eine „unabhängig erstellte digitale Replik“. Beide Ausprägungen der digitalen Repliken sollen die Stimme oder das Aussehen eines identifizierbaren natürlichen Darstellers simulieren, der in der Rolle einer Figur auftritt und nicht als der natürliche Darsteller selbst. Ein Beispiel dafür ist die Erstellung einer digitalen Replik des Schauspielers Mark Hamill, damit er Luke Skywalker in The Mandalorian spielen konnte. Das Effekt-Team von The Mandalorian verwendete unzählige Bilder und Filmausschnitte nicht nur von Luke aus der ursprünglichen Star Wars-Trilogie, sondern auch Interviews des jungen Hamill aus der damaligen Zeit. In diesem KI-gestützten Prozess wurden die Bilder des jungen Luke mit der vollständig synthetisierten Stimme und dem digital verjüngten Gesicht des heutigen Mark Hamill auf sein Körperdouble, den jungen Schauspieler Max Lloyd-Jones, fusioniert. Ein Stunt-Double war für ihn übrigens auch noch am Set.
Wenn ein Produzent beabsichtigt, eine digitale Reproduktion eines Schauspielers zu verwenden, mit dem bereits ein Arbeitsvertrag besteht, muss er vorher die schriftliche Zustimmung des Schauspielers einholen. In den meisten Fällen wird dieser einer Verwendung seiner KI-Kopie zustimmen, um neue Zeilen oder eine neue Szene einzuspielen. Der Produzent kann darüber hinaus eine spezielle Einwilligung einholen, wenn die Replik in demselben Projekt in neuen Aufnahmen verwendet wird. Diese Anfrage muss eine „hinreichend genaue Beschreibung“ enthalten, für was die Replik verwendet werden soll. Wichtig ist, dass die einmal erteilte Zustimmung auch nach dem Tod des Darstellers gilt. Ein Produzent kann auch die Zustimmung des bevollmächtigten Vertreters eines verstorbenen ausübenden Künstlers einholen. Wenn der Produzent eine beschäftigungsbasierte digitale Replik für ein anderes Projekt, einschließlich einer Fortsetzung oder eines Prequels, verwenden möchte, muss er erneut die Zustimmung des Schauspielers einholen und eine separate Vergütung für diese Verwendung aushandeln. Auch hier gilt das Prinzip: Zustimmung und Entschädigung.
Das hört sich alles sehr bürokratisch und kompliziert an und kommt aus einem Land, das bisher nicht unbedingt für seine Regulierungswut bekannt ist. Aber diese 129 Seiten des Tarifvertrags sind notwendig, um die Drehbuchautoren, Regisseure und Schauspieler vor der Enteignung ihrer Urheberrechte und – das wird zunehmend immer wichtiger – ihrer Persönlichkeitsrechte zu schützen. Die erstaunliche Detailliertheit, mit der die US-amerikanische Unterhaltungsindustrie nach einem langen Streik der Drehbuchautoren und Schauspieler und viel öffentlichem Druck, nun die Nutzung der KI geregelt hat, zeigt wie existenziell und fundamental dieser Paradigmenwechsel für die globale Kreativwirtschaft sein wird. Das Dokument ist schon jetzt historisch und weltweit wirkmächtig.
EU beschließt AI Act nun doch mit Regelung zu Urheberrechten
Die Einigung in den USA war auch ein wichtiger Booster für die Verhandlungen zum AI Act der Europäischen Union. Denn die im US-amerikanischen MOA festgelegten Prinzipien von Transparenz, Zustimmung und Entschädigung haben sich wider Erwarten auch auf den letzten Metern des gesetzgeberischen Prozesses Mitte März 2024 im Europäischen Parlament durchgesetzt. Kurz vor der letzten Verhandlungsrunde war ein Konflikt um die Basismodelle der Generativen KI-Systeme ausgebrochen. Deutschland hatte gemeinsam mit Frankreich und Italien im Vorfeld gefordert, diese Modelle von verpflichtenden Regeln auszunehmen und nur eine Selbstverpflichtung vorzusehen. Doch das setzte sich im EU-Parlament nicht durch: Wer Basismodelle auf den Markt bringt, muss künftig unter anderem Transparenz- und Dokumentationspflichten erfüllen. Generative Modelle wie ChatGPT müssen ab Inkrafttreten dieser Verordnung das EU-Urheberrecht erfüllen. Dazu gehört, dass die Modelle des maschinellen Lernens so programmiert werden, dass verhindert wird, dass sie illegale Inhalte erzeugen. Werden urheberrechtlich geschützte Daten für das Training verwendet, muss das veröffentlicht werden. Inhalte, die mit Hilfe von KI erzeugt oder verändert wurden – Bilder, Audio- oder Videodateien –, müssen eindeutig als KI-generiert gekennzeichnet werden, damit die Nutzer es merken, wenn sie auf solche Inhalte stoßen. Anbieter von generativer KI, die auf künstlerische, kreative und publizistische Inhalte als Ausgangsmaterial zurückgreifen, sind gesetzlich zur Transparenz verpflichtet. Und sie sind vor der Verwendung urheberrechtlich geschützter Inhalte für das Training von KI-Modellen verpflichtet, eine Genehmigung der Rechteinhaber einzuholen. Und die EU-Verordnung stellt auch klar, dass Rechteinhaber sich ihre Rechte vorbehalten können, um Text- und Data-Mining zu verhindern. Dies soll ausdrücklich den Rechteinhabern dabei helfen, ihre Urheberrechte auszuüben und durchzusetzen. Im Text der Verordnung ist eine „hinreichend detaillierte Zusammenfassung“ zu den genutzten Werken vorgesehen, damit die Urheber klar erkennen können, dass es sich um ihre Inhalte handelt. Sollten Rechteinhaber auf dieser Grundlage feststellen, dass ihre Werke ohne ihre ausdrückliche Zustimmung genutzt wurden, stehen ihnen die gewohnten urheberrechtlichen Durchsetzungsmöglichkeiten zur Verfügung, und das KI- Unternehmen haftet dann auch für die Rechtsverletzung.
Hollywood will auch ein Gesetz
Der vom Europäischen Parlament beschlossene AI Act inspiriert wiederum US-amerikanische Lawmaker, diese Regeln, die ja in den USA bisher nur als Tarifvertrag vorliegen, ebenfalls in ein Bundesgesetz zu gießen. Anfang April 2024 brachte der demokratische Kongress-Abgeordneten Adam Schiff aus Kalifornien einen Gesetzentwurf ein, der Unternehmen dazu verpflichten soll, urheberrechtlich geschützte Werke, die zum Training generativer KI-Systeme verwendet werden, offenzulegen. Wenn der Gesetzentwurf verabschiedet wird, wäre beispielsweise OpenAI gezwungen, Videos und andere Inhalte offenzulegen, die zur Entwicklung von Sora verwendet wurden. Das wäre für das Unternehmen OpenAI das Ende der Geschäftsgrundlage, denn technisch lassen sich beanstandete Inhalte so gut wie gar nicht mehr nachträglich aus den Trainingsdaten löschen. Der Gesetzentwurf soll vor allem Kreative davor schützen, dass generative KI-Tools ihre Werke illegal für das Training von KI-Systemen verwenden. Wenn bekannt wird, dass Unternehmen bei der Entwicklung von KI-Systemen urheberrechtlich geschützte Werke von Filmemachern, Schriftstellern und Künstlern verwendet haben, können diese auf der Grundlage des Gesetzes dagegen klagen. Die Gewerkschaften und viele Lobbyverbände Hollywoods unterstützen diese Gesetzesinitiative. Doch noch ist unklar, ob sich dieses Gesetz im US-Kongress gegen die mächtige KI-Lobby durchsetzen wird.
Schlussplädoyer
Seitdem das ChatGPT-Phänomen die Unterhaltungsindustrie weltweit schockiert und aufgerüttelt hat, nimmt die Debatte um den Schutz geistigen Eigentums im KI-Zeitalter endlich Fahrt auf. Erste Ansätze der Regulierung, die sich sie im historischen Streik der Drehbuchautoren und Schauspieler in den USA und rund um die Verabschiedung des EU AI Acts herausgebildet haben, geben Grund zur Hoffnung, dass die intellektuelle Enteignung einer über Jahrhunderte historisch gewachsenen Kunst- und Kulturproduktion vielleicht doch noch abgewendet werden kann. Dabei sollte man allerdings berücksichtigen, dass die Debatten um ein paar sehr mächtige KI-Werkzeuge in der Medien- und Unterhaltungsbranche nur ein sehr kleiner Ausschnitt einer sehr viel größeren und sehr viel wichtigeren gesellschaftlichen Auseinandersetzung über die Zukunft der Menschheit abbilden. Die Frage der Zukunft der Arbeit und der gesellschaftlichen Teilhabe in unseren entwickelten Industriegesellschaften auf der einen Seite und die Entwicklungschancen und Wohlstandsgewinne, die diese Technologien auf der anderen Seite für aufstrebende Gesellschaften in den Schwellenländern und im Globalen Süden bereithalten, sind im Zweifel wichtiger als die Synthetisierung einer digitalen Replik eines Münchner Schauspielers.
Im Grunde genommen geht es bei der artifiziellen Intelligenz um die philosophische Frage, was das Menschsein im Kern ausmacht. Denn nur wenn die Menschheit diese Frage klärt, kann sie für sich abwägen, wie viel Technologie der Mensch in seinem Leben ertragen, akzeptieren oder feiern will. Die neuen Technologien bergen auch immense emanzipatorische Potenziale, die uns befähigen, über unsere tradierten Rollen hinauszuwachsen und die Grenzen unserer Spezies zu überwinden. Wir sollten aber trotzdem jenseits der popkulturellen Dystopien, die Hollywood am laufenden Band kulturpessimistisch imaginiert, wirksame Strategien gegen die bedrohlichen Übergriffe der Maschinen und Algorithmen auf die Grundlagen der Menschlichkeit entwickeln. Und zu den Grundlagen der Menschlichkeit gehört nun mal die Kunst und Kultur. Eine Maschine kann keine Gänsehaut, keine Schmetterlingsgefühle, keine Melancholie, keine verrückte Verliebtheit produzieren. Das kann nur der Mensch. Denn das macht ihn aus. Schönheit, Vielfalt und Inspiration können nur von menschlichen Kreativen erschaffen werden. Das kann die Generative KI nicht. Sie ist nur ein Wiederkäuer: ein Big-Data-Grinder, der bereits vorhandene Inhalte zu einem eintönigen Brei zermahlt und mit seinem ideologischen Kitt einspeichelt, um ihn angepasster, bekömmlicher und verdaulicher zu machen.
Nur kreative Autoren, Künstler und Filmemacher können dem Leben etwas Unverdauliches, Unvorhersehbares und Unerzähltes hinzufügen. Deshalb sind die narrativen Creatoren das wertvollste Asset der globalen TV- und Filmindustrie. Sie sollte man schützen. Kunst braucht Freiraum und Safe Spaces. Trotzdem sind die Kreativen der KI-Startups und -Konzerne überhaupt nicht ihre Gegner. Sie wollen nur mit den neuen Technologien die Grenzen der menschlichen Vorstellungskraft erweitern, neue Welten erschaffen und die Zugänge zu einer verkrusteten und institutionell abgeschotteten Kulturproduktion aufsprengen. Deswegen sollte man die einen schützen und die anderen fördern.