Original-URL des Artikels: https://www.golem.de/news/deep-fakes-hello-adele-bist-du-s-wirklich-1911-145136.html    Veröffentlicht: 21.11.2019 12:18    Kurz-URL: https://glm.io/145136

Deep Fakes

Hello, Adele - bist du's wirklich?

Mit Deep Fakes wird geblödelt, gehetzt und geputscht. Bedrohen Videos, die vorgaukeln, Stars und Politiker zu zeigen, die Demokratie? Möglich, nur anders, als wir denken.

Die britische Sängerin Adele spricht in einem Video der New York Times über Deep Fakes. Eine Technologie, die berühmte Menschen betreffe, sagt sie und wackelt bedeutungsvoll mit dem Kopf. Obwohl, Moment - nein, das ist überhaupt nicht Adele: Zwischen zwei Sätzen, binnen eines Wimpernschlags, verwandelt sich ihr Gesicht in das einer anderen Person. "Das hier ist auch ein Deep Fake", sagt nun Claire Wardle, Verifikationsexpertin und Mitgründerin des Antidesinformationsnetzwerks First Draft.

Deep Fakes heißen manipulierte Videos, mit deren Hilfe man Gesichter tauschen kann, Personen Worte in den Mund legen kann, die sie so nie gesagt haben, ihre Körper Handlungen vornehmen lassen kann, die sie so nie vollzogen haben. Es ist eine Technologie, die derzeit für hitzige Diskussionen sorgt. Denn: Videos, in denen man Menschen Aussagen unterschieben kann oder in denen sie erst die eine Person zu sein scheinen, sich dann aber als jemand ganz anderes entpuppen - das ist der Stoff, aus dem Albträume gemacht sind.

Es ist leicht, sich das Missbrauchspotenzial vorzustellen, in dieser Zeit, in der die Angst vor Desinformation ebenso groß ist wie die Dünnhäutigkeit und Hysterie, mit der in sozialen Netzwerken auf so ziemlich alles reagiert wird. Natürlich kann man die Technologie ganz harmlos einsetzen: Kaspert ein Komödiant mit Deep Fakes herum oder stellt sich heraus, dass es gar nicht die echte Adele ist, die dort in einem Video über Technik und Gesellschaft spricht, dann ist das kein Grund, in Panik zu verfallen.

Doch was, wenn Politikern mit Deep Fakes skandalöse Aussagen untergeschoben würden? Oder Polizistinnen? Was, wenn die Technologie genutzt würde, um politische Aktivisten und Journalistinnen einzuschüchtern? Wenn Privatpersonen mit derartigen Filmen gemobbt und bloßgestellt würden? Einiges davon passiert bereits heute.

<#youtube id="1OqFY_2JE1c"> Dass man in Texten Falschaussagen platzieren kann, ist bekannt. Auch, dass Fotos zu Desinformationszwecken verfälscht werden können. Videos aber, Tondokumente, sie galten vielen bislang als harte Belege. Deep Fakes stellen nun selbst das infrage. Können wir künftig nicht mehr unseren Augen und Ohren trauen? Diese Aussicht alarmiert viele - angeheizt auch durch alarmistische Medienberichte und -kommentierung.

Puppenspiel mit viel Rechenaufwand

Was bei Deep Fakes technisch passiert, steckt schon in ihrem Namen: Sie sind Videofälschungen, die mit Hilfe von Deep Learning entstanden sind - also mit maschinellem Lernen, das auf großen Datenmengen und künstlichen neuronalen Netzen basiert.

Mit viel Rechenaufwand erstellen die Netze, die grob gesagt ähnlich untereinander agieren wie Nervenverknüpfungen im menschlichen Gehirn, aus zwei Videoquellen ein neues künstliches Video. Und zwar, indem man zum Beispiel Originalaufnahmen des Popstars Adele mit der Aufzeichnung der Faktencheckerin Wardle kreuzt - und so lange durchrechnen lässt, bis ein Ergebnis entsteht, das so wirkt, als spräche Adele selbst, obwohl eigentlich ein Hybrid aus Adele und Wardle zu sehen ist.

So entstehen Videos, die quasi ein technisch hoch entwickeltes Puppenspiel sind, erschaffen durch künstliche Intelligenz (KI): Die Macher können die Gestik und Mimik einer Person steuern, ihnen aber auch neue Sätze in den Mund legen.

Deep Fakes müssen aber nicht unbedingt Videos sein: Mit dieser Technologie lassen sich auch Audioaufzeichnungen manipulieren - so, dass es sich anhört, als hätte eine Person einen Satz gesagt, der so nie gefallen ist.



Was tun, wenn's trumpt?



Besonders im gesellschaftspolitisch gereizten Klima in den USA ist die Furcht vor dem destruktiven Potenzial von Deep Fakes groß. Der Präsidentschaftswahlkampf 2016 war geprägt von Desinformation und mutmaßlichen Manipulationsversuchen. 2020 wird erneut gewählt - und die Sorge, dass es ähnlich schlimm wird, ist groß. Was, wenn Deep Fakes die Spaltung im Land weiter anfachen? Wenn Kandidaten diskreditiert werden - kurz vor einer Kopf-an-Kopf-Abstimmung?

Sorgen wie diese haben dazu geführt, dass allerorten reagiert wird. Darpa, die Forschungsagentur des US-Verteidigungsministeriums, gibt dafür einen zweistelligen Millionenbetrag aus, dass Methoden zur Enttarnung von Deep Fakes erforscht werden. Facebook hat einen Wettbewerb ausgerufen: 10 Millionen US-Dollar will das Unternehmen für die Entwicklung von Deep-Fake-Erkennung und -Prävention zahlen. Auch Google engagiert sich. In den USA wird an der Erkennung von Deep Fakes geforscht, aber auch Teams aus Deutschland und anderen Ländern arbeiten daran.

Parallel dazu haben einige US-Bundesstaaten bereits Gesetze beschlossen, die Deep Fakes unter bestimmten Umständen verbieten. Vor Wahlen etwa - oder wenn in den Videos Sex gezeigt wird, der nicht mit Zustimmung aller dort gezeigten Personen zustande kam. Auch in Washington wird über Deep Fakes diskutiert. Und Medien und Wissenschaftler reden sich ebenfalls die Köpfe heiß.

Die Evolution der perfekten Täuschung

Einige Deep Fakes wirken heute noch sehr plump, andere schon überzeugend - insbesondere dann, wenn Personen zu sehen sind, die dem Zuschauer weniger vertraut sind. Vor allem ist es aber beunruhigend zu beobachten, wie schnell die Deep Fakes besser werden.

Es liegt auf der Hand, dass sich die Film- und Computerspielbranche brennend für die Technologie hinter Deep Fakes interessieren. Einfach weil die Technologie Eingriffe in der Postproduktion fast schon trivial machen würde. Auch digitale Modehändler experimentieren damit - etwa um ihre Kreationen von künstlich erzeugten Models präsentieren zu lassen. Andere Branchen ebenso. Was wieder einmal zeigt: Eine Technologie, die den einen als gesellschaftliches Risiko gilt, kann von anderen völlig harmlos oder sogar konstruktiv genutzt und entwickelt werden.

<#youtube id="cQ54GDm1eL0"> Bis sie ganz real aussehen, dürfte es nur noch irgendetwas zwischen sechs Monaten und einem Jahr dauern, schätzte Hao Li kürzlich in einem Interview. Li arbeitet an KI-gestützter Bewegtbildbearbeitung - und gilt manchen gar als Deep-Fakes-Pionier. Er ist einer, der rund um diese Technologie viele Rollen gleichzeitig einnimmt. Einerseits hat der 38-Jährige eine Firma gegründet, die fortschrittliche KI-Technologien für die Film- und Computerspielindustrie einsetzt. Er arbeitete daran mit, Apples Emojis mit Gesichtsausdrücken zu animieren und den verstorbenen Schauspieler Paul Walker posthum in den Hollywood-Blockbuster Furious 7 zu montieren.

Li ist aber auch außerordentlicher Professor an der University of Southern California und forscht mit daran, Deep Fakes besser erkennen zu können. Er sei überzeugt, dass es möglich wäre, Deep Fakes zu erzeugen, die weder von Menschen noch von Maschinen erkannt werden könnten, schreibt er in einer E-Mail an Zeit Online. Was übersetzt bedeuten würde: In Zukunft könnte nicht nur das bloße Auge, sondern auch die IT-Forensik bei gut gemachten Fälschungen darin versagen, das echte vom bearbeiteten, "deepgefakten" Videomaterial zu unterscheiden.



Von Quatsch bis Putsch

Viele Experten beruhigten sich lange, dass die Technologie, die für die Erstellung tatsächlich überzeugend aussehender Deep Fakes nötig ist, für viele Laien noch zu voraussetzungsreich ist. Im Spätsommer tauchte dann aber in sozialen Netzwerken ein Video auf, das plötzlich infrage stellt, ob dem wirklich so ist. In dem kurzen Clip demonstrierte ein Designer, was die chinesische App Zao kann. Ein Schnappschuss, wenige Sekunden Zeitaufwand - und schon montiert die App das Gesicht ihres Nutzers auf die Köpfe von Schauspielern wie Leonardo DiCaprio oder Kit Harington in bekannten Film- und Fernsehszenen. Eine Demonstration, dass nun praktisch jeder Deep Fakes anfertigen kann?

14.200 Nutzer sprechen darüber

Einerseits kann man sagen: Nach allem, was man sehen kann, vermag diese App zwar Mimik aus Bewegtbildern kopieren - aber weder künstliche Aussagen noch Gesichtsausdrücke so erzeugen, dass Menschen fremde Aussagen untergeschoben werden könnten, nur nachgehampeln, was in ausgewählten Filmszenen vorgespielt wurde. Hao Li hingegen sieht die App als Beleg dafür, dass die Technologie viel schneller überzeugende Ergebnisse produziert, als er und andere Wissenschaftler ursprünglich angenommen haben.

In case you haven't heard, #ZAO is a Chinese app which completely blew up since Friday. Best application of 'Deepfake'-style AI facial replacement I've ever seen.

Here's an example of me as DiCaprio (generated in under 8 secs from that one photo in the thumbnail) 🤯 pic.twitter.com/1RpnJJ3wgT

— Allan Xia (@AllanXia) September 1, 2019


Wer verstehen will, wie rasant diese Entwicklung vonstatten geht, muss sich vor Augen führen, wie jung die Technologie hinter den Deep Fakes noch ist: Erst 2014 entwickelte der junge Informatiker Ian Goodfellow General Adversarial Networks, kurz GAN. Sie sind es, die aus mehreren Quellen neue Videos oder Fotos erzeugen können, neue Sprachaufnahmen oder Texte.

Fast alle Deep Fakes sind noch Pornos

Nach einigen Experimenten tauchte dann drei Jahre später das auf, was so ziemlich jede Anwendung in der Geschichte des Internets popularisiert hat: Pornos. Auf der Plattform reddit postete ein Nutzer Videos, in denen die Gesichter von Prominenten auf die Körper von Pornodarstellerinnen hineingerechnet waren. Veröffentlicht unter dem Nutzernamen deepfakes. Die Aufmerksamkeit war groß, der Name für diese Form der Videos gefunden.

Reddit verbannte die Videos schon kurze Zeit später von seiner Plattform. Doch da existierte bereits neue Software, mit der einigermaßen versierte Nutzerinnen und Nutzer bereits einfachere Videos, in denen das Gesicht einer Person durch das einer anderen ersetzt wird, selbst erstellen können. FakeApp heißt die Anwendung. Die Folge: viele gefälschte Unterhaltungsinhalte, aber auch eine Welle von pornografischen Filmen, in die die Gesichter von Schauspielerinnen und Popsternchen hineinmontiert wurden. Auch eine Journalistin wurde bereits mit Hilfe solcher Videos unter Druck gesetzt. Deep Fakes zeigen aber auch oft nicht prominente Frauen in sexualisierten Kontexten.

Tatsächlich handelt es sich auch heute noch bei 96 Prozent aller Deep Fakes, die derzeit im Netz verbreitet werden, um Pornos, zeigt ein Bericht des IT-Sicherheitsunternehmens Deeptrace, das sich auf die manipulierten Inhalte spezialisiert hat.

<#youtube id="2daN4eRTs4A"> Einer breiteren Öffentlichkeit sind Deep Fakes aus der Unterhaltungsbranche bekannt. Etwa, als der US-Comedian Bill Hader den Schauspieler Tom Cruise in einem Video imitierte - und sich sein Gesicht dabei vor den Augen des Zuschauers in das von Cruise verwandelt. In einem anderen Video war der ehemalige US-Präsident Barack Obama zu sehen, der seinen Amtsnachfolger Trump scheinbar als Dummkopf bezeichnete - bevor aufgelöst wurde, dass es sich - haha - auch bei diesem Internetvideo um einen Deep Fake handelt. Angefertigt vom US-Komiker Jordan Peele, der vor den Risiken warnen wollte.



Putschversuch dank Deep Fake?

Es gibt aber auch bereits Beispiele dafür, was Deep Fakes tatsächlich in der Politik lostreten könnten. Allerdings anders, als viele sich vielleicht vorstellen würden: In Gabun etwa tauchte im Dezember 2018 auf Facebook ein Video auf, in dem Präsident Ali Bongo eine Ansprache hielt. Monatelang war er zuvor nicht mehr in der Öffentlichkeit aufgetreten, galt vielen als schwer krank, vielleicht sogar tot. Sein politischer Gegner bezeichnete die Aufnahmen als Deep Fake - und das Video wurde Auslöser eines Putschversuchs durch das Militär von Gabun in der darauffolgenden Woche. Interessanterweise passierte all das, ohne dass eine forensische Analyse tatsächlich belegen konnte, dass es sich bei dem Video um einen Deep Fake handelte: Allein die Vorstellung, dass es sich um eine Fälschung handeln könne, genügte, um politische Konsequenzen auszulösen.

Tatsächliche Ereignisse, Lüge oder auch nur die Annahme einer Lüge, all das scheint angesichts von Deep Fakes zu verwischen. Die US-Juristen Danielle Citron und Bobby Chesney veröffentlichten einen Bericht, in dem sie vor katastrophalen Konsequenzen warnten, die Deep Fakes in Gesellschaften entfalten könnten. Vor allem dort, wo sich politische Lager ohnehin bereits misstrauisch beäugen. Citron sagte der britischen Zeitung The Guardian, sie halte es für möglich, dass zeitlich geschickt platzierte Deep Fakes demokratische Prozesse beeinträchtigen könnten - indem sie zum Beispiel in einem Klima gesellschaftlicher Spaltung Vertrauen erodieren, Diskurse entzweien oder den Ausgang einer knappen Wahl in letzter Minute mit einer Fälschung drehen.

Lügen geht auch ohne künstliche Intelligenz

Claire Wardle hingegen, die Verifikationsexpertin von First Draft, nennt die Panik vor Deep Fakes in dem Video, zu dessen Beginn sie als Adele zu sehen war, "aufgeblasen". Sie leugne nicht, dass die Technologie besser und billiger werde. Doch sie sieht einen "alarmistischen Hype" um Deep Fakes - und bezeichnet den als "möglicherweise gefährlicher als die Technologie selbst".

"Man braucht keine Deep Fakes, keine künstliche Intelligenz, um Emotionen zu manipulieren oder Desinformationen zu verbreiten", sagt sie. Und meint damit: Wer lügen will, dem reichen Photoshop, eine stinknormale Videobearbeitungssoftware oder schlicht die Möglichkeit, ein existierendes Foto mit einer irreführenden Bildunterschrift aus dem Kontext zu reißen. Oberflächliche Manipulation nennt Wardle das, "Shallow Fakes". Medienwissenschaftler und IT-Sicherheitsexperten stimmen zu, nutzen den Begriff "Cheap Fakes", billige Fälschungen.

Wenn das Verbreiten von Lügen und Desinformation im Netz so einfach geht - warum dann mühevoll Deep Fakes basteln?

Hao Li, Deep-Fakes-Pionier, schreibt Zeit Online: "Ich glaube nicht, dass Technologien rund um Deep Fakes das Ende der Welt bedeuten." Genauso wie die Bildbearbeitungssoftware Photoshop ihr noch kein Ende bereitet habe - obwohl damit auch jeder Fotos manipulieren kann, um sie anschließend im Netz zu verbreiten.

Am Ende fürchten Claire Wardle und viele andere weniger, dass unentdeckte Deep Fakes für Chaos sorgen. Für viel größer halten sie die Gefahr, dass diese technisch anspruchsvoll manipulierten Videos eine Umgebung schaffen könnten, in der Zuschauer das Gefühl bekommen, überhaupt nichts mehr glauben zu können. Vor diesem indirekten Effekt auf die Demokratie warnen auch die Juristen Citron und Chesney - die "Dividende des Lügners" nennen sie ihn. Ein Kommunikationsmuster, das Leute wie Donald Trump groß gemacht haben. Man muss gar nicht selbst glaubwürdig sein. Menschen müssen gar nicht glauben, was Trump sagt. Es genügt, die Glaubwürdigkeit seiner Gegner und ihrer Quellen infrage zu stellen. Denn: Wenn ohnehin alles gelogen sein könnte, kann man auch eine Tatsache als Lüge diskreditieren.

Andere Menschen aus der Technologie- und Verifikationsszene warnen außerdem, dass Deep Fakes weniger die Großen und Mächtigen bedrohen als vielmehr unbekanntere Menschen und Privatpersonen, denen weniger Ressourcen zur Verfügung stehen, um sich gegen potenzielle Verleumdungen durch Deep Fakes zu wehren. Lokalpolitiker zum Beispiel. Frauen, deren Ex-Freunde sich mit pornografisch herabwürdigenden Fälschungen rächen wollen. Schüler, die Opfer von Mobbing werden. Leute, denen die Ressourcen fehlen, die große Bühne, um Diskreditierungen ihrer Person öffentlich auszuräumen.

Wettrüsten zwischen Fakern und Checkern

Und dann gibt es die, die tagtäglich Fälschung von Original unterscheiden müssen. Die Nachrichtenagentur Reuters hat begonnen, sich für eine Zukunft mit Deep-Fake-Videos zu wappnen. Reuters stellte seine Faktenchecker auf die Probe: Erkennen sie tatsächlich ein Deep-Fake-Video, wenn sie eines vor sich haben? Um das zu überprüfen, erstellte die Agentur einen Deep Fake, in dem eine Nachrichtensprecherin auf Französisch eine Meldung vortrug.

Die gute Nachricht: Den Faktencheckern fiel auf, dass etwas mit diesem Video nicht stimmte. Die schlechte: Was genau falsch war, konnten sie nicht benennen, es blieb bei einem "unbehaglichen Gefühl", berichtet Hazel Baker, Chefin der Abteilung zur Prüfung von nutzergenerierten Inhalten bei Reuters. Bedeutet: Aufwendig gemachte Deep-Fake-Fälschungen verwirren schon heute selbst Profis.

Wie also hebelt man das aus? Es klingt erst einmal naheliegend, zur Bekämpfung eines technischen Problems auf Technik zu setzen. Forensische Methoden zu entwickeln, die Deep Fakes von authentischem Bildmaterial unterscheiden können.

Hany Farid, Informatikprofessor an der Universität Berkeley, ist einer der Forscher, die mit Hochdruck daran arbeiten. Licht und Schatten, Winkel und Unschärfen der Gesichtszüge, Kleidung und Haare und wie sich der Gesichtsteint subtil verändert, wenn Blut durch Gefäße gepumpt wird - all das kann den Forensikern Aufschluss über die Echtheit eines Videos geben.



Fälschen, lernen, detektieren



Doch es ist ein Katz-und-Maus-Spiel. Die Forensikwerkzeuge werden schnell wirkungslos, weil auch die Macher von Deep-Fake-Videos ihre Techniken ständig verbessern. Und blitzschnell reagieren. So veröffentlichte im Sommer 2018 ein US-Forscher eine ganz einfache Methode, Videofälschungen zu erkennen: Deep Fakes blinzelten nicht oder zu selten, stellte er fest. Kurze Zeit später tauchten dann die ersten Deep-Fake-Videos auf, in denen die Abgebildeten korrekt blinzelten.

Kein Einzelfall, meint Hany Farid: Früher habe es Jahre gedauert, bis Fälschungsmethoden neue Forensikwerkzeuge ausgehebelt hätten - heute seien es nur noch zwei, drei Monate. "Wir sind unterlegen", sagte er im Sommer bei einer Anhörung vor dem US-Kongress. Hundert Menschen, die an der Herstellung von Deep Fakes arbeiteten, stünden einem gegenüber, der an Erkennungsmethoden forsche.

Aktuell sei die Detektion noch einfach, weil die Fakes nicht ganz so gut seien, schreibt hingegen Matthias Nießner. Er ist Professor für Visual Computing an der TU München, in Kooperation mit US-Eliteuniversitäten arbeitet auch er an Werkzeugen, mit denen sich Deep Fakes und andere Videomanipulationen erkennen lassen. Gerade erst hat er eines vorgestellt, das Maschinen mit verfälschten Videos füttert und sie so lernen lässt, Deep Fakes zu erkennen. Nießner ärgert sich, dass in der Öffentlichkeit unter dem Schlagwort Deep Fakes vieles diskutiert werde, das in der Film- und Videospielindustrie bereits seit Jahren im Einsatz sei.

Was hingegen in der Öffentlichkeit auffällt, sind Videos wie jenes, das im Mai die demokratische Spitzenpolitikerin Nancy Pelosi vermeintlich betrunken zeigte. Es taucht in sozialen Netzwerken auf. "Das ist natürlich kein Deep Fake, da steckt auch keinerlei Intelligenz dahinter", sagt Nießner. Pelosis schleppende Sprache, ihre ungelenken Bewegungen - all das wirkte nur alkoholisiert, weil das Video verlangsamt abgespielt wurde. Einen Cheap Fake würden andere das nennen. Wie Claire Wardle sagt auch Nießner: "Propaganda kann man viel einfacher machen."

Selbst wenn jemand ein Deep-Vake-Video erstelle, mit einem Hybrid beispielsweise aus Putin und Trump, schreibt Nießner Zeit Online, wage er zu bezweifeln, ob davon so viel Gefahr ausgehe. "Man sieht ja, dass es ein Fake ist." Bedrohlicher seien Deep Fakes, die als Porno aus Rache gegen Frauen (revenge porn) eingesetzt oder unter Jugendlichen fürs Mobbing etwa an Schulen benutzt würden: "Hier ist teilweise völlig egal, ob man erkennt, dass eine Sequenz gefälscht ist - der Schaden für die betroffene Person ist so oder so entstanden."

Fälschung erkannt. Und dann?

Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme beginnen erst dann. Forensiker können herausfinden, dass ein Video manipuliert wurde - aber nicht, warum. Bedeutet: Selbst wenn es allgemein zugängliche Tools zum Enttarnen gäbe, müssten die Plattformen, auf denen die Videos und Audiodateien gepostet werden, trotzdem entscheiden, was stehen bleiben darf und was zu löschen ist. Welche Deep Fakes sind Kunst oder Satire und als solche zulässig? Was ist harmlos oder einfach Unterhaltung - und was böswillige Manipulation? Es sind Fragen, die immer und immer wieder auftreten, wenn es darum geht, eine Technologie beherrschen zu wollen, die für den einen Zweck unterbunden werden soll und für den anderen vermarktet.

"Letztlich wird man sich daran gewöhnen, dass digitale Videos künstlich generiert werden können", sagt Matthias Nießner. Wissend, dass die Qualität von Deep Fakes in absehbarer Zeit immer besser wird. Und zählt dann doch technische Möglichkeiten auf, Deep Fakes entgegenzuwirken - mit dem digitalen Signieren von Videos etwa, das dessen Authentizität bezeugen könne. Viele andere kritisieren aber auch, dass Technologie allein das Problem der Deep Fakes nicht lösen können wird.

Große Verantwortung fällt wieder einmal sozialen Medien und ihren Plattformen zu. Einfach automatisiert veränderte Videos zu blocken - das wird wenig zielführend sein. Die Verifikationsexpertin Wardle appelliert in ihrem New-York-Times-Video an sie, gut darüber nachzudenken, wie sie mit diesen Deep-Fake-Inhalten umgehen und wie sie sie labeln. Wardle richtet sich aber auch an die Nutzerinnen und Nutzer dieser Plattformen. Die nämlich sollten auch selbst Verantwortung übernehmen: "Wenn Sie sich nicht hundertprozentig sicher sind, dass etwas authentisch ist: Bitte teilen Sie es nicht."  (mla)


Verwandte Artikel:
Facebook: Software täuscht Gesichtserkennung mit verzerrten Gesichtern   
(28.10.2019, https://glm.io/144661 )
Machine Learning: Kalifornien will gegen Deep-Fake-Pornografie vorgehen   
(08.10.2019, https://glm.io/144322 )
Nacktheit durch KI: "Die Welt ist noch nicht bereit für Deepnude"   
(28.06.2019, https://glm.io/142215 )
Nvidia: Petswap wandelt Labradore in Hyänen und Eisbären um   
(16.05.2019, https://glm.io/141295 )
Machine Learning: KI überträgt Stil von einem zum anderen Video   
(14.09.2018, https://glm.io/136577 )

© 1997–2020 Golem.de, https://www.golem.de/