Hinweis

Für dieses multimediale Reportage-Format nutzen wir neben Texten und Fotos auch Audios und Videos. Daher sollten die Lautsprecher des Systems eingeschaltet sein.

Mit dem Mausrad oder den Pfeiltasten auf der Tastatur wird die jeweils nächste Kapitelseite aufgerufen.

Durch Wischen wird die jeweils nächste Kapitelseite aufgerufen.

Los geht's

Deep Fake Love

Logo http://www.deepfakelove.com/deep-fake-love

Deep Fake Love - Die Story

Wem vertrauen wir noch, wenn digitale Technik jede Realität verfälschen kann?

Nun bringen manipulierte Videos die Wahrheit endgültig in Gefahr. Wirklich?
Zum Anfang

Deep Fake Love

Es ist ein kalter Samstag im Januar. Marie feiert ihren 30. Geburtstag. Es geht heiss her, viele Leute sind gekommen. 

Maries Freund Ben hat geholfen, die Party vorzubereiten – und ist bereits leicht betrunken. Der Gastgeberin ist das etwas peinlich, da auch einige ihrer neuen Arbeitskollegen da sind. Erst seit drei Monaten arbeitet sie bei diesem Online-Magazin. Dort versteht sie sich besonders gut mit Boris. Er arbeitet als technischer Support für das Start-up in Kreuzberg.

Die Berlinerin ist so happy, dass auch Susanne gekommen ist. Ihre beste Freundin aus der Studienzeit ist extra mit dem Zug aus Frankfurt angereist.

Marie ist sich sicher, es wird eine geile Party…
Zum Anfang

Deep Fake Love

Am nächsten Tag brummen die Köpfe: Das Fest war genial, vor allem flüssig. Ben's Kater klopft heftig.

In seiner Whatsapp-Gruppe mit Freunden herrscht plötzlich Aufregung ...
Zum Anfang
Zum Anfang

Deep Fake Love

0:00
/
0:00
Video jetzt starten
Ben ist total verunsichert: Ist er das wirklich?
Er kann sich einfach nicht erinnern ...

Video öffnen

Zum Anfang

Deep Fake Love

0:00
/
0:00
Video jetzt starten
Zum Anfang

Deep Fake Love

Zum Anfang

Deep Fake Love

Zum Anfang

Deep Fake Love

0:00
/
0:00
Video jetzt starten
Zum Anfang

Deep Fake Love

Zum Anfang

Deep Fake Love

Zum Anfang

Deep Fake Love

Zum Anfang

Deep Fake Love

0:00
/
0:00
Video jetzt starten
Zum Anfang

Deep Fake Love

Zum Anfang

Deep Fake Love

Zum Anfang

Deep Fake Love

Zum Anfang

Deep Fake Love

0:00
/
0:00
Video jetzt starten
Zum Anfang

Definition und Interessen zu Deep Fakes

Was genau sind Deep Fakes?

Vollbild
Im Jahr 2017 erlangte ein Reddit-User namens „deepfakes“ Berühmtheit, weil er Gesichter von Schauspielerinnen auf jene von Pornodarstellerinnen setzte und diese als Deep Fake Pornos online stellte. Zu den Betroffenen zählten unter anderem Gal Gadot, Emma Watson und Scarlett Johansson. Seitdem werden solche Videos immer populärer und damit gleichermassen die Frage: Wer macht so etwas?

Aber zunächst einmal: Was genau sind eigentlich Deep Fakes?

Die bekannteste und häufigste Form von Deep Fakes ist, wenn ein Gesicht von einer Person auf den Körper einer anderen gesetzt wird. Das ist mittlerweile schon mit frei zugänglicher Software möglich, bedarf aber einiger Arbeit: Denn die Software benötigt „Lernmaterial“ – also Aufnahmen der Person, die man „faken“ möchte. Ist das Ziel eine prominente Person, wie z.B. Barack Obama, ist es kein Problem, an Material zu gelangen. Die Aufnahmen muss man nur einspeisen und dann „lernt“ das Programm, wie das Zielobjekt in verschiedenen Situationen aussieht. Zum Beispiel, wie ein Lächeln Auswirkungen auf den Rest des Gesichts hat. Ist der Lernprozess abgeschlossen, kann man ein Video von sich selbst aufnehmen und dieses ebenfalls in die Software einspeisen. Danach ist es relativ einfach ein Video zu erstellen, respektive den US-Präsidenten Dinge sagen zu lassen, die man möchte. Um diesen Fake noch glaubwürdiger zu machen, kann man auch seine Stimme fälschen. Das geschieht auf die gleiche Weise, nur mit einer anderen Software. Erst werden Trainingsaufnahmen eingespeist, dann eine eigene Audiodatei, sodass man am Ende mit der Stimme Obamas sprechen kann.
Hier geht es zum Obama-Video

Schließen
Zum Anfang

Von der Film- bis zur Pornoindustrie

Andy Serkis als Gollum (Ausschnitt You Tube "Creating Gollum")
Vollbild
Die den Deep Fakes zugrunde liegende Technologie gibt es in der Unterhaltungsindustrie schon lange – überwiegend, um Dinge zu erschaffen. Das so genannte Motion Capturing wird in der Filmbranche bereits seit 20 Jahren verwendet. Es ist im Prinzip dasselbe, aber ohne die negative Konnotation „Fake“. Einziger Unterschied: Auf den Schauspieler wird nicht nur ein anderes Gesicht gesetzt, sondern – dank Motion Capture Suit – ein komplettes digitales Skelett. Dabei handelt es sich um einen perfekt auf den Körper angepassten Ganzkörper-Anzug, an dem viele kleine Marker befestigt sind, die als Orientierungshilfen dienen. So wird ein digitales Abbild des Schauspielers und seiner Bewegungen erschaffen. Besonders wichtig sind die Marker im Gesicht, um durch Blicke und Mimik Emotionen zu vermitteln.

Im Jahr 1999 gab es erstmals einen Filmcharakter, der rein durch Motion Capturing zum Leben erweckt wurde:

Jar Jar Binks in Star Wars Episode I: Die dunkle Bedrohung

gespielt von Ahmed Best. Allerdings trug dieser noch ein Kostüm seiner Figur, das anschliessend digital verfeinert wurde, um möglichst realistisch zu sein. Zwei Jahre später gab es erstmals einen Schauspieler ohne Kostüm, der lediglich durch Motion Capturing eine digitale Figur auf die Leinwand brachte: Andy Serkis als Gollum in Der Herr der Ringe: Die Gefährten (2001). Er war damit eine Art Pionier und ist bis heute der gefragteste Mann auf dem Gebiet. Teilweise wird er bei Filmen nur noch als Motion-Capture-Experte angeheuert. 

Andy Serkis als Gollum in „Der Herr der Ringe: Die zwei Türme“ (2002)

Die Vorteile von Motion Capturing im Vergleich zur reinen CGI (computer generated imagery) liegen eindeutig bei den natürlicheren Bewegungen und Emotionen. Die digitalen Figuren werden anhand echter Schauspielleistungen erzeugt und nicht nur am Computer. Das macht auch die Arbeit für Mitschauspieler leichter, weil sie nicht mit einem Greenscreen interagieren, sondern mit echten Menschen. In Rogue One: A Star Wars Story (2016) schaffte es das Special-Effects-Team inzwischen, zwei verstorbene Schauspieler wieder auftreten zu lassen. Dies gelang, indem sie gleich vorgingen wie Buzzfeed beim Obama-Video: Sie nahmen Trainingsaufnahmen auf, erschufen daraus ein digitales Gesicht und setzten dieses auf das der bereits verstorbenen Schauspieler auf. So konnte man Carrie Fisher als 19-jährige Prinzessin Leia und Peter Cushing als Tarkin wieder auftreten lassen. 
Aktuell befinden wir uns im „Golden Age“ der Videospiele. Nicht wenige Spiele erzählen inzwischen sehr gut geschriebene Geschichten, die sich auf Augenhöhe mit Filmen und Serien befinden. Es verwundert darum nicht, dass man diese Storys so hochwertig wie möglich umsetzen will. Besonders stark charaktergetriebene Spiele geben durch Motion Capturing den digitalen Figuren möglichst viele Emotionen. Ebenso wie in der Filmbranche bekommen Darsteller als Basis fürs digitale Skelett punktmarkierte Motion-Capture-Anzüge. Allerdings liegt bei Videospielen oftmals der Fokus darauf, den Schauspieler so ähnlich wie möglich zu gestalten, statt in Orks oder Riesen zu verwandeln.

Motion Capturing beim Videospiel "Detroit: Become Human"

Anders kann es sich – und hier schliesst sich der Kreis wieder – bei Pornos verhalten. Abseits von Film- und Videospielstudios fanden Deep Fakes hier ihren Anfang, zumindest im Gebrauch von „normalen“ Personen. Es kursieren vor allem zwei Arten von Deep-Fake-Pornos: Klar als Deep Fakes deklarierte und solche, die dem Zuschauer vortäuschen, dass es sich um ein echtes Sextape einer bekannten Schauspielerin handelt. Wie bereits oben beschrieben, wird das prominente Gesicht als Lernmaterial genutzt und anschliessend auf das Gesicht einer Pornodarstellerin gesetzt. So entsteht ein Porno mit der Lieblingsschauspielerin. Doch hier ist beim Abspielen äusserste Vorsicht geboten! Nicht nur, weil das Erstellen solcher Videos einen gravierenden Eingriff in die Privatsphäre der betroffenen Personen darstellt und ethisch verwerflich ist, sondern auch rechtliche Konsequenzen nach sich zieht. Die Videos werden zwar immer wieder von den Porno-Portalen gelöscht, doch mittlerweile gibt es extra darauf spezialisierte Pornoseiten, was es schwerer bis unmöglich macht, alle diese Videos zu erfassen und zu entfernen.







Andy Serkis als Gollum (Ausschnitt You Tube "Creating Gollum")
Schließen
Zum Anfang

Wen kümmert's?

Vollbild
Im Endeffekt sind Deep Fakes einfach der nächste Schritt einer Entwicklung, die mit Photoshop und Programmen zum Schneiden von Videos begonnen hat. Die meisten Privatpersonen besitzen bereits die nötigen Hilfsmittel, um Deep Fakes anzufertigen. Hübscht nicht jeder inzwischen bei Online-Verkäufen seine Produkte etwas auf?

So könnte künftig auch der Unfallschaden am Auto etwas drastischer dargestellt werden, um mehr Geld von der Versicherung zu kassieren. Ebenso können jedem politischen Machthaber falsche Äußerungen in den Mund gelegt werden. Gerade während des Wahlkampfes könnte dies zu einem beliebten Mittel werden, Politikern zu schaden oder zu helfen.

Wir werden uns auch an die Existenz von Deep Fakes gewöhnen und uns dem Umstand anpassen, dass heutzutage nicht einmal mehr Videos als absolut wahr anzusehen sind. Deep Fakes an sich sind nichts Schlechtes. Sie helfen, sehr gute Unterhaltung zu schaffen. Von den falschen Leuten genutzt, können sie allerdings auch Schaden anrichten. Uns wird nichts anderes übrig bleiben, als bei unserem Medienkonsum noch kritischer und misstrauischer zu werden, Dinge noch mehr zu hinterfragen. Ob das etwas Schlechtes ist, sei dahingestellt…
Schließen
Zum Anfang

Deep Fake Love

Zum Anfang

Die Geschichten-Erzähler

Zum Anfang

Nadja Bischof

 "...bei euch in den Medien ist doch sowieso alles "FAKE"!

Das ist tatsächlich ein Vorwurf, den ich als Medienschaffende sehr oft an den Kopf geknallt bekomme. Es gibt keine Quelle mehr, die sakrosankt ist, alles könnte "FAKE" sein.

Genau darum ist es wichtig, über dieses "FAKE" und die möglichen Formen davon aufzuklären. Nur so verliert jeder einzelne die Angst davor hinters Licht geführt zu werden und erhält das Werkzeug, selbst zu erkennen, was "FAKE" ist und was nicht.

Was wahr ist, und was nicht!"
Zum Anfang

Tim Gabel

"Ich bin Wissenschaftsjournalist und experimentiere gerne mit neuen Medien. Derzeit arbeite ich als Redakteur des VDI  Technologiezentrums in Berlin. In meinem Job geht es um Innovationen im Bereich der Medizin und Wirtschaft. Ich finde das Thema Deep Fake spannend, weil es eine neue Ebene von Unterhaltung ermöglicht, gleichzeitig aber natürlich auch für Schindluder genutzt werden kann. Das Spannungsfeld hat man bei ganz vielen Innovationen und es ist super interessant sich als Orakel zu probieren und zu überlegen, was mit solchen neuen Technologien passieren könnte. Völlig offen, ob positiv oder negativ."
Zum Anfang

Laura Clauderotti

"Deep Fakes. Das Thema ist zu gross, zu weit weg von unserem Alltag, etwas für Nerds.

Ehrlich zugegeben, das waren meine ersten Gedanken, als wir über unser Projektthema gesprochen haben. Ziemlich schnell packt einen aber dann doch die Faszination. Es kommen Fragen auf, die gerade auch für uns als Journalisten in Zukunft enorm an Gewicht gewinnen werden: Wem kann man noch glauben, wenn gar der «Videobeweis» gefälscht werden kann?"
Zum Anfang

Florian Rahbari Nejad

“Deep Fakes sind toll! Ohne diese Technologie hätten wir einige der besten Filme und Videospiele aller Zeiten nie zu Gesicht bekommen. Klar kann diese Technologie auch missbraucht werden, aber das trifft doch auf jeden technologischen Fortschritt zu. Früher galten Fotos und Videos als zwingend wahrhaftig, doch dann kam Photoshop und man konnte Fotos nicht mehr vertrauen. Jetzt können wir dank Deep Fakes eben auch Videos nicht mehr einfach so trauen und das ist doch eigentlich etwas Gutes, schließlich sorgt das dafür, dass wir Dinge noch mehr hinterfragen, noch kritischer sind.“
Zum Anfang

Nadja Maurer

"Mit Deep Fakes habe ich mich erstmals im Rahmen dieser Projektarbeit intensiver auseinandergesetzt. Ich machte mich auf die Suche nach dem Ursprung von Deep Fakes respektive von Fake News. Dabei stellte sich heraus: Die Menschheitsgeschichte ist voll von Falschmeldungen in der ganzen Vielfalt ihrer Form. Doch erst seit Donald Trump interessiert sich die Öffentlichkeit für das Thema. Das ist gut so, denn damit steigt auch das Interesse daran zu verstehen, wie man sich gegen gefälschte Informationen wappnen kann. Rüsten wir uns also für Deep Fakes, denn da kommt etwas Grosses auf uns zu; im positiven und negativen Sinne."
Zum Anfang

Johannes Giesler

„Nach meiner Recherche glaube ich: Super smarte Deep-Learning-basierte Debunking-Technologien werden es nicht richten. Es liegt vielmehr an uns, den Nutzern, bedacht zu sein. Im Umgang mit Medien prinzipiell. Egal ob Text, Bild oder Video, einmal kurz durchatmen, wenn da ein scheinbarer Skandal aufploppt, sich idealerweise in verschiedenen Quellen informieren – das hilft meiner Meinung nach mehr, als jedes zukünftige Debunking-Tool für Deep-Fake-Videos.“
Zum Anfang

Judith Hochstrasser

"Wenn das Weltbild der Leserin ins Wanken gerät, habe ich als Journalistin meine Sache gut gemacht. Ich freue mich, wenn ich zum Nachdenken anrege, ja irritiere. Deep Fake Videos sind nicht der Untergang des Journalismus, sondern eine weitere Möglichkeit, grossartige Geschichten zu erzählen und damit tiefere Wahrheiten zu enthüllen. Aber klar, man muss immer fragen: Wo sind die Grenzen?"
Zum Anfang

Severin MIszkiewicz

"Ich sehe sie vor meinem inneren Auge: die alten Herren, die wie Löwen durch die Redaktion streifen, nur knurrend ihren Artikel online freigeben und sich so sehr vor dem Neuen fürchten. So stelle ich sie mir vor. Die Journalisten, die in etlichen Texten vor Kriegen und Katastrophen warnen, nur wegen dieser kleinen Spielerei, mit der man Gesichter auf andere Gesichter kopiert. Deep Fakes sind eine neue Technologie und wir werden lernen, damit umzugehen – so wie wir das immer machen. Deep Fakes mögen auf den ersten Blick verwirren, auf den zweiten Blick vielleicht sogar verängstigen, auf den dritten Blick aber sollte man nur noch über sie lachen."
Zum Anfang

Cathrin Lilienblum

„Spätestens seit dem Fall der Mauer weiß ich, dass es verschiedene Wahrheiten gibt: In den Geschichtsbüchern der DDR waren die Russen die Guten, in dem meines Düsseldorfer Freundes Sebastian waren es die Amis. Eine gesunde Skepsis, das Hinterfragen von Interessen und das Prüfen wichtiger Informationen sind immer ratsam - egal ob als Text, Foto oder Video. In einer Welt ohne Grenzen sind auch die multimedialen Möglichkeiten grenzenlos. Das Studium hat mir gezeigt, dass diese vor allem auch Spaß machen.“
Zum Anfang

Stefan Jermann

"Die Möglichkeiten in der Videoproduktion nehmen gerade im Amateursegment neue Dimensionen an. Höhere Bildqualität bei optimierter Rechenleistung erschliessen völlig neue Möglichkeiten, welche vor kurzem nur in der Profi-Liga möglich waren. Die Idee, ein «Real-Time» Selbstexperiment in die Story einzubauen scheiterte jedoch kläglich. Qualitativ hochstehende Deep Fakes sind momentan von der Unterhaltungsindustrie besetzt und auch hier erkennen Profis meistens Makel. Das bedeutet aber nicht, dass in absehbarer Zeit damit nicht realer Schaden angerichtet werden kann. Denn wir wissen, dass selbst offensichtliche Fake News bei Veröffentlichung ein Mehrfaches an Aufmerksamkeit erhalten, als Richtigstellungen."
Zum Anfang

Impressum

Vollbild
Projektleitung
Cathrin Lilienblum
cathrin.lilienblum@leipzigschoolofmedia.de

Pressekontakt
Nadja Maurer
nadja.maurer@leipzigschoolofmedia.de

Social Media Kontakt
Severin Miszkiewicz
severin.miszkiewicz@leipzigschoolofmedia.de

Facebook: @RechercheteamDF
Instagram: @deepfakelove2

Konzept und Inhalt
Die Website www.deepfakelove.com entstand im Rahmen des Masterstudiengangs «New Media Journalism» des Jahrgangs 2017-2019 an der Leipzig School of Media.

Leipzig School of Media
gemeinnützige Gesellschaft für akademische Weiterbildung mbH
Poetenweg 28
04155 Leipzig
Deutschland

Tel +49 341 56296-701
info@leipzigschoolofmedia.de

Das Projekt «Deep Fake Love» ist die gemeinsame Abschlussarbeit der Studierenden des Moduls Internationale Multimedia-Ethik an der Hamburger Akademie für Publizistik unter Leitung von Kai Voigtländer und Johannes Endres.

Akademie für Publizistik in Hamburg e.V.
Cremon 32
20457 Hamburg
Deutschland

Tel +49 40 414796-0
info@akademie-fuer-publizistik.de

Haftung für Inhalte
Die Inhalte unserer Seiten wurden mit größter Sorgfalt erstellt. Für die Richtigkeit, Vollständigkeit und Aktualität der Inhalte können wir jedoch keine Gewähr übernehmen. Als Diensteanbieter sind wir gemäß § 7 Abs.1 TMG für eigene Inhalte auf diesen Seiten nach den allgemeinen Gesetzen verantwortlich. Nach §§ 8 bis 10 TMG sind wir jedoch nicht verpflichtet, übermittelte oder gespeicherte fremde Informationen zu überwachen oder nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen. Verpflichtungen zur Entfernung oder Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen bleiben hiervon unberührt. Eine diesbezügliche Haftung ist jedoch erst ab dem Zeitpunkt der Kenntnis einer konkreten Rechtsverletzung möglich. Bei Bekanntwerden von entsprechenden Rechtsverletzungen werden wir diese Inhalte umgehend entfernen.

Haftung für Links
Unser Angebot enthält Links zu externen Webseiten Dritter, auf deren Inhalte wir keinen Einfluss haben. Deshalb können wir für diese fremden Inhalte auch keine Gewähr übernehmen. Für die Inhalte der verlinkten Seiten ist stets der jeweilige Anbieter oder Betreiber der Seiten verantwortlich. Die verlinkten Seiten wurden zum Zeitpunkt der Verlinkung auf mögliche Rechtsverstöße überprüft. Rechtswidrige Inhalte waren zum Zeitpunkt der Verlinkung nicht erkennbar. Eine permanente inhaltliche Kontrolle der verlinkten Seiten ist jedoch ohne konkrete Anhaltspunkte einer Rechtsverletzung nicht zumutbar. Bei Bekanntwerden von Rechtsverletzungen werden wir derartige Links umgehend entfernen.

Urheberrecht
Die durch die Seitenbetreiber erstellten Inhalte und Werke auf diesen Seiten unterliegen dem deutschen Urheberrecht. Die Vervielfältigung, Bearbeitung, Verbreitung und jede Art der Verwertung außerhalb der Grenzen des Urheberrechtes bedürfen der schriftlichen Zustimmung des jeweiligen Autors bzw. Erstellers. Downloads und Kopien dieser Seite sind nur für den privaten, nicht kommerziellen Gebrauch gestattet. Soweit die Inhalte auf dieser Seite nicht vom Betreiber erstellt wurden, werden die Urheberrechte Dritter beachtet und als solche gekennzeichnet. Sollten Sie trotzdem auf eine Urheberrechtsverletzung aufmerksam werden, bitten wir um einen entsprechenden Hinweis. Bei Bekanntwerden von Rechtsverletzungen werden wir derartige Inhalte umgehend entfernen.

Datenschutz
Die Nutzung unserer Webseite ist in der Regel ohne Angabe personenbezogener Daten möglich. Soweit auf unseren Seiten personenbezogene Daten (beispielsweise Name, Anschrift oder E-Mail-Adressen) erhoben werden, erfolgt dies, soweit möglich, stets auf freiwilliger Basis. Diese Daten werden ohne Ihre ausdrückliche Zustimmung nicht an Dritte weitergegeben.
Wir weisen darauf hin, dass die Datenübertragung im Internet (z.B. bei der Kommunikation per E-Mail) Sicherheitslücken aufweisen kann. Ein lückenloser Schutz der Daten vor dem Zugriff durch Dritte ist nicht möglich.
Der Nutzung von im Rahmen der Impressumspflicht veröffentlichten Kontaktdaten durch Dritte zur Übersendung von nicht ausdrücklich angeforderter Werbung und Informationsmaterialien wird hiermit ausdrücklich widersprochen. Die Betreiber der Seiten behalten sich ausdrücklich rechtliche Schritte im Falle der unverlangten Zusendung von Werbeinformationen, etwa durch Spam-Mails, vor.

Copyright
Das Copyright für den gesamten Internetauftritt liegt bei der Leipzig School of Media.
Schließen
Zum Anfang

Quellen / weiterführende Links

Vollbild
Experten

Breit, Stefan – Gottwin Goodline Institut
Dau, Marvin – Autor und Regisseur HfS, Experte für Storyaufbau
Edmonds, Marco – Digital Storyteller bei SRF, Experte für Storytelling
Filipović, Alexander – Professor für Medienethik, Experte im Thema Grenzen Riesenkampf, Heiki – ETH-Hackathon-Winner 2018, Experte für Deep Learning
Ritler, Jean-Pierre - Redakteur, Fotograf, Produzent, Experte für Storytelling
Zehr, Angelo – Datenjournalist bei SRF, Experte für Zukunftsfragen

Literatur

Keil Lars-Broder; Kellerhoff Sven Felix (2017). „Fake News machen Geschichte - Gerüchte und Falschmeldungen im 20. und 21. Jahrhundert”, Ch. Links Verlag

Schließen
Zum Anfang

Vollbild
Fake-News
https://de.wikipedia.org/wiki/Fake_News

Deep-Fake
https://de.wikipedia.org/wiki/Deepfake

Deepfakes – Von allen Seiten beleuchtet
https://www.ubermetrics-technologies.com/de/blog/reputationsmanagement-wie-sie-mit-deepfakes-umgehen/

Auf dem Weg in eine alternative Realität?
http://faktenfinder.tagesschau.de/hintergrund/deep-fakes-101.html

Deepfakes – Nicht so einfach herzustellen
https://www.poynter.org/fact-checking/2018/we-tried-to-create-a-deepfake-of-mark-zuckerberg-and-alex-jones-%C2%97-and-failed-heres-what-happened/

Fake everything – Trends
https://www.wired.de/collection/tech/fake-everything-ki-pornos-zeigen-die-naechste-dystopie

Deepfake als Hologram
https://youtu.be/QSyBDiFHm3w

Deepfakes als Porno
https://mrdeepfakes.com/https://adultdeepfakes.com/page/2/

Warum Deepfake Pornos gelöscht werden
https://mediahard.com/what-are-deepfakes-and-why-are-pornhub-and-reddit-banning-them/

Deep-Fake-Videos: Mehr als nur Porno
https://www.srf.ch/radio-srf-virus/bytes-pieces/bytes-pieces-deep-fake-videos-mehr-als-nur-porno

Deepfakes in Filmen
https://www.youtube.com/watch?v=ZnrKKjaVxCA                   

Motion Capturing
https://www.youtube.com/watch?v=ZnrKKjaVxCA>

Andy Serkis das Motion Capturing in "Mowgli"
 https://www.youtube.com/watch?v=1oE9nUOOpg4>

Fallbeispiel, Motion Capturing in "Dawn of the Planet of the Apes"
https://www.youtube.com/watch?v=4NU9ikjqjC0

Jar Jar Binks in „Star Wars Episode 1: Die dunkle Bedrohung“
https://www.google.de/search?q=jar+jar+binks+making+of&rlz=1C1CHBH_deDE744DE744&source=lnms&tbm=isch&sa=X&ved=0ahUKEwj77oOxysDgAhVEElAKHaTqCnoQ_AUIDigB&biw=2327&bih=808#imgrc=peadwX13M8p3mM

Falscher Obama warnt mit manipuliertem Video vor Fake News
https://www.watson.ch/digital/usa/816127996-dreht-obama-durch-dieses-video-zeigt-eine-der-groessten-gefahren-fuer-demokratien

10 years- Gesichter-Challenge auf FB und Instagram
https://www.wired.com/story/facebook-10-year-meme-challenge/?fbclid=IwAR1BK98QMpamPQAp_bAg1Xj5sbRMbIy7olUfiOg1YChyqrt-EIqyY6GFy08

FaceApp: Hype-Filter macht Männer zu Frauen und Kinder zu Greisen
https://www.netz.de/apps/news/faceapp-hype-app-macht-maenner-zu-frauen-und-kinder-zu-greisen

Biometric Update zu Deepfake
https://www.biometricupdate.com/201812/deep-fake-technology-outpacing-security-countermeasures

Deepbuster – Winner Hackathon Zurich 2018
https://blogs.ethz.ch/ETHambassadors/2018/10/18/winning-hackzurich-2018/

Artikel zum Thema Deep Fakes
www.heise.de

NZZ über Deepfakes
https://www.nzz.ch/feuilleton/deepfake-auch-was-falsch-ist-ist-irgendwie-wahr-nur-anders-ld.1445647?mktcid=nled&mktcval=101&kid=_2018-12-19

Digital Trends über Künstliche Intelligenz
https://www.digitaltrends.com/digital-trends-live/ryan-welsh-explainable-ai-interview/

Text-KI wird aus Angst vor Fake News nicht veröffentlicht
https://www.bluewin.ch/de/digital/text-ki-wird-aus-angst-vor-fake-news-nicht-veroeffentlicht-215671.html

You tought Fake News was bad?
https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth

Plattformen und Tutorials zur Erstellung von Deepfakes
https://github.com/deepfakes/faceswap

Tensor Flow - Gesichtererkennung durch Machine Learning
https://www.tensorflow.org/

Das Deep Fake Tutorial (Face Swap)
https://www.alanzucconi.com/2018/03/14/create-perfect-deepfakes/




























Schließen
Zum Anfang

Vollbild
Selbstlernende Algorithmen bestimmen zunehmend unseren Alltag, positiv, aber auch negativ. Die Grenzen zwischen Realität und Kopie, Wahrheit und Lüge, Wissen und künstlicher Intelligenz verschwimmen. Insbesondere die ethischen Aspekte maschinell erzeugter Informationen, Bilder und Videos werfen Fragen auf: Sind Manipulationen erlaubt? Wer ist verantwortlich? Wie können sie enttarnt werden? Wohin führt das noch?

Im Rahmen des Kurses Internationale Multimedia-Ethik an der Akademie für Publizistik Hamburg entwickelte der Masterstudiengang «New Media Journalism 2017-2019» dazu das Projekt «Deep Fake Love». Die zehn berufsbegleitend studierenden Journalisten aus Deutschland und der Schweiz zeigen anhand eines einfachen Beispiels, wie nah jeder an der Grenze zu Deep Fakes lebt, was beachtet werden sollte und warum dennoch Alarmismus unangebracht ist.
Schließen
Zum Anfang
Scrollen, um weiterzulesen Wischen, um weiterzulesen
Wischen, um Text einzublenden
Schließen
Übersicht
Nach links scrollen
Kapitel 1 Deep Fake Love - Die Story

Deep Fake Love

Kapitel 2 Deep Fake Love

Marie wird 30

Kapitel 4 Deep Fake Love

Das verhängnisvolle Video

Kapitel 5 Deep Fake Love

Ist es ein Deep Fake?

Kapitel 6 Deep Fake Love

Deep Dive zum Deep Fake

Kapitel 7 Deep Fake Love

Kann man das auf die Schnelle?

Kapitel 8 Deep Fake Love

Wie enttarnt man Deep Fakes?

Kapitel 9 Deep Fake Love

Was man heute alles kann...

Kapitel 10 Deep Fake Love

Gelogen wurde schon immer

Kapitel 11 Deep Fake Love

Die Medienethik kommt ins Spiel

Kapitel 12 Deep Fake Love

Das sagen Medienethiker zu Deep Fakes

Kapitel 13 Deep Fake Love

Eigentlich ist alles halb so wild!

Kapitel 14 Deep Fake Love

Sturm im Wasserglas

Kapitel 15 Deep Fake Love

Was ist wahr, was nicht?

Kapitel 16 Deep Fake Love

Deep Fake oder nicht?

Nach rechts scrollen