Transkript anzeigen (falls vorhanden)

0:00:15–0:00:20
Deepfakes, das ist so ein Auswuchs vom Internet und der künstlichen Intelligenz.
0:00:20–0:00:24
Das sind gefälschte Bilder, die, sagen wir jetzt, willkürliches Beispiel,
0:00:24–0:00:31
Digi Chris auf einem Boot sitzt und er hat aber keine Kleider an,
0:00:31–0:00:38
sondern sitzt zoberst Füllung Blut auf dem Mast und winkt den Leuten,
0:00:39–0:00:40
die ihm zufällig sind. zuschauen.
0:00:40–0:00:45
Also ein fiktives Beispiel, aber DigiChris, das Problem ist ganz real.
0:00:45–0:00:51
Man kann mit so Deepfakes einfach beliebige Motive prompten und man findet auch Mittel und Wege.
0:00:51–0:00:55
Auch wenn so klassische Kais jetzt würden sagen, hey, das ist eine Person,
0:00:55–0:01:00
die ich nicht in eine verfängliche Pose einsetzen, findet man aber Kais, die das machen,
0:01:01–0:01:06
zum Beispiel Grog von Elon Musk und man sieht in letzter Zeit sind eben auch
0:01:06–0:01:12
die, das Internet ist geflutet worden von so künstliche Bilder,
0:01:12–0:01:19
wo eben Leute ohne Zustimmung, ohne ihr Einverständnis irgendwelchen Szenen gezeigt worden sind.
0:01:19–0:01:22
Hast du das beobachtet auf Twitter? Hast du selber so Bilder gesehen?
0:01:23–0:01:26
Also ich hätte jetzt immer als Beispiel viel harmloser genommen.
0:01:27–0:01:30
Ich hätte jetzt genommen Tom Hanks, alias Forrest Gump, der,
0:01:30–0:01:34
glaube ich, in dem John F. Kennedy Ping-Pong spielt.
0:01:34–0:01:37
Also das finde ich als harmloser Ding.
0:01:37–0:01:42
Ich habe schon so Bilder gesehen teilweise, aber ich habe jetzt auch so die
0:01:42–0:01:45
Rechts-Troll, die das wahrscheinlich postet,
0:01:46–0:01:47
Meide ich eher auf die Wirkung.
0:01:48–0:01:51
Ja, das ist eine sehr gute Entscheidung. Ich kann solche Sachen sehen,
0:01:51–0:01:53
obwohl ich sie eigentlich auch probieren zu meiden.
0:01:54–0:01:58
Vor einiger Zeit waren die wirklich fast omnipräsent.
0:01:59–0:02:03
Du hast recht, man kann diese spielerisch brauchen. Es wäre eigentlich eine
0:02:03–0:02:08
originelle Technologie, wo man künstlerisch kreativ tätig werden könnte.
0:02:08–0:02:13
Auch wenn man nicht selber ein Kartonist ist, der das händisch,
0:02:14–0:02:18
herstellen kann, würde das eigentlich das befördern, aber es ist tatsächlich,
0:02:18–0:02:22
es hat wieder mal die, wie das in letzter Zeit im Internet häufig ist,
0:02:22–0:02:24
es hat die schlimmste mögliche Wende genommen.
0:02:25–0:02:29
Und Deepfake ist so ein Kofferwort, vielleicht am Anfang ein bisschen Theorie.
0:02:30–0:02:35
Es besteht aus Deep Learning und Fake, also eben es können auch Videos sein,
0:02:35–0:02:41
es sind einfach Inhalte künstlich generiert und man braucht sie neben dem spielerischen
0:02:41–0:02:45
Bereich natürlich tatsächlich für politische Manipulationen.
0:02:47–0:02:50
Für den Bereich der Sexualisierung.
0:02:50–0:02:54
Die Deep Nudes ist ein grosser Bereich,
0:02:55–0:03:04
dass Leute Bilder, sei es um sie selber anzuschauen, sei es um Leute bloßstellen,
0:03:04–0:03:07
sei es um es teilen, das gibt ein riesiges Geschäft.
0:03:08–0:03:13
Wir müssen trotzdem einen historischen Kontext machen. Es ist ja eigentlich
0:03:13–0:03:15
nicht neu, dass Bilder gefälscht werden.
0:03:16–0:03:21
Ich habe ein bisschen herumgesucht. Es gibt ja so Beispiele,
0:03:21–0:03:24
die spannend sind, zu Stalins Zeiten, in Sowjetzeiten.
0:03:25–0:03:29
Da gibt es doch die lustigen Fotos, die du siehst. Zuerst war es ein Gruppenbild.
0:03:30–0:03:35
Stalin hat verschiedene von seinen Mitstreitern. Auf jeder neuen Version des
0:03:35–0:03:40
Bildes war einer weniger drauf, weil er den einen nach dem anderen verschwinden lief.
0:03:40–0:03:44
Auf eine Art auch noch lustig, aber man sieht schon diese Komponente.
0:03:44–0:03:48
Der Unterschied ist natürlich, dass du dort noch etwas konntest.
0:03:48–0:03:52
Und jetzt kann das heute eigentlich jeder mit so einem Prompt,
0:03:52–0:03:54
wenn man das richtig macht, so ein Bild fälschen.
0:03:55–0:04:00
Ja klar, wenn ich mich erinnere, da war ich wahrscheinlich in der Sekt,
0:04:00–0:04:05
da gab es auch irgendwo im Industriepark im Dorf eine Führung.
0:04:05–0:04:09
Und das war auch eben eine Grafikagentur und eben das ist auch einer gewesen,
0:04:10–0:04:14
der hat noch die klassische Fotografausbildung und eben, der hat dann noch von
0:04:14–0:04:17
Hand retuschiert und er hat damals gesagt,
0:04:17–0:04:21
da bist du tiefer drin als ich eben, also das ist 30 Jahre her,
0:04:22–0:04:25
ist das so vor allem bei Schwarz-Weiss-Bildern möglich gewesen eben,
0:04:25–0:04:30
ich sage jetzt, wenn du neben mir stehst bist du plötzlich weg und eben, dann ist halt
0:04:31–0:04:37
Photoshop gekommen und eben, jetzt können wir auch Farbenbilder zu manipulieren.
0:04:38–0:04:43
Teilweise ist es halt nur zu optimieren. Er hat tatsächlich mal einen Auftrag
0:04:43–0:04:47
bekommen, wo Familie-Foto, wo die einen
0:04:48–0:04:57
Freundin weisst du halt abtrünnig geworden ist und dann ist sie weg sie hat gesagt, hey Gerne
0:04:57–0:05:03
wahrscheinlich etwa 10 Minuten komme ich in Photoshop und heute geht es länger
0:05:03–0:05:08
und es ist zwar kein Deepfake und er hat auch irgendwie erzählt was ich auch spannend finde
0:05:09–0:05:14
wir haben ja schon über Photoshop geredet die hat irgendwie von jemandem den
0:05:14–0:05:18
Auftrag bekommen, ich glaube sogar noch in der Lehre dass man,
0:05:18–0:05:20
also eine Familie, die total harmonisch ist,
0:05:21–0:05:25
du nimmst anscheinend wie Christbaumkugeln und tust das Gesicht drauf,
0:05:26–0:05:28
vorhanden. Hast du keine Chance gehabt.
0:05:28–0:05:32
Und eben mittlerweile mit Photoshop plutschen. Damals hast du halt noch kein
0:05:32–0:05:37
M4 gehabt, hast du halt vielleicht noch einen 86040 Prozess gehabt,
0:05:37–0:05:40
ist etwa 10 Minuten gerechnet und ist gegangen.
0:05:40–0:05:47
Aber er hat schon damals gesagt, ja, ihr könnt an einem Foto in der Zeitung
0:05:47–0:05:51
nicht mehr glauben. Das muss nicht echt sein.
0:05:51–0:05:56
Genau das stimmt. Bei der Zeitung muss man sagen, dort sind die Fotos häufig echt. Auch heute noch.
0:05:56–0:06:01
Immer noch, weil dort stehen auch journalistische Standards dahinter und ich glaube,
0:06:02–0:06:05
Wenn man vielleicht die Quintessenz ein bisschen vorwegnehmen würde,
0:06:05–0:06:10
dann wäre ich als Journalist, ich gebe zu, ich bin ein bisschen Partei in dieser
0:06:10–0:06:15
Diskussion, wäre ich froh, wenn man nicht immer so derartig auf die Journalisten...
0:06:15–0:06:18
Nein, das habe ich nicht will. Also nicht, dass man mich nicht falsch versteht.
0:06:18–0:06:21
Nein, ich unterstelle dir das nicht. Ich unterstelle das aber vielen anderen,
0:06:22–0:06:26
die ich weiss, dass eben, dann siehst du, ein Journalist macht einen Fehler
0:06:26–0:06:27
und einen riesen Aufschrei.
0:06:28–0:06:35
Erinnert man uns an den Fall vom ZDF vor einiger Zeit, wo sie ein Video gezeigt
0:06:35–0:06:37
haben, wo eindeutig Kau generiert war.
0:06:37–0:06:41
Es war sogar so deklariert. Es war nämlich ein Wasserzeichen drin.
0:06:42–0:06:45
Sie haben es gesendet. Es war wirklich ein peinlicher Fehler,
0:06:45–0:06:46
der nicht passieren darf.
0:06:47–0:06:50
Aber man würde sagen, es ist doch trotzdem, finde ich, immer noch ein Unterschied,
0:06:51–0:06:56
wenn du sagst, du hast ein Medium, das versucht, die Standards aufrechtzuerhalten
0:06:56–0:06:58
und zu sagen, wir berichten das, was echt ist.
0:06:58–0:07:01
Wir bringen echte Bilder und wir bringen nicht Fake-Bilder.
0:07:02–0:07:06
Und dann passiert mal ein Fehler und dann müsste es eigentlich einem ja zum
0:07:06–0:07:11
Schluss bringen, dass es in aller Regel doch immer noch funktioniert,
0:07:11–0:07:15
die wahrheitsgetreue Berichterstattung.
0:07:15–0:07:19
Und bei anderen im Internet, wo einfach, dort ist es irgendwie egal und dort
0:07:19–0:07:22
schaut man überhaupt nicht an. Er erwartet null.
0:07:23–0:07:27
Und ich finde, das müsste eigentlich eher uns dazu bringen, die klassischen
0:07:27–0:07:33
Medien zu stärken und nicht immer von Systemmedien und von Legacy-Medien und
0:07:33–0:07:36
von Mainstream-Medien und was sich alles einfallen lässt zu reden.
0:07:36–0:07:39
Aber das war nur ein bisschen ein persönlicher Ausbruch im Moment.
0:07:40–0:07:45
Also gehen wir zurück zu diesem Grog. Elon Musk war ein bisschen ein unrühmlicher Vorreiter.
0:07:45–0:07:50
Oder nicht Vorreiter, aber er hat der Entwicklung noch einmal extrem Schub verliehen.
0:07:50–0:07:56
Natürlich auch unter der Prämisse, dass er da die freie Meinungsäusserung stärkt,
0:07:56–0:08:00
dass Fake-Bilder auch ein Ausdruck von Meinungsfreiheit sind.
0:08:01–0:08:03
Darüber kann man schon mal geteilter Meinung sein.
0:08:03–0:08:06
Aber es ist dann Anfang Januar der Bericht.
0:08:08–0:08:11
In den Medien gewesen, glaube ich, bei Bloomberg habe ich das gelesen,
0:08:12–0:08:16
eben innerhalb des Jahres, innerhalb der 24 Stunden, sind tausende so Fälle
0:08:16–0:08:18
registriert worden mit Grog.
0:08:20–0:08:25
Wo viele eben wirklich in sexualisierter Form, wo man gesagt hat,
0:08:26–0:08:31
eben ziehen bitte diese Person ab, mach diese Blut oder steck sie in ein Backkleid
0:08:31–0:08:33
oder in ein Bikini oder so.
0:08:33–0:08:39
Solche sind mir wirklich auch begegnet und Und die Maske hat nichts dagegen gemacht.
0:08:39–0:08:43
Und da müssen wir uns schon fragen, ist dann, also das,
0:08:44–0:08:47
gehst du auch mit meiner Meinung, das ist nicht Meinungsfreiheit,
0:08:47–0:08:53
wenn du einfach Leute objektifizierst und sie da auf eine Art zur Schau stellst,
0:08:54–0:08:55
wie es eigentlich nicht geht.
0:08:56–0:09:01
Überhaupt nicht. Und speziell da sind ja teilweise sogar Minderjährige gewesen. Genau, kommt dazu.
0:09:02–0:09:06
Wenn wir jetzt gar nicht diskutieren, ich meine, ich sage jetzt,
0:09:06–0:09:11
wenn es lustig ist wenn ich sage jetzt, ja, macht den Matthias keine Ahnung, wenn wir in die Kinn ja,
0:09:11–0:09:14
Das wäre lustig das finde ich noch lustig.
0:09:14–0:09:19
Aber eben gerade wenn es um mindere Jährige geht, also da müssen wir nicht diskutieren
0:09:19–0:09:23
das ist strafbar und entsprechend auch würde ich hoffen dass Leute,
0:09:23–0:09:26
die so Sachen gepostet haben sprechen zumindest mal
0:09:27–0:09:30
ja, ich sage jetzt nicht, die müssen 10 Jahre in den Knast, aber vielleicht mal einfach
0:09:31–0:09:34
wenn es mal vor einem Richter steht Und wenn es halt mal eben wie ...
0:09:35–0:09:39
Tausendstutz Buss überkommt, dann machen sie den Scheiss nie mehr.
0:09:39–0:09:45
Das Problem ist auch wirklich, es ist extrem einfach, die Bilder herzustellen
0:09:45–0:09:46
und zu veröffentlichen.
0:09:47–0:09:52
Und es ist extrem schwierig, sie aus dem Internet zum Verschwinden zu bringen.
0:09:53–0:09:59
Das Ungleichgewicht zwischen den Täter und den Opfern, das stört mich auch.
0:10:00–0:10:05
Ich habe mich ein bisschen damit beschäftigt, Und auch, weil das bei uns auf
0:10:05–0:10:09
der Redaktion im Moment ein grosses Thema ist, was musst du denn machen,
0:10:09–0:10:11
um so ein Bild wegzubringen?
0:10:11–0:10:15
Also du musst es zuerst einmal sichern.
0:10:15–0:10:19
Also du musst einen Screenshot machen oder eine Bildschirmaufnahme,
0:10:19–0:10:22
dass du siehst, was da eigentlich passiert ist.
0:10:22–0:10:29
Du musst irgendwie einfangen, wer das gepostet hat, also auch den Account.
0:10:29–0:10:33
Und zum Beispiel auch bei dieser Kommunikations-App Telegram,
0:10:33–0:10:39
wo häufig so Sachen geteilt werden, also die kann man eben auch so Beiträge natürlich löschen.
0:10:39–0:10:43
Und wenn es wieder weg ist, dann heisst es, ist vielleicht nicht völlig weg.
0:10:44–0:10:46
Ein anderer hat das gespeichert, bringt es wieder in Umlauf,
0:10:46–0:10:49
aber am Originalort ist es weg.
0:10:49–0:10:53
Und wenn du jemanden verklagen oder vor Gericht bringen oder Schadenersatz holen
0:10:53–0:10:57
oder einfach den juristisch verfolgen, dass er nicht davor kommt,
0:10:58–0:11:03
Dann hast du einen relativ grossen Aufwand, die Beweise sichern so,
0:11:03–0:11:06
dass man sie auch vor Gericht nicht angreifen kann.
0:11:06–0:11:12
Da ist so ein Video, es gibt auch Apps, die Bildschirmfotos sogar kryptografisch absichern.
0:11:13–0:11:17
Das ist ein Riesenaufwand. Das kannst du eigentlich niemandem zumuten.
0:11:18–0:11:23
Dann kannst du das melden bei diesen Plattformen. In aller Regel reagieren die
0:11:23–0:11:24
nicht. Was machst du dann?
0:11:25–0:11:27
Es ist extrem schwierig.
0:11:29–0:11:35
Ich glaube, es braucht eine Rechtsprechung, die den Opfern hilft.
0:11:36–0:11:39
Ja klar, aber ich sage jetzt, wenn ich jetzt, oder wenn du jetzt würdest,
0:11:39–0:11:43
den Chris in den Unterhosen auf dem Schiffsmast posten.
0:11:43–0:11:45
Ja, das mache ich sicher nicht.
0:11:45–0:11:51
Und ja, dann, klar, könnte ich schon dagegen vorgehen und du bist IT-affin,
0:11:51–0:11:55
dann heisst es, ja, der sitzt aber irgendwo auf den Bahamas.
0:11:56–0:11:58
Da würde man vielleicht schon wissen, der Matthias, also nein,
0:11:58–0:12:02
liebe Hörer, das macht er nicht, aber dann würde vielleicht irgendwann,
0:12:02–0:12:05
und die VPN-Providere haben ja keine Logs.
0:12:06–0:12:09
Also ja, vergiss es, hast wahrscheinlich keine Chance. Und wie gesagt,
0:12:10–0:12:10
wenn es jetzt für mich ...
0:12:12–0:12:16
Also als kleiner Dings, wie sagen wir, ja,
0:12:17–0:12:21
Podcaster irgendwo ist, who cares, aber eben, wenn es dann vielleicht jemand
0:12:21–0:12:23
aus dem öffentlichen Leben ist,
0:12:24–0:12:29
wenn jetzt irgendwie, keine Ahnung, würde man die Meier bloßstellen oder so,
0:12:29–0:12:32
das hätte dann vielleicht eine politische Folge.
0:12:32–0:12:35
Ja, klar, klar, also das kann man aus politischen Gründen machen,
0:12:35–0:12:41
man kann es machen, weil es geht, man kann es aus aus Bosenhaftigkeit machen
0:12:41–0:12:43
oder weil man das Gefühl hat, man würde nicht verwünscht.
0:12:43–0:12:46
Es ist wirklich ein Dilemma.
0:12:47–0:12:50
Ich finde auf eine Art die Anonymität im Internet wichtig.
0:12:50–0:12:55
Ich glaube, es braucht Leute, die anonym kommunizieren können.
0:12:55–0:13:00
Da denkt man wieder natürlich an Whistleblower, an Dissidenten,
0:13:00–0:13:04
an Leute, die sich gegen ein Regime auflehnen.
0:13:04–0:13:08
Auf der einen Seite ist es wichtig, aber auf eine Art finde ich es schade,
0:13:08–0:13:15
dass gewisse Leute ihre Standards nicht höher ansetzen und das aus purer Boshaftigkeit
0:13:15–0:13:16
eine Trollerei braucht.
0:13:16–0:13:21
Und es sind ja nicht nur ein paar, dass das so Ausmass annimmt.
0:13:21–0:13:26
Natürlich sind es im Verhältnis wahrscheinlich immer noch wenige, die das machen.
0:13:27–0:13:31
Aber eben gerade weil dann auch die Algorithmen, je nachdem von diesen Plattformen,
0:13:31–0:13:36
das so befördert, wird es dann halt trotzdem zu einem riesigen Problem.
0:13:36–0:13:41
Und ich frage mich schon, Ich meine, ich bin kein Jurist, aber wenn ich den
0:13:41–0:13:46
AI-Act der EU richtig verstanden habe, dann schreibt er eigentlich vor,
0:13:46–0:13:50
dass künstlich generierte Inhalte deklariert werden müssten.
0:13:50–0:13:55
Also so ein Bild müsste eigentlich ein Label haben, ein KI-Label,
0:13:55–0:13:57
und dann siehst du schon mal.
0:13:57–0:14:02
Das ist künstlich generiert und dann könntest du eben auch, wenn du die Leute
0:14:02–0:14:07
hast, die immer wieder Bilder posten, wo du anweisen kannst,
0:14:07–0:14:08
dass die KI generiert sind,
0:14:08–0:14:11
aber die nicht deklarieren, dann könntest du mal sagen, hey,
0:14:11–0:14:16
du verstossest das ständig gegen unsere Richtlinien, jetzt musst du damit aufhören
0:14:16–0:14:17
und sonst drehen wir die auseinander.
0:14:17–0:14:25
Also man könnte das Problem schon lösen. Ich glaube, man kann es nicht verhindern,
0:14:25–0:14:32
dass Leute auch unanständige Bilder oder verwerfliche Bilder produzieren.
0:14:33–0:14:34
Das gehört wahrscheinlich dazu.
0:14:35–0:14:40
Aber dass man dann greifige Massnahmen hat, dass die sich so verbreiten,
0:14:40–0:14:43
das könnte man schon besser machen.
0:14:43–0:14:48
Ja, aber ich glaube auch jetzt, der Videogenerator von Gemini,
0:14:49–0:14:53
wenn es am Recht ist, hat unten recht zu tun, ein kleines Wasserzeichen.
0:14:53–0:14:58
Aber eben, also schon vor 20 Jahren haben wir, ich sage jetzt halt auch Piraten,
0:14:59–0:15:03
irgendwie eine Sendung vom RTL aufgenommen, haben das RTL-Logo irgendwie rausgebracht.
0:15:03–0:15:03
Genau.
0:15:04–0:15:10
Dann nimmst du halt das Gemini-Video, haust es halt zu whatever rauf, dann ist es auch weg.
0:15:10–0:15:15
Also, du kannst Das ist ein Wasserzeichen. Du hast über das ganze Bild genommen.
0:15:15–0:15:21
Das wirst du nicht können. Wenn ich anonym sage, Matthias
0:15:22–0:15:28
läuft in den Unterhosen oder liegt auf dem Gleisenbahnhof Winterthur mit einem
0:15:28–0:15:31
Bier. Nein, das mache ich nicht.
0:15:32–0:15:34
Ja, was willst du dagegen machen?
0:15:34–0:15:40
Ja, genau, das ist tatsächlich ein bisschen das Problem und ich glaube tatsächlich
0:15:40–0:15:46
macht die KI von Google nicht nur ein sichtbares Wasserzeichen,
0:15:46–0:15:51
sie markieren die Bilder auch unsichtbar, also mit einem digitalen Wasserzeichen
0:15:51–0:15:55
und du kannst das Zünd-ID heisst das, Das kann man z.B.
0:15:55–0:15:57
Mit Gemini gut feststellen.
0:15:59–0:16:05
Sogar wenn du die Google-Rückwärtssuche, also die Bildersuche benutzt,
0:16:05–0:16:09
zeigt die dir unter Umständen an, wenn sie so ein Wasserzeichen gefunden hat,
0:16:09–0:16:11
zeigt an, das Bild ist keine eingeneriert.
0:16:12–0:16:16
Da gäbe es schon Mittel. Natürlich gibt es auch Open-Source-Bildgeneratoren,
0:16:16–0:16:25
wo dann überhaupt keine so Guardrails, also so Methoden, um sich ein bisschen eingrenzen zu haben.
0:16:26–0:16:30
Aber dadurch kannst du das nicht ganz verhindern. Aber einerseits,
0:16:30–0:16:35
glaube ich, ist es tatsächlich ein Problem, wie einfach das ist.
0:16:35–0:16:39
Wenn man es nur ein bisschen erschwert, dann fallen, sage ich jetzt mal,
0:16:39–0:16:42
die ganz Unfähigen schon mal weg.
0:16:43–0:16:47
Und die Menge reduziert sich ein bisschen. Aber ich glaube, man könnte schon
0:16:47–0:16:49
auf den Plattformen ansetzen,
0:16:49–0:16:55
dass man halt erstens die KI-Bilder dann vielleicht auch nicht einfach so verbreitet
0:16:55–0:17:00
und vielleicht die Leute schon auch massregelt, wenn sie verstossen,
0:17:00–0:17:06
dass man wirklich volle Mechanismen hätte, um so Bilder zu melden.
0:17:07–0:17:11
Man würde gerade meinen, dass du sagst, ich bin auf diesen Bildern drauf,
0:17:12–0:17:18
dass du als Betroffener den Leuten helfen müsstest, das zum Verschwinden bringen.
0:17:18–0:17:20
Das ist eigentlich selbstverständlich.
0:17:20–0:17:23
Das müsste den Anstand gebieten.
0:17:23–0:17:28
Und ich verstehe ehrlich gesagt, wenn ich jetzt da in diesem Studio sitze und
0:17:28–0:17:33
mir darüber rede, verstehe ich schon nicht ganz, dass wir über eine solche Selbstverständlichkeit
0:17:33–0:17:35
reden müssen und dass die Tech-Konzern,
0:17:36–0:17:41
nicht von sich aus darauf kommen. Das ist mir ehrlich gesagt ein Rätsel.
0:17:41–0:17:42
Kannst du dir das erklären?
0:17:43–0:17:49
Ja, haben wir glaube ich vorhin schon geredet. Das sind börsenkotierte Unternehmen. Das kostet Geld.
0:17:50–0:17:51
Es bringt dir nichts. Vielleicht ja.
0:17:52–0:17:57
Bringt es mal Goodwill von ein paar Leuten, aber dann würde ich vielleicht als
0:17:57–0:18:03
Aktienär von Google auch sagen, hey, ihr habt jetzt 100 Millionen, just an example,
0:18:04–0:18:09
für nur Massnahmen gegen KI missbrauche ich aber die 100 Billionen,
0:18:09–0:18:13
könnt ihr in eure Server investieren, also es ist wahrscheinlich,
0:18:13–0:18:15
it's a capitalism thing.
0:18:17–0:18:25
Ich glaube, das Problem ist auch wirklich, dass man das Gefühl hat, es ist so omnipräsent.
0:18:25–0:18:29
Also die KI-Bilder in den sozialen Medien sind irgendwie jeder gepostet.
0:18:30–0:18:35
Natürlich eben auch häufig, weil die, ich würde sagen, nicht unbedingt Deepfakes.
0:18:35–0:18:41
Also wo man sagt, wenn man es jetzt im engeren Sinn nimmt, ist natürlich jedes
0:18:41–0:18:44
KI-generierte Bild eigentlich ein Deepfake.
0:18:44–0:18:51
Aber wenn wir das nehmen, für die, die wirklich eine Person plagiieren.
0:18:54–0:18:59
Dann gibt es ja auch noch den Bereich des AI-Slops, der einfach künstlich generierte
0:18:59–0:19:01
Motive sind und die sind so omnipräsent,
0:19:02–0:19:09
dass man wirklich das Gefühl hat, das ist jetzt die neue Normalität und sich
0:19:09–0:19:11
einem Schaden nicht bewusst ist.
0:19:11–0:19:16
Ich habe heute zufälligerweise, oder gestern war es der schöne Begriff,
0:19:16–0:19:23
für das gehört von den Liars Dividenden, also quasi Dividenden für den Lügner.
0:19:23–0:19:30
Auf Deutsch könnte man vielleicht auch sagen, so Belohnung fürs Lügen oder der Gegenwert fürs Lügen.
0:19:30–0:19:38
Dass du eben, wenn so die Beweiskraft von Bildern durch die Omnipräsenz von
0:19:38–0:19:41
diesen KI-generierten Motiven sinkt,
0:19:41–0:19:45
dann können auch Leute herkommen, die sagen, eben als Politiker,
0:19:45–0:19:50
als krupelloser Politiker, du wirst gefilmt bei irgendeiner Korruption,
0:19:50–0:19:56
du nimmst Geld entgegen von irgendeinem industriellen, sagen wir von Mark Zuckerberg,
0:19:56–0:20:01
Achtung, fiktives Beispiel, Du nimmst Geld von Mark Zuckerberg entgegen und tust dafür.
0:20:02–0:20:06
Was weiss ich was, KI-Regulierung verschleppen oder so,
0:20:07–0:20:10
dann wirst du dabei gefilmt, dann kannst du hinzugehen und sagen,
0:20:10–0:20:14
hey, das ist ein KI-Bild oder ein KI-Video, das ist künstlich generiert,
0:20:14–0:20:19
das ist nicht echt, das schwächt Beweiskraft und eben, wir haben es gesagt am Anfang,
0:20:19–0:20:23
man hätte diesen Bildern nie so richtig glauben können, aber es hat schon sehr,
0:20:23–0:20:28
sehr viele Bilder gegeben, die auch echt waren und die man eigentlich nicht
0:20:28–0:20:30
hinterfragen musste und wenn das so weitergeht,
0:20:31–0:20:37
dann gibt es überhaupt nichts mehr, die man beweisen kann und das ist politisch wirklich kein Problem,
0:20:37–0:20:41
dass dann halt, man sieht es ja beim Trump oder der KI generiert,
0:20:41–0:20:45
das ist einfach alles alternative Realität und am Schluss beugt sich jeder das
0:20:45–0:20:49
halt so zurecht, wie es ihm gerade passt und das ist schon keine Zukunft.
0:20:49–0:20:54
Ja, aber du hast, jetzt wenn ich ein bisschen zurückdenke, so an meine Anfangszeit,
0:20:54–0:20:58
wo ich mal ein bisschen anfange am Fernsehen schaue, der Kurt Felix hatte ja
0:20:58–0:21:02
auch unzählige Sendungen gehabt und er hat dann auch das Interview gefälscht.
0:21:02–0:21:08
Da hast du jetzt irgendeinen Bundesrat gehabt und der hat halt irgendwie im
0:21:08–0:21:13
Originalinterview, ich glaube es ist der Kurt Furgler, also behaftet mich nicht,
0:21:14–0:21:17
ja was ist ihr liebste Dessert?
0:21:17–0:21:19
Er hat gesagt, Caramelköpfchen.
0:21:19–0:21:23
Und dann hat der Felix, ja wie nennt sie ihre Frau?
0:21:23–0:21:28
Und dann Caramelköpfchen. Und das hast du schon damals, eben vor 40 Jahren,
0:21:28–0:21:33
können Du hast natürlich gemerkt, wenn es der Kurt Felix ist, es ist Satire.
0:21:33–0:21:37
Aber ich habe das Gefühl, und wir müssen den Melzi wieder mal haben,
0:21:37–0:21:42
wegen Medienkompetenz, dass die heutigen Jugendlichen, wenn du jetzt würdest,
0:21:42–0:21:47
keine Ahnung, Karamell, nicht Karamell, Karin Krell, absolut zu fragen,
0:21:48–0:21:52
dass die glauben, ja, ja, ihren Mann nennt sie Karamellköpfe.
0:21:52–0:21:57
Und ich glaube, das ist etwas, was unsere Generation, und gerade jetzt wir von
0:21:57–0:22:01
dem Podcast, wir sind vielleicht ein bisschen paranoider als andere.
0:22:02–0:22:04
Ja, ich weiss es nicht, ehrlich gesagt.
0:22:06–0:22:12
Leider sehe ich auch auf Facebook vor allem auch geheierte Alten schon auf ganz viele von diesen Fakes.
0:22:12–0:22:20
Und ja, das mit dieser Satire natürlich, das ist Satire darf Sachen eigentlich
0:22:20–0:22:27
alles, aber umgekehrt ist nicht alles Satire, die vielleicht auch das behauptet.
0:22:27–0:22:30
Aber eben, dass man jetzt irgendwie bei der Karin Keller-Sutter oder wie man
0:22:30–0:22:39
immer von der Karabellköpfle Versus jemand nackt auf dem Schiff ist dann doch noch etwas anderes.
0:22:39–0:22:44
Also wenn es einfach so überzeichnet ist, dass man es merkt,
0:22:44–0:22:45
ist es in meinen Augen okay.
0:22:46–0:22:50
Aber teilweise wirst du wahrscheinlich Leute haben, die sagen,
0:22:50–0:22:56
oh was, der Herr Sutter nennt seine Karin Karamellköpfchen.
0:22:56–0:22:59
Das hast du wahrscheinlich auch Leute, die das glauben.
0:22:59–0:23:05
Jetzt müssen wir das investigativ recherchieren, wie sie eigentlich heisst.
0:23:05–0:23:09
Nein, aber was machen wir denn dagegen? Ich finde ganz klare Forderungen.
0:23:09–0:23:13
Diese Plattformen müssen in die Verantwortung genommen werden.
0:23:13–0:23:15
Das geht einfach nicht mehr.
0:23:15–0:23:21
Das Label muss hin und sie müssen Leute sanktionieren, die ständig dagegen verstossen.
0:23:21–0:23:24
Ich würde sagen, nicht beim ersten Mal, nicht beim zweiten Mal.
0:23:24–0:23:27
Man muss den Leuten Gelegenheit geben, das zu lernen, dass sie das machen müssen.
0:23:27–0:23:32
Aber beim fünften, sechsten oder zehnten Mal gibt es eine echte Strafe.
0:23:32–0:23:38
Und wenn die Plattformen das nicht machen, dann muss der Gesetzgeber schauen,
0:23:38–0:23:39
dass es diese Gesetze gibt.
0:23:40–0:23:48
Ich bin, wie gesagt, kein Jurist, aber ich finde den dänischen Ansatz auf eine Art noch witzig.
0:23:49–0:23:55
Witzig ist vielleicht der falsche Begriff, aber originell und auf eine Art auch einleuchtend.
0:23:57–0:24:00
Du hast eigentlich ein Urheberrecht auf dein eigenes Gesicht,
0:24:00–0:24:05
auf deine Stimme, auf deine Gesten oder wie auch immer, auf dein Äusseren,
0:24:05–0:24:07
auf dein Aussehen, auf dein Verhalten.
0:24:07–0:24:13
Und wenn jemand das einfach fälscht mit KI, dann begeht er eine Urheberrechtsverletzung
0:24:13–0:24:17
und für das kannst du ihn zur Rechenschaft ziehen, wie früher die Leute zur
0:24:17–0:24:21
Rechenschaft gezogen worden sind, die das MP3 noch immer durchgeladen haben,
0:24:21–0:24:22
die sie nicht hätten dürfen.
0:24:22–0:24:29
Und das Urheberrecht ist immer noch, mal abgesehen davon, dass sämtliche Inhalte
0:24:29–0:24:32
aus dem Internet geklaut wurden, um KI zu trainieren.
0:24:32–0:24:36
Aber wenn man mal über das wegschaut, dann würde das Urheberrecht,
0:24:36–0:24:37
glaube ich, immer noch funktionieren.
0:24:38–0:24:43
Und dann könnte man durch das, glaube ich, wirklich dagegen vorgehen.
0:24:43–0:24:48
Und dann müsste man wahrscheinlich auch den Mumm haben, sich mit diesen Tech-Konzernen anzulegen.
0:24:49–0:24:54
Und du, Tiggy Chris, als unseren Politexperten, im Moment hat man schon das
0:24:54–0:24:58
Gefühl, in der EU gäbe es eigentlich einige von diesen Gesetzen.
0:24:58–0:25:02
Auch in Deutschland gibt es ja das Netzdurchsetzungsgesetz, wo es sagt.
0:25:03–0:25:08
Fehlinformationen und missbrüchliche Informationen müssen entfernt werden.
0:25:08–0:25:12
Man muss sie melden können und sie müssen in einer nützlichen Frist von den
0:25:12–0:25:13
Plattformen verschwinden.
0:25:14–0:25:20
Und wenn das nicht passiert, dann gibt es Bussen Im Extremfall werden die Plattformen
0:25:20–0:25:23
sogar verboten, aber von dem sieht man weit und breit nicht.
0:25:23–0:25:29
Könnte das etwas damit zu tun haben, dass man sich als Politiker in Europa nicht
0:25:29–0:25:30
mit Donald Trump anlegen will?
0:25:31–0:25:35
Das kann sicher sein. Du hast schon mal eine Richtung gehabt,
0:25:35–0:25:36
dass es ein bisschen richtig
0:25:38–0:25:42
Ich sage es jetzt mal so, Zensur. Ja, also du weisst, wie ich das meine.
0:25:43–0:25:45
Das ist dann immer der Vorwurf, genau. Ja, ja.
0:25:45–0:25:48
Gangen ist, aber eben, ich würde noch mal sagen, und jetzt auch,
0:25:48–0:25:53
wir haben, du bist, du hast eine Tochter und ich bin sicher, du,
0:25:54–0:25:59
wenn du deiner Tochter ein Tablet oder ein Smartphone hängst,
0:25:59–0:26:01
wirst du mir erklären, was ich machen muss.
0:26:01–0:26:06
Und das wirklich die Eltern sagen, hey, also die Töchter, bevor du dein iPhone
0:26:06–0:26:07
überkommst, schau jetzt mal,
0:26:08–0:26:13
da du nichts glauben, wo das steht, also es sind die Eltern,
0:26:13–0:26:18
ich würde auch sagen, dass man in der Schule tatsächlich viel mehr in das muss investieren.
0:26:18–0:26:21
Gut, ich bin jetzt nicht mehr oft in einem Klassenzimmer gewesen,
0:26:22–0:26:25
dass man auch den Jungen, weil wahrscheinlich die verteilen das,
0:26:25–0:26:27
Aber gut, du hast auch gesagt, ja,
0:26:28–0:26:31
dass Eltern sind, die das irgendwie verteilen, einfach, dass man gerade,
0:26:31–0:26:34
aber den Jungen mal erklärt, hey, nur weil jetzt du eben siehst,
0:26:34–0:26:40
dass der Matthias irgendwie Samba tanzt, natürlich der Matthias kann nicht tanzen.
0:26:40–0:26:41
Das ist tatsächlich so.
0:26:42–0:26:49
Das ist ein Fake oder der Chris schneidet Zwiebeln, nein, der Chris, also so Sachen, ja.
0:26:50–0:26:55
Einfach, ich habe einfach das Gefühl, jetzt bei mir Und da sind wir nicht viel.
0:26:55–0:26:59
Wirklich bei jedem Video und Bild denke ich, hm, kann das sein?
0:26:59–0:27:06
Es hat ja schon, ich sage jetzt, legit-Stories gegeben, wo ich gar nicht zuerst geglaubt habe.
0:27:06–0:27:11
Ich dachte, das kann nicht sein. Es war sogar, dass Apple Intel rausgeknallt.
0:27:11–0:27:14
Das kann nicht sein. Und dann hast du natürlich schon gesehen,
0:27:15–0:27:17
ja, es ist Keynote, das wird schon stimmen.
0:27:18–0:27:23
Ja, es ist so. Ich glaube, wir brauchen verlässliche Quellen und du hast ganz recht.
0:27:23–0:27:29
Ich finde auch, Medienkompetenz müsste wahrscheinlich im Moment vielleicht nicht
0:27:29–0:27:35
ganz absolut der wichtigste Fach in der Schule sein, aber eines der sehr wichtigen Fächern,
0:27:35–0:27:39
noch wichtiger als, wir haben ja schon darüber gesprochen, als Programmieren oder so,
0:27:40–0:27:43
aber dass wir auch… Ich kann es ja kombinieren.
0:27:44–0:27:48
Ich als Super-Kund-Sport ist es schon gut, wenn ich ein bisschen segeln gehe.
0:27:49–0:27:53
Ja, nein, segeln ist auch okay. Ich finde den Hochsprung und die Lichtathletik
0:27:53–0:27:55
und so, die können wir wirklich verzichten.
0:27:55–0:27:59
Das Swingt-Urli, ja, weg, aber ich bin einfach laufen und so.
0:28:00–0:28:04
Kannst du dich vielleicht dispensieren vom Sport, wenn du mit deiner Garmin
0:28:04–0:28:06
kannst sagen, ich habe 10'000 Schreie gemacht.
0:28:06–0:28:11
Ja, genau. Oder wenn du für die Medien kommst, wenn du von 10 Kau gefakten Bilder
0:28:11–0:28:15
mindestens neun erkennst, dann musst du nicht Kugelstossen machen gehen.
0:28:15–0:28:17
Da wäre ich absolut dafür.
0:28:17–0:28:23
Aber noch ein bisschen ernsthaft abschliessend, kann man irgendwie Prävention betreiben.
0:28:24–0:28:28
Früher, noch vor ein paar Jahren oder vor wenigen Jahren haben wir einfach gesagt,
0:28:28–0:28:32
je weniger Bilder das so von einem im Umlauf sind, desto weniger Angst muss
0:28:32–0:28:35
man haben, dass die irgendwie missbraucht werden oder so.
0:28:36–0:28:40
Das ist heute leider wirklich ein bisschen fast verschwunden,
0:28:40–0:28:45
der Schutzmechanismus, weil es braucht im dümmsten Fall ein Foto,
0:28:45–0:28:50
das fälschig ist, wo jemand in ein blödes Licht rutscht und schon ist es passiert.
0:28:51–0:28:55
Und das ist halt auf eine Art wirklich fatal, aber ich glaube,
0:28:55–0:29:00
es hilft trotzdem, wenn man so seine Lebenssituation, also seine Wohnung zum Beispiel,
0:29:00–0:29:05
nicht allzu ausführlich dokumentiert, eben zum Beispiel sicher seine Kinder
0:29:05–0:29:11
aus dem Internet nicht fernhalten aus den sozialen Medien und einfach sehr datensparsam ist.
0:29:12–0:29:17
Hilft schon, man kann trotzdem so einen Deepfake herstellen,
0:29:17–0:29:22
aber er ist natürlich weniger glaubwürdig, wenn das ganze Umfeld nicht auch
0:29:22–0:29:23
noch authentisch wirkt.
0:29:23–0:29:29
Also deine Wohnung oder deinen Arbeitsplatz oder wie auch immer.
0:29:30–0:29:35
Und darum wäre das als Servicebeitrag vielleicht noch das, dass man halt wirklich
0:29:35–0:29:39
einfach im Moment oder inzwischen sehr vorsichtig sein muss,
0:29:40–0:29:41
was man von sich preisgibt.
0:29:41–0:29:45
Und ich glaube, wir zwei müssen halt einfach unsere Stimmen verfreunden im Podcast.
0:29:46–0:29:46
Ja, genau.
0:29:47–0:29:52
Natürlich, also ich mache das jetzt auch schon ein paar Jahre im Hörbfunk,
0:29:52–0:29:56
also wenn deine Stimme willst klonen, ist es, glaube ich, nicht so schwierig.
0:29:56–0:30:02
Nein, das ist natürlich wirklich das Fiese daran, dass man, die Vorsichtsmassnahmen
0:30:02–0:30:08
sind jetzt möglich für die, die sie jetzt umsetzen, aber für die, die schon ihre,
0:30:10–0:30:13
Unvorsichtigkeiten begangen Wir haben vor fünf Jahren, wo die Gefahr noch nicht
0:30:13–0:30:16
absehbar war, die bringen das alles nicht mehr zum Internet aus.
0:30:16–0:30:20
Das ist so und darum braucht es, glaube ich, jetzt wirklich Mechanismen,
0:30:20–0:30:22
die uns alle auch schützen.
0:30:22–0:30:28
Weil ich glaube, potenzielle Opfer sind ganz viele und potenzielle Täter sind
0:30:28–0:30:30
doch relativ wenig im Vergleich.
0:30:31–0:30:35
Und darum müssen wir jetzt schauen, dass man da ein bisschen die Vernunft schützt.
0:30:35–0:30:39
Als Wort zum Sonntag abschliessend zu dieser Sendung von mir.
0:30:41–0:30:47
Wenn ich nicht ein Nerdfunk zu wenig nerdig sei, reklamieren Sie auf Nerdfunk.
0:30:51–0:30:51
Nerdfunk.

Deepfakes wirken echt, sind aber reine Fantasiegeburten: Videos und Bilder, die anhand eines Textprompts von einer generativen KI erzeugt wurden und lustig, originell oder auch verblüffend sind – zumindest in ihrer harmlosen Ausprägung.

Doch in vielen Fällen werden die Bilder zu manipulativen Zwecken eingesetzt: als Propaganda-Instrument, in Form von «AI Slop» zur Aufmerksamkeitsbewirtschaftung in den sozialen Medien und schliesslich auch bei Identitätsdiebstahl und «Deep Nudes» – das sind sexualisierte Deepfakes, die zu privaten «Vergnügen» verwendet oder auch veröffentlicht werden.

Spätestens seit Elon Musks KI Grok solche Bilder mit minimalem Aufwand via Twitter (X) erzeugt, ist eine eigentliche Deepfake-Epidemie zu beobachten.

Wir diskutieren über das Problem: Welche Handhabe haben wir als Betroffene, was können wir gegen solche Deepfakes tun? Welche Möglichkeiten der Prävention gibt es? Und was müsste der Gesetzgeber tun, damit die Last, gegen solche Formen des digitalen Missbrauchs vorzugehen, nicht auf den Schultern der einzelnen Opfer liegt?

Die Links zur Episode

Beitragsbild: Wie verstecken wir uns von den KI-Algorithmen, die uns unsere Identität nach Belieben verwenden, verfremden und stehlen (Alex Vámos, Unsplash-Lizenz)?

Veröffentlicht von Matthias

Nerd since 1971.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert