Transkript anzeigen (falls vorhanden)
0:00:06–0:00:15
Ich bin nicht sicher, ob dieser Song hier jugendfrei ist. Glied! Glied!
0:00:17–0:00:22
Für diejenigen, die es noch nicht gehört haben. Genau, Glied heisst der Song
0:00:22–0:00:29
und stammt vom Knöppel und ab der Platte Faszination Glied.
0:00:38–0:00:43
Miau, miau. Ja, Büseli, sag, was ist denn los?
0:00:43–0:00:47
Miau, Stadtfilter, miau.
0:00:49–0:00:53
Stattfilter. Und dir ist respektive ein bisschen unanständiger Einstieg.
0:00:54–0:00:55
Kevin, wie hat es dir gefallen?
0:00:57–0:01:02
What? Was ist jetzt? Was läuft auf dem Sander? Ja, wahrscheinlich haben es wollen
0:01:02–0:01:04
am Digi Chris eine Freude machen.
0:01:06–0:01:11
Weil der hat ja gesagt, es läuft manchmal eine komische Musik und jetzt haben es beweisen.
0:01:12–0:01:16
Ich habe seine Musik geredet, dass er recht hatte. Ey!
0:01:17–0:01:19
Wie soll ich sagen, wie geht es dir?
0:01:21–0:01:27
Ich bin wieder halbwegs brauchbar. Du warst krank und alles so?
0:01:27–0:01:35
Ich war krank, ich war weg und dann noch in einer Weiterbildung und dann bin ich noch krank.
0:01:35–0:01:37
Ich habe jetzt gerade alles gemacht, was man machen muss.
0:01:38–0:01:42
Ferien, Weiterbildung, krank. Tönt stressig, ehrlich gesagt.
0:01:42–0:01:49
Aber jetzt hast du dich erholt und hast auch hoffentlich nicht zu viel Stress
0:01:49–0:01:51
für diese Sendung getan. Nein.
0:01:52–0:01:56
Also ich kann alles noch erzählen. Das Abenteuer.
0:01:56–0:02:01
Ich bin gerade so an einem spannenden Wendepunkt.
0:02:01–0:02:05
Wo ich merke, es passiert etwas mit mir und ich habe gefunden,
0:02:05–0:02:07
ich muss mit dir über das reden. Okay.
0:02:07–0:02:11
Du bist eigentlich unvorbereitet in dem Sinn. Absolut. Das finde ich irgendwie noch lustig.
0:02:12–0:02:15
Das habe ich noch eine gute Geschichte gefunden, dass du gesagt hast,
0:02:15–0:02:21
es gibt einfach, du kriegst keine Infos rüber und das passiert heute. Okay.
0:02:21–0:02:25
Aber geht es um das Thema, was du gesagt hast, oder geht es um ein anderes Thema?
0:02:26–0:02:32
Es geht um KI. Okay. Es geht im weitesten, nein, es geht auch im näheren Sinn eigentlich um KI.
0:02:32–0:02:35
Okay, weil ich habe gefunden, ich habe jetzt so viele Sendungen gemacht über
0:02:35–0:02:43
KI, wenn du mir sagst, was du über KI willst machen, dann bricht es wieder aus mir raus.
0:02:46–0:02:50
Dann bringe ich all das, was ich eh habe, was mir auf den Zungen liegt.
0:02:50–0:02:52
Und dann habe ich gefunden, das ist ein bisschen langweilig.
0:02:52–0:02:56
Und darum habe ich gefunden, okay, wir reden über KI, aber ich will nicht wissen
0:02:56–0:03:01
im Voraus, in welcher Richtung es geht und du überraschst mich einfach.
0:03:01–0:03:05
Und darum hat jetzt, glaube ich, auch im Programm-Tool diese Sendung nicht einmal
0:03:05–0:03:06
irgendwie einen Beschreib oder so.
0:03:07–0:03:11
Also wir sind gespannt, was da auf uns zukommt.
0:03:12–0:03:17
Es passiert etwas. Ich bin auch gespannt, ob es dann am Schluss irgendwie funktioniert,
0:03:18–0:03:19
wie ich mir das vorstelle.
0:03:19–0:03:23
Aber das schaffen wir das schaffen
0:03:23–0:03:26
wir und dann können wir nämlich bevor es
0:03:26–0:03:28
losgeht die grosse Überraschungssendung vielleicht noch ein
0:03:28–0:03:31
bisschen musiklosen weil wenn ihr
0:03:31–0:03:36
euch erinnert an die letzte Sendung dort habe ich ja dummerweise erzählt das
0:03:36–0:03:42
hätte ich vielleicht rausschneiden wie es zu meiner Verlobung gekommen ist in
0:03:42–0:03:47
Schottland da hat es diese schottische Geschichte und dann das passt auf eine
0:03:47–0:03:49
Art auch noch gut in unsere Rubrik SMS,
0:03:50–0:03:52
also Social Media Shit der Woche.
0:03:52–0:03:58
Weil es hat dann nämlich einer geschrieben, er hat mir so einen Song zugekommen und hat gesagt.
0:04:00–0:04:05
Jetzt versteht ihr endlich, wie die Geschichte zu Stand gekommen ist,
0:04:05–0:04:06
die in diesem Song besungen wird.
0:04:07–0:04:11
Und ich muss leider das dementieren.
0:04:12–0:04:19
Weder stehe ich auf Leparton, noch heisst meine Frau Harry Mary,
0:04:19–0:04:22
noch bin ich jemals in der Fremdenlegion gewesen.
0:04:23–0:04:28
Wenn ihr wissen wollt, was es alles mit dem auf sich hat, dann würde ich sagen,
0:04:29–0:04:33
dann spiele ich jetzt einfach den Song, den hier der Reto, der Reto ist es glaube
0:04:33–0:04:36
ich gewesen, behauptet hat, er ging über mich.
0:04:36–0:04:38
Ist gut, Kevin, bist du bereit? Super.
0:04:39–0:04:43
Also, da kommt der Mann, wie heisst er, ich weiss nicht, wahrscheinlich spricht
0:04:43–0:04:46
man schottisch aus, ich habe keine Ahnung, aber da kommt sein Song.
0:05:03–0:05:14
Glory, Halleluja. NERDFUNK Herzlichst willkommen zum NERDFUNK Ich bin Nerds
0:05:14–0:05:19
am Mikrofon Kevin Recksteiner und Matthias Schiessler Willkommen zu Nerdfunk.
0:05:20–0:05:24
Heute ausnahmsweise auf Hochdeutsch für all unsere deutschen Hörerinnen und Hörer.
0:05:24–0:05:30
Wir reden über künstliche Intelligenz, über ihre Chancen, ihre Risiken und darüber,
0:05:30–0:05:32
wohin uns das alles noch führen wird.
0:05:33–0:05:37
Nerdfunk, Ausgabe 771 vom 28.
0:05:37–0:05:43
Oktober in der Woche 44. Die Gefahren von künstlicher Intelligenz und warum
0:05:43–0:05:44
wir sie trotzdem alle benutzen.
0:05:44–0:05:50
Auch ich finde ja spannend, dass künstliche Intelligenz inzwischen überall drin steckt.
0:05:50–0:05:52
Selbst da, wo man es gar nicht merkt.
0:05:53–0:05:57
Vom Fotoeditor bis zum Kühlschrank. Alles denkt irgendwie mit.
0:05:58–0:06:03
Ja, und das macht es auch ein bisschen unheimlich. Wenn Maschinen anfangen,
0:06:03–0:06:07
Entscheidungen zu treffen, ohne dass jemand versteht, wie sie zu diesen Entscheidungen
0:06:07–0:06:09
kommen, dann ist das schon eine Gefahr.
0:06:09–0:06:13
Aber sind wir ehrlich, es ist ja nicht die künstliche Intelligenz,
0:06:13–0:06:17
die gefährlich ist, sondern das, was Menschen damit machen.
0:06:17–0:06:21
KI ist im Prinzip nur ein Spiegel unserer eigenen Absichten.
0:06:21–0:06:26
Genau, und dieser Spiegel zeigt halt nicht nur die schönen Seiten.
0:06:26–0:06:30
Wenn du sie mit falschen Daten fütterst, kommt halt auch Mist raus,
0:06:30–0:06:34
aber diesmal mit überzeugender Stimme und schönem Layout.
0:06:34–0:06:39
Ich glaube, das größte Risiko ist gar nicht, dass das KI böse wird,
0:06:39–0:06:41
sondern dass wir zu bequem werden.
0:06:41–0:06:45
Wenn du alles generieren kannst, warum noch selber denken?
0:06:45–0:06:49
Oder umgekehrt, vielleicht denken wir gerade mehr, weil wir gezwungen sind,
0:06:50–0:06:53
das, was die Maschine produziert, kritisch zu hinterfragen.
0:06:54–0:06:59
Vielleicht ist das ja der positive Effekt. Und trotzdem, so richtig unter Kontrolle hat das niemand.
0:06:59–0:07:05
Es gibt Deepfakes, Fake News, automatisierte Propaganda und gleichzeitig setzen
0:07:05–0:07:08
Unternehmen KI ein, um Stellen zu streichen.
0:07:08–0:07:13
Ich sag's mal so, KI ist wie Feuer. Du kannst damit kochen oder abbrennen.
0:07:13–0:07:17
Und im Moment spielen ziemlich viele Leute mit Streichhölzern. Schönes Bild.
0:07:18–0:07:21
Aber ja, das ist vielleicht die Herausforderung unserer Zeit.
0:07:21–0:07:26
Zu lernen, mit der Maschine zu leben, ohne sie unser Leben bestimmen zu lassen.
0:07:27–0:07:32
Dann hoffen wir mal, dass wir in dieser Sendung noch ein paar gute Firewall-Regeln
0:07:32–0:07:34
für die Menschheit finden.
0:07:34–0:07:39
Bleibt dran. Nach der kurzen Pause reden wir darüber, wo die KI uns wirklich
0:07:39–0:07:42
gefährlich werden könnte und ob sie vielleicht jetzt gerade schon zuhört.
0:07:44–0:07:51
Okay, ich mache mich da oft. Der Dicke Chris ist auch... Hast du mich da oft? Du bist.
0:07:52–0:07:56
Ich habe das Gefühl, ich hatte den schlechtesten Akzent von allen.
0:07:59–0:08:06
Ich glaube, das ist jetzt das Ding, wenn man so halb zuhört,
0:08:06–0:08:07
hat man es nicht gemerkt.
0:08:08–0:08:10
Wenn es so im Hintergrund läuft, hast du keine Chance.
0:08:14–0:08:18
Ich habe unsere Podcasts genommen.
0:08:18–0:08:23
Ich habe das in eine Sky-Toulet getan. In welches? Dann habe ich die Chat-Scheibe.
0:08:25–0:08:28
Ähm... Wie heisst das mit der Stimme? Ich habe es nicht vergessen.
0:08:29–0:08:32
Clever-Lab-Lab-Le... Seven...
0:08:35–0:08:42
Seven... Eleven-Lab. Eleven-Lab.
0:08:42–0:08:44
Die haben die beste Stimme, ja.
0:08:45–0:08:49
Ja. Mundart kann es nicht. Darum musste ich den Mogel machen.
0:08:49–0:08:51
Damit wir heute Hochdeutsch machen.
0:08:52–0:08:56
Und dann habe ich mit ChatGPT gesagt, ich würde gerne eine Sendung machen über
0:08:56–0:08:58
Kai. Schreib mir gerade das ganze Skript.
0:08:59–0:09:04
Also ich habe eigentlich nichts an dem selber gemacht. Ja, genau. Heute macht man das so.
0:09:07–0:09:12
Und hast du ihm aber noch ein bisschen von unseren Persönlichkeiten mitgegeben?
0:09:13–0:09:19
Nichts. Ich habe ihm nur das MP3 vom Podcast durchgeladen. Und er hat es,
0:09:19–0:09:21
ich habe zuerst gesagt, ich hätte es gerne Schweizerdeutsch,
0:09:21–0:09:23
aber das packt er nicht. Das geht wirklich nicht.
0:09:23–0:09:27
Also wenn du Schweizerdeutsch kannst, dann merkst du noch sofort,
0:09:28–0:09:32
dass das nicht funktioniert. Aber ich bin ja genau der Skeptiker gewesen,
0:09:32–0:09:38
der am Schluss dich zu einem grossen Bogen ausholt.
0:09:38–0:09:42
Also ich meine, das hat mich noch überrascht.
0:09:44–0:09:51
Also ich muss auch da wieder sagen, ich finde es erschreckend gut für das,
0:09:51–0:09:53
dass ich ihm so wenig Informationen gegeben habe.
0:09:54–0:09:58
Also es ist wirklich ChatGPT, Radiosendung. Ich habe ihm natürlich gesagt,
0:09:59–0:10:02
die Woche so und so und Sendung so und so. Genau, ja. Das habe ich ihm gesagt.
0:10:02–0:10:06
Aber nachher gesagt, hey, wir sind die drei Personen, mach mir ein Skript.
0:10:06–0:10:12
Und das hat er gemacht. Und dann habe ich das B11 Lab zugeladen und habe gesagt, mach.
0:10:13–0:10:17
Ja, so produziert man heute Medien. Das ist absolut so. Ich glaube,
0:10:17–0:10:19
was habe ich mal gelesen?
0:10:19–0:10:23
Ich glaube, fast die Hälfte des Textes im Internet.
0:10:23–0:10:36
Sie hat angeblich schon KI generiert. Das war vor 2-3 Monaten ein Video von Google.
0:10:37–0:10:44
Das W.O. heisst es? W.O. 2 oder W.O. 3? Welches ist das, was auch noch Stimmen dazu generieren kann?
0:10:44–0:10:47
Dann hat er irgendein Scherzkeks... Das 3. Das 3, ja.
0:10:47–0:10:52
Der Scherzkeks hat so Bibel-Vlogging gemacht.
0:10:52–0:11:00
Also hat so zu tun, wie es wäre, wenn der Jesus direkt vom Kreuz so Videos gemacht hat.
0:11:00–0:11:03
Und der hat das genauso gemacht wie du. Der hat einfach gesagt,
0:11:03–0:11:07
so grob am Chat-GPT machen wir ein Skript.
0:11:07–0:11:10
Wo das und das drin vorkommen könnte.
0:11:10–0:11:15
Er machte Instruktionen für das Video-Tool und hat dann das Video-Tool die Videos
0:11:15–0:11:20
generieren lassen und hat es zusammengeschnitten und hatte dann einen viralen
0:11:20–0:11:24
Hit gehabt, welcher sich irgendwie damit gerüstet hat.
0:11:24–0:11:30
Und dann haben wir gefunden, okay, jetzt ist es so, dass man eigentlich wahrscheinlich mehr Erfolg hat,
0:11:30–0:11:38
wenn man einfach etwas Plakatives von der KI machen lässt, Du warst lange Jahre
0:11:38–0:11:42
Vlogger und hättest es einfacher haben können.
0:11:43–0:11:45
Jetzt hätte ich es definitiv einfacher haben.
0:11:46–0:11:58
Ich habe bei den Blogbeiträgen längere Abhandlungen über KI gelesen.
0:11:58–0:12:01
Ich habe einen mega coolen Podcast über KI gehört.
0:12:02–0:12:08
Und jetzt ist ja noch die SORA 2 App ausgerufen, haben wir das mal besprochen?
0:12:08–0:12:11
Das haben wir noch nie besprochen, man kann sie noch nicht testen bei uns.
0:12:13–0:12:18
Genau, in Amerika ist sie auch noch nicht offiziell draussen, oder?
0:12:18–0:12:21
Sie ist immer noch über Einladung. Ja, das kann sein, ja. Ich habe keine Ahnung.
0:12:21–0:12:27
Ich glaube es. Also, vielleicht zum schnell erklären, was die Sora 2 App ist.
0:12:28–0:12:32
Was jetzt, ich bei der Kai ein bisschen erschreckend finde, was jetzt passiert
0:12:32–0:12:36
ist, ist, dass bis jetzt haben wir ein Video gehabt, und jetzt haben wir halt
0:12:36–0:12:37
die ganze Sprache, kommt jetzt rein.
0:12:38–0:12:42
Das heisst, ich kann jetzt relativ easy sagen, ich habe nicht nur ein Männchen,
0:12:42–0:12:45
der irgendwo durchläuft, sondern ich soll in meiner Stimme irgendetwas sagen
0:12:45–0:12:48
und etwas erzählen und ich kann Podcasts auch generieren lassen.
0:12:49–0:12:56
Und jetzt ist von der Firma OpenAI, die JetGPT gemacht hat,
0:12:57–0:13:05
ist die Sora 2 App, also es hat Sora gegeben, das ist einfach der Videogenerator auf JetGPT.
0:13:05–0:13:08
Da habe ich mir irgendetwas geschrieben, hat er mir ein kurzes Video gemacht.
0:13:08–0:13:13
Und Sora 2 ist jetzt eine App. Und dort gebe ich ein, was ich gerne würde als
0:13:13–0:13:16
Video sehen würde und dann generiert er mir das.
0:13:16–0:13:24
Und ich kann aber auch meinen Kopf, mein Gesicht, meinen Körper schnell filmen.
0:13:24–0:13:26
Er sagt mir dann, schaue nach links, schaue nach rechts, schaue nach oben,
0:13:26–0:13:28
nach unten, nach unten, ich weiss nicht genau, wie das funktioniert.
0:13:28–0:13:33
Und dann kann ich mich selber in die Videos hinein tun. Da kann ich sagen,
0:13:33–0:13:38
ich möchte in einem Video sein, wie ich an einer Filmpremiere bin in den 50er
0:13:38–0:13:42
Jahren und über den roten Teppich laufen. Und dann generiert er mir das Video.
0:13:43–0:13:47
Und dann kann ich Leute markieren, die dann, wenn sie das wollen,
0:13:47–0:13:48
auch in dieses Video kommen.
0:13:50–0:13:55
Und das ganze Prinzip dieser Sora 2 App ist, dass alles, was auf dieser App
0:13:55–0:13:59
ist, ist mit KI generiert. Es gibt nichts mehr Achtes darauf.
0:14:00–0:14:05
Und das finde ich so crazy im Moment. Man fragt sich ein wenig,
0:14:06–0:14:07
für was sollte es gut sein?
0:14:09–0:14:13
Und ja, man fragt sich auch ein bisschen, was wir Menschen dann da in diesem
0:14:13–0:14:15
Spiel noch verloren haben.
0:14:16–0:14:20
Und ich fände jetzt, glaube ich, das fände ich spannend, um mit dir zu diskutieren,
0:14:20–0:14:24
weil dort merke ich jetzt so, KI finde ich etwas mega Cooles.
0:14:24–0:14:28
Ich nutze es mega gerne, ich nutze es wirklich viel, mittlerweile wahrscheinlich,
0:14:29–0:14:30
täglich, für irgendetwas.
0:14:31–0:14:36
Ich bin aber immer noch so an dem Punkt, dass ich keine Sachen frage.
0:14:36–0:14:41
Also meine Chat-GPT-Abfragen sind recht lustig.
0:14:41–0:14:44
Ich musste nicht wissen, was ein Kilo Kokain kostet.
0:14:45–0:14:46
Hat er dir das gesagt?
0:14:49–0:14:55
Nicht direkt. Er hat mir gesagt, er kann mir nicht sagen, er darf mir nicht
0:14:55–0:14:59
über den Handel von illegalen Drogen Auskunft geben. bla bla bla bla.
0:14:59–0:15:04
Und dann gesagt, ja, es nimmt mich einfach Wunder, was weil ich habe irgendwo
0:15:04–0:15:07
gelesen, sie haben sieben oder neun Kilo Kokain gefunden und ich habe mir dann
0:15:07–0:15:09
überlegt, wie viel ist das?
0:15:10–0:15:16
Und er hat dann gesagt, ja, aber ich muss es gleich ungefähr wissen und er hat dann gesagt, ähm,
0:15:18–0:15:26
Gemäss Zeitung kommt eine Dosis, kostet etwa 10 Franken und das ist etwa irgendwie 2 Gramm.
0:15:27–0:15:31
Okay. Ja. Also, ja, genau. Es ist günstiger als früher.
0:15:32–0:15:36
Es ist günstiger als früher. Es ist wahrscheinlich eigentlich streckter als früher. Ja, gut, genau.
0:15:36–0:15:43
Also, Preise schwanken sehr. Ein Kilo Kokain kostet zwischen 4 und 40'000 Dollar.
0:15:43–0:15:47
Ah, krass. Eben, wahrscheinlich. Wo fängst du an und wo hörst du auf? Ja, genau.
0:15:50–0:15:53
Genau. Ja, auf jeden Fall, meine KI-Abfragen sind immer Sachen,
0:15:53–0:15:54
die mich einfach Wunder nehmen.
0:15:54–0:16:00
Ja, das mache ich auch. Ich merke aber, und das ist das, was ich jetzt so ein
0:16:00–0:16:02
bisschen komisch finde.
0:16:02–0:16:03
Also ich habe jetzt einen Podcast
0:16:03–0:16:09
gehört über einen, der so Sicherheitsgeschichten bei der Bank macht.
0:16:09–0:16:12
Ich muss mich ja jetzt mit der Stimme verifizieren und so.
0:16:12–0:16:18
Und das ist jetzt halt alles auch fraglich, weil ich kann es mit der KI nachbauen.
0:16:19–0:16:23
Und jetzt bin ich schon so mit meiner Mutter und meinem Bruder am Punkt,
0:16:24–0:16:25
wo ich mir schon überlegt habe.
0:16:26–0:16:35
Brauchen wir jetzt ein Code-Wort? Ja. Wird ich jetzt so einen Corona-Verschwörer?
0:16:35–0:16:40
Nein, ich glaube, das Code-Wort wäre sowieso eine gute Idee.
0:16:40–0:16:43
Auch gegen die Telefonbetrüger und so.
0:16:44–0:16:48
Die Enkeltricks und die Schockanrüfe und so.
0:16:48–0:16:53
Ist das Code-Wort unbedingt eine gute Idee, glaube ich. Aber wirklich?
0:16:53–0:16:56
Ja. Ich habe mir dann so überlegt, drehe ich jetzt durch? Nein,
0:16:57–0:16:58
nein. Ist es passiert jetzt?
0:16:59–0:17:03
Nein, ich würde sagen, du hast recht. Das ist eine gute Idee, nicht nur wegen der Kau.
0:17:04–0:17:09
Aber natürlich geht das Hand in Hand. Die Betrugsmasche, die Schockanrüfe,
0:17:09–0:17:14
die einer anruft und sagt, hey, was weiss ich was, deine Tochter. Ich hatte einen Unfall.
0:17:14–0:17:19
Genau, ist bei uns da in der Praxis. Wir müssen aber sofort Geld haben,
0:17:19–0:17:21
dass wir sie adäquat behandeln können.
0:17:22–0:17:25
Das gibt es, oder? Und dann gibt es da die Variante davon, dass auch diese Stimmen,
0:17:26–0:17:28
so wie du es am Anfang vorgeführt hast, geklont werden.
0:17:28–0:17:32
Und darum, nein, ich glaube, das ist nicht paranoid, wenn man sagt,
0:17:32–0:17:37
gerade mit seinen älteren, verwandten, Familienangehörigen, die das Godwort
0:17:37–0:17:41
ausmachen und sagen, wenn jemand anruft und auch behauptet so Sachen.
0:17:42–0:17:45
Eben, wir sind da, du hast es auch vorgeführt, dank dem Schweizerdeutsch,
0:17:45–0:17:48
dank dem Dialekt sind wir, glaube ich, noch ein bisschen sicherer,
0:17:48–0:17:52
wenn du jetzt perfekt in Hamburg wohnst und perfekt Hochdeutsch redest.
0:17:53–0:17:56
Trotzdem finde ich das nicht paranoid.
0:17:58–0:18:04
Wir leben in einer Zeit, in der man fast nichts mehr seinen Augen trauen darf.
0:18:04–0:18:09
Aber viele, die man so medial vermittelt hört oder sieht,
0:18:10–0:18:12
Wir haben auch schon darüber gesprochen.
0:18:14–0:18:23
Dass es schon immer gefälschte Videos und Bilder gegeben hat und Tonaufnahmen,
0:18:23–0:18:27
Leute imitieren konnte, dass es nicht jeder gemerkt hat,
0:18:29–0:18:31
ist das eigentlich nicht wirklich ein neues Problem.
0:18:31–0:18:35
Aber dass es so einfach geworden ist, macht es eben doch zu einem neuen Problem.
0:18:35–0:18:43
Und ich finde auch eben die Massen an KI-Fakes im Facebook, finde ich echt verblüffend.
0:18:44–0:18:49
Und ja, weil Leute einfach auch, ein Grossteil von Leuten, die kein Kruppel
0:18:49–0:18:52
haben, irgendein gefaktes Bild als echt auszugeben.
0:18:52–0:18:56
Und dann irgendwie die Medienkompetenz, die viel geringer ist,
0:18:56–0:19:00
dass ich denke, dass auch viel mehr Leute darauf eingehangen,
0:19:00–0:19:04
dass ich es erwartet hätte, wenn ich so Bilder anschaue.
0:19:04–0:19:06
Also es ist einfach ein bisschen desolat.
0:19:08–0:19:12
Aber ich möchte auch eine kleine Anekdote erzählen.
0:19:14–0:19:18
Momentan mache ich auch so Schulungen für Kolleginnen und Kollegen und mache
0:19:18–0:19:21
dann das Google Notebook LM vorführen.
0:19:21–0:19:27
Das ist so ein normales Notizbuch, also ein Ordner auf der Festplatte,
0:19:27–0:19:30
wo du Dateien nicht tun kannst und dann auch Notizen dazu erfassen kannst.
0:19:30–0:19:36
Der Unterschied ist, dass dir KI dabei hilft, die Informationen zu erschliessen
0:19:36–0:19:42
und dann beantwortet sie zum Beispiel zur Frage,
0:19:42–0:19:46
aber nicht anhand von Informationen auf dem Netz, sondern einfach anhand von
0:19:46–0:19:50
diesen Informationen, deine PDFs, deine Bücher, was auch immer,
0:19:50–0:19:52
die du dir zur Verfügung gestellt hast.
0:19:53–0:19:57
Und praktische Sache für Journalisten und für Recherchen und so.
0:19:58–0:20:02
Und du kannst dort aber auch einen Podcast daraus machen, der sich dann zwei
0:20:02–0:20:06
über das Material, das du ihnen zur Verfügung gestellt hast, unterhalten.
0:20:06–0:20:10
Und da gibt es Kollegen, die das super finden und sagen, man kann den Podcast runterladen.
0:20:10–0:20:13
Und wenn sie sich in wissenschaftliche Paper einschaffen wollen,
0:20:13–0:20:16
können sie das machen, indem sie den Podcast während dem Joggen hören.
0:20:18–0:20:22
Neuerdings kannst du aber auch nicht nur das, kannst du auch noch so ein Explainer-Video
0:20:22–0:20:23
machen, das dir dann Sachen erklärt.
0:20:25–0:20:30
Und wenn du das vorführst, gibt es einfach die Kollegen oder Kolleginnen,
0:20:30–0:20:34
die völlig desillusioniert sind und sagen, hey, für was braucht es mich noch?
0:20:34–0:20:39
Wenn ich das sehe, was die KI da macht, du hast es ja so angedeutet,
0:20:40–0:20:44
wieso machen wir den Podcast noch, wenn die KI das genauso könnte?
0:20:45–0:20:50
Und dann, was ist die Antwort? Hast du eine Antwort? Warum macht man es trotzdem? dem?
0:20:51–0:20:54
Ja, ich kippe jetzt eben wieder in die andere Richtung.
0:20:55–0:21:00
Das ist ja, das finde ich jetzt gerade das Spannende. Also, für viele Kunden
0:21:00–0:21:05
muss ich ja mir immer überlegen, was könnten wir jetzt als Weihnachtsgeschenk ihren Kunden machen.
0:21:05–0:21:11
Und ich finde es ja richtig dumm, wenn es dann kommt mit so Kugelschreiber oder
0:21:11–0:21:15
kommen, schenken ihnen einen Meter mit unserem Logo drauf oder irgend so einen
0:21:15–0:21:16
Scheissdreck und ich denke,
0:21:17–0:21:21
das haben Und schon alle 9000, das ist ein Kacke.
0:21:21–0:21:23
Komm, verschenkt es, wenn, dann etwas Kacke.
0:21:24–0:21:27
Und jetzt gehen die IK ein.
0:21:28–0:21:32
Und ich weiss genau, wenn sie mir dann ihre Vorschläge schicken und ich komme
0:21:32–0:21:35
die Liste über mit Ideen, weiss ich genau,
0:21:35–0:21:39
ihr habt jetzt Chachipiti gefragt, und ich habe hier einen Scheiss-Tag geantwortet,
0:21:40–0:21:43
das völlig scheisse ist, das ist mega nicht lös.
0:21:45–0:21:48
Ich bin jetzt am Punkt, wo ich so für mich habe gedacht, muss ich jetzt wieder
0:21:48–0:21:53
aufhören, K.I. nutzen, einfach weil ich dumm werde. Nein.
0:21:54–0:21:59
Die Faulheit ist ja, ich möchte wissen, ich werde jetzt Drogendealer.
0:21:59–0:22:01
Ich muss jetzt wissen, was ein Kilo Kokain kostet.
0:22:02–0:22:07
Ich gehe nicht mal mehr googeln, ich frage K.I., das ist der kürzeste Weg, wo du gehen kannst.
0:22:07–0:22:13
Und ich weiss jetzt nicht, ist das gut? Nein. Ich glaube, es,
0:22:15–0:22:22
braucht Leute, die hinsitzen und schreiben. Das Kreative, das ist völlig weg.
0:22:23–0:22:26
Es ist alles, was Geheuung gibt, so belanglos.
0:22:27–0:22:33
Es klingt immer so nach Marketing. Es klingt nach ich habe irgendeinen PR-Mensch
0:22:33–0:22:34
vor Augen, der das geschrieben hat.
0:22:35–0:22:39
Ich probiere das auch, wenn ich ab und zu, wenn ich.
0:22:41–0:22:46
Ich habe die ähnlichen Überlegungen wie du und mir überlegen,
0:22:46–0:22:53
ob es mich noch braucht oder ob das nicht alles, was ich mache, kann ich machen.
0:22:53–0:22:59
Dann schreibe ich einen Artikel und lasse den letzten Abschnitt weg und schmeiße
0:22:59–0:23:07
den Chat-GPT und sage, mach mir einen schönen Schluss. Und es ist nie ein guter Schluss.
0:23:08–0:23:12
Es ist immer scheisse. Es ist immer unoriginell. Es ist das Dümmste,
0:23:12–0:23:14
das einem einfallen könnte.
0:23:14–0:23:17
Und dann finde ich jedes Mal, hey, nein, es braucht mich noch.
0:23:17–0:23:21
Und wenn es nur der letzte Satz ist am Schluss. Oder einfach...
0:23:22–0:23:29
Nein, ich habe ja auch mal das Spässchen gemacht und mir meine gesamten Artikel
0:23:29–0:23:32
und Blogposts in eine K.I.
0:23:32–0:23:36
Geschmissen und sagen, hey, da hast du irgendwie 12'000 Texte von mir.
0:23:37–0:23:41
Go crazy. Genau, jetzt müsstest du eigentlich in der Lage sein,
0:23:41–0:23:43
mir gute Vorschläge zu machen.
0:23:43–0:23:47
Ich gehe in die Aktualität, du weisst, über was ich alles geschrieben habe.
0:23:47–0:23:52
Du müsstest jetzt mit dem in der Lage sein, mir irgendein Thema zu präsentieren,
0:23:52–0:23:54
das ich einfach darüber schreiben kann und das mir auch gefallen würde.
0:23:54–0:24:01
Ja, denk es dir. Mit den dümmsten, langweiligsten, abgestandigsten Ideen ist er gekommen.
0:24:02–0:24:05
Obwohl er 12'000 Artikel hätte können.
0:24:05–0:24:08
Und dann kannst du das Gleiche noch mal probieren. Jetzt probiere mal meinen
0:24:08–0:24:10
Stil ein bisschen nahe zu machen oder so.
0:24:10–0:24:14
Du mir einen Blogpost oder du mir irgendwie die Pressemeldung,
0:24:14–0:24:17
die ich da habe, so umschreiben, wie wenn ich sie geschrieben hätte.
0:24:18–0:24:22
Nein, denkst du dir. Nicht im Ansatz. Also vielleicht bin ich eingebildet,
0:24:22–0:24:25
vielleicht bin ich einfach eitel oder so, aber nein.
0:24:25–0:24:31
Ich glaube eben, und das stimmt mich dann auch immer wieder ein bisschen zuversichtlich
0:24:31–0:24:34
und das sage ich dann auch den Kolleginnen und Kollegen,
0:24:34–0:24:41
die dann deprimiert sind, wenn die KI irgendetwas einfach in einer Sekunde eine
0:24:41–0:24:46
Infografik machen aus einem Material, was sie hier zusammengesucht haben.
0:24:46–0:24:51
Und dann findest du, ich hätte niemals das können. Und dann findest du aber, nein, hör mal.
0:24:52–0:24:56
Den richtigen Ansatz zu finden, das kannst du nur du, das kann nicht die KI.
0:24:57–0:25:01
Und das so erzählen, wie die Geschichte erzählt gehört, das kannst du auch nur du.
0:25:01–0:25:06
Und es ist eben nicht so, dass man könnte, auch wenn das mit Statistik funktioniert,
0:25:07–0:25:14
kann man nicht anhand von deinem Output von 12'000 Artikeln ableiten,
0:25:14–0:25:19
wie der 12'000 und der erste ist, weil die KI hat trotzdem nicht das,
0:25:19–0:25:24
was du im Kopf hast, deine Erfahrung und deine Gefühle und deine Anekdote,
0:25:24–0:25:26
die du noch nie jemandem erzählt hast.
0:25:26–0:25:29
Also woher soll sie das wissen? Also keine Chance, oder?
0:25:30–0:25:33
Und dann geht es mir wieder ein bisschen besser. Aber ich habe schon auch immer
0:25:33–0:25:36
so das Hin und Her, dass ich wieder finde, hey Scheisse.
0:25:36–0:25:41
Also die Kränkung durch die KI, das ist schon etwas, was ich kenne.
0:25:43–0:25:47
Gibt es eine Möglichkeit, das zu lernen, nehmen,
0:25:48–0:25:53
wie man das Selbstbewusstsein bekommt, um zu sagen, ich kann das besser oder
0:25:53–0:25:58
anders als KI und vielleicht auch den Abstand, um zu sagen,
0:25:59–0:26:04
das, was KI gemacht hat, ist okay, aber es ist nicht befriedigend.
0:26:05–0:26:08
Ich weiss nicht, wie ich das Menschen beibringen kann. Ich mache jetzt wieder
0:26:08–0:26:11
den Bogen zum KV, ich gebe denen die Schule.
0:26:11–0:26:15
Wie kann ich meinen Schüler beibringen, sie geben etwas in der KI,
0:26:15–0:26:21
es kommt etwas heraus, dass sie hinschauen und sagen, bin ich glücklich mit
0:26:21–0:26:24
dem? Ist es das, was ich mir vorstelle?
0:26:24–0:26:27
Kann man das schulen? Und wie kann man das schulen?
0:26:28–0:26:33
Oder ist einfach, denken ist anstrengend? Also nehme ich, was kommt.
0:26:33–0:26:37
Genau. Ja, ich glaube, denken ist anstrengend. Ich glaube, das ist wirklich
0:26:37–0:26:40
ein Erfahrungsding, glaube ich, dass das kommt.
0:26:42–0:26:45
Lebenserfahrung klingt jetzt so blöd oder auch... Hey, gar nicht,
0:26:45–0:26:47
weil bei meinen Kunden ist es ja genau gleich.
0:26:48–0:26:51
Die nehmen ja auch einfach alles aus der KI aus und ja, das ist super so.
0:26:52–0:26:57
Wenn ich so denke, also ich mache eine Homepage für Firmen und dann generiert
0:26:57–0:27:00
sie ihren Firmen Text mit der KI.
0:27:00–0:27:04
Und das klingt wie jede andere Firma. Und sie finden es ungut.
0:27:04–0:27:06
Sie finden, oh, das entspricht uns mega.
0:27:07–0:27:12
Und ich schicke einfach immer dann ein paar Links zu anderen Firmen in ihrer
0:27:12–0:27:16
Region, wo ich davon ausgehe, ich kenne die, und sage, passt dann der Text auch für die anderen?
0:27:16–0:27:20
Und sie schreiben mir zurück, ja, der geht für alle. Ja, ich gehe nicht, ist unnäßig.
0:27:21–0:27:27
Ja, genau. Das ist super. Genau, das ist, ja, das kommt wahrscheinlich auch
0:27:27–0:27:30
ein bisschen davon ab, eben in welchem Bereich das ist.
0:27:30–0:27:35
Also wenn ich jetzt sage, hey, ich tue zwar gerne kochen, aber ich bin weder
0:27:35–0:27:39
ein besonders guter Koch, noch ein besonders origineller Koch,
0:27:39–0:27:43
dann kann ich wahrscheinlich wirklich sagen, «Hey, JGPT, ich habe das und das
0:27:43–0:27:45
im Kühlschrank, was kann ich damit machen?
0:27:45–0:27:49
Machen wir ein Rezept und fertig!» Und dann ist das, glaube ich, ganz okay.
0:27:49–0:27:51
Und dann stimmt das für mich.
0:27:52–0:27:56
Aber für einen Koch, der sagt, hey, ich will vielleicht mal einen Stern verdienen
0:27:56–0:27:59
oder so, oder ich will jetzt ein bisschen mehr, wenn er einfach nur das,
0:27:59–0:28:02
was jeden auch angebracht hat,
0:28:02–0:28:07
der würde dann vielleicht schon als ein oder anderen aussetzen haben an diesem Rezept.
0:28:07–0:28:11
Und das ist vielleicht auch okay, wenn du sagst, ich brauche die KI in Bereiche,
0:28:11–0:28:13
wo es mir jetzt nicht so wichtig ist.
0:28:14–0:28:18
Und dann ist es auch ein mittelmässiges Resultat, ist okay, wenn du ein bisschen
0:28:18–0:28:24
Zeit gespart hast oder nicht so die anstrengende Arbeit vom Denken verrichten musst.
0:28:24–0:28:31
Aber ich glaube, dann solltest du aber schon ein paar Bereiche im Leben bewahren,
0:28:31–0:28:35
wo du sagst, nein, das will jetzt nicht irgendwie, dass da irgendeine KI rumdiletiert.
0:28:35–0:28:41
Sondern hier kann ich es am besten und hier bleibe ich stu und lasse mich nicht hineinpfuschen.
0:28:42–0:28:45
Das wäre so meine Herangehensweise. Und ich glaube,
0:28:45–0:28:48
das würde vielleicht auch mit jüngeren Menschen funktionieren,
0:28:48–0:28:54
die jetzt noch nicht so viel Erfahrung haben, dass sie sagen können,
0:28:54–0:28:58
hey, das ist jetzt einfach ein 0815-Text oder das ist ein Text,
0:28:58–0:29:01
wo du merkst, dass ein Mensch dahintersteckt.
0:29:02–0:29:06
Aber wenn du sagst, hey, das ist dir etwas wert, willst du da,
0:29:06–0:29:09
dass einfach etwas Durchschnittliches rauskommt oder willst,
0:29:09–0:29:14
dass es so einen Funken hat, Diese göttlichen Funken der Kreativität klingt
0:29:14–0:29:19
jetzt ein wenig pathetisch, aber ich finde schon, dass das etwas hat.
0:29:19–0:29:28
Ich glaube, das ist so mein Problem im Moment, dass mir die Passion von Leuten überall fehlt.
0:29:28–0:29:32
Wo ich nicht weiss, ob das einfach mit der aktuellen Weltsituation zu tun hat,
0:29:33–0:29:34
aber ich habe das Gefühl, es sind alle so.
0:29:35–0:29:42
Mit okay ist man zufrieden. Mit hey, ich habe es erledigt und es ist gut und
0:29:42–0:29:43
ich mag eigentlich gar nicht.
0:29:45–0:29:49
Und ich meine, wenn ich jetzt die Sora 2 App anschaue, das ist alles KI generiert.
0:29:50–0:29:55
Das wird einfach TikTok mit KI sein.
0:29:55–0:29:59
Das heisst, das sind kurze Videos, wo du schaust und du wirst wahrscheinlich,
0:30:00–0:30:02
immer dümmer, wenn du das schaust.
0:30:02–0:30:05
Ich glaube auch. Und ich bin jetzt an dem Punkt, wo ich denke,
0:30:05–0:30:10
Jetzt hast du Leute, die sonst schon keine Freude haben, keine Passion,
0:30:11–0:30:15
leer und jetzt kommt noch so eine App und die wird durch die Decke gehen,
0:30:16–0:30:17
da bin ich überzeugt. Das finden die Leute, oh les.
0:30:18–0:30:20
Also ich kann mir gut vorstellen, dass es grösser wird als TikTok.
0:30:22–0:30:27
Dann denke ich, ist jetzt der Moment, in dem wir alle dumm werden?
0:30:28–0:30:34
Ich glaube es nicht, oder ich hoffe es nicht, aber ich verstehe diese Angst.
0:30:34–0:30:38
Und ich verstehe jetzt auch nicht, warum sie das so lanciert haben.
0:30:38–0:30:39
Ich sehe den Sinn und den Zweck nicht.
0:30:39–0:30:43
Ich glaube, es wäre jetzt vernünftig... Und Obenähe ist ja schon mal angetreten,
0:30:43–0:30:47
um auch einen verantwortungsbewussten Umgang mit dieser Kahl einzupflegen.
0:30:47–0:30:49
Wieso kommen sie dann gerade mit so etwas, in dem man denkt,
0:30:49–0:30:51
das ist irgendwie das Gegenteil?
0:30:51–0:30:54
Ja, das ist das Dümmste. Das Dümmste, ja. Statt dass wir jetzt lernen würden,
0:30:54–0:30:56
vernünftig damit umzugehen,
0:30:57–0:31:03
und probieren das Tempo herauszunehmen, damit wir alle Chancen haben,
0:31:03–0:31:11
mitzukommen und das in unser Leben zu integrieren, so gut es geht.
0:31:11–0:31:15
Wenn du jetzt nochmals auf die Ueber druckst, kannst du dann auch,
0:31:15–0:31:21
wenn du zahlst, mit dem ChatGPT erotische Gespräche führen.
0:31:22–0:31:27
Das kann man schon noch ausprobieren. Wir machen den Erotik-Chat-GPT.
0:31:27–0:31:29
Das machen wir auf jeden Fall versprochen.
0:31:29–0:31:31
Unbedingt. Um das kommt ihr nicht rum.
0:31:32–0:31:37
Nachdem ich das Stück gespielt habe, für die, die die Pre-Show gehört haben.
0:31:38–0:31:40
Kann es auch nicht mehr schlimmer werden.
0:31:40–0:31:45
Das machen wir, aber ich habe eigentlich gefragt, ob das...
0:31:45–0:31:50
Ich glaube, wir Menschen und ich komme noch mal auf die Kränkungstheorie zurück,
0:31:51–0:31:55
die geht da auf... Und ich freue mich, dass ich glaube, zum allerersten Mal
0:31:55–0:31:59
nach 771 Sendungen kann den Sigmund Freud zitieren.
0:31:59–0:32:03
Das ist eine freudsche Theorie, die Kränkungen der Menschheit.
0:32:03–0:32:08
Die erste war die kosmologische Kränkung, dass wir nicht im Mittelpunkt des
0:32:08–0:32:12
Weltalls sind, sondern nur ein Planetchen, das um die Sonne herum fliegt.
0:32:12–0:32:17
Dann gab es die biologische Kränkung, dass wir nicht etwas Eigenes sind,
0:32:18–0:32:24
sondern zusammen mit den Affen von Lucy abstammen. Also nichts Besonderes in dem Sinn.
0:32:24–0:32:30
Und dann also die psychologische Krankheit, da geht es auch wieder um die Libidotheorie und so.
0:32:31–0:32:34
Die habe ich jetzt ehrlich gesagt nicht so ganz verstanden. Aber ich würde sagen,
0:32:34–0:32:39
die vierte Krankheit wäre ganz sicher, dass die KI jetzt eben auf einer Art
0:32:39–0:32:43
einer Maschine ist, wo genau vieles,
0:32:43–0:32:48
also sie weiss mehr, dass ein einziger Mensch jemals wissen könnte,
0:32:48–0:32:50
sie hat viel mehr, sie ist schneller.
0:32:51–0:32:53
Auch wenn sie nicht so gut ist.
0:32:53–0:32:57
Ich glaube, das wäre schon auch etwas, wo ich finde,
0:32:57–0:33:00
gesellschaftlich müssten wir mal mit dem noch ein bisschen umgehen,
0:33:00–0:33:03
wenn wir jetzt eigentlich mit dieser Konkurrenz klar kommen und wenn wir nicht
0:33:03–0:33:09
depressiv werden oder Minderwertigkeitskomplex entwickeln,
0:33:10–0:33:12
sondern eher vielleicht wieder
0:33:12–0:33:16
ein bisschen mehr Freude an unserer Menschlichkeit haben. Ja, genau.
0:33:16–0:33:19
Eigentlich der Wert des Menschen. Ich glaube, es geht mir wirklich um das.
0:33:19–0:33:25
Ich sage, ich will nicht mehr so ein KI-generiertes Text, das eine perfekte
0:33:25–0:33:31
Rechtschreibung hat und alles ist so okay, sondern ich will den menschlichen Fehler,
0:33:31–0:33:34
ich will eine Zeichnung, die nicht super ist, ich will Kunst,
0:33:34–0:33:38
ich will Künstler, ich will wieder das. Kai ist wirklich so...
0:33:39–0:33:44
Ich verliere gerade mega die Freude an dem grossartigen Werkzeug,
0:33:44–0:33:47
wo ich denke, es ist mega nicht mehr gut.
0:33:48–0:33:49
Das ist der Nerd.
Wohin wird uns die KI noch bringen? In den letzten Monaten sind Apps wie Sora 2 oder Veo 3 von Google erschienen, welche jetzt auch Sprache in die Videos integrieren.
KI ist ein mächtiges Tool, aber setzen wir dieses auch richtig ein oder werden wir durch die Nutzung immer dümmer? Wir versuchen einen philosophischen Ansatz …
Die Links zur Episode
- Elevenlabs: Als Frau klinge ich ganz schön sexy
- Bibel-Vlogger: KI sei Dank streamt Jesus jetzt live vom Kreuz
- Notebook LM: Eindruck schinden mit Notebook LM, Ein leistungsfähiges Recherche-Hilfsmittel
- Sigmund Freud: Kränkungen der Menschheit
Preshow
Beitragsbild: Der Mann hat mehr mit KI zu tun, als man gemeinhin glaubt (Sigmund Freud von Max Halberstadt/Wikimedia, CC0).