Musiker gegen KI (0:1)

Transkript anzeigen (falls vorhanden)

00:00–0:00:11
Music.
0:00:11–0:00:15
«The Jam» mit «Sounds from the Street».
0:00:16–0:00:21
Genau, und da ist es schon weitergegangen, aber wir müssen unsere Pre-Show abhalten.
0:00:22–0:00:28
Wir sind «Bad Bait» und ihr hört Radio Stadtfilter auf 96,3 MHz.
0:00:28–0:00:34
Yeah, also, Digi-Chris, wir haben heute ein Thema, das du gefunden hast,
0:00:34–0:00:37
du wolltest eigentlich nicht über dieses Thema reden. Und dann habe ich,
0:00:37–0:00:43
glaube ich, zum ersten Mal in 17 Jahren, nein, wie lange?
0:00:43–0:00:48
In vielen Jahren habe ich den Boss rausgehängt und gesagt, Diggi Chris, du musst.
0:00:49–0:00:51
Und jetzt musst du.
0:00:52–0:00:56
Ja, man kann auch sagen, ich habe mich praktisch im Zug auf das Thema vorbereitet.
0:00:57–0:01:00
Wir spoilern jetzt noch nicht, was es ist, würde ich sagen, oder?
0:01:00–0:01:04
Wir behalten es glaube ich noch für uns, aber es sind nicht die Sounds from
0:01:04–0:01:11
the street, wie vorher in diesem Musikstück, sondern die Sounds von der Ether,
0:01:11–0:01:12
könnte man vielleicht sagen.
0:01:12–0:01:15
So irgendeine überirdische Sphäre und jetzt schaue ich gerade,
0:01:15–0:01:17
ob der Kevin auch da ist. Hallo Kevin.
0:01:18–0:01:22
Guten Tag. Guten Tag, er ist da. Ich höre glaube ich auch ein Huhn.
0:01:23–0:01:29
Natürlich. Natürlich. Wie könnte es anders sein? Ja, das ist schon so.
0:01:29–0:01:31
Und Kevin, alles gut?
0:01:33–0:01:38
Ich bin jetzt gleich reingelaufen und muss es wahrscheinlich noch anders einrichten.
0:01:38–0:01:41
Ich muss mich noch mit Kabel verbinden, dann haben wir nicht mehr so viel Delay,
0:01:41–0:01:44
weil das hat letztes Mal besser geklappt, als jetzt hier in Berlin.
0:01:44–0:01:47
Aber ich brauche noch schnell eine Minute.
0:01:47–0:01:52
Ja, wir haben noch ein bisschen Zeit, es geht in fünf Minuten richtig los.
0:01:52–0:01:54
Jetzt höre ich irgendwoher Musik.
0:01:55–0:01:59
Ich weiss nicht woher. Ist das bei dir, Chris?
0:01:59–0:02:04
Müssen wir gerade schauen, ob unsere Konfiguration funktioniert? Nein?
0:02:05–0:02:09
Also... Hey, ich habe das Kabel noch nicht drin.
0:02:10–0:02:14
Ach so, das Kabel steckt nicht, das ist natürlich immer ein kleines Problem im Radio.
0:02:14–0:02:20
Ich kann ja eben, aber immerhin hat dann der Kevin macht sein Kabel rein, das ist schon mal gut.
0:02:20–0:02:23
Ich höre mal, ob es schon drin ist. Nein, er hat es noch nicht.
0:02:23–0:02:27
Er muss sich jetzt gleich auf den Weg machen. Also ist gut. Ich habe immer den Stress.
0:02:28–0:02:34
Ich weiss. Ich hätte auch wieder hetzen müssen, dass ich nur überhaupt rechtzeitig
0:02:34–0:02:35
hierher geschafft habe.
0:02:36–0:02:39
Also, sind alle noch an Soundchecks bereit?
0:02:41–0:02:44
Drei Minuten vor dem Sendungsbeginn. Es ist wie immer.
0:02:45–0:02:51
Es ist wie immer, wie im richtigen Leben. Es gibt keine Generalprobe bei uns,
0:02:51–0:02:53
es geht immer gerade live, das ist so.
0:02:56–0:02:58
Und Chris, wie steht es um dein Kabel?
0:03:01–0:03:09
Man hört es nicht, wenn du da runterredest, aber er trifft seinen Schlitz nicht.
0:03:10–0:03:15
Vorsicht Wortspiel! Nein, es ist wirklich reiner Zufall, wenn das jetzt anzüglich
0:03:15–0:03:18
klingt, weil wir sind wirklich ernsthaft am Arbeiten.
0:03:19–0:03:23
Wie immer, wie meistens, wenn wir diese Sendung machen, geben wir uns Mühe.
0:03:24–0:03:28
Wir haben uns vorbereitet und es hat jetzt gar niemand eine Anekdote zu erzählen.
0:03:29–0:03:32
Ich glaube, der Kevin ist jetzt wirklich ganz abgetaucht.
0:03:33–0:03:40
Aber ist gleich. Ich würde sagen, dann verlängern wir nicht künstlich den Schmerz,
0:03:40–0:03:45
sondern sagen, da ist Patti Smith, Piccars The Night.
0:03:46–0:04:08
Music.
0:04:04–0:04:10
Because tonight, there are two lovers Because tonight, Patti Smith.
0:04:11–0:04:15
Es ist zwar noch nicht ganz Nacht, aber es dunkelt ein bisschen ein über der
0:04:15–0:04:19
Menschheit, könnte man sagen, wenn man jetzt eine düstere Anmoderation machen will.
0:04:20–0:04:25
Da kommt ein riesiger Schatten, wirft sich über uns und verändert alles.
0:04:25–0:04:26
Vielleicht. Vielleicht.
0:04:27–0:04:41
Music.
0:04:41–0:04:45
Da ist der Nerdfunk und da ist der Digi-Chris. Hallo, hallo.
0:04:45–0:04:50
Apropos Schatten, hat jemand von euch die Sonnefinsternis verfolgt gestern?
0:04:50–0:04:52
Nein, die war in Amerika.
0:04:52–0:04:55
Ich konnte leider nicht auf Amerika.
0:04:56–0:04:59
Und Kevin musste auch seine Hühner hüten. Kevin, bist du da?
0:05:00–0:05:01
Ich bin auch nicht auf Amerika.
0:05:02–0:05:08
Aber du bist dafür näher an uns hergerückt, dank deinem Kabel. Das ist super.
0:05:09–0:05:13
Also, kommen wir zum Thema. Eine neue KI, mal wieder.
0:05:13–0:05:17
Das freut den Digi-Chris, der das Thema findet. Wieso schon wieder KI?
0:05:18–0:05:21
Ich sage es euch, schon wieder KI, weil schon wieder eine neue.
0:05:21–0:05:27
Und die macht, wenn man ihren kleinen Text unterbreitet, eben kein Bild oder
0:05:27–0:05:29
kein Video, sondern Popsongs.
0:05:29–0:05:34
Und Musikerinnen und Musiker, Künstler und Künstlerinnen laufen Sturm gegen
0:05:34–0:05:37
die künstlich intelligente Kunst.
0:05:38–0:05:44
Zurecht, müssen wir fragen, macht das suno.ai ihnen dann wirklich die Tantiemen-Streitung
0:05:44–0:05:49
und sabotiert sie das, was wir da auch gerne auf dem Sender zelebrieren,
0:05:49–0:05:51
nämlich die Kunst der Musik.
0:05:52–0:05:58
Und ich würde sagen, wir stürzen doch gerade mal in die Mitte von dieser Sache hier.
0:05:58–0:06:03
Ich spiele euch mal eines von diesen Stücken, die die KI generiert hat.
0:06:03–0:06:07
Das heisst «The Soul» – habe ich das richtig?
0:06:07–0:06:11
Nein, ich muss da, sonst passiert nichts. Soul of the Machine heisst das.
0:06:11–0:06:16
Soul of the Machine.
0:06:16–0:06:43
Music.
0:06:48–0:06:51
Kevin, was meinen deine Hühner zu dem Song?
0:06:53–0:06:59
Ja, die finde ich super. Es klingt ein bisschen tatsächlich wie Blues, es bluset ein bisschen.
0:07:01–0:07:06
Hühner? Nein, das Stück hier. Hühner, Jazz oder?
0:07:08–0:07:13
Also... Reif Jazz. Ja, genau. Genau. Also, wir würden jetzt wahrscheinlich,
0:07:13–0:07:18
Digi Chris, wenn du das im Radio gehört hättest, das Stück, hättest du nicht gefunden, das ist KI,
0:07:18–0:07:22
sondern das hättest du gedacht, keine Ahnung, was es ist. Wahrscheinlich ist
0:07:22–0:07:23
es ein echter Mensch gewesen.
0:07:24–0:07:27
Bis vor einer Stunde, Anik. Okay, dann hättest du es gehört.
0:07:29–0:07:34
Ja, es klingt wie echte Musik. Und das ist, es hat ja die KIs schon früher gegeben,
0:07:34–0:07:35
die Musik gemacht haben.
0:07:36–0:07:45
Google hat so eine seit gut einem Jahr. Sie heisst «Music LM» und konnte dann nur instrumental.
0:07:46–0:07:57
Und die K.I. macht selbst Texte und macht sogar ein hübsches Bild dazu.
0:07:58–0:08:04
Und ich habe dann gefunden, sie soll doch mal einen Song zum Nerdfunk machen.
0:08:04–0:08:08
Und dann hat sie so etwas in dieser Stilrichtung gemacht.
0:08:09–0:08:18
Music.
0:08:18–0:08:22
Findest du dich gut repräsentiert, Digi-Chris, mit diesem Stück?
0:08:22–0:08:28
Da jetzt schon wenig, aber vermutlich kennt Kai halt auch den Nerdfunk nicht.
0:08:28–0:08:32
Das ist dann wahrscheinlich jetzt eben, wir sind glaube ich bei Version 3 momentan,
0:08:32–0:08:38
Vielleicht wird es dann auch eine Anekdote von uns direkt in den Song einbauen.
0:08:38–0:08:44
Genau, ich habe einfach gesagt, ein fröhliches Stück im Stil von 8-Bit-Soundtrack
0:08:44–0:08:49
von einem Computerspiel, wo auch ein Teppich, also wo ich es schön im Hintergrund
0:08:49–0:08:52
laufen lassen könnte, für die Radiosendung Nerdfunk.
0:08:55–0:09:03
Und dann hat sie das Pixel Adventure daraus gemacht, die KI 8-Bit-Upbeat-Elektronik.
0:09:03–0:09:10
Music.
0:09:10–0:09:14
Also man kann... Kevin, Ohrwurm-Qualitäten hat das schon, oder?
0:09:16–0:09:19
Hey, das erinnert mich an Gummibärenbande. Achso, ja.
0:09:20–0:09:24
Nö. Doch, ich hatte ein kleines... Das klingt ähnlich wie...
0:09:25–0:09:28
Voll. Darf ich etwas schicken, das ich gemacht habe? Ja, bitte.
0:09:28–0:09:32
Für Nerdfunk. Kann ich das ins Dock reinkopieren? Doch.
0:09:32–0:09:36
Ich komme technisch nicht so raus. Ja, genau.
0:09:36–0:09:38
Es ist riesig, ist ein Deko, ja. Wie kann ich das kopieren?
0:09:39–0:09:42
Kontroll-V. Link-only. Public? Public?
0:09:43–0:09:48
Nein. Link-sharing. Also wir haben... Was ist? Was?
0:09:49–0:09:53
Ich will es kopieren und ich weiss nicht, wie es geht. Du kannst einfach...
0:09:54–0:09:57
Den Link hier drücken. Aber weisst du was?
0:09:57–0:10:02
Der Digi-Chris hat vielleicht auch noch... Ja, ich sehe es. Ich probiere es
0:10:02–0:10:04
mal, ob ich das gerade aufmachen kann.
0:10:05–0:10:08
Und nachher darf dann... Weil wir haben alle experimentiert.
0:10:09–0:10:15
Nerdfunk Nation heisst das. Okay, ich probiere es mal. Das ist mein erster Schuss.
0:10:15–0:10:23
Dein erster Schuss. Okay, der erste Schuss von Kevin heisst Nerdfunk Nation und er klingt so.
0:10:23–0:10:27
Nerdfunk Nation, where the geeks and the gamers come, the dance and groove.
0:10:28–0:10:31
Got a pair of thick rimmed blouses and a pocket full of...
0:10:31–0:10:49
Music.
0:10:51–0:10:57
Ja, hat etwas. Ich habe jetzt noch nicht ganz das... Es klingt wie Titelmelodie von Friends.
0:10:57–0:10:59
Ja, oder irgendeine 80er Serie.
0:11:00–0:11:04
Ja genau, wo alle glücklich sind. Und wir haben kein Problem.
0:11:06–0:11:10
Sehr schön, sehr schön. Und wenn wir schon dabei sind, Digi Chris,
0:11:10–0:11:14
hast du mir noch deine Komposition? Du musst einfach auf Play drücken und dann
0:11:14–0:11:15
hören wir es hoffentlich.
0:11:16–0:11:19
Ich habe da mal noch was. Eben, da hatten wir ja schon Dixieland,
0:11:19–0:11:23
also Super Mario als Dixieland. Oh, oh, oh, okay.
0:11:23–0:11:27
Das hat er durchgelassen. Äh, trotz... Ui.
0:11:26–0:11:42
Music.
0:11:39–0:11:43
Ich würde sagen, diese Instrumente klingen mir jetzt fast ein wenig zu blähig.
0:11:45–0:11:52
Ja, aber wenigstens hat er doch noch Multitrack und eben das Lied «Eine gute
0:11:52–0:11:54
Nachtliebe für deine Tochter» ist noch am rendern.
0:11:55–0:12:00
Achso, ja, genau. Ich habe natürlich dann auch noch ein Kinderlied probiert.
0:12:00–0:12:04
Das heisst, ich muss gerade schauen, ob ich es überhaupt sehe.
0:12:06–0:12:10
Da ist es das heißt das unglückliche pferd
0:12:10–0:12:16
ich habe gesagt dass das kinderliebe machen über das roß wo in das zebra verliebt
0:12:16–0:12:25
ist und dann ist das die musik mit einem herzen das so leicht zu sehen aber
0:12:25–0:12:29
es ist verliebt ein schicht eines bildes.
0:12:29–0:12:50
Music.
0:12:50–0:12:56
Das Zebra ist anders, es ist so spezial. Das Zebra ist so spezial, okay.
0:12:57–0:13:04
Ein bisschen weh tut es mir schon. Und ich würde sagen, der Blues,
0:13:04–0:13:07
den wir am Anfang gehört haben, der war schon eher die Ausnahme.
0:13:07–0:13:11
Weil das alles so ein bisschen nach Wokoder und so ein bisschen nach...
0:13:12–0:13:21
Ich habe wenig Erfahrung mit richtig tiefgründiger und und herzberührenderer
0:13:21–0:13:26
Musik, sondern ich mache es so, dass es auf TikTok auch funktionieren würde.
0:13:26–0:13:27
Ist mein Eindruck korrekt?
0:13:28–0:13:34
Ja, aber ich glaube, es gibt ja... Du hast eine Tochter, es gibt doch so Kinder-CDs,
0:13:34–0:13:36
die wahrscheinlich nicht so viel anders klingen.
0:13:37–0:13:43
Ja, aber der Charles Zukowski, nein, wie heisst der? der schlimme Mann,
0:13:43–0:13:48
der alte Kinderlieder verbricht, der hat irgendwie noch ein bisschen mehr Ohrwurm-Qualität.
0:13:48–0:13:52
In der Weihnachtsbäckerei gibt es eine Massenschlägerei und so.
0:13:52–0:13:56
Also das finde ich noch ein bisschen besser.
0:13:58–0:14:03
Aber Kevin, was halt, du bist ja eigentlich bist du erfahrener Konzertgänger auch.
0:14:03–0:14:07
Du hast früher Konzerte nicht nur besucht, sondern auch fotografiert.
0:14:07–0:14:11
Also du hast auch ein Gespür für die Musiker. Und was sagst du jetzt da?
0:14:11–0:14:17
Spürst du da irgendetwas echtes oder ist das doch alles ein bisschen synthetisch,
0:14:17–0:14:19
was da überkommt von diesem Sono?
0:14:20–0:14:24
Ich habe... also es ist ein Problem.
0:14:25–0:14:31
Es ist... wie viele Leute hören Radio den ganzen Tag im Hintergrund? Ja, viele.
0:14:31–0:14:35
Wie viele Leute haben im Lift einfach Musik in der Wartekalle?
0:14:36–0:14:41
Hey, da hört niemand auf die Musik, sondern hört nur auf den Takt,
0:14:41–0:14:44
dass es ein wenig treibend ist, dass es ein wenig glücklich ist.
0:14:45–0:14:46
Das verhebt völlig.
0:14:47–0:14:51
Und ich glaube auch hier, ein Ohrwurm ist wahrscheinlich möglich,
0:14:51–0:14:54
aber es ist ein Glückstreffer. Wie in der echten Musik.
0:14:56–0:15:01
Es ist Musik grundsätzlich, und darum funktioniert wahrscheinlich die KI relativ
0:15:01–0:15:05
gut, Musik funktioniert nach relativ klaren Mustern. Ja.
0:15:05–0:15:09
Also, es ist relativ klar aufgebaut, wie Musik funktioniert,
0:15:09–0:15:14
mit den Takt, mit wann kommt der Refrain, wie ist die Struktur von etwas im Drumherum.
0:15:14–0:15:18
Da kann ich wahrscheinlich relativ einfach sagen, wenn ich das so aufbaue in
0:15:18–0:15:20
diese Richtung, dann funktioniert das relativ gut.
0:15:21–0:15:25
Man kann anhand der Instrumentierung, der Takt, der Tonhöhe ein bisschen,
0:15:25–0:15:28
ist es jetzt eher glücklich oder ist es eher traurig bestimmen.
0:15:28–0:15:31
Und dann funktioniert das, glaube ich, schon.
0:15:32–0:15:38
Aber es ist jetzt vielleicht ein bisschen gemein, aber es ist einfach schlecht
0:15:38–0:15:41
produzierte Popmusik. Genau, das würde ich auch sagen.
0:15:41–0:15:46
Das Rolling Stone Beispiel, das wir von ganz am Anfang gehört haben,
0:15:46–0:15:47
das klingt mich ein bisschen untypisch.
0:15:48–0:15:50
Aber vielleicht haben wir auch noch nicht tief genug gerüttelt,
0:15:50–0:15:54
weil das klingt mehr nach Mensch,
0:15:54–0:15:58
als bei dieser Musik, die man sagen könnte, bei dieser Popmusik von heute,
0:15:59–0:16:06
die ich als alten, weissen Mann jetzt kritisiere, die Tönte schon seit Jahren immer so.
0:16:07–0:16:10
Wie wenn sie direkt aus der Retorte kommen und von der K.I. gemacht werden.
0:16:11–0:16:16
Also da ist vielleicht die Fallhöhe nicht so. Trotzdem, es haben über 200 Musiker,
0:16:16–0:16:20
Kate Perry, Billie Eilish, Stevie Wonder, Bon Jovi und noch viele andere,
0:16:20–0:16:23
einen offenen Brief unterschrieben, in dem sie sagen,
0:16:23–0:16:29
eben diese künstliche Intelligenz, Intelligenz, die es für sie und ihr Geschäft und ihre Kunst hat.
0:16:29–0:16:36
Leider setzen einige Plattformen und Entwickler KI ein, um die Kreativität zu
0:16:36–0:16:42
sabotieren und Künstler, Songschreiberinnen, Musiker und Rechteinhaberinnen zu untergraben.
0:16:42–0:16:50
Diggi Chris, ist das die Absicht? Ist es nicht die Absicht, den Künstlern das Brot wegzunehmen?
0:16:50–0:16:53
Nein, vielleicht nicht. Ich kann ein Beispiel sagen, ein Arbeitskollege,
0:16:53–0:16:57
der auch in einer Band spielt und der Eben hat mal erfahren,
0:16:57–0:17:01
sie haben jetzt einen neuen Song,
0:17:01–0:17:06
ich glaube der heisst jetzt «Sunset in Arabia» und er sagte «ja,
0:17:06–0:17:12
kannst du nicht mal das in ein Dings reingeben, in Dali oder in Chachipiti 4»
0:17:12–0:17:14
und dann ist halt auch ein Bild rausgekommen.
0:17:15–0:17:19
Für ihn war das einfach eine Inspiration. Er hat das auch mit seinem Grafiker
0:17:19–0:17:22
gemacht. Aber cool, irgendwie tatsächlich so...
0:17:24–0:17:27
Ich sage jetzt, ein orientalisches Gebäude. Das hat uns noch jemand korrigiert.
0:17:27–0:17:29
Aber in Dubai sehen die Gebäude nicht so aus.
0:17:30–0:17:33
Aber einfach so ein bisschen... Und mit diesen Farben, ja...
0:17:33–0:17:36
Das ist wahrscheinlich wie der Entwurf, den du irgendwo hast.
0:17:36–0:17:43
Und dann musst du sicher noch lange... Wir sind jetzt hier bei unserem Tool auf Version 3.
0:17:43–0:17:46
Wahrscheinlich bis Version 17 warten, wie es dann tatsächlich etwas macht,
0:17:46–0:17:52
was auf den Chartplatz 1 kommt, aber vielleicht auch noch ganz schnell.
0:17:52–0:17:55
Ich würde sagen, das kann schon passieren, bei den Leuten, die wahrscheinlich
0:17:55–0:17:57
jetzt schon nicht so viel Geschmack haben.
0:17:57–0:18:02
Es gibt ja auch schon KIs, die Fotowettbewerbe gewonnen haben.
0:18:02–0:18:05
Das kann schon passieren, weil nicht immer erkennst du es als falsch.
0:18:06–0:18:10
Aber ich würde sagen, es ist ja dann doch, wenn einzelne Songs so.
0:18:12–0:18:16
Wirklich überzeugen, das Allermeiste überzeugt nicht so.
0:18:16–0:18:20
Oder allerdings, ich lese auch jetzt doch noch davor, was das Rolling Stone
0:18:20–0:18:22
Magazin geschrieben hat,
0:18:22–0:18:27
die haben gefunden, die meiste KI-generierte Kunst ist bisher bestenfalls kitsch,
0:18:27–0:18:32
wie der hyperrealistische Sci-Fi-Müll mit seinen formschlüssigen Raumanzügen,
0:18:32–0:18:37
den so viele Mitschörnerbesitzer oder Benutzer anscheinend erzeugen wollen.
0:18:37–0:18:41
Aber das Soul of the Machine, das wir gehört haben, fühlt sich an wie etwas anderes.
0:18:41–0:18:47
Die kraftvollste und beunruhigendste KI-Kreation, die mir als Schreiberling
0:18:47–0:18:49
in irgendeinem Medium begegnet ist.
0:18:50–0:18:58
Und eben, man findet da auch, und ich glaube, die Musikindustrie sieht das wirklich als Bedrohung an.
0:18:58–0:19:02
Es gibt jetzt eben die Gewerkschaften, die sagen, man muss das regulieren,
0:19:02–0:19:08
man muss sagen, dass die Studios verbeuten, dass die eben die KIs brauchen,
0:19:08–0:19:11
um Produktionskosten runterzudrücken.
0:19:11–0:19:17
Man kann sich auch gut vorstellen, dass zum Beispiel nicht halt der Künstler
0:19:17–0:19:20
im Vordergrund ersetzt wird, aber z.B.
0:19:20–0:19:24
Vielleicht Musiker, die im Hintergrund spielen oder das Chörchen oder so.
0:19:24–0:19:30
Und in Tennessee gibt es tatsächlich den Elvis-Act, der tritt am 1.
0:19:30–0:19:35
Juli in Kraft und der macht es illegal, die Stimme eines Künstlers ohne dessen
0:19:35–0:19:36
Zustimmung zu kopieren.
0:19:37–0:19:40
Und das finde ich eigentlich wirklich sinnvoll. Also ich glaube,
0:19:40–0:19:43
das kann nicht angehen. Wahrscheinlich auch posthum.
0:19:43–0:19:47
Wenn das nicht klar geregelt ist, kann man nicht hingehen und jetzt ein neues
0:19:47–0:19:51
Johnny Cash Album machen, ohne den gefragt zu haben.
0:19:51–0:19:54
Ganz klar, aber eben, wie du sagst, gefragt zu haben, ich glaube,
0:19:54–0:19:58
ich habe das auch schon mal erwähnt, es gibt ja neue Folgen von Pumuckl,
0:19:58–0:20:02
von Airtel und eben der Maxi Schafroth spricht den Pumuckl, aber sie haben den
0:20:02–0:20:06
Pumuckl auf dem zweiten Kanal auch noch mit AI.
0:20:07–0:20:10
Wiederbelebt, aber dort sind es, jetzt ist mir der Name entfallen,
0:20:10–0:20:15
wer den Pumuckl vor 20 Jahren geredet hat, also die sind zu der Familie,
0:20:15–0:20:17
zu der Nachlassverwaltung, und die haben gesagt, ja,
0:20:18–0:20:20
Wir haben ja gesagt, das ist schon wichtig. Der hat Hans Klarin geheiss.
0:20:20–0:20:24
Genau, der Klarin. Und wenn man es so macht, dann ist es schon okay.
0:20:24–0:20:26
Aber da bin ich auch einer Meinung.
0:20:26–0:20:31
Man sollte jetzt nicht irgendwie, und das hat ja nicht mal mit Bildungslücken
0:20:31–0:20:35
zu tun, aber lebt jetzt der Musiker XY noch?
0:20:35–0:20:38
Das muss ich mir teilweise wahrscheinlich auch noch selber überlegen.
0:20:39–0:20:43
Aber wenn du jetzt jemanden schaust, der heute 4,15 Jahre alt ist,
0:20:43–0:20:48
ist, hm, ja, lebt dann der, wie heisst er, Freddy Mercurino?
0:20:48–0:20:52
Ja, gut, ich glaube, der Freddy ist jetzt vielleicht noch der beste.
0:20:52–0:20:56
Wenn der von der KI gut gekopiert werden kann, dann sind wir eh verloren,
0:20:56–0:20:58
dann können wir die Diskussion da bleiben lassen.
0:20:58–0:21:00
Aber auch noch schnell, wegen Freddy, da gibt es ja auch ein Meme,
0:21:02–0:21:05
wie heisst es, Bohemian Rhapsody, wo er, glaube ich, geschrieben produziert,
0:21:05–0:21:08
alles hat. Er, glaube ich, hat das praktisch allein gemacht.
0:21:09–0:21:12
Und da gibt es so ein Ding, da siehst du ihn eben, schreibt einen Song und hast
0:21:12–0:21:17
irgendeinen ich sage jetzt, ein Britney Spears Song mit irgendwie 17 Leuten,
0:21:17–0:21:18
die da gearbeitet haben.
0:21:19–0:21:21
Und jetzt, hör mal, Qualität.
0:21:22–0:21:26
Kevin, wenn wir jetzt sagen, ist vielleicht ein bisschen hochgehängt,
0:21:26–0:21:29
was die Musiker machen, dass man sich bedroht fühlt von dem,
0:21:30–0:21:32
das verstehen wir schon alle sehr gut, oder?
0:21:32–0:21:36
Das geht dir auch so? Das hat schon etwas Unheimliches, was die Musiker oder
0:21:36–0:21:38
die KI jetzt da plötzlich macht.
0:21:38–0:21:42
Ich glaube, das Ding ist halt, KI, man hat Angst vor dem, weil man jetzt,
0:21:42–0:21:45
also Vielleicht hätte man schnell erklären müssen, wie das Suno funktioniert.
0:21:46–0:21:49
Im Suno gebe ich einen Text ein und sage, mach mir ein Lied,
0:21:49–0:21:53
so und so, mit diesem Inhalt und mach mal.
0:21:54–0:21:56
Und dann generiert es mir ein Lied.
0:21:56–0:22:02
Fakt ist aber, dass auch in einem Studio seit 15, 20 Jahren,
0:22:02–0:22:06
hey, ich brauche Schlagzeuge, ja gut, ich lasse mir die Software das schnell einspielen.
0:22:09–0:22:12
Die Zeiten sind vorbei, wo ich mir einen Schlagzeuger geholt habe,
0:22:12–0:22:16
der mir das einspielt. Ich kann das über die Software machen.
0:22:18–0:22:21
Ob das besser ist oder nicht, muss man diskutieren, weil die Software wahrscheinlich
0:22:21–0:22:25
zu präzise ist und ich möchte die Ungenauigkeit haben, ich möchte den Groove
0:22:25–0:22:28
haben und das bringt halt vielleicht nur den Menschen an und dann kann man wieder
0:22:28–0:22:32
irgendwelche Programme drüber laufen lassen, die dann so ein bisschen ungenau das spielen.
0:22:32–0:22:38
Aber KI macht halt in der kürzesten Zeit ein Lied komplett fertig,
0:22:39–0:22:41
ohne dass ich eine Ahnung von Musik habe.
0:22:42–0:22:49
Ich verstehe, dass man da Angst davor hat und gleichzeitig kommt die KI überall.
0:22:50–0:22:53
Wir haben das gleiche Problem mit Text, wir haben das gleiche Problem mit Bildern,
0:22:53–0:22:54
wir haben das nicht nur in der Musik.
0:22:55–0:22:59
Und ich glaube, man kann das jetzt nicht stoppen. Man sieht tatsächlich,
0:23:00–0:23:07
dass die Künstler und Musiker jetzt laut ausrufen und die Hollywood-Leute haben
0:23:07–0:23:11
auch laut ausgerufen, wo letztlich die Videokamera eingekommen ist,
0:23:11–0:23:13
wo dann so Videosequenzen kommen. können.
0:23:13–0:23:19
Und die reden auch schon von den AI-Apocalypse, die dann in all diesen.
0:23:21–0:23:27
Gewerkschaftlich organisierten Filmemachern und Filmmenschaffenden die Arbeit wegnimmt.
0:23:27–0:23:32
Und wir, zum Beispiel wir Journalisten und vielleicht auch Fotografen,
0:23:32–0:23:35
die sind einfach nicht so gut organisiert und die machen ein bisschen weniger Krach.
0:23:35–0:23:38
Ich glaube, das hat schon damit zu tun. Das sehe ich auch.
0:23:38–0:23:43
Und du hast absolut recht, Kevin. Es ist ja so eine graduelle Entwicklung.
0:23:43–0:23:48
Ich habe das Auto-Tune schon erwähnt. Da haben natürlich viele schon ihre Stimmen
0:23:48–0:23:53
zurecht gebogen, mittels Elektronik, wenn sie die hohen Töne nicht getroffen haben.
0:23:53–0:23:58
Und jetzt kannst du natürlich gut einen anstellen, der dann das perfekt singt
0:23:58–0:24:01
und dann kannst du ihm deine Stimme überhelfen und dann klingt es so,
0:24:01–0:24:03
wie du das gesungen hast, mittels KI.
0:24:03–0:24:10
Also die Schissmöglichkeiten werden noch etwas grösser, aber die sind nicht neu.
0:24:12–0:24:14
Umgekehrt könnte man auch sagen, Digi-Chris positiv gesehen,
0:24:15–0:24:20
wir beide zum Beispiel haben vielleicht super Songideen, aber wir können nicht
0:24:20–0:24:23
singen und wir haben kein Talent für ein Musikinstrument,
0:24:23–0:24:29
aber mit so einer KI könnten wir jetzt etwas kreieren, was wir bisher nicht hätten können.
0:24:29–0:24:33
Also es macht es irgendwie demokratischer. Kann sein übrigens,
0:24:33–0:24:37
was mir auch noch beim Suna aufgefallen ist, wenn du im Chachipiti und ja,
0:24:37–0:24:43
ich habe sicher auch schon gewisse Sequenzen für den Podcast mit der Chachipiti generieren lassen.
0:24:44–0:24:46
Tatsächlich? Da kannst du mir, oder zumindest eben das Gerüst,
0:24:46–0:24:48
kannst du mir sagen, nein, ich habe das nicht so gemeint.
0:24:49–0:24:52
Ich glaube, beim Suna hast du tatsächlich immer einen Schuss.
0:24:53–0:24:58
Also wenn du die einmal blöd vertippst, dann hast du halt deine 10 Kredite wieder.
0:24:58–0:25:02
Du kannst es nicht korrigieren, du müsstest es einfach nochmals neu machen oder so.
0:25:03–0:25:10
Und ich wollte dann wissen, wie kreativ, wie tiefschürfend, wie emotional ist dann das Ding.
0:25:10–0:25:18
Und ich habe ihm gesagt, mach mir bitte, ihr kennt sicher alle diesen Song von Bruce Springsteen,
0:25:20–0:25:24
«I'm on fire» und habe gesagt, jetzt sollen wir mal eine Version machen,
0:25:24–0:25:28
vom gleichen Stück aus der Perspektive der Frau.
0:25:28–0:25:33
Ich wollte wissen, was könnte das sein, wie das dann tönen würde. Und das klingt dann so.
0:25:34–0:26:01
Music.
0:26:01–0:26:06
Und vielleicht zum Vergleich, so müsste das eigentlich richtig klingen.
0:26:06–0:26:13
Music.
0:26:12–0:26:20
Also ich übertreibe jetzt nicht, wenn ich sage, das hier oder das hier.
0:26:20–0:26:22
Was würden wir vorziehen?
0:26:22–0:26:30
Music.
0:26:28–0:26:31
Ich bin Team Bruce Springsteen.
0:26:32–0:26:38
Also wenn du jetzt so denkst, die Fete damals in der 6. Klasse, wer war das vielleicht?
0:26:38–0:26:44
Aber sonst ist natürlich der Herr Springsteen doch noch ein bisschen talentierter.
0:26:44–0:26:52
Ein bisschen authentischer, oder? Ich würde sagen, es geht ja auch um sehr archaische
0:26:52–0:26:58
Gefühle und Erregungen und so und das kommt bei diesem Stück raus und bei dem halt,
0:26:58–0:27:01
also irgendwie, jetzt ist es auch fertig, glaube ich.
0:27:01–0:27:04
Also ja, es schadet nichts, wenn es fertig ist.
0:27:05–0:27:11
Kevin, in welchem Team bist du? Team Bruce Springsteen oder Team Burning the
0:27:11–0:27:13
Shell? Ja, schon Bruce Springsteen.
0:27:13–0:27:15
Ja, schon Bruce Springsteen.
0:27:16–0:27:21
Ah, was machen wir jetzt fast am Ende dieser schlimmen KI-Sendung?
0:27:21–0:27:27
Ich glaube eben, was halt der KI-Nani kann, hat nicht der Springsteen neulich
0:27:27–0:27:29
noch mal irgendwie sogar im letzten Grund gespielt?
0:27:30–0:27:34
Ist das nicht vor, ja, vielleicht sogar letztes Jahr oder so gewesen?
0:27:34–0:27:41
Du meinst, es kann tatsächlich sein, dass ein Musiker richtig auftritt? Ja.
0:27:41–0:27:44
Wohingegen KI leider... Ja, nein, und eben, irgendwann haben sie gesagt,
0:27:44–0:27:48
hey, ich glaube der Springsteen ist über 70, oder?
0:27:48–0:27:51
Das ist auch schon ein alter Knochen, ja. Und eben, und er hat einfach gesagt,
0:27:51–0:27:55
er sagt, also, das war jetzt sogar positiv gewesen, wie eine Wildsau auf der
0:27:55–0:27:59
Bühne, einfach drei Stunden wie eine Wildsau auf der Bühne rumgekumpelt und
0:27:59–0:28:02
vermutlich sogar alles live gesungen und so.
0:28:02–0:28:07
Ja klar, das ist ein Ausnahmetalent und eben sowas, die Experience,
0:28:08–0:28:11
wirst du eben mit der KI nie haben, auch mit der Version 27 nicht.
0:28:12–0:28:20
Das glaube ich auch und ich glaube eben, es braucht einfach das eigene Erleben, die eigenen Abgründe.
0:28:21–0:28:24
Also ich habe es ja schon gesagt, es ist so ein bisschen banal,
0:28:24–0:28:32
dass halt Kunst auch durch Leiden entsteht und durch die Erfahrungen und alles,
0:28:33–0:28:34
was beschissen gelaufen ist.
0:28:34–0:28:39
Und das kann halt die Kai nicht, weil die erlebt nichts.
0:28:39–0:28:45
Die sitzt ein wenig in ihrem GPU und nimmt die Prompt entgegen.
0:28:45–0:28:47
Und das ist alles, was sie mit der Aussenwelt zu tun hat.
0:28:48–0:28:54
Und ja, da bleibt dann wenig, was man daraus schöpfen kann.
0:28:54–0:28:57
Da ist übrigens noch Kevin. Kevin...
0:28:59–0:29:03
...sind... ...sind letzten... ...sind zweiten Nerdfunk-Song.
0:29:04–0:29:06
Codecrushing... Codecrunching, Entschuldigung.
0:29:07–0:29:11
Äh... Kevin, was war hier der Prompt? Ähm... Ich hab ihm gesagt,
0:29:12–0:29:13
er soll einen Rap-Song machen.
0:29:13–0:29:18
Und es müsste Nerdfunk drin vorkommen. Und das Thema sind PC und IT.
0:29:19–0:29:21
Genau, im Refrain kommt es vor.
0:29:23–0:29:32
Music.
0:29:32–0:29:34
Auch, hat auch etwas für sich, oder?
0:29:36–0:29:42
Also, ich würde sagen, wir ziehen uns erschöpft und ein bisschen ernüchternd zurück.
0:29:42–0:29:47
Darf ich noch zwei Ziele vom Gute-Nacht-Lied für deine Tochter spielen?
0:29:47–0:29:52
Ich habe keine Ahnung, was daraus herauskommt. Es heisst «Sweet Dreams, My Angel».
0:29:53–0:30:05
Music.
0:30:05–0:30:09
Ja, da wäre jetzt mein Kommentar schon auch ein bisschen süsslich,
0:30:09–0:30:11
ein bisschen kitschig, aber vielleicht auch... Ich habe sogar gesagt,
0:30:11–0:30:15
Rockballad, also das ist jetzt nicht Rockballad, aber...
0:30:15–0:30:20
Also Kevin, hast du das famous last word oder sollen wir einfach...
0:30:22–0:30:25
Wir geben auf. Wir geben auf. Ich würde sagen auch. Das war es.
0:30:25–0:30:33
Das war es, wir geben auf. und es kann wirklich sein, dass in zwei Wochen dann da keine Ideen sind.
0:30:34–0:30:37
Wo ist der Podcast-Creator? Ja, genau. Oh je.
0:30:42–0:30:57
Music.

Beitragsbild: So einfach ist sie nicht durch eine KI zu ersetzen, oder? (Billie Eilish am Pukkelpop 2019 von Lars Crommelinck Photography/Flickr.com, CC BY 2.0 Deed)

Katy Perry, Billie Eilish, Stevie Wonder, Nicki Minaj, Jon Bon Jovi und zweihundert weitere Künstlerinnen und Musiker haben einen offenen Brief unterzeichnet. In dem warnen sie vor der künstlichen Intelligenz: «Leider setzen einige Plattformen und Entwickler KI ein, um die Kreativität zu sabotieren und Künstler, Songschreiber, Musiker und Rechteinhaber zu untergraben.»

Welche Unternehmen konkret gemeint sind, steht im Brief nicht. Aber ein Verdacht drängt sich auf, weil es erst ein paar Tage her ist, dass Suno.AI eine neue Version seiner Musik-KI lanciert hat. Die «verändere alles», schreibt das «Rolling Stone»-Magazin: «Die meiste KI-generierte Kunst ist bisher bestenfalls Kitsch, wie der hyperrealistische Sci-Fi-Müll mit seinen formschlüssigen Raumanzügen, den so viele Midjourney-Benutzer anscheinend erzeugen wollen. Aber ‹Soul of the Machine› fühlt sich wie etwas anderes an: Die kraftvollste und beunruhigendste KI-Kreation, die mir in irgendeinem Medium begegnet ist», urteilt der Autor. «Soul of the Machine i»

Solche Musik-KIs sind nicht neu; Google hat mit MusicLM seit Anfang 2023 ein solches Produkt am Start. Doch das produziert nur instrumentale Tracks, während Suno auch Liedtexte erschafft, sie mit künstlichen Stimmen einsingt und die Werke sogar mit einem KI-Coverbildchen ausstattet. Eröffnet sich hier ein riesiges Potenzial für die Musikindustrie, weil sie künftig ihre Umsätze erzielt, ohne Tantiemen an Menschen zahlen zu müssen? Ist das im Gegenteil eine riesige Chance für uns Nichtmusikerinnen, die wir zwar kreative Ideen, aber keine schöne Gesangsstimme besitzen und kein Instrument spielen können? Oder werden hier die Fähigkeiten der Maschine – schon wieder! – hoffnungslos überschätzt?

„Musiker gegen KI (0:1)“ weiterlesen

Mehrere seltsame Nummern

Transkript anzeigen (falls vorhanden)

00:00–0:00:14
Music.
0:00:14–0:00:18
Ah, jetzt ist es fertig. Sehr schön. I am Donald Dumb. And you better listen
0:00:18–0:00:22
to Radio Stat Filter or I will come to Winterthur and run for City Mayor.
0:00:23–0:00:28
Der Donald Trump war das. Digi Chris, er will unseren Bürgermeister werden.
0:00:29–0:00:33
Was sagen wir dazu? Lieber nicht. Aber ich will nicht zu Winterthur.
0:00:34–0:00:40
Genau, du wärst fein raus. Aber wir sind gespannt, ob er das macht.
0:00:40–0:00:42
Also, hallo Digi Chris. Wie geht's?
0:00:43–0:00:48
So wie gut ich nicht klagen kann, scheint es ja doch durchaus jetzt langsam
0:00:48–0:00:52
so ein bisschen wetterig zu sein, also bei uns, wo wir dann irgendwann wieder
0:00:52–0:00:53
kurzhermig vorausgehen können.
0:00:54–0:00:58
Mhm, und kurzhöslig? Bist du so einer, der mit kurzen Hosen herumläuft?
0:00:58–0:01:03
Oder findest du, meine Knie kann man nicht der Weltöffentlichkeit präsentieren?
0:01:03–0:01:08
Wenn ich ins Bad laufe, ja, aber sonst, also im Büro, nein, bin ich doch einigermassen
0:01:08–0:01:12
seriös angelegt. Also einer, der nicht in die kurzen Hosen ins Büro geht.
0:01:13–0:01:18
Ich mache das manchmal, aber selten. Und du bist gut dran, dass du heute nicht
0:01:18–0:01:22
ins Studio gekommen bist, weil ich bin nämlich so ein bisschen verkältet.
0:01:22–0:01:28
Ich glaube, es ist nicht die eine Seuche, sondern eine von den anderen, die man jetzt...
0:01:29–0:01:33
...just am Ende zum Frühling nach vorne gekommen ist, wieder so diese Viren
0:01:33–0:01:36
und so. Ist ein bisschen mühsam, ehrlich gesagt.
0:01:36–0:01:41
Virus-Scanner nicht aktualisiert in diesem Fall. Genau, Kaspersky habe ich gesagt,
0:01:41–0:01:46
das kommt man nicht mehr zu mir hin, aber dann wäre es vielleicht doch gescheiter
0:01:46–0:01:50
gewesen, genau, den Virus-Scanner zu updaten.
0:01:51–0:01:57
Ja, und ich glaube, wenn wir jetzt zwar noch eine Pre-Show haben,
0:01:57–0:02:02
ich hätte immer noch eine Anekdote.
0:02:02–0:02:10
Ich weiss gar nicht, ich habe meinen Abwesenheitsantrag bei dir eingereicht
0:02:10–0:02:13
in zwei Wochen, wenn ich wieder mal in Piedmont bin.
0:02:13–0:02:17
Ja, scheint es. Die Montanekdote habe ich da glaube ich gar nicht erzählt.
0:02:18–0:02:21
Das ist so etwas mit Daten schützend so.
0:02:21–0:02:24
Ist auch noch ganz spannend. Also es hätte damit angefangen,
0:02:24–0:02:27
dass ich ein Mail von meiner Mutter,
0:02:27–0:02:34
also an mich und meinen Vater, nach dem Motto, hey, wir haben hier eine Zahlungsaufforderung
0:02:34–0:02:37
bekommen aus Italien wegen Mautgebühren.
0:02:37–0:02:42
Weisst du, in Italien musst du ja Maut zahlen auf der Strasse.
0:02:43–0:02:47
Wahrscheinlich als du als Kind noch auf Italien bist, hast du doch dort in diesen
0:02:47–0:02:52
Häuschen noch Menschen gewesen, die deine gewechselten Lehren gegeben haben.
0:02:53–0:02:57
Genau, das habe ich noch erlebt. Ich bin schon so alt. Das ist dann irgendwann
0:02:57–0:03:03
halt ersetzt worden durch Kreditkarten und auf gewissen Strecken wird halt diese
0:03:03–0:03:05
Autokennzeichen gescannt. Ja.
0:03:06–0:03:09
Und das hat uns auch mal jemand gesagt und ich bin dann dort auch auf die Webseite,
0:03:10–0:03:13
habe das gezahlt und jetzt ist irgendwie, wahrscheinlich noch im 23,
0:03:14–0:03:20
ein Zahlungsaufwahl-Rekord für sechs oder sieben Durchfahrten ins Stabio durch den Tunnel.
0:03:20–0:03:25
Und natürlich, für das gibt es Google Maps und Google Location History,
0:03:25–0:03:29
habe ich da schnell geschaut, nein, also von der Zeit stimmt das,
0:03:29–0:03:31
ich bin da mit dem Vater durch gewesen,
0:03:32–0:03:35
oder halt nicht, aber vermutlich ist er dann mit, weiss ich,
0:03:35–0:03:37
wem durchgekommen, also die haben...
0:03:38–0:03:41
Hinter deinem Rücken sind sie gecruisen.
0:03:42–0:03:45
Also irgendwie haben die aus dem 17.
0:03:45–0:03:48
Jahr, also sieben Jahre her, wahrscheinlich haben sie gemerkt,
0:03:48–0:03:51
oh, wir haben kein Budget mehr, oder wir müssen und das Budget noch holen.
0:03:51–0:03:53
Wir gehen da jetzt noch die.
0:03:56–0:04:00
Gebühren einziehen. Es ist jetzt nicht so schlimm gewesen. Ich glaube,
0:04:00–0:04:04
eine Tunneldurchfahrt ist 2 Euro und ich sage jetzt Strafe 10 Euro.
0:04:04–0:04:07
Das geht dann auch. Dann ist es wahrscheinlich auch kein Scam gewesen.
0:04:07–0:04:10
Sonst wäre es irgendwie 500 Euro gewesen.
0:04:10–0:04:14
Also dann könntest du sagen, wenn es ein Scam gewesen wäre und es tatsächlich
0:04:14–0:04:19
geschafft hätte, an meine Google-Accounts und Google History aufzumachen,
0:04:19–0:04:21
Ja, hätte es wahrscheinlich ganz anders gemacht.
0:04:21–0:04:26
Ja, sie hätte einfach so einen eigenen Scanner, also wenn ich dort wohnen würde,
0:04:26–0:04:29
könnte ich ja so einen eigenen Scanner irgendwo an die Strasse stellen und dann
0:04:29–0:04:32
alle, die vorbeifahren, auch noch registrieren.
0:04:33–0:04:38
Dann musst du aber noch an die Adresse des Nummernschildes kommen.
0:04:38–0:04:43
Ja, stimmt, aber gibt es nicht immer noch diese... Nein, die Nummer gab es nie auf der CD, oder schon?
0:04:43–0:04:48
Nein, es hat immer noch... Es gibt eine Webseite, aber ich kann es dir sperren
0:04:48–0:04:50
lassen. Ach so, okay. Also, gut.
0:04:50–0:04:53
Ich habe auch noch etwas, und zwar, jetzt müssen wir schauen,
0:04:53–0:04:56
ob ich das noch einbringe, bevor wir anfangen müssen.
0:04:57–0:05:05
Pascal, die hat geschrieben uns zu unserem 700. Jahr, äh, nein, zu unserem 700.
0:05:05–0:05:09
Jubiläum, und sie hat geschrieben ein langes Feedback, für das ich mich sehr bedanke.
0:05:10–0:05:14
Sie hat auch geschrieben, warum sie unseren Podcast so schätzt,
0:05:14–0:05:18
und ich würde sagen, das Lob haben wir verdient und darum lese ich es jetzt vor.
0:05:19–0:05:22
Ihr seid authentisch und eben, sie hat das Gefühl, sie kennen uns.
0:05:22–0:05:27
Ich glaube, das ist so ein Podcast-Phänomen, dass wenn man häufig Podcasts hört,
0:05:27–0:05:31
hat man tatsächlich das Gefühl, man kennt die Leute, die man da immer in seinen Kopfhörern hat.
0:05:31–0:05:35
Ihr könnt in der Pre-Show frisch von den Leberweg-Plaudern im Hauptteil dann
0:05:35–0:05:38
doch wichtige und spannende und bemerkenswerte Themen angehen.
0:05:38–0:05:41
Ihr seid treu. Wer bleibt schon so lange da?
0:05:41–0:05:44
Danke vielmals. Also wie gesagt, das geben wir gerne zurück.
0:05:44–0:05:49
Ihr spielt euch nicht auf, ihr trifft nicht einfach auf eine Seite ab,
0:05:49–0:05:52
sondern ihr greift auch immer wieder eine andere Partei.
0:05:53–0:05:57
Ihr nehmt eure HörerInnen ernst und helft in der Kummerbox immer wieder mehr
0:05:57–0:05:59
oder weniger verzweifelte Leute.
0:05:59–0:06:03
Heute haben wir wieder mittelverzweifelte Leute. Es ist nämlich dann gerade
0:06:03–0:06:04
Kummerbox live als nächstes.
0:06:04–0:06:08
Ihr findet doch wieder ein neues Thema immer wieder. Ja, das,
0:06:09–0:06:12
Diggi Christ, das erstaunt mich selber, dass ihr das findet.
0:06:14–0:06:16
Eure Themen sind spannend. Du musst sagen, wenn es zu schlimm wird,
0:06:17–0:06:20
wenn wir uns jetzt doch selber zu fest loben.
0:06:21–0:06:26
Also, eure Themen sind spannend, moderiert und wir haben schon mehr als einmal
0:06:26–0:06:30
eine Türe zu einem Thema aufgemacht, von dem ich sonst noch nicht gehört habe.
0:06:30–0:06:34
Und ich finde euch halt einfach sympathisch und, und, und.
0:06:34–0:06:39
Und sie sagt dann aber auch noch, es sei noch gut, wenn wir zu dritt im Studio
0:06:39–0:06:42
sind, das letzte Mal, weil das ist einfach besser und das finde ich auch,
0:06:42–0:06:45
eben ausser heute, wo ich dich mit meinen,
0:06:46–0:06:50
entweder harmlosen oder Killer-Corona-Viren angesteckt hätte.
0:06:50–0:06:54
Also, sie ist schon seit Zeiten vom Digitalk dabei.
0:06:54–0:06:59
Da haben wir jetzt im Fall, weisst du was, in zwei Jahren hat der Digitalk sein
0:06:59–0:07:02
20-jähriges Jubiläum. Das glaube ich fast nicht.
0:07:02–0:07:07
Wir müssen mal schauen, ob wir das verheimlichen oder dann eine spezielle Sendung machen.
0:07:07–0:07:12
Aber ich habe jetzt schon ein bisschen überzogen mit diesem Lob und ich sage
0:07:12–0:07:16
nochmal, danke Pascal. Pascal, das ist sehr lieb von dir und wir hoffen,
0:07:16–0:07:21
dass wir dich auch weiterhin bei den Stangen behalten können. Das fände ich toll.
0:07:21–0:07:25
Freut mich auch. Und jetzt geht's los mit «Kummerbox live». «Alle Fische sind
0:07:25–0:07:29
ein Sieger.» Halt! «Kummerbox live» habe ich doch gesagt.
0:07:29–0:07:43
Music.
0:07:43–0:07:47
Wir machen heute, wie jeden letzten Dienstag des Monats, Kummerbox live.
0:07:48–0:07:52
In dieser Sendung behandeln wir die Computerprobleme, die ihr uns per Mail zugelegt
0:07:52–0:07:55
habt, auf nerdfunk.stadtfilter.ch.
0:07:55–0:08:02
Mit akuten Problemen ruft ihr uns im Studio an, die Nummer ist 052 203 31 00.
0:08:03–0:08:09
Oder ihr schreibt euer Problem ins Gästebuch auf www.stadtfilter.ch.
0:08:09–0:08:14
Und Nick, das ist ein Arbeitskollege von mir, verrate ich jetzt ein Geheimnis.
0:08:14–0:08:17
Aber er fragt nicht für sich selber, sondern für einen Freund.
0:08:17–0:08:19
Das sage ich auch immer, wenn es mir ein bisschen peinlich ist.
0:08:19–0:08:23
Es geht nicht um mich, sondern es geht um einen Freund.
0:08:24–0:08:28
Das ist, glaube ich, sogar in den sozialen Medien ein Running Gag.
0:08:28–0:08:35
Wenn man ein Mail mit dem Absender noreplyatreifeisen.ch erhält,
0:08:35–0:08:40
die einem oder das einem zu etwas auffordert, was irgendwie nicht stimmen kann
0:08:40–0:08:42
und Raiffeisen auf Rückfrage bekannt gibt,
0:08:42–0:08:46
das sei eine Fishing Methode, dann gibt es doch nur einen Schluss,
0:08:46–0:08:51
Raiffeisen wurde gehackt, richtig? Digi Chris, richtig?
0:08:53–0:09:00
Das Zeug ist jetzt halt, also Mails kann man ja relativ einfach faken also ich,
0:09:00–0:09:03
ja, könnte jetzt auch, oder irgendwie Matthias hat,
0:09:04–0:09:09
Auf soundso.ch könnte ich wahrscheinlich eine Mail schicken und je nachdem kommt
0:09:09–0:09:11
es sogar durch den Spam-Filter durch.
0:09:12–0:09:15
Ich muss schnell reingrätschen, es geht nicht mehr so leicht wie früher,
0:09:16–0:09:19
also viele Mail-Server lassen das nicht mehr zu, wenn du zum Beispiel auch eine
0:09:19–0:09:22
andere Domain hast, als die, die du eigentlich hast.
0:09:22–0:09:26
Es ist ein bisschen schwieriger geworden, aber es geht natürlich immer noch,
0:09:26–0:09:28
gerade wenn du ein Fischer bist zum Beispiel.
0:09:28–0:09:32
Ich würde sagen, es ist halt immer, also ich kann zum Ausspielen und irgendwann
0:09:32–0:09:36
wirst du halt wieder merken, wie die Authentifizierung, ich bin jetzt da auch
0:09:36–0:09:41
nicht so tief drin, aber ich glaube zum Beispiel, ja, jetzt auch nochmal das aufnehmen.
0:09:41–0:09:47
Also wenn es jetzt heisst, hallo Herr Müller, Ihr Raiffeisenkonto bla bla bla
0:09:47–0:09:53
ist Ihnen gesperrt und übrigens der Saldo Ihres Kontos beträgt 100 Millionen Franken.
0:09:55–0:10:02
Wenn dann der Name stimmt und die Zahl stimmt, dann ist das schon ein bisschen doof.
0:10:02–0:10:06
Aber in der Regel sind die Mails einfach generell und du merkst das,
0:10:06–0:10:08
es ist keine persönliche Anrede.
0:10:08–0:10:13
Typischerweise haben die Spam-Mails keine persönliche Anrede,
0:10:13–0:10:18
weil man das aus vielen Mailadressen nicht rausziehen kann. Aus anderen natürlich schon.
0:10:18–0:10:23
Aus meiner Geschäfts-Mail-Adresse bleibt eigentlich das Nick heim, wenn ich heisse.
0:10:23–0:10:27
Eben, das variiert dann so ein bisschen. Aber ich würde auch sagen,
0:10:27–0:10:30
wenn man jetzt wirklich genau wissen möchte, woher so ein Mail kommt,
0:10:30–0:10:35
dann kann man immer noch diese Mail-Header anschauen.
0:10:35–0:10:40
Also dort stehen so ein bisschen technische Daten drin. Es hat so verschiedene,
0:10:41–0:10:45
vor allem hat es auch so einen Ablauf drin, wie das Mail verschickt worden ist
0:10:45–0:10:47
und woher das kommt. und z.B.
0:10:47–0:10:52
Auch wie lange es unterwegs herumtrödelt hat. Das ist immer noch spannend.
0:10:53–0:10:56
Man sieht dann, woher es manchmal kommt.
0:10:56–0:11:02
Wenn Fischer nicht geschickt ans Werk gehen, dann sieht man dort sogar noch
0:11:02–0:11:05
den richtigen Absender drin. Das kann durchaus passieren.
0:11:07–0:11:12
Man sieht vor allem auch, woher aus welchem Netzwerk es ursprünglich kommt.
0:11:12–0:11:16
Das kann man natürlich unter Umständen auch manipulieren, Aber das ist dann
0:11:16–0:11:17
schon deutlich schwieriger.
0:11:17–0:11:21
Und wenn man dort sieht, es ist halt irgendwo hergekommen, kannst du vielleicht,
0:11:21–0:11:27
wenn nur eine IP-Adresse drinsteht, dann kannst du diese IP-Adresse noch mit nachschauen.
0:11:27–0:11:33
Dann bekommst du zum Beispiel eine ungefähre geografische Region, woher das Mail kommt.
0:11:33–0:11:38
Und so kannst du es ein bisschen eingrenzen, ob das jetzt wahrscheinlich ist,
0:11:38–0:11:42
dass das aus dem Netzwerk der Reifwiese gekommen wäre.
0:11:42–0:11:47
Dann würde es wahrscheinlich Anzeichen dafür geben. Wahrscheinlich ist das aber irgendwo hergekommen.
0:11:47–0:11:51
Aus Weissrussland, Indien oder den USA.
0:11:51–0:11:53
Das sind auch ganz gute Spammer.
0:11:55–0:11:59
Das kann man machen, wenn man wirklich herausfinden möchte, noch etwas mehr
0:11:59–0:12:02
zu so einem Mail. Ich würde sagen, es ist interessant.
0:12:02–0:12:07
DigiChris kann man sagen, wenn man etwas neugierig ist und wenn man seine Rechercheskills
0:12:07–0:12:11
ein wenig schärfen möchte in diesem Bereich, dann haben wir dann auch noch einen
0:12:11–0:12:16
Link in den Shownotes unter nerdfunk.ch, wie man herausfindet,
0:12:16–0:12:19
wie man so Header analysieren kann.
0:12:20–0:12:23
Aber es lohnt sich eigentlich nicht so richtig, das zu machen.
0:12:24–0:12:28
In der Regel ist es relativ klar, wobei es vielleicht auch noch etwas off-topic
0:12:28–0:12:30
ist, was ich so spannend finde.
0:12:31–0:12:36
Man hat ja gehört, dass oftmals kleine Hotels, ob das jetzt irgendwo in der
0:12:36–0:12:39
Toskana, in Piemont oder so ist, gehackt werden.
0:12:39–0:12:43
Und was die halt einfach wollen, die wollen deine Buchungsbestätigung.
0:12:43–0:12:48
Weil wenn es eben sagt, lieber Herr Schüssler, leider ist Ihre Kreditkartenzahlung
0:12:48–0:12:54
für den Aufenthalt in unserem Hotel von bla bla bla bis bla bla bla fehlgeschlagen.
0:12:54–0:12:58
Bitte überweisen Sie uns das sofort und dann würden wir uns mal schauen.
0:12:58–0:13:03
Also ja, so heiss ist du. Ja, in dem Hotel hast du gebucht und das Datum stimmt.
0:13:03–0:13:09
Und dass dann vielleicht auf den Link klickst, ist die Wahrscheinlichkeit höher.
0:13:09–0:13:14
Und ja, die haben teilweise auch wahrscheinlich jetzt nicht so ein grosses IT-Budget
0:13:14–0:13:19
und dann macht vielleicht die Putzfrau, du Server, also ist nicht böse gemeint, aber...
0:13:19–0:13:24
Nein, die Putzfrauen, die haben super IT-Skills, das würde man jetzt noch gesagt haben.
0:13:24–0:13:28
Also grundsätzlich, ja, eben wenn ihr das Mail überkommt und.
0:13:29–0:13:33
Ich hätte eigentlich schon länger keine Phishing-Mails mehr überkommt und eben,
0:13:33–0:13:37
wie es jetzt mittlerweile mit der Rechtschreibung steht, wahrscheinlich zu Zeiten
0:13:37–0:13:41
von Chat-GPT, ist es auch etwas besser geworden? Es wird...
0:13:41–0:13:47
Gesundheit. Entschuldigung, Jan. Es wird immer schwieriger, das zu merken,
0:13:47–0:13:53
obwohl für das, dass wir die K.I. haben, sind viele von diesen Maschen immer noch recht plump.
0:13:54–0:13:59
Aber ja, es gibt raffiniertere Methoden. Und es gibt ja nicht nur das Fishing,
0:14:00–0:14:01
sondern das Spearfishing.
0:14:01–0:14:06
Und das sind dann so auf Personenmass geschneiderte Attacken.
0:14:07–0:14:10
Und die könnten natürlich recht clever sein. und
0:14:10–0:14:17
darum ist es wirklich dann schwierig sich dem entziehen und darum also das werden
0:14:17–0:14:21
sie in der allermeisten fälle die betrüger nicht machen bei dir und mir sage
0:14:21–0:14:27
jetzt aber so wie hoch karte opfer wo sie dann jetzt holen geht und das muss
0:14:27–0:14:29
man dann schon sehr vorsichtig sie und dann,
0:14:30–0:14:34
glaube ich ist wirklich immer so einen guten tipp wenn man sich nicht sicher
0:14:34–0:14:40
ist dann halt einfach auf einem anderen Kanal nachfragen oder selber diese E-Mail-Adresse,
0:14:40–0:14:45
recherchieren und dann mal nachfragen, du, habt ihr jetzt da wirklich etwas von mir gewählt?
0:14:45–0:14:49
Er hat ja das offenbar gemacht, auch bei den Reifis und die haben ihm gesagt, es sei Fishing.
0:14:49–0:14:52
Wenn sie jetzt tatsächlich gehackt worden wären, dann.
0:14:54–0:14:59
Hätte es das vermutlich nicht so offenherzig zugegeben, aber ich würde sagen,
0:14:59–0:15:04
die Wahrscheinlichkeit ist auch einfach viel, viel grösser, dass dass das wirklich
0:15:04–0:15:07
ein klassisches Phishing-Mail ist, wie der wirklich,
0:15:08–0:15:12
gezielte Hack, der da aus dem Netzwerk, also dass die Mails wirklich aus dem
0:15:12–0:15:14
Netzwerk der Reifwiese gekommen sind.
0:15:14–0:15:17
Und das andere ist auch eben, das kann es ja auch via Telefon geben,
0:15:17–0:15:22
also ich habe auch bei uns im Fall gehört, im Büro, also es ist eben ein grosser
0:15:22–0:15:27
Konzern, da hat jemand und die Nummer hat gestimmt von unserem Group-CEO,
0:15:28–0:15:32
einen Anruf bekommen und es ist irgendein, wie sagen wir, ein Geschäftsführer
0:15:32–0:15:34
von einer niederlassig gewesen.
0:15:34–0:15:36
Also ich sage jetzt immer, wie sagen wir, ähm.
0:15:38–0:15:42
Im Osten. Jetzt war einfach das Problem, der hat den General Manager gekannt
0:15:42–0:15:43
und der spricht perfekt Deutsch.
0:15:44–0:15:48
Und wenn dann der General Manager dich kennt, irgendwie in einem ganz komischen
0:15:48–0:15:53
Englisch anfangen zu sprechen, ist wahrscheinlich irgendwas nicht so gut.
0:15:53–0:15:57
Und der hat dich dann sofort abgehängt, hat dich sofort IT informiert und klar,
0:15:57–0:15:59
so eine Nummer kannst du faken.
0:15:59–0:16:02
Und der hat jetzt halt wahrscheinlich sich die Mühe gemacht,
0:16:02–0:16:06
die Nummer von unserem General Manager herauszufinden. Die steht jetzt auch
0:16:06–0:16:09
nicht überall im Netz, die finden wir wahrscheinlich schon draussen,
0:16:09–0:16:11
wenn man ein wenig drinnen ist.
0:16:11–0:16:14
Hat halt die andere Nummer herausgefunden, aber eben halt einfach geschnellt,
0:16:14–0:16:17
ja, die können beide Deutsch und die sprechen miteinander halt,
0:16:17–0:16:19
ich glaube sogar Schweizerdeutsch.
0:16:19–0:16:21
Also ja, blöd gelaufen, aber ja.
0:16:22–0:16:27
Aber es ist eben schon so, dass wir alle eine breite Datenspur hinterlassen,
0:16:27–0:16:29
wo wir uns nicht so bewusst sind.
0:16:29–0:16:34
Und wenn jemand diese wirklich gezielt ausnutzen will, dann findet er da schon
0:16:34–0:16:38
auch Mittel und Wege, um so Angriffe authentisch zu machen.
0:16:38–0:16:41
Also das muss man sich schon bewusst sein. Eben da haben wir den Vorteil,
0:16:41–0:16:44
dass die meisten von uns zu wenig interessant sind als Opfer.
0:16:45–0:16:50
Aber es könnte ja sein, dass irgendjemand gehört hat, dass ihr zuhause 15 Bitcoins
0:16:50–0:16:56
noch auf der Höhe gekannt habt und dann seid ihr vielleicht plötzlich ein attraktiveres Ziel.
0:16:57–0:17:04
Werner fragt, weisst du, was diese Zahlen auf dem Mac sollen und vor allem, wie man sie entfernt?
0:17:04–0:17:08
Und dann hat er einen Screenshot zugeschickt, den ihr im Radio und du,
0:17:08–0:17:10
Stigli, Chris, du siehst ihn auch nicht.
0:17:10–0:17:15
Da sieht man einfach, dass es so ein Menü ist von einem Mac,
0:17:15–0:17:18
also irgendeinem beliebigen Programm hat es ein Menü.
0:17:18–0:17:23
Und das hat dort so Nummern von diesen Menüeinträgen. Und dann wollte er wissen,
0:17:23–0:17:27
woher auf einmal diese komischen Nummern mit diesen Nummern kommen.
0:17:29–0:17:32
Wenn ich den Screenshot jetzt noch gesehen hätte, hätte ich echt keine Ahnung.
0:17:35–0:17:39
Genau, also keine Ahnung, ich habe es ehrlich gesagt auch nicht auf den ersten
0:17:39–0:17:43
Blick gekannt, aber ich habe es dann angeschaut und ich habe dann gesehen,
0:17:44–0:17:46
es gibt natürlich auch bei Mac,
0:17:46–0:17:50
unter Windows sind die noch ein bisschen ausgeklügelter, also die Bedienungshilfe,
0:17:50–0:17:56
dass man den Mac eben nicht nur mit Maus bedienen kann, sondern auch rein mit der Tastatur.
0:17:57–0:18:04
Dann gibt es eine Abkürzung, um Menüpunkte über Nummern auszuwählen und die kannst du einblenden.
0:18:05–0:18:11
Ich glaube, es ist sogar die Sprachsteuerung, die man mit der Bedienungshilfe
0:18:11–0:18:12
findet, wenn man die abschaltet.
0:18:12–0:18:15
Vielleicht kann man dann eben Sprachsteuerung, das ist jetzt nicht unbedingt
0:18:15–0:18:19
mit der Tastatur, aber man kann sagen, sagen, machen wir den Menüpunkt 5 und
0:18:19–0:18:23
dann macht er den, oder das nicht musst du sagen, aber, aber,
0:18:23–0:18:24
aber, und jetzt der Menüpunkt.
0:18:24–0:18:28
So stelle ich es mir vor, ich habe das noch nie ausprobiert.
0:18:28–0:18:32
Dann der Beate sagt, ich habe eine kurze Frage hinsichtlich eines etwas älteren
0:18:32–0:18:35
Videos zum Thema Passwort Manager.
0:18:35–0:18:38
Der Beitrag stammt auch von 2019.
0:18:39–0:18:44
Ui, der hat wirklich, finde ich, erstaunt, dass manchmal meine uralten Videos noch geschaut werden.
0:18:45–0:18:48
Und eben, hier Hier stellen Sie zwei gängige Passwortmanager vor,
0:18:49–0:18:52
einerseits OnePassword, einerseits KeyPass.
0:18:52–0:18:56
Nun ist meine Frage, ob man beispielsweise von einem externen Gerät,
0:18:56–0:18:59
nicht mal unbedingt sein eigenes, zum Beispiel vom Geschäftsnotebook,
0:18:59–0:19:04
auf diese Passwörter in OnePassword via Web-Applikation zugreifen kann.
0:19:04–0:19:09
Werden diese über eine Cloud synchronisiert? Wenn ich recht verstanden habe,
0:19:09–0:19:14
haben Sie das Problem via Dropbox, Passdrop im letzten Fall gelöst.
0:19:14–0:19:20
Also, und das ist ja eigentlich naheliegend, einerseits wäre es vielleicht praktisch,
0:19:20–0:19:23
wenn man das könnte, über Cloud auf die Passwörter zugreifen,
0:19:23–0:19:27
andererseits möchte man es ja vielleicht vermeiden, weil dann auch über die
0:19:27–0:19:31
Cloud könnten die Passwörter gestohlen werden. Was sagst du, Beat?
0:19:32–0:19:38
Also es kommt darauf an. Wichtig ist, dass du bei Key Pass, One Password oder
0:19:38–0:19:42
wie diese Dinger heissen, hast du irgendein File, wo die Passwörter drin sind.
0:19:43–0:19:46
Da gehen wir jetzt mal davon aus, dass das sicher ist. Und in der Regel hast
0:19:46–0:19:53
du deine Key Phrase, wie heisst die, Pass Phrase? Pass Phrase, genau.
0:19:54–0:19:58
Statt einem Passwort einen ganzen Satz, der etwas länger wird.
0:19:59–0:20:04
Optimalerweise 30 Zeichen ist jetzt zum Beispiel bei uns im Geschäft ist halt
0:20:04–0:20:05
Dropbox ein No, No, No, No, No.
0:20:06–0:20:08
Also ist eigentlich gesperrt. Darf man nicht.
0:20:08–0:20:12
Aber wenn du das jetzt natürlich irgendwo auf eine eigene Cloud bringst,
0:20:12–0:20:15
das Keypass-File, geht das grundsätzlich schon.
0:20:16–0:20:19
Jetzt halt eben OnePassWord, den ich zwar nicht benutze, ja,
0:20:19–0:20:23
das kommt mit meiner eigenen Cloud, die du halt, ich sage jetzt pro Monat 4,
0:20:23–0:20:26
5, ich weiss gar nicht wie viel Euro abdruckst.
0:20:28–0:20:33
Genau, genau. Normalerweise ist die Cloud nicht mit dabei, sondern die kann
0:20:33–0:20:34
man sich selber einrichten.
0:20:35–0:20:39
Man kann Dropbox nehmen, OneDrive nehmen,
0:20:39–0:20:44
iCloud Drive brauche ich im Moment und dann hofft man tatsächlich,
0:20:44–0:20:50
dass erstens niemand in die iCloud einbricht und zweitens, wenn das passieren
0:20:50–0:20:53
würde, dass trotzdem die Datei sicher wäre und drittens,
0:20:53–0:21:00
dass man keinen Keylogger irgendwo drauf hat, wo jemand den Hauptschlüssel,
0:21:00–0:21:02
die Bass-Phrase, die du erwähnt hast,
0:21:02–0:21:04
abgreifen könnte. Ich hatte ja tatsächlich mal so einen Fall.
0:21:06–0:21:10
Wir haben nicht genau herausgefunden, wie der Hack passiert ist,
0:21:10–0:21:12
aber die Vermutung liegt auf der Hand,
0:21:12–0:21:18
dass irgendeine finstere Gestalt es tatsächlich geschafft hat,
0:21:18–0:21:22
einerseits in das OneDrive einzubrechen und andererseits über den Keylogger
0:21:22–0:21:24
an die Bass-Phrase zu kommen.
0:21:24–0:21:31
Und der musste dann in einer Heidebütze hunderte von Passwörtern manuell abändern.
0:21:31–0:21:33
Das ist wirklich keine Freude.
0:21:33–0:21:38
Aber standardmässig machen das die meisten dieser Dienste nicht.
0:21:39–0:21:42
Keypass gibt es nicht, da muss man es wirklich selber machen.
0:21:42–0:21:48
Bei OnePassword ist es tatsächlich so, da gibt es entweder die Standalone Apps,
0:21:49–0:21:54
wenn man dort die Lizenz hat, dann gibt es das nicht.
0:21:54–0:21:59
Wenn man aber ein Abo hat für Teams oder für Families, dann kann es tatsächlich
0:21:59–0:22:01
eine Online-Anmeldung geben.
0:22:01–0:22:09
Dann werden diese Daten bei One Password gehostet und sind dann dort über drei Computer zugänglich.
0:22:09–0:22:13
Das müsste aber explizit dann auch so angeboten werden.
0:22:14–0:22:18
Und wenn ich das so nutzen würde, dann würde ich aber wirklich auch auf diese
0:22:18–0:22:21
Zwei-Faktor-Authentifizierung bestehen.
0:22:22–0:22:26
Genau, und ich glaube, bei OnePassword, ich benutze es selber nicht,
0:22:26–0:22:30
kannst du sogar sagen, wenn du es mit der Familie hast, meine Frau darf mein
0:22:30–0:22:33
Facebook-Passwort haben, ich glaube, es geht so weit,
0:22:34–0:22:37
wenn ich mich zwei Wochen nicht melde, also hoffentlich nicht,
0:22:37–0:22:38
wenn es dir mal etwas gibt,
0:22:38–0:22:43
dann kommt das Passwort hin, es gibt dort wahrscheinlich auch noch die,
0:22:43–0:22:47
wie nennt man die, die Fido2-Tokens, also das kann praktisch sein,
0:22:48–0:22:49
dass du deinen Schlüssel anhängst.
0:22:50–0:22:54
Dann ist es aufgesperrt und ohne das kommst du halt nicht hin.
0:22:55–0:23:00
Wie gesagt, was ich auch immer sage bei Passwortmanagern, vielleicht fürs Onlinebanking
0:23:00–0:23:03
nicht gerade das richtige Passwort hinein tun, sondern einfach etwas,
0:23:03–0:23:06
wo zumindest du, das kannst du dich erinnern und vielleicht nicht,
0:23:07–0:23:08
wie heisst der Mädchen mit dem Namen meiner Mutter.
0:23:13–0:23:15
Ja, du nimmst zwei, drei Buchstaben Passwort und in der Regel,
0:23:16–0:23:19
wenn du es mal vergisst, kommst du vielleicht noch an, aber ich glaube eben
0:23:19–0:23:24
auch so Passwort-Benetzer wäre ein Thema für eine eigene Sendung.
0:23:24–0:23:29
Ich glaube, ich würde wirklich so einen Dienst, der das via Cloud zugänglich
0:23:29–0:23:34
macht, würde ich nur aus zwingenden Gründen nutzen und nicht einfach so mit
0:23:34–0:23:38
der Überlegung, dass es vielleicht irgendwann einmal noch praktisch sein könnte.
0:23:38–0:23:45
Dann doch lieber, dass einfach über den auf dem iPhone oder also auf dem Telefon drauf haben,
0:23:45–0:23:50
über eine eigene Cloud oder die wichtigsten Passwörter einfach nur,
0:23:50–0:23:53
dann vielleicht sogar manuell synchronisieren,
0:23:53–0:23:57
das geht ja auch immer noch, dass man die Passwortdatei manuell überschiebt
0:23:57–0:24:01
und dann in der Cloud wieder löscht, dann sind dort einfach nur die wichtigsten
0:24:01–0:24:04
drin und dann kannst du unterwegs und wirklich mal so ein Passwort brauchst.
0:24:05–0:24:06
Dann über das Handy zugreifen.
0:24:06–0:24:11
Das wäre schon deutlich sicherer und genau, also diese Sicherheitsfragen,
0:24:11–0:24:14
ich glaube, die gibt es auch so in den sozialen Medien,
0:24:14–0:24:19
gibt es dann ja auch immer so diese lustigen Memes, die dann irgendwie so probieren,
0:24:19–0:24:24
die Antworten auf solche Sicherheitsfragen abzugreifen, oder?
0:24:24–0:24:30
Das heisst dann wetten, dass deine Mutter nicht Amelie heisst und dann schreiben dann alle,
0:24:30–0:24:38
die sie Amelie heisst, das und dann kannst du probieren herauszufinden,
0:24:38–0:24:44
wo sich die Leute mit ihrem Passwort, wo sie dann vielleicht auch noch auf Facebook
0:24:44–0:24:48
so geschrieben haben, dass man dann benutzt hat,
0:24:48–0:24:51
dass man dann das Konto zurücksetzen kann.
0:24:51–0:24:55
Also ja, da wird vieles probiert und darum müssen wir einfach vorsichtig sein
0:24:55–0:24:58
Dines schreibt, und es geht wieder nochmal so ein bisschen um eine Cloud,
0:24:58–0:25:01
die hat mich schon mehrfach gefragt, ich bin gar nicht sicher ob wir sie schon
0:25:01–0:25:02
mal in der Sendung hatten,
0:25:03–0:25:07
dass sie eigentlich gerne eine private Cloud,
0:25:08–0:25:11
einrichten möchte, sie hat dann mit verschiedenen Methoden,
0:25:12–0:25:16
experimentiert, am Schluss so mit Infomaniac mit Nextcloud.
0:25:17–0:25:21
Und ist dann aber eigentlich glaube ich trotzdem kein Happy End gewesen weil
0:25:21–0:25:25
irgendwie hat es dann einen Fehler gegeben und sie ist nicht mehr daraus gekommen,
0:25:25–0:25:27
wo sie da mit dem Support zugekommen hat.
0:25:28–0:25:33
Das ist schon, Nextcloud DigiCruise ist super, aber so richtig Pflegelicht für
0:25:33–0:25:36
Leute, die sich jetzt nicht hauptberuflich damit beschäftigen,
0:25:36–0:25:37
ist sie schon nicht, oder?
0:25:37–0:25:42
Also was ich spannend finde, ich gehe das eben in die Familie und wenn du eben
0:25:42–0:25:45
das Nextcloud musst updaten, den Client,
0:25:45–0:25:50
ist er relativ aggressiv unter Windows und er will dann auch immer einen kompletten
0:25:50–0:25:55
Reboot und eben Dropbox und so, das aktualisiert sich einfach und du musst,
0:25:55–0:25:57
glaube ich, auch explizit sagen,
0:25:57–0:26:02
eben das Selective-Sync, das bedeutet, wenn du jetzt 3 Terabyte,
0:26:03–0:26:06
von deiner Weltreise überlatschst.
0:26:08–0:26:13
Ja, Viertel, weiß ich noch was, wenn du einmal 3 Monate um die Welt.
0:26:14–0:26:18
Ziehst, du musst Du musst mir dann explizit sagen, hey, du kannst irgendwo sagen,
0:26:18–0:26:22
dass er genug Platzhalter herunterlässt, aber auch ich musste dann irgendwie
0:26:22–0:26:25
lange suchen, dass ich das gefunden habe.
0:26:25–0:26:30
Genau, und ich hatte auch so meine Mühe, als ich das dann mal aktualisiert habe,
0:26:30–0:26:34
ist es mir dann auch mal gestorben. Also das ist wirklich ein bisschen schwierig.
0:26:35–0:26:38
Ich glaube, eine private Cloud,
0:26:38–0:26:41
da hätten diese Dienstleister immer noch ein riesiges Potenzial,
0:26:41–0:26:44
das noch ein bisschen komfortabler zu machen für die Leute,
0:26:45–0:26:49
die das gerne hätten und auch wären bereit dafür zu zahlen, weil sie nicht zu
0:26:49–0:26:53
Microsoft oder zu Dropbox oder zu Google oder so.
0:26:53–0:26:59
Aber es ist immer noch entweder der praktische Weg,
0:27:00–0:27:06
unkompliziert, irgend zu einem grossen Dienstleister oder dann halt der etwas
0:27:06–0:27:10
dornigere Weg, wo du es selber betreiben musst und selber dafür verantwortlich bist.
0:27:10–0:27:13
Und sie hat jetzt eben, weil sie die Schnauze voll hat, hat sie noch die Idee
0:27:13–0:27:17
gehabt, sie könnte es sich ja einfach machen und eine externe Festplatte nehmen
0:27:17–0:27:22
und dann will sie die die aber dann trotzdem Passworte schützen für den Fall,
0:27:22–0:27:24
dass sie sie mal verliert irgendwo.
0:27:24–0:27:30
Und dann hat sie jetzt dummerweise, jetzt kommen wir zu der unangenehmen Stelle
0:27:30–0:27:33
in dieser Frage, sie braucht die Festplatte mit,
0:27:33–0:27:39
Mac und Windows. Ich hätte jetzt eben zuerst, als ich externe Festplatten gelesen
0:27:39–0:27:42
habe, gesagt, ja, Bitlocker unter Windows. Genau.
0:27:43–0:27:46
Aber ja, und TrueCrypt gibt es ja auch nicht mehr, aber ich glaube,
0:27:46–0:27:48
der Nachfolger nennt sich Veracrypt.
0:27:48–0:27:52
Das ist auch so eine Open-Source-Lösung, wo es eigentlich für Mac,
0:27:52–0:27:54
Windows, Linux, whatever gibt. Genau.
0:27:54–0:27:57
Da würdest du einfach so einen sogenannten Container machen.
0:27:57–0:28:01
Man kann übrigens auch wenn mal er es macht, macht sie es jetzt nicht,
0:28:01–0:28:04
aber wenn jetzt halt mal irgendwie wie die Schmier kommt,
0:28:04–0:28:09
hast du zwei Passwörter und du hast zwei Container, also du hast irgendwie ein Passwort, wo du halt.
0:28:10–0:28:15
Also nein, nochmal, Ines, ich unterstelle dir nichts, aber es könnte ja Hörer
0:28:15–0:28:20
geben, das interessiert, dass dann halt je nachdem zwei Container aufgehen.
0:28:20–0:28:24
Genau, man kann das beliebig verschachteln, so Matroschka-mässig,
0:28:24–0:28:26
dass du immer tiefer gehst.
0:28:26–0:28:30
Ich muss jetzt sagen, ich habe Vera Crypt schon lange nicht mehr probiert,
0:28:30–0:28:33
also ich habe auch schon mal irgendwie externe Medien, die ich halt unter Windows,
0:28:34–0:28:36
mit Bitlocker verschlüsselt habe.
0:28:36–0:28:39
Ich nehme an, das ist, kann man auch sagen, ist sicher, ja.
0:28:40–0:28:44
Ich hoffe es. Ich habe auch meine externe Windows-Festplatte,
0:28:44–0:28:48
da brauche ich das Bitlocker, das ist bei Windows dabei.
0:28:48–0:28:53
Es ist eben ein bisschen dumm, dass man zum Verschlüsseln braucht das Windows
0:28:53–0:28:54
Pro Professional Version,
0:28:55–0:28:59
aber wenn ihr einen kennt, der das hat, dann könnt ihr die Festplatte einrichten,
0:28:59–0:29:03
verschlüsselt und nachher könnt ihr sie auch brauchen an eurem Windows ohne,
0:29:04–0:29:07
ohne, mit dem normalen, mit dem Windows Home. Das ist noch das Praktische dran.
0:29:08–0:29:12
Oder eben das VeraCrypt, das ist Open Source, das ist kostenlos.
0:29:12–0:29:16
Das unter Vera, also Webfrau, und dann Crypt, die.
0:29:19–0:29:23
Katholiken müssten das wissen, wenn die Gruft dort heisst.
0:29:24–0:29:29
.fr, das ist ein französisches Ding. Und das würde ich auch zuerst ausprobieren.
0:29:29–0:29:34
Dann gibt es noch etwas Zweitens gibt es den BitLocker für Mac,
0:29:34–0:29:39
einen Treiber, der es erlaubt, dass man auf den Mac auf die Laufwerke zugreifen
0:29:39–0:29:43
kann, die man mit Microsoft, BitLocker und Windows verschlüsselt hat.
0:29:43–0:29:48
Die heisst iBoysoft.com, dort gibt es den BitLocker für Mac.
0:29:48–0:29:53
Ist aber für mich jetzt eher schwierig.
0:29:53–0:29:57
Ich würde aufpassen, weil tatsächlich wenn mal irgendwas passiert,
0:29:57–0:30:01
ich kann auch sagen, ich habe es auch mal geschafft zum Glück auf einem Test Laptop,
0:30:02–0:30:06
Da ist auch Windows 10 gelaufen, da hatte ich auch den BitLocker drauf und ich
0:30:06–0:30:09
habe mal aus Dummheit den Secure Boot abgestellt.
0:30:09–0:30:13
Und Achtung, was dann passiert, dann rührt der BitLocker die Schlüssel weg.
0:30:13–0:30:17
Dann musst du deinen Recovery Schlüssel eingeben.
0:30:17–0:30:21
Den, den du einmal ausgedruckt hast vielleicht. Den, den du ausgedruckt hast, ja.
0:30:21–0:30:27
Ja, also, einfach würde ich jetzt aufpassen und einfach ja, ich kenne die Hersteller
0:30:27–0:30:31
nicht, aber halt, es kann ja sein, dass Microsoft das unterstützt,
0:30:31–0:30:33
aber irgendwann sagen sie halt, wenn Minus 12 kommt, nee, nee,
0:30:33–0:30:35
nee, nee, das wollen wir nicht mehr.
0:30:35–0:30:39
Und eben im blödsten Fall rührt der Schlüssel weg und du kommst nicht mehr hin.
0:30:39–0:30:44
Und ja, deine Bitlockerplatte kann dir vielleicht den NSC aufmachen,
0:30:44–0:30:50
aber ich glaube jetzt nicht, dass dir der NSC als Privater das überhaupt überhaupt machen würde.
0:30:50–0:30:52
Das wäre mal ein lustiges Projekt, wenn du sagst.
0:30:53–0:30:58
Wahrscheinlich müsstest du so etwas haben, das im nationalen Interesse wäre,
0:30:58–0:31:01
aber ob sie es dann probieren würden, das würde mich noch wundern.
0:31:01–0:31:05
Also genau, das stimmt. Wir sagen ja sowieso immer,
0:31:06–0:31:11
Sachen nie nur auf einem externen Laufwerk haben, weil das externe Laufwerk
0:31:11–0:31:16
kann einfach runterfallen und dann ist es egal, wenn die Verschlüsselung noch funktionieren würde.
0:31:16–0:31:21
Wenn die Hardware kaputt ist oder eben so Sticks, die kann man auch natürlich,
0:31:21–0:31:24
USB-Sticks, die kann man auch so verschlüsseln auf die Art und Weise,
0:31:24–0:31:30
ist praktisch aber wenn man sie verliert und dann seine Diplomarbeit oder seine
0:31:30–0:31:34
Doktorarbeit nur auf dem, oder seinen Romanentwurf oder so,
0:31:34–0:31:40
wo nur noch der letzte Satz vom letzten Kapitel gefehlt hat wenn man dann das
0:31:40–0:31:43
verloren hat, dann ist einfach Mist, oder?
0:31:43–0:31:47
Und darum um irgendeine Synchronisierung einrichten zu können,
0:31:47–0:31:51
die dann die Dateien hin und her schiebt, damit man sie auch noch lokal hat.
0:31:52–0:31:56
Und eben auch der Klassiker, es gibt ja dieses Ding, wenn ihr jetzt so eine
0:31:56–0:32:02
Backup-Platte habt, irgendwie Eltern, Schwiegereltern, Freundinnen und so, ja, jetzt.
0:32:03–0:32:06
Es ist wahrscheinlich schon genug tragisch, wenn die Wohnung abbrennt,
0:32:06–0:32:10
aber wenn es tatsächlich vielleicht noch deine Diplomarbeit auch noch drauf
0:32:10–0:32:13
ist, wo du drei Jahre daran geschafft hast, ist es noch blöder.
0:32:13–0:32:15
Also ich glaube, das müsste man auch mal eine Sendung machen,
0:32:15–0:32:18
wirklich so mit Backup und eben Offsite und wo.
0:32:19–0:32:22
Und ja, wie gesagt, es muss ja nicht gerade das Bankschleusfach sein,
0:32:22–0:32:25
aber jetzt vielleicht bei den Eltern, bei den Schwestern irgendwo sagen,
0:32:25–0:32:29
du, schau dir das irgendwie an einen sicheren Ort, vielleicht nicht gerade in
0:32:29–0:32:30
den Kühlschrank hinein oder so.
0:32:31–0:32:35
Das habe ich schon mal gehört, dass jemand das Backup im Kühlschrank aufbewahrt hat.
0:32:36–0:32:40
Hat es nicht mal geheiss, dass USB-Sticks länger im Kühlschrank sind?
0:32:41–0:32:45
Irgend so was. Also bei den CDs hat es auf jeden Fall, erinnere ich mich,
0:32:45–0:32:47
dass Leute das bei den CDs auch gerne gemacht haben.
0:32:48–0:32:51
Aber ich glaube es nicht, dass man so weit gehen muss.
0:32:52–0:32:57
Lieber an verschiedenen Orten und dann ist man da sicher.
0:32:57–0:33:03
Ich glaube, so empfehlen wir das. und Kummerbox live kommt dann wieder am Ende des Monats.
0:33:03–0:33:10
Wir sind ja heute eine Woche zu spät dran und wie immer eure Fragen auf nerdfunk.stadtfilter.ch
0:33:10–0:33:12
und jetzt einen schönen Abend. Gute Nacht miteinander.
0:33:14–0:33:27
Music.

Eine seltsame Nummer hat Nick mit seiner Hausbank erlebt: Die schickt ihm Mails, in denen er zu dubiosen Handlungen aufgefordert wird. Die Bank behauptet aber, es sei bloss ein Phishing-Mail. Hat sie etwas zu verbergen?

Seltsame Nummern im wörtlichen Sinn hat Werner auf seinem Bildschirm: In den Menüs seines Macs erscheinen nämlich plötzlich Zahlen, die er dort nicht haben will. Wie wird er sie wieder los?

In der heutigen Folge von Kummerbox Live gibt es für uns noch weitere Mysterien zu knacken: Können Passwörter auch aus der Cloud geklaut werden, wenn wir einen Passwort-Manager verwenden? Und kann Ines, die endgültig die Schnau… Pardon, die Nase voll von der Cloud hat, eine Festplatte so verschlüsseln, dass sie sich mit Windows und Mac verwenden lässt? Und falls noch Zeit ist, geht es um die einfachste Methode, Windows zu reparieren.
„Mehrere seltsame Nummern“ weiterlesen

Redaktionssitzung, heute live on air

Transkript anzeigen (falls vorhanden)

0:00:03–0:00:09
The Cure mit Wrong Number und wir finden gerade raus, ob wir die richtige oder
0:00:09–0:00:10
die falsche Nummer haben.
0:00:11–0:00:18
Wir vom Nerdfunk. Wir sind BadBait und ihr hört Radio Stadtfilter auf 96,3 Megahertz.
0:00:19–0:00:27
Yeah, also da sind wir wieder mal, alle drei live, richtig, in Farbe und in
0:00:27–0:00:30
Stereo im Studio. neben mir Kevin Rechsteiner. Guten Tag.
0:00:31–0:00:36
Ohne Hühner. Ohne Hühner, ich habe es mitgenommen. Das ist ein bisschen komisch,
0:00:36–0:00:37
aber wir probieren es trotzdem.
0:00:37–0:00:41
Und Digi-Chris ist auch da. Hallo, ohne SRB ist es nicht. Halt. Halt.
0:00:42–0:00:44
Ich habe es falsch. Nein, aber hä?
0:00:45–0:00:52
Aha, schau mal, siehst du. Nach 699 Mal kann ich es immer noch nicht.
0:00:53–0:01:01
Probieren wir es nochmal. Jetzt ist es Also, genau, wir machen kein Geplänkel, oder?
0:01:01–0:01:04
Wir haben nachher unsere grosse Jubiläums-Sauce.
0:01:05–0:01:10
Kann man das so sagen? Das kann man so sagen. Wir sind seit mehr als 15 Jahren
0:01:10–0:01:13
hier und wir sind jetzt zum 700.
0:01:13–0:01:16
Mal hier und wir feiern uns nachher ein bisschen selber.
0:01:17–0:01:22
Nein, wir machen quasi eine Pre-Show auf voller Länge.
0:01:22–0:01:28
Kann man das so sagen? Ich kann mal so sagen, weil ich habe ja zu dieser Jubiläumssendung,
0:01:28–0:01:32
ich sage Stammhörer, die ich weiss, dass sie den Podcast hören,
0:01:33–0:01:37
also es gibt mehr als zwei Leute, die die Radiosendung hören, gefragt,
0:01:37–0:01:41
was findet ihr eigentlich cool und wirklich immer, ja die Pre-Show,
0:01:41–0:01:45
das finden sie so cool und so, das ist einfach unisono cool.
0:01:45–0:01:51
Also dann probieren wir es mal, das mal nur Pre-Show und nichts Ernsthaftes.
0:01:51–0:01:56
Nein, wir wollen ein wenig darüber reden, ob das eigentlich eine Zukunft hat,
0:01:56–0:01:58
was wir hier machen, auch und was wir gut finden.
0:01:58–0:02:03
Und ihr könntet schon mal, ihr könntet euch bereit machen, wenn ihr euch in
0:02:03–0:02:05
diese Sendung einschalten wollt.
0:02:05–0:02:09
Ich mache extra mal das Gästebuch auf, falls ihr es dann findet.
0:02:10–0:02:14
Muss man das aufmachen? Also ich mache es auf, dass ich es sehen würde,
0:02:14–0:02:16
wenn jemand etwas sehen würde.
0:02:16–0:02:19
Das URL ist geocities.com.
0:02:20–0:02:26
Ich hatte tatsächlich mal eine GeoCity-Seite. Ich auch.
0:02:26–0:02:31
Ah, du auch? Und die hat geblinkt und gemacht und da wahrscheinlich 99% des
0:02:31–0:02:32
Contents war mir geklaut.
0:02:33–0:02:36
Also, aha, sicher. Das gehört jetzt, juhu.
0:02:37–0:02:43
Und wem gehört Yahoo? Yahoo ist auch mal gekauft worden, aber das ist ja schon schwierig.
0:02:43–0:02:46
Wie heisst, nicht Techcrunch, oder ist es umgekehrt gewesen?
0:02:48–0:02:51
Sie haben jetzt auf jeden Fall eine Mutter, die so einen komischen Namen hat,
0:02:51–0:02:55
den ich jetzt aber nicht mehr weiss. Alt-Baba. Ah ja, genau. Alt-Baba.
0:02:58–0:03:02
Aber Frau Meier ist glaube ich nicht mehr, oder? Marissa Meier ist glaube ich nicht mehr.
0:03:03–0:03:06
Wer ist das? Das war mal der CEO von Yahoo.
0:03:07–0:03:12
Frau Meier? Ja. Und die war, glaube ich, nicht mal bei Google vorher oder so?
0:03:12–0:03:17
Soll ich mal perplexity fragen? Wer ist Frau Meier bei Yahoo?
0:03:17–0:03:21
Ah, du hast perplexity dabei. Sehr gut. Das ist nicht wie früher,
0:03:22–0:03:25
wo wir selber googlen mussten, wenn wir etwas nicht gewusst haben.
0:03:26–0:03:30
Ich sehe aber, dass es das Gästebuch nicht mehr gibt. Ich sehe es nicht mehr.
0:03:31–0:03:35
Ich sehe es jetzt auf Sendung. Mal das Gästebuch gibt es noch.
0:03:36–0:03:38
Aber wieso sehe ich es dann nicht?
0:03:38–0:03:42
Vielleicht heisst es anders. Es heisst jetzt Gästinnenbuch.
0:03:44–0:03:48
Das ist, wenn du eingeloggt bist. Ah, da auch ganz unten. Wieso ist das jetzt
0:03:48–0:03:51
ganz unten? Dass man auf jeder Seite drauf kommt. Okay.
0:03:52–0:03:55
Wir müssen vielleicht mal eine Sendung über Webdesign machen.
0:03:56–0:04:01
Also, wenn ihr wettet, uns einen Gruß zu kommen, zu unserem Nerdfunk,
0:04:01–0:04:04
zu unserer 700. Ausgabe.
0:04:05–0:04:10
Wenn ihr Kritik üben wollt oder Lob äussern oder einfach uns aufmuntern oder
0:04:10–0:04:16
uns aufmuntern zum Aufhören oder Kritik nicht. Kritik?
0:04:16–0:04:21
Kritik nicht. Du willst keine Kritik? Nein. Wieso? Nein. Okay.
0:04:22–0:04:25
Weisst du nach dem Motto wenn es dir nicht passt, dann geh doch nach Hause.
0:04:26–0:04:31
Nein, einfach heute nicht. Heute keine Kritik. Heute nur Lob und Ruhm und Ehre.
0:04:31–0:04:35
Aha, okay, du hast ja unser Sendungsdokument noch nicht gesehen.
0:04:39–0:04:44
Ich gebe jetzt zu, dass ich tatsächlich das Gefühl hatte, wir könnten uns einfach feiern einmal.
0:04:45–0:04:48
Ich habe ja vorher zum Kino gesehen. Genau, wir sind so extrovertierte Typen.
0:04:49–0:04:54
Dass ich mindestens 700 Mal die Steilsteige darauf gelaufen bin.
0:04:54–0:04:57
In welchem Stock sind wir? Im vierten? Im dritten.
0:04:58–0:05:00
Siehst du, wie lange sind wir da?
0:05:02–0:05:07
Das hat so einen unteren Stock, der wie ein Stock ist, aber der ist unterirdisch.
0:05:08–0:05:11
Man würde dem Keller sagen, aber es ist wie nicht ein Keller,
0:05:11–0:05:15
weil es so einen offenen Eingang hat, um runterzuschauen. Darum haben wir das
0:05:15–0:05:16
Gefühl, es ist vielleicht ein Stock.
0:05:18–0:05:21
Drei. Dann tun wir das auf dreieinhalb einigen. Genau.
0:05:21–0:05:25
Also ihr werdet dann auch sehen, dass es, wie soll ich sagen,
0:05:25–0:05:31
auch mit der Zählung von diesen 700 Ausgaben so gewisse Unstimmigkeiten gibt.
0:05:31–0:05:36
Aber das dann erst in der Hauptsendung. Und ja, also eben, wir wollen einfach,
0:05:37–0:05:40
wir wollen wissen, ich möchte schon wissen, ob das Publikum noch Lust hat,
0:05:40–0:05:45
uns weiterhin zuzulassen oder ob sie finden, hey, jüngere Generation, wie wäre es?
0:05:46–0:05:51
Man muss auch loslassen. Aber das ist vielleicht vorgegriffen.
0:05:51–0:05:55
Also schnell, wenn jetzt jemand jünger ist, kann es so vielleicht auch da.
0:05:56–0:06:02
Wie der Hochschule, wo ich da zwintertouransässig bin, irgendein Journalismus
0:06:02–0:06:08
studiert und mal will bei uns irgendwie ein Praktikum machen, mal irgendwas sagen.
0:06:08–0:06:11
Also gerne. Oder einfach zu einem Journalismus-Thema etwas sagen.
0:06:12–0:06:17
Ich glaube dann, Matthias, mich, Kevin, bist du nicht mehr auf X-Twitter?
0:06:17–0:06:24
Gar nicht aber das Zahlspraktikum würden wir anbieten also ihr zahlt,
0:06:24–0:06:29
ich zahle, dass ich sicher eine Sendung denke wir sind käuflich und dann gibt
0:06:29–0:06:34
es ein Bier vom Drinks of the World oh ja, was hast du mal für ein Drink nein,
0:06:35–0:06:39
was hast du für ein Drink gehabt so ein Lollipop so etwas lustiges das ist glaube
0:06:39–0:06:47
ich so ein Chuba Chups hast zwar keinen Alkohol aber hast einfach eine Zuckervergiftung.
0:06:48–0:06:49
Und bist nachher aggressiv.
0:06:49–0:07:04
Music.
0:07:05–0:07:09
Haben wir jetzt hier deinen Vater gehört, Diggi Chris? Das war mein Vater an den Drums.
0:07:09–0:07:14
Und ich zähle jetzt nicht alle auf. Andi Reinhardt, ein ureingesessener Wintertourer am Bass.
0:07:15–0:07:20
Ja, Bauchnuschtestompers mit Happy Birthdays sind noch etwas länger unterwegs als wir.
0:07:21–0:07:24
Und ja, es ist heute... Okay, wir haben zwar nicht Geburtstag,
0:07:24–0:07:26
aber es war jetzt trotzdem erlaubt.
0:07:26–0:07:29
Es ist heute, glaube ich, die 700. Folge. Plus Minus.
0:07:30–0:07:44
Music.
0:07:35–0:07:40
Herzlich willkommen zum Nerdfunk.
0:08:04–0:08:09
Das machen würden. Wir würden dann als hoffnungslose Zech-Dinosaurier enden,
0:08:09–0:08:11
so als aussterbende Gattin im Zoo.
0:08:11–0:08:16
Vielleicht dürfen wir dann mal aus dem Zoo aus dem Käfig raus.
0:08:16–0:08:20
Das fände ich auf eine Art noch angenehmer, lebensabig.
0:08:20–0:08:24
Also, aber wir sind noch jung. Da ist einer, der jung ist, der Kevin Rechsteiner,
0:08:24–0:08:26
meine Damen und Herren. Der ist auch nicht mehr jung.
0:08:26–0:08:29
Das ist schon lange vorbei mit jung. Das ist schon lange vorbei.
0:08:30–0:08:35
Und Digi Chris ist da im Studio. Das Küken in dieser Runde. Eigentlich schon,
0:08:35–0:08:39
und nicht da sind der Mege, der hat sich entschuldigt, und der Melzi,
0:08:39–0:08:42
den habe ich glaube ich vergessen einzuschalten, hätte man eigentlich machen
0:08:42–0:08:45
können, aber ich muss sagen, wir haben das,
0:08:46–0:08:52
Kevin hat ja schon im Herbst des letzten Jahres gesagt, das Jubiläum kommt auf uns zu.
0:08:53–0:08:55
Da haben wir uns gedacht, das geht noch lange.
0:08:56–0:08:59
Digi-Chris hatte eine super Idee, was wir alles machen könnten.
0:09:00–0:09:02
Und dann hat es niemand geplant.
0:09:02–0:09:07
Und jetzt sind wir hier und haben eigentlich mit leeren Händen stehen wir hier.
0:09:07–0:09:10
Aber wir arbeiten jetzt mit Hochdruck am Jubiläum der 800.
0:09:10–0:09:15
Sendung. Genau, ich habe ja auch gesagt, wir möchten eigentlich mal eine Redaktionssitzung
0:09:15–0:09:17
machen, quasi live on air.
0:09:18–0:09:21
Müsste man das eigentlich, vielleicht müsste man das sogar. Vielleicht müsste
0:09:21–0:09:23
man mal eine... Habe ich mal ein Statut gelassen am Stadtfeld.
0:09:24–0:09:27
Aha, dass man eine Sitzung machen muss, nein. Vielleicht.
0:09:29–0:09:34
Also ich glaube, es gibt gewisse Vorschriften, dass man sich um Ernsthaftigkeit
0:09:34–0:09:36
bemühen müsste in diesen Magazinsendungen.
0:09:36–0:09:39
Aber das machen wir ja auch. Also, nicht.
0:09:41–0:09:45
Also ich sage es nochmal, wenn ihr wollt, könnt ihr euch schreiben über das
0:09:45–0:09:48
Gästebuch bei stadtfilter.ch.
0:09:48–0:09:50
Ich habe es offen, es hat noch niemand geschrieben bis jetzt.
0:09:51–0:09:54
Ich bin ein bisschen enttäuscht, aber gut, ist egal.
0:09:54–0:09:59
Vielleicht ist es besser, wenn ihr nicht schreibt. Vielleicht würdet ihr nur böse Sachen schreiben.
0:09:59–0:10:06
Und ja, genau, wir machen ja sonst nie eine Redaktionssitzung,
0:10:06–0:10:09
aber vielleicht hätte Kevin recht, vielleicht müssten wir das eigentlich.
0:10:09–0:10:16
Aber Diggi Chris, du wolltest eigentlich auch ein wenig in das Lobeshorn eintreten, oder?
0:10:17–0:10:21
Du wolltest sagen, was wir eigentlich gut gemacht haben in diesen 15 Jahren,
0:10:21–0:10:22
in diesen 700 Sendungen.
0:10:22–0:10:25
Also ich bin ja noch so lange dabei, aber ich habe einfach auch mal ein wenig
0:10:25–0:10:28
Leute gefragt, die mir auch auf Twitter.
0:10:29–0:10:34
Was eben so Feedback gibt, was findet ihr gut und es eben unisono ist eigentlich
0:10:34–0:10:37
auch Pre-Show, also was finden Sie?
0:10:38–0:10:40
Das finden Sie echt genial, die können noch viel länger sein,
0:10:40–0:10:42
das finden Sie so lustig.
0:10:43–0:10:46
Ich tue jetzt einfach mal schnell das Positive. Okay, fangen wir mit dem Positiven
0:10:46–0:10:48
an. Zum anderen können wir dann schon.
0:10:48–0:10:54
Dann eben Themenauswahl, es sei doch tatsächlich ausgewogen und halt teilweise
0:10:54–0:11:00
höre ich auch Vision Pro oder so,
0:11:00–0:11:04
vielleicht ein bisschen zu ins Detail geht, ja dann hängt es halt ab.
0:11:05–0:11:06
Ich habe tatsächlich von jemandem,
0:11:07–0:11:10
das ist ein Kompliment, was hat der Matthias eigentlich studiert?
0:11:11–0:11:15
Komm an, weil es ist doch kein Informatiker, der ist so breit abgestützt.
0:11:16–0:11:19
Ja, also ich bin nicht mehr ganz sicher, was hast du studiert?
0:11:19–0:11:20
Soll ich das sagen jetzt?
0:11:20–0:11:24
Ich habe eigentlich, also ich muss sagen, ich bin ein stolzer Studienabbrecher,
0:11:24–0:11:27
weil es ist nicht so, es ist dann nicht so produktiv gewesen,
0:11:27–0:11:32
mein Studium an der Uni Zürich. Aber ich habe also Germanistik studiert.
0:11:33–0:11:39
Es wäre eine Steilvorlage für Legendenbildung gewesen. Du hättest jetzt Medizin
0:11:39–0:11:43
und Psychologie und Astrophysik.
0:11:43–0:11:51
Ich habe tatsächlich in meiner Familie Leute, die Astrophysik studiert haben. Das wäre es gewesen.
0:11:51–0:11:58
Astrophysik und Medizin. Parallel. parallel. Nein, dann wie wäre ich da geändert?
0:11:58–0:12:02
Das wäre irgendwie... Dann hätte man noch müssen, nebst dieser Legende hätte
0:12:02–0:12:06
man müssen sagen, wo ist der Punkt gekommen, dass ich jetzt nicht...
0:12:07–0:12:12
Der erste Astrophysiker bin, der auch medizinische Praxis hat.
0:12:12–0:12:16
Es war dir alles ein bisschen zu einfach, darum hast du den Bettel angekriegt.
0:12:16–0:12:21
Weil die Leute sind alle dumm. Die haben nicht verstanden, was du ihnen sagen
0:12:21–0:12:23
willst. Das wäre die Legende.
0:12:25–0:12:31
Ich glaube, wenn wir vielleicht jetzt gerade mit der Kritik einsteigen könnten,
0:12:31–0:12:34
müsste man vielleicht sagen, ein Kritikpunkt, den wir schon haben könnten,
0:12:34–0:12:38
ist, dass wir unsere Sendung und unseren Podcast null promotet,
0:12:38–0:12:40
oder? Wir machen eigentlich null.
0:12:41–0:12:48
Wir sagen weder vor der Sendung bitte uns... Wie sagen sie das?
0:12:48–0:12:53
In jedem Podcast sagen sie es. Auf eurer Podcast-Plattform, die ihr gerne habt,
0:12:53–0:12:58
lasst uns bitte fünf Sternchen hinterlassen und eine schöne Besprechung schreiben. Abonnieren.
0:12:59–0:13:02
Auf YouTube muss man das Glöckchen drücken.
0:13:04–0:13:08
Das kannst du auf das Body Auf Spotify, wo wir auch sind, kann man uns auch
0:13:08–0:13:10
abonnieren. Kann man Glückli drücken? Ich glaube es schon.
0:13:10–0:13:14
Hat Spotify Glückli? Mich dunkt es. Also das machen wir irgendwie nicht.
0:13:15–0:13:20
Und wir schauen auch wirklich nicht, dass unser Podcast mehr Einschaltquoten bekommt.
0:13:21–0:13:26
Wir promoten selten in den sozialen Medien.
0:13:27–0:13:31
Und ja, dann hast du halt nicht so das Wachstum, oder?
0:13:31–0:13:38
Digi-Chris, müssten wir das machen? Sind wir irgendwie so wegen Bescheidenheit und so sind wir da?
0:13:39–0:13:41
Schaut irgendwer unsere Zahlen überhaupt an?
0:13:42–0:13:48
Ich schaue sie an und finde, sie hat schon ein gewisses Potenzial zum nachlösen.
0:13:48–0:13:50
Ich habe das schon hundert Jahre nicht mehr angeschaut.
0:13:51–0:13:56
Ich glaube, ich habe das mit Twitter so gesehen, wenn ich jetzt wahrscheinlich
0:13:56–0:13:59
einfach würde sagen, jetzt haben wir eine Folge, wo man einfach die ganze Folge
0:13:59–0:14:00
über die Weltwoche hört.
0:14:00–0:14:06
Ich glaube, wir haben 20'000 Zuhörer, gut 19'000. Nein, das merkt doch niemand.
0:14:06–0:14:09
Ich glaube auch nicht, dass das jemand möchte. Das ist ja der Vorteil,
0:14:09–0:14:11
den wir haben. Nein, nein, ich habe es schon gesehen, also wenn ich jetzt auf
0:14:11–0:14:18
Twitter schreibe und oder X, ich habe das eben gehabt, also wenn ich das Blatt negativ.
0:14:20–0:14:24
Kommentiere, also jetzt ohne, ob ihr mir da in dieser Sendung darüber redet,
0:14:24–0:14:29
hey, da habe ich 100, 200 Replies gehabt, wahrscheinlich 150 Bots,
0:14:29–0:14:33
aber hey, auch wenn alles botslos ist, Aber kannst du das nicht einfach so für jede Sendung machen?
0:14:34–0:14:36
Weil dann müssen sie dich ganz durchlassen, um zu schauen, was vorkommt.
0:14:37–0:14:42
Irgendwo in der Sendung werden wir über unsere Köppelherzen find out how.
0:14:43–0:14:45
Genau. Das wäre schon mal was.
0:14:47–0:14:50
Aber es stimmt, wir machen schon zu wenig. Wir machen wahrscheinlich zu wenig.
0:14:50–0:14:55
Jetzt wollte ich noch Zahlen vorlesen und jetzt hat mich mein Computer ausgeloggt
0:14:55–0:14:59
und gesagt, willkommen zurück, Matthias, schliessen Sie den Sperrbildschirm,
0:14:59–0:15:03
um sich wieder bei Windows anzumelden. Was ist denn das für ein Scheiss?
0:15:03–0:15:06
Das habe ich jetzt also noch nie... Was ist schliessen Sie den Sperrbildschirm?
0:15:07–0:15:09
Und ich kann machen, was ich glaube, Ich glaube, jetzt ist er wahrscheinlich
0:15:09–0:15:10
gerade abgestürzt, dieser Computer.
0:15:11–0:15:15
Also, ich wollte sagen, dass ich es vielleicht aus dem Gedächtnis rezitieren kann.
0:15:16–0:15:20
Weil wir haben, es ist ja, mit diesen 700 ist schon einmal die Frage,
0:15:20–0:15:22
ob es überhaupt wirklich 700 Folgen sind.
0:15:22–0:15:25
Da sind wir uns schon nicht ganz einig gewesen. Ich habe dann nachgezählt.
0:15:27–0:15:31
Wir haben eigentlich, ich habe gar keine, nicht 700 Dateien gefunden,
0:15:31–0:15:35
aber ich glaube, es rührt da daher und es ist vielleicht nicht ganz bescheissen,
0:15:35–0:15:41
dass wir früher ab und zu so Doppelsendungen gemacht haben und Trippelsendungen,
0:15:42–0:15:49
wo wir dann im Podcast haben wir sie auf einen Schnall rausgehauen und im Radio
0:15:49–0:15:54
haben wir es dann gespielt in mehreren Teilen und dann ist es wahrscheinlich trotzdem.
0:15:55–0:15:57
Aber wie gesagt, ihr könnt eigentlich
0:15:57–0:16:01
alle Folgen hören, ausser die eine einzige, die wir verloren haben.
0:16:01–0:16:03
Nämlich das Digital 191.
0:16:03–0:16:08
Da hast du, Kevin, über Crowdfunding geredet. Und die gibt es nicht mehr.
0:16:09–0:16:10
Die verschollene ist eigentlich... Das ist die einzige?
0:16:11–0:16:13
Schau mal, jetzt hat sich mehrere
0:16:13–0:16:17
Sachen, die sich da überlagern auf dem Bildschirm. Es wird immer besser.
0:16:17–0:16:25
Das ist so nicht so. Ich hasse das Windows. Aber genau, wir wollten eine ernsthafte Sendung machen.
0:16:25–0:16:30
Das, äh, ja, das ist... Weil es ist die meiste gelost. Aha.
0:16:31–0:16:36
Ja, ich würde sagen, es ist wirklich einfach, sie haben alle etwa ähnlich viel
0:16:36–0:16:37
Einschaltquote. Gar nicht.
0:16:38–0:16:43
Gar nicht? Okay. Gar nicht. Du bist bei den Zahlen, also erzähl doch ein bisschen von den Zahlen.
0:16:43–0:16:50
Also, am 2. Juni 2020 gab es eine Sendung, die heisst «Hypochonder geh weg».
0:16:51–0:16:57
Tatsächlich? 4'300 Plays. Sicher, das ist ja wahnsinnig für unsere Verhältnisse.
0:16:58–0:17:00
Ich weiss nicht mehr, worum das
0:17:00–0:17:05
ging. Ich auch nicht. Haben wir einen Gast gehabt? Das könnte was sein.
0:17:06–0:17:11
Ich kann es nicht sagen. Ich glaube du hattest doch mal irgendeine Bloggerin
0:17:11–0:17:13
in Kaffee Freitag und das ist schnell aus.
0:17:14–0:17:17
Aber das ist doch nicht «Hypochonder», das wäre ja lustiger im Titel.
0:17:18–0:17:24
Aber 2020, das wäre schon vielleicht so ein bisschen in dieser Corona-Periode gewesen. Oh Corona.
0:17:24–0:17:28
Darum wissen wir es wahrscheinlich nicht mehr. Oh Corona. Weil wir es alles
0:17:28–0:17:30
verdrängt haben. Es war «Cumberbox Live»-Folge.
0:17:31–0:17:34
Echt? Wir diskutieren über die SwissCovid-App.
0:17:36–0:17:39
Das ist wahrscheinlich hat ist
0:17:39–0:17:43
das was du gesagt hast vorher die christus hat welt und
0:17:43–0:17:46
dann gefunden die system
0:17:46–0:17:54
schwein die losen wir jetzt bis nach leiden und wir haben es nicht gemerkt wenn
0:17:54–0:18:05
man also ihr seht ich habe mich jetzt kann man aber Aber er macht wirklich nichts,
0:18:05–0:18:06
dieser verdammte Computer.
0:18:06–0:18:10
Wir haben eine Sendung, die «Plus 1» heisst. Warum? Ja, das haben wir mal gemacht.
0:18:11–0:18:15
What? Aber ich weiss nicht mehr, worum es geht. Die hat 1800 Plays.
0:18:16–0:18:19
Warum? Ah, gute Frage. Was hört ihr? Sorry.
0:18:20–0:18:23
«Plus 1» Ist es aus Programmierung gegangen? Ich kann es nicht einmal suchen.
0:18:24–0:18:27
Ich kann es suchen, nachdem mein Computer wieder läuft.
0:18:28–0:18:33
Wahrscheinlich kannst du nicht nach «Plus 1» suchen. «Virtual Reality» Ich...
0:18:33–0:18:40
Plus eins... also es ist... Digi-Chris, erzähl etwas, während ich suche,
0:18:40–0:18:41
sonst wird es langweilig für die Hörer.
0:18:43–0:18:46
Ich habe noch... welches ist die wenigste Schloss-Standard-Taste?
0:18:46–0:18:49
Das ist einfach die Neueste, weil es geht ja...
0:18:49–0:18:52
Sie haben ja immer einen Langteil und es gibt... das höre ich auch ab und zu
0:18:52–0:18:56
von Leuten, die sagen dann, ich höre sie schon, ich höre fast alle,
0:18:57–0:19:01
aber es geht meistens lange, bis ich sie höre und darum... Ist das so?
0:19:01–0:19:05
Die wenigstens geloste ist Apple zu gross, zu mächtig, zu selbstherrlich vor
0:19:05–0:19:07
vier Jahren. Die hat nur 290 Plays.
0:19:08–0:19:12
Ein Lot hat es wohl noch irgendjemand. Ah, interessant. Und da sind wir noch
0:19:12–0:19:17
relativ, das müsste ja die Apple-Fanboys und Apple-Haters so richtig anstecheln.
0:19:17–0:19:19
Also ich glaube, wir sind einfach zu wenig populistisch.
0:19:19–0:19:22
Ja, könnte sein. Auf aus Kritik.
0:19:22–0:19:26
Und es ist plus eins tatsächlich um Virtual Reality gegangen,
0:19:26–0:19:30
das haben wir richtig gesagt. und genau.
0:19:32–0:19:34
Und wir haben es hier nicht gut gefunden und wir finden es heute immer noch
0:19:34–0:19:37
nicht gut. Also wir könnten plus zwei machen in dieser Serie.
0:19:38–0:19:41
Also die schlecht gelesen ist eine andere, er hat es jetzt fertig gelesen.
0:19:41–0:19:44
Die Kraft der komplementären Biorhythmen.
0:19:44–0:19:46
Wahrscheinlich war es ein scheiss Titel.
0:19:47–0:19:51
Es war auch eine Kummerbox live. Vielleicht können wir an dieser Stelle darüber
0:19:51–0:19:57
reden, ob ich... Ich habe ja früher noch mehr als heute immer das Gefühl gehabt,
0:19:57–0:20:01
ich müsse wahnsinnig originelle Titel machen. Wir müssen etwas catchy haben.
0:20:01–0:20:02
Das musst du gesehen haben.
0:20:02–0:20:06
Das musst du gehört haben. Gleich passiert etwas.
0:20:06–0:20:12
Es ist wirklich eben, man hat nicht einmal nur so das Clickbaiting.
0:20:13–0:20:19
Aber die Wissenschaft zeigt offenbar, die Kryptotitel funktionieren nicht.
0:20:19–0:20:24
Also auch wenn es ironisch ist oder so, das packt Leute nicht.
0:20:24–0:20:28
Und ich finde es aber trotzdem irgendwie, wenn ich jetzt abwägen müsste,
0:20:28–0:20:33
Okay, ich soll ihm dann sagen, sind wir originell oder setzen wir auf Massengeschmack?
0:20:34–0:20:38
Mega auf Massengeschmack, das haben wir jetzt gemerkt nach 700 Folgen.
0:20:38–0:20:39
Das ist genau unser Ding.
0:20:40–0:20:46
Wir sind echt gut im Massengeschmack. So laden Sie die neuesten Filme gratis herunter.
0:20:46–0:20:51
Ja gut, aber das wäre jetzt nicht übertrieben, das haben wir auch schon erzählt, oder?
0:20:51–0:20:55
Nicht gerade so direkt, aber so durch die Blumen schon.
0:20:56–0:21:00
Wir hatten ja schon eine Sendung über Sex und die müsste ja hier oben dabei
0:21:00–0:21:04
sein, aber vielleicht ist das einfach so lange her, dass die gar nicht da drin sind.
0:21:05–0:21:08
Weil wir haben unsere Homepage. Ah, das stimmt natürlich. Unsere Homepage ist
0:21:08–0:21:13
natürlich erst Back to the Future.
0:21:14–0:21:22
2016 war unsere Homepage. Am 19. September 2016 bei der Folge, ich habe keine Ahnung.
0:21:22–0:21:26
Das Internet vergisst. Das hätte ich jetzt nicht vergessen können.
0:21:26–0:21:31
Das war die erste, das war 354 und die Homepage haben wir gemacht, weil.
0:21:32–0:21:37
Der Filter hat uns die Zeit gelöscht. Sie hatten einfach mal den alten Server
0:21:37–0:21:43
und dann hatten sie die Schnauze voll von dem, weil der irgendwie schlecht zu warten und zu managen.
0:21:43–0:21:47
Ich glaube, der Meghe hat eben dort, glaube ich... Vielleicht hat er die voll genommen.
0:21:48–0:21:52
Ich glaube, ich habe ihn sogar einmal gefragt. Und da hat er die Finger drin
0:21:52–0:21:55
gehabt und dann ist es ihm einmal verleidet und dann haben sie einfach,
0:21:55–0:22:00
ohne etwas zu sagen, haben sie den Server einfach abgestellt und es war alles weg.
0:22:01–0:22:06
Und dann sind auch wirklich Wir waren tatsächlich alle in unseren alten Sendungen lang verschollen.
0:22:07–0:22:10
Bis ich mal gefunden habe, dass wir diese wieder zaubern müssen.
0:22:10–0:22:18
Kann ich die jetzt hören? Die kannst du hören, aber sie sind nicht in diesem Podlove-Ding drin.
0:22:19–0:22:22
Wie kann ich die denn hören? Du kannst sie nur im Browser hören.
0:22:23–0:22:26
Ah, okay. Oder ja, also einfach genau. Genau, sie sind noch da,
0:22:26–0:22:31
aber ich habe dann, wenn ich die hätte, müsste ich das Podcast-Teil importieren.
0:22:32–0:22:34
Nein, das machen wir nicht. Wenn jemand das Praktikum machen möchte,
0:22:34–0:22:36
es zählt. Man darf sich gerne melden.
0:22:36–0:22:39
Genau, wir hätten da zuerst eine kleine Fliesshabe.
0:22:41–0:22:45
Und dann sind die halt weg gewesen.
0:22:45–0:22:48
Aber sie sind wieder da, aber sie zählen nicht in die Statistik.
0:22:48–0:22:51
Die Statistik zählt ab 2016 in dem Moment, genau.
0:22:52–0:22:58
Und dann ist natürlich auch die Frage, wann wir die ganze Sache auf Spotify
0:22:58–0:23:00
geladen haben. Das haben wir nämlich auch nicht von Anfang an gemacht.
0:23:01–0:23:04
Nein, das haben wir dort gemacht, wo es mal... Aber dort bist du der Master
0:23:04–0:23:09
und dort musst du... Du bist glaube ich der Einzige, der die Statistik hinkriegt.
0:23:09–0:23:14
Ja, weil das interessanter ist, es läuft Spotify-Verwaltung über den Benutzer.
0:23:14–0:23:17
Und ich habe das einfach mal eingebunden. Das ist völliger Unsinn,
0:23:17–0:23:19
unter uns gesagt. Ja, das ist so.
0:23:22–0:23:26
Und die Spotify-Zahlen werden nicht von Podlove, glaube ich.
0:23:26–0:23:29
Nein. Das ist wie etwas anderes.
0:23:29–0:23:35
Siehst du, ich weiss da zum Beispiel nicht einmal, ob die eigentlich jede Sendung
0:23:35–0:23:39
von unserem Server holen gehen, oder ob sie die cashen.
0:23:39–0:23:44
Und wenn wir da jetzt zum Beispiel eine Million Hörer, also einfach mal geschätzt
0:23:44–0:23:47
eine fiktive Zahl, sagen wir 10 Millionen Hörer hätten,
0:23:48–0:23:51
dann würden wir das vielleicht gar nicht sehen in unserer Statistik,
0:23:51–0:23:55
weil Spotify es nur ein einziges Mal von unserem Server holt und wir könnten,
0:23:55–0:24:00
weltberühmt sein, ohne das gemerkt zu haben. No.
0:24:02–0:24:06
No. Ich weiss nicht, ob sie cashen oder nicht.
0:24:06–0:24:09
Ich glaube, sie cashen nicht. Ich glaube, sie holen es auch über den Server,
0:24:09–0:24:12
weil ich auch einen RSS-Feed einbinden musste.
0:24:13–0:24:18
Ja, aber mich klingt es ein bisschen anders vom Tönen her.
0:24:18–0:24:21
Also ich habe meine schrauben sie
0:24:21–0:24:27
tun es noch mal kodieren oder vielleicht auch nicht also genau also wenn ihr
0:24:27–0:24:33
das müsse dann erklärt ist das und zeigt also mit mir weltberühmt sind auf spotify
0:24:33–0:24:40
ohne das gemerkt haben und die chris was ist denn so was findest du machen mir gut.
0:24:42–0:24:45
Wo sind wir wirklich High Performer?
0:24:47–0:24:51
Ich glaube tatsächlich, wenn man jetzt gerade zu dritt im Studio ist,
0:24:51–0:24:54
finde ich passt irgendwie die Abstimmung.
0:24:54–0:24:59
Wenn du jetzt denkst, wenn du bei einer Tele Zürich, SRF so eine Sendung machen
0:24:59–0:25:02
würdest, hättest du wahrscheinlich irgendwie Redaktionssitzungen,
0:25:03–0:25:07
die fünfmal so lange wie die Sendung gehen. Ich glaube das ist das spontane Grad.
0:25:07–0:25:12
Genau, um das noch zu sagen, unsere Redaktionssitzung, es ist dreimal hin und
0:25:12–0:25:15
her schreiben auf dreimal. Und dann machst du die ganze Arbeit.
0:25:17–0:25:21
Das können wir auch mal so benennen. Meistens mache ich das Manuskript,
0:25:21–0:25:25
weil ich das Gefühl habe, man kann nicht einfach spontan darauf losreden.
0:25:25–0:25:28
Und heute hört ihr es ja, wie es ist, wenn man... Ich habe zwar trotzdem alles
0:25:28–0:25:31
gemacht, aber es ist nicht so ein schlimmes...
0:25:31–0:25:33
Du hast es doch gemacht für einen improvisierten Sender. Ja,
0:25:33–0:25:38
da siehst du mal, wie neurotisch ich bin. Ich habe Neurotismus studiert,
0:25:39–0:25:40
um das zu sagen. Und Medizin.
0:25:40–0:25:43
Und Medizin. Habe ich überhaupt fertig gesagt? Ich habe gesagt Germanistik,
0:25:43–0:25:47
ich habe aber auch noch Publizistik und Computerlinguistik studiert.
0:25:48–0:25:53
Also ein bisschen etwas hat es mit dem Thema zu tun, aber ja, genau.
0:25:55–0:26:00
Also, wir haben Kompetenzen. Darf ich dich richtig interpretieren, Chris, wenn wir so...
0:26:01–0:26:05
Unsere Dynamik im Team ist eigentlich unsere stärkste Stärke,
0:26:05–0:26:07
oder? Würde ich so sagen, ja.
0:26:07–0:26:10
Ich glaube auch. Das finde ich auch. Und ich finde es dann gut,
0:26:11–0:26:15
wenn wir eine Sendung machen könnten, in der wir verschiedene Ebenen haben.
0:26:15–0:26:18
Also wir haben vielleicht etwas, was wir auf der technischen Ebene erzählen,
0:26:18–0:26:22
etwas, wo ein bisschen Kultur und Gesellschaft rein kommt. und dann noch so
0:26:22–0:26:27
ein bisschen persönlich, also auch so, man es noch ein bisschen menschelend
0:26:27–0:26:30
und noch so ein bisschen Anekdote, aber nicht zu viel.
0:26:30–0:26:34
Ich finde, Anekdoten sind schwierig, wenn man ein gewisses Mass überschreitet,
0:26:34–0:26:37
dann wird es so zu egozentrisch.
0:26:37–0:26:39
Und darum ist das noch schwierig.
0:26:39–0:26:43
Und ich finde, das können wir gut. Und ich glaube, wir sind recht gut drin,
0:26:44–0:26:49
um komplexe und auch blöde Themen, immer sage ich jetzt mal,
0:26:49–0:26:54
so ein bisschen salopp, gut rüberzubringen und trotzdem unterhaltsam zu machen.
0:26:56–0:27:01
Ich hoffe es. Ich schaue jetzt, ob in diesem Moment jemand etwas ins Gästebuch geschrieben hat.
0:27:02–0:27:05
Nein, es hat immer noch niemand etwas geschrieben. Leute, hey, da.
0:27:05–0:27:10
Hey, sorry, aber so nicht. Wenigstens ein Gruß im Gästebuch,
0:27:10–0:27:12
stadtfilter.ch. Soll ich einen machen?
0:27:13–0:27:18
Nein. Ja, aber unter einem falschen Namen. Natürlich. Ich würde sagen,
0:27:19–0:27:25
vielleicht auch etwas, wenn man irgendwie einen Vergleich bringen darf.
0:27:25–0:27:29
Es gab vor vielen Jahren mal eine Zeitschrift, Computerbild.
0:27:29–0:27:35
Und eben Bild, weiss man das, Revolverplatte, dann gab es das Autobild und Computerbild
0:27:35–0:27:41
hat dann tatsächlich irgendwie die Fachwörter, auch RAM, CPU erklärt. Jede Zeit.
0:27:42–0:27:49
Irgendwo hat mal ein Leser geschrieben, ja, aber wieso erkläre ich das immer wieder?
0:27:49–0:27:52
Weil das Auto-Bild erklärt auch nicht, was eine Kupplung ist.
0:27:52–0:27:57
Einfach so nach dem Motto. Ich finde auch, ja, manchmal müssen wir halt auf
0:27:57–0:27:58
eine technische Ebene gehen.
0:27:59–0:28:03
Aber manchmal glaube ich auch, sind wir so, dass ich sage, jetzt die Leute verstehen,
0:28:03–0:28:07
die sicher nicht mit dieser Technologie aufgewachsen sind.
0:28:07–0:28:11
Ich versuche das ja je nachdem ein bisschen einfacher zu halten.
0:28:11–0:28:19
Und wenn man abdriften will, dann redest du halt von Clouds und On-Prems.
0:28:20–0:28:24
Ja, genau. Ich versuche wirklich, diese Anglizismen möglichst zu vermeiden.
0:28:24–0:28:27
Und es ist manchmal schwierig, auch Sachen zu erklären.
0:28:27–0:28:32
Ich glaube, das machen wir wirklich noch gut. Aber wir sind auch im Radio,
0:28:32–0:28:35
wo jemand per Zufall einschalten kann und dann vielleicht.
0:28:37–0:28:41
Wie soll ich sagen, trotzdem mitkommt. Aber ja, das stimmt schon.
0:28:41–0:28:45
Und jetzt, aber jetzt haben wir nicht mehr so viel Zeit. Jetzt machen wir noch Kritik.
0:28:45–0:28:50
Du hast gesagt, Digi Chris, dir ist ein ganz konkretes Beispiel eingefallen,
0:28:50–0:28:55
wo wir oder vor allem ich es völlig verkackt habe. Ui, wirklich?
0:28:55–0:29:01
Das war, glaube ich, diese Sendung von den US-Wahlen. Das war auch im Corona-Modus.
0:29:02–0:29:06
Da ist irgendwie unser Studiolink nicht gelaufen. Wir mussten auf Skype und
0:29:06–0:29:09
irgendwie haben wir es nicht geschafft. Ich habe es nicht geschafft, ja.
0:29:10–0:29:16
Wir sind ja das Team. Wir haben es nicht geschafft, einen Kampf-Call auf Skype zu machen.
0:29:16–0:29:20
Genau. Dann war mal Kevin da. Ich habe gerade einen Hühnertal.
0:29:20–0:29:24
Und ich wusste natürlich nicht mehr, was jetzt Kevin gesagt hat und so.
0:29:25–0:29:28
Und da haben wir auch diese Leute, ich sage jetzt aus Familienfreunden,
0:29:28–0:29:31
hey, what the hell, was habt ihr da geraucht?
0:29:32–0:29:35
Wirklich, seid ihr besoffen gewesen? Und vielleicht noch etwas,
0:29:36–0:29:38
da hatte ich mal ein Problem,
0:29:38–0:29:44
ich glaube, ich hatte auch ein neues Headset und ich hatte dort irgendein Problem
0:29:44–0:29:47
und das weisst du am besten als Radioprofi,
0:29:47–0:29:52
ich habe mich mit zwei Sekunden Verzögerung gehört und da habe ich so komisch
0:29:52–0:29:53
geredet und ich habe natürlich gedacht,
0:29:54–0:29:56
ja jetzt läuft die Aufnahme, es war glaube ich sogar noch mit der Studiolink.
0:29:57–0:30:03
Ja, dann tönst du so betrunken, wenn du dich selber hörst. Das war der Horror, das ist echt.
0:30:04–0:30:08
Da bin ich nicht stolz drauf. Genau, das haben wir einfach natürlich.
0:30:08–0:30:11
Wir sind da live im Studio und dann geht es halt damit los.
0:30:11–0:30:14
Und wenn die Technik noch nicht bereit ist, müssen wir improvisieren.
0:30:14–0:30:17
Ich würde sagen, das ist so die technische Ebene.
0:30:17–0:30:22
Da haben wir halt niemanden, der uns da hilft, sondern das mache ich meistens ich.
0:30:22–0:30:26
Und dann bin ich halt manchmal ein bisschen weniger konzentriert und manchmal
0:30:26–0:30:29
noch viel weniger. Mit diesen Jingles meinen wahrscheinlich alle Leute,
0:30:30–0:30:33
das sei ein Running-Gag, aber es ist ernst.
0:30:34–0:30:39
Ich gebe mir jedes Mal Mühe und jedes Mal habe ich es irgendwie dann doch...
0:30:39–0:30:44
Ich habe zu wenig Übung, seit ich morgen Atme mache, fehlt mir die Routine.
0:30:44–0:30:47
Aber was ich finde, was wirklich schwierig ist, manchmal...
0:30:48–0:30:53
Ich vor allem vielleicht auch das höhere Ansprüche, wenn du wirklich die ganze
0:30:53–0:30:58
Welt oder ein riesiges Ding in so eine Sendung packen willst,
0:30:58–0:31:02
wo du einfach sagst, das geht nicht, das hat so viele Aspekte und,
0:31:03–0:31:09
manchmal bin ich unzufrieden, wenn der Informationsgehalt das Gefühl hatte,
0:31:09–0:31:10
es sei jetzt ein bisschen zu seicht gewesen.
0:31:11–0:31:15
Aber wahrscheinlich ist es auch okay, wenn eine Sendung nur unterhaltend ist, oder?
0:31:15–0:31:19
Ja, ich glaube, man hätte schon mal Bock, so etwas richtig Aufwendiges zu produzieren, aber,
0:31:20–0:31:25
dort ist so Faktor Geld und Faktor Zeit spielt halt dort so mit,
0:31:25–0:31:28
weil ich glaube, Aufwendig produzieren, also wirklich eine Geschichte mit O-Ton
0:31:28–0:31:33
und Aufwendig und Recherchieren und so und etwas Grosses machen, wäre mega spannend.
0:31:34–0:31:39
Aber da das halt einfach wirklich Arbeit ist, wo wir uns teilweise Zeit auch
0:31:39–0:31:42
zusammen klauen müssen, ist es einfach nicht realistisch, so etwas zu machen.
0:31:42–0:31:45
Außer wir gewinnen mal im Lotto und haben einfach Geld.
0:31:45–0:31:48
Oh, dann würde ich sofort, dass sie voll beruflich machen. Genau,
0:31:48–0:31:50
und darum habe ich das Gefühl, hey, manchmal gibt es Sendungen,
0:31:50–0:31:53
die besser sind, manchmal gibt es Sendungen, die nicht so gut sind. Das ist wie so okay.
0:31:54–0:31:56
Ich glaube, es darf auch so ein bisschen schwanken. Ja, genau.
0:31:56–0:32:02
Der Razer1911 hat geschrieben, ich wollte ja mit dem Discord was sagen,
0:32:02–0:32:06
aber diese Seite will nach dem Nickname nicht weiterladen.
0:32:07–0:32:13
Ich finde es gut, wie er das macht. ich hätte vielleicht auch mal noch was ein Thema nicht beachten.
0:32:14–0:32:16
Razer 1911. Gibt es die noch?
0:32:17–0:32:21
Das ist ein Telefon, oder? Razer 1911 ist ein Kollektiv gewesen,
0:32:22–0:32:27
wo ich glaube Spiele vor allem veröffentlicht haben. Genau, Razer 1911, ja.
0:32:28–0:32:32
Awares oder Demo Group? Also sie haben Spiele gemacht, aber glaube ich wirklich,
0:32:32–0:32:34
dann hat es irgendwann... Ich glaube die haben geleakt, nein.
0:32:34–0:32:37
Also sie haben Spiele gemacht und irgendwann ist mal der grosse Bast gekommen
0:32:37–0:32:40
und dann Und dann haben sie einfach nur noch Demos gemacht und die haben dann
0:32:40–0:32:46
halt einfach gesagt, schau mal, auf einem C64 kannst du wirklich schöne Demos machen,
0:32:46–0:32:52
die 3D-Dings gemacht haben und eben, wir wissen ja alle, was ein C64 für Ressourcen hat.
0:32:52–0:32:56
Genau, also jetzt sind wir fast schon wieder durch, die Pre-Show ist fast am
0:32:56–0:33:00
Ende und diesmal kommt nach der Pre-Show keine Hauptsendung mehr,
0:33:00–0:33:01
sondern das ist dann fertig.
0:33:02–0:33:08
Digi-Chris, du hast wirklich auch noch in deiner Bubble nach Kritik gesucht
0:33:08–0:33:10
und gefunden vor allem auch.
0:33:11–0:33:16
Also ich glaube vieles und apropos ist Tonqualität, aber nicht der Kevin,
0:33:16–0:33:18
also deine Hühner. Die hohen Hühner.
0:33:18–0:33:21
Nein, nein, da haben also viele Leute gesagt, das klingt irgendwie authentisch,
0:33:21–0:33:25
also klar, wir sind nicht Bits und so, wo wahrscheinlich jeder einfach vom Herr
0:33:25–0:33:30
Hetzl jedes Jahr 1000 Stutzen bekommt für das Mikrofon und irgendwie zum Ding.
0:33:31–0:33:33
Also die Hühner sind echt positiv angekommen.
0:33:34–0:33:38
Ich finde die auch gut. Es klingt authentisch. Klar, je nachdem,
0:33:38–0:33:41
vielleicht auch bei mir, haben wir gemerkt, wenn ich im WLAN bin,
0:33:41–0:33:45
obwohl ich zwei Zentimeter neben der WLAN Box bin, klingt es blöd.
0:33:46–0:33:49
Und eben, was wir wirklich viel gesagt haben, wenn wir jetzt vielleicht ein
0:33:49–0:33:54
ernsthaftes Thema haben, dass man halt je nachdem, wenn halt irgendwie ein Fussball
0:33:54–0:33:57
kommt oder etwas, dass man einfach um 8.00 Uhr abbrechen muss.
0:33:57–0:33:59
Ich glaube, du hast noch ein längeres Mail bekommen.
0:34:00–0:34:08
Genau, der Reto hat geschrieben, er hat zuerst gefunden, die die Show Notes
0:34:08–0:34:14
sagen uncool, weil die nicht in der App schön aufbereitet sind.
0:34:14–0:34:18
Das stimmt, da hat er recht. Ich habe noch nicht herausgefunden, wie das geht.
0:34:18–0:34:21
In so zwei, drei Jahren habe ich das vielleicht geschafft.
0:34:21–0:34:23
Das andere ist genau das, was
0:34:23–0:34:28
du sagst. Er findet, am Ende hört es oft einfach auf, wenn es fertig ist.
0:34:29–0:34:32
Das ist so, weil wir im Radio sind. Am 8.
0:34:32–0:34:35
Sollten wir wir eigentlich aufhören, das wäre jetzt in zweieinhalb Minuten,
0:34:35–0:34:38
ich habe gedacht, das geht live weiter nachher.
0:34:38–0:34:40
Es geht live weiter, ich habe es gesehen, wo er unten ist.
0:34:40–0:34:42
Ah, du hast es gesehen, okay, dann müssen wir wirklich aufhören,
0:34:43–0:34:45
sonst hätte ich jetzt vielleicht noch fünf Minuten angehängt,
0:34:45–0:34:49
aber dann hören wir wirklich auf und eben, wir einfach zack,
0:34:49–0:34:53
am Ende, ja, das ist halt, das ist so ein bisschen der...
0:34:54–0:34:56
Sagen und Fluch, ich würde sagen, es ist beides gleichzeitig,
0:34:57–0:35:01
weil ich glaube, es tut den Podcasts, die dann einfach unbeschränkt so lange
0:35:01–0:35:04
machen können, wie sie wollen, nicht immer unbedingt gut.
0:35:05–0:35:12
Und er hat dann gefunden, ja, machen doch eine Postshow, wo man das noch fertigreden
0:35:12–0:35:14
kann, was wir nicht in der Sendung fertiggebracht haben.
0:35:14–0:35:17
Und er hat gefunden, ja, eben, eine Pre-Show können wir eigentlich darum machen,
0:35:17–0:35:19
weil dann niemand da im Studio ist.
0:35:20–0:35:25
Und Postshow ist häufig, ist dann halt jemand da und dann müssten wir das Studio
0:35:25–0:35:29
wechseln und das ist mir, ehrlich gesagt, ein bisschen... Wir könnten doch Stadtfilter
0:35:29–0:35:33
Plus machen, wo die Postshow gegen Bezahlung verfügbar ist.
0:35:33–0:35:37
Uh, jetzt kommen noch Businessmodelle rein. Auf Onlyfans.
0:35:38–0:35:41
Genau, das hatten wir nämlich einmal. Das ist eines von diesen Projekten,
0:35:41–0:35:43
die wir mal machen müssen, Onlyfans.
0:35:43–0:35:47
Und ich finde, was das abrupt endet, finde ich eigentlich noch gut,
0:35:47–0:35:51
das auch zu kultivieren und dann nicht einmal mehr verabschiedet,
0:35:51–0:35:52
sondern dann, wenn jemand etwas
0:35:52–0:35:56
Gutes gesagt hat, einfach den Jingle abführen und dann ist es fertig.
0:35:57–0:36:01
Ich finde es super. Ich finde das eben auch gut, aber kann man geteilter Meinung
0:36:01–0:36:03
sein? Das ist ein Konzept, das ist ein Marketingkonzept.
0:36:03–0:36:07
Always leave them want more. Das ist das Marketingkonzept.
0:36:07–0:36:13
Jetzt, ich habe das einfach so aus Tümmel gemacht und du hast ein Marketingkonzept,
0:36:13–0:36:16
das finde ich super. Genau, wir wissen jetzt schon, wo wir stark sind.
0:36:16–0:36:21
Genau bei dem beim Anfixen. Also, ich sage, wir haben noch 40 Sekunden Zeit
0:36:21–0:36:26
und jetzt muss jemand von uns drei so eine schöne Schlusspointe machen,
0:36:27–0:36:28
wo ich den Jingle-Cup führe.
0:36:28–0:36:34
Wir müssen zwei Gläser anstossen. Also, wir machen, was machen wir?
0:36:34–0:36:35
Nein, jetzt sind wir zu früh.
0:36:37–0:36:42
Also, nein, er ist da. Ich würde sagen, wir machen auf die nächsten 15 Jahre,
0:36:42–0:36:44
oder? Und vielleicht machen wir irgendwann mal noch sogar die... Bis 1000.
0:36:45–0:36:48
Bis 1000 müssen wir. Bis duusig müssen wir. Ja, die müssen wir knacken und dann,
0:36:49–0:36:50
mieten wir das alles Stadion.
0:36:51–0:37:03
Music.

Heute plaudern wir aus dem Nähkästchen – und das mit gutem Grund: Nach offizieller, aber nicht ganz unumstrittener Zählung sind wir bei unserer 700. Sendung angelangt. Das nehmen wir zum Anlass, unsere Redaktionssitzung heute live im Radio und Podcast abzuhalten – was deswegen bemerkenswert ist, weil wir uns normalerweise ganz ohne Sitzungen und vor allem per Messenger organisieren.

Also: Zeit für Selbstlob und Selbstkritik. Und für einen Ausblick in die Zukunft: Was könnten wir anders und besser machen? Und wenn ihr Anregungen habt, noch so gern: Wir gehen auf eure Ideen gern in einer der nächsten Sendung oder Preshows ein. „Redaktionssitzung, heute live on air“ weiterlesen

Wann fällt uns ChatGPT in den Rücken?

Transkript anzeigen (falls vorhanden)

00:00–0:00:19
Music.
0:00:20–0:00:25
Ähm, A mit Aryan Nation und ich habe fast ins falsche Mikrofon reingeredet,
0:00:25–0:00:27
aber ich glaube, es kommt trotzdem gut heute.
0:00:30–0:00:33
Radio Stadtfilter. 96,3 Megahertz.
0:00:34–0:00:40
Hoi Kevin, ich hoffe, du redest ins richtige Mikrofon rein. Ich rede ins richtige
0:00:40–0:00:42
Mikrofon rein, aber die Hurenvögel auch.
0:00:42–0:00:46
Die sind Wahnsinn, was ist denn mit denen? Ich weiss nicht.
0:00:46–0:00:50
Ich bin den ganzen Tag nicht zuhause gewesen und das Drehen jetzt Ich weiss
0:00:50–0:00:51
nicht, was die haben. Die spinnen.
0:00:53–0:01:00
Was machen wir mit ihnen? Poulet. Wäre jetzt auch etwas fies, oder? Ja.
0:01:02–0:01:05
Ja, aber ich entspanne mich. Ich weiss nicht, was sie haben.
0:01:06–0:01:11
Ja. Wir müssen mal... Das fehlt noch bei all diesen KI-Sachen,
0:01:11–0:01:12
die wir haben, neuerdings.
0:01:13–0:01:16
Dass du einfach so einen Übersetzer... Es gibt jetzt den Übersetzer,
0:01:16–0:01:22
der das Video und dann macht er so aus deinem Deutsch geredet ein Video,
0:01:22–0:01:25
macht er irgendwie japanisch oder chinesisch oder so.
0:01:25–0:01:29
Das ist recht beeindruckend. Aber noch viel beeindruckender wäre es,
0:01:29–0:01:34
wenn man jetzt das Mikrofon diesen Hühnern hinheben könnte und dann würde K.I.
0:01:34–0:01:35
Sagen, was sie eigentlich haben.
0:01:37–0:01:39
Ich glaube, wir sind im Fall nicht mehr so weit weg von dem.
0:01:40–0:01:46
Findest du? Ich glaube, das kommt wahrscheinlich relativ schnell,
0:01:46–0:01:52
dass man einfache Tier-Laut übersetzen kann.
0:01:52–0:01:57
Beziehungsweise am Hund kommt es relativ schnell.
0:01:58–0:02:01
Das wäre super. Ich bin nicht sicher, ob du recht hast.
0:02:02–0:02:05
Ich glaube, es ist nicht so schwierig.
0:02:06–0:02:10
Weil... bist du mit Hunden aufgewachsen? Nein, nein.
0:02:11–0:02:14
Kennst du dich mit Hunden aus? Ja, nicht so wirklich.
0:02:15–0:02:18
Okay, aber wenn du mit Hunden aufgewachsen bist, oder mit...
0:02:18–0:02:22
Hunde sind halt dankbar, weil die geben halt Töne von sich.
0:02:22–0:02:26
Du kannst bei einem Hund das Bellen unterscheiden, was es bedeutet.
0:02:27–0:02:31
Okay. Und darum habe ich das Gefühl, du kannst, wenn du das analysierst,
0:02:31–0:02:37
kannst du dem Hund wahrscheinlich ein Kommando geben im Sinn von Freude, Angst, Gefahr.
0:02:37–0:02:42
Ich glaube, der geht relativ schnell. Meinst du, das wäre dann.
0:02:43–0:02:47
Für jeden Hund spezifisch, dass man das zuerst trainieren müsste?
0:02:47–0:02:48
Oder ist das universell?
0:02:49–0:02:51
Haben die Hunde so universelle Sprache?
0:02:52–0:02:56
Ich glaube, sie haben universelle Sprache. Ich glaube, wenn ein Hund bellt und
0:02:56–0:03:01
sagt «Hey, kein Scheiss, jetzt ist es fertig», ich glaube, das hat eine universelle
0:03:01–0:03:03
Sprache, das verstehen alle Hunde.
0:03:03–0:03:09
Ja, das wäre noch lässig. Also, ich hatte mal so eine App, wo meine Tochter
0:03:09–0:03:12
noch als Baby war und sie behauptete, dass sie unterscheiden können,
0:03:13–0:03:15
was das Gebrüll von dem Kind heisst.
0:03:16–0:03:20
Und mich hätte es gedacht, das sei so ein bisschen eine Scharlatanerie gewesen.
0:03:20–0:03:24
Also als Eltern hast du dann zwischendurch das Gefühl gehabt,
0:03:24–0:03:27
du gehörst dem Kind jetzt an, ob es Hunger hat, ob die Windel voll ist,
0:03:28–0:03:33
ob es einfach die Schnauze voll hat, so generell, und will schlafen oder so.
0:03:34–0:03:39
Oder nicht schlafen, das kann ja dann auch noch sein. Aber diese App hat das
0:03:39–0:03:41
also nie so treffsicher herausfinden können.
0:03:43–0:03:48
Aber du, als Elternteil, weisst es bei deinem Kind. Ja, genau.
0:03:49–0:03:51
Und darum glaube ich, KI ist nicht so weit weg.
0:03:51–0:03:57
Weil wir können es ja auch. Also ich meine, wenn ich ein Baby höre und es schreit,
0:03:57–0:04:01
dann kann ich wahrscheinlich als Vater, der selber Kinder hatte,
0:04:01–0:04:04
kann ich wahrscheinlich beurteilen, was bedeutet das genau,
0:04:04–0:04:09
wo jemand anderer, der kein Kind hatte, wahrscheinlich das nicht beurteilen kann.
0:04:09–0:04:13
Und darum habe ich das Gefühl, es ist lernbar. Das ist wieder einmal eine dieser
0:04:13–0:04:18
berühmten Prognosen im «Nerdfunk». Wir werden es dann kontrollieren,
0:04:18–0:04:20
soll ich sagen. In fünf Jahren müsste es ja da sein.
0:04:21–0:04:23
Einigen wir uns darauf, dass wir das in fünf Jahren abklären.
0:04:23–0:04:25
In fünf Jahren, super. Genau.
0:04:26–0:04:38
Music.
0:04:38–0:04:42
Und heute geht es genau um die KI. Wir haben ja immer darüber gesprochen,
0:04:42–0:04:46
Kevin, wie toll das ist und wie die unser Leben erleichtert.
0:04:46–0:04:51
Und dass wir jetzt nicht mehr selbst unsere bösen Mails ausformulieren müssen,
0:04:51–0:04:56
sondern nur noch schreiben, ich finde, mein Chef sagt Trottel und das,
0:04:56–0:05:01
was er da wieder ausgedacht hat, ist der letzte Hirnschiss.
0:05:01–0:05:05
Und jetzt, Chat-GPT, formuliere mir das in Früchten. Schreibe mir das in Schön.
0:05:05–0:05:08
Genau, so dass ich nicht entlassen werde.
0:05:08–0:05:14
Genau, so macht man das. Aber sie hat ja vielleicht auch negative Seiten, die KI.
0:05:14–0:05:17
Und darüber wollen wir heute reden, oder?
0:05:18–0:05:24
Ich habe gefunden, ich würde gerne mal eine Sendung machen über «Ist jetzt KI gefährlich?
0:05:24–0:05:30
Ich scheisse in die Hosen vor Angst und du musst alles aufheben.» Okay.
0:05:30–0:05:34
Dass ich das Gefühl habe, es kommt extrem gut, was wir hier machen.
0:05:34–0:05:37
Sollen wir so ein Rollenspiel machen?
0:05:37–0:05:46
Du bist der Scheisshass und ich bin der, der sagt, nein, wir sollen alles, überall die K.I.
0:05:46–0:05:50
Einbauen und ohne das Kruppeln benutzen für alles.
0:05:51–0:05:54
Du kannst ja mal so die Position einnehmen, weil ich bin wirklich der,
0:05:54–0:05:56
der denkt, oh oh, das ist nicht gut.
0:05:57–0:06:01
Und ernst, ich finde es wirklich schwierig.
0:06:01–0:06:04
Und jetzt möchte ich mit dir über das reden.
0:06:06–0:06:12
Genau in diesem Rollenspiel. Ich bin der Sales Manager von OpenAI,
0:06:13–0:06:16
der dir alles antrillt, was wir so zu bieten haben.
0:06:17–0:06:21
Ich bin ein alter Mann, der noch nie mit Technik etwas zu tun hatte.
0:06:22–0:06:25
Also Herr Rechsteiner, wir haben hier unser schönes Produktsortiment.
0:06:26–0:06:31
Wir haben hier einen Chatbot, eine Bildgeneration. Nein, wie nennt man das, ein Generator?
0:06:31–0:06:36
Bildgenerator. Genau, und das müssen Sie alles brauchen, Herr Rechsteiner,
0:06:36–0:06:40
weil ohne das sind Sie einfach nicht mehr von heute.
0:06:43–0:06:48
Das ist so modernes Zeug, das braucht man alles nicht. Das ist alles Scheissdreck.
0:06:49–0:06:51
Okay. Nein, das ist es ja nicht. Aber...
0:06:53–0:06:58
Das ist jetzt ein abrupter Einstieg. Nein, ich würde sagen, aber hören Sie mal, Herr Rechsteiner.
0:06:59–0:07:03
Sie haben ja so ein Unternehmen und dort können Sie einfach Zeit sparen.
0:07:03–0:07:04
Und Zeit ist ja bekanntlich Geld.
0:07:05–0:07:09
Und das sollte eigentlich Ihre Bedenken sofort zerstreuen.
0:07:10–0:07:11
Ja, wahrscheinlich müsste es das.
0:07:13–0:07:17
Nein, die Diskussion kann jetzt nicht schon fertig sein.
0:07:18–0:07:21
Haben Sie vielleicht allenfalls gewisse Bedenken, Herr Reichsteiner,
0:07:21–0:07:23
was unser Produkt angeht?
0:07:23–0:07:32
Ich kann Ihnen versichern, alles ist sicher, wir haben es getestet mit 15 Probanden in Sri Lanka.
0:07:33–0:07:38
Und sind alle tot. Am Nachmittag. Ja, aber das ist am Tsunami gelegen,
0:07:38–0:07:40
der dann gekommen ist, nicht unserer Software.
0:07:40–0:07:46
Nein, Herr Schüster, ich verstehe, dass Sie das gut finden, aber mein Problem
0:07:46–0:07:48
ist, ich verstehe nicht, was passiert.
0:07:49–0:07:53
Sie verkaufen mir jetzt irgendeine Software, irgendein Programm,
0:07:53–0:07:56
irgendeinen Dienst, wo ich nicht genau weiss, woher das kommt.
0:07:56–0:08:00
Und das macht dann irgendetwas, wo ich auch nicht so genau weiss,
0:08:00–0:08:02
woher es jetzt die Informationen nimmt.
0:08:02–0:08:05
Und das finde ich einfach nicht so gut.
0:08:06–0:08:09
Also da könnte ich jetzt ernsthaft darauf Antwort geben, aber ich würde jetzt
0:08:09–0:08:12
mal sagen, ich probiere jetzt den Verkäufer nochmal.
0:08:12–0:08:16
Also schauen Sie mal, Herr Rechsteiner, wissen Sie denn wirklich im Detail,
0:08:16–0:08:22
wie Ihr Computer sonst funktioniert, wie ein Windows, was da in diesen 70 Millionen
0:08:22–0:08:24
Zielen Programmcode drin ist?
0:08:25–0:08:31
Oder wissen Sie, wie Ihre Versicherungs-, Ihre Krankenkasse im Detail funktioniert?
0:08:31–0:08:34
Oder unser politisches System.
0:08:34–0:08:40
Dieser Zug zum Verstehen ist doch schon längstens abgefahren.
0:08:42–0:08:46
Ich glaube, der Zugfahrer ist in den meisten Fällen von aussen.
0:08:46–0:08:50
Und bei mir in der Firma weiss ich zumindest, wenn ich diesen Knopf drücke, passiert das.
0:08:51–0:08:55
Und mit der KI habe ich das Gefühl, ich weiss das nicht mehr.
0:08:55–0:08:59
Die macht nachher irgendetwas, aber das entscheidet dann vielleicht nicht mehr ganz ich.
0:09:00–0:09:04
Und bei meinem PC ist es so, wenn ich dem sage, senden, dann schickt er das E-Mail.
0:09:04–0:09:08
Aber er kommt dann nicht selber auf die Idee, «Ah, ich könnte jetzt da noch
0:09:08–0:09:12
so ein bisschen etwas optimieren, etwas ändern, ohne dass ich da...» Doch, mindestens schon.
0:09:14–0:09:19
Aber ja, for the sake of argument, sagen wir, du hast recht.
0:09:20–0:09:25
Ja, genau, das stimmt. Aber ist das nicht genau die Voraussetzung,
0:09:25–0:09:31
dass er dir eben kann mehr Arbeit abnehmen als bisher so ein nicht künstlich
0:09:31–0:09:33
intelligenter Computer?
0:09:33–0:09:39
Weil eben, Je mehr er es von sich aus macht, wo du nicht genau weisst,
0:09:39–0:09:45
warum er es macht, desto hilfreicher ist er für dich, weil er dann schon merkt,
0:09:45–0:09:47
dass du etwas von ihm willst,
0:09:47–0:09:49
bevor du es ihm gesagt hast.
0:09:50–0:09:54
Aber... Und da kommt glaube ich mein Problem.
0:09:55–0:10:02
Woher weiss er es? Ich glaube, das ist das, wo ich bei KI ein Problem habe.
0:10:02–0:10:05
Woher weiss das Ding, was es will?
0:10:06–0:10:12
Es ist der grösste gemeinsame Nenner. Es ist das, was ihm all die Informationen
0:10:12–0:10:15
im Durchschnitt sagen. Ja. Das wird gemacht.
0:10:15–0:10:20
Und das ist gefährlich, habe ich das Gefühl.
0:10:21–0:10:25
Das ist, also jetzt kenne ich vielleicht zu den Rollen aus, aber,
0:10:25–0:10:28
oder müsste ich jetzt überlegen, ob das nicht gefährlich ist.
0:10:28–0:10:35
Das ist auf eine Art gefährlich, kann man sagen, aber diese KIs kann man ja irgendwie einhegen.
0:10:35–0:10:42
Man kann ihre Parameter vorgeben, worüber sie entscheiden dürfen.
0:10:42–0:10:47
Und dann musst du einfach darauf schauen, dass sie halt, zum Beispiel deine
0:10:47–0:10:50
Buchhaltungs-KI, du darfst selber,
0:10:50–0:10:57
was weiss ich was, neue Briefmarken bestellen und neue, was brauchst du noch,
0:10:57–0:11:03
vielleicht einen Toner für deinen Drucker, aber wenn es über 10'000 Franken
0:11:03–0:11:05
kostet, dann fragst du mich vorher noch.
0:11:07–0:11:12
Und dann ist sichergestellt, dass sie nicht Toner für 50'000 Franken bestellt,
0:11:12–0:11:15
weil sie gefunden haben, oh, der ist gerade im Angebot, da könnte Kevin,
0:11:15–0:11:19
wenn er die nächsten 100 Jahre Toner hat, ganz viel Geld sparen.
0:11:20–0:11:25
Aber mal angenommen, ich habe jetzt einen Drucker. Ja. Und dieser Drucker leidet.
0:11:25–0:11:27
Er gibt auf, er mag nicht mehr.
0:11:28–0:11:30
Und ich weiss, eigentlich komme ich, ich ersetze den.
0:11:31–0:11:36
Ich lasse den jetzt noch auslaufen, dann ist es gut. Wie sage ich das jetzt der KI?
0:11:38–0:11:43
Nicht einen Toner bestellen für den Drucker, denn der wird ersetzt, wenn er leer ist.
0:11:43–0:11:47
Und die KI wird mir einen Toner bestellen, eiskalt. Weil die sagt,
0:11:47–0:11:49
Toner ist leer, wir müssen wieder einen haben.
0:11:51–0:11:57
Jetzt muss ich hinschreiten und der KI sagen, wir haben hier einen Spezialfall.
0:11:57–0:12:02
Vielleicht hat die KI zu wenig mitgedacht, Weil wenn sie genug mitgedacht hat,
0:12:03–0:12:08
dann hat sie gefunden, jawohl, der Drucker ist kaputt, ich bestelle dir nicht
0:12:08–0:12:11
nur den Toner, sondern eben auch den Drucker.
0:12:11–0:12:16
Und das will ich auch nicht, ich will ja keinen Drucker mehr. Ah, okay.
0:12:17–0:12:22
Oder ich habe vielleicht noch einen zuhause. Ich habe noch einen Farblazer,
0:12:22–0:12:25
der reicht fürs Geschäft. Ich nehme dann diesen mit.
0:12:29–0:12:34
Ja, wir sehen schon, es ist tatsächlich ein bisschen schwierig.
0:12:34–0:12:39
Da ist ja dann nicht nur die Frage, ob du dir von der einfach so als Assistent
0:12:39–0:12:45
helfen lassen willst, oder ob du auch gewisse Entscheidungen direkt an sie delegieren willst.
0:12:45–0:12:52
Also zum Beispiel, willst du die Infrastruktur deines Büros ganz an sie delegieren,
0:12:52–0:12:56
dann musst du halt damit leben, dass du dann mit diesen Sachen musst arbeiten,
0:12:56–0:12:58
die sie für dich richtig finden.
0:12:58–0:13:02
Oder willst du ihr einfach sagen, bestelle etwas und dann, ja,
0:13:03–0:13:05
sollte sie nichts von sich aus bestellen, würde ich jetzt sagen.
0:13:05–0:13:07
Aber das wird ja KI genau machen, sie wird ja,
0:13:09–0:13:14
wahrscheinlich sehr viel Raum einnehmen irgendwann, dass man sagt,
0:13:15–0:13:17
hey, das kannst du automatisieren, das kannst du auch automatisieren.
0:13:17–0:13:19
Wo sind eigentlich die Amazon-Button?
0:13:20–0:13:24
Ja, die gibt es noch. Gibt es die noch? Genau.
0:13:26–0:13:31
Das ist ja wie so ein sehr primitiver Vorläufer ohne KI gewesen.
0:13:31–0:13:34
Ich hatte einen Knopf, den ich drauf passern konnte und dann hat es mir nochmal
0:13:34–0:13:36
ein 6-Pack-Bier bestellt. Ja, genau.
0:13:37–0:13:39
Es ist gestorben.
0:13:40–0:13:45
Aber das ist KI, dass es genau das machen wird.
0:13:45–0:13:52
Es wird Aufgaben für mich übernehmen und die Erwartungen an KI sind ja eben, es denkt mit.
0:13:52–0:13:56
Aber woher nimmt es diese Infos? Wie macht es das?
0:13:56–0:14:00
Das finde ich das Gefährliche und das haben wir nicht unter Kontrolle.
0:14:00–0:14:03
Ja, also ich finde es ja lustig, dass wir mit unserem ein bisschen,
0:14:03–0:14:08
wie soll ich sagen, primitiven Rollenspiel, wo wir wahrscheinlich keinen Preis,
0:14:08–0:14:13
keinen Oscar und sonst keinen schauspielerischen Preis dafür bekommen haben.
0:14:13–0:14:14
Wir hatten auch kein Drehbuch.
0:14:14–0:14:19
Aber ich glaube, wir sind eben sofort am richtigen Punkt gelandet,
0:14:19–0:14:22
nämlich an dem Punkt, wo eben entscheidend ist.
0:14:22–0:14:27
Das ist nämlich die KI, solange sie dir einfach nur Sachen sagt und Bilder macht
0:14:27–0:14:30
und du entscheidest dann mit dem, ob du es brauchst oder nicht,
0:14:30–0:14:34
oder wie du es brauchst, ist glaube ich alles easy peasy, da passiert nichts.
0:14:34–0:14:41
Aber wenn du dieser KI halt Entscheidungsmacht gibst und ihr erlaubst,
0:14:41–0:14:45
so Entscheidungen zu fällen, dann wird es tatsächlich sofort schwieriger, oder?
0:14:45–0:14:48
Und da sind wir, glaube ich, mitten in diesem Problem hinein.
0:14:49–0:14:52
Dass es KIs gibt, die es ja heute schon gibt, dass du zum Beispiel,
0:14:52–0:14:57
wenn du irgendeine Bewerbung schickst an ein Unternehmen, dass das vielleicht
0:14:57–0:15:04
dort eine KI einsetzt, die schon mal die Dossier sichtet und deinen Lebenslauf anschaut.
0:15:04–0:15:09
Und wenn dieser KI dann irgendetwas nicht passt, dann sortiert sie dich raus,
0:15:10–0:15:14
ohne dass du eine Ahnung hast, warum oder eben, dass das kein Mensch war,
0:15:14–0:15:16
sondern vielleicht irgendein Algorithmus.
0:15:19–0:15:26
Ich glaube, ich bin wirklich am Punkt, wo ich mir überlege, werde ich jetzt
0:15:26–0:15:28
so einen Corona-Verschwörer?
0:15:29–0:15:34
Nein, wirklich. Wo ich das Gefühl habe, sehe ich jetzt ein Problem,
0:15:35–0:15:36
das überhaupt nicht ist?
0:15:37–0:15:42
Wo ich mich völlig in irgendetwas und mir einfach überlege, hey,
0:15:42–0:15:45
die KI, wann haben wir das erste Mal von dem geredet?
0:15:46–0:15:54
Es ist noch nicht lange her und es ist omnipräsent. Es kommt ins nächste Office
0:15:54–0:16:00
rein, es wird ins iPhone integriert, es findet überall Integration von KI statt.
0:16:01–0:16:05
Vor zwei Jahren hätte ich jetzt gesagt, noch kein Thema. Thema.
0:16:06–0:16:10
Oder sehr am Anfang. Ja, ich finde das...
0:16:11–0:16:14
Ich kann jetzt diese Rolle nicht mehr wahrnehmen. Also ich muss auch zu dir
0:16:14–0:16:16
auf die skeptische Seite wechseln.
0:16:16–0:16:19
Ich finde auch, also das ist etwas, das ich wirklich kritisieren würde.
0:16:19–0:16:25
Das ist das Tempo, das wir da vorlegen, ohne dass wir eine Chance haben,
0:16:25–0:16:28
zu überlegen, ob es sinnvoll ist und wo Gefahren liegen könnten.
0:16:28–0:16:34
Ich glaube, da gab es mal so ein paar Wissenschaftler, die auch das Moratorium
0:16:34–0:16:36
gefordert haben, einen offenen Brief und so.
0:16:36–0:16:41
Aber aus dem ist ja offensichtlich nichts geworden. Man sieht, wenn es darum geht,
0:16:41–0:16:48
Kohle zu produzieren versus Risiken abschätzen zu können, dann ist völlig klar,
0:16:48–0:16:53
was im kapitalistischen System für eine Entscheidung getroffen wird.
0:16:53–0:16:58
Das finde ich auch. Das Problem ist tatsächlich,
0:16:59–0:17:07
das hat die EU in dem AI Act, dass in diesem Gesetz zur Regulierung der KIs eben auch genau,
0:17:08–0:17:15
glaube ich, schon richtig erkannt, dass man diese Fälle beurteilen oder regulieren
0:17:15–0:17:18
muss, wo eben so KIs im Hintergrund irgendetwas entscheiden,
0:17:18–0:17:20
ohne dass man eigentlich weiss,
0:17:21–0:17:25
nach welchen Regeln das macht und ob sie nicht irgendwelche Vorurteile hat,
0:17:26–0:17:31
ob sie vielleicht nur mit weissen Gesichtern trainiert worden ist und schwarze
0:17:31–0:17:34
Gesichter darum nicht vernünftig.
0:17:35–0:17:37
Behandeln kann, um was auch immer es geht.
0:17:38–0:17:43
Das ist, glaube ich, sehr entscheidend. Aber ich glaube, solange man sich bewusst
0:17:43–0:17:47
ist, wo man KIs einsetzt und was man derer für Kompetenzen gibt,
0:17:47–0:17:48
ist es nicht so gefährlich.
0:17:48–0:17:54
Aber ich glaube, ich sehe schon irgendwie, dass die dann so halt irgendwo auch
0:17:54–0:17:59
in so Rollen herutschen, wo wir dann am Schluss uns fragen, wie das überhaupt passieren könnte.
0:18:00–0:18:04
Das sehe ich schon als Gefahr. Ja, und ich weiss auch nicht,
0:18:04–0:18:08
wie stark man diese Rolle eingrenzen möchte.
0:18:08–0:18:11
Wenn wir jetzt an dem Punkt sind, wo man sagt, ja gut, jetzt schauen wir einfach
0:18:11–0:18:16
mal, was ist überhaupt möglich, und was ist nicht möglich.
0:18:17–0:18:19
Also man gibt dem wahrscheinlich keinen Rahmen.
0:18:20–0:18:25
Und das ist so ein bisschen durcheinander, dass auch Google und viele KI-Forscher
0:18:25–0:18:29
sagen, hey, wir wissen nicht mehr genau, woher es diese Infos hat.
0:18:29–0:18:31
Und was er jetzt genau macht.
0:18:32–0:18:37
Und ich habe jetzt nicht das Gefühl, dass er KI wird.
0:18:38–0:18:41
Apokalypse und Terminator und das gar nicht,
0:18:42–0:18:50
aber ich habe Angst, dass es es macht Fehler und es macht, es gibt Falschinformationen
0:18:50–0:18:55
und wir nehmen das dann als garantiert und das sehe ich als grosses Problem.
0:18:55–0:18:58
Ich kann in der KI, kann ich hineinschreiben, jetzt schreibe ich mir einen Text
0:18:58–0:19:02
über das und das Thema und das macht mir das, aber das zu verifizieren,
0:19:02–0:19:06
braucht ja dann gleich wieder das Fachwissen und das fehlt mir dann und dann
0:19:06–0:19:10
nehme ich das für, es ist von KI gemacht, das stimmt.
0:19:10–0:19:13
Ja, genau, also das ist sicher ein Punkt, dass man das Gefühl hat,
0:19:13–0:19:15
oder viele Leute haben das Gefühl, ja, KI,
0:19:15–0:19:21
gleich magisch, gleich irgendwie etwas Übersinnliches, gleich die reine Wahrheit,
0:19:21–0:19:25
also das wird ja auch oft so beworben, das sehe ich immer wieder,
0:19:25–0:19:29
dass halt die Leute sagen, ja, eben, sie macht das so auf keine weiss wie,
0:19:29–0:19:33
aber es kommt irgendwie etwas Sensationelles raus, also müssen wir das einfach
0:19:33–0:19:36
machen lassen und wahrscheinlich ist das tatsächlich, dass.
0:19:37–0:19:42
Entweder schränkst du es auf das ein, wo du genau voraussagen kannst, was dabei herauskommt.
0:19:43–0:19:47
Aber dann ist es wie ein klassischer Algorithmus, den du hart programmiert hast.
0:19:48–0:19:53
Und dann kann er nur in diesem sehr eng begrenzten Rahmen operieren.
0:19:53–0:19:58
Oder du lässt ihn frei laufen und dann entsteht vielleicht etwas Geniales,
0:19:58–0:20:03
aber du verstehst es nicht mehr und siehst vielleicht auch gar nicht,
0:20:03–0:20:11
wo die Probleme sind und wo man den Grenzzun setzen müsste, bevor man einen Unfug anstellt.
0:20:11–0:20:13
Und das ist, glaube ich, tatsächlich das Problem.
0:20:15–0:20:20
Eigentlich, um herauszufinden, was drin liegt, müsste man es völlig frei machen
0:20:20–0:20:25
lassen, aber vielleicht laufen wir so genau in die Probleme,
0:20:25–0:20:31
dass die KI am Schluss findet, ja, also Menschen braucht es eigentlich nicht auf diesem Planeten.
0:20:31–0:20:34
Die Menschen sind irgendwie eher so ein bisschen schädlich, oder?
0:20:34–0:20:37
Und dann, das so wird ja immer erklärt, wenn man sagt,
0:20:37–0:20:41
wird die KI uns alle umbringen, das ist so die Begründung, dass sie eigentlich
0:20:41–0:20:47
feststellt, dass es uns nicht braucht und dann hat sie zufällig irgendwie ein
0:20:47–0:20:52
medizinisches Wissen und kann irgendein Virus programmieren und dann sind wir weg.
0:20:53–0:20:58
Ja, vielleicht. Ja, also an das glaube ich schon nicht.
0:20:59–0:21:03
Das glaubst du nicht? dass sie uns umbringt. Das glaube ich ehrlich gesagt auch nicht.
0:21:03–0:21:10
Also eben, wir müssen vielleicht tatsächlich, wenn wir irgendein KI-Medikament oder so,
0:21:10–0:21:14
oder in so einem Labor arbeiten lassen, nach ihrem Gutdünken,
0:21:14–0:21:18
müssen wir sie vielleicht schon so einsperren, dass sie nicht einfach sagen
0:21:18–0:21:21
kann, das entlade ich jetzt in die Atmosphäre.
0:21:21–0:21:24
Das mache ich jetzt noch. Ja, genau. Weil es ist besser.
0:21:25–0:21:29
Ja, also fertiggedacht kann man sich natürlich so etwas schon überlegen,
0:21:29–0:21:33
wenn man jetzt ein KI mal sagt, du einfach mal optimieren.
0:21:34–0:21:37
Mach mal das Beste, dass es dann so etwas macht.
0:21:37–0:21:42
Ich glaube, ich weiss es nicht, vielleicht kann man Mechanismen einbauen,
0:21:43–0:21:45
die das halt stoppen, aber ja.
0:21:45–0:21:50
Ich würde gerne mit dir schnell die Diskussion machen über die Medien.
0:21:51–0:21:54
Das ist die, die mich halt auch beschäftigt.
0:21:55–0:21:59
Das ist jetzt auch schon durch. Medienhäuser, ich weiss nicht,
0:21:59–0:22:03
ob der Tagi das schon macht, ersetzen Mitarbeiter durch KI.
0:22:03–0:22:08
Das ist jetzt die grosse Diskussion. Also jetzt entlaubt man Leute und dann
0:22:08–0:22:10
generiert KI News-Texte.
0:22:11–0:22:15
Das ist mal so eine Ausgangslage, die jetzt so ein bisschen passiert.
0:22:15–0:22:16
In Amerika ist das jetzt, glaube ich, schon ein bisschen durch.
0:22:17–0:22:22
Das ist jetzt Schritt 1. Jetzt haben wir mal das.
0:22:22–0:22:26
Und jetzt kommt Schritt 2. Jetzt suche ich etwas über ein Thema,
0:22:26–0:22:33
gebe das in den KI und jetzt referenziert KI auf den Newsbeitrag,
0:22:33–0:22:36
welcher KI geschrieben hat.
0:22:36–0:22:42
Jetzt kann ich als Quelle natürlich sagen, ja cool, das kommt von der Zeitung
0:22:42–0:22:46
YY, das ist verifiziert, das hat jemand nachgeschaut, das ist super.
0:22:46–0:22:51
Und jetzt haben wir ein Problem, weil jetzt ist Quellenfindung mega schwierig.
0:22:51–0:22:56
Weil jetzt ist KI über KI über KI und jetzt müsste ich alles kontrollieren.
0:22:57–0:23:00
Und das sehe ich als Problem.
0:23:01–0:23:10
Das sehe ich auch als Problem. Aber ich glaube, Medienhäuser sollten nicht einfach
0:23:10–0:23:12
Journalisten durch KIs ersetzen.
0:23:12–0:23:15
Ich glaube, das wäre das Dümmste, was man machen könnte.
0:23:15–0:23:24
Gerade an dem Punkt, wo der Medienwandel immer noch so im Gang ist und man immer noch probiert,
0:23:24–0:23:30
händeringend Kundschaft dazu zu bringen, für Inhalte zu zahlen.
0:23:30–0:23:33
Und wenn du dann einfach irgendeinen Roboter schreiben lässt,
0:23:33–0:23:38
dann finde die Kundschaft zu Recht, ich zahle doch nicht für irgendein Artikel,
0:23:38–0:23:43
das eine Jet-GPT zusammengeprünselt hat, sondern ich glaube,
0:23:43–0:23:46
man darf die brauchen zum Recherchieren, man darf die brauchen zum...
0:23:48–0:23:49
Was weiss ich was.
0:23:51–0:23:55
Einfach so für nicht kreative Sachen, aber ich finde, jeder Text,
0:23:56–0:23:59
der jemand dafür zahlt, der sollte von einem Menschen geschrieben werden.
0:24:00–0:24:08
Und ich glaube, eben sonst war das nicht CNET in Amerika, wo schon so Roboter eingesetzt haben.
0:24:09–0:24:15
Und die haben ja dann auch brutal abgeschrieben von anderen, also plagiiert und so.
0:24:15–0:24:21
Und ich glaube, das ist Das war ja seinetisch, die haben das ausprobiert,
0:24:21–0:24:24
sie haben es auch nur so halb gar, halb batzig deklariert und so.
0:24:25–0:24:30
Und das, man hat dann auch sofort gesehen, also das ist, vor drei Wochen ist
0:24:30–0:24:32
dann zum Beispiel gestanden, hat Arzt, Techniker geschrieben,
0:24:32–0:24:37
also Wikipedia hat jetzt reagiert auf das und die schauen die einfach nicht
0:24:37–0:24:40
mehr als verlässlich an, die Inhalte, die die machen.
0:24:40–0:24:46
Und ich glaube, das gibt schon eine Selbstregulierung, aber ich glaube auch,
0:24:46–0:24:51
die KIs, die müssen, dass sie arbeiten können, brauchen diese guten Inhalte
0:24:51–0:24:56
und diese guten Inhalte müssen von Menschen erschaffen werden.
0:24:56–0:25:03
Und wenn du da immer nochmal eine Stufe drauf setzt, so wie du das geschildert
0:25:03–0:25:10
hast, ich glaube, dann geht es 1, 2, 3 Generationen und da kommt der gröbste Unsinn hinten raus.
0:25:14–0:25:19
Ja, also das sind halt so Überlegungen, die ich als Problem sehe,
0:25:19–0:25:25
dass man dann eben diesen Sachen einfach vertraut, wenn man der KI halt irgendeine
0:25:25–0:25:28
Aufgabe gibt, dass die eine Lösung für das Problem findet.
0:25:28–0:25:33
Aber es ist nicht eine gute Lösung und es ist oft auch nicht eine sinnvolle
0:25:33–0:25:36
Lösung, aber es ist eine und sie verkauft es extrem gut.
0:25:36–0:25:43
Das ist genau das. Ich glaube auch, dass das sehr schwer zu kontrollieren ist,
0:25:43–0:25:49
dass so Unternehmen wirklich einfach sagen, ja, wir haben da unsere Lösung getestet.
0:25:49–0:25:53
Bei den ersten tausend Fällen hat sie gut funktioniert, also setzen wir sie
0:25:53–0:25:59
ein zum Kreditvergaben beurteilen, zum medizinischen Entscheid treffen,
0:25:59–0:26:01
zum dieses, zum jenes und so.
0:26:01–0:26:04
Und am Anfang kontrolliert man es vielleicht noch so ein bisschen und irgendwann
0:26:04–0:26:08
einmal macht man es nicht mehr, weil es irgendwie gut funktioniert und irgendwann
0:26:08–0:26:10
einmal funktioniert es nicht mehr gut.
0:26:10–0:26:13
Und wer ist dann geschuld, oder? Also wer ist dann, ich glaube,
0:26:13–0:26:15
das ist ja auch völlig nicht klar.
0:26:15–0:26:20
Also wenn du zum Beispiel, ja, wenn du jetzt irgendeinen Text schreibst und
0:26:20–0:26:24
den veröffentlichst und dort steht in den Hanebüchern Unsinn drin und du hast
0:26:24–0:26:29
dann aber von der KI dann geschrieben, ist dann die KI geschuld?
0:26:29–0:26:33
Bist du trotzdem selber geschuld? Ist der geschuld, der die KI programmiert hat?
0:26:34–0:26:37
Ist es sonst noch irgendjemand? Ist der selber geschuld, der es gelesen hat?
0:26:38–0:26:41
Also das wird halt sofort wirklich schwierig.
0:26:43–0:26:46
Ja, und das ist wahrscheinlich ein Problem.
0:26:47–0:26:50
Und das nächste Problem, das ich sehe, ist, dass die KI-Dienste,
0:26:50–0:26:56
die JetGPT, ich habe mit dem relativ schnell angefangen, die lassen sich für
0:26:56–0:26:57
ihre Dienstleistung zahlen.
0:26:58–0:27:05
Das heisst, eine JetGPT Version 4 zahlt man, ich weiss gar nicht, 40 Franken im Monat.
0:27:05–0:27:12
20, glaube ich. Man zahlt den Betrag, aber eigentlich,
0:27:15–0:27:20
die KI ja keinen Inhalt generieren kann, also sie generiert Inhalte,
0:27:20–0:27:24
aber sie erschafft keine Inhalte, im Sinne von sie kreiert nichts Neues.
0:27:25–0:27:31
Und jetzt zahle ich einen Dienst, der mir aber keinen Inhalt kreiert,
0:27:31–0:27:36
aber ich zahle der Person, die diesen Inhalt kreiert hat, halt nichts.
0:27:37–0:27:40
Und das ist wieder das Internet-Problem.
0:27:41–0:27:45
Jetzt haben wir das Gleiche, was wir mit den Filmen hatten, was wir mit der
0:27:45–0:27:48
Musik hatten, jetzt geht es um die Inhalte, jetzt geht es um das Textschreiben.
0:27:48–0:27:52
Jetzt machen wir etwas kaputt, was eh schon am Boden war.
0:27:53–0:27:57
Aber irgendwann kommen halt all die Leute, die diese Texte erschaffen und kreieren
0:27:57–0:28:01
und sich Mühe geben und Wikipedia-Artikel machen und all das.
0:28:01–0:28:02
Die haben ja nichts davon.
0:28:03–0:28:07
Nichts. Und wer verdient? Die Leute, die eine KI eingeschrieben haben,
0:28:08–0:28:10
eine Software, die diesen Dienst verkauft, die das zusammenfasst.
0:28:10–0:28:13
Aber wer macht am Schluss dann noch die Inhalte?
0:28:13–0:28:17
Das ist eine sehr berechtigte Frage und ich habe ja, vielleicht erinnert ihr
0:28:17–0:28:23
euch daran, mit Andreas Foghunter darüber geredet, vor drei, vier Wochen.
0:28:23–0:28:29
Und er hat gefunden, er ist ja ein dezidierter Verfechter von diesem gemeinsamen Wissen.
0:28:29–0:28:33
Und er hat gesagt, das kommt allen zu gut und es entsteht etwas Neues.
0:28:33–0:28:37
Aber ich bin auch einer auf dieser Seite, dass ich finde, einfach,
0:28:37–0:28:39
wenn da, man kann sich eben,
0:28:39–0:28:44
es hat ja im Mittelalter dann auch die Druckereien gegeben, die dann nur die
0:28:44–0:28:49
Bücher drucken durften, dann gab es nur die Leute, die die Bücher gekannt haben
0:28:49–0:28:52
und dann gab es so ein Herrschaftswissen,
0:28:52–0:28:55
das halt nicht allen zu gut kam.
0:28:55–0:28:57
Und das sehe ich hier eben auch als Problem.
0:28:58–0:29:03
Wenn ein Einzelunternehmen darüber bestimmen kann, wie es so und wer und unter
0:29:03–0:29:09
welchen Bedingungen man Wissen nutzen kann, das alle zusammengetragen hat,
0:29:09–0:29:10
das eigentlich der Menschheit gehört.
0:29:11–0:29:17
Aber wo dann so ein Gatekeeper, also das ist ja auch der Begriff,
0:29:17–0:29:21
den die EU benutzt, für so grosse, mächtige Unternehmen, die dann eben so an
0:29:21–0:29:26
der Schaltstelle sitzen davon, was Leute machen können und was nicht.
0:29:26–0:29:30
Wenn so ein Gatekeeper dann über das Wissen, wie er kann, entscheidet,
0:29:30–0:29:35
dann sehe ich also schon auch ganz grosse Probleme auf uns zukommen.
0:29:35–0:29:40
Und darum, ja, sollte man vielleicht tatsächlich zuerst überlegen,
0:29:40–0:29:46
wie man die in den Griff bekommt, bevor man sich dann da kopfüber in das Abenteuer einstürzt.
0:29:46–0:29:50
Aber ich glaube, das kannst du vergessen.
0:29:50–0:29:54
Es ist doch In der Menschheitsgeschichte ist es so, dass man etwas macht,
0:29:54–0:30:00
man erfindet etwas, man macht die Atombombe oder man spaltet mal ein paar Atome
0:30:00–0:30:04
und dann schaut man, was die negativen Auswirkungen sein könnten.
0:30:04–0:30:07
Und dann ist aber das Kind eben schon im Brunnen eingefallen.
0:30:07–0:30:12
Dann bringst du das Wissen oder die Erfindung nicht mehr zur Welt raus.
0:30:13–0:30:17
Ich bin wirklich gespannt, wie es weitergeht.
0:30:17–0:30:20
Ich glaube, das wäre auch eine spannende Diskussion oder vielleicht auch eine
0:30:20–0:30:22
Rückmeldung von den Hörern, wie ihr das findet.
0:30:23–0:30:25
Ich bin nicht der, der Apokalypse sagt.
0:30:26–0:30:31
Aber ich bin ein Megatechnik-Fan, ich bin ein Mega-KI-Fan, ich finde es extrem spannend.
0:30:32–0:30:38
Aber ich bin am Punkt, wo ich sage, hey, sehen wir auch die Gefahr,
0:30:38–0:30:44
sind wir uns dem bewusst und wissen wir, was wir da machen und wirklich das
0:30:44–0:30:47
Gefühl haben, nein, wir wissen nicht mehr, was wir machen.
0:30:48–0:30:53
Wir probieren jetzt irgendetwas aus und das kann ich tosen. Ja, das kann man.
0:30:53–0:30:58
Aber man kann sagen, dass es in der Menschheitsgeschichte so war,
0:30:58–0:31:02
dass man irgendeine Erfindung gemacht hat und dann war sie da.
0:31:03–0:31:08
Dann bringst du sie nicht mehr weg und musst damit umgehen. Dann kannst du die Vernunft appellieren.
0:31:08–0:31:12
Aber das nützt nichts, weil einer oder ein anderer sieht dann garantiert einfach
0:31:12–0:31:18
die Möglichkeit jetzt berühmt und reich und einflussreich und mächtig zu werden
0:31:18–0:31:21
und darum bringst du das nicht mehr unter den Deckel und ich glaube,
0:31:21–0:31:24
dass immer also eben, ich finde eigentlich wirklich,
0:31:24–0:31:28
ich bin mir noch nicht so sicher ich habe schon den EU AI Act erwähnt und wir
0:31:28–0:31:35
haben da auch dann Tonnen von Shownotes wo ihr auch noch also die Sachen könnt
0:31:35–0:31:37
ihr im Detail nachlesen auf nerdfunk.ch,
0:31:38–0:31:40
und ich bin mir nicht sicher, ob der EU.
0:31:41–0:31:45
Der AI-Act wirklich alle Probleme löst.
0:31:45–0:31:50
Nein, das glaube ich nicht und ob er auch zu entdenkt ist und ob er nicht irgendwie,
0:31:51–0:31:54
eine zu einfache Lösung für ein zu kompliziertes Problem ist,
0:31:54–0:31:57
aber ich finde es gut, dass man es mal probiert und dass man jetzt zumindest,
0:31:57–0:31:59
ich glaube, dass sie auf die,
0:32:00–0:32:01
KIs losgehen, die eben.
0:32:03–0:32:06
Weitreichende Entscheidungen treffen und sagen, oder dort, wo es wirklich wirklich
0:32:06–0:32:07
gefährlich werden kann.
0:32:07–0:32:10
Eben so Massenüberwachungen und so, sagt man, will man nicht haben.
0:32:10–0:32:15
Dass man die Leute einfach profilieren kann nach Gutdünken, ohne dass sie das wissen.
0:32:15–0:32:24
Man will so selbstlenkende KIs und medizinische Sachen, will man vorsichtig sein.
0:32:24–0:32:29
Aber eben auch alles, wo irgendjemand eine Entscheidung getroffen wird,
0:32:29–0:32:31
da müssen wir genau hinschauen. Das finde ich gut.
0:32:31–0:32:34
Ich weiss nicht, ob es reicht, aber es ist jetzt sicher mal ein erster Schritt.
0:32:35–0:32:39
Und Kevin, jetzt haben wir gar noch nicht darüber geredet, ob wir dann,
0:32:39–0:32:44
das wäre ja noch weitere Angst, die man haben kann, ob wir dann alle arbeitslos werden,
0:32:44–0:32:49
weil die KIs einfach dann unseren Job besser und schneller und effizienter und
0:32:49–0:32:51
günstiger machen, als wir selber.
0:32:53–0:33:01
Meine Prognose ist ja. Ich glaube, wenn KI da ist und sie macht es 10% schlechter
0:33:01–0:33:03
als ein Mensch, sagt jeder,
0:33:04–0:33:08
nehmen wir, weil es kostet nichts. Das wird passieren.
0:33:09–0:33:13
Ich bin überzeugt davon, dass ganz viele Stellen auf der Kippe stehen,
0:33:14–0:33:19
weil KI wird die Ratzfatz ersetzen und nicht besser, aber gratis.
0:33:19–0:33:22
Genau, und dann sind wir dann auch wieder in dem gleichen Problem,
0:33:22–0:33:26
wo du gesagt hast, was passiert, wenn ein KI einen Text schreibt,
0:33:26–0:33:31
der dann ein KI wieder lehrt und weiterverwendet und dann kommt die nächste
0:33:31–0:33:32
KI und macht nochmal etwas daraus.
0:33:32–0:33:37
Das wird dann auch so sein, wenn die KIs die Software entwickeln.
0:33:37–0:33:40
Man findet eben, all diese teuren Informatiker, die sparen wir uns.
0:33:41–0:33:42
Das kann der Chat-Hippie-Tee günstiger.
0:33:45–0:33:48
Ich würde es ein bisschen anders formulieren.
0:33:48–0:33:52
Da klaue ich einfach den Text, wo ich... Und wir müssen gerade aufhören.
0:33:52–0:33:56
Ich höre gerade auf. Es ist Punkt 8, aber wir reden noch schnell fertig.
0:33:57–0:34:02
Wo ich gelesen habe, auf LinkedIn, Ich glaube, jeder zweite Klugscheisser hat
0:34:02–0:34:05
mir den in den letzten Monaten unter die Nase gegriffen.
0:34:05–0:34:09
Und der sagt, du wirst nicht von einer KI ersetzt in deinem Job,
0:34:09–0:34:12
aber du wirst von einem ersetzt, der eine KI nutzt.
0:34:13–0:34:17
Der ersetzt dich. Ja, das wird so sein.
0:34:17–0:34:25
Und ich glaube auch, der Mensch wird es noch brauchen, aber weniger Leute werden
0:34:25–0:34:26
viel mehr machen können.
0:34:26–0:34:29
Und wie gehen wir damit um? Warum?
0:34:30–0:34:34
Du hast gesagt, du seist trotzdem optimistisch.
0:34:34–0:34:39
Wie gehst du mit diesem Dilemma um, dass du als optimistischer Mensch ganz viele
0:34:39–0:34:41
schwierige Seiten siehst?
0:34:41–0:34:44
Das weiss ich nicht. Ich glaube, es ist ein Bewusstsein für das, was passiert.
0:34:45–0:34:49
Und dann mal schauen, wie man das nutzen kann. Ich habe keine Ahnung.
0:34:51–0:34:55
Mir geht es ein wenig ähnlich. Aber was mir hilft und mich manchmal tröstet,
0:34:55–0:34:59
ist, wenn man wirklich intensiv mit diesen Systemen schafft,
0:34:59–0:35:02
dann siehst du immer wieder, wo sie anstehen und wie dumm das eigentlich sind.
0:35:03–0:35:07
Und das sich dann selber immer wieder so entzaubert auch.
0:35:07–0:35:13
Und ich glaube, das hilft und dann kannst du sagen, okay, so ganz nutzlos bin
0:35:13–0:35:17
ich trotzdem immer noch nicht. Ich habe doch immer noch den besten Jahr.
0:35:17–0:35:21
Und das würde ich euch allen empfehlen, wenn es euch so geht wie uns.
0:35:22–0:35:26
Aber mir graut schon, ehrlich gesagt, Von dem Moment, in dem irgendwann mal
0:35:26–0:35:31
ein K.I. kommt, der sagt... Oder wo ich mal sage, hey, die war jetzt schlauer
0:35:31–0:35:35
als ich, das wäre ich nie gekommen. Scheisse. Dann ist es echt scheisse.
0:35:35–0:35:39
Dann sind wir am Arsch. Ja. Ja, das ist interessant.
0:35:39–0:35:51
Music.

Ist ChatGPT unser Freund – oder wartet der Bot nur darauf, uns bei der erstbesten Gelegenheit in den Rücken zu fallen?

Wir haben oft über die Chancen der künstlichen Intelligenz gesprochen. Doch heute geht es um die Gefahren: Da gibt es das Horrorszenario, dass eine superintelligente KI zum Schluss kommt, die Menschheit sei überflüssig oder sogar schädlich und sie vom Planeten tilgt.

Aber uns interessieren auch die weniger spektakulären, aber umso realeren Bedrohungen: Beispielsweise, dass eine KI über unsere Bewerbung, unseren Kreditantrag oder unsere medizinische Behandlung urteilt – und das mit Vorurteilen tut, die uns und vielleicht auch dem Betreiber nicht bekannt sind. Und es geht auch um unsere Jobs und die Frage, wie gross die Konkurrenz von ChatGPT in der Arbeitswelt ist. „Wann fällt uns ChatGPT in den Rücken?“ weiterlesen

Apple, die EU und das App-Store-Monopol

Transkript anzeigen (falls vorhanden)

00:00–0:00:07
Music.
0:00:07–0:00:11
Bitter Moon mit A Glimpse of Heaven.
0:00:12–0:00:20
Was soll denn bitte das sein? Das ist kurz, du Holz. Radio statt Filter. 96,3 Megahertz.
0:00:22–0:00:27
Und das ist Pre-Show, du Holz. Tiggi Chris, fühlst du dich angesprochen?
0:00:28–0:00:30
Ui, halt, stopp, jetzt.
0:00:31–0:00:37
Halt, stopp. Jetzt stopp, ja. Entschuldigung, du Holz. Ich habe ein falsches
0:00:37–0:00:38
Ding gehabt. Aber jetzt ist alles gut.
0:00:41–0:00:47
Genau, du wolltest noch etwas sagen, Chris? Eben, dass wir mit der 96.3 spätestens
0:00:47–0:00:50
in zwei Jahren irgendwie mal neu aufnehmen.
0:00:50–0:00:54
Du meinst halt die Jingles. Ja, ich finde das sowieso doof, das mit diesem Megaherz.
0:00:54–0:00:59
Wenn der Radiosender hört, dann hast du die Frequenz schon gefunden.
0:01:00–0:01:05
Aber trotzdem, Kevin hat nicht zu viel versprochen. Die Hühner sind auch da.
0:01:07–0:01:12
Aber man hört es. Man hört es wahnsinnig, ja.
0:01:13–0:01:21
Es sind die kleinen Hühner, ganz kleine. Du hast Babys, bist du Hühnervater geworden?
0:01:22–0:01:26
Ich bin schon hundert Mal Hühnervater geworden, aber ich bin jetzt wieder Hühnervater.
0:01:28–0:01:31
Ich nehme Hühner halt, ich sammle Hühner.
0:01:33–0:01:36
Sammeln ist wie, dann hat man nie genug. Ah ja, okay.
0:01:36–0:01:40
Dann ist es okay, wenn es eine schwierige Menge erreicht hat.
0:01:41–0:01:43
Bei mir hat es eine schwierige Menge erreicht.
0:01:43–0:01:47
Was heisst eine schwierige Menge? Du kannst noch nicht davon leben,
0:01:47–0:01:53
aber es sind so viele, dass du dich jeden Tag ernsthaft um sie kümmern musst.
0:01:54–0:02:01
Es sind über 40. Ui, 40? Eben, das ist eine schwierige Menge.
0:02:02–0:02:06
Ja, ich sehe es. Und diese Babyhühner hier, das ist eine Rasse,
0:02:07–0:02:09
die ich noch nie vorher gehört habe.
0:02:09–0:02:12
Und ich bin per Zufall an Bruteier angekommen von dieser Rasse.
0:02:12–0:02:16
Und ich dachte, muss ich haben. Das ist cool, dass niemand es hat.
0:02:17–0:02:19
Hast du schon Namen für all diese 40?
0:02:23–0:02:29
Es hat einen Bruno. Einen Bruno? Es hat einen Bruno, es hat einen Simba,
0:02:29–0:02:36
es hat das Bumerli und es hat den Aufschauvogel.
0:02:38–0:02:42
Der Aufschauvogel, also die Geschichte davon ist, das Problem ist,
0:02:42–0:02:45
wenn sie ausschlüpfen und sie schlüpfen,
0:02:46–0:02:51
das Ei liegt verkehrt. Dann haben sie mega lange bis sie checken was oben und unten ist.
0:02:52–0:02:58
Und dann gibt es Küken, die schlüpfen, wo dann eigentlich der Kopf immer ganz
0:02:58–0:03:01
hinten auf den Rücken liegt und dann fallen sie eigentlich auf den Rücken.
0:03:01–0:03:06
Und dann sterben sie. Das ist wirklich so, das ist nicht geil.
0:03:06–0:03:07
Ah, sie sterben dann sogar?
0:03:08–0:03:12
Ja, sie können sterben an dem, genau. Und der Uferluagifogel war eben so einer.
0:03:12–0:03:17
Der hatte genau das Problem. Und ich versuche dann immer den in die Socken reinzutun
0:03:17–0:03:22
oder in WC-Papier einzuwickeln, damit er nicht rauf schaut.
0:03:22–0:03:26
Und der hat es geschafft, der ist gesund, der rauf schau Vogel.
0:03:26–0:03:30
Also das klingt schon nach einem Film, der dann vielleicht einen Oscar bekommen
0:03:30–0:03:34
würde, wenn man da, du als Hunde-Papa, äh Hunde sage ich, als Hühnerpapa,
0:03:34–0:03:38
Als Hunde. Der muss alles machen, um seine Hühner zu retten.
0:03:39–0:03:45
Wir haben ein wahnsinnig dicht gedrängtes Programm in dieser Pre-Show.
0:03:45–0:03:50
Eigentlich müssen wir wahrscheinlich mal umgekehrt. Wir machen nur sechs Minuten
0:03:50–0:03:54
Tech und den Rest dann alles Pre-Show.
0:03:54–0:03:59
Ich wollte noch erzählen, dass ich jedes Mal etwas Abenteuerliches erlebe,
0:04:00–0:04:01
wenn ich in ein Studio komme.
0:04:01–0:04:10
Auf der Zürcher Strasse beim Neuwiesenzentrum ist ein Auto, das so ein Ding umgefahren hat.
0:04:11–0:04:14
Eine Ampel. Das fand ich recht abenteuerlich.
0:04:15–0:04:20
Ich hätte mich als Polizeireporter betätigt, wenn ich nicht sofort losrennen musste.
0:04:20–0:04:25
Dann hat mir Digi Chris gesagt, ich müsse bereit sein, Musik zu spielen.
0:04:25–0:04:29
Digi Chris, ich mache das in deinen Wunsch. Es ist mir Befehl. Ja, komm.
0:04:30–0:04:33
Also du musst uns aber noch schnell sagen, was das eigentlich ist.
0:04:33–0:04:39
Das ist ein Kollege, der super Queries im SAP BW schreiben kann und er kann
0:04:39–0:04:42
auch Songs schreiben, Basses mit Bad Ray.
0:04:43–0:04:50
Music.
0:04:49–0:04:53
No one has a clue, das könnte unsere Hymne sein, Digi Chris.
0:04:53–0:04:55
Jetzt musst du nochmal sagen, wer das war.
0:04:55–0:05:03
Das waren Basses mit Bad Ray. Genau, Better Days und jetzt kommt die beste Sendung, könnte man sagen.
0:05:03–0:05:18
Music.
0:05:18–0:05:24
Wir schalten knallhart auf Tech um nach dieser Pre-Show und kommen zu der EU.
0:05:24–0:05:28
Die EU zwingt nämlich die Tech-Konzerne zur Öffnung.
0:05:28–0:05:34
Seit letzter Woche gibt es die Möglichkeit für iPhone-App-Stores von Drittanbietern.
0:05:35–0:05:41
Wie funktionieren die? Was bedeutet die Öffnung, wenn es dann eine ist für Nutzerinnen und Nutzer?
0:05:41–0:05:46
Und warum hagelt es dann jetzt trotzdem? Trotzdem, sie öffnet sich und es hagelt
0:05:46–0:05:48
trotzdem Kritik an Apple.
0:05:49–0:05:54
Kevin, hallo Kevin, hast du diese Sache verfolgt? Hast du eine Ahnung,
0:05:54–0:05:55
über was wir heute Abend reden?
0:05:56–0:05:59
Nein, ich habe keine Ahnung. Ich denke, ich komme einfach wieder mal dazu,
0:05:59–0:06:01
weil ich immer gefehlt habe in letzter Zeit.
0:06:01–0:06:06
Du bist krank gewesen, du bist entschuldigt. Du steckst hoffentlich nicht deine Hühner an.
0:06:06–0:06:08
Vielleicht haben die... Ah, hast du vielleicht die Hühner...
0:06:08–0:06:10
Vogelgrippe. Vogelgrippe.
0:06:10–0:06:14
Ich habe eigentlich Vogelgrippe. Dann ist es besser, wenn du nicht ins Studio
0:06:14–0:06:15
kommst, ehrlich gesagt.
0:06:17–0:06:20
Also, du hast es nicht verfolgt, das ist schon mal eine gute Frage.
0:06:20–0:06:23
Ich habe es am Rande verfolgt, ich habe mitbekommen, was läuft.
0:06:24–0:06:28
Nein, das stimmt wahrscheinlich nicht, viele Leute haben es wahrscheinlich gar
0:06:28–0:06:29
nicht mitbekommen. Nein, ich glaube nicht.
0:06:30–0:06:33
Wahrscheinlich habe ich es ein wenig verfolgt. Gut, dann bist du der,
0:06:33–0:06:41
der, so sagen wir, sichtweise von den unvoreingenommenen Anwenderinnen und Anwender in dieser Sendung.
0:06:41–0:06:44
Aber der Digi-Chris sieht so aus... Ich habe nicht wirklich eine Ahnung,
0:06:44–0:06:47
aber eine Meinung. Das ist immer gut.
0:06:47–0:06:49
So gehört sich das heutzutage.
0:06:50–0:06:53
Digi-Chris, ich nehme an, du bist voll in dieser Materie drin, oder?
0:06:54–0:06:58
Ja, natürlich. Auch die Podcasts, die ich höre, wenn man eine CT liest,
0:07:00–0:07:03
kommt man davon mit. Aber wir können jetzt schon spoilern.
0:07:03–0:07:07
Wir sind ja nicht in der EU, daher ändert sich für die Schweizer.
0:07:09–0:07:12
Gar nichts. Genau. Vorläufig zumindest. Noch nicht. Genau.
0:07:13–0:07:16
Ich fasse mal die Ausgangslage zusammen.
0:07:16–0:07:19
Wir haben dann auch Links. Ich habe viel geschrieben über das.
0:07:19–0:07:21
Wir haben dann auch die Links in den Show Notes.
0:07:21–0:07:28
Und eben, also seit März, seit diesem Monat, lässt Apple in den EU,
0:07:28–0:07:32
so muss man es sagen, Stores von Drittanbietern zu. Es gibt noch keine solche.
0:07:32–0:07:39
Es gibt Ankündigungen. Und damit stellt Apple die Anforderungen des Digital
0:07:39–0:07:44
Markets Act, DMA kurz genannt, das Gesetz der EU umsetzen.
0:07:44–0:07:49
Die sagen nämlich, wenn sie so als Gatekeeper, Apple ist ein Gatekeeper,
0:07:49–0:07:53
das heisst, sie haben so viel Einfluss auf diesen Markt, dass sie eigentlich
0:07:53–0:07:54
sagen können, was läuft und was nicht.
0:07:55–0:07:59
Und diese Gatekeeper will man zwingen, sich aufzutun, dass auch Konkurrenten
0:07:59–0:08:03
eine Chance haben, dass Wettbewerbsvorteile ausgleichen werden.
0:08:04–0:08:08
Das passiert dann auch an anderen Orten, z.B. über WhatsApp muss ich da öffnen
0:08:08–0:08:12
für andere Messenger, die müssen dann so interoperabel werden, d.h.
0:08:12–0:08:17
Man kann dann WhatsApp zu anderen Messenger rausschreiben und zurück.
0:08:17–0:08:19
Und das ist ja eigentlich noch gut.
0:08:19–0:08:23
Und eben, jetzt muss man allerdings wahrscheinlich ernsthaft darüber reden,
0:08:23–0:08:28
wie Apple diese Öffnung umgesetzt hat. Man könnte sich einfach vorstellen,
0:08:28–0:08:32
dass die beste Lösung wäre, man macht es so, wie z.B.
0:08:32–0:08:37
Android das macht. Wenn man dort will, kann man einfach eine App auch frei aus
0:08:37–0:08:40
dem Internet herunterladen, die auf sein Android drauf tut.
0:08:40–0:08:44
Man muss dann irgendwo ein Häkchen setzen, dass man das machen will und dann darf man das.
0:08:44–0:08:48
Wie Windows oder Mac kannst du auch einfach Software herunterladen und installieren.
0:08:48–0:08:53
Und so hätte ich mir das eigentlich vorgestellt. Aber so ist es ja nicht, Chris. Chris.
0:08:53–0:08:56
Hilfe, wenn du das machst, kommst du doch 100'000 Viren übernehmen.
0:08:57–0:09:01
Was mir auch ganz klar war, als wir gesehen haben, wo es hingeht,
0:09:01–0:09:05
ich nehme an, Apple wird nicht nur einen Lawyer, einen Anwalt angestellt haben.
0:09:06–0:09:10
Nein, gar nicht. Die werden das Gesetz 100'000 Mal durchgelesen haben und natürlich,
0:09:10–0:09:16
dass sie so auf Spitzen getrieben haben, dass sie genau so weit gehen können,
0:09:17–0:09:19
vielleicht noch ein bisschen weniger, aber dann,
0:09:20–0:09:24
traut sich vielleicht auch wie heisst sie, Margaret Vesta Gerdat.
0:09:27–0:09:30
Die Wettbewerbsministerin von der EU. Ich weiss auch nicht, wie man sie ausspricht,
0:09:30–0:09:31
aber ich weiss, wer du meinst.
0:09:32–0:09:38
Dass sie das so machen und ja, es ist klar, du kannst auch auf dem Mac,
0:09:38–0:09:42
selbst auf dem Mac kannst du ja grundsätzlich irgendwas runterladen.
0:09:42–0:09:44
Der Mac fragt dich halt dreimal gut.
0:09:44–0:09:50
Ich glaube, unter Windows, man kann es heutzutage sogar Windows so so konfigurieren,
0:09:50–0:09:54
dass er standardmässig nur den Store braucht und man kann sagen,
0:09:54–0:09:57
das ist aber eine Wahlfreiheit, wenn jemand sicher sein will.
0:09:57–0:10:01
Und ich glaube, das ist eine Tatsache, dass man so die Sicherheit wirklich erhöht,
0:10:01–0:10:04
wenn man nur Sachen, Software aus diesen Stores bezieht.
0:10:04–0:10:07
Aber wenn man das nicht will, kann man es auch anders machen.
0:10:08–0:10:12
Bei Windows gibt es einen lustigen Effekt, wo ich auch schnell sagen kann,
0:10:12–0:10:15
wenn du einen Server hast, ich sage jetzt immer ein Unternehmen,
0:10:15–0:10:19
das kann jedes Unternehmen sein, klar, mit dem Admin-Account darfst du nicht
0:10:19–0:10:23
ins Internet, das macht auch Sinn, dann lädst du dir halt irgendwie die Software,
0:10:24–0:10:28
runter, kopierst sie rüber, und dann, ich glaube Windows Smart Screen heisst
0:10:28–0:10:30
das, weil mit Microsoft reden.
0:10:32–0:10:36
Erreicht der Microsoft Server nicht und ja, nicht installieren.
0:10:36–0:10:39
So können sie dann auf dem iPhone kommen, weil, eben wie gesagt,
0:10:40–0:10:44
ich glaube, dass man versteht, wenn wir zwei eine App schreiben wollen,
0:10:44–0:10:47
dann müssen wir bei Apple so einen Developer, einen Entwickleraccount haben.
0:10:47–0:10:48
Ja, genau, den zahlen wir schon mal.
0:10:48–0:10:51
Ich glaube, 99 Stutz, jetzt machst du ihr eine App, ich sage jetzt,
0:10:51–0:10:55
was ich weiß, für den Kevin einen Hühnercounter, also wo du kannst...
0:10:55–0:10:57
Schau, ob da alle Hühner da sind. ...die Hühner zahlen.
0:10:58–0:11:03
Und sofern die App jetzt kein Schabernack macht, gibst du die Apple Die meisten
0:11:03–0:11:09
sind automatisiert und schaue einfach, ob sie nicht heimlich auf die Kamera zugreifen.
0:11:10–0:11:13
Sonst kommt sie in den App Store.
0:11:15–0:11:18
Dass es wahrscheinlich nicht so viele Hühnerbesitzer gibt, wird Kevin seine
0:11:18–0:11:21
App dann irgendwo unter wahrscheinlich ferner Leifen sein.
0:11:22–0:11:25
Das wissen wir nicht, also ich könnte mir vorstellen, vielleicht muss er noch
0:11:25–0:11:28
etwas Gamification trainieren und dann wäre das ein riesen Renner.
0:11:29–0:11:33
Du kannst sie kombinieren mit einem Moorhuhn oder so.
0:11:34–0:11:38
Mit einem Moorhuhn abknallen? Nein, das habe ich jetzt nicht gesagt,
0:11:38–0:11:42
das nehme ich zurück, ich bin auch ein Tierfreund. Also, genau. Augmented Reality.
0:11:43–0:11:51
Ja, das stimmt. Aber es ist natürlich schon so, dass Apple gewisse Sachen nicht zulässt.
0:11:52–0:11:57
Wahrscheinlich ist das eine ganze Menge. Sie haben auch die ungeschriebenen Gesetze.
0:11:57–0:12:02
Also gewisse Sachen machst du als Entwickler einfach nicht, wenn du das Gefühl
0:12:02–0:12:04
hast, das könnte nicht durchkommen.
0:12:04–0:12:09
Weil du willst nicht 100 Stunden oder 200 Stunden in eine App investieren,
0:12:09–0:12:12
wo dann Apple sagt, und sie müssen ja nicht weiter begründen.
0:12:12–0:12:14
Sie können einfach sagen, wir wollen die App nicht und fertig,
0:12:15–0:12:16
und dann kommt sie nicht ins Store.
0:12:16–0:12:20
Und das ist tatsächlich, ich glaube, es gibt schon einige Genres,
0:12:20–0:12:25
also es gibt zum Beispiel viele Utilities, die es einfach nicht gibt,
0:12:25–0:12:27
die es auf anderen Plattformen gibt.
0:12:28–0:12:31
Es gibt keine Emulatoren, es gibt keine.
0:12:33–0:12:39
Und es gibt wirklich alles Hardware-nahe, so dicke Apps gibt es nicht,
0:12:39–0:12:42
und Und da kann man sich schon vorstellen,
0:12:42–0:12:48
dass wenn das aufgemacht wird, dass dann neue Ideen und neue Programme entstehen.
0:12:49–0:12:52
Ist so, wie klar, alles was ihr mir jetzt ein bisschen als Copyright gebt,
0:12:52–0:12:55
also du wirst kein Mickey Mouse Spiel haben dürfen wegen Disney.
0:12:56–0:13:02
Mickey Mouse, der ursprüngliche Steamboat-Willy ist zum... Oder sagen wir halt Simpsons oder so.
0:13:03–0:13:06
Dings hat das darfst du nicht, natürlich alles was ein bisschen mit Haut zu
0:13:06–0:13:08
tun hat, darfst du auch nicht. Genau.
0:13:08–0:13:12
Und was auch ganz spannend ist, wenn du jetzt findest, es ist vielleicht…,
0:13:13–0:13:18
Eine gute Idee, auf deiner Apple-Watsch auf der Krone deine iPhone-Kamera auszulösen.
0:13:19–0:13:22
Soviel ich weiss, lässt Apple auch nicht so, wie du gesagt hast,
0:13:22–0:13:23
was Hardware-näufig ist.
0:13:23–0:13:26
Genau, und das können sie vielleicht immer noch unterbinden,
0:13:26–0:13:29
indem sie einfach die Schnittstellen nicht freigeben am iPhone.
0:13:30–0:13:33
Also Kevin, wir haben herausgefunden, dass du so ein bisschen den,
0:13:33–0:13:41
wie soll ich sagen, der, der nicht so mit Feuer und Flammen ist für das Thema,
0:13:42–0:13:44
kann man sagen, interessiert dich das?
0:13:44–0:13:48
Hättest du das Bedürfnis für einen zusätzlichen App Store oder dass du einfach
0:13:48–0:13:51
frei kannst, Software installieren bei deinem iPhone?
0:13:52–0:13:56
Ich habe mir das lange überlegt und ich weiss manchmal nicht,
0:13:56–0:14:01
warum würde... Also ich verstehe, dass Apple gewisse Sachen reguliert, die scheisse sind.
0:14:01–0:14:07
Also vielleicht möchte ich jetzt halt mal eine nackte Frau auf meinem Telefon anschaue.
0:14:07–0:14:10
Das ist okay, das geht einfach mal grundsätzlich nicht. Da verstehe ich es.
0:14:10–0:14:15
Aber bei anderen Apps habe ich manchmal das Gefühl, es ist auch okay,
0:14:15–0:14:20
dass die das nicht in den App-Store schaffen, weil die wirklich schlecht sind.
0:14:20–0:14:25
Und ich weiss auch nicht, werden dann die anderen Shops gar nicht reguliert?
0:14:25–0:14:29
Werden die anders reguliert? Kommt dann einfach eine andere Instanz, die kontrolliert?
0:14:30–0:14:32
Gibt es einfach einen Freipass?
0:14:33–0:14:37
Aus meiner Laufbahn ist es einfach so, dass die meisten Probleme,
0:14:37–0:14:40
die ich mit Android-Telefonen hatte, entstanden sind, weil sich die Leute irgendwann
0:14:40–0:14:43
an den Götter aus dem Internet abgeladen haben.
0:14:43–0:14:48
Das ist das Beste. Es wäre ein mega gutes Programm. Es läuft einfach nicht, aber es wäre mega gut.
0:14:48–0:14:53
Und dann weisst du, das Telefon macht irgendetwas, aber es funktioniert nicht mehr.
0:14:53–0:14:57
Und darum finde ich, dass Regulierungen gar nicht so schlecht sind.
0:14:57–0:15:01
Genau. Wir sind da wirklich schon an einem zentralen Punkt.
0:15:01–0:15:06
Ich glaube, ich fände es einfach mal grundsätzlich gut, dass man diese Freiheit
0:15:06–0:15:08
hat, egal ob man sie nutzt oder nicht.
0:15:08–0:15:13
Das ist ja eigentlich schön an Freiheit, dass du diese Freiheit nicht nutzen kannst.
0:15:13–0:15:16
Und das glaube ich wäre schon entscheidend.
0:15:16–0:15:22
Und deine Frage, nein, also die Trittstores sind überhaupt nicht unreguliert,
0:15:22–0:15:29
sondern auch dort macht Apple Vorschriften, dass sie die Anbieter mit gewissen Standards einhalten.
0:15:30–0:15:33
Was Qualität angeht, was Datenschutz und so angeht.
0:15:33–0:15:38
Und ich finde, da tut sich dann wahrscheinlich schon ein riesiges Feld für Konflikte auf.
0:15:38–0:15:42
Aber ist dann die Freiheit, die du jetzt gerade...
0:15:43–0:15:46
Hast, ist ja dann schon wieder weg. Ja, also eben, ich glaube,
0:15:46–0:15:49
wir müssen darüber reden, ob diese Freiheit überhaupt vorhanden ist.
0:15:49–0:15:55
Und da gibt es, ich spoilere jetzt, da gibt es so ganz viel Apple-Kritiker, die sagen, nein,
0:15:56–0:16:00
Apple hat wirklich einfach alles daran gesetzt, dass alles so bleibt,
0:16:00–0:16:05
wie es ist, indem sie die Alternativen so unattraktiv machen, wie überhaupt möglich.
0:16:05–0:16:10
Also es muss zuerst einmal, wenn du so einen Store starten willst,
0:16:10–0:16:11
musst du dich beglaubigen und musst sagen,
0:16:12–0:16:15
jawohl, ich halte mich an die Regeln grundsätzlich von Apple,
0:16:15–0:16:20
dann musst du eine Zahlungsgarantie von einer Million Euro bringen von einer Bank, die sagt,
0:16:21–0:16:26
sie würden, wenn du eine App hast, die dann irgendwie ein Problem anrichtet,
0:16:26–0:16:32
dass du vielleicht auch gerade stehen könntest oder so, dann ist die Core-Technology-Fee,
0:16:32–0:16:34
die haben sie eingebaut, das ist das Ding,
0:16:34–0:16:38
also Apple verdient auch an diesen Drittstores mit, weil sie sagen,
0:16:38–0:16:43
wir haben ja all die Programmschnittstellen und die Werkzeuge zur Entwicklung
0:16:43–0:16:45
dieser Software bereitgestellt.
0:16:46–0:16:51
Also wenn wir, 1 Million Downloads hast du gratis, aber ab der 1 Million und
0:16:51–0:16:57
ersten App-Installation musst du uns 50 Cent pro Installation zahlen.
0:16:57–0:17:01
Ist schon mal, glaube ich, für so etwas wie F-Droid oder so,
0:17:02–0:17:05
das wäre etwas, das ist ein toller Store, den es für Android gibt,
0:17:05–0:17:10
wo all die Open-Source-Sachen drin sind, ist wahrscheinlich dann schon mal keine Option, oder?
0:17:10–0:17:14
Oder würdest du jetzt unter diesen Umständen die Christen Store aufmachen?
0:17:15–0:17:20
Wenn ich jetzt ein Game hätte, das Fortnite heisst, vielleicht schon, aber sonst nicht.
0:17:20–0:17:24
Ich glaube übrigens, sie haben jetzt auch auf Druck von der EU bei dieser Million
0:17:24–0:17:27
ein Bier ein bisschen zurückgerudert.
0:17:29–0:17:32
Ich glaube, wenn auch Apple natürlich, die haben einfach geschaut,
0:17:32–0:17:36
wahrscheinlich wie ein kleines Kind, das schaut, wie kann ich es jetzt am Abend
0:17:36–0:17:41
mit meinem Backup wie kann ich es auf die Spitze treiben bis dann halt die Eltern
0:17:41–0:17:43
sagen, so es ist fertig und,
0:17:44–0:17:48
wie gesagt, Apple wird nicht nur einen Anwalt haben, die werden das ganz ganz
0:17:48–0:17:50
klar durchexerziert haben bis dann mal sagen, nein,
0:17:52–0:17:57
jetzt gehen wir halt irgendwie ich weiss gar nicht, was die höchste EU-Gerichtsinstanz
0:17:57–0:18:01
ist aber ja, jetzt gehen wir halt so weit Ja, also ich weiss es nicht,
0:18:01–0:18:04
ob sich dass sich die EU nicht von dem auch provoziert fühlt.
0:18:04–0:18:06
Bis jetzt hat man noch nichts von ihr gehört.
0:18:06–0:18:10
Ich, wenn ich bei der Frau, jetzt weiss ich schon wieder nicht mehr,
0:18:10–0:18:14
wie sie heisst, wir lassen uns nicht auf den Test aus, ich gehe es nachher anschauen.
0:18:16–0:18:20
Ob die sich nicht ein bisschen provoziert fühlt. Weil mein Eindruck ist schon,
0:18:20–0:18:22
Apple probiert einfach wirklich,
0:18:23–0:18:28
umzusetzen nach dem Buchstaben des Gesetzes, aber so unattraktiv und es so...
0:18:29–0:18:35
Einfach alles ausreizen, dass jeder App-Entwickler, der die Wahl hat,
0:18:35–0:18:39
soll ich jetzt meine App in einen alternativen Store stellen oder in einen normalen Store?
0:18:40–0:18:42
Der sagt, ich nehme doch den normalen Store, ich bin ja nicht blöd,
0:18:42–0:18:45
wieso soll ich mir all den Ärger machen?
0:18:46–0:18:49
Und eben, ich glaube, es gibt dann auch Einschränkungen als Entwickler,
0:18:49–0:18:53
wie häufig du hin- und herwechseln kannst. oder du darfst auch nicht zum Beispiel,
0:18:53–0:18:57
glaube ich, in verschiedenen Stores darfst du auch nicht sein oder so.
0:18:57–0:19:00
Es ist wirklich einfach unattraktiv.
0:19:00–0:19:04
Ja, und eben, wenn wir das jetzt ganz klar sagen, wenn ich jetzt so schaue,
0:19:04–0:19:08
ich sage jetzt so normalisches oder sage jetzt einfach 0815 User,
0:19:08–0:19:12
die ich so in meinem Umfeld habe, wo jetzt nicht gerade Arbeitskollegen sind,
0:19:12–0:19:15
ja, die haben, ich sage jetzt auf jeden Fall Smartphone, Android oder IOS,
0:19:16–0:19:20
die haben halt WhatsApp, SBB, Tagi, vielleicht tatsächlich auch Twitter, Twitter, Gmail,
0:19:21–0:19:24
ja, vielleicht hat halt mal jemand noch so eine exotische App, aber das...
0:19:24–0:19:26
Die vermissen nichts, kann man sagen.
0:19:27–0:19:32
Ja, und klar, die Leute, die halt, die, die am Morgen im Zug sind,
0:19:32–0:19:35
die wahrscheinlich Fortnite spielen wollen, ja, vielleicht die würden tatsächlich
0:19:35–0:19:36
sich die Alternative App Store
0:19:36–0:19:39
draufpappen, das können wieder Fortnite auf meinem iPhone spielen im Zug.
0:19:40–0:19:45
Genau, also wenn man schon mal einen Ausblick wagen will, wie erfolgreich das
0:19:45–0:19:50
jetzt so, wie die Alternative Stores heute da stehen, eben Ich rechne damit,
0:19:50–0:19:54
dass Deo findet, dass es uns zu wenig offen ist.
0:19:54–0:19:57
Ihr müsst da noch mal überbüchen und dann geht es wahrscheinlich ein jahrelanges
0:19:57–0:20:01
Teil ziehen und vielleicht haben wir dann in fünf Jahren oder in zehn Jahren
0:20:01–0:20:05
sind wir dann an einem Punkt, der ein bisschen besser ist. Aber ich würde sagen, es geht noch lange.
0:20:05–0:20:08
Ich glaube, jetzt im Moment ist es wirklich so.
0:20:09–0:20:13
Die allermeisten Leute werden das nicht brauchen. Es müsste irgendeine Knaller-App
0:20:13–0:20:16
geben, die man sagt, die gibt es jetzt nur in diesem Store.
0:20:16–0:20:21
Und dass es aber unter diesen Umständen irgendeine Knaller-App in so einem Drittstore
0:20:21–0:20:24
entsteht, das sehe ich nicht so richtig.
0:20:24–0:20:29
Nein, und selbst wenn es die gibt, muss man ganz genau die Konsequenzen anschauen.
0:20:29–0:20:33
Kann ich zum Beispiel, wenn ich jetzt zum Epic Store gehe, zum Beispiel eben
0:20:33–0:20:39
für Fortnite, kann ich dann meine SBB-App zum Beispiel Spiel oder 20 Minuten App noch brauchen.
0:20:39–0:20:45
Da habe ich noch nicht ganz verstanden, ob du aus zwei Stores kannst. Ich glaube schon.
0:20:46–0:20:50
Ist es nicht so, die gleiche App kann zweimal da sein?
0:20:50–0:20:55
Ich glaube, das stelle ich mir auch so vor, ja. Aber das wissen wir noch nicht
0:20:55–0:20:56
so genau, wie dann die Details sind.
0:20:57–0:21:00
Und eben, auch das Prozedere ist dann umständlich. Da musst du zuerst,
0:21:00–0:21:05
glaube ich, ein Hörchen setzen, dass du die dritten Stores zulassen willst.
0:21:05–0:21:09
Dann musst du die Store-App App aus dem normalen Store herunterladen und dann
0:21:09–0:21:13
kannst du mit dieser App die App herunterladen, die du eigentlich wolltest.
0:21:13–0:21:18
Und in diesem Prozess sagt Apple natürlich noch etwa dreimal «Du,
0:21:18–0:21:21
es ist ganz gefährlich, was du hier machst. Willst du das wirklich machen?
0:21:21–0:21:25
Du riskierst dich.» «Ihr iPhone wird schmelzen.» «Ja, genau.
0:21:25–0:21:32
Und deine Renten und dein Haus und dein Bötchen riskierst du auch noch und.
0:21:34–0:21:41
Kevin, es klingt unattraktiv, aber wenn du jetzt die EU wärst,
0:21:41–0:21:43
was würdest du sagen? Ist das okay, das ist das, was wir wollten?
0:21:44–0:21:46
Oder ihr müsst dann nochmals über die Bücher?
0:21:47–0:21:50
Es ist doch sowieso immer ein Kompromiss bei solchen Geschichten.
0:21:51–0:21:55
Man hat eine Idee, wie die Welt funktionieren sollte, im Sinne von wir möchten
0:21:55–0:21:59
etwas öffnen. Dann hat man aber einen privatwirtschaftlichen Konzern,
0:21:59–0:22:00
der möchte das auf keinen Fall.
0:22:01–0:22:05
Und jetzt landet man dann wahrscheinlich bei irgendeiner Kompromisslösung,
0:22:05–0:22:15
die wahrscheinlich irgendwann im Sand verläuft und eigentlich gar nicht gangbar ist.
0:22:15–0:22:20
Also wahrscheinlich kommt es dann so weit, dass ich mir den zweiten App Store
0:22:20–0:22:24
installiere, dass ich dieses spezifische Spiel spielen kann.
0:22:24–0:22:30
Aber dem Endanwender ist das scheissegal woher das Zeug kommt.
0:22:30–0:22:34
Und ich glaube nicht, dass es dann irgend einen gibt, der sagt,
0:22:34–0:22:40
als Gegenbewegung gegen Apple gehe ich jetzt in alternative Store.
0:22:40–0:22:45
Das wird es nicht sein. Es wird schlussendlich nur um, es geht um Kohle.
0:22:46–0:22:48
Ich glaube, Kohle ist ein gutes Stichwort.
0:22:50–0:22:57
Die sogenannte Apple-Tags. Ich glaube, was Steve Jobs vor einigen Jahren der
0:22:57–0:22:59
App Store vorgestellt hat, 2008,
0:23:00–0:23:04
hat es ja geheiss, wenn du 10 Franken für deine App verlangst,
0:23:04–0:23:09
kommen mir 3 Franken über und du bekommst 7 Franken über. Einfach mal für die Initial-App.
0:23:10–0:23:13
Und dann irgendwann sind die sogenannten In-App-Käufe gekommen.
0:23:13–0:23:17
Das heisst, wenn du jetzt zum Beispiel, man kann sagen, ich glaube,
0:23:17–0:23:22
sie machen es nicht, die App vom Tagi, du verkaufst dort ein Abo,
0:23:22–0:23:27
dann holt Apple von dieser, es ist ja eine reine Finanztransaktion, 30%.
0:23:27–0:23:31
Und wenn man jetzt schnell denkt, wenn ich an der Tankstelle für 100 Franken
0:23:31–0:23:36
Benzintank und meine Mastercard angebe,
0:23:36–0:23:41
und ich habe die Mastercard 2%, also vielleicht wäre es auch schlauer gewesen,
0:23:41–0:23:45
einfach dort bei dem Prozentsatz, also ich rede jetzt nur von diesen In-App-Käufen,
0:23:45–0:23:48
also von diesen Transaktionsgebühren, wenn man dort vielleicht ein bisschen
0:23:48–0:23:52
angesetzt hätte, weil ich finde die 30% für In-App-Käufe echt unverschämt.
0:23:52–0:23:57
Die ist unverschämt und sie ist auch gar nicht zurückgegangen.
0:23:57–0:24:03
Und wie du sagst, Chris, es hat sich auch dann ausgedehnt auf Tabos,
0:24:03–0:24:04
also auf wiederkehrende.
0:24:06–0:24:12
Die Umsätze macht Apple durchs Band weg die hohle Hand und das ist natürlich absolut komfortabel.
0:24:12–0:24:16
Ich verstehe, dass sie das nicht aufgeben wollen, aber man kann sich schon fragen,
0:24:17–0:24:22
also wenn du überlegst, ob das ein Wettbewerbshindernis ist und eigentlich schädlich
0:24:22–0:24:26
für den freien Markt, dann kann man ganz klar bejahen.
0:24:26–0:24:30
Also Apple hat ja dann auch diese Buße von 1,8 Milliarden bekommen,
0:24:30–0:24:36
weil sie gesagt haben, auch mit den Mechanismen des Stores haben sie sich eindeutig
0:24:36–0:24:39
bevorteilt, selbst gegenüber Spotify.
0:24:40–0:24:45
Weil sie natürlich in diesem Streaming-Geschäft der Streaming-Apps viel bessere
0:24:45–0:24:47
Karten gehabt haben als ihre Konkurrenten.
0:24:47–0:24:51
Und das kann man glaube ich ganz klar sagen, das ist wettbewerbsschädlich,
0:24:51–0:24:55
das ist eigentlich nicht das, was man haben möchte, aber ich fürchte auch,
0:24:55–0:24:58
wenn wir vielleicht ein bisschen grundsätzlich werden, ich fürchte auch,
0:24:58–0:25:02
Auch die EU hat da wahrscheinlich zu lange gewartet oder eben,
0:25:02–0:25:06
wenn du jemanden regulierst, der dann schon so riesig ist und du willst ihn
0:25:06–0:25:10
zwingen, sein Geschäft eigentlich aufzumachen,
0:25:10–0:25:15
dann sitzt er ja immer auf einer Art am längeren Hebel, weil er überall auch
0:25:15–0:25:17
an versteckten Schrauben drehen kann und so.
0:25:17–0:25:20
Also was willst du machen? Ich glaube, wahrscheinlich das einzige,
0:25:20–0:25:23
was du machen kannst, ist wirklich, du musst Du kannst sagen, okay,
0:25:24–0:25:30
wir müssen die Apple aufspalten und sagen, wir regulieren überhaupt nichts,
0:25:30–0:25:33
aber wir sagen zum Beispiel, das iPhone,
0:25:33–0:25:39
die Hardware und die Software müssen von unterschiedlichen Unternehmen hergestellt
0:25:39–0:25:42
werden und die müssen sich konkurrenzieren auf dem freien Markt.
0:25:43–0:25:46
Und dann kannst du auch irgendwie, könnte dann der Teil von Apple,
0:25:47–0:25:50
der die Hardware herstellt, Ihr könnt ja dann auch auf die Idee kommen,
0:25:50–0:25:53
okay, jetzt gefällt uns das iOS aber nicht mehr.
0:25:53–0:25:57
Da haben wir irgendeinen Konkurrenten, der ein besseres Betriebssystem anbietet oder mehrere.
0:25:58–0:26:02
Dann würde wahrscheinlich der Wettbewerb spielen. Wäre das Apple aufspalten, DigiChris?
0:26:04–0:26:06
Ich freue mich eigentlich immer so ein bisschen aufspaltend,
0:26:06–0:26:11
wie denn das, ja, wenn er ein Team Q auf allen drei Unternehmen ist, ja, wenn es einfach,
0:26:11–0:26:16
du siehst es in anderen Buden, da hast du irgendwie, weiss ich was,
0:26:16–0:26:20
UBS Services AG, UBS Wealth Management,
0:26:21–0:26:25
also ich bin jetzt auch nicht so ein Experte, aber ja, aufspaltend,
0:26:25–0:26:28
wahrscheinlich schön und gut, aber eben, wie denn da?
0:26:28–0:26:33
Bei Microsoft stand das wirklich mal zur Debatte, 1999 oder wann das war,
0:26:33–0:26:38
weil man fand, ja, die haben das Betriebssystem, die haben das Office,
0:26:39–0:26:41
die haben den Browser, die haben alles.
0:26:41–0:26:45
Wenn man jetzt da die könnte zwingen, ich weiss nicht, wie man es gemacht hätte,
0:26:46–0:26:51
aber ich finde, man müsste zumindest mal ernsthaft darüber nachdenken und man
0:26:51–0:26:56
könnte es auch als Droh-Szenario in den Raum stellen und sagen, sagen, okay Apple,
0:26:56–0:26:59
jetzt probieren wir es mal so und wenn ihr dann nicht mitmacht,
0:27:00–0:27:01
dann wäre das die nächste Möglichkeit.
0:27:02–0:27:06
Kevin, Apple aufspalten, wäre das etwas, bei Google würde es ja auch irgendwie
0:27:06–0:27:08
auf der Hand liegen, oder?
0:27:08–0:27:16
Suchmaschinen abspalten, das Android abspalten, das würde uns Konsumenten nur nützen.
0:27:18–0:27:28
Wer entscheidet so etwas? Kann man das überhaupt? Ja, das kann man als Wettbewerbsbehörde machen.
0:27:28–0:27:32
Da kann man sagen, ihr habt eine marktbeherrschende Stellung und jetzt müssen wir etwas unternehmen.
0:27:33–0:27:40
Dann heisst es, ihr müsst etwas unternehmen, also splittet ihr das intern auf,
0:27:40–0:27:45
was eigentlich nur eine Geld-hin-und-her-Schieberei ist, aber faktisch überhaupt nichts bewirkt.
0:27:48–0:27:53
Ich glaube, man könnte ja schon zwingen, dass die nicht irgendwie der eine dann
0:27:53–0:27:59
die Holding ist und die Mutter von der anderen, sondern dass die organisatorisch
0:27:59–0:27:59
getrennt werden müssen.
0:27:59–0:28:02
Hat es das schon mal gegeben? Ich glaube, das hat es schon mal gegeben.
0:28:02–0:28:06
Es ist nicht einmal General Electric aufgespalten worden. In den USA.
0:28:06–0:28:11
Ich glaube, da war eben kürzlich mal ein uralter Bond,
0:28:12–0:28:19
der so hiess, wenn diese Operation abgeschlossen ist, habe ich das Monopol für
0:28:19–0:28:23
Drogen und die Telefongesellschaft das andere Monopol. und sonst hat keiner mehr einen Monopol.
0:28:24–0:28:28
Also ich glaube, das ist nicht einmal AT&T gewesen, wo man irgendwo aufgespalten ist.
0:28:29–0:28:34
Aber klar, was Kevin sagt, ich meine, theoretisch, wenn jetzt die EU würde sagen,
0:28:34–0:28:40
eben Apple, das Apple würde sagen, ja okay, pipipipip, off, dann gehen wir halt.
0:28:40–0:28:44
Also das ist die EU würde verlassen, das fände ich sehr spannend.
0:28:44–0:28:47
Ja, also ist jetzt nur so ein Ding, also ich finde es einfach,
0:28:47–0:28:52
wie gesagt, dass du so Unternehmen wirklich komplett kannst aufspalten.
0:28:53–0:28:56
Das stelle ich mir jetzt einfach organisatorisch. Und ja, schaust du wirklich,
0:28:57–0:29:00
dass wenn jemand im Board of Directors bei Apple Hardware sitzt,
0:29:01–0:29:07
dass da nichts und auch seine Frau nicht bei Apple Services sitzt. Also, ja, ja.
0:29:08–0:29:11
Idee ist ja gut, aber wahrscheinlich nicht ganz so einfach.
0:29:12–0:29:15
Also, ich habe nachgeschaut, also nachgeschaut, ich habe Chat-Shippit gefragt,
0:29:15–0:29:18
ob es eben so verfügte Aufspaltungen gibt.
0:29:18–0:29:22
Das hätte man können im Vorfeld von dieser Sendung machen. und du hast AT&T
0:29:22–0:29:24
genannt, 1984 tatsächlich.
0:29:25–0:29:30
Dort hat die US-Regierung einen Antitrust-Prozess geführt und dann gefunden,
0:29:30–0:29:32
sie müssten sich aufspalten.
0:29:33–0:29:36
Die als Baby Bells wurden dann die genannt.
0:29:36–0:29:45
Standard Oil, 1911, wurde auch aufgespalten und bei Microsoft hat man dann gefunden, man könnte.
0:29:47–0:29:51
Das machen, aber man hat es dann nicht gemacht. So richtig ernsthaft, Microsoft.
0:29:51–0:29:56
Aber es ist mehrfach in den USA zur Debatte gestanden, es ist auch schon durchgeführt
0:29:56–0:30:01
worden, aber man könnte sagen, heute wird das nicht ernsthaft erwogen.
0:30:01–0:30:05
Ich habe lustigerweise, erinnere ich mich noch, als das erste Mal,
0:30:05–0:30:10
wo Biden und Trump gegeneinander antreten wollten, dort haben beide gefunden,
0:30:11–0:30:13
sie machen etwas gegen Big Tech.
0:30:13–0:30:17
Sowohl Biden wie auch auch Trump hat das versprochen.
0:30:17–0:30:19
Es ist natürlich mehr oder weniger um Facebook und so gegangen,
0:30:19–0:30:23
aber passiert ist gerade null, oder? Also man kann schon sagen,
0:30:23–0:30:25
Politik schläft ein bisschen.
0:30:26–0:30:29
Also speziell in den USA, aber ich glaube, das kommt auch davon,
0:30:29–0:30:33
wie man in den USA denkt, dass man halt dort einfach, ja, ich weiss nicht,
0:30:33–0:30:37
ob liberal das richtige Wort ist, aber eben, dass man einfach eigentlich den Staat,
0:30:39–0:30:43
libertär ist auch das falsche Wort, aber den Staat möglichst wenig eingreifen soll.
0:30:43–0:30:46
Ich glaube, Wenn du jetzt in den USA bist, dann fragst du dich,
0:30:46–0:30:51
ob wir Facebook tatsächlich zwingen sollten, das und das zu machen.
0:30:51–0:30:55
Ich glaube, ja, da würde ich auch sagen.
0:30:55–0:30:58
Am Schluss läuft es einfach darauf heraus, wie sehr man will,
0:30:58–0:31:03
dass der Staat in die freie Marktwirtschaft eingreift.
0:31:03–0:31:07
Kevin, wie sehr könnte das nach deinem Geschmack passieren?
0:31:08–0:31:10
Dass der Staat eingreift? Ja.
0:31:13–0:31:17
Begeister dich, Klaus. Ja, ich kann wahrscheinlich aufgeben.
0:31:17–0:31:20
Weil die Firmen sehr clever sind.
0:31:21–0:31:25
Wenn ein Staat eingreift, dann wandert man einfach ab und macht es noch immer anders.
0:31:26–0:31:32
Und ich meine, dass wir so etwas nicht im Griff haben, das haben wir während Corona gesehen.
0:31:33–0:31:39
Dass jeder Staat, jedes Land hat anders auf die die gleiche Situation reagiert,
0:31:39–0:31:42
es hat andere Regeln gegeben, weil halt jedes Land anders funktioniert.
0:31:43–0:31:47
Und darum glaube ich, das ist mega schwierig, zu sagen, man spaltet irgendetwas
0:31:47–0:31:53
auf und wenn ich jetzt von, wir gehen jetzt von Amerika aus und die entscheiden
0:31:53–0:31:57
so, in Amerika läuft das so, dann passt das ja wahrscheinlich überhaupt nicht auf Europa.
0:31:58–0:32:01
Und dann haben wir schon wieder, also es wird schon wieder ein Murks.
0:32:01–0:32:03
Darum glaube ich, das funktioniert nicht.
0:32:03–0:32:08
Ich glaube, man müsste es mal ausprobieren und das wäre jetzt ein lustigen Fall,
0:32:08–0:32:10
um einfach mal zu schauen, was dabei rauskommt.
0:32:10–0:32:16
Einfach mal zum Testen. Genau, mal zum Testen. Ich polemisiere da.
0:32:16–0:32:21
Aber ich finde, als Druckinstrument und als wirksame Druckkulisse könnte man
0:32:21–0:32:25
das brauchen, dass jetzt Apple zum Beispiel in diesem Fall ein bisschen ernsthafter
0:32:25–0:32:28
probiert hätte, wirklich das Anliegen umzusetzen.
0:32:28–0:32:32
Ich glaube, man müsste... Jetzt ist es sicher zu früh, um wirklich ernsthafter
0:32:32–0:32:38
darüber zu reden, aber dass es als Möglichkeit im Raum Umstand fände ich auf
0:32:38–0:32:39
eine Art schon noch wichtig.
0:32:40–0:32:44
Die Schweizer, um auch noch auf uns zu reden zu kommen, wir sind einfach so,
0:32:45–0:32:49
Trittbrettfahrer gewesen und die SP hat vor einem Jahr gefragt an den Bundesrat,
0:32:49–0:32:53
ob man nicht auch eine ähnliche Gesetzgebung brauchen würde.
0:32:53–0:32:56
Und dann hat der Bundesrat gefunden, nein, es reicht, wenn die EU das macht,
0:32:56–0:33:02
dann behandeln uns die Konzerne ähnlich wie die Unternehmen in der EU.
0:33:02–0:33:05
Und jetzt der Fall von Apple zeigt, dass es eben nicht so ist.
0:33:05–0:33:10
Von diesen Trittstores können wir eh nichts über Vorläufige sehen.
0:33:13–0:33:19
Auf eine Art wäre es wahrscheinlich der beste Fall, wenn es den Markt regeln
0:33:19–0:33:26
würde und die alternativen Stores so erfolgreich wären, dass Apple das quasi gezwungen wäre.
0:33:26–0:33:28
Dass der Druck so stark wäre, dass
0:33:28–0:33:32
es die am Schluss überall gäbe und sie ernsthaft die Alternative wären.
0:33:32–0:33:37
Aber ich sehe das einfach nicht so. Videos hast du überall, also auf dem iPad
0:33:37–0:33:40
und eben auf der Apple Watch, Vision Pro, Apple TV schon gar nicht.
0:33:40–0:33:44
Genau, die sind einfach zu klein, diese Plattformen. Wie heisst das irgendwie?
0:33:45–0:33:49
Es gibt hier einen lustigen Vlooper, so eine Very Large Online Plattform,
0:33:49–0:33:53
ich glaube, so ein Flop mit einem Vögelchen.
0:33:54–0:33:59
Und ja, ich habe gefragt, was ist eine Very Large Online Plattform? Also ja, wie gesagt...
0:33:59–0:34:02
Wie hat er das jetzt gesagt? Gut gemeint, ist auch schlecht gemacht.
0:34:03–0:34:04
Oh Gott, ich liege fast mit dem Zitat.
0:34:05–0:34:10
Ich glaube tatsächlich, wir sollten zwar wieder mal fast schon wieder aufhören,
0:34:10–0:34:16
aber ich glaube, WhatsApp auf der anderen Seite hat ja dann sehr schnell angefangen,
0:34:16–0:34:17
diese Öffnung umzusetzen.
0:34:17–0:34:21
Und dann habe ich mich zuerst ein wenig gefragt, warum sind denn jetzt die so
0:34:21–0:34:23
bereit für die Interoperabilität?
0:34:24–0:34:27
Dann habe ich gedacht, ja, weil WhatsApp einfach mehr nützt als der allen anderen.
0:34:27–0:34:29
Andere, das sind die grössten Messenger.
0:34:29–0:34:33
Also profitierst du als Grösster doch, wenn du mit den Kleineren kannst interagieren,
0:34:34–0:34:36
viel mehr, wenn du den Kleineren umgekehrt profitierst.
0:34:36–0:34:41
Aber ich glaube, wenn Frama oder Signal gesagt hätten, WhatsApp schlägt dich,
0:34:41–0:34:43
wir wollen sicher kein WhatsApp Interoper...
0:34:45–0:34:51
Interoper... Ich glaube, das müsste man zungenbrechen. Ja, glaube ich auch. Teilweise.
0:34:53–0:34:56
WhatsApp wird genug Entwickler haben. Ja, und dass halt der Herr Zuckerberg
0:34:56–0:35:01
muss sagen, jetzt schreibt mal irgendwie ein API und wenn halt irgendjemand sollte kommen.
0:35:01–0:35:06
Wir stehen gut da und wir haben sogar die Chance, dass wir die anderen noch
0:35:06–0:35:11
ein bisschen aussaugen und dann so fast im wortwörtlichen Sinn aussaugen,
0:35:11–0:35:16
wenn sie mit denen eben interoperabilisieren, falls es das wäre.
0:35:16–0:35:21
Also ich würde sagen, das Thema wird uns beschäftigen. noch ein,
0:35:22–0:35:25
famous last word oder vielleicht einfach eine Prognose, Digi-Chris,
0:35:25–0:35:30
was meinst du, ist Hopp oder Topp die Idee, was Apple jetzt da gemacht hat und
0:35:30–0:35:31
wird das die EU schlucken?
0:35:32–0:35:37
Ich denke, wir werden spätestens in unserem digitalen Realitätsabgleich darüber
0:35:37–0:35:42
reden und hat Flutpotenzial, weil ich glaube, es wird sich, ich sage jetzt mal,
0:35:42–0:35:44
ausserhalb unserer Bubble, nichts ändern. Ja.
0:35:45–0:35:51
Kevin, was meinst du, ist das so einen politischen Rohrkrepierer am Schluss?
0:35:51–0:35:57
Ich glaube, das ist jetzt einfach, man hat das Traktandum abgekökkelt,
0:35:57–0:36:02
erledigt und somit ist das, ich glaube, das ist ein Rohrkrepierer.
0:36:02–0:36:06
Immerhin hatten wir ein Sendungsthema für heute. Das ist auch etwas wert.
0:36:06–0:36:09
Wir wünschen euch einen schönen Abend. Tschüss zusammen.
0:36:11–0:36:26
Music.

Die Europäische Union findet, es sei nicht mehr zeitgemäss, dass die Techkonzerne allein über ihre Plattformen bestimmen, die so gross und wichtig sind, dass kaum jemand von uns noch um sie herumkommt. Darum greift die EU per Gesetz durch und zwingt diese sogenannten Gatekeeper zur Öffnung: Bei Whatsapp sind Chats bald auch App-übergreifend möglich und Apple ebnet den Weg für App-Stores von Drittanbietern.

Seit März ist dieses Gesetzes über digitale Märkte nun in Kraft und wir wissen, wie Apple die Vorgaben umsetzt. Das gibt viel Diskussionsstoff – denn der Eindruck könnte entstehen, dass die Bereitschaft bei Apple zur Öffnung nicht sehr gross ist. Wir diskutieren den Stand der Dinge und viele der offenen Fragen. Zum Beispiel: Sollte die EU nun andere Saiten aufziehen? Und warum tut der Bundesrat so, als ob ihn die Sache nichts anginge? „Apple, die EU und das App-Store-Monopol“ weiterlesen

Youtube wird immer be💩ener

Transkript anzeigen (falls vorhanden)

0:00:05–0:00:10
Stay away from a lightning girl. Das ist eigentlich ein Cover von Nancy Sinatra,
0:00:10–0:00:13
sagt mir da mein Computer.
0:00:14–0:00:17
Die heissen ARABROD oder so ähnlich.
0:00:18–0:00:22
Und auf jeden Fall, eins ist klar, hier ist Radio Stadtfilter.
0:00:22–0:00:25
Hallo zusammen, hier ist Ginny von Annie Taylor und ihr hört Radio Stadtfilter.
0:00:26–0:00:32
Ich habe doch gerade gesagt, Digi Chris, du hörst Radio Stadtfilter und du hörst
0:00:32–0:00:34
nicht nur, sondern du bist auch da und machst mit.
0:00:34–0:00:38
Du, sag mal, ich habe jetzt wieder so hinter diesem Bahnhof,
0:00:38–0:00:40
wenn du dort in die Unterführung hochkommst,
0:00:40–0:00:46
so Richtung Neuwiesenzentrum, Darum, dort hat es, also sicher jedes dritte Mal,
0:00:46–0:00:49
wenn ich von der Sendung nach Hause laufe, hat es dort einen,
0:00:49–0:00:54
der gerade sein Portemonnaie verloren hat und sein Handy verloren hat und nicht
0:00:54–0:00:57
weiss, wo er schlafen kann.
0:00:57–0:01:01
Oder es ist ihm gestohlen worden und er war auf der Polizei,
0:01:01–0:01:05
hat aber dann nicht irgendwie ein Protokoll, wo er zeigen kann,
0:01:05–0:01:07
dass er tatsächlich alles verloren hat. und so.
0:01:07–0:01:13
Und glaubst du wirklich, DigiChris, dass es dort irgendeine Art schwarzes Loch
0:01:13–0:01:20
hat, wo die Leute so ihre Handys und ihre Portemonnaie und so zum Sack ausziehen?
0:01:20–0:01:25
Oder ist es eher so, dass ich einfach so aussehe, wie wenn man mich anpumpen könnte?
0:01:25–0:01:30
Müssen wir mal den Professor Harald Lesch übrigens, ja, auch einen YouTube-Huber
0:01:30–0:01:34
mal fragen, ob es ja tatsächlich Wintertour schwarzes Loch hat.
0:01:34–0:01:40
Also, ich weiss nicht, ich war mal vor vielen, vielen, vielen Jahren in einer Situation,
0:01:41–0:01:48
also vor 30 Jahren, mir haben irgendwie 20 Rappen fürs Bambi-Leh gefehlt und
0:01:48–0:01:50
da habe ich halt eine ältere Dame gefragt, sie, ja, ja.
0:01:50–0:01:53
Ich gebe ihnen das schon, aber ich komme mit am Bahnautomat.
0:01:53–0:01:54
Ja, ja, ist kein Problem.
0:01:55–0:01:59
Schauen Sie, ich muss nach so und so. Und sie, ja, ja, das gebe ich ihnen gerne.
0:01:59–0:02:04
Also sowas, eben, aber da bin ich, oh, was ist das gewesen, 14, 15 Jahre alt gewesen.
0:02:04–0:02:08
Genau, und jetzt hat es, ja, ja, es hat immer, es hat die, ihr könnt ja vielleicht,
0:02:08–0:02:10
wenn ihr das Erlebnis auch schon gehabt habt.
0:02:12–0:02:16
Liebe Wintertourerinnen und Wintertourer, da schnell ins Gästebuch hinschreiben,
0:02:16–0:02:22
das würde mich noch wundern, ob ich einfach so aussehe, wie wenn ich der wäre, entweder, wo...
0:02:22–0:02:28
Wo du so lieb bist. Ja, wo, sagen wir mal jetzt, Fall A, die Geschichte stimmt,
0:02:28–0:02:32
wo dann so hilfsbereit ist und wirklich den Leuten helfen würde.
0:02:32–0:02:37
Oder Fall B, wenn das, was ja auch der Fall könnte sein, so eine erfundene Geschichte
0:02:37–0:02:42
ist, von so Leuten, die nicht arbeiten wollen, sage ich jetzt mal, um ein bisschen Geld.
0:02:42–0:02:46
Ob ich dann so einfach wie ein dankbares Opfer aussehe.
0:02:46–0:02:51
Und jetzt, Ausnahme heute war, das ist mir nicht passiert, als ich von der Sendung
0:02:51–0:02:55
nach Hause gelaufen bin, sondern als ich von der Sendung hierher gekommen bin,
0:02:55–0:02:58
dann hatte ich wirklich keine Zeit, um zu diskutieren.
0:02:58–0:03:03
Also, lieber Mann, der Französisch mit mir oben drin noch reden wollte,
0:03:04–0:03:08
es tut mir leid, ich konnte dir jetzt nicht weiterhelfen, ich konnte dir nicht
0:03:08–0:03:11
sagen, wo du übernachten kannst oder wo du einen Kebab herüberkommst,
0:03:11–0:03:14
weil ich da wirklich in das Studio musste.
0:03:14–0:03:18
Und ja, ich glaube jetzt zwar nicht, dass er zulässt, aber ja.
0:03:19–0:03:24
Wobei, was sicher legitim war, ich bin kürzlich, als ich posten ging,
0:03:24–0:03:29
ist auch, ich sage jetzt Studenten und so, ja, sie sammeln für die Tafel,
0:03:30–0:03:36
ob ich jetzt nicht könnte etwas mehr posten für bedürftige Leute und du hast auch, also du hast,
0:03:36–0:03:40
Ich sage jetzt junge Leute gehabt, wahrscheinlich 18, 19 Jahre.
0:03:40–0:03:43
Und du hast auch einen gesehen, ein wenig älter.
0:03:44–0:03:48
Und ich so, was soll ich denn kaufen? Und dann sind einfach Sachen, die lange halten.
0:03:48–0:03:54
Und dann habe ich halt zwei Dosen Ravioli, irgendwie so. Ich glaube, das ist dann legitim.
0:03:54–0:03:59
Genau, und dann hast du ja auch eher das Gefühl, das ist tatsächlich, das schmeckt nicht so.
0:03:59–0:04:01
Weil wenn jemand dann einfach irgendwie
0:04:01–0:04:05
50 Stutz will, um jetzt irgendwo hinzufahren, dann kannst du halt...
0:04:05–0:04:08
Vielleicht gehen wir rauchen, weisst du nicht, aber dort glaubst du tatsächlich,
0:04:09–0:04:11
weil ja klar, du kannst natürlich die Ravioli, wäre es vielleicht,
0:04:12–0:04:18
und ja, ist halt schon traurig, dass die Tafel, oder nennt man das bei uns auch Tafel?
0:04:19–0:04:21
Das ist mehr das Deutsche, bei uns heisst es, glaube ich, irgendwie,
0:04:21–0:04:23
weiss es nicht, ehrlich gesagt.
0:04:24–0:04:27
Eben, und ja, ich glaube, da kannst du auch tatsächlich sagen,
0:04:28–0:04:30
holst du das, aber ich glaube,
0:04:30–0:04:33
da hat es auch mal einen guten Beitrag mit Meret Schneider gegeben,
0:04:33–0:04:38
dass man solche gewissen Sachen nicht einfach wegschmeissen sollte,
0:04:38–0:04:39
sondern einfach denen geben.
0:04:40–0:04:46
Ich muss auch nochmals sagen, gewisse Tourismusunternehmen auf dem Wasser geben
0:04:46–0:04:51
tatsächlich ihre Sachen, die noch gut sind, an Tafeln ab.
0:04:53–0:04:57
Die sind ja noch perfekt gut und ich glaube, da gibt es ja Apps und so.
0:04:57–0:05:00
Too good to go, haben wir, glaube ich, wahrscheinlich auch schon erwähnt,
0:05:00–0:05:03
ja. Aber ich glaube, wirklich das mal im DD anschauen, weil klar,
0:05:03–0:05:07
mindestens haltbar bis heisst nicht tödlich ab. Genau, genau.
0:05:08–0:05:11
Ja, ich bin auch eher der, der dann findet, ah, das ist noch gut,
0:05:11–0:05:15
solange es keinen Pelz oben drauf hat und nicht irgendwie das Gefühl hat,
0:05:15–0:05:22
da hat sich schon irgendwie eine mikroskopische oder subatomare Zivilisation.
0:05:23–0:05:28
Bildet, wo du jetzt abtauchen kannst. Wie Dedy der Simpsons-Hippie. Ja, genau.
0:05:29–0:05:33
Dann isst ich es auch noch. Und ich glaube, es ist... Ja, vielleicht hast du
0:05:33–0:05:35
dann mal Durchfall oder so, aber das überlebst du auch.
0:05:36–0:05:40
Also genau, ich bin auch wirklich eher der, der probiert, das so auf den Punkt
0:05:40–0:05:43
einzukaufen und nicht auf Vorrat und so. Aber ja.
0:05:45–0:05:49
Gut, ich kann schon sagen, du wohnst in Winterthur. Gut, ich wohne gerade in
0:05:49–0:05:51
Winterthur, aber ich habe auch Läden bei mir an.
0:05:51–0:05:57
Tatsächlich, wenn du jetzt halt merkst, ich habe keine Milch mehr, gehst halt am 5.8.
0:05:57–0:06:01
Rein, schnell zu dem Laden, hat halt der Filialleiter sehr Freude,
0:06:01–0:06:06
aber ich bin ja nicht der Einzige, der noch zum letzten Drücker in den Gubs
0:06:06–0:06:08
noch irgendetwas geholt hat.
0:06:09–0:06:12
Ich glaube, in der Industrie nennt man das just in time.
0:06:12–0:06:17
Genau, just in time. Das ist logistisch eine Herausforderung,
0:06:17–0:06:21
weil wenn dann alles still steht, dann ist es ein bisschen dumm.
0:06:21–0:06:24
Und wir versuchen hier auch «Just in Time» zu liefern.
0:06:24–0:06:28
Das heisst, wir haben noch 30 Sekunden und DigiChris hat es schon angedeutet.
0:06:29–0:06:34
So ganz sanft hat er uns das Thema mit Harald Lesch angeführt.
0:06:34–0:06:41
Er ist auf YouTube und wir haben einen Streit vor. Zoffen wir uns heute mal richtig?
0:06:42–0:06:46
Was meinst du? Weil ich finde, YouTube wird immer blöder und du findest es,
0:06:46–0:06:47
glaube ich, immer noch gut.
0:06:48–0:06:50
Darüber sprechen wir jetzt gerade. Ja, schauen wir mal. mal.
0:06:51–0:06:55
Ob wir uns einig werden. Genau. Oder ob das die letzte Sendung ist mit uns beiden.
0:06:57–0:07:10
Music.
0:07:10–0:07:15
Ist denn das YouTube so schlimm wie der eine von uns beiden?
0:07:15–0:07:19
Das bin ich behauptet. Ist es vielleicht sogar ein Beweis dafür,
0:07:19–0:07:25
dass Plattformen mit zunehmender Grösse und zunehmender Popularität immer schlechter
0:07:25–0:07:30
und benutzerunfreundlicher oder man könnte sogar sagen benutzerfindlicher werden?
0:07:30–0:07:36
Die Theorie heisst N-Shitification. Ich finde schon das Wort so gut und habe
0:07:36–0:07:40
darum für den Sendungstitel das schöne Kack-Emoji.
0:07:41–0:07:47
Benutzt. Darüber reden wir. Über Werbung, über Algorithmen und wichtig,
0:07:48–0:07:49
duerische YouTuber vielleicht auch.
0:07:51–0:07:55
Chris, du hast gesagt, du findest YouTube lässig. Warum findest du es dann,
0:07:55–0:07:59
obwohl es so schlimm ist, wieso findest du es immer noch lässig?
0:07:59–0:08:06
Ich kann es so sagen, meine nächsten Ferien finden wieder auf dem Wasser statt.
0:08:06–0:08:10
Das ist eine komplett neue in eine Rederei, wo ich ging und jetzt will man zuerst
0:08:10–0:08:12
über die Rederei etwas herausfinden.
0:08:12–0:08:14
Und gerade dort finde ich halt so YouTube-Videos.
0:08:15–0:08:18
Wir haben den Matthias Mohr, den wir auch schon bei uns hatten,
0:08:19–0:08:20
der halt über ein Schiff läuft.
0:08:21–0:08:26
Da und dann eben, du kannst irgendwas und du gewisse, ich sage jetzt,
0:08:26–0:08:31
ja, eben ein Meme, glaube ich, per Definition ist ja nur ein Bild,
0:08:31–0:08:33
aber auch so gewisse Sprüche aus den Simpsons und,
0:08:35–0:08:39
Ich finde es immer noch, um teilweise Infos zu finden, selbst beruflich,
0:08:39–0:08:43
wenn du jetzt wissen musst, wie tust du im SAP das und das machen.
0:08:46–0:08:50
Und das hast du auch irgendwie gesagt, also ich will das nicht zu viel vorgreifen,
0:08:50–0:08:52
wo das Audio einfach hanebüchen ist.
0:08:53–0:08:55
Ja, schlechte Mikrofonierung, genau.
0:08:55–0:08:59
Du musst halt teilweise vier, fünf Mal schauen, aber dann findest du das Zeug.
0:08:59–0:09:03
Klar, du könntest einen Blogpost lesen, aber ich finde das noch teilweise lustig.
0:09:03–0:09:09
Auf dem zweiten Screen hast du ein YouTube-Video, du machst das eins zu eins nach.
0:09:11–0:09:14
Und ich muss so sagen, bei mir persönlich, ich habe ein YouTube-Premium.
0:09:14–0:09:18
Ah, du hast es, dann kannst du natürlich gar nicht Ja,
0:09:18–0:09:23
ja, ich weiss aber es ist eben ein Grund warum ich ein Lillys habe da kommt
0:09:23–0:09:27
eben auch noch dazu ich habe halt noch das Family Package also ja,
0:09:27–0:09:32
ich sage jetzt Du wolltest einfach deinem Ruf als Digi-Chris mit Betonung auf
0:09:32–0:09:34
Digi gerecht werden Gut,
0:09:34–0:09:38
also vielleicht müssen wir an dieser Stelle ein Grundlagenirrtum klären, also ich glaube,
0:09:39–0:09:44
wie soll ich sagen, viele Inhalte finde ich gut auf YouTube und ich finde es
0:09:44–0:09:48
toll, dass es wirklich all die abstrusen Videos gibt, die es gibt.
0:09:48–0:09:53
Ich finde nicht alle Videos gut und eben gewisse YouTuber finde ich,
0:09:53–0:09:58
die, die dann anfangen, wirklich auch so den Algorithmus zu gamen,
0:09:58–0:10:03
wenn man so sagt, oder einfach probieren, erfolgreich zu sein auf YouTube,
0:10:03–0:10:07
die finde ich dann so ein bisschen mühsamer eher. Ja, da.
0:10:08–0:10:11
Aber grundsätzlich, dass es die Inhalte gibt, das finde ich gut,
0:10:11–0:10:13
Aber ich finde die Plattform selber,
0:10:14–0:10:19
meine Kritik richtet sich an die Betriebe und an Google und an die,
0:10:19–0:10:24
die einfach die Nutzer nicht mehr ernst nehmen, sagen wir es mal so.
0:10:24–0:10:29
Kannst du das nachvollziehen, dass wenn jemand, sagen wir, ich jetzt würde behaupten,
0:10:29–0:10:36
es gibt bald 20 Jahre das YouTube, ich glaube nächstes Jahr hat es 20-Jährige,
0:10:36–0:10:38
dass es einfach nachgelassen hat, seitdem.
0:10:39–0:10:44
Es wurde ja mal mit Google Video gemerged und vielleicht, wenn ich auch kurz
0:10:44–0:10:49
vorgreifen kann, vor etwa 10 Jahren hat YouTube, hast du auf deiner Profilseite,
0:10:49–0:10:52
also auch als Privater, wenn du nicht einmal Videos gemacht hast,
0:10:52–0:10:54
hast du eine Profilseite einrichten können.
0:10:54–0:10:57
Ja. Du hast glaube ich sogar ein Hintergrundbild machen können,
0:10:57–0:11:04
du hast sagen können, Hobbies like Travel, IT, Watches, Music, Techno, bla bla bla bla.
0:11:05–0:11:09
Und so fast ein Minimise-Base, was du damals noch hättest können,
0:11:09–0:11:14
du hättest den User direkt Messages schreiben können.
0:11:15–0:11:19
Und das fand ich auch spannend, weil du hast irgendjemanden gesehen und da ist
0:11:19–0:11:22
es noch nicht ums Schiff gegangen, um sonst irgendwelche Sachen.
0:11:22–0:11:25
Es hätte Zeit gegeben, wo du dich noch nicht verschieben würdest.
0:11:25–0:11:29
Aber du hast halt dem User eine Message sagen können und ich glaube,
0:11:29–0:11:32
damals hattest du einen Algorithmus, dass du gemerkt hättest, you want to buy Bitcoin.
0:11:34–0:11:37
Also es war mehr nach Community. Es war tatsächlich Community.
0:11:38–0:11:40
Es gab glaube ich teilweise sogar eine Art Foren.
0:11:41–0:11:43
Ja, das kann schon sein. Und heute gibt es einfach noch die Kommentare,
0:11:45–0:11:48
wo meistens nicht einen sehr freundlichen Umgang...
0:11:48–0:11:50
Ich zeige mir doch, dass ich auch gerade vorziehe, genau. Genau,
0:11:50–0:11:53
also ich tue auch die ganze Zeit, wo ich so ein bisschen sage,
0:11:53–0:11:57
was mir... Also bei den Kommentaren bin ich dir total einig,
0:11:57–0:11:59
da geht es ja teilweise zu. Da hast du... Ja.
0:12:00–0:12:06
...ist wahrscheinlich auf anderen sozialen Netzwerke hast, das ist ein bisschen mein Niveau.
0:12:06–0:12:11
Ja, wobei, also ich glaube, irgendwann mal nähert sich es, je grösser das wird,
0:12:11–0:12:14
hast du einfach einen Anteil von Leuten, die unhöflich sind,
0:12:14–0:12:18
sagen wir mal, und ein bisschen komische Anschauungen haben.
0:12:18–0:12:22
Das kann man, glaube ich, so distanziert und neutral sagen.
0:12:22–0:12:25
Also vielleicht, ich habe ja eigentlich auch noch ein bisschen systematisch
0:12:25–0:12:28
dran hingegangen, man hat irgendwann mal, glaube ich, darüber gesprochen,
0:12:28–0:12:32
wenn YouTube dass YouTube grösser geworden ist als das Fernsehen.
0:12:32–0:12:36
Im Sinne von alle anderen Fernsehsender zusammen.
0:12:37–0:12:42
Wahrscheinlich kann man das ziemlich global sagen. Das ist passiert.
0:12:43–0:12:46
YouTube ist grösser als das Fernsehen zusammen.
0:12:47–0:12:51
Das ist so. Das gab es auch vor vielen Jahren so einen Fall.
0:12:51–0:12:54
Den habe ich sicher schon erwähnt.
0:12:55–0:12:59
Susan Boyle, Britons Got Talent, die Sängerin mit der schönen Stimme.
0:12:59–0:13:03
Die ist natürlich durch die Presse gegangen und dann hat ITV, der Sender, gesagt.
0:13:04–0:13:09
Also Leute ausserhalb von UK, wir versprechen euch, sobald diese Sendung online
0:13:09–0:13:16
ist, werden wir euch international kostenlos, damals gab es auch schon Werbung, aber weniger,
0:13:16–0:13:20
wir tun euch das sofort auf YouTube, damit ihr das auch sehen könnt.
0:13:20–0:13:25
Und dass die vermutlich auf YouTube mehr Views gehabt hat als im Heimatland. Ja.
0:13:25–0:13:30
Ja, das ist wahrscheinlich schon so, wie du sagst. Also, ich sage mal,
0:13:30–0:13:36
YouTube hat monatlich aktive Nutzer, das habe ich bei statista.com nachgeschaut,
0:13:36–0:13:39
2,51 Milliarden Nutzer.
0:13:39–0:13:43
Welchen Fernsehsender hat das sonst schon? dann hat
0:13:43–0:13:47
es ein paar zahlen zu deutschland tages reichweite 22
0:13:47–0:13:51
nach umfrage 37 prozent also
0:13:51–0:13:58
37 prozent vor allen leuten das tut mich wahnsinnig viel leugnet einmal am tag
0:13:58–0:14:02
mindestens ein bisschen youtube hast du das ist das ist das realistisch dass
0:14:02–0:14:07
mehr wieder wieder wahrscheinlich ja vielleicht alle anderen fernsehsender zusammen
0:14:07–0:14:10
vielleicht noch aber ja gut ich Ich bin ein bisschen repräsentativ,
0:14:10–0:14:15
aber ich glaube auch in so WhatsApp-Gruppen zum Beispiel oder auch Facebook und so,
0:14:15–0:14:21
hast du halt keine beobachten YouTube-Link und nicht so oft wie Meo-Link oder was es noch gibt.
0:14:22–0:14:27
Und besonders krass wird es dann in Deutschland 14-29-Jährige Tagesreichweite
0:14:27–0:14:31
in dieser Altersgruppe 73,9%.
0:14:31–0:14:37
Das kann wirklich kein anderes Medium sagen, vielleicht noch TikTok vielleicht,
0:14:37–0:14:39
nein, wahrscheinlich nicht einmal TikTok.
0:14:40–0:14:44
Und eben unter den 50-Jährigen, und jetzt erklärt sich vielleicht meine Position,
0:14:44–0:14:48
ist es noch 20%. Also ich schaue nicht jeden Tag ein Video, ich schaue wahrscheinlich
0:14:48–0:14:52
nicht einmal jeden zweiten Tag ein YouTube-Video. Bei dir, du?
0:14:53–0:14:57
Vermutlich schon, also ich mache schon speziell auf dem iPad,
0:14:57–0:15:02
wenn ich im Zug bin, schnell die App auf. Ja eben, was spielt man den Algorithmus rein?
0:15:02–0:15:05
Und jetzt, gut, jetzt bist du nicht repräsentativ, Ferienvorbereitungen,
0:15:05–0:15:07
dann schaust du natürlich mehr.
0:15:07–0:15:10
Aber tatsächlich, wenn ich irgendein Problem habe im Geschäft,
0:15:10–0:15:16
also, hm, dann schaust du vielleicht mal auf YouTube irgendwie SAP HANA Database Backup.
0:15:17–0:15:19
Schaust du mal und vielleicht siehst du eben das erste Video,
0:15:19–0:15:23
in dem du gesagt hast, verstehst du, dann hast du vielleicht ein Video,
0:15:23–0:15:26
das dir das tatsächlich super erklärt. Ja, ja.
0:15:26–0:15:33
Nein, eben, also nochmal, ich stelle nicht infrage, dass YouTube gute Inhalte hat.
0:15:33–0:15:36
Man muss es manchmal ein wenig suchen, weil der Algorithmus,
0:15:36–0:15:38
über den will ich dann vielleicht auch noch ein wenig herziehen.
0:15:38–0:15:41
Also der, der dir, ich glaube, wenn du wirklich als.
0:15:42–0:15:45
Sagen wir als mündiger Konsument weisst, was du suchst.
0:15:46–0:15:50
Oder ich komme ja häufig, ich google einfach und suche dann ein Video und das
0:15:50–0:15:55
finde ich dann auf YouTube, dann schaue ich mir das an und dann gehe ich wieder.
0:15:55–0:16:00
Und dann kann man es, glaube ich, einigermassen sich dem Algorithmus entziehen.
0:16:00–0:16:04
Aber wenn du dann dort mal in das schwarze Loch reinkommst und dann der dir
0:16:04–0:16:07
dein Programm zusammenstellt, dann finde ich wird es schon schwierig.
0:16:08–0:16:11
Und jetzt aber noch, um die Statistik Ich kann noch schnell fertig machen.
0:16:11–0:16:16
Der erfolgreichste Channel, also der Kanal, der heisst T-Series,
0:16:16–0:16:23
im Oktober 2023, etwa 250 Millionen Abonnenten ist der beliebteste Kanal.
0:16:23–0:16:27
250 Millionen Abonnenten ist schon recht beeindruckend.
0:16:27–0:16:32
Ich glaube, das schafft tatsächlich so eine Einschaltquote, wenn wir wieder beim Fernsehen sind.
0:16:33–0:16:36
Also der Benni Thurnherr gibt es nicht mehr. Wer heisst denn,
0:16:36–0:16:41
gibt es den Büsser? gibt es denn, wie heisst die neue Sendung vom Fernsehen?
0:16:41–0:16:45
Das Late Night, ja, ja, aber ich glaube, teilweise, ist es nicht wirklich,
0:16:45–0:16:50
glaube ich, der Kurt Felix, der tatsächlich mit seinen Sendungen,
0:16:50–0:16:53
glaube ich, 50% markt geknackt hat?
0:16:54–0:16:56
Ja, keine 250 Millionen Abonnenten. Aber also wahrscheinlich.
0:16:57–0:17:00
Wenn es jetzt wahrscheinlich in Relation gesehen ist, wäre wahrscheinlich der
0:17:00–0:17:04
Herr Felix immer noch erfolgreicher gewesen, weisst du, also prozentmässig.
0:17:04–0:17:11
Ja, und kennst du den Mr. Beast, das ist Platz 2, 189 Millionen.
0:17:12–0:17:12
Ich habe keine Zähne mehr.
0:17:13–0:17:18
Und ja, und der hat dann offenbar, und der mit den höchsten Aufnahmen,
0:17:18–0:17:22
Einnahmen kommt, das ist eben der Mr.
0:17:22–0:17:30
Donaldson, Jimmy Donaldson, Mr. Beast, 54 Millionen, 2022, mit so Werbung halt.
0:17:30–0:17:33
Eine reine, das muss man wahnsinnige.
0:17:35–0:17:39
Zeiten sein, wo die Leute in den MrBeast investieren und vielleicht muss ich
0:17:39–0:17:44
den mal recherchieren, sprich mindestens ein Video von ihm anschauen.
0:17:44–0:17:49
Also eben, ich möchte ja sagen, ich glaube, als Phänomen finde ich das faszinierend.
0:17:49–0:17:53
Ich frage mich ein wenig, ob es, und da sind wir dann vielleicht eigentlich
0:17:53–0:18:00
beim Kern der Kritik, ob das wirklich gut ist, wenn sich Kultur oder so C-Gewohnheiten
0:18:00–0:18:02
global so vereinheitlicht.
0:18:02–0:18:09
Also wenn du einfach einen grossen Kanal hast, wo alles, oder alles ist auch
0:18:09–0:18:14
falsch, aber wo ein riesiger Anteil von dem rauskommt, was fast alle schauen.
0:18:14–0:18:20
Das frage ich mich einfach. Ich bin sehr für Diversität und nicht nur,
0:18:20–0:18:25
wenn die Leute mit der Regenbogenfarbe herumlaufen, sondern auch inhaltlich.
0:18:25–0:18:30
Muss es doch irgendwie... Klar, kannst du sagen, aber was habe ich gesagt?
0:18:30–0:18:34
Diese Statistik hätte ich jetzt anschauen müssen, aber irgendwie glaube ich,
0:18:34–0:18:40
99% von allen YouTube-Videos haben weniger als 1000 Views.
0:18:40–0:18:43
Also es gibt eben dann doch, kannst du sagen, alle sagen immer,
0:18:43–0:18:46
es hat eine riesen Menge von Zeug auf dem YouTube,
0:18:46–0:18:51
aber was geschaut wird, ist dann eben doch wieder nur ein winziges Ausschnittchen
0:18:51–0:18:57
von all dem und Und eben die allermeisten senden da halt so ein bisschen unter
0:18:57–0:18:58
Ausschluss von der Öffentlichkeit.
0:18:59–0:19:04
Ganz klar. Und bei dem haben wir halt den Termin draussen, es geht viral.
0:19:04–0:19:08
Das würde man sagen, wenn wir gar nicht mal etwas machen würden,
0:19:08–0:19:08
haben wir das schon gehabt.
0:19:09–0:19:13
Vielleicht gibt es irgendeinen Klick oder irgendwie ein SRF zeigt das und so.
0:19:13–0:19:18
Wir sind leider noch nie viral. Könntet ihr nicht, liebe Zuhörer,
0:19:18–0:19:22
jetzt einfach mal schauen, dass wir mit dieser Sendung viral gehen.
0:19:23–0:19:27
Wobei, ich muss jetzt auch sagen, der grösste YouTuber, den ich regelmässig
0:19:27–0:19:29
schaue, ist Linus, Linus Tech Tips.
0:19:31–0:19:34
Ja, so ein Tech-Kanal und eben, gerade so, ich sage jetzt, ja gut,
0:19:35–0:19:40
da bin ich vielleicht auch ein bisschen zu alt für halt diese ganzen Influencers
0:19:40–0:19:46
und was mich auch irgendwie genervt hat, das ist ja im Zusammenhang mit der Vision Pro,
0:19:46–0:19:49
es hat doch auch die Influencerin geht iJust in.
0:19:49–0:19:54
Ja, genau, da sagt man sogar etwas. Und irgendwie hat es mir auch nach 20 Sekunden
0:19:54–0:19:57
abgestellt, weil du hast genau gemerkt, es ist ein Gefälligkeitsvideo,
0:19:57–0:20:00
aber gut, da kannst du einfach sagen, zack.
0:20:00–0:20:05
Ja, ich weiss von gut unterrichteten Quellen, dass es tatsächlich auch so Tech-YouTuber
0:20:05–0:20:07
wie zum Beispiel eben der,
0:20:07–0:20:12
bei dem weiss ich es nicht, aber dass es zumindest in dieser Szene gegangen
0:20:12–0:20:18
und gegeben ist, dass die Unternehmen zahlen, dass es in diesen Videos vorkommt.
0:20:18–0:20:23
Da musst du jetzt nicht mehr mit journalistischen Massstäben und Kriterien kommen.
0:20:23–0:20:30
Das betrübt mich. Das hat eine korrumpierende Wirkung.
0:20:32–0:20:36
Auf eine Art funktioniert das halt über Werbung.
0:20:38–0:20:45
Wenn du zahlst für das YouTube Premium, zahlst du auch noch gewisse.
0:20:45–0:20:51
Oder du trägst ja zu der Monetarisierung dieser Leute bei, aber diese werden
0:20:51–0:20:56
trotzdem nur anhand ihrer Einschaltquote gemessen und ansonsten an nichts.
0:20:56–0:20:59
Das Heimtier ist ja die Werbung, die von einem Kunden herkommt,
0:20:59–0:21:00
da kommt etwas über und klar.
0:21:02–0:21:05
Wenn ich etwas YouTube Premium bezahlen werde, dann sage ich jetzt,
0:21:05–0:21:07
ob ich einen Linus oder so auch bekomme.
0:21:07–0:21:13
Irgendwie habe ich auch mal gehört, dass eigentlich, und das geht auch um Netflix,
0:21:13–0:21:18
Disney+, dass sie eigentlich die Werbe-Abo lieber haben, weil sie eigentlich
0:21:18–0:21:21
dort mehr ausschütten können.
0:21:21–0:21:24
Also ich kann das nicht belegen, aber ich kann es schon an sie machen. machen?
0:21:25–0:21:31
Ja, also zumindest bei Spotify weiss man ja, dass wenn man Werbe finanziert
0:21:31–0:21:35
lässt, dass Künstler weniger rüberkommen, als wenn man zahlt als Abonnent.
0:21:36–0:21:40
Noch gut, ich finde, das sollte eigentlich nicht im Interesse des Betriebers
0:21:40–0:21:42
sein, aber ja, es ist offenbar so.
0:21:43–0:21:49
Also, eben du als YouTube-Premium-Kund, um jetzt mal bei der ganz banalen Kritik.
0:21:50–0:21:54
Anzusetzen, ich finde einfach, die Werbigefänge, es gibt immer mehr Videos,
0:21:55–0:21:59
die du nicht mehr überspringen kannst, die du einfach anschauen musst.
0:21:59–0:22:03
Am Anfang, früher, hast du einfach gewusst, ein Video, dann geht es los.
0:22:04–0:22:08
Und jetzt kommen manchmal zwei oder drei, habe ich auch schon gesehen.
0:22:08–0:22:12
Und dann kommt zweitens eins und meistens eben nicht so, dass,
0:22:12–0:22:18
wenn ich Stephen Colbert schaue, dann kommt das mitten im Gag vor den Pointen und so.
0:22:19–0:22:24
Das ist einfach ein liebloser Umgang mit diesen Inhalten. Also da bin ich einverstanden.
0:22:25–0:22:27
Ich kann es auch so sagen, ich habe jetzt auf meinem Büro-Notebook,
0:22:27–0:22:31
im einen Browser, bin ich halt mit meinem privaten Google-Konto eingeloggt,
0:22:31–0:22:33
sehe keine Werbung und halt im einen nicht.
0:22:34–0:22:38
Und wenn ich halt irgendwie, es kann eben mal jemand sagen, hey,
0:22:38–0:22:39
schau, das und das Problem.
0:22:41–0:22:45
Das YouTube-Video, wenn er dann im Browser aufmacht, wo ich nicht eingeloggt bin,
0:22:45–0:22:52
ja, 90 Sekunden Werbung, ja, ich weiss, wir können es übertreiben und wir haben
0:22:52–0:22:53
jetzt kein Werbefach mehr da,
0:22:53–0:22:56
aber du könntest ja wahrscheinlich auch Botschaft, dass jetzt irgendwie das
0:22:56–0:23:00
Ariel das beste Wäschemittel ist, kannst du ja vielleicht auch in 10 Sekunden
0:23:00–0:23:02
durchbringen und musst es nicht in 90 Sekunden durchbringen.
0:23:02–0:23:07
Genau, also dann könnte man ja sagen, personalisierte Werbung wäre ja das Ding
0:23:07–0:23:12
von YouTube, aber offenbar sind dann, also das ist irgendwie die gleiche Werbung,
0:23:12–0:23:14
die man früher im Privatfernsehen gesehen hat.
0:23:14–0:23:18
Sie kommt jetzt einfach auf YouTube und sie ist meistens nicht irgendwie,
0:23:18–0:23:22
könnte man ja sagen, vielleicht, wenn es YouTube einmal gemerkt hätte,
0:23:22–0:23:24
dass ich ein, wie soll ich sagen,
0:23:24–0:23:30
ein Intellektueller bin und gerne ein bisschen auf höherem Niveau angesprochen
0:23:30–0:23:32
werden möchte, dann gäbe es ja vielleicht auch die Möglichkeit,
0:23:32–0:23:34
solche Clips auszuspielen.
0:23:34–0:23:38
Aber nein, es ist wieder... Nein, da bin ich voll bei dir.
0:23:38–0:23:42
Und ich kann sagen, bevor ich halt... YouTube Premium hat es ja zuerst in der
0:23:42–0:23:45
Schweiz nicht gegeben, für ein paar Monate. Und du hattest die Werbung.
0:23:45–0:23:49
Ich war mit meinem Google Konto eingeloggt. Ich kann ja sagen,
0:23:49–0:23:52
ich mache alles über Google. Also Google weiss alles über mich.
0:23:52–0:23:56
Und dass mir dann Google regelmässig Autowerbung einspielt... Ja.
0:23:56–0:24:00
Also das müsste doch Google besser können.
0:24:00–0:24:06
Also wenn schon, bringst du mir halt... eben, ich sage jetzt, ein Kreuzschiff.
0:24:06–0:24:08
Oder ein Kreuzschiff, oder bringst du halt einen neuen Burger,
0:24:08–0:24:14
oder weiss ich was, Heineken oder ein Feldschlössli hat jetzt das neue Sommerbier,
0:24:14–0:24:17
blablabla, aber dann musst du mir nicht irgendwie outen, im schlimmsten Fall,
0:24:17–0:24:19
ich habe glaube ich auch mal irgendwie, wie sagt man das.
0:24:21–0:24:24
Das habe ich glaube ich auch mal überkommt, Haare entfernen,
0:24:24–0:24:28
also weisst du, um die Beinhaare zu entfernen, das habe ich auch mal überkommt.
0:24:28–0:24:32
Das ist gut, das kann man auch als Mann, die Velofahrer finden das immer gut,
0:24:32–0:24:33
wenn sie dann wäre das windschneidiger.
0:24:33–0:24:39
Den hätte ich einfach nicht für einen Schifffahrer, sondern für einen Velofahrer gehalten.
0:24:41–0:24:45
Aber gut, ich muss sagen, klar, irgendwoher muss das Geld kommen vielleicht.
0:24:45–0:24:48
Ich finde, am YouTube Premium finde ich eine gute Idee.
0:24:49–0:24:52
Ich würde einfach, für mich ist es so, wenn ich es nutze, ist es einfach zu teuer.
0:24:52–0:24:56
Ich würde sagen, wenn es jetzt da einfach nur ohne Musik und,
0:24:57–0:24:59
YouTube Music und alles gehört, dann auch dazu, wenn ich sage,
0:25:00–0:25:03
wieso soll ich für das zahlen, wenn es Spotify Spotify-Abo haben,
0:25:03–0:25:07
wenn es jetzt einfach nur für, sagen wir, 2-3 Franken im Monat keine Werbung
0:25:07–0:25:11
und wirklich ich schaue jetzt so wenig,
0:25:12–0:25:17
dass es sich einfach nicht lohnt, so viel zu zahlen. Und dann wäre es okay, glaube ich.
0:25:17–0:25:21
Genau, aber klar, wenn du jetzt halt der CFO von Google bist,
0:25:21–0:25:24
dann denkst du natürlich... Ja, so rechnet man, dann kann man sagen...
0:25:24–0:25:26
Also das ist ganz klar halt, wir sind jetzt halt,
0:25:27–0:25:31
Du kannst nicht so viel verlangen, dass es niemand zahlt, aber du kannst schauen,
0:25:31–0:25:35
wie viel du verlangen musst, dass du bei denen, die Premium zahlen,
0:25:35–0:25:39
sicher mehr verdienst, als bei denen, die nur Werbung haben.
0:25:39–0:25:43
Das ist halt einfach das Problem.
0:25:44–0:25:47
Vielleicht, Dana, gibt es einen kleinen Trick, den ich mal vorgestellt habe.
0:25:48–0:25:55
Das gibt es individuo, also ich schreibe das Buch, invidio.us.
0:25:55–0:26:01
Das ist so eine Plattform, die tut irgendwie, dass YouTube die Inhalte wieder
0:26:01–0:26:06
über ein alternatives Frontend macht,
0:26:06–0:26:11
zugänglich, und da sieht man keine Werbung und man kann auch die Videos abladen
0:26:11–0:26:13
und solche Sachen. Also ich finde das noch praktisch.
0:26:13–0:26:18
Leider ist es dann mal abgeschaltet worden, die Urinstanz von dem.
0:26:18–0:26:23
Ist natürlich klar, das hat Google nicht so gepasst, aber es gibt jetzt dort
0:26:23–0:26:28
so Links, wo man es immer noch findet und man findet es immer noch und es ist immer noch gut,
0:26:28–0:26:32
wenn man, es gibt zum Teil auch alternative Kommentare darunter,
0:26:32–0:26:37
die dann via Reddit kommen und so, also eine ganz lustige, so ein,
0:26:37–0:26:41
wie ein Schatten-YouTube könnte man sagen. Das als kleiner Tipp.
0:26:42–0:26:45
Eben, die Werbung, okay, ich glaube, den Algorithmus habe ich schon gesagt,
0:26:46–0:26:49
über den haben wir ja auch schon viel geredet, dass einem der dann je nachdem
0:26:49–0:26:54
einfach, wenn du ein kleines Mist geschaut hast, präsentiert er dir dann den schlimmeren Mist.
0:26:55–0:27:01
Statt dass er dich vielleicht probieren würde, auf einen besseren Inhalt zu
0:27:01–0:27:03
locken. Also man könnte...
0:27:03–0:27:07
Und das ist vielleicht schon... Ich weiss jetzt nicht, ich töne wahrscheinlich
0:27:07–0:27:11
jetzt wie ein wahnsinnig alter Sack, Ich muss jetzt noch die Welt verteidigen,
0:27:11–0:27:15
die eigentlich zum Untergang verdammt ist. Also eben die Welt, die es dann.
0:27:17–0:27:21
Im Fernsehen jemanden gegeben hat, der geschaut hat, dass nicht der letzte Schrott
0:27:21–0:27:22
über den Sender geht, oder?
0:27:22–0:27:27
Ist ja vielleicht dann furchtbar altmodisch und furchtbar angestaubt,
0:27:27–0:27:31
aber wenn du darüber nachdenkst, ist es vielleicht doch gut, oder?
0:27:31–0:27:34
Eben jemanden, der schaut, dass man jetzt vielleicht gewisse Standards,
0:27:34–0:27:41
wie auch immer, definiert und auch immer wieder scheitert man wahrscheinlich
0:27:41–0:27:46
auch daran, aber man probiert es wenigstens so ein bisschen, nicht einfach sich zum.
0:27:49–0:27:52
Reinen Kommerzvermittler zu machen, oder?
0:27:52–0:27:57
Ja, weil klar eben, der Algorithmus und ich scrolle jetzt gerade durch mein YouTube,
0:27:58–0:28:02
also da habe ich jetzt tatsächlich eben Schiffli, ich habe Kochvideos weil ich
0:28:02–0:28:07
auch mal was gesucht habe ich habe Dixieland-Videos, weil ja mein Papa spielt
0:28:07–0:28:09
ja in einer Dixieland-Band Ah, können wir den mal live einspielen?
0:28:09–0:28:14
Können wir mal live einspielen, genau das würde sicher Freude haben eben teilweise
0:28:14–0:28:21
IT-Videos, also Simpsons-Ding, also ja, es ist relativ breit.
0:28:21–0:28:25
Das Problem ist, man fährt mal an, jetzt will ich aber mal wissen,
0:28:25–0:28:26
wie es um die Impfung geht.
0:28:26–0:28:30
Du schaust mal den Ken Jebsen. Genau, und dann schaust du drei,
0:28:30–0:28:33
vier Ken Jebsen-Videos oder fünf, sechs hintereinander.
0:28:33–0:28:36
Dem würde man schlichtweg allgemein, ich will es jetzt nicht mit dem Account
0:28:36–0:28:38
probieren, dass wir es nicht versuchen.
0:28:40–0:28:43
Und ja, gerade was du gesagt hast, jetzt angenommen, ich,
0:28:44–0:28:50
Nach ihrem Vortrag im Studium über alternative Ansichten, Reichsbürger oder
0:28:50–0:28:55
so, jetzt schaue ich, und wenn ich jetzt einen Vortrag seriös machen will,
0:28:55–0:28:58
muss ich halt vielleicht tatsächlich mal vier Stunden schauen.
0:28:59–0:29:02
Du meinst das Emoji, das ich im Titel habe.
0:29:03–0:29:08
Ja, ja. Und wenn dir dann natürlich der ganze Algorithmus zerhaut,
0:29:08–0:29:10
das wäre dann auch blöd. Also da hast du schon recht.
0:29:11–0:29:17
Ja. Ja, also kommen wir vielleicht wirklich zum Kern meiner Kritik.
0:29:18–0:29:22
Ich glaube, mir passt die Globalisierung von diesem Geschmack nicht.
0:29:22–0:29:25
Und eben, das habe ich auch mal so ein bisschen angeschaut.
0:29:25–0:29:32
Also ich bin ja mal selber YouTuber und habe mal geschaut, wie man Geld verdienen könnte.
0:29:32–0:29:36
Und bin daraus rausgefallen. YouTube hatte dann schon ein Problem.
0:29:37–0:29:43
Weil sie dann auch Leute viel Geld bezahlt haben, die eben genau mit Hahnenbüchern,
0:29:43–0:29:47
Unsinn und jeglicher Desinformation und alles, und dann haben sie irgendwann
0:29:47–0:29:50
einmal ein Problem bekommen mit dem und dann haben sie gefunden,
0:29:50–0:29:55
sie lösen das Problem, indem sie einfach die unterste Schicht von denen,
0:29:55–0:29:57
die am wenigsten verdienen, abschneiden.
0:29:57–0:30:03
Und zu denen habe ich dann gehört. Und das heisst, wenn du irgendeine Nische
0:30:03–0:30:08
bespielst, dann hast du schon eigentlich keine Chance mehr. Du musst immer auf
0:30:08–0:30:09
das Massenpublikum gehen.
0:30:10–0:30:16
Und das heisst schon mal, auf Rätoromanisch musst du nicht anfangen, YouTuber zu werden.
0:30:16–0:30:20
Oder sogar auf Zürichdeutsch kannst du es eigentlich vergessen.
0:30:20–0:30:27
Du musst mindestens Hochdeutsch sprechen und dann musst du aber schon ein ziemliches
0:30:27–0:30:31
Thema haben, das zieht, dass du irgendwie Geld verdienst.
0:30:31–0:30:35
Aber am besten ist es Englisch und dann natürlich, ja, dann hast du all die
0:30:35–0:30:38
Themen, die ziehen und die alle anderen aber auch schon machen.
0:30:39–0:30:44
Und das finde ich einfach, natürlich aus der kapitalistischen Logik ist das
0:30:44–0:30:45
klar, dass das so funktioniert.
0:30:45–0:30:49
Aber wenn du sagst, du bist jetzt quasi das Fernseh der Welt,
0:30:49–0:30:53
dann kannst du doch nicht einfach nur, oder ja, doch, natürlich kannst du,
0:30:54–0:30:57
das Fernseh früher hat das, zumindest das Privatfernseh hat es auch so gemacht.
0:30:58–0:31:02
Nein, stimmt nicht. Also eben auf RTL hast du doch immerhin auch noch Nachrichten
0:31:02–0:31:06
gesehen und Nachrichtensendungen, die zum Teil gut gewesen sind.
0:31:06–0:31:09
Und sie sind dann auch gezwungen worden, noch irgendwelche Fenster zu machen
0:31:09–0:31:13
für irgendwelche anderen Anbieter und so. Also man hätte zumindest,
0:31:13–0:31:18
auch wenn es kommerziell funktioniert, so ein bisschen einen Ausgleich probiert,
0:31:18–0:31:20
aber da Null, da ist einfach...
0:31:22–0:31:24
Also, ich habe mich ein wenig in
0:31:24–0:31:30
den Arsch gerettet. Würde ich dir nicht widersprechen. Ja, klar, also...
0:31:31–0:31:34
Wenn ich jetzt YouTube-Videos machen würde, dann mache ich es zum Spass,
0:31:34–0:31:36
aber klar. Und du hast, glaube ich, auch mal...
0:31:37–0:31:39
Ich denke, es ist ein deutscher Blogger, wie heisst der? Felix.
0:31:39–0:31:44
Der ist irgendwie mit einem Tesla an Nordpol. Ja. Und da hast du natürlich auch gesehen, hey...
0:31:45–0:31:49
Aber gut, er hat es natürlich auch... Das ist ja fair, transparent gemacht,
0:31:49–0:31:52
dass Michelin... Also wie sagen wir, die machen nicht nur Restaurants,
0:31:52–0:31:56
sondern auch Pneus, die haben ihm das Zeug gezahlt.
0:31:56–0:31:59
Und eben hat er gesagt, nein, nein, er sage nicht, was das gekostet hat,
0:31:59–0:32:03
weil das ist echt hochprofessionell aufzeichnet gewesen. Die sind drei, vier Wochen unterwegs.
0:32:05–0:32:12
Aber von der Qualität her hätte jetzt das Video auch wahrscheinlich auf dem ARB laufen können.
0:32:12–0:32:14
Aber eben, hey, das können wir zwei in Höhe.
0:32:14–0:32:18
Ich glaube nicht, dass wir jetzt sagen, irgendwie, keine Ahnung.
0:32:19–0:32:23
Ich glaube, das grössere Problem ist wirklich nicht das, was stattfindet,
0:32:23–0:32:25
obwohl da auch vieles hochproblematisch ist.
0:32:25–0:32:28
Aber das grössere Problem ist all das, was nicht stattfindet,
0:32:28–0:32:31
weil es sich nicht rendiert und weil es niemanden interessiert.
0:32:31–0:32:34
Und eben weil es so eine Globalisierung ist.
0:32:34–0:32:38
Ich bin ja sonst kein Fan von dem Begriff Mainstream-Medium,
0:32:38–0:32:40
aber für YouTube trifft es irgendwie zu.
0:32:43–0:32:45
Eben, um noch schnell, ich habe es schon angetönt, darum muss ich jetzt noch
0:32:45–0:32:48
schnell darüber reden, eben das N-Shitification,
0:32:49–0:32:53
also das heisst eigentlich, man kann es nicht gut auf Deutsch übersetzen,
0:32:53–0:32:58
auf Deutsch habe ich schon den Begriff Plattformverfall gehört,
0:32:58–0:32:59
aber es meint einfach, dass der.
0:33:01–0:33:05
Scheisse Anteil ansteigt immer, und zwar nicht inhaltlich oder nicht nur,
0:33:05–0:33:07
aber vor allem auch wegen dem Betreiber,
0:33:07–0:33:11
weil der sagt, am Anfang gibt sich dem Betreiber Mühe, eben es allen,
0:33:11–0:33:15
es sind Publikum um recht zu machen, seine Nutzer, die werden umhegt und umsorgt
0:33:15–0:33:18
und man bringt schöne neue Funktionen, was es denen bringt und so.
0:33:19–0:33:23
Gutes Preis-Leistungs- Verhältnis oder sogar gratis und dann irgendwann mal
0:33:23–0:33:24
ist eine kritische Masse erreicht,
0:33:25–0:33:28
dann können wir anfangen mit der Monetarisierung, dann gibt es Gebühren,
0:33:28–0:33:34
Werbungen, Mittel zur Gewinnsteigerung, dann wird schlechter so die Nutzungserfahrung,
0:33:34–0:33:36
weil eben dann probiert man möglichst viel,
0:33:36–0:33:40
rauszuholen aus dieser Plattform und dann am Schluss wird es auch für die Nutzer
0:33:40–0:33:44
und dann sogar auch noch für die die Werbetreibenden auch schlechter,
0:33:44–0:33:47
weil die werden dann natürlich, eben, das ist das Schöne an YouTube,
0:33:47–0:33:51
die können eigentlich beide Seiten ausbieten, sowohl die, die Werbung machen,
0:33:51–0:33:57
weil die müssen ja fast dort Werbung machen, wenn dort 2,5 Milliarden Menschen sind, oder?
0:33:57–0:34:01
Also die kannst du ausbieten, kannst du die auch irgendwie gegeneinander ausspielen
0:34:01–0:34:05
und so und am Schluss ist eigentlich die Plattform nicht mehr so toll,
0:34:05–0:34:07
nicht mehr so schön, aber sie ist halt irgendwie.
0:34:08–0:34:14
Konkurrenzlos und ja, und als als Newcomer hättest du keine Chance.
0:34:14–0:34:19
Ich glaube, diese Verschlechterungsphase, die sieht man mit all diesen Sachen,
0:34:19–0:34:22
die wir gesagt haben, die Werbung, die Empfehlungsalgorithmen,
0:34:22–0:34:26
das Clickbaiting seitens dieser YouTuber, die Datenschutz-B,
0:34:26–0:34:32
über die Urheberrechtsquerelen, die ständig stattfinden, haben wir gar noch nicht geredet.
0:34:32–0:34:35
Das wäre jetzt noch etwas, was mir...
0:34:36–0:34:39
Tatsächlich bin ich auch ein paar Mal reingelaufen,
0:34:40–0:34:46
Ich weiss, man sollte das nicht machen, aber es gab mal in der Simpsons einen Joke.
0:34:47–0:34:51
Ich glaube, da hat Apple den Preis des iPhones gesenkt und dann hast du in der
0:34:51–0:34:57
Springfield-Mall gesagt, «Attention, iPhones are now only 20 cents.» Also ein 3-Sekunden-Clip.
0:34:57–0:35:00
Und ja, den habe ich auf YouTube gestellt.
0:35:00–0:35:05
Also 3 Sekunden und baff, Strike. Ja, genau.
0:35:05–0:35:10
Aber man müsste eigentlich sagen, es gibt im amerikanischen Urheberrecht so etwas wie ein Fair Use.
0:35:10–0:35:14
Das heisst, du darfst zum Beispiel zu schulischen Zwecken, zum Zitieren,
0:35:14–0:35:17
wenn du darüber schreibst, wenn du das irgendwie einbettest,
0:35:17–0:35:19
dann darfst du das eigentlich.
0:35:19–0:35:27
Und das ist ganz eindeutig ein Missbrauch oder man hat dir ein Recht verweigert.
0:35:27–0:35:34
Man hat auch mal den Fall vom Kollegen Steiger, der ist mit seinem Flieger über das Auto angekommen.
0:35:34–0:35:40
Das stimmt, ja. Und ich glaube, er weiss sicher, wie man Urheberrechtsfreiheit,
0:35:40–0:35:45
es ist nicht urheberrechtsfrei, es wird also Musik, die du benutzen darfst.
0:35:45–0:35:50
Und ich glaube, das weiss keiner besser als er. Und das Video hat es mir auch gestriket.
0:35:50–0:35:55
Dann kannst du auch sagen, ich mache jetzt da einen Einspruch.
0:35:55–0:35:58
Aber das Problem ist dann, wenn der Einspruch ungerechtfertigt ist,
0:35:58–0:36:02
wenn es ganz dumm geht, ist dein Kanal weg. Immer noch ein kürzer Hebel.
0:36:02–0:36:05
Und ich glaube, mir ist das auch zweimal mit Videos passiert.
0:36:05–0:36:08
Und zwar in beiden Fällen mit Videos, die ich genau geschaut habe.
0:36:08–0:36:12
Wir müssen eigentlich in 50 Sekunden aufhören und ich versuche es kurz zu machen.
0:36:12–0:36:15
In zwei Fällen wirklich mit Videos, die ich geschaut habe.
0:36:15–0:36:22
Das ist Musik, die ich brauchen darf, die so als YouTube Safe angekündigt worden ist.
0:36:22–0:36:27
Aber es könnte natürlich auch ein Geschäftsmodell sein, weil wenn du dann den
0:36:27–0:36:30
Strike hast, kann es sein, dass er nicht den Kanal abschaltet,
0:36:30–0:36:35
aber dass die Monetarisierung von deinem Video, der Musiktrack ist, an den geht,
0:36:35–0:36:39
der den Musiktrack-Sauerheberrecht hat.
0:36:39–0:36:43
Und darum ist das wahrscheinlich viel attraktiver, und in 15 Sekunden muss ich
0:36:43–0:36:47
fertig sein, viel attraktiver, so Musik ins Internet zu stellen,
0:36:47–0:36:48
die die Leute dann meinen,
0:36:48–0:36:52
sie können es brauchen und dann nicht bereit sind, dafür zu zahlen und dann
0:36:52–0:36:57
nachher aber diesen Leuten ihre Monetarisierung wegnehmen und einstreichen.
0:36:57–0:37:01
Und wenn das das Geschäftsmodell ist und jetzt hören wir pünktlich auf,
0:37:01–0:37:05
dann sage ich euch, warum mir diese Plattform nicht mehr gefällt.
0:37:05–0:37:07
Schönen Abend miteinander. Tschüss miteinander.
0:37:11–0:37:21
Music.

Matthias hat seinen Spass an Googles Videoplattform verloren und findet, dass die besser heute als gestern abgestellt werden sollte. Digichris sieht das alles nicht so schwarz und findet, man könne sich dort auch heute noch gut unterhalten.

Eine hervorragende Ausgangslage, um zu diskutieren – oder vielleicht auch herzhaft zu streiten –, ob Youtube tatsächlich als Beleg für die Theorie der «En💩tification» dienen kann: Die stammt von Cory Doctorow und besagt, dass Plattformen mit zunehmendem Erfolg und des Profits wegen ihre Nutzerinnen und Nutzer und auch Werbekunden immer mieser behandeln. Dass die Ideale dabei auf der Strecke bleiben, ist das eine – das grössere Problem aus Sicht von Nutzerinnen und Nutzern ist, dass es schlicht keine Alternativen gibt, zu denen sie abwandern könnten.

Besteht Hoffnung? Oder müssen wir uns heute begnügen, alle Verfehlungen aufzuzählen und uns über jede Missetat von Google Luft zu machen? Oder kann Digichris uns überzeugen, dass alles gar nicht so schlimm ist?

„Youtube wird immer be💩ener“ weiterlesen

Kleine, grosse, schräge und dubiose Fragen

Transkript anzeigen (falls vorhanden)

00:00–0:00:06
Music.
0:00:09–0:00:12
Ah, Morgomat, sorry. Morgomat.
0:00:12–0:00:18
Ich habe keinen anderen Jingle. Das ist wieder Jingle-Misere für Radio Stadtfilter. Hallo, Kevin.
0:00:20–0:00:26
Wie geht's? Ui, du bist leise. Ich muss, warte mal. Jetzt muss ich dich ganz
0:00:26–0:00:27
schnell... Wir haben wieder...
0:00:28–0:00:31
Warte, ich kann da auch noch ein bisschen hochschrauben. Jetzt bist du viel zu hoch. Besser?
0:00:32–0:00:35
Warte, ich tue noch viel. Justiere so.
0:00:37–0:00:41
Wir machen wieder einen Soundcheck auf dem Sender, aber das ist gut,
0:00:42–0:00:46
weil wenn wir, Kevin, wenn wir die 61 Millionen gewinnen, dann stellen wir einen
0:00:46–0:00:48
an, der das für uns gemacht hat, oder?
0:00:49–0:00:55
Hast du gespielt? Ich habe bis jetzt immer nur Einer und Zweier gehabt,
0:00:55–0:00:59
aber ich weiss nicht, ob ich es nochmal so spielen soll oder nicht. Hast du gespielt?
0:01:00–0:01:06
Ja, aber erst nachdem der erste Hype vorbei war und es schon in die Follow-Up-Runde
0:01:06–0:01:10
ging, habe ich gedacht, ich habe einen ganzen Lottozerl ausgefüllt.
0:01:10–0:01:15
Einen ganzen? Also das wäre jetzt auf morgen, oder? Morgen? 35 Stunden.
0:01:16–0:01:18
Okay, das ist all in. Morgen gewinne ich.
0:01:20–0:01:25
35 Stunden. Und was machst du damit, wenn du gewinnst?
0:01:25–0:01:28
Ich kaufe mir ein Auto. Ui, aber Auto?
0:01:29–0:01:34
Ist das nicht ein wenig langweilig? Nicht irgendwie eine Villa oder... Voll nicht.
0:01:36–0:01:44
Ich bin mir so... Und das Tragische ist eigentlich, wenn ich jetzt 60,
0:01:44–0:01:46
wie viel? 50 Millionen... Nein, 61.
0:01:48–0:01:53
61, ist egal. Und jetzt würde ich so, ich würde jetzt... Das Trauma Auto,
0:01:53–0:01:59
das ich kaufen würde, top notch, dort wo Diana ist, das kostet 100'000 Franken.
0:02:00–0:02:05
Das ist es, dort ist es fertig bei mir, ich brauche ein Auto,
0:02:06–0:02:12
das teurer ist, genau das und das kostet ungefähr 100'000 Franken und der Rest
0:02:12–0:02:13
würde ich einfach, ich würde wirklich.
0:02:15–0:02:19
In Projekte investieren, in Menschen investieren, ich glaube,
0:02:19–0:02:21
ich würde das so ein bisschen Leuten geben, wo ich das Gefühl habe,
0:02:21–0:02:27
die machen etwas Cooles, da hast du mal nicht viel in diesem Verhältnis,
0:02:27–0:02:30
sondern ich würde ihnen sagen, da hast du mal ein Viertel Million, mach mal.
0:02:30–0:02:34
Das wäre so, du wärst eigentlich ein Investor.
0:02:35–0:02:39
Würdest du dann etwas erwarten oder würdest du dann den Leuten aufs Dach steigen
0:02:39–0:02:45
und sagen, du, ich bin zwar ein Mäzen und so, aber ich will trotzdem ein Return
0:02:45–0:02:48
on Investment, ein ROI, wie man so schön sagt.
0:02:48–0:02:51
Nein, ich möchte nicht einen Roy.
0:02:51–0:02:55
Ich möchte mehr Teil des Projekts sein.
0:02:55–0:03:02
Ich würde gerne mithelfen oder etwas mitentwickeln, aber nicht als Investition.
0:03:03–0:03:05
Lieber den Siegfried als den Roy.
0:03:07–0:03:12
Es tut mir leid. Was würdest du machen mit 61 Millionen?
0:03:12–0:03:17
Eine Villa kaufen. Das würde absolut zu dir passen. eine Villa.
0:03:17–0:03:20
Findest du? Nein. Ich habe doch immer in so.
0:03:22–0:03:27
Winzigen Zimmern gewohnt. Mein Jugendzimmer hatte 13 Quadratmeter,
0:03:28–0:03:30
glaube ich, aber dann hatte es noch so schräge Wände.
0:03:31–0:03:32
Wahrscheinlich effektiv konntest
0:03:32–0:03:37
du nur so Köpfe... Es war vielleicht dreimal so gross wie mein Bett.
0:03:38–0:03:43
Das Zimmer. Und das ist so... Ein bisschen mehr Platz...
0:03:43–0:03:49
Ich würde wahrscheinlich schon irgendwie wie wir es vielleicht in dem Windtower,
0:03:49–0:03:53
der ja ganz in der Nähe ist, wo ich wohne, dort würde ich mir vielleicht,
0:03:53–0:03:58
so ein Büro einrichten, dass ich dann so über die Stadt schauen könnte und mich
0:03:58–0:04:01
wenigstens so ein bisschen... Das wäre aber cool.
0:04:01–0:04:04
Und dann würde ich dort vielleicht so ein,
0:04:05–0:04:10
YouTube-Studio einrichten und schauen, was man machen kann, was für YouTube-Videos
0:04:10–0:04:15
man machen muss, dass man möglichst kein kein Influencer wird und niemand die
0:04:15–0:04:19
Videos anschaut und niemand auf die schiefe Bahn bringt mit dem,
0:04:19–0:04:21
was man da ins Netz rauspustet.
0:04:21–0:04:26
Das würde ich vielleicht... Ziel ist null Views. Genau, genau.
0:04:26–0:04:32
Ein riesenaufwendiges Video, aber es soll keine Klicks haben.
0:04:32–0:04:38
Das fände ich auf eine Art... So als Kunstprojekt wäre das doch noch lustig, oder?
0:04:38–0:04:43
Das hätte doch noch Charme auf einer Art. Ist es möglich, ein YouTube-Video zu verstecken?
0:04:45–0:04:52
Dass es so schlechte Titel hat als null. Das ist schlimm.
0:04:52–0:04:58
Es müsste öffentlich sein, es müsste auffindbar sein und alles mit all den Tricks,
0:04:58–0:05:04
aber es müsste so ein wüstes Bildchen haben und eben so einen blöden Titel und
0:05:04–0:05:07
so nichtssagend beschrieben,
0:05:07–0:05:09
dass alle finden würden, hm, hä, hä.
0:05:10–0:05:16
Und das Ziel wäre nach einem Jahr kein Klick, das wäre ein super Projekt.
0:05:17–0:05:21
Das schaffst du nicht, das schaffst du nicht. Das wäre mega gut.
0:05:22–0:05:27
Vielleicht wäre das ein Challenge, das wir machen sollten. Es müssten aber die
0:05:27–0:05:30
Hörer sich auch beteiligen. Wir müssten irgendwie ...
0:05:32–0:05:35
Das fände ich eine lustige Idee, dass wir das Projekt machen.
0:05:36–0:05:41
Wenn ihr schon zuhört, schreibt uns auf nerdfilter ... Nein, wie heissen wir?
0:05:42–0:05:46
Nerdfunk.stattfilter. nerdfunk.stattfilter. Genau.
0:05:46–0:05:52
Oder tunt uns auf Twitter. Ich glaube, man darf nicht nicht bei null.
0:05:52–0:05:54
Null ist schwierig. Null geht nicht.
0:05:54–0:05:59
Weil null ist, wenn ich kontrolliere, ob jemand schon gut kommt. Ja, genau.
0:06:00–0:06:04
Dann hast du unter Umständen schon einen.
0:06:04–0:06:10
Dann startet es aus Versehen. Nach einem Jahr unter 100 oder so.
0:06:10–0:06:14
Ich habe das Gefühl, das könnte wie gehen. Wir müssten einfach eine Gruppe sein,
0:06:15–0:06:20
wo 10 oder 20 Leute wären lustig, die mitmachen und dann wer nach einem Jahr
0:06:20–0:06:25
am wenigsten Klicks hat, der hat gewonnen und dann kommt irgendetwas hin.
0:06:25–0:06:29
Das machen wir, das müssen wir noch ausschaffen, aber wir machen die Spielregeln
0:06:29–0:06:34
dazu und dann bitte meldet euch schon, wenn ihr teilnehmen wollt, dann können wir da ein,
0:06:37–0:06:39
Aufgebot formieren und dann müssen wir natürlich irgendwie herausfinden,
0:06:39–0:06:43
dass nicht die Leute sich dann gegenseitig anschauen gehen und so,
0:06:43–0:06:44
weil dann ist es ja auch fies.
0:06:45–0:06:48
Dass ich dein Video 10 Mal hintereinander an.
0:06:49–0:06:52
Das wäre eben nicht gebannt. Das müssen wir noch etwas ausschaffen.
0:06:52–0:06:56
Aber das machen wir dann. Und jetzt geht es los mit «Kummerbox live».
0:06:57–0:07:09
Music.
0:07:08–0:07:13
Wir machen heute, wie jeden letzten Dienstag des Monats, Kummerbox live.
0:07:13–0:07:18
In dieser Sendung behandeln wir die Computerprobleme, die ihr uns per Mail zugekriegt
0:07:18–0:07:25
habt, auf nerdfunk.stadtfilter.ch Mit akuten Problemen ruft ihr uns ins Studio an.
0:07:25–0:07:28
Die Nummer ist 052 203 3100.
0:07:29–0:07:35
Oder ihr schreibt euer Problem ins Gästebuch auf stattfilter.ch Und der Kude
0:07:35–0:07:40
hat auf Twitter gefragt, sagt mal, In dieser Tagesanzeiger-App.
0:07:40–0:07:45
Und aus unerfindlichen Gründen hat er mich das gefragt. Als ob ich zuständig wäre für die.
0:07:46–0:07:50
Wie kann man die Schriftgrösse in dieser iPad-App, ich bin nicht sicher,
0:07:50–0:07:55
ob es das ePaper oder die normale App ist, die Schriftgrösse ändern?
0:07:55–0:07:58
Es hatte, glaube ich, mal so eine Option. Und jetzt hat es diese Option nicht
0:07:58–0:08:02
mehr. Kevin, was hättest du, wenn du noch auf Twitter wärst, ihm gesagt?
0:08:04–0:08:08
Keine Ahnung. Die App muss ja das können.
0:08:09–0:08:15
Ich weiss nicht, ob die Tagesanzeiger-App das nicht mehr hat. Ja.
0:08:17–0:08:22
Sonst nein. Du fluktuierst wieder ein bisschen, was lautstärker angeht,
0:08:22–0:08:24
aber ich probiere, das zu beheben.
0:08:24–0:08:29
Also ich glaube, es ist so, dass es tatsächlich diese Optionen mal gegeben hat
0:08:29–0:08:33
und dann haben die beim Tagesanzeiger gefunden, wer immer auch das ist,
0:08:35–0:08:38
hat dann gefunden, wir schaffen die Option ab.
0:08:39–0:08:43
Und zwar, ich glaube, die Idee war, weil das iOS neuerdings kann das.
0:08:43–0:08:48
Aber es ist wahrscheinlich wirklich so gut versteckt, dass es niemand findet
0:08:48–0:08:52
und darum es irgendwie auch nicht so viel bringt, diese Option auszubauen.
0:08:52–0:08:58
Weil wer würde schon im Betriebssystem so etwas suchen und nicht eher in der App, oder?
0:08:58–0:09:05
Das muss man schon sagen, Usability-mässig. Man kann das einstellen App-spezifisch?
0:09:05–0:09:09
Ja, das kann man Es geht eben
0:09:09–0:09:16
beides und ich erkläre euch noch wie es geht Man kann allgemein die Option die
0:09:16–0:09:22
Schriftgrösse einstellen in den Bedienungshilfen Anzeige und Textgrösse Das
0:09:22–0:09:28
ist aber mehr für die die schlecht sehen Meine Mutter hat das riesig eingestellt
0:09:28–0:09:29
und ich finde das schlimm schlimm.
0:09:29–0:09:32
Aber eben, es gibt noch so ein bisschen modernere Varianten.
0:09:33–0:09:35
Irgendwie habe ich jetzt noch eine alte Version von diesem Dock,
0:09:35–0:09:38
aber ist egal. Also es gibt eine modernere Variante.
0:09:39–0:09:45
Dort müsst ihr zuerst die Option in das Kontrollzentrum eintun.
0:09:45–0:09:50
Ihr geht in die Einstellung und sucht die Option «Kontrollzentrum».
0:09:50–0:09:56
Dort könnt ihr in den Knöpfen, die dann angezeigt werden, den Knopf «Textgrösse» eintun.
0:09:57–0:10:00
Wenn ihr das gemacht habt, dann zieht ihr das Kontrollzentrum oben runter.
0:10:01–0:10:06
Beim iPhone musst du von oben nach unten wischen. und dann kommt das.
0:10:06–0:10:11
Und dort hat es dann den Knopf Textgrösse und wenn ihr den drückt,
0:10:11–0:10:16
während wir in dieser App drin sind, dann könnt ihr dort die Schriftgrösse grösser
0:10:16–0:10:17
und kleiner machen und könnt unten einstellen,
0:10:17–0:10:23
ob ihr das pro App wollt haben oder eben für alle Apps insgesamt.
0:10:23–0:10:29
Und darum kann man eben, glaube ich, das pro App einstellen oder eben global.
0:10:30–0:10:31
Ha, habe ich nicht gewusst.
0:10:33–0:10:39
Zumindest Kevin hat etwas etwas gelernt. Aber bist du schon mit mir einverstanden,
0:10:39–0:10:42
man findet das wahrscheinlich dort schon sehr schlecht.
0:10:42–0:10:46
Man müsste da irgendwie, vielleicht zumindest dort, wo der Knopf war,
0:10:46–0:10:52
für die Grösse dieser Schrift, eine Erklärung hinzufügen, wie man es heute macht.
0:10:53–0:10:56
Ich habe das Gefühl, das müsste auch etwas sein, wo das App selber kann.
0:10:56–0:11:00
Also rein so vom Usability her.
0:11:00–0:11:06
Finde ich es, also, ich weiss es Ich habe jetzt keine Kindle-App auf dem iPad,
0:11:06–0:11:09
aber da, wo ich es noch drauf hatte, konnte ich es in der App machen.
0:11:09–0:11:11
Ich weiss nicht, ob sie das mittlerweile herausgerührt haben,
0:11:11–0:11:16
aber ich fand es eigentlich noch angenehm, dass ich dann halt je nachdem schnell
0:11:16–0:11:19
umstellen konnte, möchte ich jetzt weissen Hintergrund, möchte ich schwarzen
0:11:19–0:11:21
Hintergrund, möchte ich eine andere Schrift haben.
0:11:22–0:11:25
Weil teilweise auch je nachdem, was ich für Dokumente gelesen habe,
0:11:25–0:11:30
hatte ich dann andere Wünsche. stand und hat es noch angenehm gefunden,
0:11:30–0:11:33
dass ich das in der App kann machen und nicht irgendwo muss ich die Einstellungen
0:11:33–0:11:34
hin und links umstellen.
0:11:35–0:11:38
Das stimmt. Du bist wahnsinnig unterschiedlich in der Lautstärke.
0:11:38–0:11:42
Du musst vielleicht mal an deinem Mikrofon rütteln oder ich weiss auch nicht genau was.
0:11:42–0:11:47
Ich tue auf jeden Fall in dieser Zeit, während Kevin gegen sein Mischpult gingert,
0:11:47–0:11:51
sage ich noch schnell, was Nils als nächstes fragt.
0:11:51–0:11:57
Er hat einen Blogpost von mir gefunden, wo ich zwölf Tricks für Google Docs geschrieben habe.
0:11:57–0:12:03
Wenn man das Google Docs benutzt, gibt es noch ein praktisches Menü,
0:12:03–0:12:10
wo man das Add-Zeichen tippt, wenn der Cursor am Anfang der Ziele steht und
0:12:10–0:12:10
wenn man das nicht kennt,
0:12:11–0:12:13
das Menü, das ist wirklich so ein Geheimtrick.
0:12:13–0:12:16
Mit dem kann man ganz viele Befehle vorzaubern.
0:12:17–0:12:21
Man kann zum Beispiel dann Karten in sein Dokument einfügen oder man kann jemanden
0:12:21–0:12:25
direkt erwähnen oder dem seine Live-Koordinaten einfügen oder so,
0:12:25–0:12:27
also Kontaktdaten und so.
0:12:27–0:12:32
Ist praktisch, aber beim Nils taucht das Menü auf, wenn er den Knopf nicht drückt.
0:12:33–0:12:37
Und wenn er es eigentlich gar nicht will, und das ist dann natürlich eher so
0:12:37–0:12:42
ein bisschen uncool und er fragt, wie kann ich machen, dass das Menü nicht kommt,
0:12:42–0:12:45
wenn ich es nicht will und das Ad nicht drücke.
0:12:45–0:12:50
Kevin, hast du etwas Ähnliches in Google Docs schon mal gesehen, so.
0:12:52–0:12:53
Irgendeine Verselbstständigung?
0:12:55–0:13:00
Nein, das haben wir gar nicht, aber ich nutze das halt auch recht wenig und
0:13:00–0:13:05
darum, ich bin da Ja, schon wieder raus mit dieser Frage. Ich kann es nicht sagen.
0:13:06–0:13:12
Browser wechseln, andere Browser probieren, dann können wir mal ausschliessen,
0:13:12–0:13:14
ist das ein Browser-Problem oder nicht.
0:13:15–0:13:18
Andere PC probieren, dann können wir vielleicht ausschliessen,
0:13:18–0:13:24
ist es irgendein Programm, ein Add-on, etwas an der Tastatur.
0:13:25–0:13:28
Ich habe das letzte gesagt, ich habe immer die Hilfe.
0:13:29–0:13:33
Egal was der Kunde gedrückt hat, es ist immer die Hilfe aufgegangen.
0:13:33–0:13:36
Die Hilfe hat ihn einfach für inkompetent gemacht. Er hat gesucht und gesucht.
0:13:37–0:13:43
Ja, das war so. Und das war eine verklemmte F1-Taste, die ich auch schon lange nicht mehr hatte.
0:13:43–0:13:46
Das ist aber fast noch lustig auf eine Art. Ja, genau.
0:13:47–0:13:50
Und ich war an diesem PC und dachte mir, es kann nicht sein,
0:13:50–0:13:56
dass in jedem Programm, überall wo die... Es geht immer auf die Hilfe, F1 ist die Hilfe.
0:13:56–0:13:59
Wenn ich einfach fünfmal auf die F1-Taste drücke, dann ist es weggegangen.
0:13:59–0:14:02
Das ist super. Ja, aber ich einfach keine Ahnung.
0:14:02–0:14:05
Genau, aber du hast eigentlich, ich habe es auch nicht gewusst und ich habe
0:14:05–0:14:10
etwas gleich gesagt wie du, also eben mal schauen, ist es eigentlich der Browser?
0:14:10–0:14:15
Wir haben letztlich behauptet, dass die Browser eigentlich inzwischen recht
0:14:15–0:14:17
pflegeleicht sind und gar nicht mehr so viel Ärger machen,
0:14:18–0:14:22
aber jetzt haben wir schon wieder die zweite Browser, mögliches Browser-Problem
0:14:22–0:14:26
in unserer Sendung, also vielleicht ist es doch noch nicht immer alles so perfekt.
0:14:26–0:14:31
Auf jeden Fall habe ich einen Blogpost geschrieben, den ihr dann auch in den Shownotes findet.
0:14:31–0:14:35
Fehlerbehebung für Firefox, Chrome, Edge und Safari.
0:14:36–0:14:40
Dort könnt ihr das durchschaffen. Und wenn es dann nicht geht,
0:14:40–0:14:45
dann würde ich noch die Fehlerbehebungen, die Google selber empfiehlt,
0:14:45–0:14:49
wenn das nicht funktioniert, Fehler beim Bearbeiten von Google Docs,
0:14:49–0:14:52
Google Tabellen und Google Präsentationen beheben.
0:14:52–0:14:56
Das ist so die Hilfe. und wenn es immer noch nicht geht, dann schreibt ein Feedback
0:14:56–0:15:00
an Google und sagt, hey Google, dein Scheiss funktioniert nicht.
0:15:01–0:15:03
Und dann interessiert es dich.
0:15:04–0:15:09
Hey Google, nein, wir dürfen nicht Hey Google sagen, sonst gehen nicht überall
0:15:09–0:15:14
die Handys an, die hören auf Hey Google.
0:15:14–0:15:21
Bitte, was können wir sagen? Googlen nach Stadtfilter und klicken auf Like oder so.
0:15:21–0:15:23
Kann man das? Kann man so? Hey Siri.
0:15:25–0:15:30
Nein, das ist Trollen im Fall, Kevin. Du trollst unser Publikum.
0:15:31–0:15:38
Aber es funktioniert eh nicht. Nein, tut mir leid, Peter, ich habe dich nicht
0:15:38–0:15:42
verstanden, hat es jetzt beim Peter die Ehe gesagt, weil Siri immer noch so
0:15:42–0:15:43
ein bisschen auf dem Schlauch steht.
0:15:44–0:15:48
Aber wahrscheinlich können wir jetzt Chat-GPT-Siri über und mit der können wir
0:15:48–0:15:51
dann so philosophische Gespräche führen und so.
0:15:51–0:15:57
Und dann können wir zwei so Siris da ins Studio stellen und die machen dann die Sendung für uns.
0:15:57–0:16:03
Das ist dann das Nächste. Also, er hat dann nochmal zurückgeschrieben und es
0:16:03–0:16:07
hat eben dann irgendwie nicht so funktioniert und wir haben dann nochmal,
0:16:07–0:16:11
das habe ich ihm empfohlen, was Kevin eigentlich so sehr schön gesagt hat,
0:16:11–0:16:13
man muss es einfach eingrenzen, andere Computer,
0:16:14–0:16:20
andere Browser und dann siehst du es, ob du, wenn es in verschiedenen Computern,
0:16:20–0:16:23
die nichts miteinander zu tun haben, überall das gleiche auftritt,
0:16:24–0:16:27
dann bist du wahrscheinlich selber schuld und wenn nicht, ist wahrscheinlich
0:16:27–0:16:30
der Computer schuld. kann man so zusammenfassen.
0:16:32–0:16:35
Hast du noch etwas ergänzen wollen? Nein.
0:16:36–0:16:42
René sagt, da sei leider die Kummerbox vor Jahren, und ich mache jetzt keinen
0:16:42–0:16:46
Witz, die Kummerbox ist ja 2015 eingestellt worden, das ist jetzt,
0:16:46–0:16:50
dann haben wir gleich nächstes Jahr das 10-jährige Jubiläum vom Ende.
0:16:51–0:16:56
Also der 10-jährige Todestag der Kummerbox von den Tagesanzeigern.
0:16:56–0:17:02
Und es gibt aber immer noch Leute, die mir an meine Tagi Adresse schreiben und
0:17:02–0:17:04
Fragen stellen und das ist so einer davon.
0:17:04–0:17:07
Also, er hat das Schrägsverhalten von Firefox.
0:17:08–0:17:13
Wenn ich ein Bild mit der rechten Maustaste anklicke, Bild als Hintergrund einrichten,
0:17:13–0:17:17
wird nur ein kleiner Teil vom Zentrum auf dem Bildschirm gezoomt.
0:17:17–0:17:23
Früher funktionierte das so, dass das Bild den ganzen Schreibtisch füllte und
0:17:23–0:17:25
wenn es in Google Chrome oder so macht,
0:17:26–0:17:31
dann geht es und Und ja, es ist wieder so ein komisches Problem,
0:17:31–0:17:33
wo ich jetzt nicht genau weiss, woher das rührt.
0:17:33–0:17:39
Und ich würde sagen, mach es halt im Chrome. Aber ist das eine einfache Lösung,
0:17:39–0:17:41
oder würdest du das auch so sagen?
0:17:41–0:17:45
Ich habe noch die einfache Lösung für das. Okay. Mach es nicht.
0:17:48–0:17:50
Sorry, nein.
0:17:52–0:17:58
Nein, aus dem Browser raus. Es ist hinterhergerumpelt. Ja. Ist schon nah.
0:17:59–0:18:03
Ich habe nicht einmal gewusst, ich habe gemeint, das sei strafbar.
0:18:03–0:18:06
Das ist verboten. Ich habe gemeint, es gäbe einen Buß für das.
0:18:07–0:18:12
Also, ich hätte mir jetzt auch nicht überlegt, etwas zu machen.
0:18:12–0:18:15
Ich mache jetzt auch nicht so regelmässig das Hintergrundbild ändern.
0:18:15–0:18:21
Aber ich hätte das Hintergrundbild abgespeichert und wäre dann über die Systemeinstellungen,
0:18:21–0:18:23
oder hätte gesagt, als Hintergrund festlegen.
0:18:24–0:18:26
Ich habe nicht einmal gewusst, dass man das direkt aus dem Browser heraus kann.
0:18:27–0:18:30
Also, ehrlich gesagt, wenn ich jetzt... Das ist jetzt eine Funktion,
0:18:30–0:18:34
wo ich jetzt mal sage, das interessiert Firefox jetzt auch nicht.
0:18:34–0:18:37
Das Problem lösen die jetzt nicht. Ja, ich würde auch sagen,
0:18:37–0:18:42
also es ist im Windows gesehen, ich setze noch nicht einmal den Befehl.
0:18:42–0:18:46
Also ich weiss nicht, ob es den überhaupt überall gibt, oder vielleicht bin
0:18:46–0:18:50
ich jetzt da nicht auf dem... Und ich denke, ich mache das höchstens versehentlich.
0:18:51–0:18:55
Und klicke dann auf irgendeinen Link, den ich eigentlich rechtsklicken wollte
0:18:55–0:18:56
und irgendetwas damit machen.
0:18:56–0:19:01
Und dann mache ich stattdessen ein Hintergrundbild und habe dann irgendein Logo von irgendetwas.
0:19:02–0:19:06
Und dann musst du wieder... Und um es wegzumachen, ist es dann viel mühsamer,
0:19:06–0:19:09
wenn du es wieder hinmachst. Also ich finde auch, es ist eigentlich ein bisschen...
0:19:11–0:19:16
Also ja, ich bin sowieso kein wirklicher Fan von so Hintergrundbildern.
0:19:16–0:19:20
Aber ich glaube, das ist so eine pseudoreligiöse Debatte, die man jetzt vielleicht
0:19:20–0:19:22
lieber nicht führt, oder?
0:19:23–0:19:29
Also, die Funktion gibt es, Bild als Hintergrundbild einrichten,
0:19:29–0:19:30
direkt aus dem Firefox, das geht.
0:19:31–0:19:34
Okay, ja, bei Windows, siehst du das? Das ist eine Option, wirklich.
0:19:35–0:19:38
Nein, ich habe es jetzt noch bei Mac angeschaut, ich weiss nicht,
0:19:38–0:19:40
ob es das bei Windows gibt.
0:19:40–0:19:43
Also, ich sehe, ah ja doch, tatsächlich, jetzt sehe ich es auch.
0:19:44–0:19:49
Vorher war ich halt auf so einer zufälligen Webseite, die dann offen war, im Stadtfilter.
0:19:49–0:19:53
Mit diesem Bild ging es nicht, aber jetzt habe ich irgendwie mit dem...
0:19:53–0:19:59
Eben, man könnte jetzt hier also das Stadtfilter-Logo als Hintergrund-Desktop
0:19:59–0:20:01
hinlegen. Aber ich würde es empfehlen, das nicht zu machen.
0:20:03–0:20:08
Okay. Aber war das ActiveX auf Windows 8?
0:20:08–0:20:13
Wo hat man mal versucht, so einen dynamischen Desktop zu machen? Ja, ja.
0:20:14–0:20:20
Haben sie das mit ActiveX gemacht? Das war nie zu laufend, das war ein Bastel.
0:20:21–0:20:26
Du konntest wirklich eine Webseite abspeichern als Desktop.
0:20:27–0:20:32
Das war der Active Desktop, aber der war schon viel älter.
0:20:33–0:20:36
Ich glaube, der steckte in Windows 98 oder so.
0:20:37–0:20:44
Es war ein riesiges Sicherheitsrisiko und es hat nicht funktioniert. funktioniert und so.
0:20:44–0:20:49
Aber ich finde es lustig, weil es immer wieder, man probiert etwas auf dem Desktop
0:20:49–0:20:53
zu pflanzen, jetzt beim neuesten Mac OS dem so nachzumachen.
0:20:53–0:20:56
Wenn man jetzt die Widgets auf den Hintergrund macht und so und auch.
0:20:58–0:21:03
Das Windows 11 hat ja die Widgets, wenn du irgendwie Windows-Tasten und W drückst,
0:21:03–0:21:08
kommt da auch der Schmarrn, der aufgeht und so. Und mich stört das aber alles.
0:21:08–0:21:18
Ich bin so ein Buritaner, ich möchte möglichst alles übersichtlich und nicht ablenkend haben.
0:21:18–0:21:22
Aber ja, ich habe zum Beispiel auch kein Dokument auf meinem Desktop.
0:21:22–0:21:27
Und wenn ich an einen Computer laufe, wo jemand übersät ist mit so ein Körnchen,
0:21:27–0:21:30
dann wird es mir immer gerade so leicht schummrig.
0:21:30–0:21:34
Aber da gehen meine Gehen ja wirklich auseinander.
0:21:34–0:21:38
Habe ich das mal erzählt von einem Kunden, der uns angerufen hat und gesagt
0:21:38–0:21:42
hat, er könne nichts mehr auf dem Desktop sprechen? Dann ist er einfach voll.
0:21:42–0:21:48
Ja, der hatte so viele Symbole auf dem Desktop, dass er keinen Platz mehr hatte.
0:21:48–0:21:53
Das hat es schon auf dem Desktop gesprochen, aber da hätte ich keinen Platz mehr gemacht.
0:21:53–0:21:59
Also hätte er über den Ordner auf dem Desktop können und dann hätte er es gesehen,
0:21:59–0:22:01
aber auf seinem Desktop halt nicht.
0:22:01–0:22:05
Er hätte nicht gecheckt, vielleicht musst du mal 12'000 Symbole auf dem Desktop wegnehmen.
0:22:05–0:22:08
Hättest du ihm sagen können, du musst die Kontrolltaste gedrückt halten und
0:22:08–0:22:13
dann ein Mausrad drüllen und dann machst du es so klein wie es geht und dann
0:22:13–0:22:14
hast du noch viel mehr Platz.
0:22:16–0:22:21
Stimmt, das wäre nicht gegangen. Ich hätte gesagt, er darf nichts mehr auf dem Desktop sprechen.
0:22:22–0:22:25
Ich hätte sagen müssen, er kann drehen, dann hat es mehr Platz. Genau.
0:22:27–0:22:32
Früher hast du es mit so, wahrscheinlich über die Registry oder mit Hilfsprogrammen.
0:22:33–0:22:38
Den Abstand zwischen den Iconen verkleinern können und dann hattest du auch noch mehr Platz.
0:22:38–0:22:44
Aber es wird dann irgendwann mal so ein Patchwork-Ding, das du einfach nicht
0:22:44–0:22:46
mehr siehst. Aber eben, macht das, was ihr wollt.
0:22:47–0:22:50
Kommt nachher einfach nicht zu uns, weil wir sagen, versorgt...
0:22:51–0:22:55
Unsere Empfehlung wäre, immer gleich in den richtigen Ordner zu versorgen und
0:22:55–0:22:59
dann kannst du über diese Sprunglisten oder wie auch immer, kannst du es ja dann aufmachen.
0:22:59–0:23:03
Oder zuerst Programm starten und dann über zuletzt benutzen oder wie auch immer.
0:23:04–0:23:09
Da gibt es ja ganz viele Möglichkeiten. Aber ja, die Leute hängen einfach an diesem Desktop.
0:23:10–0:23:12
Aber jetzt der Hans, der sagt...
0:23:12–0:23:18
Da ich die Stenografie-Technik beim Telefonieren nicht sonderlich gut beherrsche,
0:23:18–0:23:24
mein Gehirn nicht wie bei einem Genie aktivieren kann oder nicht archivieren
0:23:24–0:23:28
kann und ich deshalb den Gesprächsinhalt, also beim Telefonieren,
0:23:28–0:23:32
schon nach wenigen Tagen oft nicht mehr genau oder vollständig rekonstruieren
0:23:32–0:23:34
kann, habe ich folgende Fragen.
0:23:34–0:23:39
Wie kann ich auf meinem Smartphone meine Telefongespräche aufnehmen,
0:23:40–0:23:42
mitschneiden, aufzeichnen, archivieren?
0:23:42–0:23:46
Brauche ich dazu eine spezielle App, ein spezielles Smartphone?
0:23:46–0:23:49
Und dann Hintergrund, offensichtlich wollen immer mehr Anbieter,
0:23:49–0:23:53
Dienstleister oder Verwaltungen statt schriftlich nur noch mündlich bzw.
0:23:53–0:23:58
Mittels Videoberatung mit uns Kunden kommunizieren, warum auch immer.
0:23:58–0:24:03
Und dann gibt es eben keinen Beweis, also er will gerne eine Beweiskette und
0:24:03–0:24:10
er nimmt darum alles auf und archiviert es und reibt es dann den Leuten unter die Nase.
0:24:10–0:24:14
Was wäre deine Empfehlung in diesem Zusammenhang? Irgendeine App, die das aufnehmen kann?
0:24:17–0:24:23
Mittlerweile kann man ja über Microsoft Teams und Skype und ich kann ja mit
0:24:23–0:24:25
mittlerweile fast allem auf Festnetznummern anrufen.
0:24:26–0:24:29
Über die kann ich glaube ich auch vieles aufzeichnen.
0:24:29–0:24:35
Ein normales Telefon, also wenn ich, ich sage jetzt wirklich klassisch,
0:24:35–0:24:39
telefoniere, ich gebe die Nummer ein und rufe jemanden an, das wird ein bisschen schwieriger.
0:24:39–0:24:44
Ich weiss nicht einmal, ob es Apps für so etwas gibt. Es gibt so etwas,
0:24:44–0:24:48
wenn ich da schnell reingrätschen darf, aber die sind so dubios,
0:24:48–0:24:50
die würde ich eigentlich selber nicht benutzen.
0:24:50–0:24:58
Die leiten dann den Anruf irgendwie um über ein Callcenter oder eine Vermittlungsstelle,
0:24:58–0:25:01
die dann wahrscheinlich irgendwo in Weissrussland steht oder so.
0:25:01–0:25:09
Oder unter dem Kreml im Bunker. Also das würde ich eher nicht brauchen.
0:25:10–0:25:15
Und er hat dann gesagt, ich will keine Belehrungen.
0:25:16–0:25:23
Deshalb meine Frage, und bitte keine Diskussion darüber, ob ich unter welchen
0:25:23–0:25:25
Umständen dies doch nicht tun darf.
0:25:26–0:25:32
Und er findet, die anderen machen das auch. auch wenn man das Call-Center anruft,
0:25:32–0:25:38
dann sagt es tatsächlich, ob die wir tun zur Qualitätskontrolle alles aufnehmen und so.
0:25:39–0:25:43
Und ich habe auch gemerkt, also neuerdings, wenn du irgendwie mit mit irgendeinem
0:25:43–0:25:49
Computerkonzern wie sagen wir jetzt Apple oder Microsoft oder so irgendein sogar
0:25:49–0:25:51
off the record etwas hast,
0:25:51–0:25:54
dann nehmen die das immer auf und so und dann wahrscheinlich,
0:25:54–0:25:57
wenn du irgendeinen Fall auf etwas schreibst und so, dann.
0:25:59–0:26:03
Verklagen sie dich mit all ihren Anwälten und so. Also er hat schon eigentlich
0:26:03–0:26:06
recht, dass es ein bisschen ein Unsitten ist.
0:26:07–0:26:11
Aber es ist dann trotzdem die Frage, sollte man dann da mit der gleichen Münze
0:26:11–0:26:13
diesen Leuten das heutzahlen?
0:26:13–0:26:18
Wie würdest du das so empfehlen oder urteilen?
0:26:20–0:26:24
Verheben sie es rechtlich, wenn du den Gegner nicht informierst?
0:26:24–0:26:26
Nein. Ich glaube, dann hast du sogar ein Problem.
0:26:27–0:26:30
Dann hast du es, ja. Ich glaube, ja.
0:26:31–0:26:35
Also einfach aufzeichnen und nachher sagen, ich habe es aufgenommen.
0:26:36–0:26:41
Ich habe das Gefühl, ich habe mal irgendeine Kundin oder einen Kunden gehabt,
0:26:41–0:26:45
wo wir das gesehen haben, dass jemand in einer Scheidung in Gespräch aufgenommen
0:26:45–0:26:51
hat und das dann als Beweismittel genutzt hat und das ist dann so weit gekommen, dass es geheissen hat,
0:26:51–0:26:55
sorry, du hast es gegenüber nicht gefragt, das ist alles ungültig.
0:26:55–0:26:59
Das ignorieren wir komplett, was was dort gesagt worden ist,
0:26:59–0:27:01
weil du nicht gefragt hast.
0:27:01–0:27:05
Genau. Und eventuell machst du dich sogar strafbar. So ist es.
0:27:05–0:27:09
Also ich habe da beim eidgenössischen Datenschützer nachgelesen und der sagt,
0:27:09–0:27:12
wer ein fremdes, also fremdes, nicht,
0:27:12–0:27:17
öffentliches Gespräch als Gesprächsteilnehmer oder nicht, also eben wenn du
0:27:17–0:27:20
nicht teilnimmst an dem Gespräch, dann ist es sowieso schwierig.
0:27:21–0:27:25
Aber es heisst, ohne die Einwilligung aller Beteiligten mit einem Abhörgerät
0:27:25–0:27:28
abhört oder auf einen Tonträger aufnimmt,
0:27:28–0:27:38
verstösst gegen das Strafgesetzbuch Artikel 179 bis und Artikel 179 ter StGB
0:27:38–0:27:40
und kann sich daher strafbar machen.
0:27:40–0:27:44
Also man darf das tatsächlich nicht und ich mache das als Journalist schon auch
0:27:44–0:27:47
ab und zu, wenn ich so Interviews mache und ich frage nicht mehr,
0:27:47–0:27:50
also explizit darf ich das aufnehmen und dann frage ich manchmal,
0:27:50–0:27:54
wenn ich das Gefühl habe, er hat es nicht gehört dann starte ich die Aufnahme
0:27:54–0:27:57
und frage nochmal, ob ich es darf aufnehmen und dann, dass es auch möglichst
0:27:57–0:27:59
auf der Aufnahme drauf ist.
0:27:59–0:28:01
Ah, ja. Dass er gesagt hat, ja.
0:28:03–0:28:07
Und eben, du kannst nicht einfach das, auch wenn es alle machen,
0:28:07–0:28:12
ist es trotzdem, finde ich, eigentlich klar, wie es gesetzlich ist.
0:28:12–0:28:18
Und ich finde es auch sinnvoll, also wenn, ja.
0:28:19–0:28:23
Natürlich kannst du sagen, wenn es irgendwie um Kopf und Kragen geht,
0:28:23–0:28:27
dann ist es vielleicht, aber wenn es dann so in deinem Umfeld so,
0:28:28–0:28:32
ist jetzt keine technische Antwort, Aber wenn es dann alles auf das Misstrauen
0:28:32–0:28:36
rausläuft und du findest, ich muss immer alles beweisen können,
0:28:36–0:28:38
was da gesagt worden ist,
0:28:39–0:28:43
dann wird das Leben irgendwie ungemütlich, oder?
0:28:44–0:28:46
Ja, ich glaube, dann muss man eher auf den schriftlichen Weg gehen.
0:28:46–0:28:52
Dass man sagt, okay, dann muss ich halt den Weg gehen und ich löse alles mit
0:28:52–0:28:53
eingeschriebenen Briefen.
0:28:53–0:28:57
Genau, das finde ich eine sehr gute Antwort. und ja, dann gibt es halt mehr
0:28:57–0:29:01
Aufwand und so, aber dort ist es dann wirklich klar und ja,
0:29:01–0:29:05
also und wenn ihr noch wollt, eben was so die technische Sachen angeht,
0:29:05–0:29:09
ich habe das mal ausführlich in meinem Blog beschrieben, das heisst Aufzeichnung von nein,
0:29:10–0:29:15
das heisst es nicht, das heisst eine Handreichung für die Aufzeichnung von Videokonferenzen,
0:29:15–0:29:19
also da geht es vor allem eben so im journalistischen Bereich oder so als Podcaster
0:29:19–0:29:21
machst du das natürlich auch die ganze Zeit,
0:29:22–0:29:26
das, ja, logisch und wenn du einen Podcast machen willst, dann musst du es eigentlich
0:29:26–0:29:29
fast zwingend aufnehmen. Weil sonst...
0:29:30–0:29:33
Ich nehme dich übrigens auf, Kevin. Ich habe dich vorher nicht gefragt.
0:29:33–0:29:35
Ist das okay? Wirklich? Ja.
0:29:36–0:29:44
Meine Schweine. Also, man sieht, es gibt wirklich... Es hängt halt von den Umständen ab.
0:29:45–0:29:48
Aber ich würde es nur machen aus guten Gründen.
0:29:48–0:29:54
Und jetzt so im normal zwischenmenschlichen oder auch geschäftlichen Umgang
0:29:54–0:29:55
würde ich es eher nicht machen.
0:29:55–0:30:01
Also, dann haben wir doch noch etwas. Vielleicht noch etwas als Ergänzung.
0:30:01–0:30:08
Wenn man wirklich crazy gehen will und das machen möchte, mit einer Telefonanlage kann man das.
0:30:09–0:30:14
Das ist dann so ein Next-Level-Schritt. Wenn jemand sagt, ich hole mir jetzt
0:30:14–0:30:18
eine Telefonanlage für 2000 Stutzen, dann kann ich all meine Telefonate aufzeichnen, kann man machen.
0:30:20–0:30:26
Rechtliche Situation bleibt die gleiche, aber ich kann meine normalen Telefonate,
0:30:26–0:30:29
die ich über die Telefonanlage mache, aufzeichnen. Ja, okay.
0:30:29–0:30:33
Das ist natürlich dann auch immer ein Problem, weil wenn jemand dann die Telefonanlage
0:30:33–0:30:39
hackt und all die Aufnahmen findet, dann könnte sich das gegeneinander selber wenden.
0:30:40–0:30:45
Also dort würde ich sagen, gesunder Menschenverstand und Augenmass hilft wahrscheinlich
0:30:45–0:30:46
bei dieser Frage weiter.
0:30:49–0:30:52
Ich habe auch nicht so ein gutes Gedächtnis, aber ich führe auch mit so einem
0:30:52–0:30:56
Protokoll, wenn es wirklich wichtig ist, und besitze auch Telefonate.
0:30:57–0:31:01
Meistens brauchst du ja nicht mehr drei, vier Stichworte, die du draufschreibst,
0:31:01–0:31:08
schreibst, um was es gegangen ist, was besprochen worden ist und was so die Quintessenz ist, oder?
0:31:08–0:31:13
Ob du noch etwas machen musst, oder ob du irgendeinen Vertrag abgeschlossen
0:31:13–0:31:16
hast, oder so. Das ist es ja.
0:31:16–0:31:19
Was du jetzt wieder gekauft hast. Ja, genau.
0:31:20–0:31:24
Ob du jetzt die Anzahlung für die Villa, die wir in der Pre-Show hatten,
0:31:24–0:31:25
schon versprochen hast.
0:31:25–0:31:31
Also, der Reto sagt, kürzlich wurde ich gefragt, wie man am besten einen Windows
0:31:31–0:31:33
10 Laptop sicher löschen kann,
0:31:34–0:31:38
damit man ihn in ein Geschäft zurückbringen kann, dass diesen zum Beispiel für
0:31:38–0:31:42
soziale Zwecke aufbereiten würde. Also eben, kann man irgendwie.
0:31:45–0:31:49
Drittanbieter-Software für das benutzen, oder kann das eigentlich das Windows
0:31:49–0:31:52
nicht von Haus aus, das Fan-Dads müsste das eigentlich können.
0:31:52–0:31:56
Und das ist sicher auch das Problem die ganze Zeit, Kevin.
0:31:56–0:32:03
Und was empfiehlst du dann in solchen Situationen? Man kann Windows abwärts zurücksetzen.
0:32:04–0:32:11
Auf, wie heisst das, auf Werkseinstellungen oder so zu rücksetzen. Das kann man,
0:32:14–0:32:19
googlen. Es ist irgendwo in den Systemeinstellungen drin.
0:32:19–0:32:23
Genau, da habe ich sonst noch einen Link dazu, ich habe das mal beschrieben
0:32:23–0:32:24
und der Unterschied ist ja,
0:32:26–0:32:31
der Fallstrick ist eigentlich, und übrigens ja, in diesem Artikel steht es dann
0:32:31–0:32:34
nicht nur für Computer, für Macs und Windows, sondern auch für Handys,
0:32:34–0:32:36
Denn da kommt das ja auch häufig vor.
0:32:36–0:32:41
Und das Problem ist ja dann, dass man früher darauf achten musste,
0:32:42–0:32:45
dass man dann, wenn man wirklich sicher sein wollte, dass alles weg ist,
0:32:45–0:32:50
dass nicht einer mit einer Software herangehen kann und das wiederherstellen
0:32:50–0:32:53
kann, was da gespeichert worden ist.
0:32:53–0:32:56
Und heute ist das natürlich theoretisch immer noch so.
0:32:56–0:33:01
Man kann immer noch eine Software benutzen. Aber es hängt davon ab,
0:33:01–0:33:06
wenn man die modernen Geräte so einsetzt, wie sie vorgesehen sind,
0:33:06–0:33:09
dann werden die Datenverschlüsselung gespeichert.
0:33:09–0:33:14
Das nennt sich Geräteverschlüsselung, die gibt es inzwischen bei allen,
0:33:14–0:33:17
bei den Handys sowieso, auch bei Windows, auch bei Mac gibt es das.
0:33:17–0:33:21
Und wenn man es dann zurücksetzt, dann werden auch die Schlüssel weggerührt,
0:33:21–0:33:28
die man gebraucht hat, um das zu entschlüsseln. und dann kannst du es natürlich
0:33:28–0:33:29
nicht mehr wiederherstellen.
0:33:29–0:33:32
Du musst auch nicht eine Zusatzsoftware, wie man das früher gemacht hat,
0:33:32–0:33:35
um zu überschreiben, was bei SSD nicht geht.
0:33:36–0:33:40
Also SSD kannst du nicht gut so überschreiben, dass du wirklich sicher bist, dass alles weg ist.
0:33:40–0:33:44
Darum gibt es dann die Empfehlung, wenn du das nicht verschlüsselt gespeichert
0:33:44–0:33:49
hast und ein SSD hattest, dann nimmst du sie am gescheitesten raus und zerstörst
0:33:49–0:33:53
sie physisch, wenn du wirklich sicher sein willst, dass alles weg ist.
0:33:53–0:33:56
Das ist auch etwas unbefriedigend, aber das würde ich jetzt empfehlen.
0:33:57–0:34:02
Aber wenn ihr seht, dass es verschlüsselt ist, dann könnt ihr einfach das Konto
0:34:02–0:34:07
mit dieser Verschlüsselung wegtun und dann müsste das eigentlich gut sein.
0:34:07–0:34:09
Oder? Hast du da noch etwas zu ergänzen?
0:34:10–0:34:15
Nein. Genau. Und das ist wichtig. Und dann gibt es auch, vielleicht müssen wir
0:34:15–0:34:21
tatsächlich noch diese Dienste vorstellen, wo man Geräte auch für soziale Zwecke spenden kann.
0:34:21–0:34:26
Das wäre vielleicht durchaus finde ich, hätte er da ein gutes Thema angesprochen.
0:34:26–0:34:29
Das machen wir aber bei einer anderen Gelegenheit.
0:34:29–0:34:33
Und jetzt sind wir fast am Ende von dieser Sendung. Und wenn du nicht noch eine
0:34:33–0:34:37
schöne Anekdote hast, um das abschliessen, dann würde ich euch einfach eine
0:34:37–0:34:40
gute Zeit wünschen. Und bis in der Woche.
0:34:40–0:34:43
Bis nächste Woche. Bis dann. Tschüss zusammen. Tschüss miteinander.
0:34:47–0:34:57
Music.

Wir alle werden nicht jünger, auch Küdde nicht. Er fragt nämlich danach, wie er in seiner angestammten Nachrichten-App am iPad die Schriftgrösse ändert; nachdem die entsprechende Option aus den Einstellungen verschwunden ist.

Nils seinerseits kämpft mit den Unwägbarkeiten von Google Docs, wo sich aus unerfindlichen Gründen und unaufgefordert ein Kontextmenü über seinen Text legt. René wird von Firefox geplant und Hans möchte wissen, wie er Anrufe aufzeichnet, damit er nicht mitstenografieren muss.

Ihr merkt es: Heute behandeln wir traditionsgemäss in Kummerbox Live die Computerfragen unserer Hörerinnen und Hörer. Falls ihr ebenfalls ein Anliegen habt, findet ihr hier sämtliche Kontaktmöglichkeiten. „Kleine, grosse, schräge und dubiose Fragen“ weiterlesen

Nur etwas für Glatzköpfe, Ungeschminkte und Cybertruckfahrer?

Transkript anzeigen (falls vorhanden)

0:00:03–0:00:07
«Gamakite» mit «Inbetween». «Hoi zusammen, hier ist Ginny von Annie Taylor und
0:00:07–0:00:12
ihr hört Radio Stadtfilter.» «Und Digi-Chris ist hier auf Radio Stadtfilter,
0:00:12–0:00:17
hallo.» «Guten Abend.» «Hast du irgendein Thema, über das du dringend reden musst?
0:00:18–0:00:21
Kevin ist nicht da, also musst du von deinen Hühnern erzählen.»,
0:00:23–0:00:30
«Also ich habe ja in der Familie Hühner, also wirklich richtig.» Also nicht deine Tante oder so.
0:00:30–0:00:33
Nein, aber die hat tatsächlich Hühner und ja, ja.
0:00:34–0:00:38
Es ist halt schon schön, wenn du von denen auch mal wieder Eier rüberkommst.
0:00:38–0:00:42
Wo genau weisst du jetzt irgendwie, die kleinste hat jetzt so ein kleines,
0:00:42–0:00:43
kleines Eilchen gelegt.
0:00:43–0:00:46
Und eben, das ist natürlich Freiland und ja.
0:00:47–0:00:52
Ich glaube, es gab vor Jahren im Kassensturz mal Tests und ob die jetzt besser riechen.
0:00:52–0:00:58
Aber ich will einfach nichts, was aus so einer Legibatterie ist. Ja, das geht mir auch so.
0:00:58–0:01:02
Das ist irgendwie... Also, je nachdem, wie du eine Mayonnaise kaufst,
0:01:02–0:01:03
kann man es nicht verhindern.
0:01:03–0:01:07
Aber wenn du tatsächlich eine klassische Spiegelei drei Minuten einmachst,
0:01:07–0:01:13
finde ich es schon schön, wenn du weisst, dass das Huhn ein schönes Leben hat und scharen kann.
0:01:14–0:01:20
Meine Tochter hatte, als sie noch im Kindergarten war, auch Hühner im Kindergarten.
0:01:20–0:01:25
Und dann mussten wir sie zwei, drei Mal betreuen
0:01:25–0:01:29
und misten und füttern und so und dann
0:01:29–0:01:32
ist lustig sie dann haben wir dafür dafür die frisch gleiten
0:01:32–0:01:38
mitnehmen und dann hat sie aber gefunden ich hatte jetzt nimmer nass irgendwie
0:01:38–0:01:44
sind also so die die eier und die hühner sind ihre so nahe dass ich gefunden
0:01:44–0:01:50
habe ich jetzt nicht von den hühnern wo nicht keine kann ich keine reise das lustig gefunden Ja,
0:01:50–0:01:53
ist jetzt spannend, weil ich habe das auch eben, wie gesagt,
0:01:53–0:01:56
ich habe ja Bauern in der Familie, dort ist es halt so gewesen,
0:01:56–0:02:01
wenn man halt mal ein Tier schlachten musste, hat man das eigentlich aus Prinzip
0:02:01–0:02:04
nicht selber gegessen, weil, ja, klar,
0:02:05–0:02:09
eben, auch der Hamburger in McDonalds ist mal irgendwo auf einer Weide herumgerannt,
0:02:09–0:02:11
aber wenn du halt das Ding vielleicht gestreichelt hast,
0:02:11–0:02:17
das Tier auch, ja, gern gehabt, ja, das verstehe ich schon, dass es auf der
0:02:17–0:02:21
einen Seite heuchlerisch ist, aber ja, Ja, ich habe grosses Verständnis,
0:02:21–0:02:23
wenn du Beziehung zum Tier hast, dass du dann das.
0:02:24–0:02:28
Ja, ich glaube das ist unterschiedlich.
0:02:28–0:02:35
Als ich auf dem Land war, habe ich meine Jugend auf dem Land verbracht.
0:02:35–0:02:40
Der typische Bauer hatte dort keine Sentimentalität.
0:02:41–0:02:45
Er hat zwar die Tiere gekannt, gepflegt und für sie gesorgt,
0:02:45–0:02:51
aber wenn es Zeit war, sie zu schlachten, dann wurden sie geschlachtet und sie wurden auch gegessen.
0:02:51–0:02:58
Wurden und da auch in meiner Verwandtschaft, die haben dann so die Küngel abgemurkst und so.
0:02:59–0:03:04
Das ist, glaube ich, eine andere Beziehung.
0:03:04–0:03:12
Aber eben, man kann den Leuten nicht sagen, sie sollen ihre Hunde oder so dann bröteln und essen.
0:03:13–0:03:18
Also ich glaube, da haben sich vielleicht auch Sensibilitäten ein bisschen verschoben.
0:03:19–0:03:23
Ja, aber Aber das ist nicht unser heutiges Thema.
0:03:23–0:03:28
Ich glaube, du hast noch Musik und dann würde man mit Patch Tuesday starten.
0:03:28–0:03:34
Wir machen Patch Tuesday mit den News von der Woche. Und jetzt habe ich noch einen Song für euch.
0:03:34–0:03:37
Etienne, das ist ein Freund von der Sendung, hat mir wieder gesagt,
0:03:37–0:03:39
ich müsse unbedingt etwas spielen.
0:03:39–0:03:43
Read the Room heisst das. Jetzt ist gerade mein Laptop eingeschlafen.
0:03:43–0:03:50
Aber da fängt es schon an. Read the Room mit Master 4. Ihr könnt es auch bis Party-Fi hören und so.
0:03:50–0:04:05
Music.
0:03:55–0:03:57
Why don't you read the room?
0:04:07–0:04:12
Und ich habe es falsch gesagt, das ist der Florence Cech, Not Gartier,
0:04:13–0:04:15
glaube ich. Why don't you read the room?
0:04:15–0:04:20
Direkt frisch aus dem Etienne's im Studio, Für die, die irgendwie,
0:04:20–0:04:22
ich weiss gar nicht, wo ist er?
0:04:22–0:04:25
Das müssen wir mal herausfinden. Zug oder so ist er, glaube ich,
0:04:25–0:04:31
zuhause. Aber bevor ich etwas Falsches sage, fangen wir jetzt mit dem Nerdfunk an.
0:04:31–0:04:46
Music.
0:04:46–0:04:51
Wir machen heute, wie immer, wenn uns nichts besser sein fällt, den Patch Tuesday.
0:04:52–0:04:56
Das ist die Sendung, wo wir über Neuigkeiten aus der digitalen Welt reden.
0:04:57–0:05:01
Und eine von diesen Neuigkeiten, wir steigen gerade knallhart ein,
0:05:01–0:05:03
da ist der Digi-Chris übrigens. Hallo miteinander.
0:05:03–0:05:10
Das ist die Apple Vision Pro. Das ist die Brille, wo du sicher auch schon eine
0:05:10–0:05:15
direkt bist aus den USA importieren und holen.
0:05:15–0:05:19
Nein, und ich habe tatsächlich auch noch keine, und ich fahre ja relativ viel
0:05:19–0:05:24
Zug, auch noch keine jetzt irgendwo in der S-Bahn oder im Intercity gesehen.
0:05:24–0:05:29
Genau, das ist so dein magischer Aha-Moment, wenn du sie in der freien Wildbahn
0:05:29–0:05:34
siehst und ich habe auch noch keine gesehen, in echt.
0:05:34–0:05:39
Ich habe fast, es ist ein bisschen eine blöde Panne passiert, darf ich das erzählen?
0:05:39–0:05:44
Ich habe eigentlich abgemacht mit einem, der gesagt hat, er hätte so eine,
0:05:44–0:05:50
er sei direkt zurückgekommen aus den USA und er würde sie mir gerne mal,
0:05:50–0:05:51
ich darf sie gerne mal anlegen.
0:05:51–0:05:58
Und dann haben wir abgemacht und dann war ich in Zürich im Büro und er meinte,
0:05:58–0:06:01
ich sei in Bern im Büro, weil die haben ja verschiedene Medien.
0:06:02–0:06:05
Er hat mich glaube ich immer im Bund gelesen und dann nicht gemerkt,
0:06:05–0:06:07
dass ich gar nicht da bin.
0:06:07–0:06:11
Das war ein bisschen blöd und darum hätte ich sonst jetzt brühwarm erzählen
0:06:11–0:06:13
können, wie diese Brille ist.
0:06:13–0:06:19
Aber so habe ich einfach ganz viel und zum Teil sehr lange Rezensionen gelesen
0:06:19–0:06:22
von dieser Brille. Digi-Chris, ist dir das auch so gegangen?
0:06:23–0:06:26
Ich habe natürlich vor allem YouTube-Videos gesehen.
0:06:27–0:06:34
Am Anfang halt so die typischen Influencer-I-Chests, wo ich irgendwann abstellen
0:06:34–0:06:36
musste, weil ich fand, das ist so ein Gefälligkeitsvideo.
0:06:36–0:06:42
Nein, brauche ich nicht. Natürlich in den üblichen Podcasts, Apfelfunk-Bits und so.
0:06:43–0:06:44
Whatever. Ja, ist das auch.
0:06:45–0:06:50
Besprochen wurde. Hinterst und vorst. Genau. Ich sage,
0:06:50–0:06:55
bei mir würde es halt schon scheitern, ich trage auch eine normale Brille und
0:06:55–0:07:00
dass du diese Vision Pro benutzen kannst, müsstest du eine Linse haben.
0:07:01–0:07:07
Ich habe das mal probiert, vor Jahren, und ich bin wirklich fast gestorben.
0:07:08–0:07:13
Ich glaube, es sind, wie nennt man die, die Testlinsen, die noch gar keine Korrektur haben.
0:07:13–0:07:16
Schon die hast du nicht vertreibt also ich habe wahrscheinlich fast wie ein
0:07:16–0:07:19
Ross ausgeschlagen und habe dann gesagt ja,
0:07:19–0:07:23
ich trage jetzt halt die Brille wer weiss, vielleicht kann man ja in 5 Jahren
0:07:23–0:07:26
doch meine Sehschwäche irgendwie lasern, sonst korrigieren,
0:07:26–0:07:31
aber bis da bin ich grundsätzlich wahrscheinlich aus diesen Dingen eh raus ja,
0:07:31–0:07:36
vielleicht müssen wir nochmal eine Kurzsichtigkeitssendung machen weil ich glaube ja,
0:07:36–0:07:39
das ist unter Nerds wahrscheinlich noch ein häufiger,
0:07:39–0:07:45
verbreitetes Phänomen weder in der Normalbevölkerung und ja, mir geht es ja auch so.
0:07:45–0:07:48
Eben, das hätte ich dann herausgefunden mit der.
0:07:51–0:07:56
Quest 3 von Meta, die habe ich mal ausprobiert. Dort war eigentlich kein Problem,
0:07:56–0:07:58
mit der Brille drunter zu schlüpfen.
0:07:59–0:08:03
Aber wie es jetzt mit der Apple Vision Pro ist, weiss ich nicht.
0:08:04–0:08:05
Was hätte ich so beeindruckt?
0:08:06–0:08:12
Sie sind ja wirklich recht ausführlich gewesen. Ich habe die Kritik von The
0:08:12–0:08:13
Verge noch gut gefunden.
0:08:14–0:08:18
Und dort ist es so quintessenzial. Es ist ein verblüffendes Produkt.
0:08:18–0:08:22
Es ist halt, es hat so die Krankheiten von der ersten Generation.
0:08:23–0:08:29
Es ist halt irgendwo, man merkt es noch, es ist noch nicht so ausgereift,
0:08:29–0:08:33
wie es dann vielleicht irgendwann mal sein sollte, wenn es wir alle brauchen sollten.
0:08:33–0:08:39
Aber tolle, wirklich tolle Grafik, das mit dem Passthrough, also dass du eigentlich
0:08:39–0:08:47
die Umwelt sehst, durch die kleinen Bildschirme, die du vor den Augen hast,
0:08:47–0:08:53
das ist eigentlich recht beeindruckend, das funktioniert offenbar gut, aber ja.
0:08:57–0:09:03
Die Frage, warum es dieses Produkt gibt, hat sich noch nicht so geklärt. Das sehe ich wie du.
0:09:03–0:09:06
Apple muss jetzt etwas Neues machen.
0:09:08–0:09:12
Was man wahrscheinlich ganz klar sagen kann, iPhone, the next big thing.
0:09:12–0:09:18
Es gab damals schon MP3-Player, es gab Smartphones, es hat aber schon mit dem
0:09:18–0:09:23
allerersten iPhone wahrscheinlich niemand so gut und nahtlos gemacht wie Apple.
0:09:24–0:09:28
Und ich würde sagen, das iPad, das hat schon früher Tablet-Computer gegeben
0:09:28–0:09:31
und wir haben das erste iPad, da hast du nicht mal Multitasking gehabt,
0:09:31–0:09:34
aber auch das hat Sachen gut gemacht.
0:09:34–0:09:38
Ich glaube, die erste Apple Watch, ja, da haben ja auch viele Apple-Nerds bis
0:09:38–0:09:43
zur zweiten oder dritten Generation gewartet und da, ja, sie haben wahrscheinlich
0:09:43–0:09:45
einfach gesagt, hey, wir können so etwas.
0:09:45–0:09:49
Genau, das sagt der Wörtsch auch. Warum hat es Apple gemacht,
0:09:49–0:09:54
um zu beweisen, dass Apple das das kann und eben so viel Talent und Ressourcen
0:09:54–0:09:58
hat und eben auch diese schwierigen Probleme kann meistern.
0:09:58–0:10:01
Aber, und sie finden auch, und das finde ich noch gut, die Einstellung,
0:10:01–0:10:08
sie sagen, wir testen eigentlich Geräte immer so, wie sie zum Böxli auskommen und nicht unter der.
0:10:09–0:10:13
Annahme, dass es dann irgendwann vielleicht in Zukunft durch dieses oder jenes
0:10:13–0:10:15
Update oder durch jene App oder
0:10:15–0:10:18
so noch besser wird und man dann plötzlich herausfindet, für was das ist,
0:10:19–0:10:22
sondern man muss es so testen, wie es jetzt die jetzt in dieser Box ist und
0:10:22–0:10:24
dann findest du, ja was machst du denn damit?
0:10:24–0:10:30
Du leihst sie an und dann kannst du so Apps vor dir aufreihen oder du kannst
0:10:30–0:10:35
deinen Bildschirm von deinem MacBook kannst du da drin einspiegeln und dann machst du das,
0:10:35–0:10:42
was du sonst ohne Brille mit deinem iPad oder deinem Mac-Computer gemacht hast.
0:10:42–0:10:45
Und du kannst eigentlich so 3D-mässig, kannst noch nicht filmen,
0:10:45–0:10:49
du kannst einen Film darauf schauen, aber das kannst du auch auf deinem Fernseher und so.
0:10:49–0:10:53
Und darum ist es auf eine Art schon eine Lösung,
0:10:53–0:10:58
für ein Problem, wo es schon längstens viel einfachere Lösungen gibt.
0:10:58–0:11:02
Genauso, und vielleicht auch noch so etwas ein bisschen wegen der Updates, die kommen.
0:11:03–0:11:07
Also eben, wahrscheinlich würde ich auch sagen, das Hauptszenario ist vielleicht
0:11:07–0:11:08
auch, wenn du jetzt Single bist,
0:11:09–0:11:13
also nicht inspektierlich gemeint, du bist halt in der Stube und hast Brüllen
0:11:13–0:11:16
an und schaust halt, hm, ja, ich brause jetzt da ein bisschen,
0:11:16–0:11:19
ich schaue jetzt da ein bisschen Netflix, alles schön.
0:11:19–0:11:24
Und eben beim Autofahren bitte, bitte, bitte nicht anlegen, Das ist gefährlich
0:11:24–0:11:27
und da habt ihr den Fahrausweis garantiert weg.
0:11:27–0:11:32
Genau, ich musste das zuerst in unseren Sendungstext schreiben.
0:11:32–0:11:36
Dann musste ich es durchstreichen, weil man hätte dann so ein lustiges Video
0:11:36–0:11:41
gesehen von einem, der mit dem Cybertruck herumgefahren ist und die Brille aufhatte
0:11:41–0:11:44
und dann so diese wilden Bewegungen gemacht hat,
0:11:45–0:11:48
die man macht, wenn man durch die Menüs navigiert.
0:11:48–0:11:53
Und dann habe ich aber einen Text dazu gefunden, der sagte, das sei ein Fake
0:11:53–0:11:58
gewesen oder ein Witz, das hätten sie inszeniert, das sei nicht ernst gemeint gewesen.
0:11:58–0:12:05
Aber es gibt wahrscheinlich tatsächlich Leute, die die Brille beim Autofahren anhaben.
0:12:06–0:12:10
Also das würde ich jetzt auch nicht machen. Und was ich auch noch in einem Podcast
0:12:10–0:12:16
gehört habe, du fliegst in Zürich, New York, wenn du mal auf Flughöhe bist,
0:12:16–0:12:18
wird das Flugzeug relativ stabil bleiben,
0:12:18–0:12:21
es wird eine Geschwindigkeit haben und auch die Lichtverhältnisse bleiben.
0:12:21–0:12:26
Ja. Da klappt es aber was, wenn ich jetzt denke, wenn ich wieder ins Dessin
0:12:26–0:12:29
runtergehe, so eben die berühmte Bergstrecke Gotthard.
0:12:30–0:12:36
Seien die total überfordert, weil klar, der Zug beschleunigt mal,
0:12:37–0:12:38
eben die Richtung ändert und so.
0:12:38–0:12:42
Das sehe ich auch noch absolut nicht gelöst. Und auch für mich als ÖV-Fahrer
0:12:42–0:12:46
wäre das schon mal ja... Sie orientiert sich ja in diesem Raum hinein.
0:12:46–0:12:50
Und dann, so habe ich es verstanden, ich konnte es nicht selber ausprobieren
0:12:50–0:12:56
bis jetzt, dann orientiert sie sich und darum funktioniert sie auch nicht,
0:12:56–0:12:59
wenn es ganz dunkel ist, weil dann sieht sie den Raum nicht mehr.
0:12:59–0:13:06
Und dann muss sie eben, wenn draussen am Fenster so Sachen vorbeiziehen,
0:13:07–0:13:11
wie es das im Zug halt passiert, dann probiert sie ihre Darstellung je nachdem
0:13:11–0:13:15
dann an den Sachen auszurichten, die da vorbeiziehen und dann hast du ja deine
0:13:15–0:13:20
Apps, die da immer riesen Tempo davon sausen, zusammen mit der Landschaft.
0:13:20–0:13:23
Und dann kannst du irgendwie so einen Travel-Mode einschalten offenbar,
0:13:23–0:13:27
aber der funktioniert im Zug glaube ich nicht und auch so im Auto vielleicht
0:13:27–0:13:30
wäre auch ein Unsinn, wenn es wirklich im Auto wird.
0:13:30–0:13:34
Also vielleicht als Beifahrer, aber eben, also schliesst man jetzt nicht aus,
0:13:34–0:13:36
dass wenn man in zwei oder drei Jahren nochmal darüber redet,
0:13:36–0:13:40
dass das dann auch eben auf der Bergstrecke funktioniert und wer weiss, dass Steve Jobs,
0:13:41–0:13:45
äh, das war jetzt ein Freundchen, der Tim Apple,
0:13:46–0:13:53
mal ist das im ZDK, also klar, wie gesagt, erste Version und ja,
0:13:53–0:13:57
was man halt auch sagen muss, also das iPad da, Ja, wenn ich kann.
0:13:58–0:14:02
Das war irgendwie 400-500 Franken, sogar. Ich sage jetzt noch als aufgerüstetes,
0:14:02–0:14:07
mit 4G, mit 256-Bit-Speichern.
0:14:07–0:14:11
Und ja, das benutze ich echt wahrscheinlich jeden Tag, also wenn ich unterwegs
0:14:11–0:14:13
bin, auch sonst einmal. Und eben die Vision Pro.
0:14:14–0:14:18
Und ja, ich habe hier grundsätzlich das iPad, kann ich meiner Frau geben,
0:14:18–0:14:19
meinen Kids, das geht auch.
0:14:20–0:14:23
Und eben da hast du mal pro Person 3200 Franken. Das ist halt,
0:14:23–0:14:26
klar, die wird billiger, aber wenn du jetzt denkst.
0:14:26–0:14:35
Du hast eine Tochter, dann müssten die Schüssler mal 10'000 Stutz haben, das ihr könntet.
0:14:35–0:14:39
Ich sage jetzt, ob es jetzt Tagesschau, der Tatort oder Irmepine Mechia ist,
0:14:40–0:14:43
obwohl es auch auf dem 400-fränkigen Fernsehen geht.
0:14:44–0:14:50
Genau, also ich lese mal noch vor, die Frage, die der Verge am Schluss gestellt hat, zu diesem Produkt.
0:14:50–0:14:55
Die erste Frage, wenn sie einen Computer brauchen, der ihnen jedes Mal die Frisur
0:14:55–0:15:00
versaut, wenn sie ihn über den Kopf ziehen, also man muss den immer überstülpen
0:15:00–0:15:04
und dann willst du vielleicht Kaffee trinken, dann musst du ihn wieder abnehmen und so.
0:15:04–0:15:09
Das finde ich schon mal, also für das einfach zum normalen Schaffen,
0:15:09–0:15:13
wie du es sonst schaffst, ist es schon mal umständlich und du hast so einen
0:15:13–0:15:17
richtigen, also eben, ich glaube wirklich, wenn ich mir überlege.
0:15:18–0:15:21
In welchem Szenario wäre gut, wenn du unterwegs bist,
0:15:21–0:15:25
du machst etwas riesengroß kompliziertes, du schneidest ein Video oder so,
0:15:25–0:15:29
kannst deine Brille anziehen und kannst fünf grosse Bildschirme virtuell vor
0:15:29–0:15:33
deiner Nase aufbauen und dann so arbeiten.
0:15:33–0:15:37
Aber wie häufig passiert das schon? Ja, also ich kann sagen,
0:15:37–0:15:41
wenn ich unterwegs bin, in der Regel schaue ich halt auf dem iPad oder auf dem,
0:15:41–0:15:45
Notebook in einem Film. Und ich habe noch ein Canceling-Kopfer.
0:15:45–0:15:49
Ich mache es in der Regel auch so. Ich lege halt mein Gea aufs Tisch.
0:15:49–0:15:54
Und das mit Zugführung. Ich hatte auch schon einen, der mich relativ umsanft
0:15:54–0:15:57
fast durchgeschüttelt hat. Ja.
0:15:59–0:16:05
Und ja, eben. Ist es vielleicht bei uns Männern nicht so ein Killer-Kriterium Frisur.
0:16:05–0:16:09
Aber ich kann mir vorstellen, wenn sich da jemand am Morgen eine halbe Stunde
0:16:09–0:16:12
frisiert und dann, oh, jetzt will ich schnell meine Nails lesen,
0:16:12–0:16:14
oh nein, jetzt muss ich das mal... Frisur versauen.
0:16:14–0:16:18
Eben, auch wenn du geschminkt bist, das hat man irgendwie auch,
0:16:18–0:16:22
glaube ich, irgendwie unterschätzt, dann macht sie dir auch dein Make-up völlig
0:16:22–0:16:26
zu unter Obsee, dann kann irgendwie offenbar die Walt Disney Company.
0:16:28–0:16:32
Verhindern, dass du kannst mit dieser Brille Fotos von gewissen Sachen machen,
0:16:33–0:16:36
die du gerne machen willst, weil sie vielleicht meinen, der Mickey Mouse sei
0:16:36–0:16:37
aus Versehen im Bild oder so.
0:16:38–0:16:44
Eben, man kann Wenn man diese Brille anhat, kann man niemandem zeigen, was man selber sieht.
0:16:44–0:16:48
Ich kann dir jetzt schnell mein iPad anhalten und du siehst...
0:16:48–0:16:51
Oder du kannst abgreifen, wenn du jetzt irgendeinen Podcast...
0:16:51–0:16:55
Nein, ich glaube, für die Demos kannst du nicht irgendwie das Signal...
0:16:55–0:16:58
Also wenn du jetzt ein YouTube-Video machst... Ja, das geht offenbar,
0:16:58–0:17:03
aber du bekommst einen völlig anderen Eindruck, als der, der das braucht.
0:17:03–0:17:10
Im Dunkeln funktioniert er nicht so gut und er schaut immer auf die Hände,
0:17:11–0:17:16
also du kannst dich nicht mal am Bauch kratzen oder an einer anderen Stelle.
0:17:16–0:17:22
Und sonst kommt das gerade mit. Scheisse, die Blumenarbeit habe ich nicht gespeichert.
0:17:22–0:17:28
Ja genau, wenn du dich kratzt, dann meint er, das gehst du für alles löschen und von Neuem anfangen.
0:17:28–0:17:32
Also man kann, offenbar kann man in anderen Reviews, haben wir dann können lesen,
0:17:32–0:17:36
was die Leute gemacht haben, sie haben können kochen damit, Skifahren,
0:17:36–0:17:39
es sind Leute Ski gefahren damit, aber irgendwie halt,
0:17:40–0:17:45
es ist schon alles noch nicht so ausgereift, man kann dann Film oder Netflix
0:17:45–0:17:49
kannst du nur im Browser rein schauen, weil es keine App gibt und so und ja,
0:17:49–0:17:52
also dann hat es noch die Diskussion gegeben,
0:17:52–0:17:58
dass jetzt schon die ersten Retouren gekommen sind und da ist er auch nochmal ein Riesen.
0:17:59–0:18:01
Hast du das verfolgt, diese Medienberichte?
0:18:01–0:18:04
Ich habe es gehört, dass anscheinend gewisse Leute tatsächlich.
0:18:06–0:18:09
Es sind selten 30 Minuten, mit dieser Brille einfach Kopfwebe bekommen haben.
0:18:10–0:18:10
Ja, das habe ich auch gehört.
0:18:11–0:18:15
Und vermutlich ist die jetzt nicht ganz so leicht. Und wenn du doch so viel
0:18:15–0:18:18
Gewicht auf dem Kopf hast, ist das vielleicht auch nicht so angenehm.
0:18:19–0:18:23
Und vielleicht hat das jemand gedacht, 3000 Stutzen für etwas,
0:18:23–0:18:28
das ich vielleicht eine halbe Stunde pro Tag, eine halbe Stunde pro Woche benutze.
0:18:28–0:18:29
Das kann ich mir schon vorstellen.
0:18:29–0:18:34
Also klar sind die Äpfel, und ich glaube, der eine von den Bits und so,
0:18:34–0:18:37
Also hat sie sich auch importieren lassen und vielleicht auch noch eine Warnung,
0:18:37–0:18:38
wenn ihr das machen wollt.
0:18:39–0:18:44
Man muss sie verzollen scheinbar, weil sonst wird man erwischt und dann kostet es.
0:18:44–0:18:48
Und dann musst du natürlich ein eigenes USA-Apple-Konto machen,
0:18:48–0:18:51
das geht, das schafft man auch noch, aber dann hast du halt all deine Apps,
0:18:51–0:18:53
die müsstest du dann vielleicht nochmal zweimal kaufen.
0:18:54–0:18:59
Also ja, ich halte niemanden davon ab,
0:18:59–0:19:04
das Ding zu kaufen, Aber momentan, wenn du jetzt mal so ein Glück hättest,
0:19:04–0:19:08
irgendwo so ein Ding zu haben, auch vielleicht zu tun als Pressemensch,
0:19:08–0:19:11
ja, schön und gut, aber sonst...
0:19:11–0:19:15
Nein, ich habe nichts Bedürfnis, wirklich nicht. Und eben, also die Geschichte
0:19:15–0:19:18
ist ja dann schon so gedrillert worden, als ob es jetzt wirklich ein riesen
0:19:18–0:19:20
Flop wäre, weil die Retturen gekommen sind.
0:19:21–0:19:23
Ich glaube, wahrscheinlich ist es schwierig zu sagen.
0:19:24–0:19:26
Das ist sicher noch zu früh. Es ist sicher zu früh, ja.
0:19:26–0:19:30
Und ich glaube, es sind eben Leute, die sie einfach nicht vertreten haben oder
0:19:30–0:19:33
gefunden haben, vielleicht ein schlechtes Gewissen bekommen haben,
0:19:33–0:19:35
wegen so viel Geld und so.
0:19:35–0:19:38
Und dann gefunden haben, ja, es ist lustig, aber so lustig dann doch auch wieder nicht.
0:19:38–0:19:41
Und dann gibt es natürlich wahrscheinlich auch die YouTuber,
0:19:41–0:19:44
die einfach ihr Video wollten machen und als das Video fertig war,
0:19:44–0:19:46
haben sie es wieder zurückgebracht.
0:19:48–0:19:52
Wenn ich jetzt tatsächlich 3'200 Franken zum Verbrennen hätte.
0:19:54–0:19:58
Und nicht mal wenn es aktiviert ist, einfach in die Testbank sitze und schaue,
0:19:59–0:20:01
wie die Leute... Das wäre lustig.
0:20:02–0:20:04
Müsstest du dann noch einen Kollegen haben, der... Du hast einen Kollegen,
0:20:05–0:20:06
der irgendwie versteckt filmt
0:20:06–0:20:09
vielleicht. Ich weiss noch, wo ein iPhone in die Schweiz gekommen ist.
0:20:10–0:20:15
Es war nicht ein Zug, sondern eine Gondelbahn. Diese Anekdote hast du auch schon erzählt.
0:20:15–0:20:20
Und eben, dass selbst der Gondelherr, der wahrscheinlich nicht ein Nerd ist,
0:20:20–0:20:21
oh, sie haben ein iPhone.
0:20:22–0:20:26
Weil klar, Art Vision Pro ist natürlich auch in den Mainstream-Medien.
0:20:26–0:20:32
Ja, klar, genau. Da hättest du wahrscheinlich nach 5 Minuten 20 Leute um dich
0:20:32–0:20:34
herum und sagen, was ist das?
0:20:34–0:20:39
Aber was ist das? Das ist ja dann die nächste Frage. Ich würde einfach die Reaktion...
0:20:39–0:20:40
Nein, ich bin nicht scharf.
0:20:40–0:20:43
Ich will einfach schauen, wie lange es geht, bis wenn du jetzt wirklich in der
0:20:43–0:20:48
Stosszeit in der zweiten Klasse nach Bern fährst, bis dann die Leute um dich herumstehen.
0:20:48–0:20:53
Gut, das Experiment hat, glaube ich, mein Kollege Raffi Zeier sogar schon mal
0:20:53–0:21:00
gemacht mit einer früherigen Brille, wo wahrscheinlich ist er schon da komisch angeguckt worden.
0:21:00–0:21:03
Und die meisten Leute können es nicht unterscheiden, nehme ich jetzt mal an.
0:21:03–0:21:08
Aber gehen wir doch, wir haben noch mehr Themen. Das ist ja auch sehr spannend,
0:21:08–0:21:15
das SORA heisst das, das ist jetzt so ein neues Ding von OpenAI,
0:21:15–0:21:19
das ist eine Software, die kann, eben bis jetzt hast du sagen können.
0:21:19–0:21:23
Du hast immer gerne diese Bierbeispiele, mach mir einen Gnome,
0:21:23–0:21:32
der vor einem Fliegerpilzhaus sitzt und ein Bier trinkt.
0:21:32–0:21:36
Und jetzt kannst du das auch sagen, aber jetzt bekommst du nicht nur ein Bild,
0:21:36–0:21:41
sondern ein ganzes Video, wo du dann siehst, wie er sitzt und trinkt und vielleicht
0:21:41–0:21:44
gerbst oder ich weiss auch nicht, hinter den Pilz geht oder so.
0:21:45–0:21:51
Das weiss ich nicht. Und hast du das verfolgt? Das ist schon recht beeindruckend.
0:21:51–0:21:57
Ja, aber wenn wir gedacht haben, wenn wir das erste Mal über JGPT geredet haben, ist das im 21.
0:21:58–0:22:02
Nein, nein, das ist noch nicht im 21. Ja, es ist so schnell gegangen.
0:22:02–0:22:07
Ja, vielleicht Ende 2022. Wahrscheinlich Ende 2022, wahrscheinlich Inu hätte
0:22:07–0:22:09
mehr gegeben, wahrscheinlich mal den Link gegeben.
0:22:10–0:22:15
Und dann sind die ersten Modelle gekommen, die ein Bild machen konnten.
0:22:15–0:22:19
Und wenn du nur meinst, ein Nerd typing on a computer, dann eben hat der Nerd
0:22:19–0:22:21
mal vier Finger gehabt, mal sechs Finger.
0:22:22–0:22:26
Das ist dann, das haben wir glaube ich im letzten Jahresrückblick genannt,
0:22:26–0:22:33
ist viel besser geworden. Und vermutlich potenzieren diese Fortschritte sich.
0:22:36–0:22:42
Ein gutes Beispiel, wie schnell das geht, erinnerst du dich vielleicht an Carpi,
0:22:42–0:22:45
unseren Lieblingssatiriker auf Twitter.
0:22:49–0:22:56
Vor einem halben Jahr hat Heidi einen Trailer gemacht mit den ersten Programmen,
0:22:56–0:23:04
die aus Standbildern animiert werden konnten. Die haben dann auch grässlich ausgesehen.
0:23:07–0:23:11
Schritt ist riesig, auch wenn offenbar, wenn zum Beispiel jemand,
0:23:11–0:23:17
was weiss ich was, ansitzt, dann durchaus auch gerne mal die Beine durcheinander kommen oder so.
0:23:17–0:23:23
Aber es ist faszinierend und wenn du dir überlegst, was damit möglich ist,
0:23:23–0:23:25
würdest du jetzt zu denen hören, die sagen,
0:23:25–0:23:33
Hollywood ist verloren, in 5 Jahren macht Netflix zum Beispiel nur noch ihre Computer,
0:23:33–0:23:38
äh ihre Computer, Ihre Filme und Serien nur noch mit dieser Software?
0:23:39–0:23:43
Nein, glaube ich nicht, weil auch der Journalismus ist ja nicht ganz verloren.
0:23:43–0:23:47
Es gibt ja immer noch Leute, die Texte schreiben. Klar, die Texte sehen gut aus.
0:23:48–0:23:53
Und ich glaube, gerade bei Hollywood, die haben ja teilweise auch einen Vertrag.
0:23:53–0:23:58
Also du dürftest jetzt nicht den Bruce Willis... Es gab ja mal diesen Autoren-
0:23:58–0:23:59
und Schauspielerstreik.
0:24:00–0:24:03
Und da war ein Punkt, dass du KI nicht benutzen darfst.
0:24:04–0:24:08
Gut, ich könnte natürlich sagen wenn jetzt du den Bruce Willis so gut kannst,
0:24:09–0:24:15
kann ich generieren dass er halt Die Hard 27 macht als Teenager ja,
0:24:15–0:24:16
aber das glaube ich schon.
0:24:18–0:24:24
Das wird dann noch ein bisschen gehen das wird sicher geben,
0:24:24–0:24:28
aber ich glaube jetzt auch nicht, dass sich das auf breiter Front wird durchsetzen
0:24:28–0:24:34
erstens mal musst du ja auch auf eine Art der jüngeren Generation von Schauspielern eine Chance geben.
0:24:35–0:24:42
Nur weil du Bruce Willis digital die nächsten 100 Jahre immer als 25-Jähriger
0:24:42–0:24:50
ein Haar drauf hast, wo er sogar noch Haare hatte, dann willst du ja trotzdem,
0:24:51–0:24:58
die neue Generation haben. Und jede Generation von Zuschauern will ihre Schauspieler haben.
0:24:58–0:25:02
Und das ist ja richtig so. Also wegen Fakes und so, wenn man denkt,
0:25:02–0:25:06
der Film, ja, ich sage ja, ein super Film, Forrest Gump, es ist doch auch die
0:25:06–0:25:10
Szene, wo Forrest Gump, also Tom Hanks, Kennedy und so gesehen hat,
0:25:10–0:25:11
die waren alle schwarz-weiss,
0:25:12–0:25:14
weil, gut, das ist damals eigentlich...
0:25:14–0:25:18
Ja, wenn du denkst, wann ist Forrest Gump gekommen? Das war in den 90ern, oder?
0:25:19–0:25:24
Du fragst Sachen, ich würde jetzt eigentlich 95 aus dem Holenbuch sagen.
0:25:25–0:25:32
Mittlerweile könnte man schon heute, dann stehe ich vor einem Greenscreen und
0:25:32–0:25:36
schüttle oder rühre Donald Trump eine Creme durch.
0:25:39–0:25:43
94 ist er, ich habe ihn angeschaut, gut geschätzt. Kannst du wirklich sagen,
0:25:44–0:25:49
«Make a picture of Digi-Chris with rose cream pecking the tunnel from his face»?
0:25:50–0:25:54
Äh, der heisst sicher «Donald Trump» können wir leider nicht machen,
0:25:54–0:25:58
weil der hat gesagt, wir dürfen nicht. «Someone looking like Donald...».
0:26:00–0:26:07
«An orange ape looking slightly like Donald...» Ich glaube es auch nicht.
0:26:07–0:26:11
Ich glaube, es wird sicher ein sicherer Experiment gegeben, wo du dann wahrscheinlich
0:26:11–0:26:16
eben kannst, wenn du irgendeinen Film hast, wo, wie soll ich sagen.
0:26:18–0:26:22
England spielt und du hättest ihn aber lieber, dass er in der Schweiz spielen
0:26:22–0:26:26
würde, dann kannst du ihn vielleicht mit KI adaptieren, dass er dann zu Luzern
0:26:26–0:26:29
der Schauplatz ist und nicht zu London.
0:26:29–0:26:35
Wobei, ich weiss nicht, ob sich das immer jede Szene gut adaptieren lässt von
0:26:35–0:26:38
London auf Luzern. Ich glaube, wir können nur sagen, eben die,
0:26:39–0:26:43
Modelle brauchen sicher Rechnung, also Rechenleistung und ja,
0:26:43–0:26:49
ich glaube, wir sind keine Börsensendung, aber ich glaube Nvidia könnte nochmal
0:26:49–0:26:56
steigen, weil wahrscheinlich die nochmal ein paar so Grafikkarte verkaufen werden. Genau.
0:26:56–0:27:00
Und wo wir bei der KI sind, reden wir doch über Google.
0:27:00–0:27:05
Die haben ihren Spart, das ist ein Chat-GPT-Konkurrent, wenn man so will.
0:27:05–0:27:09
Die haben den jetzt in Gemini oder Gemini wahrscheinlich umbenannt.
0:27:10–0:27:13
Aber mich dunkt, die Probleme seien immer noch die gleichen.
0:27:14–0:27:21
Ich habe ein bisschen rumgespielt. Also mir ist tatsächlich der Chat-GPT-4 am liebsten.
0:27:22–0:27:25
Mich dunkt, dass der Kamei... Mich dunkt es auch.
0:27:25–0:27:29
Er ist Ali, wenn man so nach Schweizer Komiker fragt, was ich so ein bisschen
0:27:29–0:27:34
gemacht habe und Satiriker und Schauspieler, dann erzählt er eigentlich recht schnell.
0:27:35–0:27:41
Völlige Mumpitz und was auch sehr lustig war, ich habe dann den Boart oder Gemini,
0:27:42–0:27:47
Gemini, wenn er heute heisst, ein bisschen nach meinem Blog gefragt und er hat
0:27:47–0:27:52
also zum Beispiel er hat die Rangliste von den beliebtesten Beiträgen völlig erfunden.
0:27:52–0:28:00
Das ist wirklich Das ist wirklich lustig und mich denkt es, Google hat das überhaupt nicht im Griff.
0:28:00–0:28:06
Also ich finde das... Klar, man sagt tatsächlich, man kann es bei diesen KI-Bots
0:28:06–0:28:12
nicht verlangen, dass sie immer die reine Ware zeigen, aber wo würdest du jetzt Grenzen ansetzen?
0:28:12–0:28:14
Wo müsste für dich so ein Bot...
0:28:17–0:28:22
Was für einen Prozentsatz an Fehlern darf er sich erlauben, dass du ihn als
0:28:22–0:28:23
akzeptabel anschauen würdest?
0:28:24–0:28:28
Gute Frage. Es kommt vielleicht auch darauf an, was für ein Fehler es ist.
0:28:28–0:28:34
Das habe ich auch in einer Sendung erzählt. Ich habe mal Chat-GBT3 oder 3.5 gefragt.
0:28:37–0:28:42
3, 1, 3, 3, 7, also liegt eine Primzahl. Ja, ist es. Und er hat dann so gesagt,
0:28:42–0:28:44
ja, das ist durch 5 teilbar.
0:28:44–0:28:49
Also etwas, was du wahrscheinlich nach 10 Minuten Python programmieren in den
0:28:49–0:28:51
ersten Sekt, kannst du selber machen.
0:28:53–0:28:59
Für mich sind es dann die Fehler, die elementar sind oder die, die gefährlich werden.
0:28:59–0:29:03
Also nach dem Motto, ich habe irgendwie Herzklopfen, was soll ich jetzt nehmen?
0:29:03–0:29:08
Und man sagt natürlich, nimm Medikamentix Y und Und das Medikament XY macht
0:29:08–0:29:12
es noch schneller, wobei ich glaube, bei medizinischen Sachen blockt er zum Glück auch gerade ab.
0:29:12–0:29:18
Der Chachipiti, ich habe das mal ausprobiert, als er neu war,
0:29:18–0:29:22
als du neu hast, hast du ihm Bilder gestöpselt, als ich einen schönen Ausschlag hatte.
0:29:22–0:29:26
Dann hat er mir ein Foto von dem gezeigt und hat gesagt, was würde er für eine
0:29:26–0:29:27
Behandlung vorschlagen.
0:29:27–0:29:31
Und er hat gemerkt, dass es ein Ausschlag ist und hat dann gesagt,
0:29:31–0:29:34
ich müsse zum Doktor, damit er nichts dazu sagt.
0:29:34–0:29:37
Aber das ist eigentlich eine gute
0:29:37–0:29:40
Idee das können wir mit dem Bart nochmal wiederholen also mich tut es,
0:29:40–0:29:48
es ist ja schwierig eben dass du kannst beurteilen wie schlimm oder potenziell
0:29:48–0:29:51
gefährlich so ein Fehler ist und darum würde ich einfach sagen also,
0:29:53–0:30:02
ich finde also wenn es so 1% sollte so die Marge sein, finde ich 1 Promille wäre besser.
0:30:04–0:30:09
Das Google Ding ist so weit drüber, dass ich das einfach abstellen würde,
0:30:09–0:30:13
ich würde aufhören und nochmal verfahren. Es wäre nicht sehr toll, dass Google das macht.
0:30:14–0:30:19
Ja, aber mich dunkt es, dass sie das jetzt noch umbenannt haben und wieder nochmal
0:30:19–0:30:24
gesagt haben, es gäbe jetzt noch ein leistungsfähigeres Modell und so,
0:30:24–0:30:28
wo dann vielleicht noch die elaborierter Fake News von sich gibt.
0:30:28–0:30:33
Ich finde es einfach bemerkenswert, dass Google das offenbar nicht in den Griff
0:30:33–0:30:38
bekommt und jetzt auch nach fast einem Jahr nicht in den Griff bekommt.
0:30:38–0:30:45
Das ist schon kein gutes Zeichen für Google. Vorher hast du dich als Aktienberater,
0:30:45–0:30:48
als Investitionsguru betätigt.
0:30:48–0:30:52
Was heisst das für unsere Google-Aktien? Abstossen, oder?
0:30:52–0:30:55
Könnte sein. Ich glaube auch, als sie die erste Demo gemacht haben,
0:30:55–0:30:58
ist die Aktie ziemlich untertatscht.
0:31:03–0:31:07
Es kommt niemandem nachfolgend und darum darfst du jetzt noch ganz schnell eines
0:31:07–0:31:08
deiner Themen wünschen.
0:31:08–0:31:14
Ich habe noch das Thema, ich bin nicht grosser Fussballfan und irgendwo habe
0:31:14–0:31:18
ich auf Twitter gelesen, Swisscom blockt Canale Cinque.
0:31:18–0:31:21
Genau, du hast Swisscom mit Knien gezwungen, das müssen wir noch sagen.
0:31:21–0:31:25
Mit einem Tweet oder mit zwei Tweet hast du den meisten gezeigt.
0:31:26–0:31:32
Also schnell, um es zu erklären, wie das genau läuft, die Fussballrechte,
0:31:32–0:31:35
die Champions League werden national vergeben.
0:31:35–0:31:39
Und bei uns hat das halt praktisch Swisscom slash Blue.
0:31:39–0:31:44
Sie lizenzieren zwar teilweise sub- lizenzieren und in Italien ist natürlich
0:31:44–0:31:50
auch Sky Italia am Berlusconi sein Mediaset, aber dort gibt es auch ein Spiel
0:31:50–0:31:53
pro Woche im sogenannten Free TV.
0:31:53–0:31:59
Und in der Schweiz haben wir die Regelung, dass wenn ein Sender irgendwo legal
0:31:59–0:32:05
oder mit mit handelsüblichem Aufwand empfangen werden kann,
0:32:06–0:32:08
darfst du Gesamtschweizerisch verbreiten.
0:32:08–0:32:13
Genau, darum dürfen wir immer noch ARD und ORF und so schauen.
0:32:14–0:32:19
Jetzt ist halt das Spiel auf Kanale Ging bekommen und als das losging,
0:32:20–0:32:23
bis Swisscom, bis Sunrise weiterging, hat es einfach Puff gemacht.
0:32:24–0:32:27
Dieses Spiel muss verschlüsselt werden. Das ist schon recht reich.
0:32:27–0:32:32
Da wollte ich einfach ihr eigenes Sportpaket verkaufen.
0:32:32–0:32:37
Und da habe ich einfach ganz lieb geschrieben, ich bin ja nicht ihr Ahle oder
0:32:37–0:32:41
so, ich war ja ganz lieb und habe gesagt, du, aber ihr dürft das.
0:32:41–0:32:44
Und ich weiss nur, ich glaube es war nicht nur der Digi-Chris,
0:32:45–0:32:50
weil anscheinend war doch im Tessin der Fussball, und es war glaube ich sogar
0:32:50–0:32:54
Milano, die gespielt hat, ein bisschen höherer Stellenwert als bei uns.
0:32:54–0:32:59
Und anscheinend, die armen Säue, die an der Hotline waren, die haben es dann vollfurcht.
0:32:59–0:33:04
Dann haben sie wahrscheinlich gedacht, es werden wahrscheinlich viele Leute.
0:33:05–0:33:07
Nicht extra das Abo abschliessen,
0:33:08–0:33:12
die werden dann sonst auf andere Methoden gehen oder halt irgendwo in ein Pub,
0:33:12–0:33:17
wo das jetzt mehr oder weniger legal läuft und wegen dem haben sie wahrscheinlich dann zurückgerudert.
0:33:17–0:33:22
Auf Twitter war es eine relativ gute Freude, aber ich habe von jemandem gehört,
0:33:22–0:33:26
der im Tessin lebt, auf der Hotline horrorlos gewesen sein müsste.
0:33:27–0:33:34
Interessant, dass sich die Swisscom manchmal als Tech-Multi gebärdet,
0:33:34–0:33:38
die die Regeln nach ihrem Guss diktieren.
0:33:39–0:33:42
Vermutlich hat das mal ein Management-Team gesagt. Und dann wahrscheinlich der
0:33:42–0:33:47
Reputationsverlust, oder dass dann Leute sagen, dann gehe ich halt zu der Sunrise,
0:33:48–0:33:54
ist wahrscheinlich grösser als die zwei, drei Blue Sport, aber was gelöst, hättet ihr bekommen.
0:33:55–0:34:08
Music.

Ist sie zukunftsweisend? Oder ist sie doch ein Flop, der die Frisur ruiniert, das Make-up versaut, unbequem auf die Stirn drückt und im besten Fall keine Schwindelgefühle verursacht? Inzwischen haben die ersten Käufer Apples Computerbrille erhalten, ausprobiert und teilweise sogar mit ihren Cybertrucks spazieren gefahren – und zwar, während sie am Steuer sassen. Es sind auch die ersten, meist epischen Rezensionen der Vision Pro erschienen, die wir gelesen haben, damit ihr das nicht tun müsst.

Ausserdem diskutieren wir über den jüngsten Streich von OpenAI: Die Software Sora, die anhand von Textbeschreibungen kurze Videos generiert. Und wir sprechen über Googles KI Bard, die den neuen Namen Gemini trägt, der aber ihr altes Vertrauensproblem geblieben ist. „Nur etwas für Glatzköpfe, Ungeschminkte und Cybertruckfahrer?“ weiterlesen

Wenn uns die Cloud im Regen stehen lässt

Transkript anzeigen (falls vorhanden)

00:00–0:00:08
Music.
0:00:08–0:00:17
Und the boys are in the studio of Radio Stadtfilter. Radio Stadtfilter. The fun starts here.
0:00:18–0:00:22
The fun starts here. Und da ist der Digi-Christ. Guten Abend.
0:00:22–0:00:25
Und der Kevin Rechsteiner ist auch da. Hallo miteinander.
0:00:27–0:00:30
Ui. Ich habe behauptet, der Kevin Rechsteiner sei da, aber aha,
0:00:30–0:00:34
ich... Hallo. Jetzt ist er da, Entschuldigung. Hallo. Hallo.
0:00:35–0:00:38
Wir hören dich jetzt. Ich bin wieder ausgeräumt. Nein, nein.
0:00:38–0:00:41
Du bist ein vollwertiges Mitglied von unserem Team.
0:00:42–0:00:47
Es ist nur der Techniker, der versagt hat, ich mache dich noch ein bisschen lauter vielleicht.
0:00:49–0:00:55
Ja, genau. Und dann habe ich eine Frage an euch. Wie würdet ihr Winterthur auf Englisch sagen?
0:00:56–0:00:59
Ui, jetzt. Winterthur. Winterthur, okay.
0:01:00–0:01:04
Ich halte mich an die offiziellen Namen, wie man es ausspricht.
0:01:04–0:01:06
Es gibt offizielle Namen?
0:01:07–0:01:13
In der Schweiz nennt man Winterthur. Ich habe das in Norwegen gelernt.
0:01:13–0:01:18
Es ist nicht Alesund, es ist Olesund. Es ist der norwegische Name erzählt.
0:01:18–0:01:20
Nicht was man interpretiert.
0:01:21–0:01:23
Und ich finde, man sagt Winterthur.
0:01:24–0:01:27
Ich würde sagen, eine Frage an Trondi.
0:01:29–0:01:34
Wie würdet ihr Tüdingen sagen? Jetzt bringst du mich bringst du mich vom Thema ab.
0:01:35–0:01:37
Ich wollte beim Thema bleiben. Fokus.
0:01:38–0:01:43
Und ich probiere, ob ich das abspielen kann, weil sonst geht es gar nicht.
0:01:44–0:01:48
Ui, nein, jetzt geht es nicht. Jetzt geht es nicht. Ich probiere es nochmal.
0:01:50–0:01:54
Tja, und an dieser Stelle hat meine schöne Demonstration in der Live-Sendung
0:01:54–0:01:55
leider nicht funktioniert.
0:01:56–0:02:00
Und darum muss ich das jetzt nachträglich noch noch reinflicken.
0:02:00–0:02:06
«We fix it in post» heisst das im Tech-Jargon. Wir flicken es in der Postproduktion.
0:02:06–0:02:10
Da ist der erste Ausschnitt, den ich eigentlich spielen wollte.
0:02:20–0:02:26
Und das ist der zweite Ausschnitt, der «Winterter» drin vorkommt, in diesem Hörbuch.
0:02:37–0:02:40
Und jetzt geht's weiter mit der Pre-Show.
0:02:41–0:02:45
Also ich habe völlig versehen, das hat nicht funktioniert, es tut mir leid.
0:02:45–0:02:49
Er hätte sollen, ich tue vielleicht dann nachher das noch reinschneiden, dass er es richtig hört.
0:02:49–0:02:55
Er sagt nicht Wintertour, er sagt Wintertour und das habe ich lustig gefunden.
0:02:56–0:02:59
Und es ist immerhin, kann ich euch sagen, es ist das erste Buch,
0:02:59–0:03:01
das ich gehört habe, also das Hörbuch.
0:03:02–0:03:06
Und dann plötzlich, ich habe nichts Böses geahnt und es ist ja auf Englisch
0:03:06–0:03:13
und alles. Es heisst übrigens AJ Riddle und es heisst «Quantum Radio», das Hörbuch.
0:03:14–0:03:19
Es ist brandneu und dann kommt der Mann, der vom CERN flüchten muss,
0:03:19–0:03:24
und er flüchtet Richtung Zürich und da kommt er in Winterthur vorbei.
0:03:24–0:03:27
Und das wollte ich euch vorstellen. Und jetzt hat es völlig rippen funktioniert.
0:03:27–0:03:37
Aber Winterthur hat keinen Handlungsbogen in Winterthur. Er geht nicht an die Steinberg-Gasse.
0:03:37–0:03:43
Leider nicht, nein. Er wird leider nur aufgehalten von einer Polizeisperre und
0:03:43–0:03:48
muss dann, ich weiss gar nicht, was er machen muss. Er fährt dann weiter nach
0:03:48–0:03:49
Zürich und trifft dort seinen Vater.
0:03:49–0:03:56
Und die flüchten dann weiter nach Washington DC. Und das war es dann mit Winterthur.
0:03:57–0:04:02
Winterthur. Ich glaube, er ist auch sehr enttäuscht. das der schöne Wurzeln
0:04:02–0:04:05
an der Marktgasse nennen ist. Genau.
0:04:07–0:04:10
Market Alley.
0:04:11–0:04:14
Ja, genau, Market Alley. Das wäre es noch.
0:04:14–0:04:18
Also wir müssen, wenn ihr Erfahrungen habt oder vielleicht uns sogar in den
0:04:18–0:04:24
USA hört, dann nehmt doch, so möglichst im mittleren Westen oder so,
0:04:24–0:04:28
dann nehmt doch ein Aufnahmegerät und fragt die Leute,
0:04:29–0:04:33
wie die dort im Bible Belt oder so Winterthur würden aussprechen.
0:04:33–0:04:37
Und ich muss es halt rausschneiden und ich reiche euch das noch nach.
0:04:37–0:04:41
Es ist jetzt, ja. Sorry, ich wäre in die Zeit gegangen. hätte ich es gemacht.
0:04:42–0:04:44
Also, aber Düdingen, hast du gesagt, Digi-Chris?
0:04:45–0:04:48
Düdingen auf Französisch, es ist ja Düdingen...
0:04:48–0:04:54
Nein, nein, Gain. Was? Gain, auf Französisch. Nur Gain? Gain, ja.
0:04:54–0:04:59
Weil eben also Düdingen redet man tatsächlich noch Deutsch, also sorry,
0:04:59–0:05:02
liebe Arbeitskollegen, sorry Patrick, sorry Patrice.
0:05:02–0:05:06
Ja, die reden irgendwie Deutsch. Es ist teilweise ein bisschen schwer zu verstehen.
0:05:07–0:05:10
Und dann gehst du eben über die Zahne, über den Röstigraben. Ja.
0:05:11–0:05:14
Und dann bist du im Fribourg und dann redest du Französisch. Ja, eben.
0:05:16–0:05:21
Also, und... Aber auch das verbietet sich immer noch pro Schneid in Tüdingen.
0:05:21–0:05:24
Aber anscheinend, wie sagen wir, lokale Dialektik.
0:05:25–0:05:29
Ich war auch wieder da, am Wochenende, haben wir auch mal jemanden erklärt.
0:05:30–0:05:34
Wir lernen etwas in dieser Sendung. Und eben, also Kevin, was jetzt norwegisch
0:05:34–0:05:36
angeht, da tust du auch andere...
0:05:36–0:05:40
Also, ich hatte nur einmal das Gefühl, die Einheimischen hätten nicht so Oslo
0:05:40–0:05:43
gesagt, sondern das O mit U, das O sieht so richtig U gegangen,
0:05:43–0:05:45
aber ich kann mich auch täuschen.
0:05:45–0:05:47
Das O ist jetzt U. Ah, dann täuscht mich...
0:05:47–0:05:51
Nein, das ist so. Oslo ist U-schlau. Eben genau, ich dachte zuerst,
0:05:51–0:05:54
ich sei am Falschen. Das ist wahr.
0:05:55–0:06:01
Okay. Das O ist ein U, das A mit einem Kreis ist ein O, ein U ist ein Ü.
0:06:02–0:06:05
Was ist noch? Das Special Move? Ja, das ist es etwa, glaube ich.
0:06:05–0:06:09
Es ist nicht so viel anders. Aber sie haben ein paar...
0:06:09–0:06:14
Aber ist es so, dass man sich, wenn man sich das merken kann,
0:06:14–0:06:19
wie es ist, dass man dann, wie soll ich sagen, das immer richtig macht?
0:06:19–0:06:20
Weil im Englischen musst du
0:06:20–0:06:23
ja eigentlich bei jedem Wort ein bisschen wissen, wie man es ausspricht.
0:06:24–0:06:27
Nein, es gibt Special Moves. Das ist schon so.
0:06:27–0:06:34
Ein O ist grundsätzlich ein U, ausser wenn nach dem O ein was kommt.
0:06:35–0:06:39
Wahrscheinlich ein mit, nein, es stimmt eben auch nicht.
0:06:39–0:06:43
Wenn nach dem O kommt etwas anderes, dann ist es eben ein gleiches O.
0:06:43–0:06:48
Es gibt so Spezialfälle, aber ja, es ist nicht so einfach.
0:06:49–0:06:53
Vielleicht lernen wir dann irgendwann mal einfach zusammen in dieser Sendung Sprachen.
0:06:53–0:06:56
Das fände ich noch lustig. Ich würde
0:06:56–0:06:59
jemanden suchen, der mir Griechisch beibringt, falls das möglich wäre.
0:06:59–0:07:02
Oh, Griechisch wäre mega cool. Gell, das wäre cool.
0:07:02–0:07:08
Ja, Griechisch wäre cool. Aber ich finde es so. Ich kann nur Ne. Ne. Ich kann nur Ochi.
0:07:11–0:07:18
Das ist das Gegenteil von «Ne». Ah, wirklich? Ah, okay.
0:07:19–0:07:20
Ich sehe, schon gut.
0:07:23–0:07:34
Music.
0:07:34–0:07:39
Und der Digi-Chris. Hallo. Hallo und wir haben heute ein Thema,
0:07:39–0:07:43
das euch wahrscheinlich täglich beschäftigt, also vielleicht nicht das Thema
0:07:43–0:07:45
selber, aber die Technologie.
0:07:45–0:07:52
Es geht um Cloud und DigiChris hat, glaube ich, mehr positiv über Cloud gesprochen,
0:07:52–0:07:54
weil die uns hilft und so.
0:07:54–0:07:58
Und dann bin ich auf die Idee gekommen, oder je länger ich das Dokument angeschaut
0:07:58–0:08:02
habe, desto kritischer wurde ich dieser Cloud gegenüber. darüber.
0:08:02–0:08:08
Aber die Chris. Ja, es geht darum, also jeder weiss, was eine Dropbox ist und
0:08:08–0:08:13
ich merke es auch in meinem Umfeld, auch wenn die Leute gar nicht meine Dropbox
0:08:13–0:08:15
benutzen, sondern halt eben mein,
0:08:16–0:08:20
Everybody's Darling, Nextcloud, selber immer noch Dropbox und ich habe mir mal
0:08:20–0:08:25
überlegt, wann habe ich eigentlich mit so einer Cloud und da geht es tatsächlich darum,
0:08:25–0:08:31
Daten abzulegen, anfangen zu arbeiten und es muss tatsächlich vor etwa 20 Jahren
0:08:31–0:08:32
gewesen sein, wo ich meine.
0:08:33–0:08:38
Prost-Materialitätsarbeit gemacht habe, wo ich natürlich, der Schock bei so
0:08:38–0:08:39
einer Arbeit ist ja immer,
0:08:40–0:08:44
du könntest das verlieren und damals hat es USB-Sticks gegeben,
0:08:44–0:08:48
die sind auch sündhaft teuer gewesen und ich habe das damals bei gmx auf der
0:08:48–0:08:56
cloud gespeichert und so das ist das erste mal wo ich eben Daten gespeichert habe,
0:08:56–0:09:02
die nicht bei mir zuhause waren und ja eben wegen dem bin ich auf die idee gekommen,
0:09:02–0:09:08
was gibt es da für dienst, was benutzt ihr und ist das Ist das gut,
0:09:08–0:09:09
ist das schlecht jetzt, Matthias?
0:09:09–0:09:15
Was war deine erste Idee, die du in der Cloud gespeichert hast?
0:09:15–0:09:21
Das ist eine gute Frage. Also FTP-Server habe ich natürlich schon früh gebraucht.
0:09:21–0:09:25
Da bin ich in den Anfängen vom Webhosting gar nicht drum herum gekommen.
0:09:26–0:09:30
Aber ob ich dort auch Dokumente abgelegt hätte, das wäre möglich,
0:09:30–0:09:32
aber ich könnte es nicht mehr so richtig sagen.
0:09:33–0:09:39
Ich glaube, wahrscheinlich ist tatsächlich so der Dropbox das Ding gewesen,
0:09:40–0:09:44
wo ich angefangen habe, systematisch damit zu anfangen. Kevin, bei dir?
0:09:47–0:09:51
Definitiv Dropbox und ich hätte jetzt gesagt, das Kino war wahrscheinlich der
0:09:51–0:09:54
Ausschlag, dass ich die,
0:09:54–0:10:00
ich hätte jetzt gesagt, entweder den Einsatzplan oder die Mitarbeiterliste zentral
0:10:00–0:10:04
haben wollen und dann hat es Dropbox gratis gegeben und ich Ich glaube,
0:10:04–0:10:05
darum haben wir diese eingesetzt.
0:10:05–0:10:08
Ich glaube, das war wirklich mein erster Schritt mit Cloud.
0:10:08–0:10:12
Die Ernste war, weil vorher waren meine Daten einfach auf meinem Laptop oder
0:10:12–0:10:15
PC. Ich habe das gar nicht gebraucht. Dropbox war der Einstieg.
0:10:16–0:10:20
Genau, und vorher war es schon so, dass ich immer einen USB-Stick dabei hatte.
0:10:20–0:10:22
Ich habe ihn, glaube ich, immer noch an meinem Schlüsselbund.
0:10:24–0:10:27
Nein, ich habe ihn das letzte Mal abgefummelt. Ich glaube, es ist erst ein paar
0:10:27–0:10:32
Wochen her. Und ich habe sonst immer den USB-Stick, so einen ganz kleinen,
0:10:32–0:10:38
etwa einen Zentimeter lang, der aufs Traditionsgründname im Schlüsselbund hängt.
0:10:39–0:10:43
Und dort hat es immer noch Daten drauf? Dort hat es wahrscheinlich immer noch
0:10:43–0:10:46
Daten drauf, aber... Die erste Corona-Version ist dort noch drauf.
0:10:48–0:10:56
Aha, ja genau. Der Bauplan, der dann in das Labor geschickt wurde, um ihn zu konstruieren.
0:10:56–0:11:02
Genau, das ist so. Nein, dort sind wahrscheinlich noch Digitalmagazinsendungen
0:11:02–0:11:08
von 19... Nein, nicht von 19, aber von 2015 noch drauf, würde ich schätzen.
0:11:09–0:11:14
Und ich glaube genau, was ihr jetzt beide zeigte mit der Dropbox und Kevin mit seinem Einsatzplan.
0:11:14–0:11:20
Eben damals bei Gmix zum Beispiel, das war einfach im Webbrowser und du hast
0:11:20–0:11:24
es halt umgeladen und ich glaube bei der Dropbox und eben Matthias,
0:11:24–0:11:25
wir kommen da wahrscheinlich noch dazu,
0:11:25–0:11:30
du hast eine Dropbox auf all deinen Geräten installieren können und ja es ist
0:11:30–0:11:34
dann so, wahrscheinlich nach den 2000er Jahren ist tatsächlich passiert,
0:11:34–0:11:38
dass du mehr als als Heissgerät hattest, sprich du hattest einen Desktop-PC,
0:11:38–0:11:44
du hattest vielleicht ein MacBook und Dropbox hat dir das lästige Zeug weggenommen,
0:11:44–0:11:46
dass du das hin und her melden musst.
0:11:46–0:11:50
Du hattest halt irgendeinen Ordner auf der Dropbox, eben wie bei Kevin1 als
0:11:50–0:11:56
Plan.xls und das war dann bei 1, 2 oder 100 Benutzern.
0:11:57–0:12:01
Genau, das Synchronisieren war halt auch Das war auch noch grossartig.
0:12:02–0:12:06
Hast du wieder ein Huhn in der Nähe?
0:12:06–0:12:09
Ich habe zwei Hühner in der Nähe. Also nicht so in der Nähe,
0:12:09–0:12:13
das sind sechs Meter von mir. Okay, dann sagst du einen Gruß.
0:12:14–0:12:18
Genau, die Dropbox und das Synchronisieren, das war schon grossartig.
0:12:18–0:12:22
Vorher musste man immer schauen, dass man die Dateien am richtigen Ort hatte.
0:12:23–0:12:28
Und das ist damit weggefallen. Ja, und du hast halt irgendwie,
0:12:28–0:12:32
ich glaube auch Dropbox hat relativ früh Versionierungen können.
0:12:32–0:12:37
Ich meine, jeder, der mal ein Arbeiten geschrieben hat, irgendwie Berufsmaturität
0:12:37–0:12:45
unterstrich V23 unterstrich Final unterstrich 1.x. Final 1, Final Final und
0:12:45–0:12:46
Final Definitiv, genau.
0:12:46–0:12:50
Und so Sachen hast du machen können. Und ja, ich weiss auch noch,
0:12:50–0:12:56
wir haben im Studium, ich glaube die Robbox ist 0607 gekommen,
0:12:56–0:12:59
eben dort auch wieder, ich sage immer wieder, das runde Gebäude,
0:12:59–0:13:05
das gerade neben uns ist, hat auch ein Dozent das ganz wirklich enthusiastisch erwähnt und.
0:13:06–0:13:11
Der erste Use Case, den wir auf der Dropbox hatten, wir waren eine Lehrgruppe
0:13:11–0:13:17
von 4-5 Studenten, es hat jede eine Zusammenfassung geschrieben und wir hatten das in der Dropbox.
0:13:18–0:13:24
Es hat also jedes Modul zusammengefasst, Dokumente draufgetätscht und das war genial,
0:13:25–0:13:30
du hättest nicht jedem eine Mail schreiben müssen, «Hey, schau mal hier das
0:13:30–0:13:35
Dokument.» Du konntest Unterordner machen, «Nice to know…» Also das war am Anfang
0:13:35–0:13:39
schon genial, aber ich glaube, wenn wir bei der Dropbox bleiben,
0:13:39–0:13:44
irgendwann, ich darf nur sagen, sind sie gierig geworden. Ja, sicher.
0:13:44–0:13:49
Das ist ja eine völlig natürliche Entwicklung.
0:13:49–0:13:55
Das ist ja die N-Shitification, wie Cory Doctorow das mal genannt hat.
0:13:55–0:14:01
Das ist fast so ein Naturgesetz, dass die Plattformen und die Dienste am Anfang
0:14:01–0:14:03
nicht zu ihren Kunden sind, dann wollen sie wachsen,
0:14:04–0:14:11
dann wollen sie Geld verdienen, je nachdem fangen sie dann ihre Kunden auszubieten.
0:14:11–0:14:16
Und wenn es dann noch Anbieter sind, die dann auch noch Werbung machen,
0:14:16–0:14:21
dann fangen sie auch die noch auszunehmen und die verschiedenen Parteien gegeneinander aufzuhetzen.
0:14:22–0:14:26
Und am Schluss ist es so, dass eine Plattform nicht mehr brauchbar ist.
0:14:27–0:14:30
Und das hast du gesehen bei den Dropbox, das siehst du bei Facebook,
0:14:30–0:14:32
das siehst du bei den sozialen Medien.
0:14:32–0:14:37
Aber mich dunkelt es, du siehst es auch so bei Diensten wie Evernote oder so.
0:14:39–0:14:44
Evernote ist auch gruselig. Ja, das ist richtig dumm geworden.
0:14:44–0:14:47
Von mega gut zu richtig dumm.
0:14:47–0:14:52
Und bei der Dropbox hat es wirklich hier angefangen, wo sie die Geräteanzahl
0:14:52–0:14:55
beschränkt haben. Man durfte dann nur noch 5 Geräte brauchen.
0:14:56–0:15:00
Und da war ich natürlich sofort drüber, nicht gerade um ein Vielfaches,
0:15:00–0:15:03
aber um 2-3 Geräte auf jeden Fall.
0:15:03–0:15:07
Und ich hätte auf eine Art wahrscheinlich sogar gezahlt. Aber dann konntest
0:15:07–0:15:11
du nicht einfach bezahlen, um die Gerätebeschränkung auszuhebeln,
0:15:11–0:15:14
sondern du hättest auch noch für Speicher bezahlen müssen, die ich nicht brauchte.
0:15:14–0:15:19
Dann war ich raus und bin bei der Nextcloud gelandet.
0:15:19–0:15:23
Das ist auch etwas, was du bei Apple sagst. Ich sage jetzt bei der iCloud,
0:15:24–0:15:25
eben der auf meinem iPad.
0:15:26–0:15:29
Die haben ja die Abos relativ gut abgestuft.
0:15:29–0:15:34
Du kommst für wirklich 1 Franken 50 GB über. Und bei der Dropbox kannst du,
0:15:34–0:15:38
glaube ich, ich kann jetzt nicht die letzte Zahl, ich sage jetzt 12 Franken,
0:15:38–0:15:41
zwei Terra, aber es gibt nichts dazwischen.
0:15:41–0:15:45
Genau, genau, da hätte ich dir jetzt fast, wie du sagst, gut abgestuft.
0:15:46–0:15:49
Das hast du mich schon getriggert damit, weil ich habe mal so einen Vergleich
0:15:49–0:15:51
gemacht zu diesen Kostenstrukturen.
0:15:51–0:15:56
Und du siehst erstens, also von Google, von Microsoft und Apple habe ich verglichen.
0:15:56–0:15:58
Und du siehst, sie sind...
0:15:58–0:16:04
Genau so aufeinander abgestimmt, dass jeder nicht deutlich günstiger ist als der andere.
0:16:05–0:16:11
Also keiner will wirklich Konkurrenz machen, der andere indem er sie preislich unterbietet.
0:16:11–0:16:15
Und Microsoft ist noch am besten, da kannst du auch wirklich glaube ich so in
0:16:15–0:16:20
100 Megabyte Schritte kannst du dein Ding, dein Kontingent durchstufen.
0:16:20–0:16:27
Und eben bei Apple gibt es einen riesen Schritt von 300 auf 2 Terra oder so, irgend so etwas ist es.
0:16:27–0:16:33
Und das ist, da werden einfach Heavy-User abgezockt und sobald du drüber bist,
0:16:33–0:16:38
301 Gigabyte hast, dann zahlst du für 2 Terabyte, obwohl es wahrscheinlich dann
0:16:38–0:16:41
etwa 10 Jahre geht, bis du die 2 Terabyte voll hast.
0:16:41–0:16:46
Also es ist eigentlich ein riesen Preismodell. Dürfen wir das so sagen? Ein riesen Scheiss?
0:16:47–0:16:52
Ja, ich würde sagen, die Unternehmen werden natürlich Geld verdienen.
0:16:52–0:16:57
Was ich jetzt auch sagen muss, du hast Microsoft erwähnt, also ich Ich brauche
0:16:57–0:17:00
ein Office, ich habe es halt im Geschäft, ich bin mich an ein Office gewöhnt,
0:17:00–0:17:05
ja, da könnte man mich jetzt auch mal wahrscheinlich in einer ganzen Sendung umziehen,
0:17:06–0:17:11
dass es auch ein LibreOffice gibt, sprich ich habe ein Office 365 und dort ist
0:17:11–0:17:17
dann glaube ich ein Terabyte OneDrive so oder so dabei und ich darf es auch
0:17:17–0:17:21
noch mit der Familie benutzen und ich glaube ich darf fünf Familienmitglieder dabei haben.
0:17:21–0:17:26
Ja, aber grundsätzlich, ja, es wäre wie wenn du jetzt halt...
0:17:29–0:17:35
101 Gramm Rübe oder Gurken hast und dann sagst du, ja Herr Matthias,
0:17:35–0:17:37
jetzt zahlen Sie aber ein Kilo.
0:17:37–0:17:41
Ja, genau, so ist es, so ist es absolut. Und was dann noch dazu kommt,
0:17:41–0:17:44
ist, du könntest ja auf die Idee kommen, das Microsoft 365,
0:17:45–0:17:52
also das Office zu brauchen, aber offline oder einfach mit deinem lokalen Computer
0:17:52–0:17:54
oder mit einem anderen Cloud-Dienst,
0:17:54–0:17:58
also eben, wenn man jetzt das Dropbox noch würde brauchen Oder wir könnten an
0:17:58–0:18:01
dieser Stelle vielleicht auch einwerfen, dass es ein paar Schweizer Dienste gibt.
0:18:01–0:18:06
Das MyCloud bei Swisscom, das K-Drive von Infomagnac.
0:18:06–0:18:11
Ich sage immer noch Infomagnac. Oh, c'est français. Infomagnac.
0:18:11–0:18:18
Infomagnac. Oder filesync.ch, das pcloud.com ist glaube ich auch ein Schweizer Ding.
0:18:18–0:18:23
Also man hat Auswahl, aber man wird... Und wenn du es einfach so speichern willst,
0:18:23–0:18:28
dann musst du immer noch 5x extra klicken, dass du es lokal speichern kannst,
0:18:28–0:18:33
weil er es standardmässig immer in der Cloud haben will. Und das regt mich derartig auf.
0:18:33–0:18:37
Das verdammte Ding... Also Microsoft ist wirklich gnadenlos,
0:18:38–0:18:42
wo sie dir überall das OneDrive ins Gesicht drücken.
0:18:43–0:18:47
Und wenn du es nicht willst, musst du immer einen extra Umweg machen und wenn
0:18:47–0:18:50
du einen Fehler machst, hast du es trotzdem wieder am Hals.
0:18:50–0:18:55
Und das, ich muss sagen, wenn ich die EU-Wettbewerbskommission wäre,
0:18:55–0:18:59
ich würde sie so in Grund und Boden klagen und ihnen das so verbieten,
0:19:00–0:19:03
dass sie sich in die Mecke schämen würden.
0:19:03–0:19:06
Kevin, kannst du meinen Unmut verstehen?
0:19:07–0:19:10
Du bist eher so ein bisschen positiv zu Microsoft 365.
0:19:10–0:19:12
Findest du, ich übertreibe?
0:19:15–0:19:21
Ich nutze es halt sowieso. Und darum spielt es mir wirklich keine Rolle. Das ist halt so ein Ding.
0:19:22–0:19:28
Ich beklage mich auch nicht über Adobe Strategie. Hast du schon gemacht.
0:19:28–0:19:30
Ja, habe ich auch schon gemacht.
0:19:30–0:19:34
Aber mehr, weil diese 4000 Programme brauche ich nicht.
0:19:35–0:19:40
Ich muss, ich bin Teil der Hölle, die ich selber geschaffen habe.
0:19:40–0:19:44
Das stimmt. Ich komme nicht aus dem aus. Das ist ein bisschen ein Problem.
0:19:44–0:19:48
Das stimmt schon. Aber jetzt hier in dieser Sendung sind wir ja nicht angestellt
0:19:48–0:19:52
als Cheerleader von Microsoft und Adobe, sondern da sind wir eigentlich angestellt,
0:19:52–0:19:59
um diese hart zu kritisieren und ihnen alles unter die Nase zu reiben, was sie falsch machen.
0:20:00–0:20:03
Aber nein, dann finde ich das Produkt im Fall nicht so schlecht wie du.
0:20:03–0:20:07
Okay. Ganz ehrlich, ich finde es nicht so schlecht wie du.
0:20:07–0:20:11
Es hat Macken und es hat gewisse Sachen, die mich stören, aber ich finde es
0:20:11–0:20:15
absolut nutzbar im Vergleich zu anderen Diensten, die es gibt,
0:20:15–0:20:18
die ich nutzen muss, die ich richtig dumm finde.
0:20:19–0:20:25
Gut, aber darf ich trotzdem vielleicht an dieser Stelle dir meine Vision vorstellen,
0:20:25–0:20:28
wenn ich finde, dass das müsste sein, und dann kannst du mir sagen,
0:20:28–0:20:32
ob du den Jetzt-Zustand oder meine Version besser findest.
0:20:32–0:20:35
Also ich finde, ich glaube, es ist sinnvoll heute,
0:20:35–0:20:41
dass man die Clouds so integriert, also auch die iCloud in der ganzen Apple-Welt
0:20:41–0:20:44
und so, das verstehe ich auf eine Art, aber ich hätte das gerne so,
0:20:44–0:20:49
dass du eine Einstellung hast, die heisst irgendwie.
0:20:49–0:20:55
Cloud-Anbindung oder Internet-Verknüpfung oder wie auch immer.
0:20:55–0:20:58
Und dort hat es einen Knopf, wo du zuerst einmal sagen kannst,
0:20:58–0:21:01
ob du Cloud überhaupt nutzen willst oder nicht.
0:21:02–0:21:04
Da kannst du schon einmal sagen, nein, ich möchte offline arbeiten und gehen
0:21:04–0:21:06
wir weg mit dem ganzen Cloud-Scheiss.
0:21:07–0:21:10
Und wenn du sagst, ja, ich möchte sie nutzen, kannst du dann dort deinen Dienst
0:21:10–0:21:16
eintragen oder auswählen und bei allen Plattformen, also auch Microsoft oder
0:21:16–0:21:19
Apple kannst du wählen, Ich will OneDrive,
0:21:19–0:21:28
ich will Dropbox, ich will Nextcloud, ich will Box, Google Drive und was es alles gibt.
0:21:28–0:21:30
Und du kannst dort auswählen und dann ist das transparent.
0:21:31–0:21:35
Und alles, was es jetzt nur bei seinem eigenen Ding macht,
0:21:35–0:21:45
also zum Beispiel iCloud macht ja nur auf ihres, also Apple macht nur via iCloud Backups Und alles,
0:21:46–0:21:50
was man auswählen würde, würde man transparent auf dem Dienst machen, den du ausgewählt hast.
0:21:50–0:21:54
Egal, ob das jetzt der eigene oder ein fremder ist.
0:21:55–0:21:57
Wie findest du das, Kevin? Wäre das nicht besser?
0:21:58–0:22:04
Ja, aber das ist auch nicht realistisch. Den Glauben an die Welt habe ich schon lange aufgegeben.
0:22:05–0:22:09
Aber das möchte es definitiv nie, nie, nie, nie, machen.
0:22:10–0:22:14
Aber Software ist doch eigentlich... Das Spannende an Software ist,
0:22:14–0:22:17
dass du sie zusammenstöpseln kannst, wie du willst, und dass du...
0:22:17–0:22:20
Interoperabilität ist doch das schöne Stichwort.
0:22:20–0:22:25
Digi-Grizz, Herr Lauchert. Aber ich möchte ja nicht, dass du mit deinen Daten
0:22:25–0:22:26
noch immer etwas anderes hast.
0:22:27–0:22:29
Das möchte ich auf jeden Fall vermeiden.
0:22:30–0:22:37
Ich meine, ja, wie es Kevin sagt, das ist schön, aber ich glaube auch, wenn du auf dem Mac bist,
0:22:37–0:22:41
klar, du kannst dir zum Beispiel OneDrive installieren und es gibt das,
0:22:41–0:22:45
wie sagt man das, Selective Sync, also um zu erklären,
0:22:46–0:22:55
wenn du jetzt halt 10 TB OneDrive Speicher hast und du hast 5 TB RAW Bilder,
0:22:55–0:23:02
Du kannst also in höchster Auflösung deiner letzten South Africa Safari im OneDrive
0:23:02–0:23:04
sagen, lass es auf dem OneDrive,
0:23:04–0:23:07
aber tu es mir nicht auf den Mac oder auf den Windows-PC.
0:23:07–0:23:09
Ausser wenn ich das RAW-Bild aufmache.
0:23:10–0:23:14
Das geht, aber zum Beispiel bei Nextcloud, schon vom Client her,
0:23:14–0:23:16
läuft das auf dem Mac nicht.
0:23:16–0:23:22
Oder ist es zumindest nicht gelaufen. Wie gesagt, was Kevin gesagt hat, das wäre das Ziel.
0:23:22–0:23:27
Aber wieso sollte ich jetzt, wenn ich bei Microsoft als CEO wäre,
0:23:27–0:23:34
irgendjemanden dazu verdonnere, hey, du jetzt doch mal diese schöne Funktion einbinden.
0:23:34–0:23:37
Ja. Schön wäre es, es erinnert mich ein bisschen an die Browserwahl.
0:23:38–0:23:42
Aber du hast einfach schon die, natürlich geht es um das Gleiche,
0:23:42–0:23:50
um die Wahlfreiheit der Nutzer und den Hang der Tech-Konzerne uns zu bevormunden und, aber.
0:23:51–0:23:57
Ich denke, ihr habt die Logik dieser Unternehmer schon viel zu sehr verinnerlicht.
0:23:57–0:24:00
Natürlich weiss ich, dass wir in einer kapitalistischen Welt leben und die einfach
0:24:00–0:24:03
eine riesen Chance gesehen haben, Geld zu verdienen.
0:24:03–0:24:08
Natürlich, früher gab es diese Cloud nicht und jetzt gibt es diese Cloud und
0:24:08–0:24:15
jetzt verdient Apple an mir 3 Franken jeden Monat extra und das dämliche Microsoft
0:24:15–0:24:20
für das 3,65 zahle ich irgendwie 40 Stutz im Jahr oder so irgendetwas.
0:24:20–0:24:23
Das kommt einfach obendrauf und natürlich finden sie das toll,
0:24:24–0:24:28
aber es geht ja mir jetzt nicht darum, was Microsoft toll findet,
0:24:28–0:24:32
sondern mir geht es darum, wenn ich möglichst effizient kann arbeiten und darum
0:24:32–0:24:35
finde ich, müssen wir die zwingen irgendwie.
0:24:36–0:24:43
Ich will sie zwingen. Ich will noch schnell etwas einwerfen wegen der Schweizer Anbieter.
0:24:43–0:24:47
Also ich habe es angenommen, ich komme am Morgen in meinen PC und sehe,
0:24:47–0:24:49
mein OneDrive ist gesperrt.
0:24:49–0:24:52
Uh, blöd. Ja, genau, es kommt dann noch dazu.
0:24:52–0:24:57
Und dann kommt das andere, ich sage jetzt, mein Infomaniac-Dings ist gesperrt.
0:24:57–0:24:58
Dann wirst du wahrscheinlich eine
0:24:58–0:25:02
Nummer haben in Genf. Dann wirst du wahrscheinlich an das Telefon gehen.
0:25:02–0:25:06
Ich nehme, der Mitarbeiter, der Hotline wird plus minus Deutsch können.
0:25:07–0:25:10
Und unser Missverständnis. Du kannst es französisch.
0:25:10–0:25:12
Sonst nimmst du... Oder ja, das würde ich jetzt auch noch schaffen,
0:25:12–0:25:17
aber einfach, also du wirst ein Infomaniak oder eben halt ein Hetzer,
0:25:17–0:25:19
du wirst wahrscheinlich telefonisch oder per Mail noch erreichen.
0:25:20–0:25:23
Genau. Und sie werden dir Antworten geben und dann sagen, ja,
0:25:23–0:25:25
eben, Missverständnis, das Ding ist weg.
0:25:25–0:25:30
Wenn jetzt du, ich sage jetzt, deine ganzen Artikel, die du jemals geschrieben
0:25:30–0:25:35
hast, nur auf OneDrive hast und irgendwo hat es halt irgendein Wort Penis drin.
0:25:35–0:25:38
Ja, genau, dann ist es schon vorbei. Und sie dann weg sind, ja.
0:25:39–0:25:43
Ist vielleicht auch so etwas, sondern man muss sagen, in Sachen Backup würde
0:25:43–0:25:47
ich jetzt nicht noch auf einen Dienst setzen. Das kann brutal ins Auge.
0:25:47–0:25:53
Ja, also Tiggi Chris, du hast recht und du bist eigentlich auch schon im Servicebereich drin.
0:25:53–0:25:57
Und ich bin aber heute mehr so ein bisschen auf Krawallbürsten und würde lieber
0:25:57–0:25:59
einfach noch ein bisschen auf diesen Dienst.
0:25:59–0:26:02
Nein, dann Krawall ein bisschen weiter. Wir haben ja auch in den Shownotes dann
0:26:02–0:26:07
wirklich noch so zwei Beispiele verlinkt, wo eben genau das passiert ist,
0:26:07–0:26:12
wo halt so Daten verschwunden sind oder so Konten gesperrt worden sind.
0:26:12–0:26:19
Einer ist eben, wo irgendein Hacker so ein Microsoft 365 Konto gekapert hat und dann ein Mann,
0:26:19–0:26:23
ich habe den persönlich getroffen und er hat mir erzählt, wie er monatelang
0:26:23–0:26:28
versucht hat, das Debakel zu beheben und es war ein riesiges Ding.
0:26:28–0:26:32
Und wenn du jetzt eben, genau wie du sagst, wenn du jetzt da sagen könntest,
0:26:32–0:26:38
dass dort ein Schweizer dienst oder deine Nextcloud einbindet und die wird genau gleich,
0:26:39–0:26:43
braucht wie das OneDrive, dann hättest du das Risiko einfach nicht.
0:26:44–0:26:50
Und eben, Kevin, haltest du mich für naiv und für einen Träumer oder kannst
0:26:50–0:26:54
du meine Fantasie da nachvollziehen?
0:26:56–0:27:00
Nein, also, ich halte dich für naiv und ein Träumer, dass das so weit kommt.
0:27:01–0:27:05
Ich weiss aber, dass du genug clever bist, um zu wissen, was die Alternativen
0:27:05–0:27:08
sind, dass du gleich mehr oder weniger das erreichst, was du willst. Ja.
0:27:08–0:27:12
Und ich glaube, um das geht es. Also, wenn es doof ist,
0:27:13–0:27:17
dass du die Option nicht hast und dass du dich so weit mit der Materie auskennen
0:27:17–0:27:20
musst, dass du eine ähnliche Lösung anbringst, dass es eigentlich für die meisten
0:27:20–0:27:23
Leute eben kein gangbarer Weg ist, das ist ein bisschen doof.
0:27:23–0:27:29
Dass du einfach wie, du kommst die Option nicht über, obwohl die Software herrscht,
0:27:29–0:27:35
die kann sagen, okay, wir realisieren das mit einem Klick und das unterbindet es halt.
0:27:35–0:27:38
Und das ist Marktwirtschaft und das wird immer so bleiben.
0:27:39–0:27:44
Aber müssen wir jetzt, eben, wir haben über diese Browser diskutiert,
0:27:44–0:27:49
oder, dass die EU hat gefunden, man müsse diese Browser frei wählen können,
0:27:49–0:27:51
aber das ist ja eigentlich,
0:27:52–0:27:57
bevormundig, beim Browser ist ja im Grunde genommen viel kleiner, als bei diesem Cloud.
0:27:57–0:28:01
Also einen Browser selber wählen und installieren ist viel einfacher,
0:28:01–0:28:03
als das Windows dazu zu bringen,
0:28:03–0:28:10
nicht das OneDrive zu brauchen, sondern eben irgendeinen anderen Dienst und darum fände ich jetzt,
0:28:10–0:28:19
das wäre ein viel attraktiverer Betätigungsbereich für die EU als die Browser.
0:28:19–0:28:23
Nein, ist ganz klar, weil eben wenn du Windows 11 installierst,
0:28:23–0:28:27
heisst es so, wollen sie ihre Daten mit OneDrive synchronisieren,
0:28:27–0:28:33
sie haben ihre Daten dort immer aktuell bla bla bla bla bla bla Und das dir halt zeigt,
0:28:33–0:28:39
möchten Sie Ihre Daten mit der Cloud oder mit dem Internet synchronisieren,
0:28:39–0:28:41
wählen Sie Dropdown-Menü. Ja, genau.
0:28:42–0:28:50
Ich finde das auch gut, aber dann hast du wahrscheinlich 99% der Benutzer so. Hä? Nein, mag ich nicht.
0:28:50–0:28:53
Ja. Also ich verstehe dich total.
0:28:54–0:29:02
Es ist wirklich wahnsinnig schwierig, diesen Unternehmen natürlich die Regulierung aufzunötigen.
0:29:04–0:29:13
Aber dort haben wir wahrscheinlich ein Problem im Kern, bei der ganzen Facebook-Daten-Weitergeben-Geschichte
0:29:13–0:29:18
haben wir das Problem auch gehabt, dass die Leute, die in diesen Gremien sitzen,
0:29:19–0:29:21
in diesen Verwaltungen sitzen, die diese Entscheidungen treffen,
0:29:22–0:29:24
die verstehen das technisch nicht.
0:29:24–0:29:28
Den Browser haben sie auf dem Desktop. Das verstehen sie noch so ansatzweise.
0:29:29–0:29:33
Aber wenn du jetzt sagst, beim Installieren hätten wir gerne die Auswahl,
0:29:33–0:29:36
welcher Cloud-Dienst, dann ist es schon vorbei.
0:29:36–0:29:39
Die wissen gar nicht, um was es geht.
0:29:40–0:29:45
Darum bist du bei technischen Sachen an so einer einfachen Basis.
0:29:45–0:29:51
Es wundert mich, dass sie das mit den USB-C Anschlüssen geschafft haben.
0:29:52–0:29:59
Genau, und dass du jetzt nur noch ein Ladekabel für deine Handys nehmen kannst.
0:29:59–0:30:01
Und so. Ja, das wundert mich ehrlich gesagt auch.
0:30:01–0:30:07
Aber ich weiss es auch nicht. Aber Digi-Chris, ich habe dir jetzt deine Sendung ein bisschen.
0:30:09–0:30:13
Mit meinem Aktivismus in Beschlag genommen.
0:30:14–0:30:18
Was meinst du, über was müssen wir noch reden in den letzten 5 Minuten ungefähr
0:30:18–0:30:20
bei diesen Cloud-Sachen?
0:30:21–0:30:27
Also wie gesagt, ja, eben Datenschutz.
0:30:27–0:30:35
Also jetzt Agna, du Du machst deine Steuererklärung, machst das PDF daraus und
0:30:35–0:30:40
schmeisst es auf Dropbox, OneDrive, Listan, Satinadella.
0:30:40–0:30:47
Glaubst du, das liest das mit? Wird das irgendwie gescannt oder sind wir dann da paranoid?
0:30:47–0:30:51
Nein, das wird ganz klar gescannt. Das wird alles automatisch gescannt,
0:30:51–0:30:57
auch von diesen Kinderporno-Scanner, wenn man das so sagen darf.
0:30:57–0:31:01
Also da werden nach bekannten Mustern gesucht und eben, wir wissen auch von
0:31:01–0:31:03
Google, dass wenn da eben zum Beispiel,
0:31:03–0:31:08
da hat es eben den Fall gegeben von dem Arzt oder von dem Vater,
0:31:08–0:31:13
der ein Foto gemacht hat vom Geschlechtsteil von seinem Kind,
0:31:13–0:31:19
weil er dort den Buben ausschlagen konnte und dann hat er das ausgeladen und
0:31:19–0:31:21
seine Hand war noch mit im Bild.
0:31:22–0:31:26
Das hat für Google so ausgesehen, als ob da Kinderpornografie im Spiel wäre.
0:31:26–0:31:32
Und zack, sein Konto war geschlossen und er hatte monatelang, bis er wieder da war.
0:31:32–0:31:38
Und er ist, glaube ich, sogar die Polizei ist vorbeigekommen. Also ja, wird gescannt.
0:31:38–0:31:42
Jetzt frage ich mich einfach, oder wenn du jetzt, keine Ahnung,
0:31:42–0:31:46
oder wenn jemand mit seiner Frau halt in der Scheidung ist und irgendwie einfach,
0:31:47–0:31:50
ich sage jetzt, die Anwaltsschreiber auf Dropbox knallt.
0:31:51–0:31:52
Interessiert das Dropbox?
0:31:54–0:31:57
Kommst du dann, oder bei Google, einfach, kommst du dann her,
0:31:57–0:31:59
bin ich vom Scheidungsanwalt-Typer?
0:31:59–0:32:01
Also, ja, zum ein bisschen ganz paranoiiert sein.
0:32:01–0:32:05
Anwalt und Tinder. Also ich glaube Microsoft macht das bis jetzt nicht,
0:32:05–0:32:13
aber wenn du sie ja jetzt auch, wenn du ihr Outlook.com brauchst in der Gratisversion, da machen sie das.
0:32:13–0:32:18
Google zu den besten Zeiten, da kommst du dann auch Werbung über in deinem Postfach und alles.
0:32:18–0:32:23
Also ich würde sagen, nein, standardmässig interessieren sie sich nicht für diese Schreiben.
0:32:24–0:32:28
Aber du weisst natürlich nicht, ob sich das mal ändern kann,
0:32:28–0:32:37
ob irgendwie mal halt irgendein Mitarbeiter selber ein Nebengeschäft aufmacht oder ob du eine Lücke,
0:32:37–0:32:44
ein Eindringling erlaubt, dann deine Daten zu nehmen und zu verwerten, wie auch immer.
0:32:44–0:32:49
Also diese Abhängigkeit, die ist halt schon da. Und da haben wir ja früher das
0:32:49–0:32:53
Boxcryptor empfohlen, wo du dann selber noch mal verschlüsseln konntest.
0:32:54–0:32:59
Und das ist halt jetzt inzwischen auch weg vom Fenster. Und das ist ein bisschen...
0:32:59–0:33:01
Es gibt einen Ersatz, den ich allerdings noch nie getestet habe.
0:33:01–0:33:05
Es ist nicht so, dass du bei der iCloud... Es gibt ja, glaube ich,
0:33:05–0:33:07
Ende-zu-Ende-Verschlüsselung.
0:33:07–0:33:11
Und da hast du ein Passwort. Und ich glaube, das glaube ich jetzt Apple auch,
0:33:11–0:33:15
weil Apple macht Geld mit überteuerten Hardware und nicht mit deinen Daten.
0:33:16–0:33:21
Aber wenn du dann dein Passwort vergessen hast, dann ist Game Over, dann ist alles weg.
0:33:21–0:33:25
Ja, bei den Fotos ist es ein bisschen knifflig, oder? Werden die inzwischen
0:33:25–0:33:28
auf dem Gerät... Doch, die werden auf dem Gerät verschlagt worden.
0:33:28–0:33:32
Das kann sein. Also ich habe jetzt wirklich ein iCloud Drive mit den Daten.
0:33:34–0:33:38
Und dann musst du auch tatsächlich, wenn du das aktivierst, auf jedem IOS-Gerät
0:33:38–0:33:41
noch ein Passwort eingeben und so.
0:33:41–0:33:45
Und wenn du jetzt halt eben, sehe ich bei mir ein Geschäft, sollte ich mal mein
0:33:45–0:33:50
Windows-Passwort vergessen, kann mir die Local-IT das zurücksetzen und es geht wieder.
0:33:50–0:33:55
Und ja, wie gesagt, man kann von Apple halten, was man will,
0:33:55–0:34:00
aber ich glaube, dass Apple die Privacy noch am höchsten von allen hält.
0:34:00–0:34:06
Und vielleicht auch eben, ich kenne niemanden von Maniac, aber ich glaube,
0:34:06–0:34:11
dass die haben wahrscheinlich auch kein Interesse, jetzt irgendwie grosse Daten zu scannen.
0:34:12–0:34:17
Klar, wenn die vom halt, wahrscheinlich überhaupt der Jans ist Justizminister,
0:34:17–0:34:21
wenn Herr Jans anklopft, dann wäre das wahrscheinlich das Zeug aus der G.
0:34:21–0:34:26
Natürlich, die sind ja gesetzbunden und wenn sie es nicht endzuend verschlüsseln,
0:34:26–0:34:27
dann haben sie keine Chance.
0:34:27–0:34:30
Also das ist so, wir müssen an dieser Stelle, glaube ich, wirklich aufhören.
0:34:30–0:34:35
Und voll, wir sind mitten in der Diskussion noch steckend. Ich glaube,
0:34:35–0:34:41
ein Problem ist auch tatsächlich, dass von aussen wirklich zu entscheiden, auch in der iCloud,
0:34:41–0:34:45
welche von deinen Dateien sind end-zu-end verschlüsselt, welche nicht,
0:34:45–0:34:49
das kannst du eigentlich fast nicht entscheiden, wenn du nicht extrem tief in
0:34:49–0:34:51
die Materie einschaffst.
0:34:52–0:34:54
Und das ist ein grundsätzliches Problem.
0:34:54–0:34:59
Kevin, ich würde sagen, du hast das famous last word in dieser Sendung,
0:34:59–0:35:02
Cloud Sind wir zu weit gegangen?
0:35:03–0:35:06
Hat das Überhand genommen? Müssten wir einen Befreiungsschlag machen?
0:35:06–0:35:09
Oder müssen wir leben, wie es jetzt halt ist?
0:35:10–0:35:15
Ich glaube, es ist wie mit allem in der IT. Wenn man die bessere Endlösung haben
0:35:15–0:35:18
will, muss man sich mehr darum kümmern. Es ist nie der einfache Weg.
0:35:19–0:35:21
Und das ist wahrscheinlich mit der Cloud genau das Gleiche.
0:35:23–0:35:25
Nerdfunk. Wenn ihr den Nerdfunk.
0:35:25–0:35:35
Music.

In den letzten Jahren sind sie zu einem unverzichtbaren Bestandteil des Computer-Alltags geworden: die Datenwolke. Sie ist auch bekannt unter der wolkigen Bezeichnung «die Cloud» – die übrigens daher rührt, dass in Diagrammen zu Sachverhalten aus dem Bereich der Telekommunikation das Internet gern als Wolke dargestellt wurde.

Aber mal ganz direkt gefragt: Ist das eine gute Entwicklung? Ohne Zweifel vereinfacht die Cloud vieles: Wir müssen keine Daten mehr via Kabel vom Computer aufs Smartphone schieben oder umgekehrt (die letzte Kummerbox lässt grüssen). Das Problem mit knappem Speicherplatz ist fast verschwunden. Und auch Bilder, Dokumente und selbst riesige Datenmengen lassen sich mit anderen Leuten teilen, ohne dass wir USB-Sticks oder – Göttin bewahre! – selbst gebrannte DVDs durch die Gegend schicken müssten.

Die Cloud hat auch ihre Schattenseiten: Die Hersteller verzahnen ihre Internetdienstleistungen so eng mit Computern, Smartphones und Betriebssystemen, dass unsere Abhängigkeit wächst und wir nicht darum herumkommen, unseren monatlichen Obolus fürs Datenguthaben zu entrichten. Es gibt keine Interoperabilität und wie gross unsere Abhängigkeit ist, das wird uns in einem kleinen Gedankenexperiment schnell bewusst – sobald wir uns vorstellen, wie es wäre, wenn wir keinen Zugang mehr zu unseren Accounts hätten.

Wir sprechen heute kritisch über die Cloud: Wie wir sie nutzen, was wir schätzen – und wo wir die Probleme verorten. „Wenn uns die Cloud im Regen stehen lässt“ weiterlesen

Müssen Chatbots Lehrgeld zahlen?

Transkript anzeigen (falls vorhanden)

0:00:02–0:00:09
Matt Villen featuring Matt mit Raid und da ist Radio Stadtfilter.
0:00:09–0:00:22
Music.
0:00:11–0:00:16
Nerdfunk. Herzlichst willkommen zum Nerdfunk.
0:00:17–0:00:21
Nerdfunk. Ihr Nerd am Mikrofon, der Matthias Schüssler.
0:00:22–0:00:28
Ist es eigentlich okay, dass die Tech-Unternehmen das ganze Web so als Trainingswesen
0:00:28–0:00:32
brauchen für ihre Bots und Bildgeneratoren oder ist das dann vielleicht ein
0:00:32–0:00:35
Betrug an diese Urheberinnen und Urheber,
0:00:35–0:00:40
die ihr Wissen und ihre Kreativität und ihre Werke zur Verfügung stellen,
0:00:40–0:00:45
damit eben die Bots trainiert werden können und dann oftmals hinterher gegen
0:00:45–0:00:49
Geld so tun, wie wenn sie alles wüssten oder alles könnten.
0:00:50–0:00:53
Oder müssten eigentlich die Tech-Unternehmen die Menschen entschädigen,
0:00:53–0:01:00
die das Material zur Verfügung stellen, das sie für ihr Training von ihren KI-Modellen verwenden.
0:01:00–0:01:05
Hier im Studio ist Andreas Vog unten. Und der, wenn ich dich zitieren darf,
0:01:05–0:01:11
hält die Idee, dass man die Urheber für eine Schnappsidee entschädigen müsste.
0:01:11–0:01:16
Weil die KIs, wenn ich dich richtig verstanden habe, die brauchen diese Informationen,
0:01:16–0:01:18
so wie wir Menschen brauchen, wenn wir lernen.
0:01:19–0:01:24
Und darum ist es eigentlich nicht angebracht. Wir sind uns dann auf LinkedIn
0:01:24–0:01:28
ein wenig die Haare geraten, weil ich habe gefunden, ich kann eigentlich dieser
0:01:28–0:01:32
Idee schon etwas abgewinnen und jetzt, auf LinkedIn kann man einfach nicht gut
0:01:32–0:01:33
streiten, oder Andreas?
0:01:34–0:01:42
Darum führen wir es jetzt hier im Radiostudio unter Echtzeit und unter realen Bedingungen weiter.
0:01:42–0:01:47
Also warum findest du das, ich habe es jetzt ein bisschen lapidar oder plakativ
0:01:47–0:01:49
zusammengefasst, warum findest du das eine Schnapps-Idee?
0:01:49–0:01:52
Weil eigentlich liegt es doch auf der Hand, dass man diese Forderung aufstellen kann.
0:01:53–0:01:57
Ja, ich muss gerade schauen, wo ich am besten anfange. Also zuerst einmal,
0:01:57–0:02:02
hoi Matthias, danke, dass ich bei dir sein darf. Gerne, ich freue mich, dass du da bist.
0:02:02–0:02:04
Ich finde es interessant, dass wir die Diskussion hier weiterführen.
0:02:04–0:02:07
Ich finde es übrigens auch lässig, dass so etwas passiert im Netz,
0:02:07–0:02:10
dass man irgendwo diskutieren will und dann führt man sie noch einmal anders
0:02:10–0:02:13
weiter. und finde es toll, dass du das hier anbietest und dass wir das machen können.
0:02:13–0:02:17
Um auf deine Frage zurückzukommen, es geht eigentlich um Folgendes.
0:02:18–0:02:21
Die Generatoren, also die generative KI, von der wir hier im Moment sprechen,
0:02:22–0:02:27
die funktioniert ja eigentlich so, dass sie möglichst viele Informationen verarbeitet
0:02:27–0:02:32
und dort statistische Verhältnisse herstellt zwischen verschiedenen Chunks,
0:02:33–0:02:37
Informationschunks, ob das Texte sind oder Bildmaterial oder Audio oder Video.
0:02:37–0:02:42
Die statistischen Daten, die hier entstehen, können wiederum dazu helfen,
0:02:43–0:02:45
neue Sachen zu generieren,
0:02:47–0:02:50
lustigerweise und interessanterweise und ich glaube für alle erstaunlicherweise
0:02:50–0:02:53
tatsächlich etwas Sinnvolles erkennt.
0:02:53–0:02:57
Was da passiert, ist eigentlich, dass wir einen Schritt weiter kommen zum alten
0:02:57–0:03:03
Traum, der uralte Traum, den wir seit der Bibliothek von Alexandria haben,
0:03:03–0:03:10
dass wir Menschen das komplette Wissen von allen zusammen jederzeit allen zur
0:03:10–0:03:12
Verfügung stellen können, dass wir das immer im Zugriff haben.
0:03:12–0:03:15
So sind Bibliotheken entstanden, dass Die Idee der Bibliothek,
0:03:15–0:03:19
und das war letztendlich das Grossartige am Anfang vom Netz,
0:03:19–0:03:21
vom Web, die Idee, dass dort alles zusammenkommt.
0:03:22–0:03:26
Und mit dieser generativen KI gibt es jetzt einen neuen Aspekt, der dazukommt.
0:03:26–0:03:30
Bis jetzt mussten wir nach Informationen suchen mit einer Suchmaschine.
0:03:30–0:03:34
Und die Informationen, die andere Leute ins Netz gestellt haben,
0:03:34–0:03:38
konnten wir finden und sich dort Antworten zusammensuchen zu den Fragen,
0:03:38–0:03:40
zu den persönlichen, die man hat.
0:03:40–0:03:44
Und das hat oft so funktioniert, dass man einen Suchbegriff oder einen Suchsatz
0:03:44–0:03:46
oder eine ganze Frage gibt und dann hat man halt die Liste bekommen von diesen
0:03:46–0:03:49
Links und ist auf diese Links und das hat sehr viel Aufwand gegeben,
0:03:49–0:03:54
ihnen anzugehen, diese Sachen anzuschauen. und jetzt ist es genial.
0:03:54–0:03:56
Jetzt kann man sich vorstellen, natürlich ist jetzt noch vieles,
0:03:56–0:04:00
wir haben noch Probleme mit Halluzinierungen usw. Das kann man alles lösen irgendwann.
0:04:00–0:04:03
Aber am Schluss muss man sich klar werden, jetzt ist die Idee da,
0:04:03–0:04:09
dass man eigentlich alles, was je geschrieben worden ist, zusammenfasst und
0:04:09–0:04:12
verfügbar macht für alle. Und das ist das Grossartige.
0:04:12–0:04:18
Genau, das ist deine Vision von der offenen Wissensgesellschaft und vom Wissen,
0:04:18–0:04:20
das niemand besitzt und das allen gehört. gehört.
0:04:20–0:04:25
Und ich glaube, an diesem Punkt sind wir uns absolut einig, weil das ist auch
0:04:25–0:04:27
meine Vision. Ich finde die super toll.
0:04:27–0:04:30
Und um dich noch schnell vorzustellen, du.
0:04:32–0:04:37
Vertrittst das ja auch als Verleger, dass du die Idee hast, dass das Wissen
0:04:37–0:04:39
möglichst offen und frei zugänglich sein muss.
0:04:39–0:04:42
Du bist auch beim Verein der Digitalen Gesellschaft.
0:04:43–0:04:47
Die setzt sich auch ein für Offenheit, Grundrecht, Menschenrecht im Netz.
0:04:47–0:04:53
Und du bezeichnest dich als linksliberaler humanist und ich glaube,
0:04:53–0:04:56
du bist genau der Richtige, um zu diskutieren.
0:04:56–0:05:00
Und ich würde dir absolut recht geben, wenn es jetzt da nicht einfach,
0:05:00–0:05:05
wenn ich jetzt da nicht den Hang von diesen Tech-Konzernen würde sehen,
0:05:05–0:05:12
die sagen, die haben nicht die Wissensgemeinschaft und unser aller Nutzen im Sinn,
0:05:12–0:05:16
sondern die wollen das Wissen, ich sage es jetzt ein bisschen überspitzt,
0:05:16–0:05:19
aber vielleicht ist es gar nicht überspitzt, bei Google, denke ich,
0:05:20–0:05:27
Die wollen das monopolisieren, die wollen die Gatekeeper sein von diesem Wissen
0:05:27–0:05:30
und jeder der davon partizipieren will,
0:05:30–0:05:37
der muss ihnen entweder Daten oder Geld liefern oder etwas zu gut tun,
0:05:37–0:05:39
damit sie noch grösser, stärker und mächtiger werden.
0:05:41–0:05:50
Ich glaube, das funktioniert für mich nicht und man muss irgendwie die Tech-Konzerne davon abhalten,
0:05:50–0:05:55
das Menschheitswissen für sich zu vereinnahmen und dann uns wieder zu verkaufen,
0:05:55–0:05:57
obwohl wir es ihnen ja ursprünglich zur Verfügung gestellt haben.
0:05:59–0:06:06
Sie müssen dafür zahlen, wenn sie die Daten verwenden oder aktiv verwerten.
0:06:06–0:06:09
Das ist die einfachste Variante.
0:06:09–0:06:14
Vielleicht gibt es eine bessere. Aber warum fangen wir nicht mal bei der einfachsten
0:06:14–0:06:16
Variante an und sagen, die müssen einfach zahlen, wenn sie etwas nehmen?
0:06:17–0:06:22
Du hast einen ganz wichtigen Punkt gebracht und da sind wir uns auch wieder einig.
0:06:22–0:06:28
Man muss verhindern, dass Grosskonzerne das Wissen von dieser Welt monopolisieren
0:06:28–0:06:33
und selber für sich quasi nur noch entscheiden, wer das nutzen kann und wie
0:06:33–0:06:33
das genutzt werden kann.
0:06:33–0:06:39
Und genau darum müssen wir beim Urheberrecht dafür sorgen, dass das nicht passiert.
0:06:39–0:06:42
Also genau das ist der Grund, warum alle diese Urheberrechtsrevisionen,
0:06:42–0:06:46
die jetzt auch wieder wieder angezeigt werden, wegen dieser ganzen Geschichte,
0:06:46–0:06:50
am Schluss genau für das da sind, damit Konzerne monopolisieren können.
0:06:50–0:06:54
Jede Urheberrechtsrevision, die wir jetzt gehabt haben, hat immer den Urheber
0:06:54–0:06:57
vor den Karren gespannt, aber letztendlich Rechte geschaffen,
0:06:58–0:07:03
die von den Grosskonzernen kapitalisiert und monopolisiert werden können.
0:07:03–0:07:06
Und wenn wir jetzt etwas verhindern müssen, dann ist es vor allem das.
0:07:06–0:07:09
Das ist das Allerwichtigste, bevor wir noch einmal darüber reden,
0:07:09–0:07:10
ob wir jetzt für Trainingsdaten zahlen müssen.
0:07:11–0:07:17
Das Allerwichtigste ist das, die Tendenz wird die sein, dass die grossen Konzerne, wie OpenAI,
0:07:17–0:07:22
Google usw., im Einklang mit den grossen Verlagskonzernen verlangen,
0:07:22–0:07:27
dass die KI-generierten Inhalte auch urheberrechtlich geschützt werden können.
0:07:28–0:07:32
Das würde dazu führen, dass am Schluss die komplette Kommunikation der Menschheit
0:07:32–0:07:34
in den Händen ein paar weniger Konzerne ist.
0:07:34–0:07:37
Dass bei jeder Nutzung einer dieser Konzerne etwas verdient.
0:07:38–0:07:40
Und das ist nur möglich wegen des Urheberrechts.
0:07:40–0:07:42
Also die Monopolisierung von Wissen,
0:07:42–0:07:47
entsteht erst dadurch, dass man mit dem Urheberrecht eben genau so ein Monopolrecht
0:07:47–0:07:50
schafft. Und dass man sagt, die Urheber haben etwas davon.
0:07:50–0:07:55
Das ist die grösste Farce, seit wir in der Aufklärung sind, weil das stimmt einfach nicht.
0:07:55–0:08:01
99,9% der Urheber, heute schon, und Urheberinnen, haben nichts vom Urheberrecht,
0:08:01–0:08:02
ausser ein paar Brosamen.
0:08:02–0:08:05
Es ist immer so, dass das Urheberrecht niemandem anderen hilft,
0:08:05–0:08:10
als denen, die zauberst oben sind, also die am allermeisten schon sonst verdienen,
0:08:10–0:08:14
die eigentlich die grossen Stars sind bei den UrheberInnen und vor allem in
0:08:14–0:08:18
den Verlagskonzernen, in welcher Branche auch immer, ob Musikbücher,
0:08:18–0:08:20
Filme usw., das sieht man überall.
0:08:20–0:08:22
Darum hat man eine Konzentration von drei, vier Konzernen pro Branche.
0:08:23–0:08:26
Und die sind die Einzigen, die in der Masse monetarisieren können.
0:08:26–0:08:30
Und jetzt neu kommen noch die Digitalkonzernen dazu, die gerne auch noch alle
0:08:30–0:08:33
Äußerungen, die man in Zukunft macht, durch Lizenzen monetarisieren können.
0:08:33–0:08:35
Genau. Wir müssen dagegen sein.
0:08:36–0:08:43
Ja, das war ein super Plädoyer und ich glaube, ich verstehe, wie du das meinst.
0:08:43–0:08:46
Aber wie kommen wir denn dort hin?
0:08:46–0:08:51
Wir können ja nicht das Urheberrecht jetzt auflösen.
0:08:53–0:09:00
Schildere mir an deiner Stelle, wie deine Vorstellung aussehen würde,
0:09:00–0:09:03
wie das Urheberrecht organisiert sein müsste.
0:09:03–0:09:06
Gäbe es das einfach gar nicht, würden wir das einfach abschaffen?
0:09:08–0:09:14
Wie kommen dann die Urheber, wenn ich einen Blogbeitrag schreibe, zum Geld?
0:09:14–0:09:17
Ich muss ja trotz allem von irgendetwas am Leben am Schluss.
0:09:17–0:09:21
Genau. Das Erste, was wir klarstellen müssen, das ist wichtig,
0:09:21–0:09:23
und ich will dir gar nicht zu nahe treten, weil ich bin auch ein Blogger wie du.
0:09:24–0:09:28
Du verdienst von deinen Blogbeiträgen auch jetzt kein Geld wegen des Urheberrechts.
0:09:28–0:09:30
Das ist so. Das Urheberrecht bringt dir im Moment gar nichts.
0:09:31–0:09:34
Und das ist wichtig. Und ja, um deine erste Frage ganz kurz beantworten zu können.
0:09:34–0:09:38
Ja, ich bin persönlich der Meinung, das Urheberrecht müssten wir eigentlich abschaffen.
0:09:38–0:09:43
Also Intellectual Property is Common Property ist der Titel meiner Masterthesis.
0:09:43–0:09:46
Und ich bin der Meinung, das Urheberrecht, es gibt gar nichts so etwas wie ein
0:09:46–0:09:51
geistiges Eigentum, weil letztendlich der Kreativprozess immer ein interpersoneller
0:09:51–0:09:54
Prozess ist, dass es eigentlich nichts gibt, das nicht mit anderen zusammenhängt,
0:09:54–0:09:57
mit anderen Austausch letztendlich stattgefunden hat.
0:09:57–0:10:00
Selbst wenn das am Schluss bei mir rauskommt. Ich mache immer das Beispiel von Picasso.
0:10:01–0:10:04
Der Pablo Picasso, wenn er allein auf einer Insel aufgewachsen wäre,
0:10:04–0:10:09
und keinen Kontakt zu anderen Kulturen hätte, wäre seine Malerei nie bei ihm entstanden.
0:10:10–0:10:12
Sie wäre aber wahrscheinlich bei jemand anderem entstanden. Man muss sich das
0:10:12–0:10:17
vorstellen wie ein riesiges Netzwerk von verknüpften Hirnen über Zeit und Ort
0:10:17–0:10:20
hinweg, das natürlich mittlerweile durch die Internetvernetzung noch viel schneller
0:10:20–0:10:21
und dynamischer funktioniert.
0:10:21–0:10:25
Und bei irgendjemandem kommt jeweils ein Fass zum Überlaufen mit einem Tropfen,
0:10:25–0:10:27
der dann das Werk rausgibt.
0:10:27–0:10:30
Das merkt man auch, wenn man mit Künstlern Interviews liest von Künstlerinnen
0:10:30–0:10:33
und Künstlern, der Name sagt, wenn man fragt, wie ist das entstanden?
0:10:33–0:10:36
Ja, ich weiss auch nicht, das ist mir einfach zugefallen. Mose hat mich geküsst oder was weiss ich.
0:10:37–0:10:39
Der Malo, der zum Beispiel in den 80er Jahren einen grossen Hit hatte.
0:10:40–0:10:42
Ich weiss jetzt gerade den Namen nicht mehr, ein Pop-Hit, den ich extrem gerne
0:10:42–0:10:47
gehört habe, der lebt seit den 80er Jahren in Hamburg von der Tante Jeme, von dem Hit.
0:10:47–0:10:50
Und wenn man ihn fragt, wie ist das entstanden? Ich habe heute 10 Minuten geschrieben.
0:10:51–0:10:54
Und ich mache ihm das gönnen. Versteht mich nicht falsch, ich mache ihm das gönnen.
0:10:54–0:10:56
Um das geht es überhaupt nicht, sondern es geht mir nur darum.
0:10:57–0:10:59
Urheberrecht hat nichts mit dem Arbeitstum, die man reinsteckt,
0:10:59–0:11:02
sondern nur mit dem Umverteilen.
0:11:02–0:11:06
Pro Nutzung. Und jetzt wichtig, wie sieht die Welt auch überreicht aus?
0:11:06–0:11:11
Sie sieht so aus, dass eigentlich alle Leute alle Werke jederzeit nutzen können
0:11:11–0:11:14
und das würde dazu führen, dass man einen viel höheren Output an kultureller
0:11:14–0:11:18
Produktion hätte und man müsste jetzt Geld anders verdienen.
0:11:18–0:11:21
Anders heisst zum Beispiel das, was jetzt auch passiert, was auch Musiker und
0:11:21–0:11:22
Musikerinnen machen live.
0:11:22–0:11:27
Anders kann Zugang heissen zu jemandem. Du könntest zum Beispiel ein Membership
0:11:27–0:11:30
machen, wo man mit dir über Sachen diskutieren kann, wenn du in einem bestimmten
0:11:30–0:11:33
Gebiet wirklich gut bist, weil das, was du schreibst in deinem Blog,
0:11:33–0:11:34
hast du nicht du alleine geschrieben,
0:11:34–0:11:37
das, was du schreibst in deinem Blog, du wirst ja nicht der Einzige sein,
0:11:37–0:11:40
der zum Beispiel über irgendein Produkt etwas schreibt. Nein, leider nicht, ja.
0:11:40–0:11:45
Und dann, wenn du dir jetzt die Generative KI vorstellst, die deinen Text verwendet,
0:11:45–0:11:48
dann verwenden sie ja alle anderen Texte auch dazu und wenn nachher irgendein
0:11:48–0:11:52
Thema, ein Faktum quasi aus dieser KI generiert wird,
0:11:52–0:11:56
mag das zwar sein, dass dein Beitrag einen Teil dazu beiträgt hat,
0:11:56–0:11:59
dass das dann so rauskommt, aber es ist halt nur ein kleiner Teil.
0:12:00–0:12:05
Und diese kleine Teilwelle zu entlöhnen, ist mit so viel Aufwand verbunden und
0:12:05–0:12:09
Restriktionen, dass am Schluss die KI-Modelle nur noch funktionieren können,
0:12:09–0:12:12
indem mit den grossen von den grossen Lizenzen geschlossen werden.
0:12:13–0:12:16
Und jetzt kommt etwas Wichtiges. Das führt dazu, dass die Open-Source-Modelle,
0:12:16–0:12:18
die immer wichtiger werden, diese Probleme bekommen.
0:12:18–0:12:24
Deshalb ist es auch interessant zu verstehen, wenn Google und OpenAI und Microsoft
0:12:24–0:12:30
verlangen, dass sie als KI-Anbieter reguliert werden, dann muss bei uns die Alarmglocke losgehen.
0:12:30–0:12:33
Wenn ein Konzern reguliert werden möchte, dann will er nicht reguliert werden,
0:12:33–0:12:37
weil es für die Gesellschaft wichtig ist, sondern weil es für den Konzern wichtig ist.
0:12:37–0:12:40
Monopol. Das ist etwas, was Peter Thiel mal geschrieben hat.
0:12:41–0:12:45
«Competition is for Losers» und das ist ihre Idee.
0:12:45–0:12:48
Und wir müssen schauen, dass Wettbewerb weiterhin besteht.
0:12:49–0:12:51
Wettbewerb von den Ideen und auch Wettbewerb von den Modellen.
0:12:52–0:12:55
Und die dürfen wir ja nicht einschränken, indem man so Urheberrechtsgesetze
0:12:55–0:12:57
macht, die dazu führen, dass die gar nicht mehr entstehen können.
0:12:57–0:12:59
Aber da sind wir an diesem Punkt ja nicht.
0:12:59–0:13:03
Wir sind nicht beim Wettbewerb von den Modellen, sondern das OpenAI war mal
0:13:03–0:13:08
da und hat plötzlich so eine Dominanz gehabt.
0:13:08–0:13:12
Also wir sehen Google, wenn du Wenn du das Paar anschaust, schafft es dich nicht,
0:13:12–0:13:14
gegen die OpenAI anzustinken.
0:13:15–0:13:19
Und dann kannst du ja geschweige dann irgendwie... Wir beiden können nicht irgendeine
0:13:19–0:13:27
KI aus dem Boden stampfen und dann erwarten, dass wir gegen OpenAI antreten
0:13:27–0:13:28
können. Nein, nein, das ist klar.
0:13:28–0:13:33
Also wir können alleine natürlich kein Foundation-Modell trainieren. Das ist richtig.
0:13:33–0:13:38
Aber es gibt bereits jenseits derer trainierte Modelle, die von anderen draussen
0:13:38–0:13:41
sind. Zum Beispiel von Stable Diffusion, erstaunlicherweise auch von Meta.
0:13:42–0:13:44
Ich muss ehrlicherweise zugeben, dass das natürlich von ihm her,
0:13:44–0:13:48
vom Zuckerberg her, einfach die letzte mögliche Strategie noch war,
0:13:48–0:13:50
nachdem sie wahrscheinlich das irgendwie verpennt haben, das halt so zu machen.
0:13:51–0:13:53
Mit dem Meta wäre es um ein bisschen aufs falsche Ross gesetzt.
0:13:53–0:13:55
Ja, aber weil sie gemerkt haben, das ist wahrscheinlich eine gute Möglichkeit,
0:13:55–0:13:58
um den anderen das Beibisschen, wir bringen unser Modell Open Source raus.
0:13:59–0:14:01
Aber für die Open Source Community ist das eigentlich eine gute Sache.
0:14:01–0:14:03
Und wenn du schauen willst, man darf das nicht unterschätzen,
0:14:03–0:14:08
es gibt im Moment eine unglaublich grosse Open Source LLM Community.
0:14:08–0:14:13
Und die wächst und die Modelle, man geht davon aus, dass eigentlich dieses Jahr die.
0:14:14–0:14:19
Das erste Mal wird passieren, dass Open Source Modelle gleich sind wie Closed Source Modelle.
0:14:20–0:14:23
Man geht darum auch davon aus, dass ChatGPT 5 das Jahr unbedingt kommen muss,
0:14:23–0:14:26
weil wir sehr bald wieder Open Source Modelle haben, die ChatGPT 4 schlagen werden.
0:14:26–0:14:29
Und das ist eine grossartige Neuigkeit.
0:14:29–0:14:33
Das ist wichtig für uns, um zu verstehen, die Large Language Models,
0:14:33–0:14:37
also die Foundation Models, die können trainiert werden von anderen. Das wird auch gemacht.
0:14:37–0:14:40
Es gibt Plattformen, wo man sich austauschen kann, wo die Modelle heruntergeladen
0:14:40–0:14:43
werden können. Es gibt Möglichkeiten nachher wieder für andere Firmen,
0:14:43–0:14:45
Das gibt es auch schon, jeden Dienstag zum Teil.
0:14:45–0:14:47
Und da frage ich mich auch wir in Europa, wir sind einfach so neben den Schuhen,
0:14:47–0:14:53
wir überlegen uns nur immer, wie können wir regulieren, während rundherum Firmen entstehen.
0:14:53–0:14:57
An den Tupac, und zwar lustig, in Amerika und in Kanada gibt es schon etwa fünf
0:14:57–0:15:00
Firmen, die über ein Milliard bewertet sind, die nichts anderes machen als Open
0:15:00–0:15:05
Source LLMs zu nehmen und diese via API auf eine saubere Infrastruktur zur Verfügung zu stellen.
0:15:05–0:15:08
Das ist etwas, was auch Swisscom machen könnte oder die Deutsche Telekom,
0:15:09–0:15:09
warum machen die das nicht?
0:15:10–0:15:12
Sondern man überlegt sich die ganze Zeit, wie man das regulieren kann,
0:15:13–0:15:16
statt dass wir einfach hergehen und Plattformen herstellen.
0:15:16–0:15:19
Und sagen, wir nehmen die Open Source Modelle, das sind unsere API,
0:15:19–0:15:20
wir machen es nachher besser.
0:15:21–0:15:25
Aber wir pennen einfach, wir pennen und jammern und haben das Gefühl,
0:15:26–0:15:30
die Welt wird besser, wenn wir irgendwie das Gefühl haben, wir dürfen das am besten einschränken.
0:15:30–0:15:32
Da liegen wir völlig falsch, wir kommen völlig auf die Welt,
0:15:32–0:15:33
wenn wir das nicht endlich begreifen.
0:15:33–0:15:37
Wir müssen das freilassen, wir müssen das laufen lassen. Natürlich müssen wir
0:15:37–0:15:40
es begleiten, natürlich müssen wir aufpassen, aber wir dürfen auf keinen Fall
0:15:40–0:15:44
jetzt mit so Ideen wie Urheberrecht eingreifen und diesen grossen Konzernen
0:15:44–0:15:46
durch das Macht in die Hände geben, die Welt zu beherrschen.
0:15:46–0:15:52
Aber glaubst du nicht, dass wir, wenn wir zu deinem Punkt kommen.
0:15:53–0:15:59
Die Übergangszeit überbrücken, ohne dass die Leute, die jetzt schon wenig mit
0:15:59–0:16:02
ihren Inhalten verdienen, dann gar nichts mehr verdienen?
0:16:02–0:16:07
Weil es ist ja tatsächlich so, wenn du einfach zum Chat-GPT gehst oder zum Microsoft
0:16:07–0:16:13
Co-Pilot und dem kannst du eine Frage stellen und er beantwortet sie dir.
0:16:13–0:16:16
Vielleicht, ich sage es jetzt einfach mal, mit Informationen,
0:16:16–0:16:20
die er auch aus meinem Blog hat, dann klickt sich niemand mehr zu meinem Blog
0:16:20–0:16:24
durch und dann die Werbung, diese kleine Werbung, die ich noch vorher verdient
0:16:24–0:16:25
habe, das ist dann völlig weg.
0:16:25–0:16:31
Also ich sehe schon, im unmittelbaren Moment sorgen die dafür,
0:16:31–0:16:37
dass die Webseiten, die eh schon getarbt haben, einfach gar keine Existenzberechtigung mehr haben.
0:16:37–0:16:42
Und ich sehe da eine Gefahr von einer riesen Verarmung, dass einfach wirklich
0:16:42–0:16:45
viele Leute empfinden, ja, es bringt gar nichts mehr.
0:16:45–0:16:50
Oder auch kleine Verlage finden, wenn gar niemand mehr sich zu uns durchklickt
0:16:50–0:16:54
und vielleicht dann mal noch ein PDF kauft, dann können wir unser Geschäft einfach
0:16:54–0:16:55
vergessen, dann fallen diese weg.
0:16:57–0:17:01
Ich verstehe mich etwas falsch, ich finde es nicht so eine tolle Idee,
0:17:01–0:17:04
diese Idee dann wirklich diesen Open AI zu zeigen.
0:17:04–0:17:09
Hör mal, wenn du jetzt halt diese Information von meinem Blog geholt hast und
0:17:09–0:17:11
sie nachher brauchst, musst du dafür etwas zahlen,
0:17:11–0:17:20
weil sonst bricht einfach diese Szene noch völlig auseinander und ist einfach weg am Schluss.
0:17:20–0:17:25
Und wenn sie weg ist, dann ist es eine Verarmung auch aus der Sicht dieser Menschheit
0:17:25–0:17:31
zu wissen. Und es ist mehr eine Notoperation oder eine Notlösung,
0:17:31–0:17:33
um das mal am Leben zu behalten.
0:17:33–0:17:36
Mit dem kannst du auch nichts anfangen. Also ich sage zwei Sachen dazu.
0:17:36–0:17:42
Das eine ist, dass du schilderisch, dass wenn man keine Aussicht mehr hat auf
0:17:42–0:17:44
Geld, dass dann kein Inhalt mehr entsteht.
0:17:44–0:17:47
Das ist das klassische utilitaristische Argument für das Urheberrecht,
0:17:48–0:17:51
das man immer wieder herbeizieht, wo man sagt, wenn man keine Aussicht mehr
0:17:51–0:17:57
hat auf Geld, dann macht man keine kreativen Outputs. und das ist einfach schon x-fach wie der Leid.
0:17:57–0:18:01
Wenn das so wäre, gäbe es keine Open-Source-Software, es gäbe deinen Blog nicht,
0:18:01–0:18:04
es gäbe meinen Blog nicht, es gäbe die Radio Stadtfilter, Kanal K und Radio
0:18:04–0:18:08
Rabi nicht, es gäbe ganz viele Sachen nicht, wenn es darum geht,
0:18:09–0:18:12
dass man kreative Output macht wegen dem Geld und das war noch schnell.
0:18:13–0:18:15
Das heisst nicht, dass man nicht kann, damit Geld zu verdienen.
0:18:15–0:18:18
Das ist wie bei Open-Source so auch da, wir müssen auch neue Modelle finden
0:18:18–0:18:19
und jetzt kommt der nächste Punkt.
0:18:19–0:18:23
Die Zeit, wo du hast können, einen Blogpost Post ins Netz stellen und dann ein
0:18:23–0:18:26
paar Fränkli bekommen pro Jahr von der Werbung.
0:18:27–0:18:31
Diese Zeit ist auch nur eine kurze Zeit her. Das konntest du vorher auch nicht.
0:18:32–0:18:38
Und als die neuen Medien auftauchten, sagten wir ja auch alle, es ändert halt etwas.
0:18:38–0:18:42
Es gibt halt den Kutscher nicht mehr, es gibt den Kollschufel auf der Locke nicht mehr.
0:18:42–0:18:46
Und ich würde jetzt mal behaupten, wir dürfen nie, das ist genau der Fehler,
0:18:46–0:18:48
den ich glaube, Europa sehr oft macht.
0:18:48–0:18:52
Wir denken immer von dem Anbüter her und überlegen uns ja, Aber wenn der seine
0:18:52–0:18:54
Brötchen nicht mehr verkaufen kann, dann haben wir ein Problem.
0:18:55–0:19:01
Aber die Welt verändert sich nie vom Anbieter her, sondern immer vom Nachfrager
0:19:01–0:19:02
und der Nachfragerin her.
0:19:02–0:19:05
Und das Problem, das der Nachfrager und die Nachfragerin haben,
0:19:05–0:19:08
ist, dass sie eine Frage stellen möchten. Sie haben eine Frage an die Welt und
0:19:08–0:19:12
sie möchten diese Frage an die Welt so gut wie möglich und so schnell wie möglich beantwortet haben.
0:19:14–0:19:18
Lösung ist Generative KI, weil die ist viel besser, also mein Bedürfnis wird
0:19:18–0:19:21
viel besser befriedigt und das heisst jetzt halt, für die Anbieter,
0:19:21–0:19:26
die bis jetzt im alten Modell Suchlisten mit 20 Links haben können existieren,
0:19:26–0:19:28
die müssen jetzt einen neuen Weg suchen.
0:19:28–0:19:30
So ist halt die Welt, es ändert sich.
0:19:31–0:19:36
Das heisst aber, dass wir wahrscheinlich müssten jetzt aufhören OpenAI und Microsoft
0:19:36–0:19:42
zu brauchen und eben selber so ein Open Source Modell trainieren auf unserem
0:19:42–0:19:46
Computer Computer und möglichst autark werden,
0:19:46–0:19:48
was KI angeht.
0:19:49–0:19:52
Brauchst du OpenAI oder findest du... Nein, nein, im Gegenteil.
0:19:52–0:19:54
Ich bin im Moment bei all diesen zahlenden Kunden.
0:19:55–0:19:59
OpenAI, Perplexity AI, Mid-Journey. Ich nutze das alles im professionellen Level,
0:19:59–0:20:02
um herauszufinden, wie gut sind sie, wie gut funktionieren sie und bin gerne
0:20:02–0:20:04
bereit, auch denen etwas zu bezahlen, weil ich finde nach wie vor,
0:20:04–0:20:05
sie bietet auch eine Leistung.
0:20:06–0:20:09
Und ich bin da in dieser Frage überhaupt nicht verblendet ideologisch oder so,
0:20:09–0:20:12
sondern ich sage mir einfach, wer mir eine gute Lieferung macht,
0:20:12–0:20:13
der soll für das auch etwas bekommen.
0:20:14–0:20:18
Und das ist mir eigentlich relativ egal, ob das OpenAI ist oder ein Open Source
0:20:18–0:20:21
Modell. Wenn es eine gute Lösung gibt, die auf einem Open Source Modell basiert,
0:20:21–0:20:22
dann nehme ich diese auch.
0:20:22–0:20:26
Und jetzt ist gerade heute oder gestern herausgekommen, dass Huggingface die
0:20:26–0:20:30
Möglichkeit bietet, eigene Avatare und eigene Bots zu machen auf Basis von Open
0:20:30–0:20:31
Source Modellen auf ihrer Plattform.
0:20:31–0:20:35
Das Huggingface ist eine lustige Plattform, die müsst ihr unbedingt ausprobieren.
0:20:35–0:20:37
Das ist so eine Experimentierweise.
0:20:37–0:20:41
Die ist wirklich spannend. kann ich nur empfehlen.
0:20:41–0:20:44
Und die bietet eben so Sachen an und es gibt noch viele andere und ich bin schon
0:20:44–0:20:48
der Meinung, wir müssen jetzt selber nicht, wir müssen damit experimentieren,
0:20:48–0:20:51
nicht unbedingt neue, eigene ganze Modelle entwickeln, das können wir nicht,
0:20:51–0:20:52
das kann nicht jeder selber machen.
0:20:53–0:20:56
Aber nachher mit diesen Modellen experimentieren, also es heisst,
0:20:56–0:21:00
solche Modelle zu dir herunterladen, Sachen probieren, wie funktionieren zum
0:21:00–0:21:04
Beispiel die RAG-Methoden, wie kann ich weitere Inhalte von mir
0:21:05–0:21:09
verbinden mit dem mit dem grossen Language-Modell und dann quasi meine Notizen,
0:21:09–0:21:11
das ist zum Beispiel etwas Geniales, was ich mir vorstelle in Zukunft.
0:21:11–0:21:16
Meine persönlichen Notizen verbunden mit einem lokalen LLM, wo ich nachher einfach
0:21:16–0:21:21
nicht mehr suchen muss, sondern nur noch Fragen stelle an mich selber. Wie geil ist das denn?
0:21:22–0:21:27
Aber jetzt trotzdem, was sagst du zu The Washington Post, oder zu The New York
0:21:27–0:21:30
Times, die sagen, wir erkennen da unsere Texte wieder.
0:21:31–0:21:36
Das Ding hat Texte, die ein normaler Leser, wenn du kommst, musst du zahlen,
0:21:37–0:21:41
dass du hinter die Paywall kommst, aber die haben die gebraucht zum Trainieren und jetzt geben die.
0:21:42–0:21:47
Verkaufen die Dienstleistung und geben unsere erarbeiteten Sachen aus.
0:21:47–0:21:51
Oder nachverrückt ihr ja bei diesen Künstlern, die sagen, ich sehe da mit Journey...
0:21:52–0:21:58
Ich erkenne meine Kunst aus dem Netz und die wird jetzt da, die Mitschörne musst
0:21:58–0:22:02
du zahlen, wenn du sie anständig brauchen willst, die bekommen Geld über und ich habe null dafür.
0:22:03–0:22:08
Hast du Empathie für diese Leute oder was sagst du denen, wenn sie sagen.
0:22:08–0:22:15
Mir ist deine Vision in Ehre, aber ich möchte für diese Leistung entlöhnt werden.
0:22:15–0:22:16
Was sagst du so jemandem?
0:22:16–0:22:20
Genau, also vielleicht, ich habe natürlich Empathie für alle Menschen, ich bin Humanist, oder?
0:22:20–0:22:26
Genau. Also von dem her, grundsätzlich, klar kann ich verstehen, dass man das so sieht.
0:22:26–0:22:29
Was ich zwar nicht ganz verstehen kann, ist oft, bei Gründung ist es im Urheberrecht
0:22:29–0:22:32
immer wieder so, das ist gerade auch wieder lustigerweise im deutschsprachigen
0:22:32–0:22:35
Raum vor allem und bei den Franzosen auch, dass man zum Beispiel sieht,
0:22:35–0:22:38
an den Creative Commons Lizenzen, wir im europäischen Raum,
0:22:38–0:22:42
wir nutzen oft eine Non-Commercial Lizenz bei Creative Commons.
0:22:42–0:22:47
Also wir finden oft, ich gebe das zwar frei, aber es darf niemand mit dem Geld verdienen.
0:22:47–0:22:51
Und das ist etwas, das ich nicht verstehen und nicht nachvollziehen kann,
0:22:51–0:22:56
weil ich sage mir immer, wenn ich mein Werk nicht monetarisieren kann und es
0:22:56–0:22:57
irgendjemand anderer aber kann,
0:22:57–0:23:01
dann hat er mir ja nichts weggenommen, sondern die andere Person hat einfach
0:23:01–0:23:03
offenbar etwas geschafft, was ich nicht geschafft habe.
0:23:03–0:23:09
Aber ich glaube, da bist du weniger besitzergreifend als viele andere,
0:23:09–0:23:15
die finden, ich habe etwas gemacht und ich schaffe es einfach nicht,
0:23:15–0:23:18
den Kontrollverlust völlig frei zu geben.
0:23:18–0:23:24
Genau, aber das hat mit der strukturellen Verankerung dieser abstrusen Idee
0:23:24–0:23:25
des geistigen Eigentums zu tun.
0:23:25–0:23:29
Das hat damit zu tun, dass du glaubst, dass der Blogpost, den du geschrieben
0:23:29–0:23:30
hast, dein Eigentum ist.
0:23:31–0:23:34
Und wenn du dich von dem loslösen könntest, indem du dir sagst,
0:23:34–0:23:37
ich habe es zwar geschrieben, aus mir ist es herausgekommen,
0:23:37–0:23:40
aber es ist nicht mein Eigentum, sondern es ist unser aller Eigentum,
0:23:40–0:23:41
dann hättest du kein Problem damit.
0:23:41–0:23:44
Aber dann finde ich doch, der jetzt...
0:23:44–0:23:49
Der Geistesblick oder die Anekdote, die ich jetzt hier rein gebracht habe und
0:23:49–0:23:54
die jetzt aus dem Blogpost, der vielleicht zuerst einen mittelmässigen Blogpost
0:23:54–0:23:58
gemacht hat, einen genialen Blogpost macht, die ist aus meinem Kopf gekommen
0:23:58–0:23:59
und die hat mit meinem Leben zu tun.
0:24:00–0:24:06
Da musste ich mal... Ich gebe jetzt den leidenden Künstler, der musste zuerst
0:24:06–0:24:11
ganz schlimme Sachen erleben, dass er seine Kunst in die Höhe aufschieben konnte.
0:24:11–0:24:16
Ich habe geritten für meine Kunst, also will ich jetzt auch etwas für meine Kunst.
0:24:16–0:24:20
Und ich will zumindest bestimmen, wer was damit machen darf.
0:24:20–0:24:26
Und nein, irgendein Nazi darf nicht mit meinem Motiv auf seiner Flagge herumlaufen,
0:24:26–0:24:28
wenn er gegen Ausländer hetzt.
0:24:29–0:24:30
Das wäre dann zum Beispiel auch
0:24:30–0:24:34
noch etwas, das in diesen Kontrollbereich einfallen würde, vielleicht.
0:24:34–0:24:37
Ja, das ist definitiv auch eines der schlagenden Argumente, die immer kommen,
0:24:37–0:24:40
wenn der Nazi das nimmt. Natürlich nicht.
0:24:41–0:24:46
Ich verstehe auch das, aber es hängt auch alles zusammen mit dem Irrglauben,
0:24:47–0:24:52
dass das, was du produziert hast, dir allein gehört. Das Deine ist nicht dir alleine.
0:24:52–0:24:55
Das ist wichtig zu verstehen. Das ist übrigens auch sonst interessanter,
0:24:55–0:25:00
weil sonst in der Welt akzeptieren wir das. Zum Beispiel, wenn du ein Haus hast, das dir gehört.
0:25:00–0:25:04
Das Haus gehört ganz allein dir. Du hast es allein gekauft, es ist mit deinem
0:25:04–0:25:08
Geld erwirtschaftet und trotzdem hast du nicht die komplette Kontrolle über
0:25:08–0:25:10
das Haus. Du kannst zum Beispiel nicht einfach eine gelbe Farbe herstreichen.
0:25:11–0:25:13
Dann kommt der Denkmalschutz, dann kommt der Ortsbildschutz,
0:25:13–0:25:16
dann kommen die Nachbarn usw. Obwohl das dein Haus ist.
0:25:16–0:25:21
Und man akzeptiert bei ganz vielen Eigentumstexten oder Eigentumselementen,
0:25:21–0:25:24
akzeptieren wir, dass wir nicht eine hundertprozentige Kontrolle haben.
0:25:24–0:25:29
Und beim Urheberrecht, da haben wir das Gefühl, alles was aus meinem Kopf rausbrunzelt,
0:25:29–0:25:32
ist nachher mir. Und vielleicht noch wichtig, du hast vorhin etwas Wichtiges gesagt, du hast gesagt,
0:25:33–0:25:34
Du hast den Text gemacht, das
0:25:34–0:25:38
ist in deinem Kopf passiert. Ich frage dich dann, wer bist denn das Du?
0:25:38–0:25:41
Also wie ist denn das entstanden? Was macht denn das aus? Also warum bist du das?
0:25:41–0:25:44
Weil letztendlich ist das, was in deinem Kopf ist, das bist ja nicht einfach
0:25:44–0:25:47
du, weil du hast ja auch Geschenke bekommen von allen anderen rundherum.
0:25:47–0:25:52
Dass überhaupt etwas in deinem Kopf ist, ist da, weil ich zum Beispiel mit dir jetzt rede.
0:25:53–0:25:56
Und andere Leute haben auch mit dir geredet. Und die Welt da aussen existiert.
0:25:56–0:25:59
Es kann gar nicht sein, dass das mit dir alleine zu tun hat.
0:25:59–0:26:03
Es ist einfach bei dir eine Art von Manifestation. aber du bist ein Teil von
0:26:03–0:26:06
einem grossen, grossen geistigen Kollektiv, oder?
0:26:07–0:26:10
Um das jetzt mal so bildlich darzustellen, ich bin aber überhaupt nicht spirituell
0:26:10–0:26:13
drauf in dieser Frage, sondern ich gehe ganz gut darum zu verstehen,
0:26:13–0:26:18
das sind alles Knoten von einem grossen geistigen Netz, von dem wir alle davon
0:26:18–0:26:20
profitieren, wenn wir es freigeben.
0:26:20–0:26:22
Das finde ich eine sehr schöne Vision.
0:26:22–0:26:26
Ich weiss einfach nicht, ob die Welt bereit ist für diese Vision, Andreas.
0:26:26–0:26:27
Ist sie nicht, ist sie nicht. Ich will sie nicht mehr erleben,
0:26:28–0:26:31
das ist mir schon klar. Aber wir müssen fast schon wieder aufhören.
0:26:31–0:26:34
Ich hätte jetzt, glaube ich, sicher noch eine Stunde weiter diskutieren mit dir.
0:26:34–0:26:38
Ich finde das sehr spannend und ich bin gespannt dann auch, was unsere Hörerinnen
0:26:38–0:26:41
und Hörer allenfalls ein Feedback dazu haben.
0:26:42–0:26:47
Ich würde einfach noch als letzte Frage von dir wissen, findest du denn die.
0:26:48–0:26:52
Also eben, ich glaube, du hast trotzdem auch das Gefühl, dass du,
0:26:52–0:26:58
wenn du etwas produzierst, in Text oder so, etwas von dir die du dir gibst und
0:26:58–0:27:02
eben auch in diese Welt rausgibst und allen zur Verfügung stellst.
0:27:02–0:27:06
Aber hast du nicht genau die Angst davor, dass dir irgendeine KI das wegnehmen
0:27:06–0:27:09
könnte, weil sie es schneller kann als du, weil sie es besser kann als du und
0:27:09–0:27:13
weil sie es maßgeschneiderter macht als du?
0:27:14–0:27:17
Nein, im Gegenteil. Also wenn eine KI mir die Arbeit abnimmt,
0:27:17–0:27:19
umso besser, dann kann ich noch besser werden. Ich kann noch mehr verstehen,
0:27:19–0:27:20
wie die Welt funktioniert.
0:27:20–0:27:24
Ich kann noch bessere Fragen an die Welt stellen und noch bessere Antworten
0:27:24–0:27:26
wieder generiere, Mithilfe habe ich als Werkzeug.
0:27:26–0:27:31
Und ich muss schon sagen, meine Gedanken, die ich mir zu dem Urheberrecht mache,
0:27:31–0:27:35
das ist auch wieder gelesen an verschiedensten Stellen, das sind verschiedene
0:27:35–0:27:35
Sachen, die mich inspirieren.
0:27:36–0:27:41
Wenn ich da jetzt schneller zum Ziel komme, quasi auch zum guten Argument finde, umso besser.
0:27:41–0:27:44
Und ich muss einfach sagen, letztendlich, was ich wichtig finde,
0:27:44–0:27:46
ich möchte auch noch so einen Abschluss mitgeben an die Leute.
0:27:46–0:27:52
Ich glaube, man muss in dieser Frage unbedingt den Kleingeisten wegputzen und grossmütig werden.
0:27:52–0:27:56
Denn letztendlich ist das grosse Geniale wirklich die Vision,
0:27:56–0:28:03
die Vorstellung, dass wir alle auf dieser Welt auf alles Wissen jederzeit zugreifen
0:28:03–0:28:06
können und uns miteinander dazu austauschen. Dort müssen wir herkommen.
0:28:07–0:28:10
Und das ist einfach genial, diese Vorstellung. Für alle.
0:28:11–0:28:15
Andreas von Gunther, ganz herzlichen Dank, dass du hier warst im «Nerdfunk».
0:28:15–0:28:16
Danke, dass ich hier sein durfte.
0:28:21–0:28:30
Music.

Ist es okay, dass die Tech-Unternehmen das ganze Web als Trainingswiese für ihre Bots und ihre Bilder-Generatoren verwenden? Oder ist das ein Betrug an den Urheberinnen und Urhebern, die ihr Wissen, ihre Kreativität und ihre Werke zur Verfügung stellen, damit die Bots hinterher – oftmals gegen Geld – so tun, als ob alles wüssten und alles könnten? Oder müssten die Tech-Unternehmen die Menschen entschädigen, deren Material sie fürs Training ihrer Modelle verwenden?

Andreas Von Gunten hält das für eine, Zitat, Schnapsidee und findet, die KIs würden diese Informationen nutzen, so wie wir Menschen anhand von Artikeln, Büchern und Kunstwerken lernen. Er hat diese These neulich auf Linkedin vertreten, woraufhin sich eine längere Diskussion entspannte – weil Matthias anderer Meinung ist.

Aber weil es sich auf Linkedin schlecht diskutieren lässt, besprechen die beiden diese Frage im heutigen Nerdfunk. Andreas Von Gunten ist Verleger. Er engagiert sich beim Verein Digitale Gesellschaft, die für Offenheit, Grund- und Menschenrechte im Netz kämpft. Und er bezeichnet sich als «linkslibertärer Humanist».

Weitere Themen im Gespräch sind die Frage, welchen Einfluss der KIs auf die Produktion von Inhalten, Büchern und Texten im Netz haben, wie Von Gunten selbst KIs einsetzt und ob er die Bots als Bedrohung wahrnimmt, weil sie seinen Job als Autor machen könnten. „Müssen Chatbots Lehrgeld zahlen?“ weiterlesen