Wir feiern die ESC (nein, kein Tippfehler)

Transkript anzeigen (falls vorhanden)

00:00–0:00:05
Music.
0:00:05–0:00:10
He will see my shadow. Und ich habe den Knopf wieder nicht rausgenommen,
0:00:10–0:00:12
wenn ihr das von mir so kennt.
0:00:12–0:00:18
Und darum pumpern sie da noch so weiter. Aber jetzt sind wir bereit für den Jingle.
0:00:18–0:00:25
Wir sind Bad Bait und ihr hört Radio Stadtfilter auf 96.3 Megahertz. Fantastisch!
0:00:26–0:00:31
Geht es dir fantastisch, Kevin? Oder geht es dir mittelmässig?
0:00:32–0:00:35
Fantastisch wäre definitiv übertrieben im Moment.
0:00:37–0:00:41
Mittelmässig. Was zieht nach unten, was zieht nach unten?
0:00:41–0:00:45
Wo ist die Schwerkraft, wo ist das Gegenteil davon?
0:00:47–0:00:51
Es ist gerade viel verschiedenes anstrengend.
0:00:52–0:00:57
Auf ganz vielen Ebenen. Es bündelt sich immer so im Leben.
0:00:57–0:01:00
Es geht ja nicht nur mir so, es geht ja allen so. So. Und jetzt ist es gerade
0:01:00–0:01:04
gebündelt und ich glaube, ich bin jetzt aber wieder auf...
0:01:04–0:01:09
Es wird wieder anders jetzt. Aber die letzten paar Wochen war es ein bisschen viel.
0:01:09–0:01:14
Das heisst, du bist so über den Berg gekuppt und jetzt kannst du dann irgendwann
0:01:14–0:01:15
mal ein bisschen laufen lassen.
0:01:15–0:01:19
Ich glaube es. Ich glaube, es kommt jetzt wieder... Es regelt sich jetzt gerade
0:01:19–0:01:22
vieles und weist sich auf und entspannt sich.
0:01:22–0:01:26
Ja, mir geht das auch ein bisschen so. Das Jahr ist irgendwie anstrengend und
0:01:26–0:01:30
ein bisschen weniger berechenbar Ich mag es ja noch.
0:01:31–0:01:37
Es ist vielleicht so eine nerdige Eigenschaft, dass man gerne in Routinen lebt auch.
0:01:38–0:01:41
Dass Routinen irgendwie Sicherheit gibt. Schon, das habe ich eben gar nicht.
0:01:41–0:01:45
Das hast du nicht? Das stimmt, du willst immer neue Sachen haben und so.
0:01:45–0:01:49
Ja, Routine ist der Gegner von mir. Habe ich nicht gerne.
0:01:50–0:01:53
Ich würde sagen, ich lebe jetzt auch nicht nur in Routinen.
0:01:53–0:01:56
Aber wenn du gewisse Fixpunkte hast, die helfen dir einfach,
0:01:57–0:02:00
wie soll ich sagen, und gerade so mit Familie und Kindern und so,
0:02:01–0:02:06
wird es irgendwie auch schwierig, wenn du immer alles neu erfinden musst und
0:02:06–0:02:09
immer wieder beim Punkt Null anfangen.
0:02:09–0:02:11
Ja, das ist so. Das stresst.
0:02:12–0:02:16
Aber ja, genau. Aber wir brauchen ja zumindest die Pre-Show,
0:02:16–0:02:20
brauchen wir ja auch immer so ein bisschen als Therapiesitzung,
0:02:20–0:02:24
als Selbsthilfe. und ich glaube, das funktioniert recht gut.
0:02:24–0:02:27
Ich weiss nicht, ob es die Hörerinnen und Hörer auch so sehen,
0:02:27–0:02:29
aber für uns verhält es sich.
0:02:30–0:02:33
Dass man einfach in die Welt rennen kann. Genau.
0:02:35–0:02:39
Man wird gehört, aber anonym irgendwie.
0:02:40–0:02:43
Also ich erzähle das an einer anonymen Person.
0:02:43–0:02:49
Das ist nämlich etwas ganz Spezielles. Es ist eben nicht wir die anonymen Personen,
0:02:49–0:02:52
die anrufen, sondern uns kann man googlen.
0:02:53–0:02:57
Aber wir erzählen es anonymen Leuten, die wahrscheinlich die meisten nicht kennen.
0:02:57–0:03:05
Ja, aber wir haben eine solche Vorstellung von einem idealtypischen Hörer, einer Hörerin,
0:03:05–0:03:09
die uns zuhört und dann empathisch an den Lautsprecher sitzt und sagt,
0:03:09–0:03:15
jawohl, ich liebe es, wenn ihr aus eurem Leben jammert.
0:03:17–0:03:23
Genau, das ist super. So stelle ich mir das genau vor.
0:03:23–0:03:27
Und der Vorteil zu den sozialen Medien ist, es kann nicht drei Sekunden später
0:03:27–0:03:31
eine Antwort kommen, die sagt, aha, so kann man das auch verstehen.
0:03:32–0:03:40
Aha, den habe ich jetzt nicht auf dem Fuss erwischt, wo ich gedacht habe, ich erwischt.
0:03:40–0:03:44
Das ist auch noch schön an den Einwegmedien.
0:03:44–0:03:48
Ja, das ist so. Du hast nicht nach zwei Kommentaren geschrieben eine «Deine
0:03:48–0:03:50
Mutter» oder irgend so etwas.
0:03:50–0:03:53
Das ist ein einseitiger Kanal.
0:03:53–0:03:58
Also verheimlicht euch nicht, dass es das Gästebuch gibt, das ihr jetzt schreiben
0:03:58–0:04:01
könnt auf stadtfilter.ch.
0:04:01–0:04:06
Ich habe es so aufgemacht, ich würde mitlesen, wenn ihr dort sagen würdet «Hey,
0:04:06–0:04:12
ihr alten Hülsausen, ausheben, den Rand oder so. Aber genau.
0:04:14–0:04:17
Ihr dürft auch freundlich sein mit uns, so meine ich es.
0:04:17–0:04:23
Und wir haben ja heute, heute sollen wir schon verraten, was wir für ein Thema haben.
0:04:24–0:04:27
Findest du das Thema überhaupt gut? Ich habe dir das ein bisschen übergeholfen.
0:04:29–0:04:33
Übergeholfen, schön gesagt. Ich finde es ein gutes Thema. Ich glänze mit Unwissen.
0:04:34–0:04:39
Ah, das ist doch dein Kernkompetenz. Ich glänze mit Halbwissen,
0:04:39–0:04:42
aber so schaukeln wir uns ja seit 15 Jahren durch.
0:04:42–0:04:46
Genau, also es ist ein Konzept, das gut funktioniert bei uns,
0:04:46–0:04:47
das muss man schon sagen.
0:04:50–0:04:54
Halbwissen, aber eine starke Meinung. Ja, schon, aber weisst du,
0:04:54–0:05:01
ich neige manchmal auch so zum Dozieren und zum Professoralen und so,
0:05:01–0:05:05
Und das ist nicht immer gut, würde ich mal so selbstkritisch sagen.
0:05:05–0:05:13
Manchmal ist es auch gut, wenn man tatsächlich nicht allzu hoch von der Kanzlerin runterredet.
0:05:13–0:05:16
Und wie es heute wird, das hört ihr genau jetzt.
0:05:17–0:05:30
Music.
0:05:30–0:05:35
Ich habe gefunden, wir machen heute eine ESC-Sendung und wenn ihr glaubt,
0:05:35–0:05:44
dass ESC für den Eurovision Song Contest steht, dann täuscht euch, muss ich euch sagen.
0:05:44–0:05:49
Aber wir fangen jetzt trotzdem mal bei dem eigentlichen Ding an,
0:05:49–0:05:55
wo die meisten Leute bei ESC dran denken. Weil wir sind ja jetzt ESC-Weltmeister,
0:05:55–0:05:58
wir sind ja jetzt wieder jemand in dieser Musikbranche.
0:05:59–0:06:02
Wir haben alle gerockt und bist du dabei gewesen vor dem Fernseher,
0:06:02–0:06:08
Kevin, wo wir... Nein, gerockt kann man nicht sagen, es war kein Rockstück. Wir haben alle poppt.
0:06:09–0:06:13
Wir haben alle poppt. Wir haben alle poppt. Ja, genau.
0:06:15–0:06:21
Also bist du dabei? Nein, ich glänze mit Abwesenheit. Ich habe es geschafft.
0:06:21–0:06:28
Schafft? Ist dein Server abgekackt? Nein, ich arbeite ja noch im Kino Freienstein.
0:06:28–0:06:29
Wir haben Party gemacht.
0:06:30–0:06:35
Also so ein Kontrastprogramm. Dann habe ich völlig vergessen, dass das war.
0:06:36–0:06:41
Und erst am nächsten Morgen dann herausgefunden, was gelaufen ist.
0:06:41–0:06:44
Ich musste es schauen, vor allem wegen der Familie.
0:06:44–0:06:47
Das ist so in meinem angeheirateten Teil der Familie.
0:06:47–0:06:50
Ich habe es manchmal sonst so geschaut, aber mein angeheirateter Teil,
0:06:51–0:06:55
der findet das irgendwie super lässig und so und ich habe dann am Schluss eigentlich
0:06:55–0:07:02
auch noch toll gefunden, dass Nemo gewonnen hat und ganz ohne Lokalpatriotismus habe ich gefunden,
0:07:02–0:07:09
der Sieg war verdient, dass Nemo nicht von dieser Scheibe runter geschlätzt
0:07:09–0:07:14
hat, wo er da singend und performend und so dann auch noch auf der gestanden
0:07:14–0:07:16
ist, habe ich schon schwer beeindruckend gefunden.
0:07:16–0:07:21
Die ganze Veranstaltung fand ich wahnsinnig überproduziert.
0:07:22–0:07:27
Jeder Song kommt einfach mit maximal Power her.
0:07:28–0:07:32
Das stresst dann nach zwei Stunden oder nein, eigentlich schon nach zehn Minuten.
0:07:33–0:07:40
Darum fand ich den Slimane von Frankreich, der das kitschige Liebeslied gesungen
0:07:40–0:07:42
hat, als er am Boden rumgekrochen ist,
0:07:42–0:07:48
Mon Amour, das hat mir dann eigentlich noch gefallen und war eine wunderbare
0:07:48–0:07:55
Kontrastnummer und die hätte von mir aus auch gewinnen können, wenn man hätte wollen.
0:07:55–0:08:00
Aber wie findest du denn jetzt, dass mit Nemo die Diskussion um das dritte Geschlecht
0:08:00–0:08:01
aufkommt? Findest du das gut?
0:08:01–0:08:02
Findest du das blöd? Gehörst du
0:08:02–0:08:09
zu denen, die finden, das ist nur so ein Swokes-Weltbeherrschungsszenario,
0:08:09–0:08:12
Szenario, das sich abgespielt hat.
0:08:14–0:08:23
Also ich finde, im Nachhinein habe ich die ganze Show von Nemo geschaut und finde es recht cool.
0:08:24–0:08:28
Ich habe das Lied schon vor ein paar Wochen mal gehört und dann irgendwie gefunden,
0:08:29–0:08:32
das ist nichts, das passt mir nicht, das gefällt mir nicht.
0:08:32–0:08:36
Und dann aber so im Nachgang habe ich irgendwo gefunden, es hat gleich etwas
0:08:36–0:08:38
und habe es jetzt gleich auch schon ein paar Mal gehört.
0:08:38–0:08:44
Es ist jetzt nicht unbedingt meine Musikrichtung, musikalisch finde ich es aber richtig gut,
0:08:45–0:08:50
aber ich habe ein paar Durchläufe gebraucht, um zu merken, was das Lied eigentlich
0:08:50–0:08:54
kann, oder wie das aufgebaut ist. Finde ich cool.
0:08:54–0:09:01
Und ich finde ihn als Mensch mega sympathisch.
0:09:01–0:09:07
Einfach wie er auftritt, wie er Interviews gibt und wie er ist und wie er funktioniert,
0:09:07–0:09:14
finde ich mega sympathisch und ich finde es cool, dass er so eine Diskussion anregt,
0:09:15–0:09:19
Aber ich habe jetzt das Gefühl, er macht das nicht auf eine laute Art und nicht mühsam.
0:09:20–0:09:25
Du sagst «er», aber ich kenne das Problem nicht. Ja, das ist jetzt wieder das
0:09:25–0:09:27
sprachliche Problem. Das habe ich aber immer.
0:09:27–0:09:29
Mit diesen Pronomen, ich finde es wahnsinnig schwierig.
0:09:30–0:09:35
Sprachlich habe ich mit dem dritten Geschlecht wahnsinnig Mühe,
0:09:35–0:09:37
aber sonst eigentlich nicht.
0:09:37–0:09:39
Abgesehen von dem, dass ich... Nein, gar nicht.
0:09:40–0:09:44
Ich finde das eigentlich super, aber sprachlich kenne ich auch drei.
0:09:45–0:09:50
Sprachlich mit einer Person reden, die non-binär ist, ist überhaupt kein Problem,
0:09:50–0:09:51
weil man spricht ganz normal mit diesen Leuten.
0:09:51–0:09:55
Aber wenn ich in dritter Person über Nemo spreche, dann ist das für mich ein
0:09:55–0:10:02
Stolperer, weil ich das Muster von ihm oder ihr kenne. Gerade die Pronomen sind...
0:10:03–0:10:05
Es braucht einfach einen Moment, bis wir uns an das gewöhnt haben.
0:10:06–0:10:07
Das ist jetzt auch nicht so schwierig.
0:10:08–0:10:11
Wenn wir uns Mühe geben, haben wir das in einem halben Jahr.
0:10:11–0:10:15
Ich finde auch, absolut, dass man jetzt die aufheult und findet,
0:10:15–0:10:20
das ist jetzt wahnsinnig schlimm, dass wir das nicht machen und dass das uns zugemutet wird und so.
0:10:20–0:10:25
Nein, das ist, dann muss man halt, vielleicht trägt man sich dann tatsächlich
0:10:25–0:10:28
selber darüber auf, wenn man wieder reingeht und so.
0:10:29–0:10:33
Und mit diesen Pronomen, ich finde auch, das ist, also einfach aus sprachlicher
0:10:33–0:10:35
Sicht finde ich das keine gute Lösung.
0:10:35–0:10:42
Du könntest dann sagen, «They haben den Eurovision Song Contest gewonnen und
0:10:42–0:10:48
wir gratulieren dem.» Aber ich finde das einfach einen Unsinn.
0:10:48–0:10:51
Da müsste wirklich eine bessere Lösung hin.
0:10:51–0:10:54
Ich glaube, im Berndeutschen kann man das.
0:10:54–0:11:00
Der Berndeutsche spricht ja in der Höflichkeit nicht von «könntet sie»,
0:11:00–0:11:03
sondern er spricht auch von «könntet ihr», wenn es nur um eine Person geht.
0:11:04–0:11:10
Und ich glaube, die sind näher dran, um dann halt ein «ihr» einfließen zu lassen.
0:11:11–0:11:14
Was auch nicht ganz korrekt ist, aber sie sind wahrscheinlich näher dran.
0:11:15–0:11:18
Genau. Und ich glaube wirklich, wir müssen jetzt mal.
0:11:19–0:11:23
Den Fakt akzeptieren, dass das so ist und dass es das dritte Geschlecht und
0:11:23–0:11:29
die non-binären Menschen gibt und dass die uns auch in unserer eigenen Sexualität
0:11:29–0:11:34
oder wie auch immer in keinster Weise irgendwie zu nahe treten oder uns irgendetwas
0:11:34–0:11:36
wegnehmen oder aufzwingen,
0:11:36–0:11:39
sondern dass die einfach sind, wie sie sind und wir gut können mit dem Leben.
0:11:39–0:11:43
Und aber eben sprachlich, ich glaube, wenn wir das einmal akzeptiert haben,
0:11:43–0:11:47
dann schält sich dann da vielleicht auch irgendwann mal noch ein bisschen eine
0:11:47–0:11:49
bessere sprachliche Lösung raus.
0:11:49–0:11:53
Ich meine, dass wir jetzt sagen können, Nemo hat gewonnen und so,
0:11:53–0:11:57
und dann probieren, die Pronomen zu vermeiden, das ist noch okay,
0:11:57–0:12:01
aber weil er noch so einen kurzen Namen hat, aber stell dir jetzt vor,
0:12:01–0:12:03
jemand hat einfach einen elendlangen Namen,
0:12:03–0:12:07
dann musst du ständig den Namen wiederholen, das ist irgendwie nicht so.
0:12:07–0:12:12
Also da hoffe ich noch auf die Kreativität von dieser Schwarmintelligenz,
0:12:12–0:12:17
dass da irgendwann etwas rauskommt dabei, was einem ein bisschen leichter über die Zunge geht.
0:12:17–0:12:20
Und sonst gewöhnen wir uns halt dran, dann ist es halt so.
0:12:21–0:12:25
Ja, und ich kenne zwei Menschen, die sich als non-binär.
0:12:28–0:12:32
Identifizieren. Und die sind recht easy mit dem Thema, weil die sich auch bewusst
0:12:32–0:12:37
sind, hey, es ist ein Stolperer und es ist nicht ganz einfach.
0:12:37–0:12:42
Und für die ist jetzt auch okay, wenn ich mal ihm oder ihr sage,
0:12:42–0:12:44
dass die Dreieck nicht durchgehen kann.
0:12:45–0:12:49
Und ich finde es Es ist eigentlich spannend, mit solchen Leuten zu sprechen, wie das funktioniert.
0:12:49–0:12:51
Wie stellst du dir das vor? Was ist der Weg? Wo sie auch sagen,
0:12:51–0:12:54
wir wissen es auch nicht so genau, wie wir uns das vorstellen.
0:12:55–0:12:59
Aber cool, setzt ihr euch damit auseinander?
0:12:59–0:13:05
Ja. Und nicht einfach, ja, das ist aber scheisse, du bist rein biologisch, bist du ein Mann.
0:13:06–0:13:09
Du darfst jetzt nicht. Das ist so eine Diskussion, wo ich finde,
0:13:09–0:13:11
come on, dort müssten wir durch sein.
0:13:12–0:13:15
Ich finde auch. Und viel mehr Diskussion, wie gehen wir damit um?
0:13:16–0:13:19
Was stellst du dir vor? Wie hättest du gern?
0:13:20–0:13:24
Was können wir machen, um dein Leben angenehmer zu machen?
0:13:24–0:13:28
Genau, und wenn wir non-binäre Personen,
0:13:28–0:13:33
Menschen in unserem Zuschauerkreis, äh Zuschauer, sage ich Zuhörerkreis haben,
0:13:33–0:13:36
dann kommen wir gerne mal in unsere Sendung, wir würden gerne auch mit euch
0:13:36–0:13:41
direkt darüber reden ich kenne glaube ich jemanden, aber wir haben nie so richtig
0:13:41–0:13:45
das offen ausdiskutiert und dann finde ich auch nicht, das ist an mir,
0:13:45–0:13:47
dass jetzt irgendwie da den.
0:13:48–0:13:53
Dieser Person auf die Pelle zurück und darum, ja Ja, aber ich würde gerne mal
0:13:53–0:13:54
eine Sendung dazu machen.
0:13:54–0:13:59
Ja, das fände ich mega spannend. Ich glaube, non-binäre Menschen sind ja auch
0:13:59–0:14:04
irgendwie Nerds, was so diese Fragen von Identität und so angeht.
0:14:04–0:14:09
Aber ich habe es versprochen, wir denken bei ESC eigentlich nicht an European
0:14:09–0:14:12
Song Contest, sondern an ESC oder Escape.
0:14:12–0:14:17
Also das, was auf eurer Tastatur bei diesem Knöpfe ganz links oben steht.
0:14:17–0:14:21
Über die Escape-Taste habe ich gefunden. und wir machen eine Sendung.
0:14:22–0:14:27
Und das erste Mal, die ist erfunden worden von einem Mann.
0:14:27–0:14:31
Kennst du, hat dir der Name Bob Burner etwas gesagt?
0:14:32–0:14:36
Hey, entfernt. Ich habe den Namen schon gehört, aber wenn du mich jetzt...
0:14:37–0:14:42
Frei aus dem Kontext heraus gefragt hast, wer das ist, dann hätte ich es nicht gewusst.
0:14:42–0:14:50
Also ich sage es, er begann 1949 zu programmieren, war zuerst bei Lockheed, dann ging er zu IBM,
0:14:50–0:14:55
natürlich war IBM der Treiber dieser Entwicklungen, all die Tasten,
0:14:55–0:14:58
die wir heute auf dieser Tastatur haben, wenn man keinen Mac hat,
0:14:58–0:14:59
darauf komme ich vielleicht noch,
0:15:00–0:15:03
die wurden von IBM-Leuten entwickelt,
0:15:03–0:15:08
er hat kommt dran, ein Vorläufer von Kobol,
0:15:09–0:15:13
programmiert damit und hat gefunden, ich müsste irgendeinen Knopf haben,
0:15:13–0:15:19
wenn etwas läuft und nicht so läuft, wie es sollte, dann müsste ich das abbrechen können.
0:15:19–0:15:22
Und dann hat er die Escape-Tasten erfunden.
0:15:22–0:15:25
Wen genau, habe ich jetzt nicht gefunden.
0:15:25–0:15:28
Ich glaube, 1960 ist das so langsam etabliert worden.
0:15:28–0:15:34
Er hat den Backslash erfunden und die geschwungenen Klammern.
0:15:34–0:15:40
Also eigentlich ist das so ein verkannte Held unserer Tastatur,
0:15:40–0:15:43
könnte man fast sagen, oder? Der Bob Böhmer.
0:15:43–0:15:49
Ja, ohne Escape-Taste, wir würden durchdrehen. Genau, aber auch ohne Backslash.
0:15:49–0:15:51
Wir geben mal ein paar an. Ohne Backslash.
0:15:53–0:15:53
Genau.
0:15:56–0:16:02
Und das ist auch noch bemerkenswert, sonst sind die meisten von diesen Bezeichnungen
0:16:02–0:16:07
auf den deutschen Tastaturen eingedeutet worden, aber Escape eben nicht.
0:16:07–0:16:12
Du hast es gesagt, man braucht sie zum Sachen abbrechen, man braucht sie zum
0:16:12–0:16:15
Dialog zu machen, wo man nie irgendwo klicken kann.
0:16:15–0:16:18
Ich brauche sicher eine Million Mal pro Tag.
0:16:19–0:16:23
Nein, das ist alt, Tabulator, das ist gar nicht alt, Escape.
0:16:23–0:16:24
Was macht ein alt Escape?
0:16:24–0:16:31
Ach, da kannst du unten bei der Taskleiste die offenen Programme durchblättern.
0:16:31–0:16:33
Doch das mache ich auch ab und zu bei Windows.
0:16:34–0:16:41
Das mache ich nie. Was ist für dich der häufigste Einsatz dieser Escape-Tasten?
0:16:42–0:16:46
Vieles. Kommando zielen ist oft mit Escape, da brauche ich sie viel.
0:16:49–0:16:56
Bei Photoshop und Videoschnitt mache ich viel mit Escape wieder zu. Die Fenster und so.
0:16:58–0:17:01
Was ist noch Escape? all die Fehlermeldungen, die immer kommen,
0:17:01–0:17:05
wenn ich etwas zufällig drücke. Ja, genau.
0:17:06–0:17:11
Ich kann es gar nicht so genau sagen, aber ich brauche diese schon relativ viel.
0:17:12–0:17:15
Ja, ich finde auch, die ist wichtig. Ich hatte ja auch mal, und das hast du dann gesehen,
0:17:16–0:17:23
ich hatte ja so ein MacBook, und das ist in der Geschichte der Escape-Taste
0:17:23–0:17:28
Die erste Escape-Taste ist das MacBook Pro 2016 mit der Touch-Bar.
0:17:29–0:17:33
Wo du dann plötzlich gemerkt hast, da gibt es keine Escape-Taste mehr.
0:17:33–0:17:41
Die ist zwar auf dem Bildschirm drauf, meistens als Knopf, aber du triffst es nicht unbedingt blind.
0:17:41–0:17:44
Hat die Generation Laptop keine Escape-Taste mehr?
0:17:45–0:17:51
Nein, genau. Ich habe noch so eine. Ich habe mich schon daran gewöhnt,
0:17:51–0:17:58
Aber eben gerade so Programmierer oder gewisse Texteditoren oder für.
0:17:59–0:18:06
Für das Programmieren, Terminals und so wie du gesagt hast, braucht man sie
0:18:06–0:18:10
einfach in Spielen, ist sie zum Teil wirklich wichtig, wobei ich dann herausgefunden habe,
0:18:11–0:18:16
also es gibt auch die Fälle, wo du in Spielen, wenn du Escape gedrückt hast,
0:18:16–0:18:20
bist du je nachdem dann zum Spielen rausgefallen,
0:18:20–0:18:25
weil dann gerade auf den Hauptbildschirm zurückgekommen bist und dann bei Doom
0:18:25–0:18:30
hätte dir das passieren können, offenbar wenn du ein Gefecht hatte kurz davor
0:18:30–0:18:32
um zu gewinnen und dann hast du aus Versehen,
0:18:33–0:18:36
Escape gedrückt und bist draussen gewesen. Ach.
0:18:37–0:18:43
Und hast du irgendwie ein besonderes Erlebnis, das du mit Escape verbindest,
0:18:43–0:18:52
wo du, wo irgendein Kunde dir hat wollen irgendetwas aufnötigen mit denen oder so?
0:18:54–0:18:59
Nein, aber ich weiss noch, wir haben ja im Kino Freienstein relativ früh mit
0:18:59–0:19:07
der Digitalprojektion angefangen und das war eine relativ einfache Linux-Software,
0:19:07–0:19:08
die einfach einen Player anzeigte.
0:19:09–0:19:18
Und die ganz erste oder ganz frühe Generation war, du konntest den Film starten
0:19:18–0:19:21
und wenn dann Es hat alles beendet.
0:19:22–0:19:27
Und das war ein Bug, den es hatte. Und das haben sie dann mega schnell gelöst.
0:19:28–0:19:32
Wir hatten den Fall nie, dass es passiert ist, aber irgendwann kam diese Software-Update,
0:19:32–0:19:37
wo sie sagten, hey, spiel den möglichst schnell ein, weil das ist noch gefährlich.
0:19:37–0:19:39
Und ich habe es dann wirklich ausprobiert, und du konntest den Film wirklich
0:19:39–0:19:44
in den Lärm verlassen. Escape, einmal dran kommen und hat alles beendet. Das war es.
0:19:45–0:19:51
Und eigentlich ist es komisch, weil Linux mit Escape eigentlich etwas anders umgeht als Windows.
0:19:51–0:19:56
Und das muss irgendein Bug gewesen sein. Und dann, ja, uns das behaupten und
0:19:56–0:19:57
seitdem, also nie mehr vorkommen.
0:19:58–0:20:03
Also hättest du wieder den Film starten müssen und dann dort hin blättern, wo du warst.
0:20:03–0:20:07
Du hast den Play, also er hat den Film beendet und den Player zugemacht.
0:20:07–0:20:10
Dann hast du wieder den Player aufmachen müssen und den Film von vorne wieder
0:20:10–0:20:12
starten. Ja, das ist natürlich ein bisschen blöd.
0:20:12–0:20:18
Das ist nicht, was du willst. Genau, also. Touch Bar haben wir erwähnt.
0:20:18–0:20:24
Ah, ich habe noch nachgeschaut, ob die Escape-Taste eigentlich prominent ist.
0:20:24–0:20:29
Wie häufig die in den Medien vorkommt. Ich bin dann in die Schweizer...
0:20:29–0:20:32
Ja, ich habe richtig recherchiert bei deiner Sendung.
0:20:33–0:20:37
Ist das eine Promi, diese Escape-Taste? Ich glaube, es ist nicht so eine grosse
0:20:37–0:20:39
Promi wie Control-Alt-Delete.
0:20:40–0:20:43
Das ist, glaube ich, viel bekannter. Und man fragt sich eigentlich,
0:20:43–0:20:47
warum er Control-Alt-Delete gemacht hat und nicht Control-Alt-Escape.
0:20:48–0:20:51
Oder einfach Lang-Lang-Escape oder so.
0:20:51–0:20:55
Aber ich glaube, er hat versucht, den, den er erfunden hat, ich weiss jetzt
0:20:55–0:20:58
gerade nicht mehr, wer es war, dass die Tasten möglichst weit auseinander sind.
0:20:58–0:21:01
Dass das eben nicht aus versehen passiert oder weil das
0:21:01–0:21:05
ist ja dann noch wieder her das macht eben sinn ja genau
0:21:05–0:21:08
die klinik der härtere abbrüchen aber weder weder nur
0:21:08–0:21:11
es gibt also die schweizerische medien datenbank smd
0:21:11–0:21:17
gibt 64 artikel wo die es gibt das denn erwähnt ist meistens ist sie so als
0:21:17–0:21:22
metapher und sie vor also sie bezeichnet eine so eine vorhandene oder meistens
0:21:22–0:21:26
nicht vorhandene ausstiegsmöglichkeit also man schildert dann ja in der und
0:21:26–0:21:29
In dieser Situation gibt es keinen Escape-Knopf,
0:21:29–0:21:34
den du stören musst und etwas über dich ergehen lassen musst.
0:21:34–0:21:40
Oder dich etwas stellen musst und mit deinen inneren Dämonen ringen.
0:21:40–0:21:44
Dafür ist die Escape-Taste ein schönes Beispiel.
0:21:44–0:21:50
Dann gibt es natürlich Artikel, die sich tatsächlich mit echten Escape-Tasten
0:21:50–0:21:54
beschäftigen. Und dann habe ich festgestellt, dass ein beträchtlicher Teil dieser
0:21:54–0:21:59
Artikel, wo es wirklich um die richtige Escape-Taste geht, stammt von mir.
0:22:00–0:22:04
Also ich glaube, ich bin die führende Escape-Taste.
0:22:04–0:22:10
Du bist der Escape-Spezialist der Schweiz. Ja, also umso wichtiger ist diese Sendung von heute.
0:22:10–0:22:14
Und die erste Erwähnung von Escape war allerdings nicht von mir,
0:22:14–0:22:19
sondern die war im Cash von 12.04.1991.
0:22:19–0:22:23
Und es ist aber auch nicht um die echte Escape-Taste gegangen,
0:22:23–0:22:25
sondern um, dort hat es so eine.
0:22:27–0:22:35
Die Schweizer wurden so Preise vergeben für bemerkenswerte Leistungen in der Informatikbranche.
0:22:35–0:22:39
Das ist die EDV Oscars haben die geheissen.
0:22:39–0:22:46
Da hat es einen Informatik Circle gegeben aus Beraterfachjournalisten und IT-Unternehmern.
0:22:46–0:22:49
1990 sind die zum ersten Mal vergeben worden.
0:22:49–0:22:51
1991 ist dann darüber geschrieben worden im Cash.
0:22:51–0:22:57
Und die haben die Preise alle so genommen, hatte, die nach Tasten benannt sind.
0:22:57–0:23:03
Enter für herausragende Dienstleistungen. Page Up für vorbildliches Management.
0:23:05–0:23:11
Page Down, das ist die Wirtschaftsdatabank von Teledata, also gut,
0:23:11–0:23:12
aber verbesserungswürdig.
0:23:12–0:23:17
Page Down und dann eben die Escape-Taste für einen Neuversuch.
0:23:17–0:23:26
Der hat ein Herr namens Eugen Kümmin von der PTT bekommen für das Projekt Kommunikationsmodellgemeinden.
0:23:27–0:23:29
Darüber möchten wir noch mehr wissen.
0:23:29–0:23:31
Das war das erste Mal.
0:23:32–0:23:35
Zumindest in diesen Zeitungen, muss man beim SMT immer noch sagen,
0:23:36–0:23:40
also vor dem Jahr 2000, ist das ein bisschen lückenhaft.
0:23:40–0:23:46
Dort kann es sein, dass es andere Zeitungen gegeben hat, die nicht darin gelandet
0:23:46–0:23:48
sind und die schon früher darüber geschrieben wurden.
0:23:48–0:23:52
Und dann haben wir ja all die schönen, ich habe schon die IBM-Tastatur erwähnt,
0:23:52–0:23:58
all die schönen anderen Tasten, erwähnt, Control, Alt, Alt-Gr.
0:23:58–0:24:04
Ich habe zum Beispiel herausgefunden, dass Alt-Gr, das Gr, gar nicht für gross
0:24:04–0:24:09
steht, wenn ich immer gemeint habe, sondern für Grafik, also für alternative Grafiken.
0:24:10–0:24:15
Das heisst, darum kannst du mit Alt-Gr-E eben das Euro-Symbol anzeigen,
0:24:15–0:24:21
weil das eine alternative grafische Darstellung ist, die hier über abgerufen wird.
0:24:21–0:24:24
Print Screen, weisst du zum Beispiel, aber jetzt können wir,
0:24:24–0:24:30
jetzt geht es ans Eingfleischte, jetzt werden wir nerdig im Nerdfunk.
0:24:30–0:24:35
Weisst du, was NumLock, weisst du natürlich, was der Numeric Lock oder NumLock ist?
0:24:36–0:24:40
Also was das heisst? Was die macht, die Taste?
0:24:41–0:24:47
Die NumTaste, die Feststelltaste, die schreibt gross.
0:24:48–0:24:51
Nein, das ist nicht gross, das ist Caps Lock.
0:24:53–0:24:57
Den Zahlenblock, denke ich, logisch. Ja, genau.
0:24:57–0:25:03
Den Zahlenblock auf Pfeil ausstellen.
0:25:03–0:25:06
Ja, genau, also zwischen den Pfeilen und den Zahlen.
0:25:06–0:25:10
Pause, Break, hast du dir schon jemals gebraucht?
0:25:11–0:25:15
Die konnte man früher brauchen, wenn man einen DOS-Rechner hatte und dann musste
0:25:15–0:25:18
man starten und dann kamen die Kommando-Ziele, dann konnte man Pause drücken,
0:25:18–0:25:21
dann hat er wirklich pausiert und konnte schauen, was er macht. Genau.
0:25:21–0:25:25
Und das war noch so langsam, dass du wahrscheinlich auch im richtigen Moment
0:25:25–0:25:27
Pause drücken konntest.
0:25:28–0:25:34
130 MHz, 133. Genau. Und heute wäre es eh so schnell, wenn das durchrauscht,
0:25:34–0:25:41
dass es wahrscheinlich... Ich frage mich, warum man die nie abgeschafft hat.
0:25:41–0:25:46
Jetzt sieht man schon, die Tastatur ist eine wahnsinnig konservative Angelegenheit.
0:25:46–0:25:49
Ich weiss auch nicht, macht die noch etwas?
0:25:50–0:25:53
Oder wohnt die einfach noch ein bisschen bei uns, die Pausentaste?
0:25:53–0:25:55
Kann die noch? Die kann nichts mehr.
0:25:55–0:25:59
Das ist eine gute Frage. Ich frage nachher den Chat-Hippie-Tee,
0:25:59–0:26:01
ob die Pausentaste heute noch etwas macht.
0:26:02–0:26:06
Aber genau, also eigentlich ist die fast überflüssig.
0:26:06–0:26:10
Dafür haben wir dann auch so neue Tasten bekommen, wie diese Windows-Tasten.
0:26:10–0:26:17
Und jetzt will Microsoft ja noch eine Co-Pilot, also eine extra Koi-Taste auf
0:26:17–0:26:20
diese Tastatur bringen, was ich so ein bisschen für ein Marketing vorzuhalten.
0:26:21–0:26:27
Ja, das ist, also, das funktioniert doch nicht. Apple hat ja auch die Siri-Taste mal drauf.
0:26:28–0:26:31
Ah ja, genau, das stimmt. Die ist einfach verschwunden.
0:26:31–0:26:37
Aber ich meine, die Siri hat auch nichts. Und also, nein, du brauchst keine K-I-Tasten.
0:26:37–0:26:42
Es reicht ja mit Windows-Tasten und C-Kontakt-Copilot ja auch.
0:26:42–0:26:47
Das ist doch ein völliger Habakuk. Die Windows-Tasten, ich hätte dir jetzt nicht
0:26:47–0:26:50
unbedingt Windows gesagt, aber auf eine Art ist es nicht verkehrt,
0:26:50–0:26:55
weil du ja so Betriebssystem-Funktionen auslösest.
0:26:55–0:26:58
Und da gibt es ja wirklich wahnsinnig viele praktische Sachen.
0:26:59–0:27:05
Windows E ist Explorer und Windows Shift S ist Screenshots und alles so.
0:27:05–0:27:08
Also die, ich finde die eigentlich, ich brauche die ja wirklich noch recht viel.
0:27:09–0:27:11
Aber eben ja, genau.
0:27:12–0:27:19
Sicher besser oder wichtiger wäre so eine blöde Copilot-Taste.
0:27:19–0:27:22
Und jetzt muss ich leider ein bisschen, ich habe es,
0:27:22–0:27:27
Ich muss mich ein wenig über den Mac aufregen, weil ich verstehe auf eine Art,
0:27:27–0:27:33
dass der Mac ein Sonderzeugchen hat, aber was die Sondertaste beim Mac angeht,
0:27:33–0:27:35
das ist ein ziemliches Debakel.
0:27:35–0:27:37
Findest du nicht auch? Warum? Warum?
0:27:38–0:27:43
Also erstens einmal von der Nähe her, da gibt es ja die Kontrolltasten,
0:27:43–0:27:47
die ja auch mit dem Hökli nach oben, mit dem, wie heisst das?
0:27:47–0:27:48
Mit dem Pfeil nach das Dach.
0:27:48–0:27:53
Das Dach, das du aufs Aue setzen kannst. Ich müsste jetzt wissen, wie das heisst, genau.
0:27:53–0:27:58
Oder dann gibt es die eine Taste, die mit dem komischen Symbol,
0:27:59–0:28:04
der aussieht wie ein Zahnstocher, wo noch etwas dranhängt.
0:28:04–0:28:13
Die heisst ja, die heisst ja, Wahltaste Option, Alt oder Weiche, die hat vier Namen.
0:28:13–0:28:18
Kann man sich, kann man, kann man bitte sich für einen Namen entscheiden.
0:28:18–0:28:22
Aber sorry, das ist doch bei Windows auch nicht.
0:28:22–0:28:25
Ja, also eben. Da stehen doch immer so zwölf Bezeichnungen.
0:28:26–0:28:31
Was ist Caps Lock? Die heisst doch auch, Caps Lock ist umschalten und heisst
0:28:31–0:28:35
noch und da da da. und Control heisst Strong.
0:28:37–0:28:40
Was keine Ahnung macht, ob das englische Wörter sind.
0:28:40–0:28:46
Sie heisst nicht Strong, sie heisst Strick für Steuerung. Sie heisst Strong.
0:28:47–0:28:51
Strick heisst sie. Aber dann haben wir noch.
0:28:54–0:28:58
Befehlstasten, die auch Command, Apfeltaste oder Blumenkohl heisst.
0:28:58–0:29:03
Wir wissen noch, dass das Zeichen drauf hat. Das ist das Freimaurerzeichen.
0:29:03–0:29:06
Wenn du lange drauf trinkst, dann ist das Passwort Freimaurer.
0:29:07–0:29:11
Genau. Also ich verstehe ja, dass mit dieser Übersetzung auf Deutsch,
0:29:12–0:29:17
aber hätte man sich wenigstens für eine entscheiden können und nicht einfach vier verschiedene.
0:29:17–0:29:20
Und dann, was mich aber eigentlich noch viel mehr aufregt, ist,
0:29:20–0:29:25
dass das nicht ganz direkt korrespondiert. z.B.
0:29:25–0:29:36
Control würde man vermuten, dass sie mit der Strg-Taste korrespondiert.
0:29:36–0:29:37
Macht sie aber nicht.
0:29:37–0:29:40
Sie tut dann eigentlich mehr mit der.
0:29:43–0:29:48
Mit den Windows-Tasten, glaube ich, wenn ich es richtig im Kopf zähle.
0:29:48–0:29:50
Braucht man die Kontrolltaste auf dem Mac überhaupt?
0:29:51–0:29:53
Zählt man? Die brauchst du eben wenig. Ja, die brauchst du eben wenig.
0:29:54–0:29:57
Ich glaube, sie haben einfach gesagt, wir wollen die nicht nutzen,
0:29:57–0:29:58
weil die gibt es schon auf Windows, wir machen einfach andere.
0:29:59–0:30:02
Aber wenn du halt... Ich meine, ich brauche die Kontrolltaste nur,
0:30:02–0:30:06
wenn ich mit dem Mac einen Windows-Rechner-Team wuere. Dann brauche ich die Kontrolltaste.
0:30:07–0:30:11
Genau, und dann bist du völlig aufgeschmissen. Wenn du mit einer IBM-Tastatur
0:30:11–0:30:14
einen Mac bedienen musst, dann geht nichts mehr.
0:30:14–0:30:17
Und das habe ich eben auch ab und zu, wenn ich im Büro sitze,
0:30:17–0:30:21
dann möchte ich mein MacBook am grossen Bildschirm anhängen.
0:30:21–0:30:24
Und dann musst du natürlich auch mit dieser Tastatur arbeiten.
0:30:24–0:30:27
Und dann funktioniert aber gar nichts mehr.
0:30:27–0:30:30
Aber ich habe wenigstens noch einen Tipp, den könnt ihr dann morgen in meinem
0:30:30–0:30:32
Blog lesen, ausführlich auf clickumania.ch.
0:30:32–0:30:41
Wenn du dann wenigstens die beiden Tasten umkonfigurierst, was ja möglich ist,
0:30:41–0:30:47
also Control und Command austauschen für die externe IBM-Tastatur,
0:30:47–0:30:55
dann funktioniert wenigstens so, zum Beispiel Copy-Paste oder eben Control-Paste oder wie es immer ist.
0:30:55–0:30:59
Nein, Command-C für Kopieren ist ja normalerweise.
0:30:59–0:31:04
Und dann funktioniert es auf der externen Tastatur genauso, wie es sollte.
0:31:05–0:31:10
Ich finde, das ist eine völlig unnötige Verwirrung, wenn ich das sagen darf.
0:31:11–0:31:16
Das ist eine unnötige Verwirrung. Aber ich habe mich daran gewöhnt.
0:31:16–0:31:17
Es ist mir so ein bisschen egal.
0:31:17–0:31:21
Okay, wahrscheinlich könnt ihr jetzt... Ich schaue, ob ihr im gestrigen Buch
0:31:21–0:31:25
geschrieben habt. Jetzt sind ihr wieder am Jammern. Jetzt spinnt er wieder.
0:31:25–0:31:29
Über so ein Thema, wo niemand interessiert sonst.
0:31:29–0:31:33
Also, aber ich habe noch ein schönes Lesestück für ganz am Schluss.
0:31:34–0:31:38
Das ist zwar schon ein älterer Beitrag, den ihr dann in den Shownotes findet,
0:31:38–0:31:44
über eben die heutige Tastatur, wie die eigentlich entstanden ist und wie sie aus,
0:31:45–0:31:50
Usability-Sicht, auch abgesehen von diesen Sondertasten, einfach eine ziemliche
0:31:50–0:31:54
Katastrophe ist und wie alle Versuche sie zu reformieren,
0:31:55–0:31:57
bislang gescheitert sind und wahrscheinlich, ich würde sagen,
0:31:57–0:32:00
auch in den nächsten 50 Jahren werden sie scheitern.
0:32:00–0:32:06
Ich glaube eher daran, dass wir dann nur noch über Sprache mit KIs interagieren.
0:32:07–0:32:12
Eher, dass das eher passieren wird, dass wir reformierte Tastaturen haben,
0:32:12–0:32:16
wo alles logisch und alles benutzerfreundlich ist.
0:32:17–0:32:21
Logisch sind reformierte Tastaturen eher. Es gibt ja für das Handy Ich finde,
0:32:21–0:32:27
es gibt ganz viele Tastatur-Alternativen, das ist weit weg von Logik. Ganz weit weg.
0:32:30–0:32:41
Music.
0:32:42–0:32:45
Jetzt habe ich dir das Wort eingezingelt, jetzt musst du noch schnell deinen Satz fertig machen.
0:32:46–0:32:49
Ich wollte nur noch sagen, das ist weit weg von Logik. Ich glaube,
0:32:49–0:32:53
da braucht man ein Studium, um das zu machen.
0:32:53–0:32:55
Schönen Abend. Tschüss zusammen.
0:32:57–0:33:02
Stadtfilter. Stadtfilter. Stadtfilter. Jetzt hatten wir ganz viele Zingels.
0:33:03–0:33:03
Es ist ganz viel passiert.
0:33:04–0:33:06
Drück Escape. Escape.
0:33:08–0:33:12
Stadtfilter. Nein, wir haben nur noch die Schuhe. Also ich würde sagen,
0:33:12–0:33:14
ich wollte eigentlich nur noch ein bisschen Musik spielen.
0:33:15–0:33:17
Aber äh... Dieses Mal war es nicht ich.
0:33:18–0:33:22
Digi Chris hat mich jetzt so ausgelacht, aber es ist... Es ist jetzt die Aftershow.
0:33:23–0:33:24
Es war die Aftershow, also...

Die heutige Sendung des Nerdfunks steht ganz im Zeichen des ESC. Aber keine Angst: Wir werden Nemo zwar ein wenig für their Sieg loben, aber ansonsten nicht darüber ergehen, ob nicht Baby Lasagna hätte gewinnen müssen oder ob wir den Windows95man zwar toll fanden, der Linux-Debian-Woman aber noch eine grössere Punktzahl aus der Nerdcommunity verabreicht hätten.

Nein – wir nehmen das ESC-Kürzel zum Anlass, uns jenem Knopf auf unserer Tastatur zu widmen, auf dem es ebenfalls zu finden ist. Eine kleine Huldigung dieses Knopfs links oben, ohne den wir völlig aufgeschmissen wären.

Sollte nun der Fall eintreten, dass wir mit dieser Taste keine volle halbe Stunde über die Runden kommen, dann sprechen wir natürlich gerne auch über Ctrl, Alt, Alt Gr und Fn, und über Anachronismen wie Prt Scrn, ScrLk, Numlock und Pause. Und was zum Henker halten wir von der Windows-Taste und vom Copilot key? „Wir feiern die ESC (nein, kein Tippfehler)“ weiterlesen

Ein Tablet zum Falten?

Transkript anzeigen (falls vorhanden)

00:00–0:00:17
Music.
0:00:17–0:00:23
Sobald das Stück völlig verklungen ist. Ich würde sagen, jetzt ist es verklungen
0:00:23–0:00:25
und noch ein schönes Jingle.
0:00:31–0:00:37
Da ist der Digi-Chris, schon in den Startlöchern, hallo. Hallo und einmal den
0:00:37–0:00:39
Jingle verbittst. Gratulation.
0:00:39–0:00:44
Danke vielmals. So jedes zehnte Mal oder so klappt es ungefähr, würde ich sagen.
0:00:46–0:00:47
Aber, jaja.
0:00:49–0:00:55
Wie geht es dir so, Chris? So wie gut und du? Also du tönst auch nicht mehr
0:00:55–0:00:56
so verpflüsselt wie er schon?
0:00:57–0:01:03
Letzte Woche war es schlimmer, aber ich bin also immer noch ein bisschen rekonvaleszent.
0:01:03–0:01:06
Das ist irgendwie dieses Jahr, oder dieses Jahr, dieses Mal.
0:01:06–0:01:11
Es ist ja schon nicht das erste Mal, dass ich verkehltet bin in diesem Studio.
0:01:11–0:01:16
Und ihr beiden euch nicht getraut, hierher zu kommen und zu sagen,
0:01:16–0:01:23
lieber mit sicherem Abstand von zu Hause aus am Kabel.
0:01:24–0:01:30
Ich kann mir auch gerade sagen, vielleicht verspätet mit einem P2MP-Kabel. Okay.
0:01:32–0:01:35
Du wolltest nur sagen, dass du weniger Latenz hast, wie der Kevin.
0:01:36–0:01:43
Ist das das? Nein, nein. Vielleicht dann, wenn wir das zu dem Glasfaden Verstehe, verstehe, genau.
0:01:43–0:01:48
Weisst du, das Ding, das jetzt eigentlich verboten ist, aber vielleicht schauen wir das später an.
0:01:49–0:01:50
Wenn wir noch ein bisschen Zeit
0:01:50–0:01:57
haben, wir haben vor einem Monat über das suno.ai gesprochen. Ja, genau.
0:01:58–0:02:04
Und wie gesagt, es ist mir total vorbeigegangen, dank dir habe ich das gefunden.
0:02:04–0:02:09
Und ich habe dann halt wirklich Kollegen, Eltern irgendwie Liedchen geschrieben
0:02:09–0:02:14
und ich habe einfach spannend gefunden, dass Leute, die durchaus IT-affin sind,
0:02:15–0:02:20
ja also klar, du hast KI benutzt, wie heisst denn dein Dienst?
0:02:20–0:02:22
Ja, genau. Das ist ja cool.
0:02:24–0:02:28
Und jetzt machst du deine ganze Verwandtschaft mittels KI-Musik.
0:02:29–0:02:35
Nicht so wirklich. Was mir einfach aufgefallen ist, dass Suno jetzt im Prompt
0:02:35–0:02:39
Sachen zulässt, die Chat-GPT nicht zulässt.
0:02:39–0:02:41
Auch wenn es juxhaft ist.
0:02:41–0:02:47
Was er vielleicht mal ganz, ganz früh als Schüler naiverweise,
0:02:47–0:02:49
verbotenerweise gemacht hat, einen Briefkasten in die Luft jagen.
0:02:49–0:02:55
Ah, okay. Das lässt er zu, er lässt aber je nachdem, wenn etwas nur wie ein
0:02:55–0:03:01
Künstler klingt, also wenn jetzt deine Cousine Adele heisst, ja, forget it.
0:03:02–0:03:07
Ja, er hat Künstler-Namen, sind alle gestrichen, das ist mir aufgefallen.
0:03:07–0:03:11
Aber wenn jetzt halt deine Cousine tatsächlich Adele heisst,
0:03:11–0:03:15
ist jetzt bei mir zwar nicht der Fall, aber so ähnlich, nein, dann weigert er sich.
0:03:16–0:03:20
Und was ich auch gemerkt habe... Hast du mir noch ein Beispiel,
0:03:20–0:03:25
das wir dazu einspielen könnten, während du erzählst?
0:03:25–0:03:30
Meine Katze Madonna schläft den ganzen Tag. Das wird sie wahrscheinlich auch nicht machen.
0:03:30–0:03:33
Aha, das ist nicht etwas, das du schon probiert hast.
0:03:33–0:03:36
Nein, nein, aber ich habe mir das jetzt nicht aufgeschrieben.
0:03:36–0:03:41
Wenn etwas nur in der Nähe von einem Künstlernamen kommt und teilweise ein Künstler,
0:03:41–0:03:42
den ich gar nicht kenne...
0:03:43–0:03:47
Ja, das will er nicht haben. Sonst hat er Angst, er werde sofort verklagt.
0:03:47–0:03:50
Also, was meine Katze, Madonna.
0:03:52–0:03:58
Ich probiere es mal. Und was haben deine Verwandten so komponiert?
0:03:59–0:04:02
Also sie haben es in der Regel einfach weitergeleitet oder eben auch,
0:04:02–0:04:06
ich glaube, als ich in den Ferien war, in einem Hotel, wo ich halt...
0:04:06–0:04:11
Ja, die GPS sind gut, das gibt es so viel, aber eben die Besitzerin,
0:04:12–0:04:16
das haben sie so genial gefunden, sie haben es der Mutter und dem Vater geschickt,
0:04:16–0:04:17
haben die so Freude gehabt.
0:04:19–0:04:23
Es ist wirklich ein lustiges Ding, aber was ich auch gemerkt habe,
0:04:23–0:04:27
wir hatten ja schon so viele Sendungen über KI, wenn ich jetzt sage,
0:04:27–0:04:33
A und B treffen den C, dann macht...
0:04:34–0:04:39
Also du hast falsch gehabt, meine schlafende Katze Madonna, oder meine Katze...
0:04:41–0:04:43
Madonna schläft den ganzen Tag.
0:04:42–0:04:50
Music.
0:04:50–0:04:56
Okay. Also macht das doch, aber eben ich glaube jetzt eben was so ein Problem
0:04:56–0:05:01
hat, also eben logische Zusammenhänge, wenn ich jetzt sage, ich sage jetzt Matthias
0:05:01–0:05:04
und Chris gehen zum Kevin seine Hühner besuchen.
0:05:04–0:05:10
Würde dann im Umkehrschluss irgendwie sagen, dass dann plötzlich Matthias und
0:05:10–0:05:15
Kevin am Chris seine Hühner besuchen oder am Huhn Können sie den Chris besuchen?
0:05:15–0:05:21
Wenn du so eine Entohren-Verknüpfung hast, was wir Informatiker kennen,
0:05:22–0:05:25
scheint er dann teilweise wirklich total durcheinander zu kommen.
0:05:25–0:05:29
Ja, das ist glaube ich so ein KI-Problem, aber...
0:05:33–0:05:37
Das ist der zweite, den er mir gemacht hat. Aber ich würde sagen,
0:05:37–0:05:38
wir wollen ja eigentlich,
0:05:40–0:05:42
dann Patch Tuesday machen. Das
0:05:42–0:05:47
ist unsere neue News-Sendung und ich würde sagen, wir fangen gleich an.
0:05:47–0:06:13
Music.
0:06:13–0:06:18
Ja, heute war es wieder einmal eine Apple-Veranstaltung und ich hatte leider
0:06:18–0:06:23
keine Zeit, um sie zu sehen oder zu hören oder mich auch nur durch einen Ticket zu kämpfen.
0:06:24–0:06:29
Aber Digi-Chris, du bist heute unser Touchmeister, weil ich die ganze Woche
0:06:29–0:06:33
im Newsroom schmachten musste und habe deshalb keine Zeit für das Digitale gehabt.
0:06:33–0:06:37
Aber du hast all die Themen, über die wir heute reden. Und wie war es?
0:06:38–0:06:42
Haben wir das zusammen? Rollbare, faltbare, iPad?
0:06:42–0:06:47
Ich muss sagen, normalerweise ist Apple mit uns in Konkurrenz,
0:06:47–0:06:54
weil normalerweise machen sie ja ihre Keynotes oder ihre Events um 7 Uhr unserer
0:06:54–0:06:58
Zeit und wenn wir anfangen, geht es los. jetzt haben sie schon am 4.
0:06:58–0:07:04
Jahr angefangen ja, was haben sie gemacht also Apple hat ja schon länger das
0:07:04–0:07:10
iPad als solches nicht mehr aktualisiert ja und ja,
0:07:10–0:07:15
also zumindest mal das Einsteiger-iPad haben sie zum Beispiel im Preis gesenkt,
0:07:15–0:07:21
was ja schön ist eben Leute, die das iPad wo ich es auch als Gerät sehe,
0:07:21–0:07:27
einfach sagen zum Netflix-Abspieler haben die zahlen jetzt weniger für ein wirklich
0:07:27–0:07:30
solides Tablet, soweit so gut.
0:07:31–0:07:37
Und wenn wir jetzt schnell zum Ferrari gehen und eben das ist so eine Sache,
0:07:37–0:07:46
das iPad Pro, hat jetzt die sogenannte M4 Chip und den M4 Chip gibt es noch nicht mal in den Laptop.
0:07:47–0:07:52
Ja, was ein völliger Unfug ist, oder? Ich habe so ein Laptop mit M3 Chip zum
0:07:52–0:07:58
testen bekommen, das ist super, Da kannst du wunderbar auch so lokale K-Eis drauflaufen lassen.
0:07:59–0:08:03
Du kannst zum Beispiel das Whisper, das dir dann Sachen transkribiert.
0:08:03–0:08:09
Du kannst das... wie heisst das? Jetzt ist mir entfallen, wie es heisst, wo du Bilder machst.
0:08:10–0:08:13
Tari oder... Nein, das Lokale. Warte, das fällt mir ein.
0:08:14–0:08:18
Stable Diffusion. Genau, Stable Diffusion, ja. Genau, das kannst du drauflegen.
0:08:18–0:08:22
Oder es gibt auch so Chatbots, zum Beispiel das Lama. Das kannst du eigentlich
0:08:22–0:08:28
alles, was andere Leute in der Cloud machen, wunderbar mit dem M3 Chip auf dieser Hardware machen.
0:08:29–0:08:33
Aber mit dem iPad kannst du das nicht vernünftig machen.
0:08:33–0:08:37
Ich glaube auch nicht. Ich habe den Vergleich jetzt angenommen.
0:08:37–0:08:43
Ihr wisst alle, ich bin ÖV-Fan, ich kann den Fahrausweis, aber wenn ich mir
0:08:43–0:08:47
jetzt einen Bugatti Veyron posten würde und einfach nur in meinem Dorf herumfahre,
0:08:47–0:08:50
wo überall 30 ist. Genau. Ist etwas das Gleiche.
0:08:51–0:08:57
Es ist wahnsinnig gut motorisiert für einen Zweck, den man sich überlegen kann.
0:08:57–0:09:02
Also ich hatte ja mal so ein iPad Pro zum testen und fand, ja nett alles,
0:09:02–0:09:06
ich glaube, wenn du wirklich mit dem Stift arbeitest, dann ist das eine gute Sache.
0:09:07–0:09:13
Aber wenn du jetzt irgendwie einfach wirklich pro, also professionell arbeiten
0:09:13–0:09:17
willst, dann brauchst du einfach ein richtiges Betriebssystem.
0:09:17–0:09:22
Und ich würde sagen, es ist wunderbar, dass es jetzt das M4 in diesem Ding hat,
0:09:23–0:09:27
aber die Software, sie müssten doch jetzt einmal mit dieser Software etwas machen,
0:09:27–0:09:30
weil die hinkt irgendwie technisch, würde ich sagen.
0:09:31–0:09:36
Ist in den letzten mindestens sechs, sieben Jahren nicht mehr so viel passiert.
0:09:36–0:09:41
Es ist nichts passiert und vermutlich würde so ein iPad locker ein macOS bieten können.
0:09:41–0:09:45
Vielleicht ist es schon im Code und müsste wahrscheinlich zwei Ziele ändern
0:09:45–0:09:53
und dann würde das macOS hochkommen, das glaube ich jetzt und wie ja klar haben die Pros,
0:09:53–0:10:00
dass du mit diesen Fenstern kannst arbeiten, aber es ist dann wahrscheinlich
0:10:00–0:10:05
tatsächlich und eben, wer hat das schöne Wort, der Workflow, du kommst irgendwie,
0:10:05–0:10:09
du machst mit deiner, ich sage es sogar nicht, mit deinem iPhone,
0:10:09–0:10:12
mit deiner Spiegelreflexkamera machst du dir ein Portrait.
0:10:12–0:10:19
Dann bringst du es irgendwie auf dein iPad, dann nimmst du es in Lightroom oder
0:10:19–0:10:23
wo auch immer rein und das ist teilweise auf dem iPad so mühsam.
0:10:25–0:10:28
Während es halt auf dem MacBook oder, ja, 10 Sekunden geht.
0:10:29–0:10:33
Du hast halt immer noch so das eingeschränkte Betriebssystem,
0:10:35–0:10:38
wo halt kein offenes Dateisystem hast.
0:10:38–0:10:43
Also du kannst nicht so, es gibt zwar die Dateien-App, aber im Vergleich zu
0:10:43–0:10:48
einem richtigen, sagen wir jetzt Windows, MacOS, auch Linux,
0:10:48–0:10:50
kannst du eben etwas viel eingeschränkter.
0:10:50–0:10:56
Und ich zum Beispiel, bei mir hört es eigentlich schon auf, dass ich in meinem
0:10:56–0:10:59
Browser einfach ganz viele Plugins haben will.
0:10:59–0:11:05
Und das gibt es nicht. Es gibt jetzt ein paar ganz schüche Ansätze davon, auch von Plugins.
0:11:05–0:11:12
Aber es ist irgendwie viel umständlicher gelöst und ich verstehe das nicht.
0:11:12–0:11:18
Also ehrlich, ich verstehe es natürlich, sie wollen immer noch die iPads verkaufen
0:11:18–0:11:23
und sie wollen sagen, die meisten Leute, die uns ernsthaft brauchen,
0:11:23–0:11:32
die haben ein iPad und sie haben ein MacBook und wenn man jetzt ein Fusioniert-System
0:11:32–0:11:36
haben könnte, dann würden die Leute nur noch ein solches Gerät kaufen.
0:11:36–0:11:41
Ich denke, was tatsächlich, und wie gesagt, ich schaffe jetzt nicht kreativ,
0:11:41–0:11:45
aber anscheinend tatsächlich der Pencil, wenn du jetzt genau musst arbeiten,
0:11:45–0:11:49
also ich glaube, ich habe in dem Podcast,
0:11:49–0:11:53
du schneidest das ja mit Odessedy und eben gehst mit der Maus und anscheinend
0:11:53–0:11:59
sieht das mit dem Stift tatsächlich relativ praktisch, wenn du echt Millimeter
0:11:59–0:12:03
genau rausschneiden musst, wenn du halt tatsächlich büsisch...
0:12:03–0:12:07
Wenn du das gewohnt bist, könnte ich mir das vorstellen. Aber ich würde sagen,
0:12:07–0:12:09
ich hatte mal so ein Jogwheel.
0:12:09–0:12:18
Also so ein Drehrad, wo du dann... Also so ein extra Gerät, ein Eingabegerät
0:12:18–0:12:20
für eigentlich Video- und Audioschnitt.
0:12:20–0:12:25
Und das finde ich dann doch wieder auf eine Art praktischer.
0:12:25–0:12:28
Aber dafür brauchst du wieder ein richtiges Betriebssystem, wo du dann auch
0:12:28–0:12:30
die Treiber installieren kannst.
0:12:30–0:12:33
Und ich finde, ich verstehe es auf eine Art,
0:12:33–0:12:36
dass sie jetzt vielleicht die Systeme getrennt halten,
0:12:36–0:12:43
auch wenn es ja die komischen Sachen gibt, die Stage-Managers mit mehreren Fenstern,
0:12:43–0:12:49
die es dann auch irgendwie am iPad gibt und es gibt eine andere Variante auch am Mac.
0:12:49–0:12:55
Aber ich finde die Zweigleisigkeit, finde ich, eigentlich schon seit mindestens
0:12:55–0:12:58
5 Jahren ist die auch überholt.
0:12:58–0:13:02
Und das jetzt so stur an dieser immer noch festzuhalten, finde ich ein bisschen...
0:13:03–0:13:07
Also das würde ich jetzt nicht mit dem Attribut innovativ versehen.
0:13:08–0:13:12
Ne, und eben, weil klar, momentan ist vermutlich das neue iPad schneller,
0:13:12–0:13:16
also eben, ich spreche zu dir auf einem M1 Mac, also das ist Sicherheit.
0:13:17–0:13:22
Rein CPU-mässig hat das mehr Power, aber ich kann auf dem wahrscheinlich mehr machen, wie gesagt.
0:13:23–0:13:26
Ja, aber, also, dass ihr jetzt einfach auf dem Power herumreitet und immer noch
0:13:26–0:13:29
einen schnelleren Chip, das ist ja wunderbar, aber müsstest...
0:13:29–0:13:33
Also, ich finde, am Schluss, wenn ich eine super Software habe,
0:13:33–0:13:38
dann kann ich arbeiten auf relativ langsamer Hardware, aber ich kann die schnellste
0:13:38–0:13:42
Hardware haben, wenn einfach die Software nicht mitmacht, dann nützt mir das alles nichts.
0:13:42–0:13:47
Darum finde ich das wirklich eine falsche Strategie und man könnte ja jetzt
0:13:47–0:13:48
wenigstens sagen, okay,
0:13:48–0:13:52
sie wollen die Systeme nicht verheiraten, dann könnten sie vielleicht für Leute,
0:13:52–0:13:56
die gerne mit dem Stift arbeiten möchten, einfach sagen, okay,
0:13:56–0:13:58
man kann jetzt auf diesen Tablets, auf diesen Pros zumindest,
0:13:59–0:14:01
vielleicht auch noch das macOS bieten.
0:14:01–0:14:07
Und dann kannst du mit dem Stift und direkt in Photoshop und all die Apps sind
0:14:07–0:14:11
ja wunderbar, auch für Touchscreen und so optimiert. Das ginge alles,
0:14:11–0:14:14
aber nein, das ist eine völlig künstliche.
0:14:15–0:14:23
Und wir haben ja auch über die alternativen Stores und alles und den Zwang der EU,
0:14:23–0:14:29
die Apple ein bisschen zur Öffnung zwingen, aber für ihr Geschäftsmodell ist
0:14:29–0:14:34
Öffnung, glaube ich, schlecht, weil sie verdienen einfach weniger.
0:14:34–0:14:37
Und darum verweigert es sich dieser Öffnung.
0:14:38–0:14:43
Aber sehen wir mal, was wir hier mit den ganzen Regulierungen haben.
0:14:43–0:14:47
Man hat ja gehört, auch der Digital-Market-Sekt, darüber haben wir auch schon geredet.
0:14:47–0:14:54
Hier reden wir über sogenannte Gatekeeper, also relevante Plattformen,
0:14:54–0:14:56
wo halt das iPhone darunter fällt.
0:14:56–0:15:00
Und offenbar fällt jetzt doch das iPad auch darunter.
0:15:00–0:15:06
Genau, und zwar vor allem, was ich gelesen habe, weil sie auch im Geschäftsbereich
0:15:06–0:15:10
so dominant sind, dass man sagen kann, sie sind ein Gatekeeper,
0:15:10–0:15:13
also sie entscheiden darüber, was geht und was nicht.
0:15:13–0:15:20
Sie haben eine dominante Position. Und jetzt kommen diese alternativen Stores auch am iPad.
0:15:20–0:15:25
Und am iPad Pro ist es vielleicht auf eine Art dann fast noch spannender als
0:15:25–0:15:30
am iPhone, wo du sagen kannst, dann gibt es vielleicht tatsächlich Apps,
0:15:30–0:15:37
die dann ein bisschen mehr können und dann dem Pro am Schluss auch eine gewisse Berechtigung geben.
0:15:38–0:15:42
Ja, ganz klar. Und sonst darf ich das nächste Thema herausziehen.
0:15:42–0:15:48
Ja genau, also du bist heute der Touchmeister, du kannst genau sagen, über was wir reden.
0:15:48–0:15:51
Wenn ich dich dann frage, du hast eine Tochter, hat die schon ein Handy?
0:15:51–0:15:54
Die hat ein Dump-Phone, ja.
0:15:54–0:16:00
Wo sie aber vor allem einfach in ihrem Take hat, dass wenn etwas wäre,
0:16:00–0:16:02
wo sie uns erreichen müsste, dass sie das könnte.
0:16:02–0:16:07
Also sie kann dort nicht Whatsappen? Nein, das kann sie nicht.
0:16:07–0:16:12
Man kann keine Apps drauf installieren. Also wirklich ein dummes Telefon,
0:16:12–0:16:16
so ein Nokia für 70 Franken hat es gekostet.
0:16:16–0:16:22
Ich erinnere mich, als ich und ihr wisst, ich bin einer der Jüngsten,
0:16:23–0:16:26
bei uns damals auf dem Pausenplatz gab es eigentlich ein Gameboy-Verbot.
0:16:29–0:16:33
Also gut, ich kann es ja sagen, ich bin Jahrgang 81 und wüsste nicht mehr,
0:16:33–0:16:35
wann Game Boy und so rausgekommen sind.
0:16:35–0:16:40
Und dort hat es tatsächlich so gewesen, wenn du verwischt wurdest mit dem Game
0:16:40–0:16:41
Boy, bist du dann eingezogen worden.
0:16:42–0:16:49
Aber in der Regel hast du ihn am 4. Abend, sagen wir, am Schulschluss übergekommen.
0:16:49–0:16:53
Und im blödsten Fall hat halt die Mutter den müssen auslösen. Oh, oh, okay.
0:16:53–0:16:58
Aber das war ein Tag und jetzt hat es irgendwie in Freiburg einen Fall gegeben,
0:16:58–0:17:03
wenn Leute ein Smartphone benutzt haben und die waren teilweise 16,
0:17:03–0:17:09
17 Jahre alt, ist das Ding teilweise zwei Wochen lang konfisziert worden.
0:17:09–0:17:10
Das ist ein bisschen hart.
0:17:11–0:17:14
Das ist schon ein bisschen hart. Ich habe auch auf Twitter einen Scherz gemacht.
0:17:15–0:17:16
Da wisst ihr nicht mal, wie spät das ist.
0:17:17–0:17:23
Du wirst halt wahrscheinlich deine sozialen Kontakte teilweise auf dem Smartphone haben.
0:17:23–0:17:28
Du wirst vielleicht auch irgendein ÖV-Billett haben und so. Genau.
0:17:29–0:17:35
Heute kannst du am modernen Leben nicht mehr teilnehmen, wenn du dein Smartphone nicht hast.
0:17:35–0:17:38
Darum ist tatsächlich, Tatsächlich, du hast so einen...
0:17:39–0:17:42
Das ist dann glaube ich vor Gericht gelandet, wenn ich gesehen habe.
0:17:42–0:17:45
Und dann hat das Gericht gefunden, nein, das geht nicht mehr.
0:17:45–0:17:49
Und ich würde wahrscheinlich in diesem Fall tatsächlich zustimmen.
0:17:49–0:17:55
Wenn du einfach angewiesen bist, dann kannst du dein Leben nicht mehr bestreiten.
0:17:56–0:17:59
Also ich würde auch sagen, oder du kannst sagen...
0:17:59–0:18:03
Gut, ich sage jetzt nicht mehr wer es ist. Der hat mal ein Skilager organisiert
0:18:03–0:18:04
und der hat es halt so gemacht.
0:18:05–0:18:09
Also ja, ihr dürft das Smartphone haben, aber kontrolliert und nach dem Motto,
0:18:09–0:18:13
das Smartphone kommt in den verschlossenen Raum, ihr dürft, ich sage jetzt am
0:18:13–0:18:18
Abend, eine Stunde lang benutzen, dann wird der Raum abgeschlossen.
0:18:19–0:18:22
Und dann halt am Morgen, nach dem Aufstehen, dürft ihr auch wieder eine halbe
0:18:22–0:18:27
Stunde und dann bleibt das Smartphone drin und ja, wenn es einen Notfall gibt,
0:18:27–0:18:31
eure Eltern haben eine Notfallnummer, also wirklich kontrolliert,
0:18:31–0:18:33
aber nicht, weisst du, zwei Wochen weg.
0:18:33–0:18:37
Also ganz kontrolliert und das ist glaube ich auch jeder, der in diesem Lager
0:18:37–0:18:44
ist, hat das kommuniziert bekommen, dass du 4 Uhr am Morgen dein Handy nicht hast, da kein Problem.
0:18:44–0:18:48
Das ist glaube ich eine andere, also ich finde das nicht so schlecht,
0:18:48–0:18:53
dass du mal wieder das analoge Leben geniessen kannst. und wieso nicht so ein.
0:18:56–0:18:59
Retro-Lager, wo du dann gewisse Sachen machen musst, wie früher,
0:18:59–0:19:03
wo du ein Kassett einspannen musst, wenn du Musik hören willst und so.
0:19:04–0:19:08
Ich sage es gerade, in einem Klassenlager, ja, aber ich glaube,
0:19:08–0:19:13
wirklich rein rechtlich, also ich bin kein Anwalt, aber ein Gerät,
0:19:13–0:19:15
das ich jetzt halt persönlich oder halt, ich sage jetzt,
0:19:16–0:19:21
wenn ich jetzt zwölf wäre, ist mein Vater Eigentümer vom Smartphone,
0:19:21–0:19:26
der für die Schule Also außerhalb der Schulzeit nicht zu konfiszieren.
0:19:26–0:19:29
Ist wahrscheinlich eine schwierige Sache. Aber ich würde sagen,
0:19:29–0:19:32
die meisten Schulen würden das wahrscheinlich auch nicht machen.
0:19:32–0:19:40
Und ja, vielleicht ist da auch noch ein bisschen Konfliktpotenzial vorhanden
0:19:40–0:19:42
gewesen, sagen wir mal so. Das kann ja immer noch sein.
0:19:43–0:19:46
Ja, da hatten wir auch schon Themen, wo es dann wirklich nicht lustig war,
0:19:46–0:19:51
wo man Fotos rumgeschickt hat, die gar nicht lustig waren, die gar nicht gingen.
0:19:51–0:19:56
Da hatten wir, glaube ich, auch mal einen Gast, der kapo involviert war.
0:19:56–0:20:00
Von solchen Sachen reden wir jetzt nicht. Wir reden teilweise im Fall einfach
0:20:00–0:20:04
von jemandem, der irgendwo auf dem Pausenplatz Krachbummusik gehört hat.
0:20:05–0:20:13
Aber es ist unzweifelhaft, die neuen Technologien sind einfach wahnsinnig verschwindend.
0:20:13–0:20:20
Für die Schulen und die müssen jetzt irgendwie in den Gang kommen und ich beneide
0:20:20–0:20:21
sie überhaupt nicht für das.
0:20:21–0:20:28
Ich habe heute oder wann in der NZZ gelesen, dass einer an der Uni, glaube ich, war,
0:20:29–0:20:36
hat dann seinen ganzen Abschluss oder seine Arbeit oder eine mündliche Prüfung,
0:20:36–0:20:40
hätte er Bücher besprechen sollen und er hat kein einziges von diesen Büchern gelesen,
0:20:40–0:20:44
sondern hat sich die alle von Chatschipiti zusammenfassen lassen.
0:20:44–0:20:49
Und zwar hat er ihnen einfach den Text gegeben, den ganzen Text von den Büchern
0:20:49–0:20:55
und hat dann gesagt, die Fragen, die er dazu hatte, hat er sich zusammenfassen
0:20:55–0:20:57
lassen und beantworten lassen. Und hat dann 60 gehabt.
0:20:58–0:21:04
Und das ist irgendwie, da siehst du schon, also so die althergebrachten Methoden,
0:21:04–0:21:07
um einfach mit Wissen umzugehen und zu prüfen,
0:21:07–0:21:13
ob jemand etwas kann oder weiss, Das ist mit all diesen technischen Mitteln
0:21:13–0:21:17
einfach inzwischen wahnsinnig schwierig und ich weiss, ehrlich gesagt,
0:21:17–0:21:20
auch nicht so genau, wie man da vernünftig damit umgeht.
0:21:21–0:21:26
Einfach nur noch mündliche Prüfungen, jemand muss einen Text lesen im abgesperrten
0:21:26–0:21:31
Raum, offline und nachher wird er abgefragt und dann kommt es raus,
0:21:31–0:21:32
ob er es kapiert hat oder nicht.
0:21:33–0:21:36
Wobei das Teil auch schon vor 20 Jahren klar war,
0:21:36–0:21:40
also ich wusste, wie wir in der Kante in den Prüfungstexten einen Inspector
0:21:40–0:21:46
geholt haben, wie hat er geheißen, Priest Lead Autor und es gibt auch Filme
0:21:46–0:21:49
und so und du konntest praktisch sicher sein,
0:21:50–0:21:53
es gab dort halt eine Figur, die es gar nicht gibt, Inspector Ghoul.
0:21:53–0:21:59
Du konntest ganz sicher sein, dass eine Prüfungsfrage «Who is Inspector Ghoul?» ist.
0:22:00–0:22:06
Wahrscheinlich habe ich «Gültiges Faust» gehört. Hast du so sicher sein können,
0:22:06–0:22:07
wie die Prüfungsfrage kommt? Ja, genau.
0:22:08–0:22:12
Also schon vor 20 Jahren, als es noch keine solche Sachen gab.
0:22:13–0:22:20
Ja, klar. Vor 20 Jahren gab es einfach die... Wie hat das Bücher das Lexikon
0:22:20–0:22:24
der Literatur gegeben? Ja, ja, subtract irgendwas.
0:22:25–0:22:28
Genau, und dort konntest du auch einfach die Zusammenfassungen lesen und dann
0:22:28–0:22:30
hast du zumindest das Wesentliche gewusst und so.
0:22:31–0:22:36
Also klar, absolut, und das ist vielleicht müssen wir da mal eine Lehrperson
0:22:36–0:22:38
in die Sendung einladen.
0:22:38–0:22:41
Ich wüsste einen, der keine Noten mehr geben will, aber der wäre sicher sehr spannend.
0:22:42–0:22:45
Ich kenne den auch, der keine Noten mehr geben will. Ich habe schon gestritten
0:22:45–0:22:50
mit dem, aber ich glaube in der Sendung wäre er spannend. Spannend.
0:22:50–0:22:54
Aber du hast den Glasfaserstreit erwähnt, Diggi Chris, und ich glaube,
0:22:54–0:22:58
den müssen wir erwähnen, weil Swisscom hat ja einen Puss bekommen.
0:22:59–0:23:02
Und muss man vielleicht auch erwähnen, dass jemand aus Winterthur,
0:23:02–0:23:07
der Freddy Künzler, der ist ein berühmter Winterthurer.
0:23:07–0:23:10
In Litzewen kann man auch noch sagen, glaube ich. Ich darf nur sagen,
0:23:10–0:23:16
weil es ist wirklich ein winziger Provider im Vergleich zu Sunrise, Salt und Swisscom.
0:23:16–0:23:21
Es hat halt schon seit Jahren, ich sage mal, ein bisschen Beef mit der Swisscom.
0:23:21–0:23:23
Das darf man glaube ich sagen, oder?
0:23:23–0:23:26
Das darf man absolut so sagen. Und Sie wollen ja auch irgendwie,
0:23:26–0:23:32
für das, dass ja immer noch die Eidgenossenschaft beteiligt ist an diesem Unternehmen,
0:23:32–0:23:36
sind Sie schon auf eine Art ein bisschen, was Sie so...
0:23:37–0:23:42
Der Umgang mit ihren Konkurrenten angeht oder so, ist schon ein bisschen problematisch.
0:23:43–0:23:47
Ja, und was jetzt halt das Zeug ist, wie kann man das erklären?
0:23:47–0:23:54
Also, der Freddy will, dass eigentlich, wenn du Glasfaser hast oder Glasfaserzentrale,
0:23:55–0:24:00
also von der Glasfaserzentrale, ich sage jetzt, wie sagen wir vereinfacht gesagt, ein Kabel, also ja,
0:24:01–0:24:05
von der Glasfaserzentrale zu dir ins Haus kommt.
0:24:05–0:24:11
Genau. Praktisch steht, die INIT7 könnte ihre eigene Hardware anbieten.
0:24:11–0:24:17
Und Swisscom macht es halt anders, weil es in Anführungszeichen billiger und einfacher ist.
0:24:17–0:24:23
Lassen wir das mal so stehen, dass sie halt ein Kabel irgendwie vor das Haus stellen.
0:24:23–0:24:28
Und sprich, dann müsste ich halt die INIT7 bei Swisscom einmieten.
0:24:29–0:24:34
Und das sagt die INIT7, das gehe ich nicht. das benachteiligen sie,
0:24:34–0:24:40
weil eben sie können innovativ sein und halt nicht ihr 25 Gigabit anbieten.
0:24:40–0:24:46
Genau, das ist, ich glaube es wäre tatsächlich so bei 10 Gigabit deckelt gewesen,
0:24:46–0:24:52
bei dieser Variante, die Swisscom da gemacht hat.
0:24:52–0:24:55
Und sie müssen jetzt 18 Millionen zahlen, weil sie haben tatsächlich,
0:24:56–0:24:59
hat dann die WECO, die Wettbewerbskommission gefunden, Ich finde, das geht so nicht.
0:24:59–0:25:07
Das ist ein hinderter Wettbewerb. Es benachteiligt Konkurrenten,
0:25:07–0:25:11
die vielleicht bessere Produkte zu günstigeren Preisen sonst anbieten würden.
0:25:12–0:25:18
Ja, jetzt ist halt die Frage, dann kommt natürlich Swisscom und off the record
0:25:18–0:25:21
auch andere, die halt sagen, ja, aber...
0:25:22–0:25:27
Wenn wir jetzt hätten, eben das, also, was wir momentan haben,
0:25:27–0:25:31
ist Point-to-Multipoint, eben zu mehreren Punkten. Genau.
0:25:31–0:25:36
Was ich jetzt eben will, Point-to-Point, ja, wenn wir würden das ausbauen,
0:25:36–0:25:38
wäre es teuer und würde mir vielleicht,
0:25:39–0:25:45
ich kenne gemeint, aber eben, also, don't quote me on that, dort würden wir
0:25:45–0:25:47
das nicht machen, weil so teuer.
0:25:47–0:25:51
Jetzt ist halt die Frage, und da ist wahrscheinlich wirklich Aussage gegen Aussage,
0:25:51–0:25:56
ja, wenn du jetzt, wie du zu Winterthur in der Stadt wohnst,
0:25:56–0:26:00
ist wahrscheinlich eh keine Frage, da würden alle ausbauen, aber wenn du jetzt halt in der Aglo bist,
0:26:00–0:26:07
ist die Frage, ja, was ist jetzt, wenn das Urteil tatsächlich umgesetzt wird,
0:26:07–0:26:09
also Zwisco muss das umbauen,
0:26:10–0:26:13
sie werden es wahrscheinlich machen, aber eben was, wenn sie jetzt sagen,
0:26:13–0:26:18
ja, da in Hinterpupfigen, nee, haben wir kein Interesse, haben wir halt kein Glas mehr.
0:26:19–0:26:22
Ja, Swisscom hat sich dann auch auf den Standpunkt gestellt,
0:26:22–0:26:27
es geht halt länger, wir kommen weniger schnell vorwärts und es bedeutet dann
0:26:27–0:26:33
dafür, dass viele Leute länger warten müssen auf ihre Glasfaser.
0:26:33–0:26:34
Und das ist...
0:26:35–0:26:42
Für mich, ich bin da schon eher auf der Seite, die sagt, dass der Wettbewerb
0:26:42–0:26:45
spielen muss. Ich wäre sowieso auf eine Art, wäre mir am liebsten,
0:26:45–0:26:50
wenn es eben da die, wie hätte sie sollen heissen, die Kanal und Schacht.
0:26:52–0:26:57
Unternehmen gäbe, die einfach dafür schauen würden, dass die Glasfasern in den
0:26:57–0:27:03
Boden kommen und dann könnte das Unternehmen dann so die Mieten,
0:27:03–0:27:05
die Fasern, wie es ihnen passt.
0:27:05–0:27:08
Zum einen fairen Preis einmieten, klar, das ist halt eine Sache,
0:27:08–0:27:13
aber was wir eben haben, und jetzt kann ich das Wort wieder mal sagen,
0:27:13–0:27:18
und dann tracken wir alles wieder in BIT zu, dass dort jemand auch,
0:27:19–0:27:24
In einer grösseren Stadt, was ist das? Also eine Stadt, die sicher so gross
0:27:24–0:27:25
ist wie Winterthur, hat jetzt auch Glas.
0:27:26–0:27:29
Ja. Und die hat ein Gigabit runter.
0:27:29–0:27:34
Man muss noch sagen, das ist ein deutscher Podcast, der aus dem Grossraum München kommt.
0:27:35–0:27:41
Genau. Und den kann man eigentlich auch nur aus Schadenfreude hören.
0:27:43–0:27:48
Wegen ihren Internet-Dings und eben, also ich habe jetzt bei meinem Anschluss,
0:27:48–0:27:52
und ich habe jetzt geschaut, wenn du den billigsten Glasfaseranschluss hier
0:27:52–0:27:56
hättest, hättest du in der Regel ein Gigabit runter, ein Gigabit hoch.
0:27:56–0:28:01
Genau, linear sagt man das. Oder symmetrisch. Symmetrisch, genau, Entschuldigung.
0:28:01–0:28:06
Was der Anschluss dann gibt, ist eine andere Frage. aber dort hast du teilweise,
0:28:07–0:28:11
es geht runter aber technisch 50 Mega hoch.
0:28:11–0:28:16
Ja, was ein völliger Unsinn ist, also ich glaube diese Beschränkung gibt nicht einmal,
0:28:17–0:28:23
das ist eine reine Gängelung oder wahrscheinlich Nein, es gibt anscheinend technische
0:28:23–0:28:25
Gründe, also ich will jetzt nicht eine Quote,
0:28:25–0:28:29
aber ich habe halt auch jemanden gefragt wo wie ein Provider schafft so wie
0:28:29–0:28:35
das Glasfasernetz in Deutschland teilweise ausgebaut ist macht das durchaus Sinn Ah, verstehe.
0:28:35–0:28:38
Das ist dann aber Helmut Kohl noch schuld, der hat ja gesagt,
0:28:38–0:28:42
er will lieber Kupfer im Boden haben in den 90er Jahren.
0:28:42–0:28:46
Genau, das gibt es auch, wie heiter Herr Schilling oder Fünfschilling oder so,
0:28:46–0:28:49
da gibt es ja glaube ich auch unzählige Dinge.
0:28:49–0:28:57
Jetzt schauen wir mal wie es weitergeht. Ich glaube Tagi hatte eine Grafik,
0:28:57–0:29:01
wir sind bei 27% der Haushalte auf Glas.
0:29:01–0:29:07
Das ist natürlich nichts, was ist es, Südkorea, die 90% hat.
0:29:08–0:29:13
Aber schauen wir mal, wie es weitergeht und vielleicht, wenn man auf die Uhr
0:29:13–0:29:17
schaut, noch... Ja, genau, wir haben noch ein bisschen Zeit und du darfst,
0:29:17–0:29:22
weil du heute der Touchmeister bist, sagen, was dein Lieblingsletzter Thema ist.
0:29:22–0:29:28
TEMO, die explodierenden Netzteile, der ESC zum Beispiel, wo wir auch noch darüber reden könnten.
0:29:28–0:29:32
Oder was hätten wir noch? Ich würde sagen, was wir auch noch,
0:29:33–0:29:37
wo wir vielleicht aber mal separat darüber reden müssen, ist die Switch 2,
0:29:38–0:29:43
wo Nintendo ja vielleicht fast ein bisschen Apple Joe gestohlen hat.
0:29:43–0:29:48
Weil ich finde, eine Switch 2, also ein Nachfolger von dieser legendären Spielkonsole,
0:29:48–0:29:53
also von dieser Portable, fast noch ein bisschen spannender, als das neue iPad.
0:29:53–0:29:55
Obwohl wir trotzdem über die iPads geredet haben.
0:29:56–0:29:59
Also gut, bin ich mit dir. Ich meine, ich habe auch eine Switch.
0:29:59–0:30:02
Ich glaube sogar mal im Jahresrückblick.
0:30:04–0:30:08
Und ich finde es halt cool, du hast auf der Switch teilweise Spiele,
0:30:08–0:30:14
wo du nicht 17 Stunden noch hast, dass du mal die Story verstehst. Genau.
0:30:15–0:30:20
Du hast den Mario, der kommt auf Bild, auf der Switch 2 wird das sicher noch
0:30:20–0:30:21
ein bisschen schöner sein.
0:30:22–0:30:26
Ich bin ja fast sicher, auf der Switch 2 wirst du teilweise noch so,
0:30:26–0:30:29
man nennt es ja glaube ich 2,5D, also weisst du.
0:30:30–0:30:34
Wirst du auch noch haben, klar, an den Bildschirmen finde ich jetzt auch,
0:30:34–0:30:37
ich habe ja die OLED-Switch Das finde ich auch durchaus gut, aber klar,
0:30:38–0:30:42
die hat halt jetzt auch ein paar Jahre auf dem Buckel und kommt vielleicht nicht
0:30:42–0:30:44
mehr an und dass da eben Nintendo irgendwas Neues bringt. Ja,
0:30:45–0:30:46
das ist sicher nicht verkehrt.
0:30:46–0:30:51
Wobei, ich glaube, die Switch hast du nicht so wegen der Grafik.
0:30:51–0:30:57
Da hat auch der Megi schon davon erzählt, es gibt jetzt sonst so mobile Windows-Spielkonsole,
0:30:57–0:30:58
die dann noch ein bisschen mehr können.
0:30:59–0:31:03
Aber ich finde auch, die Switch kannst du wunderbar am Fernseher anhängen.
0:31:04–0:31:13
Und Nintendo ist halt immer noch, die Rennspiele Mario Kart und Konsorten sind
0:31:13–0:31:15
immer noch legendär, würde ich sagen.
0:31:15–0:31:19
Und es gibt aber schon auf der Nintendo-Spiele, wo ich nicht so draus komme,
0:31:19–0:31:24
da könnt ihr mir vielleicht weiterhelfen. Meine Frau hat das von dem Fuchs besorgt,
0:31:24–0:31:28
das heisst Spirit of the North und ich habe keine Ahnung, was ich machen muss.
0:31:28–0:31:32
Ich laufe dort durch so eine Landschaft, sie ist schön und bei so einem Fuchs,
0:31:32–0:31:34
aber ich habe keine Ahnung, was ich machen muss.
0:31:35–0:31:40
Ja, und du lernst ja halt auch selten, wo wahrscheinlich wirklich durchaus komplexe
0:31:40–0:31:42
und wahrscheinlich gute Story dahinter hat.
0:31:43–0:31:46
Ja, aber eben, ich muss sagen, Mario Kart...
0:31:47–0:31:53
Wenn ich auch noch denke, das Konzept gibt es seit über 20 Jahren und es funktioniert immer noch.
0:31:53–0:31:57
Ja, das wird auch in 20 Jahren immer noch funktionieren.
0:31:57–0:31:59
Und du wirst wahrscheinlich dann auch vielleicht, keine Ahnung,
0:31:59–0:32:02
wenn du auch mal, wie sagen wir, ein Grosspapi bist,
0:32:02–0:32:07
ja, wirst du dich vielleicht irgendwann mal noch mit, eben, wie heisst es,
0:32:07–0:32:10
mit deinem Enkel, wirst du dich wahrscheinlich anschreien, weil dir halt irgendwie
0:32:10–0:32:16
die blauen Schildkröten ans Ding da stehen und es muss nicht einmal mit einer Fahrwehrbrille sein,
0:32:16–0:32:20
es kann immer noch mit irgendeiner Bewegung gesensiert sein und da ist Nintendo
0:32:20–0:32:24
auch nicht innovativ, dass zum Beispiel diese Sportspiele, wo du halt einfach
0:32:24–0:32:26
musst, das Ding an dein Handgelenk nehmen.
0:32:26–0:32:29
Ja, genau, genau. So kannst du Tennis spielen oder Bowling spielen.
0:32:30–0:32:33
Klar, das ist vielleicht innovativer als das ganze iPad.
0:32:34–0:32:40
Ja, oder einfach, es zeigt wirklich klar, du hast das Stichwort VR schon erwähnt,
0:32:40–0:32:44
das sind tolle Spiele, das sind wahnsinnige Erlebnisse.
0:32:44–0:32:48
Aber einfach, um ein lustiges Spiel zu machen, da ist es auch gleich,
0:32:48–0:32:52
wenn die Grafik nicht so toll ist und wenn das auf dem Fernseher läuft.
0:32:53–0:32:59
Also, den gesellschaftlichen Aspekt den finde ich bei diesen Nintendo Spielen
0:32:59–0:33:01
immer noch ungeschlagen.
0:33:02–0:33:07
Und ja, Teemu, einfach nicht bei Teemu bestellen, oder?
0:33:07–0:33:11
Also wenn du irgendwie willst, dass er am Schluss deine zwei fränkischen Gadgets
0:33:11–0:33:14
in die Hütte runterfackert, dann ja, sonst nein.
0:33:14–0:33:19
Auf jeden Fall habe ich jetzt mal aus Jux tatsächlich eine Uhr bestellt für diese Franke.
0:33:19–0:33:23
Also sie ist nicht explodiert, aber eine analoge Uhr, keine Angst.
0:33:23–0:33:29
Aber ich würde es dringend davon abraten, Handy-Ladekabel besser zu nutzen.
0:33:31–0:33:37
Interdiscount, Mikro... Ist doch blöd, wenn ein 2-Franke-Handy-Ladekabel die
0:33:37–0:33:41
300'000-Franke-Wohnungen abfockt.
0:33:41–0:33:44
Oder zumindest einfach nur das Handy schmilzt. Das stimmt.
0:33:45–0:33:47
Ich würde sagen, das war unser Patch Tuesday.
0:33:48–0:33:51
In einer Woche wissen wir noch nicht, worum es geht. Müssen wir noch schauen,
0:33:52–0:33:54
ja. Ja, ja. Und genau, bis dann.
0:33:55–0:33:57
Macht's gut und bleibt gesund. Eben.
0:34:02–0:34:11
Music.

Heute ist eine grosse Apple-Veranstaltung. Aber keine Angst, wir berichten euch nur das Allerwichtigste dieser Veranstaltung – ob die Tablets nun endlich faltbar sind, gerollt werden können oder endlich von allein aus der Sofaritze hervorkriechen, falls sie dort hineingerutscht sein sollten.

Abgesehen davon nehmen wir die Gelegenheit wahr, über Neuigkeiten aus der Tech-Welt zu berichten: Wie lässt sich verhindern, dass alte Online-Spiele plötzlich nicht mehr zugänglich sind? Was ist von Temu-Schnäppchen zu halten, bei denen die Akkus explodieren? Und ist es Zeit für einen Nachfolger von Nintendos erfolgreicher Switch-Spielkonsole?
„Ein Tablet zum Falten?“ weiterlesen

Zwischen Übermass und Mangel

Transkript anzeigen (falls vorhanden)

00:00–0:00:07
Music.
0:00:08–0:00:14
Beach Boys sind das gewesen und ich habe schon wieder meinen altbekannten Anfängerfehler
0:00:14–0:00:17
gemacht und den einen Knopf nicht rausgenommen.
0:00:17–0:00:20
Ihr wisst schon, der eine Knopf, wo dann alles passiert.
0:00:21–0:00:26
Was soll denn bitte das sein? Das ist Kunst, du Holz.
0:00:26–0:00:32
Radio Stadtfilter, 96,3 Megahertz. Wir sagen einfach, es sei Kunst, gell du Kevin?
0:00:33–0:00:39
Es ist alles Kunst. Genau, alles was wir machen ist Kunst, egal wie unsinnig es auch erscheint.
0:00:39–0:00:46
Hallo Kevin und wenn man mir angehört, ich bin wieder völlig verschnupft und
0:00:46–0:00:48
vergrippt, bin ich aus den Ferien zurück.
0:00:51–0:00:56
Das ist halt, wenn der Stress vom Leben mal nachlässt, dann nimmt sich der Körper aus dem Rauch.
0:00:56–0:01:01
Das ist doch so ein Klassiker. Es ist inzwischen bei mir wirklich jedes Mal
0:01:01–0:01:05
so, es ist ja fast ein bisschen berechenbar geworden.
0:01:05–0:01:08
Das ist ein bisschen gemein. Es ist ein bisschen blöd.
0:01:09–0:01:13
Du, darf ich dir aber eine Anekdote aus meinen Ferien erzählen,
0:01:14–0:01:19
die sich vielleicht sogar einen Lifehack daraus ableiten lassen kann?
0:01:19–0:01:21
Oh, unbedingt. Bedingt.
0:01:21–0:01:26
Und zwar, weil wir haben nachher ja Kummerbox, wo es ja sowieso auch so ein
0:01:26–0:01:29
bisschen um Live... äh, um Live... Ja, Kummerbox Live Hack.
0:01:30–0:01:32
Wieso heisst Kummerbox... Kummerbox Live.
0:01:32–0:01:34
Wieso heisst Kummerbox... Kummerbox Hack.
0:01:35–0:01:39
Kummerbox Live Hack. Ja. Hackerbox Live.
0:01:39–0:01:45
Auf die Idee sind wir nach 15 Jahren zum ersten Mal da. 15 Jahre. Genau.
0:01:46–0:01:48
Also, ich war in den Ferien. In den Ferien.
0:01:49–0:01:54
Und zwar dort, wo es so ein Meer hat. Und dann, wenn man das so hat,
0:01:55–0:01:58
geht man so in das Meer schwimmen oder ein bisschen baden.
0:01:58–0:02:00
Und dann war es schön. Es hatte so ein bisschen Wellen.
0:02:02–0:02:06
Und dann habe ich mir... Ich bin ja Brüllenträger, muss man dazu sagen.
0:02:06–0:02:12
Und dann habe ich dort so gesehen, mal grössere und mal kleinere Wellen. Und es war angenehm.
0:02:12–0:02:16
Und plötzlich sehe ich eine riesige Welle, aus dem Nichts eine riesige Welle
0:02:16–0:02:21
auf mich zukommen und denke dann so, Ich dachte mir, ob das jetzt echt gut wird kommen.
0:02:22–0:02:26
Und dann kommt diese Welle und nimmt mich so mit. Und dann ist noch alles gut
0:02:26–0:02:29
gewesen. Und dann geht sie wieder weg vom Strand.
0:02:29–0:02:36
Und dann hat sie so meine Brille mitgenommen. So quasi als Opfergabe für den
0:02:36–0:02:38
Poseidon, habe ich mir dann so vorgestellt.
0:02:39–0:02:44
Und dann habe ich gedacht, oje, also das ist jetzt eine relativ dumme Situation,
0:02:45–0:02:49
weil jetzt haben wir zwar den Digi-Chris nicht da, Ja, du siehst ja wunderbar
0:02:49–0:02:54
prächtig gut mit deinen eigenen Augen, oder Kevin, habe ich das richtig?
0:02:55–0:02:56
Ich sehe mit meinen eigenen Augen super.
0:02:57–0:03:00
Genau, und ich sehe eben mit meinen eigenen Augen nicht so wahnsinnig gut.
0:03:01–0:03:05
Digi-Chris könnte mir das wahrscheinlich darum noch ein bisschen mehr nachfühlen.
0:03:05–0:03:10
Und dann stehe ich dort in diesem verdammten Meer hinein und merke, die Brille ist weg.
0:03:10–0:03:14
Und ich meine, du schaust in das grosse Meer raus und weisst mit einer Sekunde,
0:03:14–0:03:17
es hat keine Chance, dass du jetzt irgendwie probieren würdest,
0:03:18–0:03:20
diese Brille wieder zu diesem Meer rauszufischen.
0:03:21–0:03:25
Die ist einfach weg. Und ich hatte natürlich keinen Ersatz dabei, nichts.
0:03:26–0:03:31
So als Normalsterb. Ich meine, ich mache das schon seit 40 Jahren so,
0:03:32–0:03:33
es ist nie etwas passiert.
0:03:33–0:03:39
Und dann stehst du dort ohne Brille und weisst, Wenn dir nachher jemand fragt,
0:03:39–0:03:42
wie die Ferien waren, dann musst du einfach sagen, unscharf.
0:03:44–0:03:48
Das wäre dann so die Erkenntnis. Dann habe ich gefunden, was macht man jetzt?
0:03:48–0:03:53
Und jetzt kommen wir zu dem Punkt, wo dann der Lifehack ins Spiel kommt.
0:03:53–0:04:00
Wenn du einfach so zum Optiker gehst und sagst, mir ist da das Missgeschick
0:04:00–0:04:03
passiert, was könnte dir irgendeine Lösung anbieten?
0:04:03–0:04:08
Dann sagen sie, ja, also hör mal, wir können schon, wenn du noch ein Rezept
0:04:08–0:04:12
dabei hast, was ich auch nicht hatte, ein Brüllerezept, dann könntest du das
0:04:12–0:04:14
machen und sonst musst du noch zuerst zum Augenarzt.
0:04:15–0:04:20
Und dann sagen sie dir so, ja, können wir schon, aber es geht natürlich egal,
0:04:21–0:04:26
was wir machen, es geht drei, vier, fünf, sechs Tage, bis die Ersatzbrille da ist, geht es einfach.
0:04:26–0:04:28
Und dann findest du, ja, das nützt nichts, dann bin ich auch wieder zu Hause,
0:04:29–0:04:35
ich kann es bleiben lassen. Und dann irgendwann fand ich einen geistigen Blitzkanner.
0:04:35–0:04:39
Es gibt doch diese Tageslinse, die kennst du vielleicht, die Kontaktlinse,
0:04:39–0:04:43
wo es so Abstammungen in gewissen Korrekturen gibt.
0:04:43–0:04:51
Die haben es mir nicht vorgeschlagen, aber wenn du jetzt sagst, das wäre doch etwas,
0:04:51–0:04:54
und ungefähr über den Daumen gepeilt
0:04:54–0:05:00
die Korrektur, sollen wir das mal ausprobieren, dann funktioniert das.
0:05:00–0:05:05
Und so bin ich dann tatsächlich in diesen Ferien rumgelaufen und habe etwas gesehen.
0:05:06–0:05:11
Das ist mein Lifehack. Wenn ihr Brille verliert und keine Ersatzbrille dabei
0:05:11–0:05:20
habt, dann macht euch vorher ein Bild, was euch von diesen Tageslinsen helfen könnte.
0:05:20–0:05:25
Lernt vielleicht schon mal, das kann ich zum Glück können, wenn ihr sie einfummelt
0:05:25–0:05:27
und am Abend wieder rausnehmt.
0:05:27–0:05:32
Und dann seid ihr auch für so eine Eventualität gerüstet.
0:05:33–0:05:37
Hast du denn nie eine Linse drin? Oder gehst du zum Sport?
0:05:38–0:05:44
Oder gehst du Jagen? Ja, genau. Oder machst du Aktivitäten auf dem Auto,
0:05:45–0:05:48
gehst du mit deinem Porsche auf die Rennstrecke? Du tust nie eine Linse?
0:05:49–0:05:51
Ich hatte viele Jahre lang eine Linse.
0:05:52–0:05:59
Aber ich hatte diese kleinen Halbherden. Und die habe ich dann mal nicht mehr so gut vertreten.
0:05:59–0:06:06
Und die Tageslinsen, das war dann die nächste Erkenntnis, die sind viel angenehmer,
0:06:07–0:06:10
finde ich, zum tragen, als die Linsen, die ich sonst auch mitgehabt habe.
0:06:10–0:06:14
Und dann fragte ich natürlich nachher meinen Optiker und fragte ihn,
0:06:14–0:06:17
wieso er mir eigentlich immer diese unangenehmen,
0:06:18–0:06:23
so diese harten Linsen verkauft hat und nicht diese viel angenehmen,
0:06:23–0:06:28
so weichen Linsen, die fast wie ein Küsschen sind.
0:06:30–0:06:34
Und nicht so schabbig wie manchmal die anderen.
0:06:35–0:06:40
Dann war sie glaube ich etwas betupft von meiner Kritik.
0:06:40–0:06:43
Aber ich habe dann gefunden, wenn man sie die ganze Zeit anhängt,
0:06:43–0:06:52
dann sehen eigentlich die anderen Linsen am Schluss besser fürs Auge.
0:06:52–0:06:55
Aber ich habe dann gefunden, okay, ich weiss jetzt zumindest,
0:06:55–0:06:59
Genau für das, was du gesagt hast, für Sport oder so, kann ich jetzt diese brauchen.
0:06:59–0:07:05
Und das hat dann die Opfergabe an Poseidon am Schluss doch noch irgendwie eine
0:07:05–0:07:07
nützliche Erkenntnis für mich.
0:07:08–0:07:10
Cool. Ist das nicht schön? Immerhin.
0:07:13–0:07:17
Und jetzt haben wir... Digi Chris ist nicht da, sonst hätte er vielleicht gesagt,
0:07:17–0:07:20
jetzt machen wir doch gerade diese Kurzsichtigkeitssendung, aber die machen
0:07:20–0:07:21
wir dann irgendwann mal.
0:07:21–0:07:24
Aber jetzt kommt «Kummerbox live».
0:07:25–0:07:37
Music.
0:07:36–0:07:41
Wir machen heute, wie jeden letzten Dienstag vom Monat, Kummerbox live.
0:07:41–0:07:45
In dieser Sendung behandeln wir die Computerprobleme, die ihr uns per Mail habt,
0:07:45–0:07:52
zu Kola auf nerdfunkatstadtfilter.ch Mit akuten Problemen läutet ihr uns im Studio an.
0:07:52–0:07:59
Die Nummer ist 052 203 3100 oder ihr schreibt euer Problem ins Gästebuch auf
0:07:59–0:08:03
stattfilter.ch Und da ist Kevin Rechsteiner.
0:08:03–0:08:07
Und weil ich so eine ausführliche Welche Geschichte musste ich in der Pre-Show
0:08:07–0:08:10
erzählen? Ich habe dich noch nicht gefragt, wie es dir eigentlich geht.
0:08:11–0:08:15
Mir geht es gut, ich bin einfach müde. Ich bin wirklich müde.
0:08:15–0:08:19
Ich schlafe seit etwa 2 Wochen nicht mehr gut.
0:08:20–0:08:26
Ich weiss nicht warum. Es ist einfach. Ich glaube, das ist auch eine Alterserscheinung.
0:08:26–0:08:30
Wenn ich hier aus dem Nähkästchen plaudere.
0:08:30–0:08:34
Mich erinnert es sich, ich hätte früher als Jugendlicher besser geschlafen.
0:08:34–0:08:40
Und heute reisst mich jedes Piepschen aus dem Schlaf, das irgendwo herkommt.
0:08:40–0:08:42
Das hatte ich schon immer.
0:08:42–0:08:46
Also ich habe sehr leichten Schlaf. Ich bin sicher drei, vier Mal in der Nacht.
0:08:47–0:08:50
Also wenn ich nicht vier Mal in der Nacht wach bin, dann ist irgendetwas komisch.
0:08:50–0:08:53
Das gibt es eigentlich nicht, weil ich durchschlafe.
0:08:53–0:08:57
Und jetzt habe ich aber das Gefühl, es ist so, ich schlafe gar nicht mehr gut.
0:08:57–0:09:01
Also nicht wie sonst, dass ich vier Mal wach bin nicht gut, sondern gar nicht
0:09:01–0:09:04
mehr gut. und das, jetzt merke ich so, ich bin ein bisschen müde.
0:09:05–0:09:08
Ja, das geht mir auch so, eben wegen meiner Verkältung und so.
0:09:09–0:09:13
Wir müssen, ich glaube, und jetzt Themenidee, wir machen mal eine Sendung über
0:09:13–0:09:18
Schlafen, da gibt es ja auch ganz viele digitale Aspekte, die man berücksichtigen
0:09:18–0:09:19
kann, so mit Tracking und allem.
0:09:21–0:09:24
Finde ich eine spannende Sache, können wir unbedingt mal machen,
0:09:24–0:09:27
aber jetzt, ich habe es schon gesagt, Kumerbox live.
0:09:27–0:09:34
Claudia hat gesagt, ich bin an einem Buchprojekt, eine Artikelsammlung, nicht von mir,
0:09:34–0:09:41
wo ich gescannte Zeitungsseiten in einen normalen Wordtext zum Bearbeiten und
0:09:41–0:09:42
Korrigieren umwandeln muss.
0:09:43–0:09:48
Das habe ich zwar, sieht aber zum Teil katastrophal aus.
0:09:48–0:09:53
Dass ich viel korrigieren muss, ist mir schon klar, aber es geht mir um mehr.
0:09:53–0:09:56
Hast du einen Tipp, wie man sowas machen könnte?
0:09:56–0:10:01
Hast du vielleicht nebenbei eine Bude oder kennst du einen Kollegen?
0:10:01–0:10:05
Kenne ich, Kevin, einen Kollegen, der das für Claudia machen würde,
0:10:06–0:10:13
ihre Artikel entweder digitalisieren oder die digitalisierten Artikel korrigieren?
0:10:14–0:10:17
Ich komme gar nicht daraus, was ich genau will.
0:10:18–0:10:25
Also, gescannte Zeitungsseiten, ich nenne sie mal, das ist ja OCR. Ja, genau. Genau.
0:10:25–0:10:31
Und jetzt, das Ding ist halt, OCR ist eigentlich eine Software,
0:10:31–0:10:38
die schaut ein Bild durch, also ein JPEG oder ein PDF,
0:10:38–0:10:44
wo nicht Text eingebettet ist, und probiert die Buchstaben zu erkennen und wandert
0:10:44–0:10:45
das nachher in den Text um.
0:10:45–0:10:47
Genau. Und vielleicht merkt man jetzt, wo ich hin will.
0:10:48–0:10:56
Wenn der Scan nicht gut ist, oder die Fotos im Keller mit einem Glühbirnen gemacht
0:10:56–0:10:57
sind, dann kann er das nicht lesen.
0:10:58–0:11:02
Dann ist es halt nicht so cool. Genau.
0:11:04–0:11:09
Ich weiss nicht, was sie will. Will sie jemanden, der ihr das einscannt und umwandelt?
0:11:09–0:11:15
Oder geht es ihr ums Korrigieren? Ich nehme an, sie will, dass jemand das umwandelt.
0:11:16–0:11:20
Sie kommt ja nicht an Mofi, ich konstituiere wegen Rechtschreibung. Nein, ich glaube nicht.
0:11:21–0:11:27
Es ist eine ehemalige Kollegin von mir. Ich glaube, die Rechtschreibung hat sie im Griff. Aha.
0:11:28–0:11:35
Du hast schon recht. Das ist wieder so ein Fall, wo wir froh wären,
0:11:35–0:11:38
wenn die Beschreibung noch etwas exakter wäre.
0:11:38–0:11:45
An welchem Punkt steht sie? Leidt da einfach ein riesen Haufen von Zeitungsausschnitten,
0:11:46–0:11:48
wo sie irgendwie das Wort einbringen müsste?
0:11:48–0:11:53
Oder hat das schon jemand digitalisiert und jetzt ist aber einfach das Resultat
0:11:53–0:11:57
so miserabel, dass man es nicht gut brauchen kann?
0:11:58–0:12:03
Das macht schon einen Unterschied, aber wenn wir jetzt grundsätzlich angehen,
0:12:03–0:12:05
dann würden wir wahrscheinlich sagen,
0:12:05–0:12:10
das beste Resultat hast du wahrscheinlich, wenn du das unter kontrollierten
0:12:10–0:12:15
Bedingungen selber gut digitalisierst und kannst sagen, es ist so gut,
0:12:15–0:12:19
dass auch das Resultat den Anforderungen entspricht.
0:12:20–0:12:25
Genau, also Scanner, gute Auflösung, da kommt man schon mal relativ weit.
0:12:25–0:12:28
Also ich habe das auch schon für ein paar Kunden müssen machen,
0:12:28–0:12:31
die dann irgendwie gefunden haben, ich habe da noch einen alten Zeitungsartikel,
0:12:31–0:12:36
wo ich gerne den Text auf der Homepage, was immer, das kommt vor.
0:12:36–0:12:40
Aber wenn man das sauber einscannt, dann funktioniert das eigentlich.
0:12:41–0:12:45
Ausser auch wieder da, in Klammern, man hat irgendwelche Zeitungsartikel,
0:12:45–0:12:49
die in einer uralten Schrift gemacht sind, Fraktur.
0:12:49–0:12:54
Ja, Fraktur, genau. Dann wird es schwierig.
0:12:56–0:13:01
Vom Druck her nicht gut lesbar. Nicht gut gelagert, genau.
0:13:02–0:13:05
Nicht gut gelagert, genau.
0:13:06–0:13:11
Das sind alle die Probleme, die man in diesem Zusammenhang haben kann.
0:13:11–0:13:17
Genau und der Punkt ist wahrscheinlich wirklich eben, was mich auch noch interessiert,
0:13:17–0:13:24
sind es einzelne Artikel oder sind es ganze Zeitungsseiten oder wie gross sind die Artikel?
0:13:24–0:13:29
Oh ja, stimmt das ist auch noch, ja weil wenn du eine ganze Zeitungsseite hast
0:13:29–0:13:34
dann ist die einfach so gross, dass du sie nicht unter einem normalen Scanner unterbringst, oder?
0:13:35–0:13:40
Und dann, ich weiss nicht es gibt schon so A3 Scanner aber die sind dann wahrscheinlich,
0:13:40–0:13:42
ich weiss nicht Ich weiss nicht, wie viel die kosten. Ich habe nicht geschaut.
0:13:45–0:13:50
Ui, der Kückel ist aktiv. Der Kückel ist aktiv. Hat er einen Vorschlag?
0:13:51–0:13:54
Er sagt, sauber einscannen und dann haben wir die Probleme gelöst.
0:13:55–0:13:58
Er kann es aber nicht machen, weil er keine Finger hat. Ja, das verstehe ich.
0:13:59–0:14:02
Sonst wäre er natürlich ideal gewesen, mit der Energie, mit der er an dieses
0:14:02–0:14:05
Thema geht. Er hätte morgen um 3 Uhr schon angefangen.
0:14:07–0:14:07
Super.
0:14:10–0:14:13
Das könnte aber auch deine Schlafprobleme erklären, nicht?
0:14:15–0:14:18
Vielleicht, aber die sind ja schon seit drei Jahren da und jetzt ist es gerade
0:14:18–0:14:21
so eine Phase, die sehr schwierig ist.
0:14:21–0:14:23
Aber das gibt es bei mir immer wieder, das ist nicht so schlimm,
0:14:24–0:14:26
das kommt wieder. Okay, wir drücken die Daumen.
0:14:26–0:14:32
Also ich würde darum sagen, wenn man das in voller Grösse machen muss,
0:14:32–0:14:36
dann wäre es wahrscheinlich gut, diese zu fotografieren.
0:14:36–0:14:44
Also einen schönen Aufbau machen, den du an der Wand oder so befestigen kannst, an einem guten,
0:14:44–0:14:50
weissen Hintergrund und das wirklich auch schön beliebt, dass es ein gutes Licht drauf hat,
0:14:51–0:14:57
gleichmässig, regelmässig, schön, weißes, helles, neutrals Licht und dann mit
0:14:57–0:15:00
einer Kamera, mit einem guten Objektiv und.
0:15:02–0:15:08
Und schön eingestellt, dass die Schärfebene genau stimmt und auch der Kameraplan,
0:15:10–0:15:15
also nicht halb schräg drauf schauen, sondern eben auch, dass es vorne bis unten
0:15:15–0:15:16
gerade ist, meine ich damit. damit, oder?
0:15:16–0:15:22
Und dann könntest du einfach halt diese Routinearbeit machen und eins nach dem
0:15:22–0:15:26
anderen abknipsen und wenn du es abgeknipset hast,
0:15:26–0:15:31
kannst du die OCR-Software durchjagen und das muss halt eine sein,
0:15:31–0:15:34
wo du möglichst viele Sachen einstellen kannst, oder?
0:15:34–0:15:41
Wo auch eben halt dann mit so einem Spalten-Layout von einer Zeitung gut zu gehen kommt.
0:15:42–0:15:48
Ja. Aber es gibt die OCR-Software, die einfach über den Browser läuft,
0:15:48–0:15:53
die gratis sind, die funktionieren für kleine Texte, aber ich glaube,
0:15:53–0:15:55
wenn es jetzt wirklich um Artikel geht, in einem grösseren Umfang,
0:15:57–0:16:00
dann kauft ihr eine OCR-Software, wo das.
0:16:02–0:16:06
Professionell, ja, wo das richtig macht. Und wo du eben vielleicht auch einstellen
0:16:06–0:16:08
kannst, die einen probieren dann so,
0:16:09–0:16:13
das Layout noch nachzubilden und so, das will sie ja auch nicht,
0:16:13–0:16:16
sie will es wahrscheinlich im Word als Flusstext haben, wo sie dann,
0:16:16–0:16:19
also es muss dann nicht mehr nach einer Zeitung aussehen,
0:16:20–0:16:26
sondern das ist dann eher ein Nachteil, aber dort kann man vielleicht dann auch
0:16:26–0:16:27
je nach Software das einstellen,
0:16:28–0:16:33
ob die das auch probiert die Gestaltung abzubilden oder eben nur den Text übernimmt,
0:16:33–0:16:36
mit Formatierungen oder so.
0:16:38–0:16:44
Da kann ich jetzt so tief kenne ich dieses Programm nicht, Aber meine Erfahrung
0:16:44–0:16:49
ist, dass das Abbey FineReader mit A, B, B, Y, Y.
0:16:50–0:16:54
Das ist eigentlich eines von diesen Programmen, die wirklich einen sehr guten Ruf haben.
0:16:54–0:17:02
Die bei Tests immer gut abschneiden und viele Einstellungsmöglichkeiten haben.
0:17:02–0:17:03
Und darum würde ich es mal mit dem probieren.
0:17:03–0:17:06
Es gibt das OmniPage, gibt es auch noch.
0:17:06–0:17:12
Aber ich kenne die wirklich zu wenig. Aber es würde sich lohnen,
0:17:12–0:17:16
mal ein paar sehr gute Scans zu machen, oder Fotos.
0:17:16–0:17:22
Und dann gibt es ja von diesen Programmen Testversionen. Mit denen gehen wir
0:17:22–0:17:24
hin und schauen, wo das Beste rauskommt.
0:17:24–0:17:29
Und dann diese Software kaufen. Und mit dieser kommst du wahrscheinlich ans Ziel.
0:17:30–0:17:34
Und, das hat sich jemand gefragt, es gibt Dienstleister, die das machen.
0:17:36–0:17:43
Ist es halt immer schwierig im Voraus zu beurteilen, wie gut die Resultate sind,
0:17:43–0:17:47
die die liefern und vor allem, was es dann kostet und ich habe den Verdacht...
0:17:48–0:17:54
Also für mich schmeckt jetzt diese Aufgabe nach viel Handarbeit und damit nach
0:17:54–0:17:58
wirklich teuren Kosten, wenn du das extern gibst. Aber ich kann mich auch täuschen.
0:18:00–0:18:04
Nein, ich nehme auch an, dass man das nicht automatisieren kann.
0:18:04–0:18:10
Wenn man 10'000 Tias scannen muss, kann man sich überlegen, ob man das extern gibt.
0:18:10–0:18:14
Da gibt es Scanner, die das als Stapel machen können. Dann läuft das einfach
0:18:14–0:18:15
durch und scannt und scannt.
0:18:16–0:18:20
Bei Artikeln habe ich das Gefühl, dass jeder auf den Scanner leistet.
0:18:21–0:18:26
Das ist ein Stundenfriedhof. Da musst du wahrscheinlich selber beißen.
0:18:26–0:18:30
Und eben, wenn es Frakturschrift ist oder so, dann musst du vielleicht mal bei
0:18:30–0:18:37
einer Uni ansorgen, die das machen, die Erfahrung haben mit Digitalisierung
0:18:37–0:18:39
von älteren Dokumenten und so.
0:18:39–0:18:43
Die haben dann vielleicht noch eine OCR-Schrift, die auch mit Mittelhochdeutsch
0:18:43–0:18:47
und eben den Sütterlin und so zugekommen ist.
0:18:47–0:18:52
Aber da sind wir dann, glaube ich, wirklich nicht mehr die richtigen Ansprechpartner.
0:18:52–0:18:55
Also ich würde sagen, der Peter der sagt,
0:18:55–0:18:59
vor Geschichte, nach der Meldung, es gibt ein Laufwerk Problem,
0:18:59–0:19:05
der PC muss heruntergefahren und neu gestartet werden war das Internet weg das
0:19:05–0:19:10
heisst keine Anzeige an der Taskleiste, unter Einstellungen war,
0:19:11–0:19:16
der Internetbutton deaktiviert und funktionslos Sucheingabe,
0:19:16–0:19:21
Systemsteuerung Einstellung des Computers anpassen kam unter der Funktion Netzwerk
0:19:21–0:19:24
und Internet keine Funktion aktiviert werden.
0:19:25–0:19:29
Handelt es sich hierbei um ein Soft- oder ein Hardware-Problem?
0:19:29–0:19:31
Der PC ist bald 10 Jahre alt.
0:19:32–0:19:35
Was meinst du? Ich kenne die Meldung nicht.
0:19:35–0:19:41
Ich weiss nicht, was die heisst. Und keine Ahnung.
0:19:44–0:19:50
Also, ich... Es ist noch schwierig zu sagen. Vielleicht ist es ein Hardware-Fehler,
0:19:50–0:19:53
der einen Software-Fehler verursacht hat und darum läuft es nicht mehr.
0:19:53–0:19:56
Das kann sein, dass die Festplatte wirklich einen Schuss hat.
0:19:57–0:20:01
Es kann aber auch einfach ein Software-Problem sein.
0:20:02–0:20:07
Ja, was ist auf einem 10-jährigen PC? Windows XP? Ui, ja.
0:20:09–0:20:14
Hey, ich bin letztens bei einem Kunden gewesen, die haben da einen Windows XP Rechner im Einsatz.
0:20:14–0:20:17
Und ich dachte, ich verrecke. Das ist super. Ist er noch am Internet gehangen?
0:20:17–0:20:18
Das war schon lange nicht mehr.
0:20:19–0:20:23
Nein, nein, gar nicht. Gar nicht. Das ist die Steuerung einer Maschine. Ja gut, das...
0:20:24–0:20:30
Genau, aber ich habe wieder mal ein Windows XP. Sehr schön. Bist du nostalgisch geworden?
0:20:31–0:20:36
Gar nicht. Also ich fand Windows XP mega gut, hier wo es rauskam.
0:20:36–0:20:40
Ich war ein richtiger Fan und wenn ich es jetzt anschaue, denke ich, oh Gott, es ist alt.
0:20:40–0:20:45
Es ist nicht mehr auf der Höhe der Zeit, ja. Nein. Was sagen wir an Peter?
0:20:46–0:20:48
Reparatur probieren? Ich...
0:20:49–0:20:54
Ein zehnjähriger PC. Meine Vermutung ist schon, dass es Laufwerkprobleme gibt.
0:20:55–0:20:59
Da kann Hardwarefehler vorliegen.
0:20:59–0:21:04
Es kann irgendetwas passiert sein, das das Betriebssystem beschädigt hat.
0:21:05–0:21:07
Und irgendwie diese Struktur auf dem Laufwerk.
0:21:08–0:21:13
Da musst du wahrscheinlich so oder so einfach das Betriebssystem mal neu installieren.
0:21:13–0:21:19
Oder so das drüber bügeln, wie man früher gesagt hat. Also so eine Reparaturinstallation.
0:21:19–0:21:21
Das kennst du ja sicher auch.
0:21:22–0:21:26
Reparaturinstallation heisst, die klassische Installation ist.
0:21:28–0:21:34
Also du machst es entweder neu, du hast einfach alles vorgerührt und du hast
0:21:34–0:21:38
das Betriebssystem frisch installiert und dann ist es so, wie wenn es ein neuer Computer wäre.
0:21:39–0:21:42
Natürlich abgesehen davon, dass die Hardware, wenn sie mag, hat sie die auch hinten drin.
0:21:42–0:21:47
Und bei der Reparaturinstallation wird versucht, einfach das Betriebssystem
0:21:47–0:21:51
über alles Bestehende neu darüber zu installieren, sodass nichts verloren geht,
0:21:51–0:21:54
aber hinterher das, was kaputt war, wieder ganz ist.
0:21:54–0:21:57
Jetzt ein bisschen plakativ gesagt.
0:21:57–0:22:02
Und das könnte man da, würde ich auf jeden Fall probieren, weil das jetzt von
0:22:02–0:22:06
Hand irgendwie probieren, herauszufinden, was kaputt ist und irgendwie zu flicken,
0:22:06–0:22:07
das kannst du glaube ich vergessen.
0:22:08–0:22:11
Und natürlich sowieso, man muss in dem Fall, kann es auch sein,
0:22:11–0:22:14
dass der Computer am nächsten Tag überhaupt nicht mehr startet,
0:22:14–0:22:18
Also sowieso einfach das Backup haben und sicher schauen,
0:22:19–0:22:23
dass man auf den Fall der Fälle vorbereitet wäre.
0:22:23–0:22:27
In unseren Shownotes auf nerdfunk.ch gibt es dann die Links dazu,
0:22:27–0:22:28
wie man das Backup macht.
0:22:28–0:22:31
Vor allem auch, wie man dann die Reparaturinstallation macht.
0:22:31–0:22:36
Bei Windows 11 gibt es jetzt da neuerdings, das hat es bisher eben eigentlich nicht.
0:22:37–0:22:41
Die Reparaturinstallation klassisch, da musste man so ein.
0:22:43–0:22:49
Installationsmedium machen und es war wahnsinnig mühsam. Weil Windows von Haus
0:22:49–0:22:51
aus, Windows 11 und Windows 10 haben dann nur das,
0:22:53–0:22:59
Zurücksetzen, also entweder mit beibehalten, also mit,
0:23:00–0:23:05
löschen von allem oder aber mit behalten von den Daten, aber Aber Programm hast
0:23:05–0:23:07
du so oder so neu installieren müssen.
0:23:07–0:23:12
Und darum hat es eigentlich diese komfortable Methode nicht gegeben.
0:23:12–0:23:15
Aber neuerdings gibt es die wieder. Und das ist super.
0:23:15–0:23:19
Also ich meine, das macht so diese Reparatur leichter. Und da habe ich dann
0:23:19–0:23:23
auch noch einen Blogpost, wie man die Funktion, die es jetzt neu gibt,
0:23:23–0:23:27
Windows 11 schnell drüber bügeln, heisst der Blogpost.
0:23:27–0:23:29
Da kann man anlesen, wie das geht.
0:23:29–0:23:32
Und das ist wirklich nützlich, wenn man da in diese Situation einkommt.
0:23:32–0:23:39
Aber du hast es gesagt, es könnte nach Windows 8 sein oder so und dann... 8 oder so?
0:23:39–0:23:41
Ja, ich habe gedacht, es könnte eben alte sein und dann...
0:23:42–0:23:46
Dort bin ich halt mega vorsichtig, gerade so alte Systeme reparieren zu gehen.
0:23:48–0:23:53
Dann, wenn er noch so halbwegs läuft, den PC, kauft einen neuen,
0:23:53–0:23:54
da könnt ihr Daten in Ruhe übernehmen.
0:23:54–0:23:57
Das ist wie gescheiter als dort anfangen zu basteln.
0:23:58–0:24:02
Weil ja, das Risiko, dass er dann etwas kaputt macht und dann noch Daten verlieren,
0:24:02–0:24:05
das ist einfach relativ gross und dann ist es so super frustrierend.
0:24:06–0:24:11
Genau, das bin ich absolut auf deiner Seite. Ich glaube, wenn du wirklich so
0:24:11–0:24:17
einen 10-jährigen PC hast, ist es einfach... Es geht schon. Du kannst Glück haben.
0:24:17–0:24:25
Ich habe meinen letzten PC auch fast 10 Jahre gebraucht, aber sie sind einfach
0:24:25–0:24:28
nicht so richtig auf das ausgelegt.
0:24:28–0:24:36
Man merkt dann, dass die Liebe von allen Herstellern und Betriebssystementwickler
0:24:36–0:24:40
und so, endet dann irgendwann mal. Das ist einfach so.
0:24:41–0:24:49
Also der Lukas, der Lukas, der sagt, ich habe vom iPhone 8 Plus aufs iPhone 15 Pro gewechselt.
0:24:50–0:24:54
Das ist also auch, der hat da lange das gehabt, das alte Telefon.
0:24:56–0:25:02
Vorgängig noch ein Sync in die iCloud, dann installieren aufs neue.
0:25:03–0:25:08
Gestern wollte ich twinten, geht aber nicht. Ich habe mir ein PW notiert.
0:25:08–0:25:13
PW Passwort oder das andere würde PKW heissen.
0:25:15–0:25:22
Aber ich habe die Fax durchgelesen, aber nur oberflächlich und keine Antwort erhalten.
0:25:22–0:25:26
Da hat er probiert einfach herauszufinden, was er jetzt gemacht hat und jetzt
0:25:26–0:25:31
sagt er eben, ich kann nicht twinten und er hat aber die SIM quasi noch,
0:25:31–0:25:36
falls noch, ins alte Telefon hinschieben wenn er wirklich dringend Twinten muss, aber trotzdem,
0:25:37–0:25:40
wie bringt er das Twint wieder zum Twinten?
0:25:43–0:25:47
Ich habe keine Antwort bei Twint.
0:25:47–0:25:52
Bei Banklogins und so, da ist es ein wenig kompliziert manchmal,
0:25:52–0:25:58
dass man muss zuerst abmelden und dann das neue Telefon anmelden und sich einloggen
0:25:58–0:26:01
und dann gibt Dann gibt er Code beim alten und dann gibt er Code beim neuen. Jaja, genau.
0:26:02–0:26:06
Twint kann man aber eigentlich, weil das an die Handynummer gebunden ist, übernehmen.
0:26:07–0:26:10
Ich hatte das aber auch schon bei einem Kunden, wo das nicht ging.
0:26:12–0:26:16
Er hat es über eine Mikrobank gemacht.
0:26:17–0:26:22
Ich weiss es nicht mehr. Und das lief nicht. Ich konnte Twint installieren, es lief nicht.
0:26:24–0:26:28
Er ist auf der Bank, die haben gesagt, kein Problem, wir schauen, es lief. Ah lustig.
0:26:29–0:26:34
Vielleicht ist bei der Bank Vino das alte Telefon hinterlegt und jetzt mit dem,
0:26:35–0:26:39
Was immer mit dem Wechsel hat es die ausgesperrt.
0:26:40–0:26:42
Ich glaube das können Mechanismen sein, die passieren.
0:26:44–0:26:47
Dort haben sie es wirklich können. Er hat gesagt 2 Minuten und es ist gelaufen.
0:26:48–0:26:52
Ja genau, also wirklich der Teufel steckt im Detail, weil das Twint gibt es
0:26:52–0:26:56
ja auch auf wahnsinnig viele Varianten.
0:26:56–0:27:00
Also du kannst die Prepaid App von Twint selber haben, dort musst du einfach
0:27:00–0:27:04
das Guthaben drauf tun. Aber ich glaube die allermeisten haben wahrscheinlich
0:27:04–0:27:10
ihre App von der Bank, wie ich zum Beispiel von der ZKB.
0:27:10–0:27:14
Ich glaube Prepaid-Wind gibt es nicht mehr. Ah, gibt es gar nicht mehr, okay.
0:27:15–0:27:19
Ich glaube das haben sie oder wollen es sperren.
0:27:19–0:27:23
Irgendwie so habe ich mal gemeint, hätte ich mal gelesen, dass es jetzt immer
0:27:23–0:27:24
mit dem Konto gekoppelt ist.
0:27:24–0:27:29
Ah, okay, das wäre auch noch interessant zu wissen, das wäre aber für die Leute,
0:27:29–0:27:33
die kein Konto haben, wäre das eigentlich auf eine Art ein bisschen schade,
0:27:33–0:27:37
aber gut, das müssen jetzt die Twintle-Leute selber wissen, wie sie das machen wollen.
0:27:37–0:27:42
Aber auf jeden Fall, glaube ich, kann das eben auch ein bisschen je nach App
0:27:42–0:27:49
variieren und ich habe es jetzt nachgeschaut für ZKB.
0:27:50–0:27:53
Und dort musst du einfach die App abladen und dann kannst du,
0:27:54–0:27:58
wie du sagst, es hängt an der Handynummer, musst du das zuerst einmal aktivieren
0:27:58–0:28:01
über den Code und dann musst du diese Twin-Pin wissen.
0:28:02–0:28:04
Und wenn du die nicht mehr weisst, dann musst du sagen, ich habe sie vergessen
0:28:04–0:28:09
und dann gibt es irgendeine Anweisung, irgendein Vorgehen, das du dann folgen musst.
0:28:09–0:28:15
Also das sollte jetzt eigentlich nicht so ein Krampf sein, schätzungsweise.
0:28:15–0:28:20
Aber sonst müssten wir wissen, wo und warum er dann stecken geblieben ist.
0:28:20–0:28:25
Das ist ja auch wieder so ein Fall, der noch etwas mehr Details helfen würde.
0:28:25–0:28:26
Aber ja, genau.
0:28:27–0:28:32
Und, aber es ist, glaube ich... Ich würde mal bei der Bank vorbeigehen,
0:28:32–0:28:34
oder bei welchem Anbieter, Eimer.
0:28:34–0:28:39
Und dann schauen, die könnten das wahrscheinlich lösen. Eher als bei Twint, glaube ich jetzt auch.
0:28:39–0:28:45
Ich weiss nicht, wie hilfsbereit die dann wirklich sind. und ob die auf solche
0:28:45–0:28:47
Anfragen vorbereitet sind.
0:28:47–0:28:51
Also, und dann aber... Ja, Twink ist immer so... Immer wenn ich ein Problem
0:28:51–0:28:54
habe bei Twink und dann am Support schreibe, die sind nie schuld.
0:28:55–0:28:58
Ja, das glaube ich sofort. Sehr oft sind sie es nicht.
0:28:58–0:29:04
Und irgendwann kann ich sagen, es muss bei euch sein. Und dann ist...
0:29:05–0:29:10
Wir schauen, wir haben nichts gemacht, probieren es nochmal und dann läuft es. Genau.
0:29:11–0:29:16
Und ein grundsätzliches Problem gibt es, wo wir darauf hingewiesen worden sind,
0:29:16–0:29:22
nämlich, dass das Smartphone-Wechseln wirklich ein paar Tücken bieten kann.
0:29:22–0:29:28
Du hast es gesagt, es gibt die Finanz-Apps, die unter Umständen nicht einfach
0:29:28–0:29:31
übertreibt werden, sogar wenn alles sonst mitkommt.
0:29:31–0:29:35
Es gibt aber auch noch ein paar andere Apps. Also diese zwei Faktoren,
0:29:35–0:29:37
Authentifizierungen oder so,
0:29:37–0:29:42
wenn man zum Beispiel einen Google Authenticator nutzt oder irgend so etwas,
0:29:42–0:29:46
oder so ein Okta, wenn ich es geschäftlich brauchen muss,
0:29:47–0:29:53
dann kann es sein, wenn man das vergisst und es dann auf dem alten Handy nicht
0:29:53–0:29:58
mehr zur Verfügung hat und es auf dem neuen Handy nicht mehr in Energie gerichtet hat,
0:29:58–0:30:02
dann ist das eine Phase, wo man wirklich aufgeschmissen wäre,
0:30:02–0:30:03
wenn man das Telefon braucht.
0:30:03–0:30:11
Heute könntest du wenigstens sagen, schicke mir ein SMS oder probiere eine Ausweichmethode.
0:30:12–0:30:24
Aber es sind viele Apps, an die man denken muss, dass man diese von Hand migrieren
0:30:24–0:30:26
muss. Zum Beispiel auch so etwas wie eine Versicherung oder so.
0:30:26–0:30:30
Meine Versicherungs-App, da denkst du auch nicht dran, dass dann diese vielleicht
0:30:30–0:30:35
auch noch so an die Hardware des Telefons gekoppelt ist oder so.
0:30:35–0:30:39
Und darum, glaube ich, lohnt es sich zu Beginn wirklich.
0:30:40–0:30:44
Bei so einem Wechsel eben das alte Telefon noch behalten, solange man wirklich
0:30:44–0:30:49
sicher ist, dass alles, was wichtig ist, auch funktioniert und sich, ich glaube,
0:30:49–0:30:54
wirklich die Mühe macht, um aufzuschreiben, welche Apps man allenfalls auf dem
0:30:54–0:30:58
Gerät selber aktivieren muss, welche Banken, Versicherungen,
0:30:58–0:30:59
zwei Faktoren, Messenger,
0:31:00–0:31:05
Messenger muss manchmal Daten direkt vom Gerät übernehmen, weil die dann,
0:31:05–0:31:09
eben ein 3-MAT zum Beispiel, hat ja keinen Server, der sie neu abladen kann.
0:31:09–0:31:13
Das heisst, wenn du sie nicht direkt vom Gerät kopierst und die dann noch verschlüsselt
0:31:13–0:31:16
sind auf dem Gerät oder so, dann hast du die auch nicht mehr.
0:31:16–0:31:20
Und darum ist das wirklich etwas, das man im Auge behalten muss.
0:31:21–0:31:24
Aber ich habe da einen Blog-Post dazu gemacht.
0:31:24–0:31:27
Die Typen des Smartphone-Wechsels findet ihr dann auch in den Shownotes.
0:31:28–0:31:33
Dort hat es auch noch so alles Wesentliche dazu, was dazu steht.
0:31:33–0:31:40
Sven, abschliessend, sagt Ich möchte beim Windows Explorer die Schriftgrösse
0:31:40–0:31:42
im Vorschaufenster verkleinern.
0:31:43–0:31:48
Wie muss ich dabei vorgehen? Das ist zwar ein exotischer... Ist das nicht fast
0:31:48–0:31:50
ein bisschen zu exotisch für uns, die Frage?
0:31:51–0:31:55
Weisst du? Ich habe keine Ahnung.
0:31:56–0:32:01
Im Windows Explorer die Schriftgrösse im Vorschaufenster? Also...
0:32:01–0:32:04
Gar nicht. Ich muss es vielleicht mal probieren.
0:32:05–0:32:14
Also das Vorschaufenster ist ja praktisch, da siehst du ja, was für ein Dokument
0:32:14–0:32:15
du ohne das aufmachen musst.
0:32:15–0:32:20
Aber ich habe gefunden, ich weiss es nicht und wahrscheinlich hängt es auch
0:32:20–0:32:23
vom Format ab, ob das geht.
0:32:23–0:32:31
Wenn du das PDF als Seitendarstellung anzeigen lässt, dann hängt ja die Grösse
0:32:31–0:32:35
des Fensters davon ab, wieviel Platz das hat in der Breite.
0:32:35–0:32:39
Weil es das PDF in der Breite einpasst.
0:32:43–0:32:49
Liste mit den Dateien und im Vorschaufenster hast du den senkrechten Strich
0:32:49–0:32:52
und den kannst du packen und hin und her schieben und dann machst du den so
0:32:52–0:32:56
gross bis die Grösse stimmt und bei anderen Formaten,
0:32:56–0:33:05
also Word oder so wo halt nicht von dieser Seitenbreite abhängig ist dann kannst
0:33:05–0:33:11
du wahrscheinlich mit dem Kontrolltasten und dem Mausradchen kleiner und grösser machen,
0:33:12–0:33:15
Aber ich müsste vielleicht wieder ausprobieren.
0:33:15–0:33:23
Aber sonst, wenn ihr die nicht kennt, das Vorschaufenster ist das wirklich praktisch,
0:33:24–0:33:34
weil man so Dokumente kurz in den Blick werfen kann, ohne dass man das Dokument aufmachen muss.
0:33:34–0:33:39
Das geht ja eigentlich noch schneller.
0:33:40–0:33:45
Wenn ihr mit den Problemen nichts anfangen könnt, wäre das meine Empfehlung,
0:33:45–0:33:48
diese Vorschau-Funktion anzuschauen.
0:33:48–0:33:50
Und hier noch ein kleiner Trick.
0:33:51–0:33:55
Kennst du die Windows Power Toys? Sind die dir ein Begriff?
0:33:56–0:34:00
Sie sind mir ein Begriff, ja. Willst du schnell sagen, was die so können?
0:34:01–0:34:05
Ich weiss nicht, weil ich nutze die nicht wirklich.
0:34:08–0:34:14
Ich weiss nicht, kann ich... Sag mir mal, wenn ich... Der Farbwähler!
0:34:14–0:34:17
Für die Power Toys. Ja, genau, der gibt es dort.
0:34:17–0:34:20
Den nutze ich, den nutze ich, yes.
0:34:21–0:34:25
Es sind eigentlich kleine... Was sind es? Ein paar verschiedene kleine Hilfsprogramme,
0:34:25–0:34:31
die sehr spezifische Funktionen machen für Nischen Menschen.
0:34:32–0:34:35
Eben, der Farbwähler ist ein cooles Programm, weil da kann ich den aufmachen
0:34:35–0:34:39
und da kann ich mit dem Cursor irgendwo oder mit der Pipette irgendwo hin und
0:34:39–0:34:42
sagen, sag mir, was das für eine Farbe ist, das nützt mir etwas,
0:34:42–0:34:45
wenn ich von einem Kunden das PDF bekomme und er sagt, ich hätte genau diese
0:34:45–0:34:49
Farbe, möchte ich auf meiner Homepage. Ja. Zum Beispiel.
0:34:49–0:34:52
Genau, und eben, du sagst es richtig, es ist eine riesen Sammlung,
0:34:52–0:34:55
inzwischen wirklich fängt eine grosse von so Hilfsfunktionen.
0:34:55–0:34:58
Die Power Toys kommen von Microsoft selber.
0:34:58–0:35:02
Ich habe sie vorgestellt, mal in einem Blogpost, wo man die Entschuldigung auch
0:35:02–0:35:03
in den Shownotes findet.
0:35:04–0:35:10
Und ich brauche zum Beispiel die ganze Zeit die Funktion, wo man einfach reinen
0:35:10–0:35:13
Text einfügen kann, anstelle von vernotierten Texten.
0:35:15–0:35:23
Und was brauche ich auch noch? Du kannst so Programme starten mit Kontrolltasten
0:35:23–0:35:25
und Leertasten und dann kannst du einfach so,
0:35:26–0:35:32
a la Spotlight, beim Mac kannst du Dokumente und Apps und alles aufrufen.
0:35:32–0:35:39
Das finde ich sehr praktisch. Und warum ich jetzt überhaupt auf die Power Toys gekommen bin ist.
0:35:41–0:35:47
Die Vorschau-Funktionen machen sie noch besser, indem sie noch mehr Dateien
0:35:47–0:35:52
anzeigen können im Windows-Vorschaufenster.
0:35:52–0:35:58
Es gibt auch eine separate Vorschau-Funktion, wo man mit der Tastenkombination
0:35:58–0:36:04
ein extra Fenster aufmachen kann. von dem Dokument und das im Blick behalten.
0:36:05–0:36:14
Darum, wenn das euer Anliegen ist, dann wären diese Power Toys wirklich noch praktisch.
0:36:15–0:36:18
Ich glaube, die muss man wirklich noch durchschauen, welche Funktionen es gibt.
0:36:19–0:36:22
Weil ich bin jetzt gleich schnell auf der Microsoft-Seite, es sind unglaublich
0:36:22–0:36:24
viele. Ich glaube, ich habe die Hälfte etwa gekannt.
0:36:24–0:36:28
Da kommen immer mehr. Es gibt zum Beispiel auch noch einmal eine,
0:36:28–0:36:31
wir überziehen jetzt gerade ein bisschen, Aber das sage ich noch schnell,
0:36:31–0:36:32
weil das ist wirklich praktisch.
0:36:33–0:36:37
Was passiert mir? Einen grossen Bildschirm und einen kleinen Maus zeigen,
0:36:37–0:36:38
dann findest du den Maus nicht mehr.
0:36:38–0:36:42
Aber dann kannst du zum Beispiel zweimal die Kontrolltaste drücken und dann
0:36:42–0:36:43
wird der Mauszeiger gross.
0:36:44–0:36:48
Oder du kannst an den Maus rütteln und dann siehst du es. Und dann hilft dir
0:36:48–0:36:50
das, um dir deine Maus wieder zu finden.
0:36:51–0:36:55
Aha. Aber das brauchst du jetzt nicht mehr, weg der Linse. Ja, genau.
0:36:56–0:36:59
Und damit hat sich der Kreis geschlossen. Wir wünschen dir einen schönen Abend.
0:36:59–0:37:01
Tschüss zusammen. Tschau miteinander.
0:37:05–0:37:14
Music.

Die heutige Ausgabe von Kummerbox Live bewegt sich zwischen den Extremen: Claudia bekommt es für ein Buchprojekt mit einer Unmenge an Zeitungsartikeln zu tun, die sie digitalisieren sollte. Am anderen Ende des Spektrums bewegt sich Peter: Er hat nicht nur Einbussen bei der Internetverbindung zu beklagen, sondern er muss auch konstatieren, dass bei Windows einige Knöpfe abhandengekommen sind.

Ebbe herrscht in der Twint-App von Lukas nach dem Wechsel aufs neue iPhone. Und Sven würde sich etwas mehr Grösse im Windows-Explorer wünschen – zumindest, was den Schriftgrad im Vorschaufenster anbelangt.

Und wie immer gilt, dass wir uns nach Kräften um die Lösung dieser Probleme bemühen und für weitere Anliegen offen sind, gleichgültig, an welchem Ende einer beliebigen Skala sie sich bewegen. „Zwischen Übermass und Mangel“ weiterlesen

Wer hat das Sagen: Die KI oder der Mensch?

Transkript anzeigen (falls vorhanden)

00:00–0:00:13
Music.
0:00:12–0:00:20
Ich sitze hier in Zürich im Technopark mit Kevin Schawinski.
0:00:20–0:00:27
Er ist KI-Experte und wir wollen über die Regulierung reden und auch die Frage,
0:00:27–0:00:32
wo wir diesen KIs begegnen, ohne dass wir das überhaupt wissen,
0:00:33–0:00:34
ohne dass wir da eine Ahnung haben.
0:00:34–0:00:39
Die meisten von uns empfinden die KIs als hilfreiche Assistenten.
0:00:39–0:00:44
Assistenten, Chat, GPT, der für uns ein Mail schreibt oder irgendwie ein Mitschörner,
0:00:44–0:00:45
der ein schönes Bild macht.
0:00:46–0:00:50
Das ist ja alles angenehm und wir haben unter Kontrolle, was passiert.
0:00:50–0:00:55
Aber wir begegnen ja auch inzwischen so KIs, die wir gar nicht wissen,
0:00:55–0:00:58
dass die vielleicht mit uns etwas zu tun haben.
0:00:58–0:01:01
Wo gibt es, sagen wir mal, die versteckten KIs dann?
0:01:02–0:01:07
Die versteckten KIs gibt es in fast allen Aspekten jetzt von unserem modernen
0:01:07–0:01:11
Leben, wo die entscheidend über uns und für uns getroffen werden.
0:01:13–0:01:17
Die EU hat in ihrer neuen Regulierung eine gute Liste aufgestellt.
0:01:17–0:01:18
Ich gehe da jetzt ein bisschen durch.
0:01:19–0:01:26
Zum Beispiel im HR, also bei der Mitarbeiterauswahl, bei der Suche,
0:01:26–0:01:31
bei der Beurteilung von CVs, bei der Beurteilung von Mitarbeiterinnen und Mitarbeitern,
0:01:31–0:01:34
wird heute Software eingesetzt,
0:01:34–0:01:40
die nach dem Verständnis der neuen Regulierung als KI bezeichnet werden und
0:01:40–0:01:41
natürlich schon grossen Einfluss
0:01:41–0:01:48
über ganz essenzielle Entscheide in unser Leben ein Urteil fehlen.
0:01:48–0:01:53
Man kann sich vorstellen, dass so eine Software dann schon eine erste Triage
0:01:53–0:01:57
von solchen Dossiers macht und dann man vielleicht schon rausfliegt,
0:01:57–0:02:00
bevor ein Mensch überhaupt darauf geschaut hat.
0:02:00–0:02:05
Kann das heute passieren? Das kann passieren, das wissen wir auch, dass es passiert.
0:02:05–0:02:12
Ich habe einen Referenziererfall in den USA, wo KI-Regulierung natürlich auch ein grosses Thema ist.
0:02:12–0:02:17
Da wurde vor ein paar, zwei, drei Monaten eine Firma gebüsst,
0:02:17–0:02:22
und zwar mit einer Viertelmillion Dollar Strafe, weil sie beim Filtering von
0:02:22–0:02:27
CVs einfach mal ältere Personen herausgefiltert haben. Und das hat natürlich
0:02:27–0:02:28
erstmal niemand gemerkt.
0:02:29–0:02:33
Wenn man einfach mal ein CV reinschickt und keine Antworten bekommt,
0:02:33–0:02:35
dann weiss man ja nicht, was passiert ist.
0:02:35–0:02:39
Aber das war systematisch, das ist aufgeflogen und dann ist die US-Regierung
0:02:39–0:02:42
gekommen und hat gesagt, das darf er dann nicht. Das ist Altersdiskriminierung.
0:02:43–0:02:48
Weisst du, ob das in der Schweiz auch passiert? Wie häufig das in allen Fällen passiert?
0:02:48–0:02:54
Das passiert überall, bei fast jeder Anwendung, da bin ich mir sicher.
0:02:54–0:03:00
Und es hat einen Effekt auf das Leben von jeder einzelnen Person in der Schweiz, und zwar im grossen.
0:03:00–0:03:06
Und im kumulierbaren, weil die KI wird ja dann immer an den Daten trainiert,
0:03:06–0:03:09
die aus dem Betrieb, aus der Anwendung herauskommen.
0:03:10–0:03:15
Also was muss man sich da vorstellen? Wenn ich mich jetzt um einen Starlayer
0:03:15–0:03:20
bewerbe oder eine Kreditkarte oder was auch immer und ich werde jetzt abgelehnt
0:03:20–0:03:23
aus einem Grund, der diskriminierend ist,
0:03:24–0:03:29
dann habe ich das erstmal nicht auf meinem Record, meinem Lebenslauf,
0:03:29–0:03:33
meinem Profil abgelehnt worden.
0:03:34–0:03:38
So, jetzt passiert das häufiger und häufiger. Das heisst, dann werden Personen
0:03:38–0:03:42
mit einem gewissen Hintergrund immer mehr benachteiligt, auch in den Daten der
0:03:42–0:03:47
VKI natürlich lernt und dadurch wird das verstärkt. Dann gibt es so eine Feedback-Loop.
0:03:48–0:03:53
Man kann ja sagen, wenn das alle oder an vielen Orten die gleiche Software eingesetzt
0:03:53–0:03:58
wird und mit den ähnlichen Parametern, dann haben die gleichen Leute überall
0:03:58–0:03:59
die gleichen Nachteile.
0:03:59–0:04:02
Kann man das so sagen? Ja, und es kumuliert sich, auch wenn man sagt,
0:04:02–0:04:08
man hat jetzt einfach nur eine 49-prozentige Chance oder eine 48-prozentige Chance.
0:04:08–0:04:12
Aber wenn man das kumuliert auf viele Entscheidungen, auf viele Personen,
0:04:12–0:04:15
wird das ein grosser und signifikanter Effekt.
0:04:16–0:04:20
Du hast gesagt, bei Bewerbungen, allenfalls auch wenn man einen Kredit bekommt,
0:04:21–0:04:24
vielleicht auch bei Versicherungen, könnte es auch dort passieren?
0:04:25–0:04:31
Absolut, ja. Also Versicherer setzen ja Algorithmen ein, um zu berechnen,
0:04:31–0:04:35
wie ist das Risiko jetzt von jemandem, der eine Versicherungspolizei will.
0:04:35–0:04:39
Und die setzen alle Informationen ein, wo sie dürfen.
0:04:40–0:04:44
Und so explizit geschaut wird er jetzt diskriminiert.
0:04:45–0:04:48
Kommt natürlich aufs Land drauf an. In der Schweiz haben wir ja kein explizites
0:04:48–0:04:53
Antidiskriminierungsgesetz. Da wird dann auch gar nicht so genau geschaut und
0:04:53–0:04:57
das natürlich ausgenutzt, weil umso genauer der Algorithmus,
0:04:57–0:05:00
umso höher der Profitmargin.
0:05:01–0:05:04
Und da will man natürlich dann nicht sagen, ja, dann geben wir halt ein bisschen
0:05:04–0:05:07
Profitmargin auf dafür, dass wir fairer sind.
0:05:08–0:05:12
Also das heisst, es ist schon berechtigt, wenn wir da ein bisschen ein ungutes
0:05:12–0:05:15
Gefühl haben, dass über uns entschieden wird.
0:05:15–0:05:19
Und eben vielleicht in Fällen, wo nicht einmal mehr ein Mensch überhaupt auf
0:05:19–0:05:24
so einen Entscheid drauf schaut, dass wir da in eine ungute Richtung gehen.
0:05:25–0:05:27
Verstehst du das? Oder kann man sagen.
0:05:29–0:05:33
Ist es doch immer noch eine Randerscheinung oder würdest du sagen,
0:05:33–0:05:36
das ungute Gefühl ist gerechtfertigt?
0:05:36–0:05:40
Es ist gerechtfertigt, weil diese Entscheidungen werden so oft,
0:05:40–0:05:45
so häufig und überall gemacht, dass die Effekte auch unser Leben eigentlich
0:05:45–0:05:47
fast schon beherrschen.
0:05:47–0:05:49
Das heisst, wenn man da jetzt sagt, ich habe ein ungutes Gefühl,
0:05:50–0:05:54
eigentlich sollte man sagen, ja, ich weiss, ich sollte ein ungutes Gefühl haben.
0:05:54–0:06:03
Ja, die Software, die Entscheidungssysteme werden trainiert mit Daten und eben,
0:06:03–0:06:06
unser Eindruck ist vielleicht auch, ja, das ist eine Maschine,
0:06:06–0:06:09
die ist unbestechlich, die ist farbenblind,
0:06:09–0:06:13
aber da würdest du wahrscheinlich sagen, ich stelle jetzt eine Suggestivfrage,
0:06:14–0:06:17
das ist eine völlige Fehleinschätzung.
0:06:17–0:06:21
Komplett. Die Maschinen sind natürlich für einen Zweck designt,
0:06:21–0:06:26
dass sie dann natürlich einen Prozess und einen Entscheid optimieren.
0:06:29–0:06:34
Und wenn man dann einfach die historischen Daten nimmt, wir müssen Diskriminierung,
0:06:34–0:06:36
Ungleichheit, das gibt es in der Welt.
0:06:36–0:06:40
Und die Maschinen sind natürlich, die machen genau das, was man von ihnen verlangt.
0:06:40–0:06:42
Die bilden das dann auch so genau wie möglich ab.
0:06:44–0:06:47
Und das ist natürlich fatal, wenn man dann nicht interveniert und sagt,
0:06:47–0:06:52
ja, aber diese Ungerechtigkeit oder diese Diskriminierung, die wollen wir in
0:06:52–0:06:53
unserem System nicht haben.
0:06:54–0:06:57
Aber das muss man zuerst überhaupt mal merken, dass die drin ist.
0:06:57–0:07:02
Ich stelle mir das noch schwierig vor, wenn man mal so eine Software trainiert hat.
0:07:02–0:07:06
Dann probiert man sie vielleicht bei fünf, zehn, zwanzig Leuten aus und findet
0:07:06–0:07:11
ja, das ist super, was da rauskommt. Aber ob es dann beim 100. oder beim 1000.
0:07:12–0:07:16
Anwendungsfall immer noch so ist, das merkt dann keiner mehr so genau.
0:07:16–0:07:20
Das wird schon genau überwacht in der Performance, oder?
0:07:20–0:07:24
Weil die Algorithmen sind ja ein wichtiger Bestandteil von Geschäft,
0:07:25–0:07:28
von Prozessen, die natürlich möglichst profitabel sein sollten.
0:07:28–0:07:33
Also die werden natürlich genau überwacht, nur nicht auf die Frage,
0:07:33–0:07:37
wie sind sie jetzt auch diskriminierend. Oder sind sie sicher?
0:07:37–0:07:43
Oder können sie einen kumulierenden Effekt verursachen?
0:07:43–0:07:50
Kann man da grundsätzlich fragen, ob solche Maschinen überhaupt Entscheidungen treffen sollten?
0:07:50–0:07:55
Oder ist das ein grundsätzlicher Fehler, weil diese keine Moral haben,
0:07:55–0:08:00
sie haben kein Bewusstsein, dass ihnen das selber passieren könnte?
0:08:00–0:08:06
Als Mensch hast du ja immer das Gefühl, dass du andere so behandeln willst,
0:08:06–0:08:11
im Idealfall, wenn du selbst behandelt werden willst. Das kann dieser Maschine völlig egal sein.
0:08:11–0:08:16
Man kann sie nicht verklagen, sie kann nicht eine Busse bekommen, die sie zahlen muss.
0:08:16–0:08:20
Sie kann da eigentlich auch völlig skrupellos agieren. Man könnte sagen,
0:08:20–0:08:22
sie darf einfach keine Entscheidungen treffen.
0:08:25–0:08:30
Das Problem ist nicht, dass es um die Maschine oder den Algorithmus geht, klar.
0:08:30–0:08:35
Das ist ein Boot für einen Zweck und nach Spezifikationen.
0:08:35–0:08:40
Regeln müssten kommen für diejenigen, die diese Algorithmen erstellen,
0:08:40–0:08:44
trainieren und dann auch in der Produktion einsetzen.
0:08:45–0:08:49
Diese sollten sich an klarere Regeln halten, dass sie sich über solche Fragen
0:08:49–0:08:55
Gedanken machen und dann die Risiken von Ihrem System versuchen zu minimieren, so systematisch.
0:08:56–0:09:01
Wie kann man diese Risiken dann minimieren? Muss man einfach diese Entscheidungen
0:09:01–0:09:07
immer noch von Hand, also manuell als Mensch, kontrollieren?
0:09:07–0:09:15
Oder gibt es auch die Möglichkeit, zu erkennen, wo so ein KI oder so ein System
0:09:15–0:09:17
die grundlegende Schwäche haben könnte?
0:09:19–0:09:22
Die Nachkontrolle oder sagen wir das Recht drauf dann eine Entscheidung von
0:09:22–0:09:25
einem Menschen bekommen das ist zum Beispiel etwas, was die Amerikaner jetzt
0:09:25–0:09:30
immer mehr bringen was die EU jetzt bringt aber das ist so ein Pflösterchen
0:09:30–0:09:33
oben drauf, was wichtig ist ist, dass man,
0:09:34–0:09:40
von Anfang an, bevor man überhaupt anfängt, irgendetwas zu programmieren sich systematisch überlegt,
0:09:41–0:09:47
welche Risiken könnte mein System haben für alle möglichen Aspekt und nicht
0:09:47–0:09:52
nur Diskriminierung, Sicherheit, Health and Safety, Grundversorgung,
0:09:52–0:09:54
wo auch immer das System auch ist.
0:09:55–0:10:01
Und dass man das systematisch aufarbeitet und die Risiken halt minimiert.
0:10:01–0:10:04
Risiken kann man ja nie ganz verschwinden lassen, das ist illusorisch,
0:10:04–0:10:09
aber dass man sich denen bewusst ist, dass man sie verfolgt und Schritt macht,
0:10:09–0:10:12
um die Risiken zu mitigieren.
0:10:13–0:10:17
Wird das heute gemacht oder ist das heute so ein laissez-faire,
0:10:18–0:10:21
also solange es keine expliziten Gesetze gibt?
0:10:21–0:10:24
Wir reden dann noch über den EU-AI-Act.
0:10:24–0:10:30
Aber sind sich die Unternehmen nach deiner Erfahrung dem Problem bewusst oder
0:10:30–0:10:34
finden die, ja, solange niemand reklamiert, ist alles in Ordnung?
0:10:35–0:10:40
Es gibt eine ganz kleine Anzahl von Firmen, die sich dem Problem sehr bewusst
0:10:40–0:10:46
sind und komplexe Strukturen, interne Prozesse haben, um zu schauen,
0:10:46–0:10:49
dass ihre Systeme nicht ein Problem verursachen.
0:10:49–0:10:53
Das sind die ganz grossen Tech-Firmen, das sind Google, das sind Meta.
0:10:53–0:10:59
Die haben schon über ein Jahrzehnt Erfahrung drin, weil für sie wäre es natürlich fatal,
0:11:00–0:11:03
wenn rauskommt, das neue System, das jetzt bei Hunderten von Millionen Leuten
0:11:03–0:11:09
läuft, ist, was an sich diskriminierend, rassistisch oder macht Leute unsicher.
0:11:09–0:11:13
Also die haben ganz klare Prozesse, was sie machen. Sobald man von diesen Firmen
0:11:13–0:11:16
weggeht, ja, so genau ist nicht geschaut worden.
0:11:17–0:11:21
Bei den meisten Firmen ist das entweder gar nicht auf der Agenda oder irgendwann
0:11:21–0:11:23
schauen wir es uns mal an.
0:11:24–0:11:26
Vielleicht schreiben wir schon ein paar schöne Blogposts, die sie anhaben,
0:11:26–0:11:31
die sind da jetzt interessiert und haben das Center of Excellence für Ethical AI und so.
0:11:33–0:11:40
Und Und aus der Rechtssicht, ja gut, in Europa, wir haben bis vor kurzem,
0:11:40–0:11:44
weder in der Schweiz noch in der EU, explizit KI-Recht gehabt.
0:11:45–0:11:49
In Amerika ist es ein bisschen anders, weil einfach die Rechtstradition dort
0:11:49–0:11:51
anders ist, die Rechtsstruktur ist anders.
0:11:52–0:11:57
In den USA darf man zum Beispiel auf gewisse Sachen nicht diskriminieren und
0:11:57–0:12:01
es ist völlig egal, ob das jetzt ein Mitarbeiter oder Mitarbeiterin in der Bildversicherung
0:12:01–0:12:02
ist oder der Algorithmus.
0:12:03–0:12:09
Und was die USA gemacht haben, Präsident Biden hat im November letztes Jahr
0:12:09–0:12:13
einen Executive Order rausgegeben und der Behörde einfach gesagt,
0:12:13–0:12:16
ihr müsst dieses existierende Recht,
0:12:17–0:12:21
jetzt anwenden auf Fälle, wo KI drin ist. Ihr müsst das Know-how haben,
0:12:21–0:12:24
ihr müsst die Leute haben, dass ihr das machen könnt. Und das ist schon passiert.
0:12:26–0:12:29
Die grosse Behörde, also die Federal Trade Commission, die Wettbewerbskommission,
0:12:29–0:12:34
ist stark dahinter, das Department of Justice, das Justizministerium ist dahinter.
0:12:34–0:12:37
Da kommen jetzt schon die ersten Fälle und die ersten Strafen,
0:12:37–0:12:41
wo klar gesagt wird, das dürft ihr nicht, egal ob das jetzt mit KI ist oder nicht.
0:12:42–0:12:47
Findest du denn aus deiner Sicht, das ist den Unternehmen wirklich ein Bedürfnis,
0:12:47–0:12:52
das auch zu regeln oder sagen die einfach, wir wollen bloß nicht verwutscht
0:12:52–0:12:55
werden, weil es ein riesiges Reputationsrisiko sein könnte?
0:12:55–0:13:06
Ich glaube, die Firmen haben primär KI einfach als effizienzsteigernd angesehen, als Investment,
0:13:06–0:13:10
um mehr Business zu treiben.
0:13:10–0:13:16
Und da ist es natürlich auch wahnsinnig gut. Die Firmen werden dadurch effizienter,
0:13:16–0:13:17
die Produkte werden besser.
0:13:17–0:13:21
Wir haben heute bessere Produkte und Services, weil bei vielen AI drin ist.
0:13:21–0:13:29
Und es gibt schon Firmen, die zumindest nach aussen Commitments machen zu Ethical AI.
0:13:30–0:13:35
Wie viel da wirklich gemacht wird, meiner Erfahrung nach, nicht so viel und
0:13:35–0:13:37
in vielen Orten gar nicht.
0:13:37–0:13:41
Man kann vielleicht vergleichen mit der Cybersicherheit, das ist auch so etwas,
0:13:41–0:13:44
wo eigentlich der, der das im Unternehmen durchdrucken muss,
0:13:44–0:13:52
eigentlich immer der ist, Das ist, was Kosten verursacht, ohne wirklich einen sichtbaren Nutzen.
0:13:52–0:13:58
Genau. Und dann, wenn der grosse Ransomware-Fall kommt oder die Kundendaten
0:13:58–0:14:00
entwendet worden sind, dann ist es ein Desaster.
0:14:00–0:14:03
Und dann, wieso haben wir uns darauf nicht vorbereitet? Genau.
0:14:03–0:14:05
Und dann ist es vielleicht aber auch schon ein bisschen zu spät.
0:14:06–0:14:11
Wie ist es aus deiner Sicht in der Schweiz?
0:14:11–0:14:14
Sind sich die Leute bewusst, was die Möglichkeiten sind?
0:14:16–0:14:21
Die grossen Unternehmen sind sich das sicher bewusst, aber bei den KMUs.
0:14:23–0:14:28
Brauchen die so künstliche Intelligenz, haben die das auf dem Schirm,
0:14:28–0:14:32
experimentieren die oder gibt es auch solche, die sagen, jawohl,
0:14:32–0:14:35
das ist meine riesen Chance, ich setze da voll drauf?
0:14:35–0:14:40
Ich glaube, wir sind ja in der Schweiz, werden immer wieder in den Rankings
0:14:40–0:14:46
als sehr innovatives Land gewürdigt und ein Teil davon ist,
0:14:46–0:14:51
dass wir pragmatische Early Adopters sind generell und das ist so mein Eindruck,
0:14:52–0:14:57
dass Firmen das doch gern und experimentierfreudig einsetzen.
0:14:57–0:15:03
Und ich sehe da nicht, dass wir da irgendwie Abstand nehmen,
0:15:03–0:15:05
oh AI, wir können damit nicht umgehen.
0:15:06–0:15:13
Was vielleicht noch dazukommt, ist, dass durch den Erfolg von ChatGPT und dem
0:15:13–0:15:17
grossen Sprachmodell, dass sich unser Bild von KI jetzt auch verändert hat.
0:15:17–0:15:22
Also wenn man jetzt sagt, in einer Konversation KI denken alle sofort an die Sprachmodelle.
0:15:23–0:15:27
Die sind super spannend und die können auch viel. Aber das ist nur ein winziger
0:15:27–0:15:29
Teil von all den KI-Anwendungen.
0:15:30–0:15:36
Die meisten KI-Anwendungen sind einfachere Algorithmen, die einfach Daten reinnehmen
0:15:36–0:15:37
und einen Entscheid treffen.
0:15:37–0:15:42
Wie zum Beispiel bei der Versicherung, wo die Daten von der Bewerberin den Bewerber
0:15:42–0:15:46
reinnehmen und dann sagen sie «Thumbs up, thumbs down». Das sind nicht grosse
0:15:46–0:15:48
Sprachmodelle, das sind einfachere Algorithmen.
0:15:49–0:15:55
Was jetzt dazukommt, ist, dass die Definition von KI sich immer weiter ausweitet,
0:15:55–0:16:00
bis zu einer Definition, die jetzt von der OECD angenommen ist.
0:16:00–0:16:06
Das KI ist ein System, wo Daten reinkommen und Entscheidungen oder Antworten
0:16:06–0:16:08
oder Klassifizierungen herauskommen.
0:16:08–0:16:12
Und damit ist die Formel im Excel möglicherweise auch.
0:16:12–0:16:17
KI, ja. Genau, dann hätten wir schon seit 50 Jahren KI, nach dieser Definition.
0:16:17–0:16:21
Die Amerikaner sind dann natürlich wie immer pragmatischer. Die haben jetzt
0:16:21–0:16:27
immer weniger den Begriff AI in ihren Gesetzen und Regulierungen verwendet.
0:16:27–0:16:32
Und sie nennen den Begriff Automated Decision System, also automatisiertes Entscheidungssystem.
0:16:32–0:16:36
Und dann ist es auch viel klarer, ja gut, wenn ich jetzt Daten hineinfüttern
0:16:36–0:16:39
und eine Entscheidung herauskomme, dann habe ich so ein System.
0:16:39–0:16:44
Genau, es wäre eigentlich sinnvoll, dass man das nicht an der Technik misst,
0:16:44–0:16:48
sondern an dem, was es macht und was es eben allenfalls dann auch bedeutet für
0:16:48–0:16:50
die Anwender und die Betroffenen.
0:16:50–0:16:55
Genau, ob ich jetzt von Chat-GPT diskriminiert werde oder von einer Excel-Formel, ist mir ja egal. Genau.
0:16:57–0:17:02
Ich glaube, das ist ein guter Moment, um auf das AI-Gesetz von der EU zu kommen.
0:17:02–0:17:06
Das ist ja jetzt in Kraft, also es ist bewilligt worden.
0:17:07–0:17:11
Es wird dann demnächst, glaube ich, wenn ich das richtig verstanden habe,
0:17:11–0:17:14
ich finde immer, dass bei der EU zu verstehen, wie die Abläufe sind, noch schwierig.
0:17:14–0:17:19
Aber es muss dann publiziert werden und dann hat man noch so eine Übergangsfrist
0:17:19–0:17:23
und dann irgendwann mal greift es dann und dann müssen diese Regeln gelten.
0:17:23–0:17:28
Und die EU hat, wenn ich das richtig verstanden habe, mal so das risikobasierte
0:17:28–0:17:31
Modell, wo man sagt, eben gewisse Sachen will man ganz verbieten,
0:17:31–0:17:32
die will man nicht haben.
0:17:32–0:17:36
Also dass irgendeiner kann einfach mittels Gesichtserkennung schauen,
0:17:37–0:17:41
wer an seinem Haus vorbeiläuft und das Registrieren will man gar nicht.
0:17:41–0:17:46
Dann hat man Systeme, die strenger reguliert werden, das sind so medizinische
0:17:46–0:17:51
Sachen, glaube ich auch, so Self-Driving, also so selbstlenkend.
0:17:51–0:17:54
Also leuchtet eigentlich auf den ersten Blick ein, was die machen.
0:17:54–0:17:59
Ist das auch deine Wahrnehmung, ist das ein Gesetz, das dir einleuchtet?
0:17:59–0:18:00
Hättest du es auch so gemacht?
0:18:02–0:18:07
Wir haben uns die frühen Versionen des AI Act vor über zweieinhalb Jahren angeschaut.
0:18:08–0:18:11
Und da ist zwei Sachen klar gewesen. Der erste ist, das haben wir jetzt gerade
0:18:11–0:18:17
besprochen, dass das Produkt reguliert wird, nicht die Technologie und dass
0:18:17–0:18:19
es eben der risikobasierte Ansatz ist.
0:18:19–0:18:23
Also für was wird es eingesetzt und was ist das Risiko für die Bevölkerung,
0:18:23–0:18:26
für die Nutzerinnen und Nutzer.
0:18:27–0:18:32
Und das Gesetz wäre wahrscheinlich ohne grosse Aufmerksamkeit einfach durch
0:18:32–0:18:37
Brüssel durchgekommen wie damals bei GDPR beim Datenschutz und plötzlich gilt
0:18:37–0:18:46
das Gesetz beim AI Act ist etwas anderes passiert weil bevor er fertig war ist Chachi Biti gekommen,
0:18:47–0:18:52
das ist Thema Nummer 1 geworden und plötzlich haben alle KI regulieren wollen
0:18:52–0:18:57
und ich sage das immer so dass es kein Witz ist ist, dass sogar der Papst nach
0:18:57–0:18:59
KI-Regulierung gerufen hat.
0:18:59–0:19:04
Also die EU plötzlich gesagt, ja, okay, gut, jetzt werden plötzlich alle,
0:19:04–0:19:09
jetzt schauen alle auf uns und was noch interessant ist, klar will jeder KI selber regulieren,
0:19:10–0:19:15
aber letzten Endes haben viele einfach bei der Europäer abgeschrieben und angepasst.
0:19:15–0:19:18
Jetzt muss ich doch noch schnell fragen, was hat der Papst für eine KI?
0:19:19–0:19:23
Das weiss ich nicht. Da bin ich nicht die richtige Stellung.
0:19:24–0:19:27
Okay, ich komme Das können wir bei der katholischen Kirche nachfragen.
0:19:27–0:19:31
Nein, und in diesem Prozess ist dann das Lobbying reingekommen,
0:19:31–0:19:35
weil so viel Geld investiert worden ist in OpenAI, in Anthropic,
0:19:35–0:19:37
in all die Startups, die jetzt KI machen.
0:19:37–0:19:43
Und dann kam ein gewaltiges Lobbying hin und her und politische Kontroverse,
0:19:43–0:19:49
bis sogar Macron und Scholz intervenieren mussten in diesem Verhandlungsprozess.
0:19:49–0:19:54
Und jetzt haben wir ein Gesetz, das viel komplexer ist, Viel komplizierter,
0:19:54–0:19:59
viel unklarer, viel mehr Ecken und Kanten hat auch.
0:20:00–0:20:05
Und wir müssen eigentlich immer noch ein bisschen verstehen,
0:20:05–0:20:06
was das jetzt wirklich bedeutet.
0:20:09–0:20:14
Und diese Interventionen sind auch, würdest du sagen, die waren nur negativ?
0:20:14–0:20:18
Das sind einfach Leute, die das Geschäft gewittert haben und sich das nicht
0:20:18–0:20:21
haben wollen durch so Gesetze verderben lassen?
0:20:21–0:20:26
Sage ich jetzt ein bisschen überspitzt, oder gibt es auch wirklich berechtigte
0:20:26–0:20:30
Überlegungen, dass man sagt, wenn sie in anderen Weltregionen, China sagt,
0:20:30–0:20:36
die finden das noch so toll, wenn die EU das reguliert, dann können sie einfach machen, was sie wollen.
0:20:36–0:20:40
Ist da auch etwas Wahres daran, dass man sich vielleicht selber hindert daran,
0:20:41–0:20:45
führend zu werden, wenn man die AI reguliert?
0:20:47–0:20:50
Ich finde es wirklich spannend, jetzt im öffentlichen Diskurs zum AI Act,
0:20:50–0:20:55
wo die Leute sagen, die EU zerstört Innovation und es wird nie eine grosse Tech-Firma
0:20:55–0:20:58
in Europa geben, weil die EU nur regulieren kann.
0:21:00–0:21:03
Wir haben gerade vorher besprochen, also die EU hat jetzt ein Gesetz,
0:21:03–0:21:08
wo man Klarheit hat, was in den nächsten zwei Jahren kommt und wo man sich anpassen
0:21:08–0:21:12
muss, zertifizieren lassen. Und ja, diese Regeln gelten in Europa,
0:21:13–0:21:14
aber sie sind extra-territorial, d.h.
0:21:14–0:21:18
In der Schweiz müssen wir uns de facto auch daran halten und in anderen Ländern auch.
0:21:20–0:21:23
Aber es hat einen klaren Zeitplan, klare Regeln, man kann sie alle lesen.
0:21:24–0:21:28
In Amerika kommt der Präsident und sagt, check executive order,
0:21:28–0:21:32
jetzt wird ab sofort Enforcement gemacht von Regeln, die wir noch gar nicht richtig verstehen.
0:21:32–0:21:42
Das Argument, dass Amerika mit fehlender Regulierung das Wirtschaftswachstum
0:21:42–0:21:43
anbringt, das stimmt gar nicht.
0:21:44–0:21:51
Heute hat man schon das Risiko, dass man abgestraft wird in den EU erst in mindestens sechs Monaten.
0:21:51–0:21:57
Und es kommt eigentlich darauf hinaus, dass die Tech-Firmen natürlich Regulierung
0:21:57–0:22:00
gerne haben, wie sie das zur Verteidigung nutzen.
0:22:00–0:22:04
Also was war das grösste Lobbying im AI Act? Die grossen Tech-Firmen wollten
0:22:04–0:22:09
nicht, dass sie mit ihren grossen Sprachmodellen, wo Milliarden investiert worden
0:22:09–0:22:11
sind, dass diese direkt reguliert werden.
0:22:11–0:22:16
Und dass alle Verantwortung auf die Nutzer geht, also die Firmen,
0:22:16–0:22:21
die Startups, die KMU, die mit diesen Sprachmodellen jetzt ihre Produkte bauen.
0:22:21–0:22:24
Und das haben sie fast, nicht ganz, aber fast geschafft.
0:22:25–0:22:29
Die meiste Verantwortung ist jetzt Die grossen Strafen kommen beim Anwender.
0:22:30–0:22:32
Das Einzige, was ich nicht geschafft habe, und das wird sowieso spannend.
0:22:34–0:22:39
Auch wegen der Rechtsfälle in den USA, ist die Frage der Trainingsdaten.
0:22:39–0:22:42
Also im AI Act wird gesagt, auch bei den grossen Sprachmodellen,
0:22:42–0:22:46
muss man die Trainingsdaten jetzt offenlegen, damit die Leute,
0:22:46–0:22:53
die sagen, ja, Urheberschutz bitte, dass die wissen können, wo sind meine Werke
0:22:53–0:22:54
eigentlich benutzt worden.
0:22:55–0:22:59
Und das haben sie nicht ganz herausgebracht, Das wollte es natürlich heraus, aber das ist jetzt da.
0:23:01–0:23:03
Wiederum, das ist jetzt ein Gesetz, das jetzt langsam kommt.
0:23:03–0:23:07
In Amerika wird OpenAI von den New York Times verklagt.
0:23:08–0:23:14
Die New York Times hat gefordert, dass OpenAI die Modelle zerstört.
0:23:15–0:23:19
Also wenn der Richter sagt, die New York Times hat recht, das ist Copyright-Verletzung,
0:23:19–0:23:22
was sie ja gemacht haben bei OpenAI, sagen die, wir wollen, dass die Modelle
0:23:22–0:23:26
gelöscht werden, zerstört werden. Und dann haben noch ein paar Arbeiter ein
0:23:26–0:23:27
bisschen nachgerechnet.
0:23:27–0:23:34
In Amerika gibt es ja im Urheberrecht pro Fall eine Strafe von ca. 100'000 Dollar.
0:23:35–0:23:41
Das heisst, OpenAI könnte eine Copyright-Liability haben, bei einer grossen
0:23:41–0:23:44
Ordnung von Billionen von Dollar.
0:23:45–0:23:51
Ja, das wäre eindrücklich. Und das ist härter, als was die EU da jetzt geplant hat.
0:23:52–0:23:57
Also ich gehöre raus, du würdest vielleicht sagen, dass am Schluss wirklich
0:23:57–0:24:02
einfach die Anwender von diesen KIs schuld sind, das ist ein bisschen schwierig an diesem Gesetz.
0:24:03–0:24:06
Gibt es noch andere Sachen, die du jetzt anders gemacht hättest oder wo du einen
0:24:06–0:24:11
anderen Schwerpunkt legen würdest, wenn du da der Gesetzgeber wärst?
0:24:12–0:24:16
Ich glaube, da haben sie schon ein bisschen drin.
0:24:18–0:24:23
Was fehlt und was ein grosses Problem verursachen könnte, ist,
0:24:23–0:24:28
dass der EU jetzt gewisse Prozesse vorsieht für Registrierung,
0:24:28–0:24:30
für Audits, für Zertifizierung.
0:24:31–0:24:38
Und ich sehe ein grosses Risiko, dass das nicht rechtzeitig fertig wird.
0:24:38–0:24:41
Und dann haben wir das Problem, wenn in eineinhalb Jahren jede Firma sagt,
0:24:41–0:24:45
jetzt muss ich aber mein System noch zertifizieren lassen. es gibt kein Audit,
0:24:45–0:24:45
es gibt keine Stelle, es gibt nichts.
0:24:46–0:24:49
Und dann hat man plötzlich das Problem, dass man von einem Deadline-Staat möglicherweise
0:24:49–0:24:51
das Produkt nicht mehr auf den Markt bringen darf.
0:24:51–0:24:58
Also ich glaube, mehr Sorgen, mehr Investment in die Hilfe des Staates,
0:24:58–0:25:02
vor allem für die kleineren Firmen, um sich davor zu bereiten,
0:25:02–0:25:03
wäre sicher erwünschenswert.
0:25:04–0:25:07
Genau, und damit sind wir ja auch in der Schweiz. Du hast es angedeutet,
0:25:08–0:25:11
das Gesetz gilt zwar nicht in der Schweiz, der Bundesrat überlegt noch,
0:25:11–0:25:16
ob er auch so etwas will oder nicht. Ich glaube, Ende Jahr hat er sich das dann
0:25:16–0:25:18
überlegt, vielleicht, oder auch nicht.
0:25:18–0:25:25
Aber es gilt zumindest schon für Unternehmen, die mit Unternehmen im EU-Raum beschäftigen.
0:25:25–0:25:29
Und da sind sie dann auch dem unterworfen.
0:25:29–0:25:34
Und das heisst, da kommst du auch ein wenig ins Spiel. Du kannst uns dann noch erklären, wie.
0:25:34–0:25:39
Die müssen jetzt eigentlich, diese Unternehmen, mal schauen.
0:25:39–0:25:42
Als erstes wahrscheinlich überhaupt, was haben wir für Software,
0:25:43–0:25:45
die da betroffen könnte sein?
0:25:46–0:25:50
Absolut. Also ich meine, wir sind so im Moment in der Phase,
0:25:50–0:25:51
wo viele Firmen sagen, ja,
0:25:52–0:25:59
aber wir haben ja nicht wirklich AI und wir sind ja nicht in der EU und so ein
0:25:59–0:26:02
bisschen Rationalisierung, wieso man nichts machen sollte.
0:26:02–0:26:05
Genau, die haben das mit dieser Excel-Formel noch nicht verstanden.
0:26:05–0:26:09
Die haben das nicht verstanden und das mit der Extraterritorialität,
0:26:09–0:26:13
die die EU da erwartet, die durch die ganze Supply Chain durchgeht.
0:26:13–0:26:17
Und ich sage immer noch, wenn ich mit Schweizer KMU rede und die sagen so etwas,
0:26:17–0:26:21
sind die GDPR compliant? Und sie sagen, ja, sicher sind wir das.
0:26:22–0:26:25
Und sind das auch schon vor unserem Datenschutzgesetz? Ja, klar.
0:26:25–0:26:30
Und genauso wird es sein. Genauso wird es sein, weil sie können ihr Produkt,
0:26:30–0:26:35
wenn sie jetzt Software machen, oder ein Produkt, in dem Software und AI drin
0:26:35–0:26:39
ist, nach dieser Definition, könnten sie noch nicht einmal exportieren,
0:26:40–0:26:45
weil die Importeure in Europa das gar nicht annehmen könnten.
0:26:45–0:26:50
Es ist lustig, ich habe jetzt schon die ersten Anfragen von Firmen bekommen,
0:26:50–0:26:56
die Folgendes sagen, unsere Kunden haben gefragt, sind sie AI Act Compliant?
0:26:57–0:27:01
Das ist natürlich die korrekte Antwort. Niemand kann heute schon AI compliant sein.
0:27:01–0:27:06
Das macht gar keinen Sinn. Niemand kann zertifiziert sein. Man kann sich aber darauf vorbereiten.
0:27:07–0:27:10
Darum muss sich jede Firma, die irgendetwas in Richtung AI macht,
0:27:10–0:27:14
jetzt überlegen, was für ein Managementsystem sie haben.
0:27:14–0:27:18
Wie beantwortet sie die Frage vom Kunden, der dann sagt, ja, seid ihr compliant?
0:27:19–0:27:20
Genau. Und wie macht man das? Ich nehme
0:27:20–0:27:25
an, man macht mal ein Inventar von Softwarelösungen, die man so einsetzt.
0:27:25–0:27:31
Und dann muss man diese einzeln durchgehen. Und dann würde ich mal zum Hersteller
0:27:31–0:27:34
gehen von dieser Lösung, wenn sie nicht selbst gelistet ist, und sagen,
0:27:35–0:27:42
Was ist euer Plan, dass wir in zwei Jahren auch voll zertifiziert sind und dann
0:27:42–0:27:47
bei den eigenen Anwendungen, bei den eigenen Produkten, was ist unser Plan als Organisation.
0:27:48–0:27:50
Dass wir in zwei Jahren voll zertifiziert sind?
0:27:50–0:27:54
Genau, dann hast du vielleicht einen, der mal ein Excel-Makro geschrieben hat,
0:27:54–0:27:58
der vielleicht längstens nicht mehr bei der Firma arbeitet und dann fragst du
0:27:58–0:28:01
dich, was ist jetzt bei dem und was hast du dann für eine Möglichkeit,
0:28:01–0:28:04
wenn du sagst, ich habe keine Ahnung, wie ich das jetzt beurteilen soll.
0:28:04–0:28:10
Das ist eine extrem schwierige Frage, weil die Abschätzung muss jetzt erstmal
0:28:10–0:28:12
jede Firma machen, das Inventar.
0:28:12–0:28:18
Und basierend auf dem, was sie haben, sagen, das Excel-Makro ist irgendwie 80%
0:28:18–0:28:22
von unserem Umsatz, müssen sie sich überlegen, wie sie das wahrscheinlich,
0:28:23–0:28:25
wie der Mitarbeiter oder die Mitarbeiterin, die gegangen ist,
0:28:25–0:28:28
wahrscheinlich auch keine gute Dokumentation hinterlassen hat.
0:28:28–0:28:32
Dann ist es wahrscheinlich die einzige Option, dass Sie das ganze System von
0:28:32–0:28:38
Anfang an neu aufbauen, neu programmieren, dokumentieren, sodass wenn dann die
0:28:38–0:28:42
Zeit kommt, dass es auch zertifizierbar ist und den Regeln entspricht.
0:28:42–0:28:49
Das ist ein riesiger Aufwand, das ist mir klar, aber wir haben einen Präzedenzfall dafür mit GDPR.
0:28:51–0:28:55
GDPR hatte auch so eine Übergangskrise von zwei Jahren. Das waren 2016 bis 2018.
0:28:56–0:29:03
In diesen zwei Jahren mussten alle Firmen, die persönliche Daten verarbeitet
0:29:03–0:29:06
haben, ihre Systeme neu bauen.
0:29:07–0:29:11
Wir haben versucht herauszufinden, wie viel investiert wurde.
0:29:12–0:29:16
Es gibt eine Schätzung der EU-Kommission, dass weltweit, nur in diesen zwei
0:29:16–0:29:24
Jahren, 200 Milliarden Euro investiert worden sind, nur um die GDPR-Compliance am Anfang zu erreichen.
0:29:26–0:29:32
Ich vermute stark, dass der Effort, der in den nächsten zwei Jahren für AIACT
0:29:32–0:29:36
kommt, vergleichbar ist, wenn nicht sogar grösser als der für GDPR.
0:29:36–0:29:40
Was kannst du mit deinem Unternehmen anbieten in diesem Bereich?
0:29:41–0:29:45
Wir haben eben vor zweieinhalb Jahren den AIACT gesehen. Was noch lustig ist,
0:29:45–0:29:49
hat man eine SWOT-Analyse gemacht und plötzlich gemerkt, was ist der Threat,
0:29:49–0:29:51
was ist die Bedrohung? AI wird reguliert.
0:29:52–0:29:56
Und dann haben wir das Gesetz gelesen und haben uns Gedanken gemacht und realisiert,
0:29:56–0:30:00
ja nein, das ist so eine fundamentale Änderung, die da kommt,
0:30:00–0:30:04
das wird so kompliziert, niemand wird das einfach mal umsetzen in einer Woche.
0:30:04–0:30:08
Dafür braucht es Tools, dafür braucht es Software.
0:30:08–0:30:13
Und seitdem bauen wir an einer Plattform, an einem AI-Management-System,
0:30:13–0:30:19
wo man die Prozesse und das Wissen, was man für AI-Compliance braucht,
0:30:19–0:30:26
abbilden kann, sodass wenn der Auditor kommt, dass man nachschauen kann,
0:30:26–0:30:28
es ist alles nach Vorschrift gemacht worden,
0:30:29–0:30:33
es wird alles gelockt, die Prozesse werden gelapt, das Risikomanagement wird
0:30:33–0:30:39
gelebt und umgesetzt, dass man dann auch sowohl die Organisation als auch das
0:30:39–0:30:43
Produkt gut darstellen und zertifizieren auf dem Markt kann.
0:30:43–0:30:47
Also ihr hattet die richtige Nase und jetzt ist auch ein grosser Moment,
0:30:47–0:30:50
kann man das ein bisschen überspitzt so sagen?
0:30:51–0:30:59
Wir haben wirklich sehr früh gemerkt, dass das etwas Größeres und Wichtiges werden könnte.
0:31:00–0:31:05
Wir hatten damals noch ein kleines Start-up und wussten nicht,
0:31:05–0:31:06
wann das Gesetz kommen würde.
0:31:06–0:31:10
Das ist ja immer ein grosses Risiko, EU-Gesetzgebung.
0:31:10–0:31:12
Genau, es hat nochmal fünf Jahre kommen müssen. Ja, genau.
0:31:12–0:31:18
Und der grosse Wendepunkt kam mit der Chat-GPT.
0:31:18–0:31:21
Denn dann war klar, jetzt muss nicht nur die EU etwas machen,
0:31:21–0:31:22
jetzt muss jeder etwas machen.
0:31:23–0:31:28
Und jetzt sind wir an dem Punkt, wo wir die Lösung für diesen Moment haben.
0:31:28–0:31:33
Also wenn ich ein Unternehmen habe und nicht weiss, wie ich das Problem lösen
0:31:33–0:31:37
soll, dann kann ich bei euch fragen und ihr helft mir dann. Absolut.
0:31:38–0:31:43
Sehr schön. Wir sind schon ein bisschen über der Zeit, aber ich glaube,
0:31:43–0:31:46
das ist für einmal erlaubt auf Radio Stadtfilter.
0:31:46–0:31:50
Ich möchte in die Schlussphase gehen und dich noch allgemein fragen,
0:31:50–0:31:52
haben wir das jetzt richtig gemacht?
0:31:52–0:31:56
Wir, ich sage jetzt ganz gross, als Menschheit mit dieser KI,
0:31:56–0:32:00
dass wir jetzt probieren, damit umzugehen?
0:32:00–0:32:03
Oder würdest du sagen, sind wir da blind ein bisschen in etwas eingestolpert,
0:32:03–0:32:08
wo wir jetzt überlegen müssen, wie wir die Büchse von der Pandora oder eben
0:32:08–0:32:11
die Geister, die wir hier gerufen haben, wieder irgendwie können,
0:32:12–0:32:14
zumindest wieder ein bisschen einfangen?
0:32:15–0:32:18
Wir sind total blind eingestolpert. Es hat sehr wenige Leute gegeben,
0:32:19–0:32:23
die sich wirklich mit diesem Thema befasst haben, bevor wirklich dieser Chat-JP gekommen ist.
0:32:23–0:32:27
Und es gibt ja so zwei Camps, wenn man es vereinfacht. Es gibt die Leute,
0:32:27–0:32:30
die sich Sorgen machen, dass KI die Menschheit auslöschen wird.
0:32:30–0:32:32
Das ist das grösste Risiko seit der Erfindung der Atombombe.
0:32:33–0:32:37
Da ist noch vieles davon Marketing von den Firmen, die sagen,
0:32:37–0:32:41
unser Produkt könnte die Menschheit zerstören. Wir nehmen Checks für das Investieren.
0:32:41–0:32:45
Das ist natürlich auch dabei, aber ich würde es nicht ganz abtun.
0:32:45–0:32:49
Es gibt die Leute, die sagen, das ist jetzt einfach die nächste Stufe der Technologieentwicklung.
0:32:49–0:32:52
Wir können das kontrollieren, wir können das regulieren. Klar,
0:32:53–0:32:55
wird nicht so einfach sein, da müssen wir jetzt daran arbeiten in den nächsten Jahren.
0:32:57–0:33:02
Ich bin generell eher auf der weniger alarmistischen Seite, aber das heisst
0:33:02–0:33:06
nicht, dass man die Leute, die sich Sorgen machen, nicht ernst nimmt.
0:33:06–0:33:12
Und wir sehen auch, dass vor allem die Regierungen und die Weltmacht die Kontrolle
0:33:12–0:33:18
über die Technologie als so essenziell empfinden, dass da mit ganz harter Bandage gekämpft wird.
0:33:20–0:33:27
Und diese Frage stelle ich gerne Experten in dem KI-Bereich und bin gespannt, was du dazu sagst.
0:33:27–0:33:29
Und zwar allgemein, wenn man
0:33:29–0:33:33
sagt, das ist eine Revolution, dann wo stehen wir bei dieser Revolution?
0:33:33–0:33:38
Sind wir noch ganz am Anfang, sind wir mitten drin oder haben wir das Wesentliche schon gesehen?
0:33:39–0:33:46
Das ist die Frage von unserer Zeit und ich glaube, wir können sie nicht beantworten.
0:33:46–0:33:51
Und das hat einen einfachen Grund, weil diese Teams, diese Firmen,
0:33:52–0:33:56
die an der Grenze jetzt forschen und arbeiten, sind nur noch fünf.
0:33:56–0:34:00
Also die Universitäten sind nicht mehr dabei, KMUs sind nicht dabei,
0:34:00–0:34:05
Startups sind nicht dabei, sogar teils die grössten Firmen der Welt sind da Tier 2, Tier 3.
0:34:06–0:34:08
Es gibt nur noch fünf Players, die wichtig sind.
0:34:08–0:34:10
Google, Facebook.
0:34:12–0:34:18
Microsoft, OpenAI und Anthropic. Das sind die Einzigen, die das Wissen haben,
0:34:18–0:34:23
die Teams haben und die Ressourcen, um da mitzuheben. Und die Ressourcen sind wichtig.
0:34:24–0:34:31
Meta, nur um da mitzuheben, gibt dieses Jahr über 10 Milliarden Dollar aus, nur für GPUs.
0:34:33–0:34:37
Also CapEx von 10 Milliarden Dollar, nur als Entry Ticket, um in dieser Liga zu spielen.
0:34:38–0:34:45
Und ich habe das mal nachgeschaut, um das zu vergleichen. das ist zweimal der Währetat der Schweiz.
0:34:46–0:34:52
Also eine Privatfirma gibt zweimal so viel aus, um bei KI dabei zu sein. Für die Hardware?
0:34:52–0:34:56
Nur für die Hardware, da sind nicht mal die Leute dabei. Ja. Das ist unglaublich.
0:34:57–0:35:01
Kevin Schawinski, ganz herzlichen Dank. Merci vielmals.
0:35:02–0:35:15
Music.

Kevin Schawinski.

Über die Vorteile und Möglichkeiten der künstlichen Intelligenz haben wir im Nerdfunk immer wieder gesprochen. Heute kommt einer zu Wort, der über die Gefahren genau Bescheid weiss und erklärt, wie es dazu kommen kann, dass Systeme automatisch Entscheidungen treffen, die weitreichende Auswirkungen über die Leben von Menschen haben können: Sei es bei der Beurteilung von Versicherungsrisiken, der Vergabe von Krediten oder der Bewertung von Bewerbungs-Dossiers.

Kevin Schawinski gibt im Nerdfunk Auskunft darüber, wie und wo solche Diskriminierungen entstehen und wie sie erkannt werden können. Der Experte gibt auch Auskunft zum AI Act der EU, mit dem die besonders risikoreichen Systeme reguliert werden sollten. Was taugt dieser Ansatz – gerade auch im Vergleich zu der Art und Weise, wie die USA dem Problem Herr werden wollen? Und wie gross ist die Gefahr, dass zu viel Regulierung die Innovation bedroht?

Kevin Schawinski entwickelt mit seinem Unternehmen Modulos Lösungen, mit denen Unternehmen die künstliche Intelligenz gesetzeskonform einsetzen können. „Wer hat das Sagen: Die KI oder der Mensch?“ weiterlesen

Haben wir aufs falsche Krypto-Pferd gesetzt?

Transkript anzeigen (falls vorhanden)

0:00:04–0:00:07
Victorians, oh what a night for love.
0:00:08–0:00:12
Und ich sage oh what a night für Nerdfunk jetzt gerade.
0:00:13–0:00:16
In der Stadt sind oft komisch. Das ist nur eine Frage der Zeit, bis wir es rauskriegen.
0:00:17–0:00:24
Stadtfilter. Und oh what a night für Kevin Rechsteiner und seine Hühner. Hallo miteinander.
0:00:24–0:00:29
Guten Tag. Wie geht es Ihnen, diese Hühner? Sie tönen aufgestellt.
0:00:29–0:00:32
Kann man sich nicht beklagen oder? Nein, die sind wohl.
0:00:33–0:00:38
Willst du eine moralische Hühnerfrage? Eine Moral, ja. Ich weiss es nicht.
0:00:38–0:00:41
Kann ich dir beantworten? Das weiss ich nicht.
0:00:42–0:00:46
Ich habe ein Huhn, das hat sich wahrscheinlich das Bein verdreht,
0:00:46–0:00:49
das Bein ausgerenkt, etwas am Bein stimmt nicht.
0:00:49–0:00:52
Ui, ja. Die läuft jetzt auf einem Bein herum.
0:00:53–0:00:57
Die ist aber wohl. Die ist in der Gruppe. Die frisst, die fliegt,
0:00:57–0:01:00
die kann auf die Stange gehen, das funktioniert.
0:01:01–0:01:06
Abtun oder nicht? Nein, nicht abtun. Ich bin auch nicht abtun.
0:01:06–0:01:10
Solange die wohl ist und in der Gruppe ist, finde ich, die lasse ich.
0:01:11–0:01:14
Ja, wenn sie keine Schmerzen hat, unsere gut. Gibt es Leute,
0:01:14–0:01:17
die finden, man müsse sie abtun? Ja.
0:01:18–0:01:25
Bei Hühnern tust du relativ schnell das Auge hat Tränen abtun.
0:01:25–0:01:30
Oder es läuft nur noch im Kreis und ich habe
0:01:30–0:01:33
halt wie so also ich kann sie halten du
0:01:33–0:01:36
kannst an dem Bein umnecken sie tut nichts dem gleichen und
0:01:36–0:01:40
manchmal ich glaube mittlerweile ich sehe den Hühnern an wenn sie Schmerzen
0:01:40–0:01:45
haben ja das wäre etwas anderes genau und weil die aber so einfach in der Gruppe
0:01:45–0:01:49
ist und wenn ich reinkomme und ihre Futter gebe die kommt gerade und sie ist
0:01:49–0:01:53
zu vorderen und easy peasy habe ich das Gefühl gut ich habe jetzt einfach ein
0:01:53–0:01:56
Huhn der auf einem Bein rumhobst.
0:01:56–0:02:01
Das sieht schrecklich aus, aber es tut dir nicht weh.
0:02:01–0:02:05
Aber bei einem Hund, der zum Beispiel ein Bein verloren hat,
0:02:05–0:02:09
wenn das dein Familienhund ist, dann würdest du niemals abtun,
0:02:09–0:02:13
sondern würdest ihn in einem Kerl herumfahren, an einem Ort,
0:02:13–0:02:15
wo er nicht selber laufen kann.
0:02:15–0:02:20
Aber ein Hund hat natürlich noch drei Viertel der Beine, und er hat noch eine Hälfte.
0:02:20–0:02:26
Aber ein Mensch zum Beispiel, Dann würdest du ja für viel Geld die Prothese
0:02:26–0:02:29
hinnehmen, oder? Ein Rädchen?
0:02:29–0:02:36
Ja, im Asterix hat es ein Rädchen hinbekommen.
0:02:36–0:02:39
Aber heute würde man so Hightech-Prothesen machen und so und.
0:02:41–0:02:48
Eben, ich meine, nach deiner Logik wäre mein Lieblings-Krimi-Held der Cormoran Strike,
0:02:49–0:02:55
der, der ja in London ermittelt, zusammen mit Robin Ellicott,
0:02:55–0:03:00
der wäre ja dann auch, würde ja auch abgetan werden, weil der hat ja sein Bein
0:03:00–0:03:04
dann dort in Dings verloren, am Hindukusch.
0:03:04–0:03:08
Und äh und das weiss ich nicht, wie heisst der Autor?
0:03:08–0:03:10
Robert Gar- Galbraith.
0:03:13–0:03:17
Robert Galbraith und es ist eigentlich J.K. Rowlings der da dahinter steckt,
0:03:17–0:03:22
also Mutter von Harry Potter hat er geschrieben und vielleicht müssen wir mal
0:03:22–0:03:23
wieder eine Krimisendung machen,
0:03:23–0:03:27
weil irgendwie haben wir schon überhaupt jemals eine Krimisendung gemacht,
0:03:27–0:03:29
aber ich wäre zu hart dafür.
0:03:29–0:03:33
Nein, ich glaube im Fall nicht, aber ja, das wäre, also ja, das wäre Wir haben
0:03:33–0:03:40
ja auch beschlossen, dass wir eine Filmsendung machen und das haben wir auch noch nie gemacht.
0:03:40–0:03:48
Jedes Mal, wenn ich komme, sagt einer von euch beiden, wir brauchen mehr Zeit zum Vorbereiten.
0:03:49–0:03:54
Wenn wir eine Filmsendung machen, bei der CCW, bei meiner alten Firma,
0:03:54–0:03:58
da arbeitet jemand und ich glaube, das ist auch so ein riesiger Filmnerd.
0:03:58–0:04:01
Den könnten wir einladen. Den könnten wir einladen. Mega lustig,
0:04:01–0:04:04
weil der hat auch richtig Ahnung von Filmen.
0:04:04–0:04:07
Genau, und wenn man einen Filmnerd hat... Dann haben wir einen Gast.
0:04:07–0:04:11
Wir müssten uns nicht selbst vorbereiten, sondern würden dann einfach...
0:04:11–0:04:17
Das ist ja der Zauber der Interviews. Du musst nur so viel wissen,
0:04:17–0:04:20
dass du ein paar Fragen einfallen lassen kannst.
0:04:20–0:04:23
Ich kann auch sagen, der Gast ist einfach das Schlechteste. Genau,
0:04:23–0:04:28
oder der Gast ist super, dann kannst du den ein bisschen... Ich würde gerne,
0:04:28–0:04:32
falls ihr einverstanden seid, ich würde gerne mal eine Sendung machen über den Christopher Nolan.
0:04:33–0:04:38
Und zwar über so viele wie zum Beispiel Tenet. Falls du den kennst,
0:04:38–0:04:41
das ist der, wo so eine komische... Ja, wo niemand rauskommt.
0:04:41–0:04:45
Ich hatte das Gefühl, Ich hätte das Gefühl, ich sollte daraus kommen, so ansatzweise.
0:04:45–0:04:50
Allerdings ist es jetzt schon wieder so lange her, dass ich keine Ahnung mehr
0:04:50–0:04:53
habe, worum es eigentlich geht.
0:04:53–0:04:57
Aber vielleicht wäre das ja auch etwas, oder? Meinst du, die Chris wäre auch
0:04:57–0:05:00
etwas dafür zu haben? Ja, ich glaube, das wäre cool.
0:05:00–0:05:03
Wir müssen eine Filmsendung auch planen. Das müssen wir machen.
0:05:05–0:05:09
Christopher Nolan wäre ja eigentlich eine Steilvorlage für einen Nerdfunk.
0:05:09–0:05:15
Da kannst du so Sachen machen wie den «Oppenheimer», den ich jetzt zwar noch nicht gesehen habe.
0:05:15–0:05:19
«Interstellar» natürlich auch oder «Inception», wo immer schon noch auch...
0:05:20–0:05:28
Ich glaube, in der Rangliste meiner Lieblingsfilme ist das «Inception» schon auch noch hoch oben.
0:05:29–0:05:32
Ich habe den schon lange nicht mehr geschaut. Ich habe den letzten «Interstellar»
0:05:32–0:05:35
wieder einmal geschaut und den finde ich recht gut.
0:05:35–0:05:39
Auch vom Storytelling her, der hat mir recht gefallen. Interstellar fand ich
0:05:39–0:05:43
super, aber Inception ist einfach... Inception ist...
0:05:45–0:05:50
Das Ding im Schnee ist nicht für mich. Das Ding im Schnee, ja okay.
0:05:50–0:05:55
Das regt mich auf. Das ist dann aber schon die dritte Traumebene oder so,
0:05:56–0:05:57
das Ding im Schnee, oder nicht?
0:05:58–0:06:02
Die erste ist das Hotel. Nein, die erste ist die Stadt, wo es regnet.
0:06:03–0:06:05
Die, die dann so durchgebogen wird, ist das die?
0:06:06–0:06:13
Nein. Nein? Nein, sie gehen hier und er musste aufs WC und deshalb regnet es in der ersten Ebene.
0:06:13–0:06:21
In der zweiten Ebene sind sie im Hotel und in der dritten Ebene ist der Schnee. Das kann sein, ja.
0:06:23–0:06:27
Ich mag einfach noch so Filme. Dann gibt es aber auch so Filme,
0:06:27–0:06:30
die ich nicht gesehen habe, wie Dunkirk.
0:06:32–0:06:35
Dunkirk ist super. Ist der super? Okay. Ja, ich finde den auch mega gut.
0:06:36–0:06:40
Und dann Batman. Batman natürlich. Ah, Memento! Ich habe fast Memento.
0:06:40–0:06:44
Aber jetzt müssen wir aufhören, sonst entsteht die Sendung jetzt schon zufälligerweise.
0:06:45–0:06:49
Wir haben eh keine Zeit. Wir haben keine Zeit. Wir fangen jetzt nämlich an mit unserem Hauptthema.
0:06:50–0:07:01
Music.
0:07:01–0:07:06
Matthias Schüssler. Und diese Sendung heute ist eine Auftragsarbeit von einem unserer Hörer.
0:07:07–0:07:12
Und der hat nämlich gesagt, hey, wie geht es eigentlich unserem Kryptoinvestment?
0:07:13–0:07:18
Und dann haben wir gefunden, das müssen wir doch wieder mal evaluieren,
0:07:18–0:07:19
wie es dem eigentlich geht.
0:07:19–0:07:22
Ob wir jetzt schon Milliardär oder Billionär sind.
0:07:22–0:07:25
Aber ich würde sagen... Darum habe ich diese Sendung immer rausgeschoben,
0:07:25–0:07:28
weil ich schon lange Millionär bin und das Geld nicht rausgegeben habe.
0:07:29–0:07:33
Genau, du lebst eigentlich nur von den Zinsen von uns. Ja genau.
0:07:34–0:07:39
Und jetzt kommt der Moment, wo ich sagen muss, Millionen, Millionen.
0:07:40–0:07:45
Ja, aber du, bevor wir in Medias Res gehen, sollen wir es ein bisschen spannend machen.
0:07:45–0:07:50
Sollen wir am Anfang noch ein bisschen allgemein über diese Krypto-Sachen,
0:07:50–0:07:53
Währungen und so reden, was der Stand der Dinge ist.
0:07:53–0:07:56
Also ich glaube, man muss wirklich schnell von hinten aufrollen.
0:07:56–0:08:00
Die Geschichte ist ja schon relativ lang und ich habe jetzt auch erst wieder,
0:08:00–0:08:07
als Roger geschrieben hat, das Update zu machen, habe ich eben geschaut, wir haben im Mai 2018,
0:08:07–0:08:10
es ist sechs Jahre her jetzt, haben wir über Krypto gesprochen.
0:08:12–0:08:15
Dort war das noch nicht so gross.
0:08:15–0:08:18
Ich kann wirklich sagen, Krypto war noch eine Randerscheinung.
0:08:18–0:08:21
Ja, aber Bitcoin hat es trotzdem schon lange gegeben. Genau.
0:08:22–0:08:29
Und dann hatte ich die Idee, wir könnten jetzt hier in Kryptowährungen investieren
0:08:29–0:08:31
und dann schauen, wo wir landen.
0:08:31–0:08:33
Und dann haben wir mal gesagt, wenn wir dann einmal Geld haben,
0:08:34–0:08:36
dann entscheiden wir, was wir damit machen.
0:08:36–0:08:42
Und das läuft jetzt so weiter. Und wir haben dann im 21., also eigentlich vor
0:08:42–0:08:45
drei Jahren, haben wir dann ein Update gemacht, wo wir stehen.
0:08:45–0:08:48
Und jetzt sind wir eigentlich wieder drei Jahre später und jetzt kommt wieder
0:08:48–0:08:56
ein Update. also sind 6 Jahre jetzt mehr oder weniger mit Krypto unterwegs und
0:08:56–0:08:59
es ist mega viel passiert.
0:09:00–0:09:05
Ja, kann man sagen. Es ist wirklich erstaunlich, dass das schon lange her war.
0:09:06–0:09:08
Wenn du mich jetzt gefragt hättest, wann hat mir das gemacht,
0:09:08–0:09:12
dann hätte ich gesagt vor zwei Jahren oder so. Und ich hätte mich völlig verschätzt.
0:09:13–0:09:16
Ich war bei vier, es ist vier Jahre her, aber ja.
0:09:17–0:09:22
Also, und eben, wir stellen fest, dass das Krypto-Ding, man hätte auch mal erwarten
0:09:22–0:09:23
können, es stirbt dann wieder.
0:09:24–0:09:29
Die Leute verleiden es, es ist dann doch nicht so das, was man sich vorgestellt hat.
0:09:29–0:09:35
Es gibt so Hypes, gerade so sehr technische, die sterben ja dann auch wieder,
0:09:35–0:09:41
aber das Ding lebt immer noch und wir sind ja wieder in einer Riesenaufschwungphase.
0:09:41–0:09:45
Also ich habe irgendwo gelesen, es gäbe jetzt zum ersten Mal,
0:09:45–0:09:48
was, mehr als ein Billion Bitcoins,
0:09:48–0:09:52
die hätten wieder an Wert gewonnen und man hätte jetzt, Und das ist natürlich
0:09:52–0:09:56
schon eine beachtliche Zahl, so 1 Billion, wo ja tatsächlich,
0:09:56–0:10:02
es ist aus dem Nichts entstanden, aber es ist jetzt ein realer Wert und das
0:10:02–0:10:04
musst du dir irgendwie schon noch geben, finde ich.
0:10:05–0:10:13
Ja, voll. Also es ist riesig geworden und es ist jetzt, jetzt ist es da.
0:10:13–0:10:19
Ja. Vor sechs Jahren hatte man das Gefühl, dass es eine Runderscheinung ist.
0:10:20–0:10:23
Wenn du heute jemanden fragst, was Krypto ist, dann wissen sie,
0:10:24–0:10:25
dass sie nicht wissen, was es ist.
0:10:26–0:10:30
Sie wissen, was es ist, aber sie wissen nicht, was es ist. Sie können nicht
0:10:30–0:10:32
Blockchain erklären. Genau.
0:10:34–0:10:40
Ja, also wirklich beachtlich. Ich glaube, ich möchte dann vielleicht auch noch
0:10:40–0:10:44
ein bisschen darüber sprechen, ob das jetzt wirklich im Alltag angekommen ist.
0:10:45–0:10:50
Also man könnte sagen, wenn du dich mit Finanzen beschäftigst,
0:10:50–0:10:54
dann kommst du nicht mehr drum herum. Und eben, also ich...
0:10:54–0:10:58
Ich bemerke jetzt, dass zum Beispiel so Institute wie unsere ZKB,
0:10:58–0:11:02
Zürcher Kantonalbank, jetzt auch finden, dass Krypto etwas ist,
0:11:02–0:11:05
das man den Kunden anbieten muss.
0:11:05–0:11:07
Da gibt es eine Nachfrage, da kannst du nicht einfach so tun,
0:11:07–0:11:10
als ob es das nicht gäbe und es wieder weggehängt und so.
0:11:11–0:11:18
Und in den Medien ist das jetzt ein klassisches Artikel, wo am Anfang des Artikels
0:11:18–0:11:23
nicht erklärt wird, was Kryptowährungen sind, sondern das wird vorausgesetzt
0:11:23–0:11:25
und so. Und das finde ich schon beachtlich.
0:11:26–0:11:31
Ich weiss nicht, ich muss nachher anschauen, wenn ich zum ersten Mal über Bitcoin geschrieben habe.
0:11:31–0:11:35
Spoiler, es wäre zu einer Zeit gewesen, wo wenn ich hier einen gekauft hätte,
0:11:36–0:11:39
man hätte gut noch einen kaufen können, und wenn ich das gemacht hätte,
0:11:40–0:11:44
würde ich jetzt vielleicht nicht mehr da sein. Oder gerade 10 oder so.
0:11:45–0:11:48
Du hättest wahrscheinlich mehr kaufen müssen. Als einen.
0:11:49–0:11:52
61'000 Franken. Ja, gut, das stimmt.
0:11:53–0:11:58
Um sich zur Ruhe zu begeben, ist es zu wenig.
0:11:58–0:12:01
Das ist schon so. Ja, das hat nicht gelangt.
0:12:01–0:12:07
Ausser du lebst mega sparsam. Naja, ich bin schon verhältnismässig sparsam,
0:12:07–0:12:10
aber so sparsam dann auch wieder nicht. Langt eben nicht.
0:12:10–0:12:13
Aber ich meine jetzt nur schon, wenn wir, ich sage jetzt mal,
0:12:13–0:12:15
fünf Jahre zurückgehen.
0:12:15–0:12:19
Also ich mache es mir jetzt ein bisschen bequemer, ich nehme einfach die fünf
0:12:19–0:12:21
Jahre als Rechner. Dann sind wir beim April 19.
0:12:22–0:12:30
Im April 19 hat ein Bitcoin 160€ gekostet. Okay, ja.
0:12:31–0:12:36
Man hätte den Kohle nehmen sollen und so... Oh nein, das stimmt nicht, das ist Ethereum.
0:12:36–0:12:39
Ich habe falsch ausgedrückt. Bitcoin... Ah, war teurer.
0:12:40–0:12:43
5000€. Man hätte mal 10 in 5 Jahren.
0:12:44–0:12:48
Das war etwa die Entwicklung des Bitcoins.
0:12:49–0:12:56
Also ich habe tatsächlich nachgeschaut, ich habe 20... wo steht denn hier das Datum?
0:12:58–0:13:04
20... sag ich mal, 2012 habe ich darüber geschrieben und dort hättest du wahrscheinlich
0:13:04–0:13:07
schon... So weit habe ich nicht zurück in meinem Rechner.
0:13:08–0:13:10
Ich habe bis 2015, da waren wir bei 300 Franken.
0:13:11–0:13:15
Ja, aber eben, die Wertsteigerung wäre schon beachtlich gewesen.
0:13:15–0:13:21
Ich habe hier, ich bin jetzt vielleicht ganz ehrlich, so ein bisschen selbstkritisch,
0:13:21–0:13:24
weil hinterher scheisse ich mir dann vielleicht tatsächlich an,
0:13:24–0:13:27
dass man die so... Ich habe es eigentlich spannend gefunden,
0:13:27–0:13:30
aber ich habe nicht daran geglaubt.
0:13:30–0:13:34
Aber wenn ich nur ein bisschen mehr der Gambler-Typ gewesen wäre,
0:13:34–0:13:38
hätte ich wahrscheinlich dann mein Portemonnaie gezückt. Das vermute ich mal.
0:13:39–0:13:43
Ich habe einen Kollegen, der hat gekauft, als er 8 Franken war,
0:13:44–0:13:45
und er hat für 100 Franken gekauft.
0:13:46–0:13:50
Ja, das hat sich gelohnt. Ja, ich weiss aber nicht, er sagt mir auch nicht,
0:13:51–0:13:53
ob er das Wallet noch hat. Ich glaube, er hat das Wallet nicht mehr.
0:13:54–0:13:59
Scheisse, aber das tut dann weh. Ja genau, aber das ist halt am Anfang von diesen
0:13:59–0:14:04
Kryptowährungen, war es halt wirklich ein Problem, dass du diese Wallet machen musstest.
0:14:04–0:14:10
Das waren Files und die liegen dann irgendwie in einem Ordner auf deinem PC hinten links.
0:14:11–0:14:14
Genau. Das hast du eh vergessen beim Züggeln.
0:14:14–0:14:20
Das war ja nicht ein greifbarer Wert, sondern du hast das als Spass gemacht.
0:14:21–0:14:25
Und du konntest es in dem Moment nicht nutzen. Es war einfach da.
0:14:26–0:14:30
Und ich glaube, darum sind so viele Kryptowährungen einfach verloren.
0:14:30–0:14:35
Die sind verloren, weil einfach die Wallets verloren gegangen sind und ich glaube,
0:14:35–0:14:36
das ist ihm eben auch so gegangen.
0:14:36–0:14:40
Ich glaube, er war nicht der PC-affinste Mensch und ich glaube nicht,
0:14:40–0:14:42
dass er diese mitgekippt hat.
0:14:42–0:14:46
Und an die alten Wallets, hey, die holst du nicht mehr, das gibst du weg.
0:14:46–0:14:50
Also ich bin ja wirklich der Backup-Neurotiker und ich bin sicher,
0:14:50–0:14:53
dass wenn ich das hier gemacht hätte, dass ich das Wallet noch hätte und eben
0:14:53–0:14:56
2012 auch nur wenige Euros.
0:14:56–0:15:00
Also ich hätte locker hingehen können und sagen können, du, 300 Franken,
0:15:00–0:15:02
ein bisschen verjuxen und so.
0:15:02–0:15:07
Ja, genau. Dann wäre ich heute Millionär und würde wahrscheinlich jetzt,
0:15:07–0:15:11
also wie gesagt, ich würde die Sendung immer noch machen, weil ich nichts Besseres
0:15:11–0:15:13
mit meiner Zeit wüsste, als anzufangen.
0:15:13–0:15:20
Aber ich würde sie viel entspannter machen und vielleicht hauptberuflich.
0:15:21–0:15:27
Ja, das ist erstaunlich. Und in dem Artikel, den ich geschrieben habe,
0:15:27–0:15:37
hat der Chef der schwedischen Piratenpartei zu Wort gekommen.
0:15:37–0:15:43
Und der hat tatsächlich seine Altersvorsorge genommen und die in Bitcoins investiert.
0:15:43–0:15:46
Und ich habe natürlich gesagt, leck was für ein Trottel.
0:15:46–0:15:49
Ich schreibe den nicht zu ein, dann schreibe ich den einen Artikel,
0:15:50–0:15:51
wenn er jetzt betteln muss und so.
0:15:52–0:15:57
Und ja. Vielleicht hat er das Wallet verloren und es ist all is lost.
0:15:57–0:15:58
Genau, das kann eben passieren.
0:15:59–0:16:02
Und heute eben, um wieder in die Jetzt-Zeit zurück zu kommen,
0:16:02–0:16:06
jetzt hat man den Boom wieder von den Bitcoins, die Leute reden darüber,
0:16:07–0:16:13
die Medien reden darüber, man kann eigentlich, würdest du meinen, kann man so sein ganzes,
0:16:13–0:16:19
Leben, seine Finanzen mehrheitlich auf Bitcoins abstellen, würde das funktionieren?
0:16:19–0:16:23
Nein. Nein, hä? Nein, es wird sehr dünn.
0:16:23–0:16:33
Also es ist noch nicht so weit durch, dass das in der echten Welt ankommt mit Zahlen und all dem.
0:16:33–0:16:38
Kann man seine Steuern in Bitcoins zahlen, weisst du das? Ja. Ah, okay.
0:16:39–0:16:44
Wer kann, in Luzern. Ah, okay. Irgendwo kann man das, glaube ich.
0:16:46–0:16:51
Ich recherchiere nebenbei. Steuern, hier googelt der Chef noch selbst. Ja, genau, genau.
0:16:53–0:16:58
Ja, also man kann an einzelnen Orten, es gibt Onlineshops, wo man mit Bitcoin zahlen kann.
0:16:59–0:17:01
Und dort ist natürlich die Entwicklung bzw.
0:17:03–0:17:09
Die Akzeptanz schon grösser geworden, seit man die ganze Wallet-Geschichte einfach vereinfacht hat.
0:17:09–0:17:12
Und ich weiss auch nicht, ob wir darum eigentlich darauf gekommen sind,
0:17:12–0:17:16
im 2018 über dieses Thema zu sprechen, weil wir einfach gemerkt haben,
0:17:16–0:17:19
jetzt kommen da so Plattformen wie Coinbase,
0:17:20–0:17:26
Binance, Bitpanda, wie die alle heissen, wo eigentlich ein relativ einfacher
0:17:26–0:17:29
Handel mit Kryptowährungen möglich ist.
0:17:29–0:17:32
Das heisst, du kannst einen Account machen, du hinterleihst deine Kreditkarte
0:17:32–0:17:37
und dann kaufst du über deine echte Kreditkarte Geld Kryptowährungen. Genau.
0:17:37–0:17:42
Und du hast dein Wallet, also deine, was ist das Wallet?
0:17:43–0:17:48
Das Wallet ist der Ort, wo deine Kryptowährungen drin abgelegt sind, eigentlich so.
0:17:48–0:17:51
Und das hast du nicht mehr als irgendwelche Dateien auf dem PC,
0:17:51–0:17:52
sondern du hast das online.
0:17:53–0:17:57
Und du hast ein Login und du hast Passwörter. Und das hat, glaube ich,
0:17:57–0:18:02
so ein bisschen das ausgelöst, dass es wie akzeptierter geworden ist und auch
0:18:02–0:18:03
verbreiteter geworden ist.
0:18:03–0:18:06
Und die Leute eher mal so eine Bereitschaft hatten, zu sagen,
0:18:06–0:18:14
ich probiere es mal, ich kann da mit 200 Franken einfach mal etwas investieren
0:18:14–0:18:16
und ich bekomme da einen Account,
0:18:16–0:18:20
über den ich mich einloggen kann, dass das alles so ein bisschen funktioniert.
0:18:20–0:18:24
Bequemer geworden ist. Aber man muss schon sagen,
0:18:24–0:18:28
eigentlich die sicherere Variante, wenn du jetzt wirklich ein Backup machst
0:18:28–0:18:32
von deinen Daten, ist immer noch auf deinem Computer, weil dann kann dir die
0:18:32–0:18:36
nie mehr stellen und sonst eben, wenn du das bei irgendeiner.
0:18:36–0:18:41
Handelsplattform hast, dann können deine Bitcoins oder unter Umständen auch
0:18:41–0:18:50
deine echte, deine Währung in Anführungszeichen echtem Geld von dort verschwinden und solange du,
0:18:51–0:18:54
Wahrscheinlich gibt es auch Trojaner, wenn du die auf dem Computer hast,
0:18:54–0:18:56
suchst du zuerst einmal nach einem Wallet.
0:18:56–0:19:02
Ja, wahrscheinlich schon. Wobei man auch sagen muss, ein Wallet dann auch entschlüsseln
0:19:02–0:19:05
oder aufmachen ist relativ schwierig.
0:19:05–0:19:12
Auch wenn ich irgendwo ein Wallet finde, die funktionieren meistens so,
0:19:12–0:19:15
dass die geschützt sind mit Pass-Phrasen.
0:19:15–0:19:19
Also da muss man irgendwie 16 Wörter in der richtigen Reihenfolge sortieren,
0:19:19–0:19:21
dass man das Wallet aufmachen kann.
0:19:21–0:19:26
Und wenn man die Passwörter nicht hat, ich glaube es geht technisch,
0:19:26–0:19:30
aber es ist richtig aufwendig und es kann man nicht einfach mal so.
0:19:31–0:19:36
Wallet Cracker auf Google eingeben, eine Software, aber das muss man schon ein
0:19:36–0:19:39
bisschen mehr Ahnung haben, wie das Ganze funktioniert.
0:19:40–0:19:44
Aber wir kommen nachher noch zu diesen Online-Plattformen und was das Problem
0:19:44–0:19:46
ist von denen, weil wir haben ein Problem mit denen.
0:19:47–0:19:52
Genau. Ich werfe noch schnell ein, dass der Kanton Zug seit Februar 2021.
0:19:54–0:20:00
Seine Steuern auch von natürlichen und juristischen Personen in Form von Bitcoins
0:20:00–0:20:02
und Ethereum entgegennimmt.
0:20:03–0:20:07
Falls ihr dort beheimatet seid, könnt ihr das also machen.
0:20:07–0:20:14
Allerdings eben, das heisst nicht, dass der Kanton Zug seine Geschäfte in dieser
0:20:14–0:20:18
Währung betreibt, sondern es ist da immer noch das offizielle Zahlungsmittel,
0:20:18–0:20:21
das ist glaube ich immer noch der Schweizer Franken auch dort in diesem Zug,
0:20:21–0:20:25
in diesem, ein bisschen dubiose, ja genau und...
0:20:25–0:20:33
Eben, es hat sich wahnsinnig viel getan, im Moment ist der Bitcoin wieder so
0:20:33–0:20:38
derartig hochgegangen, dass man sagen kann, es ist eigentlich so spannend,
0:20:38–0:20:44
dass man sich wieder überlegen könnte, einzusteigen und dann gibt es auch so
0:20:44–0:20:49
Sachen, eben neuerdings, die ETF-Anbieter seien verantwortlich,
0:20:49–0:20:53
habe ich gelesen, dass es jetzt eben wieder hochgeht, kannst du uns erklären, was die machen?
0:20:53–0:21:05
Die etf anbieter ist laut ich bin ich bin ich weiß dass durch drüber tun.
0:21:08–0:21:14
Ja es ist jetzt eben und dann und dann ist es Wahrscheinlich müssen sie immer
0:21:14–0:21:16
ein Schlaflied singen oder so. Ja, wahrscheinlich.
0:21:19–0:21:20
ETF. ETF, genau.
0:21:23–0:21:30
Das ist richtig. Nicht Huhn. Ui, was machen die? Die managen...
0:21:31–0:21:37
Die managen... Wie soll man das beschreiben? Mit Aktien aus dem Fonds. Ja, genau.
0:21:37–0:21:44
Ich bin ein Laie, was das angeht. Neuartige Bitcoin-Fonds in den USA dürfen
0:21:44–0:21:48
die anbieten und darum ist es für Anleger einfacher geworden.
0:21:49–0:21:54
Die machen ein Portfolio. Ich glaube, es ist ein Fonds wie Aktien.
0:21:54–0:22:03
Das Portfolio mit mehreren Kryptos drin, damit man die Schwankungen ausgleichen kann.
0:22:03–0:22:10
Weil die Kryptowährungen leider immer noch wahnsinnig volatil sind.
0:22:10–0:22:17
Da schwankt es dann ziemlich und mit den ETFs möchte man das ein bisschen abfedern.
0:22:17–0:22:21
Und... ja. Ich glaube, man kann da wirklich sagen,
0:22:21–0:22:25
es ist halt für Leute, die keine Techies und keine Nerds sind und die sagen,
0:22:25–0:22:32
sie möchten gerne Bitcoins haben und hier einsteigen und von diesen Möglichkeiten profitieren.
0:22:32–0:22:36
Also als klassischer Spekulant, darf man das sagen?
0:22:37–0:22:39
Doch, man spekuliert. Ja, man spekuliert schon.
0:22:39–0:22:43
Und man hat von dem gehört und will gerne von dem profitieren,
0:22:44–0:22:47
aber man will sich nicht mit den technischen Details auseinandersetzen,
0:22:47–0:22:52
also kauft man so einen ETF und ist dann gut oder nicht so gut unterwegs.
0:22:53–0:22:59
Genau, aber das Risiko ist sicher kleiner, als wenn ich auf eine einzelne Kryptowährung
0:22:59–0:23:05
setze. Dann kann ich das mit dem ETF ein bisschen abfedern.
0:23:05–0:23:08
Also wenn ich sage, ich setze jetzt einfach auf die eine Währung,
0:23:08–0:23:10
das ist eigentlich das gleiche wie mit Aktien.
0:23:11–0:23:14
Also wenn man sich mit Aktien beschäftigt und den Aktienmarkt kennt,
0:23:14–0:23:20
dann kann ich irgendwann sagen, hey, ich glaube, die Nvidia-Aktie wird in den
0:23:20–0:23:22
nächsten fünf Jahren durch die Deckung an der Hand sein. Uh, ein Geheimtipp.
0:23:23–0:23:26
Das ist kein Geheimtipp mehr, das ist durch die Nvidia-Aktie.
0:23:26–0:23:29
Mal, die geht noch weiter. Ja, die geht noch weiter.
0:23:29–0:23:32
Ich glaube, die geht noch weiter. Aber dann kann ich sagen, okay,
0:23:32–0:23:38
ich tippe auf die, weil ich weiss, was technisch passiert, ich weiss, warum all das.
0:23:38–0:23:41
Und bei den Kryptowährungen sage ich das Gleiche, ich kann auf eine einzelne
0:23:41–0:23:46
Kryptowährung setzen, aber dann muss ich eine Idee haben, was kann die Kryptowährung,
0:23:46–0:23:50
wie unterscheidet sie sich, wie kann sie eingesetzt werden und wie sieht sie in fünf Jahren aus.
0:23:51–0:23:55
Genau, und was natürlich bei diesen Fällen dann immer noch ist,
0:23:55–0:23:57
du zahlst noch irgendeinen Fondsmanager mit,
0:23:58–0:24:08
Wenn du dich selbst auswählst, dann musst du niemanden noch quer subventionieren,
0:24:08–0:24:12
wie das bei den Fonds zum Teil halt...
0:24:12–0:24:17
Eben, wenn dein Fonds durch abgeht, der Fondsmanager profitiert trotzdem,
0:24:17–0:24:18
der verdient dann trotzdem.
0:24:19–0:24:22
Er hat ja gleich viel Arbeit. Ja genau, das ist dann die Ausrichtung.
0:24:22–0:24:25
Hast du das mit dem Halfing verstanden?
0:24:25–0:24:31
Das ist ja auch so ein Ding, das man im Moment davor hat. Das Halfing bei den Bitcoins. Nein.
0:24:33–0:24:38
Also, soll ich es jetzt probieren? Ja, also, ja.
0:24:38–0:24:42
Du kannst es probieren. Ich probiere es mal, aber wenn ich ein Zeich erzähle,
0:24:42–0:24:50
könnt ihr mich dann gerne korrigieren nachher in einer Rückmeldung auf nerd.stadtfilter.ch,
0:24:51–0:24:56
Ich glaube, das hat einfach mit dem Mechanismus von den Bitcoins zu tun,
0:24:56–0:25:01
den sich der sagenumwobene Satoshi Nakamoto ausgedacht hat.
0:25:01–0:25:06
Und eben die Menge von den Bitcoins ist ja begrenzt generell.
0:25:06–0:25:10
Es gibt einfach eine endliche, und zwar eine genau klar festgelegte Menge von Bitcoins.
0:25:11–0:25:18
Und dass das Wachstum am Anfang schneller sein sollte und am Ende sich so quasi
0:25:18–0:25:20
abflacht, glaube ich, hat das damit zu tun.
0:25:20–0:25:24
Und darum wird dann diese Belohnung, wenn man die meint, wird die mit der Zeit
0:25:24–0:25:26
immer kleiner. Also der Aufwand wird grösser.
0:25:27–0:25:31
Und die Belohnung, die man für das Mining bekommt, wird kleiner,
0:25:31–0:25:36
was ja irgendwie, wenn ich es richtig verstehe, auch ein bisschen einen Bremsmechanismus
0:25:36–0:25:39
haben sollte, aber vielleicht täusche ich mich jetzt hier auch.
0:25:39–0:25:44
Also mir hat das mal jemand so erklärt, dass du eigentlich, wir waren im Kino,
0:25:44–0:25:47
wo er mir das erklärt hat, eigentlich ist es wie ein Kinosaal.
0:25:47–0:25:50
Wenn du am Anfang reinkommst, dann kannst du auf jedem Platz sitzen,
0:25:50–0:25:55
dann bist du ratzfatz schnell. Und irgendwann ist der Kinosaal zu 99% voll und
0:25:55–0:25:57
jetzt musst du deinen Sitz finden im Dunkeln.
0:25:58–0:26:03
Das ist noch cleverer, ja. Gefällt mir noch. Genau. Ja, habe ich auch gefunden.
0:26:03–0:26:09
Das macht für mich mega Sinn. Weil es halt begrenzt ist, passiert das.
0:26:09–0:26:13
Und ich glaube, wir sind jetzt in der vierten Welle, oder?
0:26:13–0:26:15
Etwas so. Ungefähr so, ja. Ich glaube es.
0:26:16–0:26:18
Aber das ist dann auch für die
0:26:18–0:26:21
Nerds zum Diskutieren. und ich bin zwar ein Nerd, aber kein Kryptonerd.
0:26:22–0:26:27
Ich würde sagen, wir zweigen dann so langsam auf diese Strasse ab,
0:26:27–0:26:30
wo wir dann wirklich erfahren von dir, Kevin, was Sache ist.
0:26:30–0:26:37
Ich würde noch schnell zusammenfassen, was ich vor allem mit der NZZ zu diesem Thema gelesen habe.
0:26:37–0:26:42
Dann gab es ja noch den Fall von Herrn Sam Bankman-Fried, der fand,
0:26:42–0:26:47
jawohl, ich schaue für mich und ich veruntreue.
0:26:48–0:26:52
Und das kann man aber wirklich so sagen, das war einfach ein Mann,
0:26:52–0:26:56
der sein Geschäft unredlich erledigt hat.
0:26:56–0:27:01
Aber das heisst nicht, dass Bitcoins nicht zuverlässig wären.
0:27:01–0:27:05
Ich glaube, die haben sich so bewiesen.
0:27:05–0:27:09
Ich habe gesagt, die Kantonalbanken fangen auch an.
0:27:11–0:27:14
Ein NZZ-Kommentator hat gefunden, es sei dann auch ein wunderbares.
0:27:17–0:27:21
Kontrollinstrument für, wenn die Staaten sich allzu sehr verschulden und dann
0:27:21–0:27:27
immer noch mehr Geld machen und dann durch das Inflation anheizt und eben mit
0:27:27–0:27:28
klassischer Notenpresse,
0:27:28–0:27:34
dann wären diese Kryptowährungen ein wunderbares Instrument für so den Otto-Normal-
0:27:35–0:27:38
Verdiener, da dagegen zu halten und sich eben halt.
0:27:39–0:27:43
Abzusichern von diesem Wertverlust durch Inflation, durch diese Kryptowährung
0:27:43–0:27:44
und das fand ich noch spannend.
0:27:45–0:27:49
Es gibt auch Gegenstimmen, die sagen, ja, es ist so ein feuchter Traum der Libertären,
0:27:49–0:27:56
die halt gerne alles am Staat vorbeimachen wollen, aber so verheben über alles gesehen,
0:27:56–0:28:01
tut es dann doch nicht, dass man da das ganze Wirtschafts- oder Währungssystem,
0:28:01–0:28:02
wie wir es bis jetzt haben,
0:28:02–0:28:06
untergraben und über den Haufen rühren könnte.
0:28:06–0:28:12
Und ich glaube, das hat man ja tatsächlich schon gesehen, dass das zwar Akzeptanz
0:28:12–0:28:15
gewinnt, jeder weiss inzwischen, was es ist, die Medien berichten darüber,
0:28:15–0:28:20
aber es haben doch viele von dieser Volatilität, wo du gesagt hast,
0:28:20–0:28:22
man kann es nicht einfach brauchen,
0:28:22–0:28:28
wenn du Kau-Gummi am Kiosk kaufst, ist es immer noch ein bisschen kompliziert und so.
0:28:28–0:28:34
Und darum wird es schon nicht einfach alles hinwegfegen, auch in den nächsten zehn Jahren nicht.
0:28:34–0:28:38
Nein, ich glaube, das wird alles relativ schnell reguliert werden,
0:28:38–0:28:42
weil jetzt auch die Banken in das ganze Ding einsteigen und dann wird das einfach
0:28:42–0:28:45
eine weitere Zahlungsmöglichkeit sein.
0:28:45–0:28:51
Ich glaube, das wird in ein System, in einen Staat, wie es immer wird,
0:28:52–0:28:55
das integriert werden und ein Bestandteil werden, dass man das auch verstören
0:28:55–0:28:57
kann und dass das alles einfach geregelt läuft.
0:28:59–0:29:03
Genau. Und man muss noch daran erinnern, dass Mark Zuckerberg mit Facebook ja
0:29:03–0:29:06
auch mal so eine Kryptowährung hatte.
0:29:06–0:29:09
Wie hat die geheißen? Ah, die hat ja nicht «Team» geheißen.
0:29:10–0:29:16
Das könnte sein. Es wurde glaube ich mal noch umbenannt, aber genau. Diem, ja genau.
0:29:17–0:29:20
Und das hat keinen interessiert, wie man fand.
0:29:21–0:29:24
Dass Herr Zuckerberg über unser Geld entscheidet. Nein, vielen Dank,
0:29:25–0:29:28
das wollen wir nicht. Und das hat sich dann von alleine selber reguliert.
0:29:28–0:29:33
Aber jetzt Kevin, jetzt ist der grosse Moment da, wo wir wissen wollen,
0:29:33–0:29:38
wie hoch unsere Rendite sind. Wie hoch unsere Schulden sind.
0:29:40–0:29:44
Also folgende Ausgangslage hatten wir eigentlich. Wir haben gestartet im Mai
0:29:44–0:29:50
2018 mit 190 Stück, die zusammengekommen sind.
0:29:50–0:29:54
Also verschiedene Hörer hatten insgesamt 190 Stück.
0:29:54–0:29:58
Wir haben dann überlegt, in welche Kryptowährungen investieren wir zu diesem Zeitpunkt.
0:29:58–0:30:07
Und wir sind dann darauf gekommen, dass wir Etherum, welches damals Monero heisst,
0:30:07–0:30:10
das hat man danach umbenannt. Tatsächlich, es heisst etwas anders.
0:30:12–0:30:18
Etherum, Litecoin, Faircoin und Cardano, das waren die Währungen.
0:30:18–0:30:22
Und wir wollten absichtlich kein Bitcoin, weisst du noch warum?
0:30:22–0:30:27
Wir sind einfach so... Einfach Bitcoin, Scheisse, Bitcoin ist nichts, ich weiss auch nicht.
0:30:28–0:30:31
Jeder Trottel hat Bitcoin, also machen wir etwas anderes.
0:30:33–0:30:38
Und wir haben dann gesagt, Ethereum 20 Stutz, Litecoin 30 Stutz,
0:30:38–0:30:42
Faircoin 115 Stutz, Cardano 25 Stutz.
0:30:44–0:30:55
Ich sage dann Mai 21. Wir haben mit 190 Stutz gestartet, wir haben im Mai 21 400 Stutz mitgenommen.
0:30:55–0:30:59
Wow, genau, dort haben wir auch diese Sendung gemacht und waren unheimlich stolz auf uns.
0:30:59–0:31:02
Ja, genau, also wir haben eigentlich verdoppelt.
0:31:03–0:31:08
Und jetzt ist aber in diesen drei Jahren gerade viel passiert und das Problem
0:31:08–0:31:11
ist, ich habe jetzt die Geldkurse von gestern Abend.
0:31:11–0:31:18
Aber, das muss man jetzt sagen, der ganze Kryptomarkt ist jetzt in den letzten
0:31:18–0:31:23
4-5 Tagen, ist der jetzt wieder irgendwie um 15% zusammengefallen.
0:31:24–0:31:32
Ah, schon wieder? Okay. Ja, Bitcoin-Kurs, mal schnell über 5 Tage.
0:31:32–0:31:37
Wir waren bei 64'000 am 12.
0:31:37–0:31:45
April, wir sind bei 56'000 jetzt. Okay. Also es ist mehr als 15%.
0:31:46–0:31:50
Ja, also jetzt ist es gleich ein wenig auf dem Abwärtskurs und jetzt,
0:31:50–0:31:55
eigentlich, es wäre alles, es wäre nicht so schlimm, das Problem ist,
0:31:55–0:32:00
wir glauben ja immer an das Gute auf dieser Welt. Ja, so ist es. Wir sind so dumm.
0:32:02–0:32:05
Okay. Nein, wir sind so schlecht, hey.
0:32:06–0:32:11
Wir haben richtig viel Geld in Faircoin investiert und ich glaube, der Kohle ist weg.
0:32:12–0:32:14
Ja, genau, das ist so idealistisch. Faircoin gibt es nicht mehr.
0:32:14–0:32:17
Ach, das gibt es gar nicht mehr? Nein, das ist einfach gestorben.
0:32:19–0:32:23
Die Plattform, du kannst auf die Seite, da kommt schon ein Zertifikatsfehler.
0:32:24–0:32:27
Ich glaube, Faircoin is gone.
0:32:28–0:32:33
Auf der Faircoin-Seite hat es irgendeinen Blogbeitrag von 2019,
0:32:34–0:32:37
wo es heisst, hey, vielleicht können wir auf Binance wechseln,
0:32:37–0:32:38
vielleicht aber auch nicht.
0:32:38–0:32:42
Das ist der, wo wir die Hälfte von unserem Kapital investiert haben.
0:32:42–0:32:46
Ja, weil das ist ja eine ökologische Währung für eine Währerwirtschaft.
0:32:47–0:32:51
Die ist jetzt also für gar nichts. Siehst, wir sind so die Gutmenschen.
0:32:51–0:32:54
Und als Gutmensch wirst du einfach beschissen.
0:32:54–0:32:57
Das ist schon so. Ja, das ist ein Skandal.
0:32:57–0:33:01
Also, ich glaube, die 150 Stutz, die sind weg.
0:33:01–0:33:05
Ich glaube, die kommen dann im Faircoin. Ich glaube, das ist gestorben.
0:33:05–0:33:07
Es will niemand nachhaltig und fair.
0:33:07–0:33:10
Das ist einfach so. Aber das heisst, wir müssen bei den anderen schon ziemlich
0:33:10–0:33:15
viel zulegen, dass wir den Verlust überhaupt ausgleichen können?
0:33:15–0:33:19
Also ich sage jetzt mal schnell, Litecoin 30 Franken investiert,
0:33:19–0:33:24
wir haben noch 26.56 Franken. Wir haben 3.50 verloren.
0:33:24–0:33:30
Dann Cardano 25 Franken investiert, wir haben 31.25 Franken.
0:33:30–0:33:35
Uh, now we're talking, wie der Amerikaner sagt.
0:33:37–0:33:43
Etherum. Wir haben 20 Franken investiert, wir haben 177.24 Franken.
0:33:44–0:33:48
Wir hätten alles in Etherum einballern sollen. Das wäre mal 10.
0:33:48–0:33:50
Wir hätten 2000 Franken.
0:33:51–0:33:57
Also das heisst, wir sind ungefähr auf dem gleichen Stand, obwohl wir die Hälfte...
0:33:57–0:34:01
Wenn wir Faircoin ganz abschreiben, ich bin jetzt noch am suchen,
0:34:02–0:34:04
ob ich das irgendwie noch herausfinde, was mit denen passiert ist.
0:34:05–0:34:08
Vielleicht können wir noch irgendjemanden verklagen oder so wenigstens.
0:34:09–0:34:11
Genau, vielleicht können wir das irgendwie noch zurückbetrügen.
0:34:11–0:34:16
Wenn wir das nicht können, schreiben wir ab auf null. Dann haben wir 235 Franken.
0:34:17–0:34:21
Aber das ist eigentlich... Ich habe ja das Schlimmste befürchtet, aber jetzt geht's mir.
0:34:22–0:34:26
Ich würde mit besserer Laune zu diesem Studio auslaufen, wenn das hier kommt.
0:34:26–0:34:31
Also wir haben plus etwa 20 Prozent.
0:34:31–0:34:39
Ja. Auf sechs Jahre. Das ist nicht so schlecht, für das, dass man strategisch
0:34:39–0:34:41
diversifizieren müsste.
0:34:41–0:34:46
Wir hätten nicht über die Hälfte in so eine Nachhaltig-Ungefähr-Höher-Auf-Ei
0:34:46–0:34:48
können. Das hätten wir nicht machen sollen.
0:34:49–0:34:55
Aber eigentlich, für das, dass wir über die Hälfte abgeschrieben haben,
0:34:56–0:34:58
haben wir kein Geld verloren.
0:34:59–0:35:04
Das ist eigentlich recht beachtlich. Das heisst, wir müssten eigentlich weitermachen
0:35:04–0:35:07
nach der HODL-Strategie.
0:35:07–0:35:12
Die HODL-Strategie habe ich auch schon erwähnt, das ist kurz für «Hold on for
0:35:12–0:35:18
dear life». Also du musst einfach dranbleiben, dabeibleiben und vielleicht müssen
0:35:18–0:35:20
wir sogar noch nachschiessen.
0:35:22–0:35:26
Investoren fragen, ob sie Lust hätten, vielleicht nochmals ein 20er-Nötchen
0:35:26–0:35:30
draufzulegen und jetzt vielleicht... Ich würde das jetzt einfach so laufen lassen.
0:35:30–0:35:31
Du würdest es so laufen lassen? Ok.
0:35:31–0:35:35
Ich würde es so laufen lassen. Und einfach sagen, wir hören uns in 3 Jahren.
0:35:35–0:35:40
Genau, in 3 Jahren. Vielleicht wieder mit Faircoin. Was ist Faircoin für ein Scheiss?
0:35:42–0:35:45
Ja, ich weiss. Ich muss diese Sendung nochmals hören und herausfinden,
0:35:45–0:35:49
wenn wir auf Faircoin gekommen sind. Ich hoffe dann nicht, dass das meine Idee war.
0:35:51–0:35:56
Ich habe das vorgeschlagen. Du warst es? Ja, es ist eben schon so.
0:35:58–0:36:00
Aber Faircoin ist tot.
0:36:03–0:36:09
Fairprice. Es gibt ja verschiedene Plattformen. Coinbase hatte das mal drin.
0:36:09–0:36:12
Und der aktuelle Fairprice ist 0 Euro.
0:36:13–0:36:18
Ja, das klingt nach einem Totalausfall. Also, ich würde sagen,
0:36:18–0:36:20
vielen Dank, Kevin, für das Update.
0:36:21–0:36:25
Ihr, liebe Investorinnen und Investoren, es waren zwar, glaube ich, nur Männer.
0:36:25–0:36:30
Ihr könnt uns ja jetzt, nachdem ihr diese Sendung gehört habt, noch zuhören.
0:36:30–0:36:35
Cola, ob ihr aufstocken wollt, ob ihr gleichbleiben wollt, ob ihr auszahlen
0:36:35–0:36:36
wollt, und dann machen wir das.
0:36:36–0:36:41
Und das Ziel ist immer noch, dass wir zumindest mal gut zu Nacht essen können.
0:36:41–0:36:44
Aber ich hätte eigentlich schon lieber gerne einfach ein schönes Wochenende,
0:36:45–0:36:50
wo wir mal ein ganzes Wochenende, so mit Wellness und so, für alle Investoren.
0:36:50–0:36:53
Das wäre so ein bisschen meine... Wir sind erst bei McDonalds.
0:36:53–0:36:56
Wir sind erst bei McDonalds. Also, wir bleiben dran.
0:36:57–0:37:00
Bis bald, schöne Zeit. Tschüss zusammen.
0:37:00–0:37:12
Music.

Vor fast sechs Jahren – am 23. Mai 2018 – haben wir unser grosses Kryptowährungs-Abenteuer gestartet: Zusammen mit einigen Hörerinnen und Hörern haben wir die unfassbare Summe von 190 Schweizer Franken in mehrere Kryptowährungen investiert – in Ethereum, Litecoin, Faircoin und Cardano.

In die Mutter aller Kryptowährungen haben wir seinerzeit nicht investiert. Ob das ein Fehler war, jetzt, wo der Bitcoin wieder einmal zu Höhenflügen ansetzt? Oder wären wir nicht viel besser längst ausgestiegen – jetzt, wo Sam Bankman-Fried 25 Jahre ins Gefängnis muss und manche sich in ihrem kritischen Urteil bestätigt.

Wie auch immer: Die Zeit ist reif für ein Update zu unserem Investment und zu den Entwicklungen allgemein. Haben sich die Kryptowährungen etabliert oder sind sie noch immer ein exotisches Nerd-Ding? Auch darüber müssen wir natürlich diskutieren. „Haben wir aufs falsche Krypto-Pferd gesetzt?“ weiterlesen

Musiker gegen KI (0:1)

Transkript anzeigen (falls vorhanden)

00:00–0:00:11
Music.
0:00:11–0:00:15
«The Jam» mit «Sounds from the Street».
0:00:16–0:00:21
Genau, und da ist es schon weitergegangen, aber wir müssen unsere Pre-Show abhalten.
0:00:22–0:00:28
Wir sind «Bad Bait» und ihr hört Radio Stadtfilter auf 96,3 MHz.
0:00:28–0:00:34
Yeah, also, Digi-Chris, wir haben heute ein Thema, das du gefunden hast,
0:00:34–0:00:37
du wolltest eigentlich nicht über dieses Thema reden. Und dann habe ich,
0:00:37–0:00:43
glaube ich, zum ersten Mal in 17 Jahren, nein, wie lange?
0:00:43–0:00:48
In vielen Jahren habe ich den Boss rausgehängt und gesagt, Diggi Chris, du musst.
0:00:49–0:00:51
Und jetzt musst du.
0:00:52–0:00:56
Ja, man kann auch sagen, ich habe mich praktisch im Zug auf das Thema vorbereitet.
0:00:57–0:01:00
Wir spoilern jetzt noch nicht, was es ist, würde ich sagen, oder?
0:01:00–0:01:04
Wir behalten es glaube ich noch für uns, aber es sind nicht die Sounds from
0:01:04–0:01:11
the street, wie vorher in diesem Musikstück, sondern die Sounds von der Ether,
0:01:11–0:01:12
könnte man vielleicht sagen.
0:01:12–0:01:15
So irgendeine überirdische Sphäre und jetzt schaue ich gerade,
0:01:15–0:01:17
ob der Kevin auch da ist. Hallo Kevin.
0:01:18–0:01:22
Guten Tag. Guten Tag, er ist da. Ich höre glaube ich auch ein Huhn.
0:01:23–0:01:29
Natürlich. Natürlich. Wie könnte es anders sein? Ja, das ist schon so.
0:01:29–0:01:31
Und Kevin, alles gut?
0:01:33–0:01:38
Ich bin jetzt gleich reingelaufen und muss es wahrscheinlich noch anders einrichten.
0:01:38–0:01:41
Ich muss mich noch mit Kabel verbinden, dann haben wir nicht mehr so viel Delay,
0:01:41–0:01:44
weil das hat letztes Mal besser geklappt, als jetzt hier in Berlin.
0:01:44–0:01:47
Aber ich brauche noch schnell eine Minute.
0:01:47–0:01:52
Ja, wir haben noch ein bisschen Zeit, es geht in fünf Minuten richtig los.
0:01:52–0:01:54
Jetzt höre ich irgendwoher Musik.
0:01:55–0:01:59
Ich weiss nicht woher. Ist das bei dir, Chris?
0:01:59–0:02:04
Müssen wir gerade schauen, ob unsere Konfiguration funktioniert? Nein?
0:02:05–0:02:09
Also... Hey, ich habe das Kabel noch nicht drin.
0:02:10–0:02:14
Ach so, das Kabel steckt nicht, das ist natürlich immer ein kleines Problem im Radio.
0:02:14–0:02:20
Ich kann ja eben, aber immerhin hat dann der Kevin macht sein Kabel rein, das ist schon mal gut.
0:02:20–0:02:23
Ich höre mal, ob es schon drin ist. Nein, er hat es noch nicht.
0:02:23–0:02:27
Er muss sich jetzt gleich auf den Weg machen. Also ist gut. Ich habe immer den Stress.
0:02:28–0:02:34
Ich weiss. Ich hätte auch wieder hetzen müssen, dass ich nur überhaupt rechtzeitig
0:02:34–0:02:35
hierher geschafft habe.
0:02:36–0:02:39
Also, sind alle noch an Soundchecks bereit?
0:02:41–0:02:44
Drei Minuten vor dem Sendungsbeginn. Es ist wie immer.
0:02:45–0:02:51
Es ist wie immer, wie im richtigen Leben. Es gibt keine Generalprobe bei uns,
0:02:51–0:02:53
es geht immer gerade live, das ist so.
0:02:56–0:02:58
Und Chris, wie steht es um dein Kabel?
0:03:01–0:03:09
Man hört es nicht, wenn du da runterredest, aber er trifft seinen Schlitz nicht.
0:03:10–0:03:15
Vorsicht Wortspiel! Nein, es ist wirklich reiner Zufall, wenn das jetzt anzüglich
0:03:15–0:03:18
klingt, weil wir sind wirklich ernsthaft am Arbeiten.
0:03:19–0:03:23
Wie immer, wie meistens, wenn wir diese Sendung machen, geben wir uns Mühe.
0:03:24–0:03:28
Wir haben uns vorbereitet und es hat jetzt gar niemand eine Anekdote zu erzählen.
0:03:29–0:03:32
Ich glaube, der Kevin ist jetzt wirklich ganz abgetaucht.
0:03:33–0:03:40
Aber ist gleich. Ich würde sagen, dann verlängern wir nicht künstlich den Schmerz,
0:03:40–0:03:45
sondern sagen, da ist Patti Smith, Piccars The Night.
0:03:46–0:04:08
Music.
0:04:04–0:04:10
Because tonight, there are two lovers Because tonight, Patti Smith.
0:04:11–0:04:15
Es ist zwar noch nicht ganz Nacht, aber es dunkelt ein bisschen ein über der
0:04:15–0:04:19
Menschheit, könnte man sagen, wenn man jetzt eine düstere Anmoderation machen will.
0:04:20–0:04:25
Da kommt ein riesiger Schatten, wirft sich über uns und verändert alles.
0:04:25–0:04:26
Vielleicht. Vielleicht.
0:04:27–0:04:41
Music.
0:04:41–0:04:45
Da ist der Nerdfunk und da ist der Digi-Chris. Hallo, hallo.
0:04:45–0:04:50
Apropos Schatten, hat jemand von euch die Sonnefinsternis verfolgt gestern?
0:04:50–0:04:52
Nein, die war in Amerika.
0:04:52–0:04:55
Ich konnte leider nicht auf Amerika.
0:04:56–0:04:59
Und Kevin musste auch seine Hühner hüten. Kevin, bist du da?
0:05:00–0:05:01
Ich bin auch nicht auf Amerika.
0:05:02–0:05:08
Aber du bist dafür näher an uns hergerückt, dank deinem Kabel. Das ist super.
0:05:09–0:05:13
Also, kommen wir zum Thema. Eine neue KI, mal wieder.
0:05:13–0:05:17
Das freut den Digi-Chris, der das Thema findet. Wieso schon wieder KI?
0:05:18–0:05:21
Ich sage es euch, schon wieder KI, weil schon wieder eine neue.
0:05:21–0:05:27
Und die macht, wenn man ihren kleinen Text unterbreitet, eben kein Bild oder
0:05:27–0:05:29
kein Video, sondern Popsongs.
0:05:29–0:05:34
Und Musikerinnen und Musiker, Künstler und Künstlerinnen laufen Sturm gegen
0:05:34–0:05:37
die künstlich intelligente Kunst.
0:05:38–0:05:44
Zurecht, müssen wir fragen, macht das suno.ai ihnen dann wirklich die Tantiemen-Streitung
0:05:44–0:05:49
und sabotiert sie das, was wir da auch gerne auf dem Sender zelebrieren,
0:05:49–0:05:51
nämlich die Kunst der Musik.
0:05:52–0:05:58
Und ich würde sagen, wir stürzen doch gerade mal in die Mitte von dieser Sache hier.
0:05:58–0:06:03
Ich spiele euch mal eines von diesen Stücken, die die KI generiert hat.
0:06:03–0:06:07
Das heisst «The Soul» – habe ich das richtig?
0:06:07–0:06:11
Nein, ich muss da, sonst passiert nichts. Soul of the Machine heisst das.
0:06:11–0:06:16
Soul of the Machine.
0:06:16–0:06:43
Music.
0:06:48–0:06:51
Kevin, was meinen deine Hühner zu dem Song?
0:06:53–0:06:59
Ja, die finde ich super. Es klingt ein bisschen tatsächlich wie Blues, es bluset ein bisschen.
0:07:01–0:07:06
Hühner? Nein, das Stück hier. Hühner, Jazz oder?
0:07:08–0:07:13
Also... Reif Jazz. Ja, genau. Genau. Also, wir würden jetzt wahrscheinlich,
0:07:13–0:07:18
Digi Chris, wenn du das im Radio gehört hättest, das Stück, hättest du nicht gefunden, das ist KI,
0:07:18–0:07:22
sondern das hättest du gedacht, keine Ahnung, was es ist. Wahrscheinlich ist
0:07:22–0:07:23
es ein echter Mensch gewesen.
0:07:24–0:07:27
Bis vor einer Stunde, Anik. Okay, dann hättest du es gehört.
0:07:29–0:07:34
Ja, es klingt wie echte Musik. Und das ist, es hat ja die KIs schon früher gegeben,
0:07:34–0:07:35
die Musik gemacht haben.
0:07:36–0:07:45
Google hat so eine seit gut einem Jahr. Sie heisst «Music LM» und konnte dann nur instrumental.
0:07:46–0:07:57
Und die K.I. macht selbst Texte und macht sogar ein hübsches Bild dazu.
0:07:58–0:08:04
Und ich habe dann gefunden, sie soll doch mal einen Song zum Nerdfunk machen.
0:08:04–0:08:08
Und dann hat sie so etwas in dieser Stilrichtung gemacht.
0:08:09–0:08:18
Music.
0:08:18–0:08:22
Findest du dich gut repräsentiert, Digi-Chris, mit diesem Stück?
0:08:22–0:08:28
Da jetzt schon wenig, aber vermutlich kennt Kai halt auch den Nerdfunk nicht.
0:08:28–0:08:32
Das ist dann wahrscheinlich jetzt eben, wir sind glaube ich bei Version 3 momentan,
0:08:32–0:08:38
Vielleicht wird es dann auch eine Anekdote von uns direkt in den Song einbauen.
0:08:38–0:08:44
Genau, ich habe einfach gesagt, ein fröhliches Stück im Stil von 8-Bit-Soundtrack
0:08:44–0:08:49
von einem Computerspiel, wo auch ein Teppich, also wo ich es schön im Hintergrund
0:08:49–0:08:52
laufen lassen könnte, für die Radiosendung Nerdfunk.
0:08:55–0:09:03
Und dann hat sie das Pixel Adventure daraus gemacht, die KI 8-Bit-Upbeat-Elektronik.
0:09:03–0:09:10
Music.
0:09:10–0:09:14
Also man kann... Kevin, Ohrwurm-Qualitäten hat das schon, oder?
0:09:16–0:09:19
Hey, das erinnert mich an Gummibärenbande. Achso, ja.
0:09:20–0:09:24
Nö. Doch, ich hatte ein kleines... Das klingt ähnlich wie...
0:09:25–0:09:28
Voll. Darf ich etwas schicken, das ich gemacht habe? Ja, bitte.
0:09:28–0:09:32
Für Nerdfunk. Kann ich das ins Dock reinkopieren? Doch.
0:09:32–0:09:36
Ich komme technisch nicht so raus. Ja, genau.
0:09:36–0:09:38
Es ist riesig, ist ein Deko, ja. Wie kann ich das kopieren?
0:09:39–0:09:42
Kontroll-V. Link-only. Public? Public?
0:09:43–0:09:48
Nein. Link-sharing. Also wir haben... Was ist? Was?
0:09:49–0:09:53
Ich will es kopieren und ich weiss nicht, wie es geht. Du kannst einfach...
0:09:54–0:09:57
Den Link hier drücken. Aber weisst du was?
0:09:57–0:10:02
Der Digi-Chris hat vielleicht auch noch... Ja, ich sehe es. Ich probiere es
0:10:02–0:10:04
mal, ob ich das gerade aufmachen kann.
0:10:05–0:10:08
Und nachher darf dann... Weil wir haben alle experimentiert.
0:10:09–0:10:15
Nerdfunk Nation heisst das. Okay, ich probiere es mal. Das ist mein erster Schuss.
0:10:15–0:10:23
Dein erster Schuss. Okay, der erste Schuss von Kevin heisst Nerdfunk Nation und er klingt so.
0:10:23–0:10:27
Nerdfunk Nation, where the geeks and the gamers come, the dance and groove.
0:10:28–0:10:31
Got a pair of thick rimmed blouses and a pocket full of...
0:10:31–0:10:49
Music.
0:10:51–0:10:57
Ja, hat etwas. Ich habe jetzt noch nicht ganz das... Es klingt wie Titelmelodie von Friends.
0:10:57–0:10:59
Ja, oder irgendeine 80er Serie.
0:11:00–0:11:04
Ja genau, wo alle glücklich sind. Und wir haben kein Problem.
0:11:06–0:11:10
Sehr schön, sehr schön. Und wenn wir schon dabei sind, Digi Chris,
0:11:10–0:11:14
hast du mir noch deine Komposition? Du musst einfach auf Play drücken und dann
0:11:14–0:11:15
hören wir es hoffentlich.
0:11:16–0:11:19
Ich habe da mal noch was. Eben, da hatten wir ja schon Dixieland,
0:11:19–0:11:23
also Super Mario als Dixieland. Oh, oh, oh, okay.
0:11:23–0:11:27
Das hat er durchgelassen. Äh, trotz... Ui.
0:11:26–0:11:42
Music.
0:11:39–0:11:43
Ich würde sagen, diese Instrumente klingen mir jetzt fast ein wenig zu blähig.
0:11:45–0:11:52
Ja, aber wenigstens hat er doch noch Multitrack und eben das Lied «Eine gute
0:11:52–0:11:54
Nachtliebe für deine Tochter» ist noch am rendern.
0:11:55–0:12:00
Achso, ja, genau. Ich habe natürlich dann auch noch ein Kinderlied probiert.
0:12:00–0:12:04
Das heisst, ich muss gerade schauen, ob ich es überhaupt sehe.
0:12:06–0:12:10
Da ist es das heißt das unglückliche pferd
0:12:10–0:12:16
ich habe gesagt dass das kinderliebe machen über das roß wo in das zebra verliebt
0:12:16–0:12:25
ist und dann ist das die musik mit einem herzen das so leicht zu sehen aber
0:12:25–0:12:29
es ist verliebt ein schicht eines bildes.
0:12:29–0:12:50
Music.
0:12:50–0:12:56
Das Zebra ist anders, es ist so spezial. Das Zebra ist so spezial, okay.
0:12:57–0:13:04
Ein bisschen weh tut es mir schon. Und ich würde sagen, der Blues,
0:13:04–0:13:07
den wir am Anfang gehört haben, der war schon eher die Ausnahme.
0:13:07–0:13:11
Weil das alles so ein bisschen nach Wokoder und so ein bisschen nach...
0:13:12–0:13:21
Ich habe wenig Erfahrung mit richtig tiefgründiger und und herzberührenderer
0:13:21–0:13:26
Musik, sondern ich mache es so, dass es auf TikTok auch funktionieren würde.
0:13:26–0:13:27
Ist mein Eindruck korrekt?
0:13:28–0:13:34
Ja, aber ich glaube, es gibt ja... Du hast eine Tochter, es gibt doch so Kinder-CDs,
0:13:34–0:13:36
die wahrscheinlich nicht so viel anders klingen.
0:13:37–0:13:43
Ja, aber der Charles Zukowski, nein, wie heisst der? der schlimme Mann,
0:13:43–0:13:48
der alte Kinderlieder verbricht, der hat irgendwie noch ein bisschen mehr Ohrwurm-Qualität.
0:13:48–0:13:52
In der Weihnachtsbäckerei gibt es eine Massenschlägerei und so.
0:13:52–0:13:56
Also das finde ich noch ein bisschen besser.
0:13:58–0:14:03
Aber Kevin, was halt, du bist ja eigentlich bist du erfahrener Konzertgänger auch.
0:14:03–0:14:07
Du hast früher Konzerte nicht nur besucht, sondern auch fotografiert.
0:14:07–0:14:11
Also du hast auch ein Gespür für die Musiker. Und was sagst du jetzt da?
0:14:11–0:14:17
Spürst du da irgendetwas echtes oder ist das doch alles ein bisschen synthetisch,
0:14:17–0:14:19
was da überkommt von diesem Sono?
0:14:20–0:14:24
Ich habe... also es ist ein Problem.
0:14:25–0:14:31
Es ist... wie viele Leute hören Radio den ganzen Tag im Hintergrund? Ja, viele.
0:14:31–0:14:35
Wie viele Leute haben im Lift einfach Musik in der Wartekalle?
0:14:36–0:14:41
Hey, da hört niemand auf die Musik, sondern hört nur auf den Takt,
0:14:41–0:14:44
dass es ein wenig treibend ist, dass es ein wenig glücklich ist.
0:14:45–0:14:46
Das verhebt völlig.
0:14:47–0:14:51
Und ich glaube auch hier, ein Ohrwurm ist wahrscheinlich möglich,
0:14:51–0:14:54
aber es ist ein Glückstreffer. Wie in der echten Musik.
0:14:56–0:15:01
Es ist Musik grundsätzlich, und darum funktioniert wahrscheinlich die KI relativ
0:15:01–0:15:05
gut, Musik funktioniert nach relativ klaren Mustern. Ja.
0:15:05–0:15:09
Also, es ist relativ klar aufgebaut, wie Musik funktioniert,
0:15:09–0:15:14
mit den Takt, mit wann kommt der Refrain, wie ist die Struktur von etwas im Drumherum.
0:15:14–0:15:18
Da kann ich wahrscheinlich relativ einfach sagen, wenn ich das so aufbaue in
0:15:18–0:15:20
diese Richtung, dann funktioniert das relativ gut.
0:15:21–0:15:25
Man kann anhand der Instrumentierung, der Takt, der Tonhöhe ein bisschen,
0:15:25–0:15:28
ist es jetzt eher glücklich oder ist es eher traurig bestimmen.
0:15:28–0:15:31
Und dann funktioniert das, glaube ich, schon.
0:15:32–0:15:38
Aber es ist jetzt vielleicht ein bisschen gemein, aber es ist einfach schlecht
0:15:38–0:15:41
produzierte Popmusik. Genau, das würde ich auch sagen.
0:15:41–0:15:46
Das Rolling Stone Beispiel, das wir von ganz am Anfang gehört haben,
0:15:46–0:15:47
das klingt mich ein bisschen untypisch.
0:15:48–0:15:50
Aber vielleicht haben wir auch noch nicht tief genug gerüttelt,
0:15:50–0:15:54
weil das klingt mehr nach Mensch,
0:15:54–0:15:58
als bei dieser Musik, die man sagen könnte, bei dieser Popmusik von heute,
0:15:59–0:16:06
die ich als alten, weissen Mann jetzt kritisiere, die Tönte schon seit Jahren immer so.
0:16:07–0:16:10
Wie wenn sie direkt aus der Retorte kommen und von der K.I. gemacht werden.
0:16:11–0:16:16
Also da ist vielleicht die Fallhöhe nicht so. Trotzdem, es haben über 200 Musiker,
0:16:16–0:16:20
Kate Perry, Billie Eilish, Stevie Wonder, Bon Jovi und noch viele andere,
0:16:20–0:16:23
einen offenen Brief unterschrieben, in dem sie sagen,
0:16:23–0:16:29
eben diese künstliche Intelligenz, Intelligenz, die es für sie und ihr Geschäft und ihre Kunst hat.
0:16:29–0:16:36
Leider setzen einige Plattformen und Entwickler KI ein, um die Kreativität zu
0:16:36–0:16:42
sabotieren und Künstler, Songschreiberinnen, Musiker und Rechteinhaberinnen zu untergraben.
0:16:42–0:16:50
Diggi Chris, ist das die Absicht? Ist es nicht die Absicht, den Künstlern das Brot wegzunehmen?
0:16:50–0:16:53
Nein, vielleicht nicht. Ich kann ein Beispiel sagen, ein Arbeitskollege,
0:16:53–0:16:57
der auch in einer Band spielt und der Eben hat mal erfahren,
0:16:57–0:17:01
sie haben jetzt einen neuen Song,
0:17:01–0:17:06
ich glaube der heisst jetzt «Sunset in Arabia» und er sagte «ja,
0:17:06–0:17:12
kannst du nicht mal das in ein Dings reingeben, in Dali oder in Chachipiti 4»
0:17:12–0:17:14
und dann ist halt auch ein Bild rausgekommen.
0:17:15–0:17:19
Für ihn war das einfach eine Inspiration. Er hat das auch mit seinem Grafiker
0:17:19–0:17:22
gemacht. Aber cool, irgendwie tatsächlich so...
0:17:24–0:17:27
Ich sage jetzt, ein orientalisches Gebäude. Das hat uns noch jemand korrigiert.
0:17:27–0:17:29
Aber in Dubai sehen die Gebäude nicht so aus.
0:17:30–0:17:33
Aber einfach so ein bisschen... Und mit diesen Farben, ja...
0:17:33–0:17:36
Das ist wahrscheinlich wie der Entwurf, den du irgendwo hast.
0:17:36–0:17:43
Und dann musst du sicher noch lange... Wir sind jetzt hier bei unserem Tool auf Version 3.
0:17:43–0:17:46
Wahrscheinlich bis Version 17 warten, wie es dann tatsächlich etwas macht,
0:17:46–0:17:52
was auf den Chartplatz 1 kommt, aber vielleicht auch noch ganz schnell.
0:17:52–0:17:55
Ich würde sagen, das kann schon passieren, bei den Leuten, die wahrscheinlich
0:17:55–0:17:57
jetzt schon nicht so viel Geschmack haben.
0:17:57–0:18:02
Es gibt ja auch schon KIs, die Fotowettbewerbe gewonnen haben.
0:18:02–0:18:05
Das kann schon passieren, weil nicht immer erkennst du es als falsch.
0:18:06–0:18:10
Aber ich würde sagen, es ist ja dann doch, wenn einzelne Songs so.
0:18:12–0:18:16
Wirklich überzeugen, das Allermeiste überzeugt nicht so.
0:18:16–0:18:20
Oder allerdings, ich lese auch jetzt doch noch davor, was das Rolling Stone
0:18:20–0:18:22
Magazin geschrieben hat,
0:18:22–0:18:27
die haben gefunden, die meiste KI-generierte Kunst ist bisher bestenfalls kitsch,
0:18:27–0:18:32
wie der hyperrealistische Sci-Fi-Müll mit seinen formschlüssigen Raumanzügen,
0:18:32–0:18:37
den so viele Mitschörnerbesitzer oder Benutzer anscheinend erzeugen wollen.
0:18:37–0:18:41
Aber das Soul of the Machine, das wir gehört haben, fühlt sich an wie etwas anderes.
0:18:41–0:18:47
Die kraftvollste und beunruhigendste KI-Kreation, die mir als Schreiberling
0:18:47–0:18:49
in irgendeinem Medium begegnet ist.
0:18:50–0:18:58
Und eben, man findet da auch, und ich glaube, die Musikindustrie sieht das wirklich als Bedrohung an.
0:18:58–0:19:02
Es gibt jetzt eben die Gewerkschaften, die sagen, man muss das regulieren,
0:19:02–0:19:08
man muss sagen, dass die Studios verbeuten, dass die eben die KIs brauchen,
0:19:08–0:19:11
um Produktionskosten runterzudrücken.
0:19:11–0:19:17
Man kann sich auch gut vorstellen, dass zum Beispiel nicht halt der Künstler
0:19:17–0:19:20
im Vordergrund ersetzt wird, aber z.B.
0:19:20–0:19:24
Vielleicht Musiker, die im Hintergrund spielen oder das Chörchen oder so.
0:19:24–0:19:30
Und in Tennessee gibt es tatsächlich den Elvis-Act, der tritt am 1.
0:19:30–0:19:35
Juli in Kraft und der macht es illegal, die Stimme eines Künstlers ohne dessen
0:19:35–0:19:36
Zustimmung zu kopieren.
0:19:37–0:19:40
Und das finde ich eigentlich wirklich sinnvoll. Also ich glaube,
0:19:40–0:19:43
das kann nicht angehen. Wahrscheinlich auch posthum.
0:19:43–0:19:47
Wenn das nicht klar geregelt ist, kann man nicht hingehen und jetzt ein neues
0:19:47–0:19:51
Johnny Cash Album machen, ohne den gefragt zu haben.
0:19:51–0:19:54
Ganz klar, aber eben, wie du sagst, gefragt zu haben, ich glaube,
0:19:54–0:19:58
ich habe das auch schon mal erwähnt, es gibt ja neue Folgen von Pumuckl,
0:19:58–0:20:02
von Airtel und eben der Maxi Schafroth spricht den Pumuckl, aber sie haben den
0:20:02–0:20:06
Pumuckl auf dem zweiten Kanal auch noch mit AI.
0:20:07–0:20:10
Wiederbelebt, aber dort sind es, jetzt ist mir der Name entfallen,
0:20:10–0:20:15
wer den Pumuckl vor 20 Jahren geredet hat, also die sind zu der Familie,
0:20:15–0:20:17
zu der Nachlassverwaltung, und die haben gesagt, ja,
0:20:18–0:20:20
Wir haben ja gesagt, das ist schon wichtig. Der hat Hans Klarin geheiss.
0:20:20–0:20:24
Genau, der Klarin. Und wenn man es so macht, dann ist es schon okay.
0:20:24–0:20:26
Aber da bin ich auch einer Meinung.
0:20:26–0:20:31
Man sollte jetzt nicht irgendwie, und das hat ja nicht mal mit Bildungslücken
0:20:31–0:20:35
zu tun, aber lebt jetzt der Musiker XY noch?
0:20:35–0:20:38
Das muss ich mir teilweise wahrscheinlich auch noch selber überlegen.
0:20:39–0:20:43
Aber wenn du jetzt jemanden schaust, der heute 4,15 Jahre alt ist,
0:20:43–0:20:48
ist, hm, ja, lebt dann der, wie heisst er, Freddy Mercurino?
0:20:48–0:20:52
Ja, gut, ich glaube, der Freddy ist jetzt vielleicht noch der beste.
0:20:52–0:20:56
Wenn der von der KI gut gekopiert werden kann, dann sind wir eh verloren,
0:20:56–0:20:58
dann können wir die Diskussion da bleiben lassen.
0:20:58–0:21:00
Aber auch noch schnell, wegen Freddy, da gibt es ja auch ein Meme,
0:21:02–0:21:05
wie heisst es, Bohemian Rhapsody, wo er, glaube ich, geschrieben produziert,
0:21:05–0:21:08
alles hat. Er, glaube ich, hat das praktisch allein gemacht.
0:21:09–0:21:12
Und da gibt es so ein Ding, da siehst du ihn eben, schreibt einen Song und hast
0:21:12–0:21:17
irgendeinen ich sage jetzt, ein Britney Spears Song mit irgendwie 17 Leuten,
0:21:17–0:21:18
die da gearbeitet haben.
0:21:19–0:21:21
Und jetzt, hör mal, Qualität.
0:21:22–0:21:26
Kevin, wenn wir jetzt sagen, ist vielleicht ein bisschen hochgehängt,
0:21:26–0:21:29
was die Musiker machen, dass man sich bedroht fühlt von dem,
0:21:30–0:21:32
das verstehen wir schon alle sehr gut, oder?
0:21:32–0:21:36
Das geht dir auch so? Das hat schon etwas Unheimliches, was die Musiker oder
0:21:36–0:21:38
die KI jetzt da plötzlich macht.
0:21:38–0:21:42
Ich glaube, das Ding ist halt, KI, man hat Angst vor dem, weil man jetzt,
0:21:42–0:21:45
also Vielleicht hätte man schnell erklären müssen, wie das Suno funktioniert.
0:21:46–0:21:49
Im Suno gebe ich einen Text ein und sage, mach mir ein Lied,
0:21:49–0:21:53
so und so, mit diesem Inhalt und mach mal.
0:21:54–0:21:56
Und dann generiert es mir ein Lied.
0:21:56–0:22:02
Fakt ist aber, dass auch in einem Studio seit 15, 20 Jahren,
0:22:02–0:22:06
hey, ich brauche Schlagzeuge, ja gut, ich lasse mir die Software das schnell einspielen.
0:22:09–0:22:12
Die Zeiten sind vorbei, wo ich mir einen Schlagzeuger geholt habe,
0:22:12–0:22:16
der mir das einspielt. Ich kann das über die Software machen.
0:22:18–0:22:21
Ob das besser ist oder nicht, muss man diskutieren, weil die Software wahrscheinlich
0:22:21–0:22:25
zu präzise ist und ich möchte die Ungenauigkeit haben, ich möchte den Groove
0:22:25–0:22:28
haben und das bringt halt vielleicht nur den Menschen an und dann kann man wieder
0:22:28–0:22:32
irgendwelche Programme drüber laufen lassen, die dann so ein bisschen ungenau das spielen.
0:22:32–0:22:38
Aber KI macht halt in der kürzesten Zeit ein Lied komplett fertig,
0:22:39–0:22:41
ohne dass ich eine Ahnung von Musik habe.
0:22:42–0:22:49
Ich verstehe, dass man da Angst davor hat und gleichzeitig kommt die KI überall.
0:22:50–0:22:53
Wir haben das gleiche Problem mit Text, wir haben das gleiche Problem mit Bildern,
0:22:53–0:22:54
wir haben das nicht nur in der Musik.
0:22:55–0:22:59
Und ich glaube, man kann das jetzt nicht stoppen. Man sieht tatsächlich,
0:23:00–0:23:07
dass die Künstler und Musiker jetzt laut ausrufen und die Hollywood-Leute haben
0:23:07–0:23:11
auch laut ausgerufen, wo letztlich die Videokamera eingekommen ist,
0:23:11–0:23:13
wo dann so Videosequenzen kommen. können.
0:23:13–0:23:19
Und die reden auch schon von den AI-Apocalypse, die dann in all diesen.
0:23:21–0:23:27
Gewerkschaftlich organisierten Filmemachern und Filmmenschaffenden die Arbeit wegnimmt.
0:23:27–0:23:32
Und wir, zum Beispiel wir Journalisten und vielleicht auch Fotografen,
0:23:32–0:23:35
die sind einfach nicht so gut organisiert und die machen ein bisschen weniger Krach.
0:23:35–0:23:38
Ich glaube, das hat schon damit zu tun. Das sehe ich auch.
0:23:38–0:23:43
Und du hast absolut recht, Kevin. Es ist ja so eine graduelle Entwicklung.
0:23:43–0:23:48
Ich habe das Auto-Tune schon erwähnt. Da haben natürlich viele schon ihre Stimmen
0:23:48–0:23:53
zurecht gebogen, mittels Elektronik, wenn sie die hohen Töne nicht getroffen haben.
0:23:53–0:23:58
Und jetzt kannst du natürlich gut einen anstellen, der dann das perfekt singt
0:23:58–0:24:01
und dann kannst du ihm deine Stimme überhelfen und dann klingt es so,
0:24:01–0:24:03
wie du das gesungen hast, mittels KI.
0:24:03–0:24:10
Also die Schissmöglichkeiten werden noch etwas grösser, aber die sind nicht neu.
0:24:12–0:24:14
Umgekehrt könnte man auch sagen, Digi-Chris positiv gesehen,
0:24:15–0:24:20
wir beide zum Beispiel haben vielleicht super Songideen, aber wir können nicht
0:24:20–0:24:23
singen und wir haben kein Talent für ein Musikinstrument,
0:24:23–0:24:29
aber mit so einer KI könnten wir jetzt etwas kreieren, was wir bisher nicht hätten können.
0:24:29–0:24:33
Also es macht es irgendwie demokratischer. Kann sein übrigens,
0:24:33–0:24:37
was mir auch noch beim Suna aufgefallen ist, wenn du im Chachipiti und ja,
0:24:37–0:24:43
ich habe sicher auch schon gewisse Sequenzen für den Podcast mit der Chachipiti generieren lassen.
0:24:44–0:24:46
Tatsächlich? Da kannst du mir, oder zumindest eben das Gerüst,
0:24:46–0:24:48
kannst du mir sagen, nein, ich habe das nicht so gemeint.
0:24:49–0:24:52
Ich glaube, beim Suna hast du tatsächlich immer einen Schuss.
0:24:53–0:24:58
Also wenn du die einmal blöd vertippst, dann hast du halt deine 10 Kredite wieder.
0:24:58–0:25:02
Du kannst es nicht korrigieren, du müsstest es einfach nochmals neu machen oder so.
0:25:03–0:25:10
Und ich wollte dann wissen, wie kreativ, wie tiefschürfend, wie emotional ist dann das Ding.
0:25:10–0:25:18
Und ich habe ihm gesagt, mach mir bitte, ihr kennt sicher alle diesen Song von Bruce Springsteen,
0:25:20–0:25:24
«I'm on fire» und habe gesagt, jetzt sollen wir mal eine Version machen,
0:25:24–0:25:28
vom gleichen Stück aus der Perspektive der Frau.
0:25:28–0:25:33
Ich wollte wissen, was könnte das sein, wie das dann tönen würde. Und das klingt dann so.
0:25:34–0:26:01
Music.
0:26:01–0:26:06
Und vielleicht zum Vergleich, so müsste das eigentlich richtig klingen.
0:26:06–0:26:13
Music.
0:26:12–0:26:20
Also ich übertreibe jetzt nicht, wenn ich sage, das hier oder das hier.
0:26:20–0:26:22
Was würden wir vorziehen?
0:26:22–0:26:30
Music.
0:26:28–0:26:31
Ich bin Team Bruce Springsteen.
0:26:32–0:26:38
Also wenn du jetzt so denkst, die Fete damals in der 6. Klasse, wer war das vielleicht?
0:26:38–0:26:44
Aber sonst ist natürlich der Herr Springsteen doch noch ein bisschen talentierter.
0:26:44–0:26:52
Ein bisschen authentischer, oder? Ich würde sagen, es geht ja auch um sehr archaische
0:26:52–0:26:58
Gefühle und Erregungen und so und das kommt bei diesem Stück raus und bei dem halt,
0:26:58–0:27:01
also irgendwie, jetzt ist es auch fertig, glaube ich.
0:27:01–0:27:04
Also ja, es schadet nichts, wenn es fertig ist.
0:27:05–0:27:11
Kevin, in welchem Team bist du? Team Bruce Springsteen oder Team Burning the
0:27:11–0:27:13
Shell? Ja, schon Bruce Springsteen.
0:27:13–0:27:15
Ja, schon Bruce Springsteen.
0:27:16–0:27:21
Ah, was machen wir jetzt fast am Ende dieser schlimmen KI-Sendung?
0:27:21–0:27:27
Ich glaube eben, was halt der KI-Nani kann, hat nicht der Springsteen neulich
0:27:27–0:27:29
noch mal irgendwie sogar im letzten Grund gespielt?
0:27:30–0:27:34
Ist das nicht vor, ja, vielleicht sogar letztes Jahr oder so gewesen?
0:27:34–0:27:41
Du meinst, es kann tatsächlich sein, dass ein Musiker richtig auftritt? Ja.
0:27:41–0:27:44
Wohingegen KI leider... Ja, nein, und eben, irgendwann haben sie gesagt,
0:27:44–0:27:48
hey, ich glaube der Springsteen ist über 70, oder?
0:27:48–0:27:51
Das ist auch schon ein alter Knochen, ja. Und eben, und er hat einfach gesagt,
0:27:51–0:27:55
er sagt, also, das war jetzt sogar positiv gewesen, wie eine Wildsau auf der
0:27:55–0:27:59
Bühne, einfach drei Stunden wie eine Wildsau auf der Bühne rumgekumpelt und
0:27:59–0:28:02
vermutlich sogar alles live gesungen und so.
0:28:02–0:28:07
Ja klar, das ist ein Ausnahmetalent und eben sowas, die Experience,
0:28:08–0:28:11
wirst du eben mit der KI nie haben, auch mit der Version 27 nicht.
0:28:12–0:28:20
Das glaube ich auch und ich glaube eben, es braucht einfach das eigene Erleben, die eigenen Abgründe.
0:28:21–0:28:24
Also ich habe es ja schon gesagt, es ist so ein bisschen banal,
0:28:24–0:28:32
dass halt Kunst auch durch Leiden entsteht und durch die Erfahrungen und alles,
0:28:33–0:28:34
was beschissen gelaufen ist.
0:28:34–0:28:39
Und das kann halt die Kai nicht, weil die erlebt nichts.
0:28:39–0:28:45
Die sitzt ein wenig in ihrem GPU und nimmt die Prompt entgegen.
0:28:45–0:28:47
Und das ist alles, was sie mit der Aussenwelt zu tun hat.
0:28:48–0:28:54
Und ja, da bleibt dann wenig, was man daraus schöpfen kann.
0:28:54–0:28:57
Da ist übrigens noch Kevin. Kevin...
0:28:59–0:29:03
...sind... ...sind letzten... ...sind zweiten Nerdfunk-Song.
0:29:04–0:29:06
Codecrushing... Codecrunching, Entschuldigung.
0:29:07–0:29:11
Äh... Kevin, was war hier der Prompt? Ähm... Ich hab ihm gesagt,
0:29:12–0:29:13
er soll einen Rap-Song machen.
0:29:13–0:29:18
Und es müsste Nerdfunk drin vorkommen. Und das Thema sind PC und IT.
0:29:19–0:29:21
Genau, im Refrain kommt es vor.
0:29:23–0:29:32
Music.
0:29:32–0:29:34
Auch, hat auch etwas für sich, oder?
0:29:36–0:29:42
Also, ich würde sagen, wir ziehen uns erschöpft und ein bisschen ernüchternd zurück.
0:29:42–0:29:47
Darf ich noch zwei Ziele vom Gute-Nacht-Lied für deine Tochter spielen?
0:29:47–0:29:52
Ich habe keine Ahnung, was daraus herauskommt. Es heisst «Sweet Dreams, My Angel».
0:29:53–0:30:05
Music.
0:30:05–0:30:09
Ja, da wäre jetzt mein Kommentar schon auch ein bisschen süsslich,
0:30:09–0:30:11
ein bisschen kitschig, aber vielleicht auch... Ich habe sogar gesagt,
0:30:11–0:30:15
Rockballad, also das ist jetzt nicht Rockballad, aber...
0:30:15–0:30:20
Also Kevin, hast du das famous last word oder sollen wir einfach...
0:30:22–0:30:25
Wir geben auf. Wir geben auf. Ich würde sagen auch. Das war es.
0:30:25–0:30:33
Das war es, wir geben auf. und es kann wirklich sein, dass in zwei Wochen dann da keine Ideen sind.
0:30:34–0:30:37
Wo ist der Podcast-Creator? Ja, genau. Oh je.
0:30:42–0:30:57
Music.

Beitragsbild: So einfach ist sie nicht durch eine KI zu ersetzen, oder? (Billie Eilish am Pukkelpop 2019 von Lars Crommelinck Photography/Flickr.com, CC BY 2.0 Deed)

Katy Perry, Billie Eilish, Stevie Wonder, Nicki Minaj, Jon Bon Jovi und zweihundert weitere Künstlerinnen und Musiker haben einen offenen Brief unterzeichnet. In dem warnen sie vor der künstlichen Intelligenz: «Leider setzen einige Plattformen und Entwickler KI ein, um die Kreativität zu sabotieren und Künstler, Songschreiber, Musiker und Rechteinhaber zu untergraben.»

Welche Unternehmen konkret gemeint sind, steht im Brief nicht. Aber ein Verdacht drängt sich auf, weil es erst ein paar Tage her ist, dass Suno.AI eine neue Version seiner Musik-KI lanciert hat. Die «verändere alles», schreibt das «Rolling Stone»-Magazin: «Die meiste KI-generierte Kunst ist bisher bestenfalls Kitsch, wie der hyperrealistische Sci-Fi-Müll mit seinen formschlüssigen Raumanzügen, den so viele Midjourney-Benutzer anscheinend erzeugen wollen. Aber ‹Soul of the Machine› fühlt sich wie etwas anderes an: Die kraftvollste und beunruhigendste KI-Kreation, die mir in irgendeinem Medium begegnet ist», urteilt der Autor. «Soul of the Machine i»

Solche Musik-KIs sind nicht neu; Google hat mit MusicLM seit Anfang 2023 ein solches Produkt am Start. Doch das produziert nur instrumentale Tracks, während Suno auch Liedtexte erschafft, sie mit künstlichen Stimmen einsingt und die Werke sogar mit einem KI-Coverbildchen ausstattet. Eröffnet sich hier ein riesiges Potenzial für die Musikindustrie, weil sie künftig ihre Umsätze erzielt, ohne Tantiemen an Menschen zahlen zu müssen? Ist das im Gegenteil eine riesige Chance für uns Nichtmusikerinnen, die wir zwar kreative Ideen, aber keine schöne Gesangsstimme besitzen und kein Instrument spielen können? Oder werden hier die Fähigkeiten der Maschine – schon wieder! – hoffnungslos überschätzt?

„Musiker gegen KI (0:1)“ weiterlesen

Mehrere seltsame Nummern

Transkript anzeigen (falls vorhanden)

00:00–0:00:14
Music.
0:00:14–0:00:18
Ah, jetzt ist es fertig. Sehr schön. I am Donald Dumb. And you better listen
0:00:18–0:00:22
to Radio Stat Filter or I will come to Winterthur and run for City Mayor.
0:00:23–0:00:28
Der Donald Trump war das. Digi Chris, er will unseren Bürgermeister werden.
0:00:29–0:00:33
Was sagen wir dazu? Lieber nicht. Aber ich will nicht zu Winterthur.
0:00:34–0:00:40
Genau, du wärst fein raus. Aber wir sind gespannt, ob er das macht.
0:00:40–0:00:42
Also, hallo Digi Chris. Wie geht's?
0:00:43–0:00:48
So wie gut ich nicht klagen kann, scheint es ja doch durchaus jetzt langsam
0:00:48–0:00:52
so ein bisschen wetterig zu sein, also bei uns, wo wir dann irgendwann wieder
0:00:52–0:00:53
kurzhermig vorausgehen können.
0:00:54–0:00:58
Mhm, und kurzhöslig? Bist du so einer, der mit kurzen Hosen herumläuft?
0:00:58–0:01:03
Oder findest du, meine Knie kann man nicht der Weltöffentlichkeit präsentieren?
0:01:03–0:01:08
Wenn ich ins Bad laufe, ja, aber sonst, also im Büro, nein, bin ich doch einigermassen
0:01:08–0:01:12
seriös angelegt. Also einer, der nicht in die kurzen Hosen ins Büro geht.
0:01:13–0:01:18
Ich mache das manchmal, aber selten. Und du bist gut dran, dass du heute nicht
0:01:18–0:01:22
ins Studio gekommen bist, weil ich bin nämlich so ein bisschen verkältet.
0:01:22–0:01:28
Ich glaube, es ist nicht die eine Seuche, sondern eine von den anderen, die man jetzt...
0:01:29–0:01:33
...just am Ende zum Frühling nach vorne gekommen ist, wieder so diese Viren
0:01:33–0:01:36
und so. Ist ein bisschen mühsam, ehrlich gesagt.
0:01:36–0:01:41
Virus-Scanner nicht aktualisiert in diesem Fall. Genau, Kaspersky habe ich gesagt,
0:01:41–0:01:46
das kommt man nicht mehr zu mir hin, aber dann wäre es vielleicht doch gescheiter
0:01:46–0:01:50
gewesen, genau, den Virus-Scanner zu updaten.
0:01:51–0:01:57
Ja, und ich glaube, wenn wir jetzt zwar noch eine Pre-Show haben,
0:01:57–0:02:02
ich hätte immer noch eine Anekdote.
0:02:02–0:02:10
Ich weiss gar nicht, ich habe meinen Abwesenheitsantrag bei dir eingereicht
0:02:10–0:02:13
in zwei Wochen, wenn ich wieder mal in Piedmont bin.
0:02:13–0:02:17
Ja, scheint es. Die Montanekdote habe ich da glaube ich gar nicht erzählt.
0:02:18–0:02:21
Das ist so etwas mit Daten schützend so.
0:02:21–0:02:24
Ist auch noch ganz spannend. Also es hätte damit angefangen,
0:02:24–0:02:27
dass ich ein Mail von meiner Mutter,
0:02:27–0:02:34
also an mich und meinen Vater, nach dem Motto, hey, wir haben hier eine Zahlungsaufforderung
0:02:34–0:02:37
bekommen aus Italien wegen Mautgebühren.
0:02:37–0:02:42
Weisst du, in Italien musst du ja Maut zahlen auf der Strasse.
0:02:43–0:02:47
Wahrscheinlich als du als Kind noch auf Italien bist, hast du doch dort in diesen
0:02:47–0:02:52
Häuschen noch Menschen gewesen, die deine gewechselten Lehren gegeben haben.
0:02:53–0:02:57
Genau, das habe ich noch erlebt. Ich bin schon so alt. Das ist dann irgendwann
0:02:57–0:03:03
halt ersetzt worden durch Kreditkarten und auf gewissen Strecken wird halt diese
0:03:03–0:03:05
Autokennzeichen gescannt. Ja.
0:03:06–0:03:09
Und das hat uns auch mal jemand gesagt und ich bin dann dort auch auf die Webseite,
0:03:10–0:03:13
habe das gezahlt und jetzt ist irgendwie, wahrscheinlich noch im 23,
0:03:14–0:03:20
ein Zahlungsaufwahl-Rekord für sechs oder sieben Durchfahrten ins Stabio durch den Tunnel.
0:03:20–0:03:25
Und natürlich, für das gibt es Google Maps und Google Location History,
0:03:25–0:03:29
habe ich da schnell geschaut, nein, also von der Zeit stimmt das,
0:03:29–0:03:31
ich bin da mit dem Vater durch gewesen,
0:03:32–0:03:35
oder halt nicht, aber vermutlich ist er dann mit, weiss ich,
0:03:35–0:03:37
wem durchgekommen, also die haben...
0:03:38–0:03:41
Hinter deinem Rücken sind sie gecruisen.
0:03:42–0:03:45
Also irgendwie haben die aus dem 17.
0:03:45–0:03:48
Jahr, also sieben Jahre her, wahrscheinlich haben sie gemerkt,
0:03:48–0:03:51
oh, wir haben kein Budget mehr, oder wir müssen und das Budget noch holen.
0:03:51–0:03:53
Wir gehen da jetzt noch die.
0:03:56–0:04:00
Gebühren einziehen. Es ist jetzt nicht so schlimm gewesen. Ich glaube,
0:04:00–0:04:04
eine Tunneldurchfahrt ist 2 Euro und ich sage jetzt Strafe 10 Euro.
0:04:04–0:04:07
Das geht dann auch. Dann ist es wahrscheinlich auch kein Scam gewesen.
0:04:07–0:04:10
Sonst wäre es irgendwie 500 Euro gewesen.
0:04:10–0:04:14
Also dann könntest du sagen, wenn es ein Scam gewesen wäre und es tatsächlich
0:04:14–0:04:19
geschafft hätte, an meine Google-Accounts und Google History aufzumachen,
0:04:19–0:04:21
Ja, hätte es wahrscheinlich ganz anders gemacht.
0:04:21–0:04:26
Ja, sie hätte einfach so einen eigenen Scanner, also wenn ich dort wohnen würde,
0:04:26–0:04:29
könnte ich ja so einen eigenen Scanner irgendwo an die Strasse stellen und dann
0:04:29–0:04:32
alle, die vorbeifahren, auch noch registrieren.
0:04:33–0:04:38
Dann musst du aber noch an die Adresse des Nummernschildes kommen.
0:04:38–0:04:43
Ja, stimmt, aber gibt es nicht immer noch diese... Nein, die Nummer gab es nie auf der CD, oder schon?
0:04:43–0:04:48
Nein, es hat immer noch... Es gibt eine Webseite, aber ich kann es dir sperren
0:04:48–0:04:50
lassen. Ach so, okay. Also, gut.
0:04:50–0:04:53
Ich habe auch noch etwas, und zwar, jetzt müssen wir schauen,
0:04:53–0:04:56
ob ich das noch einbringe, bevor wir anfangen müssen.
0:04:57–0:05:05
Pascal, die hat geschrieben uns zu unserem 700. Jahr, äh, nein, zu unserem 700.
0:05:05–0:05:09
Jubiläum, und sie hat geschrieben ein langes Feedback, für das ich mich sehr bedanke.
0:05:10–0:05:14
Sie hat auch geschrieben, warum sie unseren Podcast so schätzt,
0:05:14–0:05:18
und ich würde sagen, das Lob haben wir verdient und darum lese ich es jetzt vor.
0:05:19–0:05:22
Ihr seid authentisch und eben, sie hat das Gefühl, sie kennen uns.
0:05:22–0:05:27
Ich glaube, das ist so ein Podcast-Phänomen, dass wenn man häufig Podcasts hört,
0:05:27–0:05:31
hat man tatsächlich das Gefühl, man kennt die Leute, die man da immer in seinen Kopfhörern hat.
0:05:31–0:05:35
Ihr könnt in der Pre-Show frisch von den Leberweg-Plaudern im Hauptteil dann
0:05:35–0:05:38
doch wichtige und spannende und bemerkenswerte Themen angehen.
0:05:38–0:05:41
Ihr seid treu. Wer bleibt schon so lange da?
0:05:41–0:05:44
Danke vielmals. Also wie gesagt, das geben wir gerne zurück.
0:05:44–0:05:49
Ihr spielt euch nicht auf, ihr trifft nicht einfach auf eine Seite ab,
0:05:49–0:05:52
sondern ihr greift auch immer wieder eine andere Partei.
0:05:53–0:05:57
Ihr nehmt eure HörerInnen ernst und helft in der Kummerbox immer wieder mehr
0:05:57–0:05:59
oder weniger verzweifelte Leute.
0:05:59–0:06:03
Heute haben wir wieder mittelverzweifelte Leute. Es ist nämlich dann gerade
0:06:03–0:06:04
Kummerbox live als nächstes.
0:06:04–0:06:08
Ihr findet doch wieder ein neues Thema immer wieder. Ja, das,
0:06:09–0:06:12
Diggi Christ, das erstaunt mich selber, dass ihr das findet.
0:06:14–0:06:16
Eure Themen sind spannend. Du musst sagen, wenn es zu schlimm wird,
0:06:17–0:06:20
wenn wir uns jetzt doch selber zu fest loben.
0:06:21–0:06:26
Also, eure Themen sind spannend, moderiert und wir haben schon mehr als einmal
0:06:26–0:06:30
eine Türe zu einem Thema aufgemacht, von dem ich sonst noch nicht gehört habe.
0:06:30–0:06:34
Und ich finde euch halt einfach sympathisch und, und, und.
0:06:34–0:06:39
Und sie sagt dann aber auch noch, es sei noch gut, wenn wir zu dritt im Studio
0:06:39–0:06:42
sind, das letzte Mal, weil das ist einfach besser und das finde ich auch,
0:06:42–0:06:45
eben ausser heute, wo ich dich mit meinen,
0:06:46–0:06:50
entweder harmlosen oder Killer-Corona-Viren angesteckt hätte.
0:06:50–0:06:54
Also, sie ist schon seit Zeiten vom Digitalk dabei.
0:06:54–0:06:59
Da haben wir jetzt im Fall, weisst du was, in zwei Jahren hat der Digitalk sein
0:06:59–0:07:02
20-jähriges Jubiläum. Das glaube ich fast nicht.
0:07:02–0:07:07
Wir müssen mal schauen, ob wir das verheimlichen oder dann eine spezielle Sendung machen.
0:07:07–0:07:12
Aber ich habe jetzt schon ein bisschen überzogen mit diesem Lob und ich sage
0:07:12–0:07:16
nochmal, danke Pascal. Pascal, das ist sehr lieb von dir und wir hoffen,
0:07:16–0:07:21
dass wir dich auch weiterhin bei den Stangen behalten können. Das fände ich toll.
0:07:21–0:07:25
Freut mich auch. Und jetzt geht's los mit «Kummerbox live». «Alle Fische sind
0:07:25–0:07:29
ein Sieger.» Halt! «Kummerbox live» habe ich doch gesagt.
0:07:29–0:07:43
Music.
0:07:43–0:07:47
Wir machen heute, wie jeden letzten Dienstag des Monats, Kummerbox live.
0:07:48–0:07:52
In dieser Sendung behandeln wir die Computerprobleme, die ihr uns per Mail zugelegt
0:07:52–0:07:55
habt, auf nerdfunk.stadtfilter.ch.
0:07:55–0:08:02
Mit akuten Problemen ruft ihr uns im Studio an, die Nummer ist 052 203 31 00.
0:08:03–0:08:09
Oder ihr schreibt euer Problem ins Gästebuch auf www.stadtfilter.ch.
0:08:09–0:08:14
Und Nick, das ist ein Arbeitskollege von mir, verrate ich jetzt ein Geheimnis.
0:08:14–0:08:17
Aber er fragt nicht für sich selber, sondern für einen Freund.
0:08:17–0:08:19
Das sage ich auch immer, wenn es mir ein bisschen peinlich ist.
0:08:19–0:08:23
Es geht nicht um mich, sondern es geht um einen Freund.
0:08:24–0:08:28
Das ist, glaube ich, sogar in den sozialen Medien ein Running Gag.
0:08:28–0:08:35
Wenn man ein Mail mit dem Absender noreplyatreifeisen.ch erhält,
0:08:35–0:08:40
die einem oder das einem zu etwas auffordert, was irgendwie nicht stimmen kann
0:08:40–0:08:42
und Raiffeisen auf Rückfrage bekannt gibt,
0:08:42–0:08:46
das sei eine Fishing Methode, dann gibt es doch nur einen Schluss,
0:08:46–0:08:51
Raiffeisen wurde gehackt, richtig? Digi Chris, richtig?
0:08:53–0:09:00
Das Zeug ist jetzt halt, also Mails kann man ja relativ einfach faken also ich,
0:09:00–0:09:03
ja, könnte jetzt auch, oder irgendwie Matthias hat,
0:09:04–0:09:09
Auf soundso.ch könnte ich wahrscheinlich eine Mail schicken und je nachdem kommt
0:09:09–0:09:11
es sogar durch den Spam-Filter durch.
0:09:12–0:09:15
Ich muss schnell reingrätschen, es geht nicht mehr so leicht wie früher,
0:09:16–0:09:19
also viele Mail-Server lassen das nicht mehr zu, wenn du zum Beispiel auch eine
0:09:19–0:09:22
andere Domain hast, als die, die du eigentlich hast.
0:09:22–0:09:26
Es ist ein bisschen schwieriger geworden, aber es geht natürlich immer noch,
0:09:26–0:09:28
gerade wenn du ein Fischer bist zum Beispiel.
0:09:28–0:09:32
Ich würde sagen, es ist halt immer, also ich kann zum Ausspielen und irgendwann
0:09:32–0:09:36
wirst du halt wieder merken, wie die Authentifizierung, ich bin jetzt da auch
0:09:36–0:09:41
nicht so tief drin, aber ich glaube zum Beispiel, ja, jetzt auch nochmal das aufnehmen.
0:09:41–0:09:47
Also wenn es jetzt heisst, hallo Herr Müller, Ihr Raiffeisenkonto bla bla bla
0:09:47–0:09:53
ist Ihnen gesperrt und übrigens der Saldo Ihres Kontos beträgt 100 Millionen Franken.
0:09:55–0:10:02
Wenn dann der Name stimmt und die Zahl stimmt, dann ist das schon ein bisschen doof.
0:10:02–0:10:06
Aber in der Regel sind die Mails einfach generell und du merkst das,
0:10:06–0:10:08
es ist keine persönliche Anrede.
0:10:08–0:10:13
Typischerweise haben die Spam-Mails keine persönliche Anrede,
0:10:13–0:10:18
weil man das aus vielen Mailadressen nicht rausziehen kann. Aus anderen natürlich schon.
0:10:18–0:10:23
Aus meiner Geschäfts-Mail-Adresse bleibt eigentlich das Nick heim, wenn ich heisse.
0:10:23–0:10:27
Eben, das variiert dann so ein bisschen. Aber ich würde auch sagen,
0:10:27–0:10:30
wenn man jetzt wirklich genau wissen möchte, woher so ein Mail kommt,
0:10:30–0:10:35
dann kann man immer noch diese Mail-Header anschauen.
0:10:35–0:10:40
Also dort stehen so ein bisschen technische Daten drin. Es hat so verschiedene,
0:10:41–0:10:45
vor allem hat es auch so einen Ablauf drin, wie das Mail verschickt worden ist
0:10:45–0:10:47
und woher das kommt. und z.B.
0:10:47–0:10:52
Auch wie lange es unterwegs herumtrödelt hat. Das ist immer noch spannend.
0:10:53–0:10:56
Man sieht dann, woher es manchmal kommt.
0:10:56–0:11:02
Wenn Fischer nicht geschickt ans Werk gehen, dann sieht man dort sogar noch
0:11:02–0:11:05
den richtigen Absender drin. Das kann durchaus passieren.
0:11:07–0:11:12
Man sieht vor allem auch, woher aus welchem Netzwerk es ursprünglich kommt.
0:11:12–0:11:16
Das kann man natürlich unter Umständen auch manipulieren, Aber das ist dann
0:11:16–0:11:17
schon deutlich schwieriger.
0:11:17–0:11:21
Und wenn man dort sieht, es ist halt irgendwo hergekommen, kannst du vielleicht,
0:11:21–0:11:27
wenn nur eine IP-Adresse drinsteht, dann kannst du diese IP-Adresse noch mit nachschauen.
0:11:27–0:11:33
Dann bekommst du zum Beispiel eine ungefähre geografische Region, woher das Mail kommt.
0:11:33–0:11:38
Und so kannst du es ein bisschen eingrenzen, ob das jetzt wahrscheinlich ist,
0:11:38–0:11:42
dass das aus dem Netzwerk der Reifwiese gekommen wäre.
0:11:42–0:11:47
Dann würde es wahrscheinlich Anzeichen dafür geben. Wahrscheinlich ist das aber irgendwo hergekommen.
0:11:47–0:11:51
Aus Weissrussland, Indien oder den USA.
0:11:51–0:11:53
Das sind auch ganz gute Spammer.
0:11:55–0:11:59
Das kann man machen, wenn man wirklich herausfinden möchte, noch etwas mehr
0:11:59–0:12:02
zu so einem Mail. Ich würde sagen, es ist interessant.
0:12:02–0:12:07
DigiChris kann man sagen, wenn man etwas neugierig ist und wenn man seine Rechercheskills
0:12:07–0:12:11
ein wenig schärfen möchte in diesem Bereich, dann haben wir dann auch noch einen
0:12:11–0:12:16
Link in den Shownotes unter nerdfunk.ch, wie man herausfindet,
0:12:16–0:12:19
wie man so Header analysieren kann.
0:12:20–0:12:23
Aber es lohnt sich eigentlich nicht so richtig, das zu machen.
0:12:24–0:12:28
In der Regel ist es relativ klar, wobei es vielleicht auch noch etwas off-topic
0:12:28–0:12:30
ist, was ich so spannend finde.
0:12:31–0:12:36
Man hat ja gehört, dass oftmals kleine Hotels, ob das jetzt irgendwo in der
0:12:36–0:12:39
Toskana, in Piemont oder so ist, gehackt werden.
0:12:39–0:12:43
Und was die halt einfach wollen, die wollen deine Buchungsbestätigung.
0:12:43–0:12:48
Weil wenn es eben sagt, lieber Herr Schüssler, leider ist Ihre Kreditkartenzahlung
0:12:48–0:12:54
für den Aufenthalt in unserem Hotel von bla bla bla bis bla bla bla fehlgeschlagen.
0:12:54–0:12:58
Bitte überweisen Sie uns das sofort und dann würden wir uns mal schauen.
0:12:58–0:13:03
Also ja, so heiss ist du. Ja, in dem Hotel hast du gebucht und das Datum stimmt.
0:13:03–0:13:09
Und dass dann vielleicht auf den Link klickst, ist die Wahrscheinlichkeit höher.
0:13:09–0:13:14
Und ja, die haben teilweise auch wahrscheinlich jetzt nicht so ein grosses IT-Budget
0:13:14–0:13:19
und dann macht vielleicht die Putzfrau, du Server, also ist nicht böse gemeint, aber...
0:13:19–0:13:24
Nein, die Putzfrauen, die haben super IT-Skills, das würde man jetzt noch gesagt haben.
0:13:24–0:13:28
Also grundsätzlich, ja, eben wenn ihr das Mail überkommt und.
0:13:29–0:13:33
Ich hätte eigentlich schon länger keine Phishing-Mails mehr überkommt und eben,
0:13:33–0:13:37
wie es jetzt mittlerweile mit der Rechtschreibung steht, wahrscheinlich zu Zeiten
0:13:37–0:13:41
von Chat-GPT, ist es auch etwas besser geworden? Es wird...
0:13:41–0:13:47
Gesundheit. Entschuldigung, Jan. Es wird immer schwieriger, das zu merken,
0:13:47–0:13:53
obwohl für das, dass wir die K.I. haben, sind viele von diesen Maschen immer noch recht plump.
0:13:54–0:13:59
Aber ja, es gibt raffiniertere Methoden. Und es gibt ja nicht nur das Fishing,
0:14:00–0:14:01
sondern das Spearfishing.
0:14:01–0:14:06
Und das sind dann so auf Personenmass geschneiderte Attacken.
0:14:07–0:14:10
Und die könnten natürlich recht clever sein. und
0:14:10–0:14:17
darum ist es wirklich dann schwierig sich dem entziehen und darum also das werden
0:14:17–0:14:21
sie in der allermeisten fälle die betrüger nicht machen bei dir und mir sage
0:14:21–0:14:27
jetzt aber so wie hoch karte opfer wo sie dann jetzt holen geht und das muss
0:14:27–0:14:29
man dann schon sehr vorsichtig sie und dann,
0:14:30–0:14:34
glaube ich ist wirklich immer so einen guten tipp wenn man sich nicht sicher
0:14:34–0:14:40
ist dann halt einfach auf einem anderen Kanal nachfragen oder selber diese E-Mail-Adresse,
0:14:40–0:14:45
recherchieren und dann mal nachfragen, du, habt ihr jetzt da wirklich etwas von mir gewählt?
0:14:45–0:14:49
Er hat ja das offenbar gemacht, auch bei den Reifis und die haben ihm gesagt, es sei Fishing.
0:14:49–0:14:52
Wenn sie jetzt tatsächlich gehackt worden wären, dann.
0:14:54–0:14:59
Hätte es das vermutlich nicht so offenherzig zugegeben, aber ich würde sagen,
0:14:59–0:15:04
die Wahrscheinlichkeit ist auch einfach viel, viel grösser, dass dass das wirklich
0:15:04–0:15:07
ein klassisches Phishing-Mail ist, wie der wirklich,
0:15:08–0:15:12
gezielte Hack, der da aus dem Netzwerk, also dass die Mails wirklich aus dem
0:15:12–0:15:14
Netzwerk der Reifwiese gekommen sind.
0:15:14–0:15:17
Und das andere ist auch eben, das kann es ja auch via Telefon geben,
0:15:17–0:15:22
also ich habe auch bei uns im Fall gehört, im Büro, also es ist eben ein grosser
0:15:22–0:15:27
Konzern, da hat jemand und die Nummer hat gestimmt von unserem Group-CEO,
0:15:28–0:15:32
einen Anruf bekommen und es ist irgendein, wie sagen wir, ein Geschäftsführer
0:15:32–0:15:34
von einer niederlassig gewesen.
0:15:34–0:15:36
Also ich sage jetzt immer, wie sagen wir, ähm.
0:15:38–0:15:42
Im Osten. Jetzt war einfach das Problem, der hat den General Manager gekannt
0:15:42–0:15:43
und der spricht perfekt Deutsch.
0:15:44–0:15:48
Und wenn dann der General Manager dich kennt, irgendwie in einem ganz komischen
0:15:48–0:15:53
Englisch anfangen zu sprechen, ist wahrscheinlich irgendwas nicht so gut.
0:15:53–0:15:57
Und der hat dich dann sofort abgehängt, hat dich sofort IT informiert und klar,
0:15:57–0:15:59
so eine Nummer kannst du faken.
0:15:59–0:16:02
Und der hat jetzt halt wahrscheinlich sich die Mühe gemacht,
0:16:02–0:16:06
die Nummer von unserem General Manager herauszufinden. Die steht jetzt auch
0:16:06–0:16:09
nicht überall im Netz, die finden wir wahrscheinlich schon draussen,
0:16:09–0:16:11
wenn man ein wenig drinnen ist.
0:16:11–0:16:14
Hat halt die andere Nummer herausgefunden, aber eben halt einfach geschnellt,
0:16:14–0:16:17
ja, die können beide Deutsch und die sprechen miteinander halt,
0:16:17–0:16:19
ich glaube sogar Schweizerdeutsch.
0:16:19–0:16:21
Also ja, blöd gelaufen, aber ja.
0:16:22–0:16:27
Aber es ist eben schon so, dass wir alle eine breite Datenspur hinterlassen,
0:16:27–0:16:29
wo wir uns nicht so bewusst sind.
0:16:29–0:16:34
Und wenn jemand diese wirklich gezielt ausnutzen will, dann findet er da schon
0:16:34–0:16:38
auch Mittel und Wege, um so Angriffe authentisch zu machen.
0:16:38–0:16:41
Also das muss man sich schon bewusst sein. Eben da haben wir den Vorteil,
0:16:41–0:16:44
dass die meisten von uns zu wenig interessant sind als Opfer.
0:16:45–0:16:50
Aber es könnte ja sein, dass irgendjemand gehört hat, dass ihr zuhause 15 Bitcoins
0:16:50–0:16:56
noch auf der Höhe gekannt habt und dann seid ihr vielleicht plötzlich ein attraktiveres Ziel.
0:16:57–0:17:04
Werner fragt, weisst du, was diese Zahlen auf dem Mac sollen und vor allem, wie man sie entfernt?
0:17:04–0:17:08
Und dann hat er einen Screenshot zugeschickt, den ihr im Radio und du,
0:17:08–0:17:10
Stigli, Chris, du siehst ihn auch nicht.
0:17:10–0:17:15
Da sieht man einfach, dass es so ein Menü ist von einem Mac,
0:17:15–0:17:18
also irgendeinem beliebigen Programm hat es ein Menü.
0:17:18–0:17:23
Und das hat dort so Nummern von diesen Menüeinträgen. Und dann wollte er wissen,
0:17:23–0:17:27
woher auf einmal diese komischen Nummern mit diesen Nummern kommen.
0:17:29–0:17:32
Wenn ich den Screenshot jetzt noch gesehen hätte, hätte ich echt keine Ahnung.
0:17:35–0:17:39
Genau, also keine Ahnung, ich habe es ehrlich gesagt auch nicht auf den ersten
0:17:39–0:17:43
Blick gekannt, aber ich habe es dann angeschaut und ich habe dann gesehen,
0:17:44–0:17:46
es gibt natürlich auch bei Mac,
0:17:46–0:17:50
unter Windows sind die noch ein bisschen ausgeklügelter, also die Bedienungshilfe,
0:17:50–0:17:56
dass man den Mac eben nicht nur mit Maus bedienen kann, sondern auch rein mit der Tastatur.
0:17:57–0:18:04
Dann gibt es eine Abkürzung, um Menüpunkte über Nummern auszuwählen und die kannst du einblenden.
0:18:05–0:18:11
Ich glaube, es ist sogar die Sprachsteuerung, die man mit der Bedienungshilfe
0:18:11–0:18:12
findet, wenn man die abschaltet.
0:18:12–0:18:15
Vielleicht kann man dann eben Sprachsteuerung, das ist jetzt nicht unbedingt
0:18:15–0:18:19
mit der Tastatur, aber man kann sagen, sagen, machen wir den Menüpunkt 5 und
0:18:19–0:18:23
dann macht er den, oder das nicht musst du sagen, aber, aber,
0:18:23–0:18:24
aber, und jetzt der Menüpunkt.
0:18:24–0:18:28
So stelle ich es mir vor, ich habe das noch nie ausprobiert.
0:18:28–0:18:32
Dann der Beate sagt, ich habe eine kurze Frage hinsichtlich eines etwas älteren
0:18:32–0:18:35
Videos zum Thema Passwort Manager.
0:18:35–0:18:38
Der Beitrag stammt auch von 2019.
0:18:39–0:18:44
Ui, der hat wirklich, finde ich, erstaunt, dass manchmal meine uralten Videos noch geschaut werden.
0:18:45–0:18:48
Und eben, hier Hier stellen Sie zwei gängige Passwortmanager vor,
0:18:49–0:18:52
einerseits OnePassword, einerseits KeyPass.
0:18:52–0:18:56
Nun ist meine Frage, ob man beispielsweise von einem externen Gerät,
0:18:56–0:18:59
nicht mal unbedingt sein eigenes, zum Beispiel vom Geschäftsnotebook,
0:18:59–0:19:04
auf diese Passwörter in OnePassword via Web-Applikation zugreifen kann.
0:19:04–0:19:09
Werden diese über eine Cloud synchronisiert? Wenn ich recht verstanden habe,
0:19:09–0:19:14
haben Sie das Problem via Dropbox, Passdrop im letzten Fall gelöst.
0:19:14–0:19:20
Also, und das ist ja eigentlich naheliegend, einerseits wäre es vielleicht praktisch,
0:19:20–0:19:23
wenn man das könnte, über Cloud auf die Passwörter zugreifen,
0:19:23–0:19:27
andererseits möchte man es ja vielleicht vermeiden, weil dann auch über die
0:19:27–0:19:31
Cloud könnten die Passwörter gestohlen werden. Was sagst du, Beat?
0:19:32–0:19:38
Also es kommt darauf an. Wichtig ist, dass du bei Key Pass, One Password oder
0:19:38–0:19:42
wie diese Dinger heissen, hast du irgendein File, wo die Passwörter drin sind.
0:19:43–0:19:46
Da gehen wir jetzt mal davon aus, dass das sicher ist. Und in der Regel hast
0:19:46–0:19:53
du deine Key Phrase, wie heisst die, Pass Phrase? Pass Phrase, genau.
0:19:54–0:19:58
Statt einem Passwort einen ganzen Satz, der etwas länger wird.
0:19:59–0:20:04
Optimalerweise 30 Zeichen ist jetzt zum Beispiel bei uns im Geschäft ist halt
0:20:04–0:20:05
Dropbox ein No, No, No, No, No.
0:20:06–0:20:08
Also ist eigentlich gesperrt. Darf man nicht.
0:20:08–0:20:12
Aber wenn du das jetzt natürlich irgendwo auf eine eigene Cloud bringst,
0:20:12–0:20:15
das Keypass-File, geht das grundsätzlich schon.
0:20:16–0:20:19
Jetzt halt eben OnePassWord, den ich zwar nicht benutze, ja,
0:20:19–0:20:23
das kommt mit meiner eigenen Cloud, die du halt, ich sage jetzt pro Monat 4,
0:20:23–0:20:26
5, ich weiss gar nicht wie viel Euro abdruckst.
0:20:28–0:20:33
Genau, genau. Normalerweise ist die Cloud nicht mit dabei, sondern die kann
0:20:33–0:20:34
man sich selber einrichten.
0:20:35–0:20:39
Man kann Dropbox nehmen, OneDrive nehmen,
0:20:39–0:20:44
iCloud Drive brauche ich im Moment und dann hofft man tatsächlich,
0:20:44–0:20:50
dass erstens niemand in die iCloud einbricht und zweitens, wenn das passieren
0:20:50–0:20:53
würde, dass trotzdem die Datei sicher wäre und drittens,
0:20:53–0:21:00
dass man keinen Keylogger irgendwo drauf hat, wo jemand den Hauptschlüssel,
0:21:00–0:21:02
die Bass-Phrase, die du erwähnt hast,
0:21:02–0:21:04
abgreifen könnte. Ich hatte ja tatsächlich mal so einen Fall.
0:21:06–0:21:10
Wir haben nicht genau herausgefunden, wie der Hack passiert ist,
0:21:10–0:21:12
aber die Vermutung liegt auf der Hand,
0:21:12–0:21:18
dass irgendeine finstere Gestalt es tatsächlich geschafft hat,
0:21:18–0:21:22
einerseits in das OneDrive einzubrechen und andererseits über den Keylogger
0:21:22–0:21:24
an die Bass-Phrase zu kommen.
0:21:24–0:21:31
Und der musste dann in einer Heidebütze hunderte von Passwörtern manuell abändern.
0:21:31–0:21:33
Das ist wirklich keine Freude.
0:21:33–0:21:38
Aber standardmässig machen das die meisten dieser Dienste nicht.
0:21:39–0:21:42
Keypass gibt es nicht, da muss man es wirklich selber machen.
0:21:42–0:21:48
Bei OnePassword ist es tatsächlich so, da gibt es entweder die Standalone Apps,
0:21:49–0:21:54
wenn man dort die Lizenz hat, dann gibt es das nicht.
0:21:54–0:21:59
Wenn man aber ein Abo hat für Teams oder für Families, dann kann es tatsächlich
0:21:59–0:22:01
eine Online-Anmeldung geben.
0:22:01–0:22:09
Dann werden diese Daten bei One Password gehostet und sind dann dort über drei Computer zugänglich.
0:22:09–0:22:13
Das müsste aber explizit dann auch so angeboten werden.
0:22:14–0:22:18
Und wenn ich das so nutzen würde, dann würde ich aber wirklich auch auf diese
0:22:18–0:22:21
Zwei-Faktor-Authentifizierung bestehen.
0:22:22–0:22:26
Genau, und ich glaube, bei OnePassword, ich benutze es selber nicht,
0:22:26–0:22:30
kannst du sogar sagen, wenn du es mit der Familie hast, meine Frau darf mein
0:22:30–0:22:33
Facebook-Passwort haben, ich glaube, es geht so weit,
0:22:34–0:22:37
wenn ich mich zwei Wochen nicht melde, also hoffentlich nicht,
0:22:37–0:22:38
wenn es dir mal etwas gibt,
0:22:38–0:22:43
dann kommt das Passwort hin, es gibt dort wahrscheinlich auch noch die,
0:22:43–0:22:47
wie nennt man die, die Fido2-Tokens, also das kann praktisch sein,
0:22:48–0:22:49
dass du deinen Schlüssel anhängst.
0:22:50–0:22:54
Dann ist es aufgesperrt und ohne das kommst du halt nicht hin.
0:22:55–0:23:00
Wie gesagt, was ich auch immer sage bei Passwortmanagern, vielleicht fürs Onlinebanking
0:23:00–0:23:03
nicht gerade das richtige Passwort hinein tun, sondern einfach etwas,
0:23:03–0:23:06
wo zumindest du, das kannst du dich erinnern und vielleicht nicht,
0:23:07–0:23:08
wie heisst der Mädchen mit dem Namen meiner Mutter.
0:23:13–0:23:15
Ja, du nimmst zwei, drei Buchstaben Passwort und in der Regel,
0:23:16–0:23:19
wenn du es mal vergisst, kommst du vielleicht noch an, aber ich glaube eben
0:23:19–0:23:24
auch so Passwort-Benetzer wäre ein Thema für eine eigene Sendung.
0:23:24–0:23:29
Ich glaube, ich würde wirklich so einen Dienst, der das via Cloud zugänglich
0:23:29–0:23:34
macht, würde ich nur aus zwingenden Gründen nutzen und nicht einfach so mit
0:23:34–0:23:38
der Überlegung, dass es vielleicht irgendwann einmal noch praktisch sein könnte.
0:23:38–0:23:45
Dann doch lieber, dass einfach über den auf dem iPhone oder also auf dem Telefon drauf haben,
0:23:45–0:23:50
über eine eigene Cloud oder die wichtigsten Passwörter einfach nur,
0:23:50–0:23:53
dann vielleicht sogar manuell synchronisieren,
0:23:53–0:23:57
das geht ja auch immer noch, dass man die Passwortdatei manuell überschiebt
0:23:57–0:24:01
und dann in der Cloud wieder löscht, dann sind dort einfach nur die wichtigsten
0:24:01–0:24:04
drin und dann kannst du unterwegs und wirklich mal so ein Passwort brauchst.
0:24:05–0:24:06
Dann über das Handy zugreifen.
0:24:06–0:24:11
Das wäre schon deutlich sicherer und genau, also diese Sicherheitsfragen,
0:24:11–0:24:14
ich glaube, die gibt es auch so in den sozialen Medien,
0:24:14–0:24:19
gibt es dann ja auch immer so diese lustigen Memes, die dann irgendwie so probieren,
0:24:19–0:24:24
die Antworten auf solche Sicherheitsfragen abzugreifen, oder?
0:24:24–0:24:30
Das heisst dann wetten, dass deine Mutter nicht Amelie heisst und dann schreiben dann alle,
0:24:30–0:24:38
die sie Amelie heisst, das und dann kannst du probieren herauszufinden,
0:24:38–0:24:44
wo sich die Leute mit ihrem Passwort, wo sie dann vielleicht auch noch auf Facebook
0:24:44–0:24:48
so geschrieben haben, dass man dann benutzt hat,
0:24:48–0:24:51
dass man dann das Konto zurücksetzen kann.
0:24:51–0:24:55
Also ja, da wird vieles probiert und darum müssen wir einfach vorsichtig sein
0:24:55–0:24:58
Dines schreibt, und es geht wieder nochmal so ein bisschen um eine Cloud,
0:24:58–0:25:01
die hat mich schon mehrfach gefragt, ich bin gar nicht sicher ob wir sie schon
0:25:01–0:25:02
mal in der Sendung hatten,
0:25:03–0:25:07
dass sie eigentlich gerne eine private Cloud,
0:25:08–0:25:11
einrichten möchte, sie hat dann mit verschiedenen Methoden,
0:25:12–0:25:16
experimentiert, am Schluss so mit Infomaniac mit Nextcloud.
0:25:17–0:25:21
Und ist dann aber eigentlich glaube ich trotzdem kein Happy End gewesen weil
0:25:21–0:25:25
irgendwie hat es dann einen Fehler gegeben und sie ist nicht mehr daraus gekommen,
0:25:25–0:25:27
wo sie da mit dem Support zugekommen hat.
0:25:28–0:25:33
Das ist schon, Nextcloud DigiCruise ist super, aber so richtig Pflegelicht für
0:25:33–0:25:36
Leute, die sich jetzt nicht hauptberuflich damit beschäftigen,
0:25:36–0:25:37
ist sie schon nicht, oder?
0:25:37–0:25:42
Also was ich spannend finde, ich gehe das eben in die Familie und wenn du eben
0:25:42–0:25:45
das Nextcloud musst updaten, den Client,
0:25:45–0:25:50
ist er relativ aggressiv unter Windows und er will dann auch immer einen kompletten
0:25:50–0:25:55
Reboot und eben Dropbox und so, das aktualisiert sich einfach und du musst,
0:25:55–0:25:57
glaube ich, auch explizit sagen,
0:25:57–0:26:02
eben das Selective-Sync, das bedeutet, wenn du jetzt 3 Terabyte,
0:26:03–0:26:06
von deiner Weltreise überlatschst.
0:26:08–0:26:13
Ja, Viertel, weiß ich noch was, wenn du einmal 3 Monate um die Welt.
0:26:14–0:26:18
Ziehst, du musst Du musst mir dann explizit sagen, hey, du kannst irgendwo sagen,
0:26:18–0:26:22
dass er genug Platzhalter herunterlässt, aber auch ich musste dann irgendwie
0:26:22–0:26:25
lange suchen, dass ich das gefunden habe.
0:26:25–0:26:30
Genau, und ich hatte auch so meine Mühe, als ich das dann mal aktualisiert habe,
0:26:30–0:26:34
ist es mir dann auch mal gestorben. Also das ist wirklich ein bisschen schwierig.
0:26:35–0:26:38
Ich glaube, eine private Cloud,
0:26:38–0:26:41
da hätten diese Dienstleister immer noch ein riesiges Potenzial,
0:26:41–0:26:44
das noch ein bisschen komfortabler zu machen für die Leute,
0:26:45–0:26:49
die das gerne hätten und auch wären bereit dafür zu zahlen, weil sie nicht zu
0:26:49–0:26:53
Microsoft oder zu Dropbox oder zu Google oder so.
0:26:53–0:26:59
Aber es ist immer noch entweder der praktische Weg,
0:27:00–0:27:06
unkompliziert, irgend zu einem grossen Dienstleister oder dann halt der etwas
0:27:06–0:27:10
dornigere Weg, wo du es selber betreiben musst und selber dafür verantwortlich bist.
0:27:10–0:27:13
Und sie hat jetzt eben, weil sie die Schnauze voll hat, hat sie noch die Idee
0:27:13–0:27:17
gehabt, sie könnte es sich ja einfach machen und eine externe Festplatte nehmen
0:27:17–0:27:22
und dann will sie die die aber dann trotzdem Passworte schützen für den Fall,
0:27:22–0:27:24
dass sie sie mal verliert irgendwo.
0:27:24–0:27:30
Und dann hat sie jetzt dummerweise, jetzt kommen wir zu der unangenehmen Stelle
0:27:30–0:27:33
in dieser Frage, sie braucht die Festplatte mit,
0:27:33–0:27:39
Mac und Windows. Ich hätte jetzt eben zuerst, als ich externe Festplatten gelesen
0:27:39–0:27:42
habe, gesagt, ja, Bitlocker unter Windows. Genau.
0:27:43–0:27:46
Aber ja, und TrueCrypt gibt es ja auch nicht mehr, aber ich glaube,
0:27:46–0:27:48
der Nachfolger nennt sich Veracrypt.
0:27:48–0:27:52
Das ist auch so eine Open-Source-Lösung, wo es eigentlich für Mac,
0:27:52–0:27:54
Windows, Linux, whatever gibt. Genau.
0:27:54–0:27:57
Da würdest du einfach so einen sogenannten Container machen.
0:27:57–0:28:01
Man kann übrigens auch wenn mal er es macht, macht sie es jetzt nicht,
0:28:01–0:28:04
aber wenn jetzt halt mal irgendwie wie die Schmier kommt,
0:28:04–0:28:09
hast du zwei Passwörter und du hast zwei Container, also du hast irgendwie ein Passwort, wo du halt.
0:28:10–0:28:15
Also nein, nochmal, Ines, ich unterstelle dir nichts, aber es könnte ja Hörer
0:28:15–0:28:20
geben, das interessiert, dass dann halt je nachdem zwei Container aufgehen.
0:28:20–0:28:24
Genau, man kann das beliebig verschachteln, so Matroschka-mässig,
0:28:24–0:28:26
dass du immer tiefer gehst.
0:28:26–0:28:30
Ich muss jetzt sagen, ich habe Vera Crypt schon lange nicht mehr probiert,
0:28:30–0:28:33
also ich habe auch schon mal irgendwie externe Medien, die ich halt unter Windows,
0:28:34–0:28:36
mit Bitlocker verschlüsselt habe.
0:28:36–0:28:39
Ich nehme an, das ist, kann man auch sagen, ist sicher, ja.
0:28:40–0:28:44
Ich hoffe es. Ich habe auch meine externe Windows-Festplatte,
0:28:44–0:28:48
da brauche ich das Bitlocker, das ist bei Windows dabei.
0:28:48–0:28:53
Es ist eben ein bisschen dumm, dass man zum Verschlüsseln braucht das Windows
0:28:53–0:28:54
Pro Professional Version,
0:28:55–0:28:59
aber wenn ihr einen kennt, der das hat, dann könnt ihr die Festplatte einrichten,
0:28:59–0:29:03
verschlüsselt und nachher könnt ihr sie auch brauchen an eurem Windows ohne,
0:29:04–0:29:07
ohne, mit dem normalen, mit dem Windows Home. Das ist noch das Praktische dran.
0:29:08–0:29:12
Oder eben das VeraCrypt, das ist Open Source, das ist kostenlos.
0:29:12–0:29:16
Das unter Vera, also Webfrau, und dann Crypt, die.
0:29:19–0:29:23
Katholiken müssten das wissen, wenn die Gruft dort heisst.
0:29:24–0:29:29
.fr, das ist ein französisches Ding. Und das würde ich auch zuerst ausprobieren.
0:29:29–0:29:34
Dann gibt es noch etwas Zweitens gibt es den BitLocker für Mac,
0:29:34–0:29:39
einen Treiber, der es erlaubt, dass man auf den Mac auf die Laufwerke zugreifen
0:29:39–0:29:43
kann, die man mit Microsoft, BitLocker und Windows verschlüsselt hat.
0:29:43–0:29:48
Die heisst iBoysoft.com, dort gibt es den BitLocker für Mac.
0:29:48–0:29:53
Ist aber für mich jetzt eher schwierig.
0:29:53–0:29:57
Ich würde aufpassen, weil tatsächlich wenn mal irgendwas passiert,
0:29:57–0:30:01
ich kann auch sagen, ich habe es auch mal geschafft zum Glück auf einem Test Laptop,
0:30:02–0:30:06
Da ist auch Windows 10 gelaufen, da hatte ich auch den BitLocker drauf und ich
0:30:06–0:30:09
habe mal aus Dummheit den Secure Boot abgestellt.
0:30:09–0:30:13
Und Achtung, was dann passiert, dann rührt der BitLocker die Schlüssel weg.
0:30:13–0:30:17
Dann musst du deinen Recovery Schlüssel eingeben.
0:30:17–0:30:21
Den, den du einmal ausgedruckt hast vielleicht. Den, den du ausgedruckt hast, ja.
0:30:21–0:30:27
Ja, also, einfach würde ich jetzt aufpassen und einfach ja, ich kenne die Hersteller
0:30:27–0:30:31
nicht, aber halt, es kann ja sein, dass Microsoft das unterstützt,
0:30:31–0:30:33
aber irgendwann sagen sie halt, wenn Minus 12 kommt, nee, nee,
0:30:33–0:30:35
nee, nee, das wollen wir nicht mehr.
0:30:35–0:30:39
Und eben im blödsten Fall rührt der Schlüssel weg und du kommst nicht mehr hin.
0:30:39–0:30:44
Und ja, deine Bitlockerplatte kann dir vielleicht den NSC aufmachen,
0:30:44–0:30:50
aber ich glaube jetzt nicht, dass dir der NSC als Privater das überhaupt überhaupt machen würde.
0:30:50–0:30:52
Das wäre mal ein lustiges Projekt, wenn du sagst.
0:30:53–0:30:58
Wahrscheinlich müsstest du so etwas haben, das im nationalen Interesse wäre,
0:30:58–0:31:01
aber ob sie es dann probieren würden, das würde mich noch wundern.
0:31:01–0:31:05
Also genau, das stimmt. Wir sagen ja sowieso immer,
0:31:06–0:31:11
Sachen nie nur auf einem externen Laufwerk haben, weil das externe Laufwerk
0:31:11–0:31:16
kann einfach runterfallen und dann ist es egal, wenn die Verschlüsselung noch funktionieren würde.
0:31:16–0:31:21
Wenn die Hardware kaputt ist oder eben so Sticks, die kann man auch natürlich,
0:31:21–0:31:24
USB-Sticks, die kann man auch so verschlüsseln auf die Art und Weise,
0:31:24–0:31:30
ist praktisch aber wenn man sie verliert und dann seine Diplomarbeit oder seine
0:31:30–0:31:34
Doktorarbeit nur auf dem, oder seinen Romanentwurf oder so,
0:31:34–0:31:40
wo nur noch der letzte Satz vom letzten Kapitel gefehlt hat wenn man dann das
0:31:40–0:31:43
verloren hat, dann ist einfach Mist, oder?
0:31:43–0:31:47
Und darum um irgendeine Synchronisierung einrichten zu können,
0:31:47–0:31:51
die dann die Dateien hin und her schiebt, damit man sie auch noch lokal hat.
0:31:52–0:31:56
Und eben auch der Klassiker, es gibt ja dieses Ding, wenn ihr jetzt so eine
0:31:56–0:32:02
Backup-Platte habt, irgendwie Eltern, Schwiegereltern, Freundinnen und so, ja, jetzt.
0:32:03–0:32:06
Es ist wahrscheinlich schon genug tragisch, wenn die Wohnung abbrennt,
0:32:06–0:32:10
aber wenn es tatsächlich vielleicht noch deine Diplomarbeit auch noch drauf
0:32:10–0:32:13
ist, wo du drei Jahre daran geschafft hast, ist es noch blöder.
0:32:13–0:32:15
Also ich glaube, das müsste man auch mal eine Sendung machen,
0:32:15–0:32:18
wirklich so mit Backup und eben Offsite und wo.
0:32:19–0:32:22
Und ja, wie gesagt, es muss ja nicht gerade das Bankschleusfach sein,
0:32:22–0:32:25
aber jetzt vielleicht bei den Eltern, bei den Schwestern irgendwo sagen,
0:32:25–0:32:29
du, schau dir das irgendwie an einen sicheren Ort, vielleicht nicht gerade in
0:32:29–0:32:30
den Kühlschrank hinein oder so.
0:32:31–0:32:35
Das habe ich schon mal gehört, dass jemand das Backup im Kühlschrank aufbewahrt hat.
0:32:36–0:32:40
Hat es nicht mal geheiss, dass USB-Sticks länger im Kühlschrank sind?
0:32:41–0:32:45
Irgend so was. Also bei den CDs hat es auf jeden Fall, erinnere ich mich,
0:32:45–0:32:47
dass Leute das bei den CDs auch gerne gemacht haben.
0:32:48–0:32:51
Aber ich glaube es nicht, dass man so weit gehen muss.
0:32:52–0:32:57
Lieber an verschiedenen Orten und dann ist man da sicher.
0:32:57–0:33:03
Ich glaube, so empfehlen wir das. und Kummerbox live kommt dann wieder am Ende des Monats.
0:33:03–0:33:10
Wir sind ja heute eine Woche zu spät dran und wie immer eure Fragen auf nerdfunk.stadtfilter.ch
0:33:10–0:33:12
und jetzt einen schönen Abend. Gute Nacht miteinander.
0:33:14–0:33:27
Music.

Eine seltsame Nummer hat Nick mit seiner Hausbank erlebt: Die schickt ihm Mails, in denen er zu dubiosen Handlungen aufgefordert wird. Die Bank behauptet aber, es sei bloss ein Phishing-Mail. Hat sie etwas zu verbergen?

Seltsame Nummern im wörtlichen Sinn hat Werner auf seinem Bildschirm: In den Menüs seines Macs erscheinen nämlich plötzlich Zahlen, die er dort nicht haben will. Wie wird er sie wieder los?

In der heutigen Folge von Kummerbox Live gibt es für uns noch weitere Mysterien zu knacken: Können Passwörter auch aus der Cloud geklaut werden, wenn wir einen Passwort-Manager verwenden? Und kann Ines, die endgültig die Schnau… Pardon, die Nase voll von der Cloud hat, eine Festplatte so verschlüsseln, dass sie sich mit Windows und Mac verwenden lässt? Und falls noch Zeit ist, geht es um die einfachste Methode, Windows zu reparieren.
„Mehrere seltsame Nummern“ weiterlesen

Redaktionssitzung, heute live on air

Transkript anzeigen (falls vorhanden)

0:00:03–0:00:09
The Cure mit Wrong Number und wir finden gerade raus, ob wir die richtige oder
0:00:09–0:00:10
die falsche Nummer haben.
0:00:11–0:00:18
Wir vom Nerdfunk. Wir sind BadBait und ihr hört Radio Stadtfilter auf 96,3 Megahertz.
0:00:19–0:00:27
Yeah, also da sind wir wieder mal, alle drei live, richtig, in Farbe und in
0:00:27–0:00:30
Stereo im Studio. neben mir Kevin Rechsteiner. Guten Tag.
0:00:31–0:00:36
Ohne Hühner. Ohne Hühner, ich habe es mitgenommen. Das ist ein bisschen komisch,
0:00:36–0:00:37
aber wir probieren es trotzdem.
0:00:37–0:00:41
Und Digi-Chris ist auch da. Hallo, ohne SRB ist es nicht. Halt. Halt.
0:00:42–0:00:44
Ich habe es falsch. Nein, aber hä?
0:00:45–0:00:52
Aha, schau mal, siehst du. Nach 699 Mal kann ich es immer noch nicht.
0:00:53–0:01:01
Probieren wir es nochmal. Jetzt ist es Also, genau, wir machen kein Geplänkel, oder?
0:01:01–0:01:04
Wir haben nachher unsere grosse Jubiläums-Sauce.
0:01:05–0:01:10
Kann man das so sagen? Das kann man so sagen. Wir sind seit mehr als 15 Jahren
0:01:10–0:01:13
hier und wir sind jetzt zum 700.
0:01:13–0:01:16
Mal hier und wir feiern uns nachher ein bisschen selber.
0:01:17–0:01:22
Nein, wir machen quasi eine Pre-Show auf voller Länge.
0:01:22–0:01:28
Kann man das so sagen? Ich kann mal so sagen, weil ich habe ja zu dieser Jubiläumssendung,
0:01:28–0:01:32
ich sage Stammhörer, die ich weiss, dass sie den Podcast hören,
0:01:33–0:01:37
also es gibt mehr als zwei Leute, die die Radiosendung hören, gefragt,
0:01:37–0:01:41
was findet ihr eigentlich cool und wirklich immer, ja die Pre-Show,
0:01:41–0:01:45
das finden sie so cool und so, das ist einfach unisono cool.
0:01:45–0:01:51
Also dann probieren wir es mal, das mal nur Pre-Show und nichts Ernsthaftes.
0:01:51–0:01:56
Nein, wir wollen ein wenig darüber reden, ob das eigentlich eine Zukunft hat,
0:01:56–0:01:58
was wir hier machen, auch und was wir gut finden.
0:01:58–0:02:03
Und ihr könntet schon mal, ihr könntet euch bereit machen, wenn ihr euch in
0:02:03–0:02:05
diese Sendung einschalten wollt.
0:02:05–0:02:09
Ich mache extra mal das Gästebuch auf, falls ihr es dann findet.
0:02:10–0:02:14
Muss man das aufmachen? Also ich mache es auf, dass ich es sehen würde,
0:02:14–0:02:16
wenn jemand etwas sehen würde.
0:02:16–0:02:19
Das URL ist geocities.com.
0:02:20–0:02:26
Ich hatte tatsächlich mal eine GeoCity-Seite. Ich auch.
0:02:26–0:02:31
Ah, du auch? Und die hat geblinkt und gemacht und da wahrscheinlich 99% des
0:02:31–0:02:32
Contents war mir geklaut.
0:02:33–0:02:36
Also, aha, sicher. Das gehört jetzt, juhu.
0:02:37–0:02:43
Und wem gehört Yahoo? Yahoo ist auch mal gekauft worden, aber das ist ja schon schwierig.
0:02:43–0:02:46
Wie heisst, nicht Techcrunch, oder ist es umgekehrt gewesen?
0:02:48–0:02:51
Sie haben jetzt auf jeden Fall eine Mutter, die so einen komischen Namen hat,
0:02:51–0:02:55
den ich jetzt aber nicht mehr weiss. Alt-Baba. Ah ja, genau. Alt-Baba.
0:02:58–0:03:02
Aber Frau Meier ist glaube ich nicht mehr, oder? Marissa Meier ist glaube ich nicht mehr.
0:03:03–0:03:06
Wer ist das? Das war mal der CEO von Yahoo.
0:03:07–0:03:12
Frau Meier? Ja. Und die war, glaube ich, nicht mal bei Google vorher oder so?
0:03:12–0:03:17
Soll ich mal perplexity fragen? Wer ist Frau Meier bei Yahoo?
0:03:17–0:03:21
Ah, du hast perplexity dabei. Sehr gut. Das ist nicht wie früher,
0:03:22–0:03:25
wo wir selber googlen mussten, wenn wir etwas nicht gewusst haben.
0:03:26–0:03:30
Ich sehe aber, dass es das Gästebuch nicht mehr gibt. Ich sehe es nicht mehr.
0:03:31–0:03:35
Ich sehe es jetzt auf Sendung. Mal das Gästebuch gibt es noch.
0:03:36–0:03:38
Aber wieso sehe ich es dann nicht?
0:03:38–0:03:42
Vielleicht heisst es anders. Es heisst jetzt Gästinnenbuch.
0:03:44–0:03:48
Das ist, wenn du eingeloggt bist. Ah, da auch ganz unten. Wieso ist das jetzt
0:03:48–0:03:51
ganz unten? Dass man auf jeder Seite drauf kommt. Okay.
0:03:52–0:03:55
Wir müssen vielleicht mal eine Sendung über Webdesign machen.
0:03:56–0:04:01
Also, wenn ihr wettet, uns einen Gruß zu kommen, zu unserem Nerdfunk,
0:04:01–0:04:04
zu unserer 700. Ausgabe.
0:04:05–0:04:10
Wenn ihr Kritik üben wollt oder Lob äussern oder einfach uns aufmuntern oder
0:04:10–0:04:16
uns aufmuntern zum Aufhören oder Kritik nicht. Kritik?
0:04:16–0:04:21
Kritik nicht. Du willst keine Kritik? Nein. Wieso? Nein. Okay.
0:04:22–0:04:25
Weisst du nach dem Motto wenn es dir nicht passt, dann geh doch nach Hause.
0:04:26–0:04:31
Nein, einfach heute nicht. Heute keine Kritik. Heute nur Lob und Ruhm und Ehre.
0:04:31–0:04:35
Aha, okay, du hast ja unser Sendungsdokument noch nicht gesehen.
0:04:39–0:04:44
Ich gebe jetzt zu, dass ich tatsächlich das Gefühl hatte, wir könnten uns einfach feiern einmal.
0:04:45–0:04:48
Ich habe ja vorher zum Kino gesehen. Genau, wir sind so extrovertierte Typen.
0:04:49–0:04:54
Dass ich mindestens 700 Mal die Steilsteige darauf gelaufen bin.
0:04:54–0:04:57
In welchem Stock sind wir? Im vierten? Im dritten.
0:04:58–0:05:00
Siehst du, wie lange sind wir da?
0:05:02–0:05:07
Das hat so einen unteren Stock, der wie ein Stock ist, aber der ist unterirdisch.
0:05:08–0:05:11
Man würde dem Keller sagen, aber es ist wie nicht ein Keller,
0:05:11–0:05:15
weil es so einen offenen Eingang hat, um runterzuschauen. Darum haben wir das
0:05:15–0:05:16
Gefühl, es ist vielleicht ein Stock.
0:05:18–0:05:21
Drei. Dann tun wir das auf dreieinhalb einigen. Genau.
0:05:21–0:05:25
Also ihr werdet dann auch sehen, dass es, wie soll ich sagen,
0:05:25–0:05:31
auch mit der Zählung von diesen 700 Ausgaben so gewisse Unstimmigkeiten gibt.
0:05:31–0:05:36
Aber das dann erst in der Hauptsendung. Und ja, also eben, wir wollen einfach,
0:05:37–0:05:40
wir wollen wissen, ich möchte schon wissen, ob das Publikum noch Lust hat,
0:05:40–0:05:45
uns weiterhin zuzulassen oder ob sie finden, hey, jüngere Generation, wie wäre es?
0:05:46–0:05:51
Man muss auch loslassen. Aber das ist vielleicht vorgegriffen.
0:05:51–0:05:55
Also schnell, wenn jetzt jemand jünger ist, kann es so vielleicht auch da.
0:05:56–0:06:02
Wie der Hochschule, wo ich da zwintertouransässig bin, irgendein Journalismus
0:06:02–0:06:08
studiert und mal will bei uns irgendwie ein Praktikum machen, mal irgendwas sagen.
0:06:08–0:06:11
Also gerne. Oder einfach zu einem Journalismus-Thema etwas sagen.
0:06:12–0:06:17
Ich glaube dann, Matthias, mich, Kevin, bist du nicht mehr auf X-Twitter?
0:06:17–0:06:24
Gar nicht aber das Zahlspraktikum würden wir anbieten also ihr zahlt,
0:06:24–0:06:29
ich zahle, dass ich sicher eine Sendung denke wir sind käuflich und dann gibt
0:06:29–0:06:34
es ein Bier vom Drinks of the World oh ja, was hast du mal für ein Drink nein,
0:06:35–0:06:39
was hast du für ein Drink gehabt so ein Lollipop so etwas lustiges das ist glaube
0:06:39–0:06:47
ich so ein Chuba Chups hast zwar keinen Alkohol aber hast einfach eine Zuckervergiftung.
0:06:48–0:06:49
Und bist nachher aggressiv.
0:06:49–0:07:04
Music.
0:07:05–0:07:09
Haben wir jetzt hier deinen Vater gehört, Diggi Chris? Das war mein Vater an den Drums.
0:07:09–0:07:14
Und ich zähle jetzt nicht alle auf. Andi Reinhardt, ein ureingesessener Wintertourer am Bass.
0:07:15–0:07:20
Ja, Bauchnuschtestompers mit Happy Birthdays sind noch etwas länger unterwegs als wir.
0:07:21–0:07:24
Und ja, es ist heute... Okay, wir haben zwar nicht Geburtstag,
0:07:24–0:07:26
aber es war jetzt trotzdem erlaubt.
0:07:26–0:07:29
Es ist heute, glaube ich, die 700. Folge. Plus Minus.
0:07:30–0:07:44
Music.
0:07:35–0:07:40
Herzlich willkommen zum Nerdfunk.
0:08:04–0:08:09
Das machen würden. Wir würden dann als hoffnungslose Zech-Dinosaurier enden,
0:08:09–0:08:11
so als aussterbende Gattin im Zoo.
0:08:11–0:08:16
Vielleicht dürfen wir dann mal aus dem Zoo aus dem Käfig raus.
0:08:16–0:08:20
Das fände ich auf eine Art noch angenehmer, lebensabig.
0:08:20–0:08:24
Also, aber wir sind noch jung. Da ist einer, der jung ist, der Kevin Rechsteiner,
0:08:24–0:08:26
meine Damen und Herren. Der ist auch nicht mehr jung.
0:08:26–0:08:29
Das ist schon lange vorbei mit jung. Das ist schon lange vorbei.
0:08:30–0:08:35
Und Digi Chris ist da im Studio. Das Küken in dieser Runde. Eigentlich schon,
0:08:35–0:08:39
und nicht da sind der Mege, der hat sich entschuldigt, und der Melzi,
0:08:39–0:08:42
den habe ich glaube ich vergessen einzuschalten, hätte man eigentlich machen
0:08:42–0:08:45
können, aber ich muss sagen, wir haben das,
0:08:46–0:08:52
Kevin hat ja schon im Herbst des letzten Jahres gesagt, das Jubiläum kommt auf uns zu.
0:08:53–0:08:55
Da haben wir uns gedacht, das geht noch lange.
0:08:56–0:08:59
Digi-Chris hatte eine super Idee, was wir alles machen könnten.
0:09:00–0:09:02
Und dann hat es niemand geplant.
0:09:02–0:09:07
Und jetzt sind wir hier und haben eigentlich mit leeren Händen stehen wir hier.
0:09:07–0:09:10
Aber wir arbeiten jetzt mit Hochdruck am Jubiläum der 800.
0:09:10–0:09:15
Sendung. Genau, ich habe ja auch gesagt, wir möchten eigentlich mal eine Redaktionssitzung
0:09:15–0:09:17
machen, quasi live on air.
0:09:18–0:09:21
Müsste man das eigentlich, vielleicht müsste man das sogar. Vielleicht müsste
0:09:21–0:09:23
man mal eine... Habe ich mal ein Statut gelassen am Stadtfeld.
0:09:24–0:09:27
Aha, dass man eine Sitzung machen muss, nein. Vielleicht.
0:09:29–0:09:34
Also ich glaube, es gibt gewisse Vorschriften, dass man sich um Ernsthaftigkeit
0:09:34–0:09:36
bemühen müsste in diesen Magazinsendungen.
0:09:36–0:09:39
Aber das machen wir ja auch. Also, nicht.
0:09:41–0:09:45
Also ich sage es nochmal, wenn ihr wollt, könnt ihr euch schreiben über das
0:09:45–0:09:48
Gästebuch bei stadtfilter.ch.
0:09:48–0:09:50
Ich habe es offen, es hat noch niemand geschrieben bis jetzt.
0:09:51–0:09:54
Ich bin ein bisschen enttäuscht, aber gut, ist egal.
0:09:54–0:09:59
Vielleicht ist es besser, wenn ihr nicht schreibt. Vielleicht würdet ihr nur böse Sachen schreiben.
0:09:59–0:10:06
Und ja, genau, wir machen ja sonst nie eine Redaktionssitzung,
0:10:06–0:10:09
aber vielleicht hätte Kevin recht, vielleicht müssten wir das eigentlich.
0:10:09–0:10:16
Aber Diggi Chris, du wolltest eigentlich auch ein wenig in das Lobeshorn eintreten, oder?
0:10:17–0:10:21
Du wolltest sagen, was wir eigentlich gut gemacht haben in diesen 15 Jahren,
0:10:21–0:10:22
in diesen 700 Sendungen.
0:10:22–0:10:25
Also ich bin ja noch so lange dabei, aber ich habe einfach auch mal ein wenig
0:10:25–0:10:28
Leute gefragt, die mir auch auf Twitter.
0:10:29–0:10:34
Was eben so Feedback gibt, was findet ihr gut und es eben unisono ist eigentlich
0:10:34–0:10:37
auch Pre-Show, also was finden Sie?
0:10:38–0:10:40
Das finden Sie echt genial, die können noch viel länger sein,
0:10:40–0:10:42
das finden Sie so lustig.
0:10:43–0:10:46
Ich tue jetzt einfach mal schnell das Positive. Okay, fangen wir mit dem Positiven
0:10:46–0:10:48
an. Zum anderen können wir dann schon.
0:10:48–0:10:54
Dann eben Themenauswahl, es sei doch tatsächlich ausgewogen und halt teilweise
0:10:54–0:11:00
höre ich auch Vision Pro oder so,
0:11:00–0:11:04
vielleicht ein bisschen zu ins Detail geht, ja dann hängt es halt ab.
0:11:05–0:11:06
Ich habe tatsächlich von jemandem,
0:11:07–0:11:10
das ist ein Kompliment, was hat der Matthias eigentlich studiert?
0:11:11–0:11:15
Komm an, weil es ist doch kein Informatiker, der ist so breit abgestützt.
0:11:16–0:11:19
Ja, also ich bin nicht mehr ganz sicher, was hast du studiert?
0:11:19–0:11:20
Soll ich das sagen jetzt?
0:11:20–0:11:24
Ich habe eigentlich, also ich muss sagen, ich bin ein stolzer Studienabbrecher,
0:11:24–0:11:27
weil es ist nicht so, es ist dann nicht so produktiv gewesen,
0:11:27–0:11:32
mein Studium an der Uni Zürich. Aber ich habe also Germanistik studiert.
0:11:33–0:11:39
Es wäre eine Steilvorlage für Legendenbildung gewesen. Du hättest jetzt Medizin
0:11:39–0:11:43
und Psychologie und Astrophysik.
0:11:43–0:11:51
Ich habe tatsächlich in meiner Familie Leute, die Astrophysik studiert haben. Das wäre es gewesen.
0:11:51–0:11:58
Astrophysik und Medizin. Parallel. parallel. Nein, dann wie wäre ich da geändert?
0:11:58–0:12:02
Das wäre irgendwie... Dann hätte man noch müssen, nebst dieser Legende hätte
0:12:02–0:12:06
man müssen sagen, wo ist der Punkt gekommen, dass ich jetzt nicht...
0:12:07–0:12:12
Der erste Astrophysiker bin, der auch medizinische Praxis hat.
0:12:12–0:12:16
Es war dir alles ein bisschen zu einfach, darum hast du den Bettel angekriegt.
0:12:16–0:12:21
Weil die Leute sind alle dumm. Die haben nicht verstanden, was du ihnen sagen
0:12:21–0:12:23
willst. Das wäre die Legende.
0:12:25–0:12:31
Ich glaube, wenn wir vielleicht jetzt gerade mit der Kritik einsteigen könnten,
0:12:31–0:12:34
müsste man vielleicht sagen, ein Kritikpunkt, den wir schon haben könnten,
0:12:34–0:12:38
ist, dass wir unsere Sendung und unseren Podcast null promotet,
0:12:38–0:12:40
oder? Wir machen eigentlich null.
0:12:41–0:12:48
Wir sagen weder vor der Sendung bitte uns... Wie sagen sie das?
0:12:48–0:12:53
In jedem Podcast sagen sie es. Auf eurer Podcast-Plattform, die ihr gerne habt,
0:12:53–0:12:58
lasst uns bitte fünf Sternchen hinterlassen und eine schöne Besprechung schreiben. Abonnieren.
0:12:59–0:13:02
Auf YouTube muss man das Glöckchen drücken.
0:13:04–0:13:08
Das kannst du auf das Body Auf Spotify, wo wir auch sind, kann man uns auch
0:13:08–0:13:10
abonnieren. Kann man Glückli drücken? Ich glaube es schon.
0:13:10–0:13:14
Hat Spotify Glückli? Mich dunkt es. Also das machen wir irgendwie nicht.
0:13:15–0:13:20
Und wir schauen auch wirklich nicht, dass unser Podcast mehr Einschaltquoten bekommt.
0:13:21–0:13:26
Wir promoten selten in den sozialen Medien.
0:13:27–0:13:31
Und ja, dann hast du halt nicht so das Wachstum, oder?
0:13:31–0:13:38
Digi-Chris, müssten wir das machen? Sind wir irgendwie so wegen Bescheidenheit und so sind wir da?
0:13:39–0:13:41
Schaut irgendwer unsere Zahlen überhaupt an?
0:13:42–0:13:48
Ich schaue sie an und finde, sie hat schon ein gewisses Potenzial zum nachlösen.
0:13:48–0:13:50
Ich habe das schon hundert Jahre nicht mehr angeschaut.
0:13:51–0:13:56
Ich glaube, ich habe das mit Twitter so gesehen, wenn ich jetzt wahrscheinlich
0:13:56–0:13:59
einfach würde sagen, jetzt haben wir eine Folge, wo man einfach die ganze Folge
0:13:59–0:14:00
über die Weltwoche hört.
0:14:00–0:14:06
Ich glaube, wir haben 20'000 Zuhörer, gut 19'000. Nein, das merkt doch niemand.
0:14:06–0:14:09
Ich glaube auch nicht, dass das jemand möchte. Das ist ja der Vorteil,
0:14:09–0:14:11
den wir haben. Nein, nein, ich habe es schon gesehen, also wenn ich jetzt auf
0:14:11–0:14:18
Twitter schreibe und oder X, ich habe das eben gehabt, also wenn ich das Blatt negativ.
0:14:20–0:14:24
Kommentiere, also jetzt ohne, ob ihr mir da in dieser Sendung darüber redet,
0:14:24–0:14:29
hey, da habe ich 100, 200 Replies gehabt, wahrscheinlich 150 Bots,
0:14:29–0:14:33
aber hey, auch wenn alles botslos ist, Aber kannst du das nicht einfach so für jede Sendung machen?
0:14:34–0:14:36
Weil dann müssen sie dich ganz durchlassen, um zu schauen, was vorkommt.
0:14:37–0:14:42
Irgendwo in der Sendung werden wir über unsere Köppelherzen find out how.
0:14:43–0:14:45
Genau. Das wäre schon mal was.
0:14:47–0:14:50
Aber es stimmt, wir machen schon zu wenig. Wir machen wahrscheinlich zu wenig.
0:14:50–0:14:55
Jetzt wollte ich noch Zahlen vorlesen und jetzt hat mich mein Computer ausgeloggt
0:14:55–0:14:59
und gesagt, willkommen zurück, Matthias, schliessen Sie den Sperrbildschirm,
0:14:59–0:15:03
um sich wieder bei Windows anzumelden. Was ist denn das für ein Scheiss?
0:15:03–0:15:06
Das habe ich jetzt also noch nie... Was ist schliessen Sie den Sperrbildschirm?
0:15:07–0:15:09
Und ich kann machen, was ich glaube, Ich glaube, jetzt ist er wahrscheinlich
0:15:09–0:15:10
gerade abgestürzt, dieser Computer.
0:15:11–0:15:15
Also, ich wollte sagen, dass ich es vielleicht aus dem Gedächtnis rezitieren kann.
0:15:16–0:15:20
Weil wir haben, es ist ja, mit diesen 700 ist schon einmal die Frage,
0:15:20–0:15:22
ob es überhaupt wirklich 700 Folgen sind.
0:15:22–0:15:25
Da sind wir uns schon nicht ganz einig gewesen. Ich habe dann nachgezählt.
0:15:27–0:15:31
Wir haben eigentlich, ich habe gar keine, nicht 700 Dateien gefunden,
0:15:31–0:15:35
aber ich glaube, es rührt da daher und es ist vielleicht nicht ganz bescheissen,
0:15:35–0:15:41
dass wir früher ab und zu so Doppelsendungen gemacht haben und Trippelsendungen,
0:15:42–0:15:49
wo wir dann im Podcast haben wir sie auf einen Schnall rausgehauen und im Radio
0:15:49–0:15:54
haben wir es dann gespielt in mehreren Teilen und dann ist es wahrscheinlich trotzdem.
0:15:55–0:15:57
Aber wie gesagt, ihr könnt eigentlich
0:15:57–0:16:01
alle Folgen hören, ausser die eine einzige, die wir verloren haben.
0:16:01–0:16:03
Nämlich das Digital 191.
0:16:03–0:16:08
Da hast du, Kevin, über Crowdfunding geredet. Und die gibt es nicht mehr.
0:16:09–0:16:10
Die verschollene ist eigentlich... Das ist die einzige?
0:16:11–0:16:13
Schau mal, jetzt hat sich mehrere
0:16:13–0:16:17
Sachen, die sich da überlagern auf dem Bildschirm. Es wird immer besser.
0:16:17–0:16:25
Das ist so nicht so. Ich hasse das Windows. Aber genau, wir wollten eine ernsthafte Sendung machen.
0:16:25–0:16:30
Das, äh, ja, das ist... Weil es ist die meiste gelost. Aha.
0:16:31–0:16:36
Ja, ich würde sagen, es ist wirklich einfach, sie haben alle etwa ähnlich viel
0:16:36–0:16:37
Einschaltquote. Gar nicht.
0:16:38–0:16:43
Gar nicht? Okay. Gar nicht. Du bist bei den Zahlen, also erzähl doch ein bisschen von den Zahlen.
0:16:43–0:16:50
Also, am 2. Juni 2020 gab es eine Sendung, die heisst «Hypochonder geh weg».
0:16:51–0:16:57
Tatsächlich? 4'300 Plays. Sicher, das ist ja wahnsinnig für unsere Verhältnisse.
0:16:58–0:17:00
Ich weiss nicht mehr, worum das
0:17:00–0:17:05
ging. Ich auch nicht. Haben wir einen Gast gehabt? Das könnte was sein.
0:17:06–0:17:11
Ich kann es nicht sagen. Ich glaube du hattest doch mal irgendeine Bloggerin
0:17:11–0:17:13
in Kaffee Freitag und das ist schnell aus.
0:17:14–0:17:17
Aber das ist doch nicht «Hypochonder», das wäre ja lustiger im Titel.
0:17:18–0:17:24
Aber 2020, das wäre schon vielleicht so ein bisschen in dieser Corona-Periode gewesen. Oh Corona.
0:17:24–0:17:28
Darum wissen wir es wahrscheinlich nicht mehr. Oh Corona. Weil wir es alles
0:17:28–0:17:30
verdrängt haben. Es war «Cumberbox Live»-Folge.
0:17:31–0:17:34
Echt? Wir diskutieren über die SwissCovid-App.
0:17:36–0:17:39
Das ist wahrscheinlich hat ist
0:17:39–0:17:43
das was du gesagt hast vorher die christus hat welt und
0:17:43–0:17:46
dann gefunden die system
0:17:46–0:17:54
schwein die losen wir jetzt bis nach leiden und wir haben es nicht gemerkt wenn
0:17:54–0:18:05
man also ihr seht ich habe mich jetzt kann man aber Aber er macht wirklich nichts,
0:18:05–0:18:06
dieser verdammte Computer.
0:18:06–0:18:10
Wir haben eine Sendung, die «Plus 1» heisst. Warum? Ja, das haben wir mal gemacht.
0:18:11–0:18:15
What? Aber ich weiss nicht mehr, worum es geht. Die hat 1800 Plays.
0:18:16–0:18:19
Warum? Ah, gute Frage. Was hört ihr? Sorry.
0:18:20–0:18:23
«Plus 1» Ist es aus Programmierung gegangen? Ich kann es nicht einmal suchen.
0:18:24–0:18:27
Ich kann es suchen, nachdem mein Computer wieder läuft.
0:18:28–0:18:33
Wahrscheinlich kannst du nicht nach «Plus 1» suchen. «Virtual Reality» Ich...
0:18:33–0:18:40
Plus eins... also es ist... Digi-Chris, erzähl etwas, während ich suche,
0:18:40–0:18:41
sonst wird es langweilig für die Hörer.
0:18:43–0:18:46
Ich habe noch... welches ist die wenigste Schloss-Standard-Taste?
0:18:46–0:18:49
Das ist einfach die Neueste, weil es geht ja...
0:18:49–0:18:52
Sie haben ja immer einen Langteil und es gibt... das höre ich auch ab und zu
0:18:52–0:18:56
von Leuten, die sagen dann, ich höre sie schon, ich höre fast alle,
0:18:57–0:19:01
aber es geht meistens lange, bis ich sie höre und darum... Ist das so?
0:19:01–0:19:05
Die wenigstens geloste ist Apple zu gross, zu mächtig, zu selbstherrlich vor
0:19:05–0:19:07
vier Jahren. Die hat nur 290 Plays.
0:19:08–0:19:12
Ein Lot hat es wohl noch irgendjemand. Ah, interessant. Und da sind wir noch
0:19:12–0:19:17
relativ, das müsste ja die Apple-Fanboys und Apple-Haters so richtig anstecheln.
0:19:17–0:19:19
Also ich glaube, wir sind einfach zu wenig populistisch.
0:19:19–0:19:22
Ja, könnte sein. Auf aus Kritik.
0:19:22–0:19:26
Und es ist plus eins tatsächlich um Virtual Reality gegangen,
0:19:26–0:19:30
das haben wir richtig gesagt. und genau.
0:19:32–0:19:34
Und wir haben es hier nicht gut gefunden und wir finden es heute immer noch
0:19:34–0:19:37
nicht gut. Also wir könnten plus zwei machen in dieser Serie.
0:19:38–0:19:41
Also die schlecht gelesen ist eine andere, er hat es jetzt fertig gelesen.
0:19:41–0:19:44
Die Kraft der komplementären Biorhythmen.
0:19:44–0:19:46
Wahrscheinlich war es ein scheiss Titel.
0:19:47–0:19:51
Es war auch eine Kummerbox live. Vielleicht können wir an dieser Stelle darüber
0:19:51–0:19:57
reden, ob ich... Ich habe ja früher noch mehr als heute immer das Gefühl gehabt,
0:19:57–0:20:01
ich müsse wahnsinnig originelle Titel machen. Wir müssen etwas catchy haben.
0:20:01–0:20:02
Das musst du gesehen haben.
0:20:02–0:20:06
Das musst du gehört haben. Gleich passiert etwas.
0:20:06–0:20:12
Es ist wirklich eben, man hat nicht einmal nur so das Clickbaiting.
0:20:13–0:20:19
Aber die Wissenschaft zeigt offenbar, die Kryptotitel funktionieren nicht.
0:20:19–0:20:24
Also auch wenn es ironisch ist oder so, das packt Leute nicht.
0:20:24–0:20:28
Und ich finde es aber trotzdem irgendwie, wenn ich jetzt abwägen müsste,
0:20:28–0:20:33
Okay, ich soll ihm dann sagen, sind wir originell oder setzen wir auf Massengeschmack?
0:20:34–0:20:38
Mega auf Massengeschmack, das haben wir jetzt gemerkt nach 700 Folgen.
0:20:38–0:20:39
Das ist genau unser Ding.
0:20:40–0:20:46
Wir sind echt gut im Massengeschmack. So laden Sie die neuesten Filme gratis herunter.
0:20:46–0:20:51
Ja gut, aber das wäre jetzt nicht übertrieben, das haben wir auch schon erzählt, oder?
0:20:51–0:20:55
Nicht gerade so direkt, aber so durch die Blumen schon.
0:20:56–0:21:00
Wir hatten ja schon eine Sendung über Sex und die müsste ja hier oben dabei
0:21:00–0:21:04
sein, aber vielleicht ist das einfach so lange her, dass die gar nicht da drin sind.
0:21:05–0:21:08
Weil wir haben unsere Homepage. Ah, das stimmt natürlich. Unsere Homepage ist
0:21:08–0:21:13
natürlich erst Back to the Future.
0:21:14–0:21:22
2016 war unsere Homepage. Am 19. September 2016 bei der Folge, ich habe keine Ahnung.
0:21:22–0:21:26
Das Internet vergisst. Das hätte ich jetzt nicht vergessen können.
0:21:26–0:21:31
Das war die erste, das war 354 und die Homepage haben wir gemacht, weil.
0:21:32–0:21:37
Der Filter hat uns die Zeit gelöscht. Sie hatten einfach mal den alten Server
0:21:37–0:21:43
und dann hatten sie die Schnauze voll von dem, weil der irgendwie schlecht zu warten und zu managen.
0:21:43–0:21:47
Ich glaube, der Meghe hat eben dort, glaube ich... Vielleicht hat er die voll genommen.
0:21:48–0:21:52
Ich glaube, ich habe ihn sogar einmal gefragt. Und da hat er die Finger drin
0:21:52–0:21:55
gehabt und dann ist es ihm einmal verleidet und dann haben sie einfach,
0:21:55–0:22:00
ohne etwas zu sagen, haben sie den Server einfach abgestellt und es war alles weg.
0:22:01–0:22:06
Und dann sind auch wirklich Wir waren tatsächlich alle in unseren alten Sendungen lang verschollen.
0:22:07–0:22:10
Bis ich mal gefunden habe, dass wir diese wieder zaubern müssen.
0:22:10–0:22:18
Kann ich die jetzt hören? Die kannst du hören, aber sie sind nicht in diesem Podlove-Ding drin.
0:22:19–0:22:22
Wie kann ich die denn hören? Du kannst sie nur im Browser hören.
0:22:23–0:22:26
Ah, okay. Oder ja, also einfach genau. Genau, sie sind noch da,
0:22:26–0:22:31
aber ich habe dann, wenn ich die hätte, müsste ich das Podcast-Teil importieren.
0:22:32–0:22:34
Nein, das machen wir nicht. Wenn jemand das Praktikum machen möchte,
0:22:34–0:22:36
es zählt. Man darf sich gerne melden.
0:22:36–0:22:39
Genau, wir hätten da zuerst eine kleine Fliesshabe.
0:22:41–0:22:45
Und dann sind die halt weg gewesen.
0:22:45–0:22:48
Aber sie sind wieder da, aber sie zählen nicht in die Statistik.
0:22:48–0:22:51
Die Statistik zählt ab 2016 in dem Moment, genau.
0:22:52–0:22:58
Und dann ist natürlich auch die Frage, wann wir die ganze Sache auf Spotify
0:22:58–0:23:00
geladen haben. Das haben wir nämlich auch nicht von Anfang an gemacht.
0:23:01–0:23:04
Nein, das haben wir dort gemacht, wo es mal... Aber dort bist du der Master
0:23:04–0:23:09
und dort musst du... Du bist glaube ich der Einzige, der die Statistik hinkriegt.
0:23:09–0:23:14
Ja, weil das interessanter ist, es läuft Spotify-Verwaltung über den Benutzer.
0:23:14–0:23:17
Und ich habe das einfach mal eingebunden. Das ist völliger Unsinn,
0:23:17–0:23:19
unter uns gesagt. Ja, das ist so.
0:23:22–0:23:26
Und die Spotify-Zahlen werden nicht von Podlove, glaube ich.
0:23:26–0:23:29
Nein. Das ist wie etwas anderes.
0:23:29–0:23:35
Siehst du, ich weiss da zum Beispiel nicht einmal, ob die eigentlich jede Sendung
0:23:35–0:23:39
von unserem Server holen gehen, oder ob sie die cashen.
0:23:39–0:23:44
Und wenn wir da jetzt zum Beispiel eine Million Hörer, also einfach mal geschätzt
0:23:44–0:23:47
eine fiktive Zahl, sagen wir 10 Millionen Hörer hätten,
0:23:48–0:23:51
dann würden wir das vielleicht gar nicht sehen in unserer Statistik,
0:23:51–0:23:55
weil Spotify es nur ein einziges Mal von unserem Server holt und wir könnten,
0:23:55–0:24:00
weltberühmt sein, ohne das gemerkt zu haben. No.
0:24:02–0:24:06
No. Ich weiss nicht, ob sie cashen oder nicht.
0:24:06–0:24:09
Ich glaube, sie cashen nicht. Ich glaube, sie holen es auch über den Server,
0:24:09–0:24:12
weil ich auch einen RSS-Feed einbinden musste.
0:24:13–0:24:18
Ja, aber mich klingt es ein bisschen anders vom Tönen her.
0:24:18–0:24:21
Also ich habe meine schrauben sie
0:24:21–0:24:27
tun es noch mal kodieren oder vielleicht auch nicht also genau also wenn ihr
0:24:27–0:24:33
das müsse dann erklärt ist das und zeigt also mit mir weltberühmt sind auf spotify
0:24:33–0:24:40
ohne das gemerkt haben und die chris was ist denn so was findest du machen mir gut.
0:24:42–0:24:45
Wo sind wir wirklich High Performer?
0:24:47–0:24:51
Ich glaube tatsächlich, wenn man jetzt gerade zu dritt im Studio ist,
0:24:51–0:24:54
finde ich passt irgendwie die Abstimmung.
0:24:54–0:24:59
Wenn du jetzt denkst, wenn du bei einer Tele Zürich, SRF so eine Sendung machen
0:24:59–0:25:02
würdest, hättest du wahrscheinlich irgendwie Redaktionssitzungen,
0:25:03–0:25:07
die fünfmal so lange wie die Sendung gehen. Ich glaube das ist das spontane Grad.
0:25:07–0:25:12
Genau, um das noch zu sagen, unsere Redaktionssitzung, es ist dreimal hin und
0:25:12–0:25:15
her schreiben auf dreimal. Und dann machst du die ganze Arbeit.
0:25:17–0:25:21
Das können wir auch mal so benennen. Meistens mache ich das Manuskript,
0:25:21–0:25:25
weil ich das Gefühl habe, man kann nicht einfach spontan darauf losreden.
0:25:25–0:25:28
Und heute hört ihr es ja, wie es ist, wenn man... Ich habe zwar trotzdem alles
0:25:28–0:25:31
gemacht, aber es ist nicht so ein schlimmes...
0:25:31–0:25:33
Du hast es doch gemacht für einen improvisierten Sender. Ja,
0:25:33–0:25:38
da siehst du mal, wie neurotisch ich bin. Ich habe Neurotismus studiert,
0:25:39–0:25:40
um das zu sagen. Und Medizin.
0:25:40–0:25:43
Und Medizin. Habe ich überhaupt fertig gesagt? Ich habe gesagt Germanistik,
0:25:43–0:25:47
ich habe aber auch noch Publizistik und Computerlinguistik studiert.
0:25:48–0:25:53
Also ein bisschen etwas hat es mit dem Thema zu tun, aber ja, genau.
0:25:55–0:26:00
Also, wir haben Kompetenzen. Darf ich dich richtig interpretieren, Chris, wenn wir so...
0:26:01–0:26:05
Unsere Dynamik im Team ist eigentlich unsere stärkste Stärke,
0:26:05–0:26:07
oder? Würde ich so sagen, ja.
0:26:07–0:26:10
Ich glaube auch. Das finde ich auch. Und ich finde es dann gut,
0:26:11–0:26:15
wenn wir eine Sendung machen könnten, in der wir verschiedene Ebenen haben.
0:26:15–0:26:18
Also wir haben vielleicht etwas, was wir auf der technischen Ebene erzählen,
0:26:18–0:26:22
etwas, wo ein bisschen Kultur und Gesellschaft rein kommt. und dann noch so
0:26:22–0:26:27
ein bisschen persönlich, also auch so, man es noch ein bisschen menschelend
0:26:27–0:26:30
und noch so ein bisschen Anekdote, aber nicht zu viel.
0:26:30–0:26:34
Ich finde, Anekdoten sind schwierig, wenn man ein gewisses Mass überschreitet,
0:26:34–0:26:37
dann wird es so zu egozentrisch.
0:26:37–0:26:39
Und darum ist das noch schwierig.
0:26:39–0:26:43
Und ich finde, das können wir gut. Und ich glaube, wir sind recht gut drin,
0:26:44–0:26:49
um komplexe und auch blöde Themen, immer sage ich jetzt mal,
0:26:49–0:26:54
so ein bisschen salopp, gut rüberzubringen und trotzdem unterhaltsam zu machen.
0:26:56–0:27:01
Ich hoffe es. Ich schaue jetzt, ob in diesem Moment jemand etwas ins Gästebuch geschrieben hat.
0:27:02–0:27:05
Nein, es hat immer noch niemand etwas geschrieben. Leute, hey, da.
0:27:05–0:27:10
Hey, sorry, aber so nicht. Wenigstens ein Gruß im Gästebuch,
0:27:10–0:27:12
stadtfilter.ch. Soll ich einen machen?
0:27:13–0:27:18
Nein. Ja, aber unter einem falschen Namen. Natürlich. Ich würde sagen,
0:27:19–0:27:25
vielleicht auch etwas, wenn man irgendwie einen Vergleich bringen darf.
0:27:25–0:27:29
Es gab vor vielen Jahren mal eine Zeitschrift, Computerbild.
0:27:29–0:27:35
Und eben Bild, weiss man das, Revolverplatte, dann gab es das Autobild und Computerbild
0:27:35–0:27:41
hat dann tatsächlich irgendwie die Fachwörter, auch RAM, CPU erklärt. Jede Zeit.
0:27:42–0:27:49
Irgendwo hat mal ein Leser geschrieben, ja, aber wieso erkläre ich das immer wieder?
0:27:49–0:27:52
Weil das Auto-Bild erklärt auch nicht, was eine Kupplung ist.
0:27:52–0:27:57
Einfach so nach dem Motto. Ich finde auch, ja, manchmal müssen wir halt auf
0:27:57–0:27:58
eine technische Ebene gehen.
0:27:59–0:28:03
Aber manchmal glaube ich auch, sind wir so, dass ich sage, jetzt die Leute verstehen,
0:28:03–0:28:07
die sicher nicht mit dieser Technologie aufgewachsen sind.
0:28:07–0:28:11
Ich versuche das ja je nachdem ein bisschen einfacher zu halten.
0:28:11–0:28:19
Und wenn man abdriften will, dann redest du halt von Clouds und On-Prems.
0:28:20–0:28:24
Ja, genau. Ich versuche wirklich, diese Anglizismen möglichst zu vermeiden.
0:28:24–0:28:27
Und es ist manchmal schwierig, auch Sachen zu erklären.
0:28:27–0:28:32
Ich glaube, das machen wir wirklich noch gut. Aber wir sind auch im Radio,
0:28:32–0:28:35
wo jemand per Zufall einschalten kann und dann vielleicht.
0:28:37–0:28:41
Wie soll ich sagen, trotzdem mitkommt. Aber ja, das stimmt schon.
0:28:41–0:28:45
Und jetzt, aber jetzt haben wir nicht mehr so viel Zeit. Jetzt machen wir noch Kritik.
0:28:45–0:28:50
Du hast gesagt, Digi Chris, dir ist ein ganz konkretes Beispiel eingefallen,
0:28:50–0:28:55
wo wir oder vor allem ich es völlig verkackt habe. Ui, wirklich?
0:28:55–0:29:01
Das war, glaube ich, diese Sendung von den US-Wahlen. Das war auch im Corona-Modus.
0:29:02–0:29:06
Da ist irgendwie unser Studiolink nicht gelaufen. Wir mussten auf Skype und
0:29:06–0:29:09
irgendwie haben wir es nicht geschafft. Ich habe es nicht geschafft, ja.
0:29:10–0:29:16
Wir sind ja das Team. Wir haben es nicht geschafft, einen Kampf-Call auf Skype zu machen.
0:29:16–0:29:20
Genau. Dann war mal Kevin da. Ich habe gerade einen Hühnertal.
0:29:20–0:29:24
Und ich wusste natürlich nicht mehr, was jetzt Kevin gesagt hat und so.
0:29:25–0:29:28
Und da haben wir auch diese Leute, ich sage jetzt aus Familienfreunden,
0:29:28–0:29:31
hey, what the hell, was habt ihr da geraucht?
0:29:32–0:29:35
Wirklich, seid ihr besoffen gewesen? Und vielleicht noch etwas,
0:29:36–0:29:38
da hatte ich mal ein Problem,
0:29:38–0:29:44
ich glaube, ich hatte auch ein neues Headset und ich hatte dort irgendein Problem
0:29:44–0:29:47
und das weisst du am besten als Radioprofi,
0:29:47–0:29:52
ich habe mich mit zwei Sekunden Verzögerung gehört und da habe ich so komisch
0:29:52–0:29:53
geredet und ich habe natürlich gedacht,
0:29:54–0:29:56
ja jetzt läuft die Aufnahme, es war glaube ich sogar noch mit der Studiolink.
0:29:57–0:30:03
Ja, dann tönst du so betrunken, wenn du dich selber hörst. Das war der Horror, das ist echt.
0:30:04–0:30:08
Da bin ich nicht stolz drauf. Genau, das haben wir einfach natürlich.
0:30:08–0:30:11
Wir sind da live im Studio und dann geht es halt damit los.
0:30:11–0:30:14
Und wenn die Technik noch nicht bereit ist, müssen wir improvisieren.
0:30:14–0:30:17
Ich würde sagen, das ist so die technische Ebene.
0:30:17–0:30:22
Da haben wir halt niemanden, der uns da hilft, sondern das mache ich meistens ich.
0:30:22–0:30:26
Und dann bin ich halt manchmal ein bisschen weniger konzentriert und manchmal
0:30:26–0:30:29
noch viel weniger. Mit diesen Jingles meinen wahrscheinlich alle Leute,
0:30:30–0:30:33
das sei ein Running-Gag, aber es ist ernst.
0:30:34–0:30:39
Ich gebe mir jedes Mal Mühe und jedes Mal habe ich es irgendwie dann doch...
0:30:39–0:30:44
Ich habe zu wenig Übung, seit ich morgen Atme mache, fehlt mir die Routine.
0:30:44–0:30:47
Aber was ich finde, was wirklich schwierig ist, manchmal...
0:30:48–0:30:53
Ich vor allem vielleicht auch das höhere Ansprüche, wenn du wirklich die ganze
0:30:53–0:30:58
Welt oder ein riesiges Ding in so eine Sendung packen willst,
0:30:58–0:31:02
wo du einfach sagst, das geht nicht, das hat so viele Aspekte und,
0:31:03–0:31:09
manchmal bin ich unzufrieden, wenn der Informationsgehalt das Gefühl hatte,
0:31:09–0:31:10
es sei jetzt ein bisschen zu seicht gewesen.
0:31:11–0:31:15
Aber wahrscheinlich ist es auch okay, wenn eine Sendung nur unterhaltend ist, oder?
0:31:15–0:31:19
Ja, ich glaube, man hätte schon mal Bock, so etwas richtig Aufwendiges zu produzieren, aber,
0:31:20–0:31:25
dort ist so Faktor Geld und Faktor Zeit spielt halt dort so mit,
0:31:25–0:31:28
weil ich glaube, Aufwendig produzieren, also wirklich eine Geschichte mit O-Ton
0:31:28–0:31:33
und Aufwendig und Recherchieren und so und etwas Grosses machen, wäre mega spannend.
0:31:34–0:31:39
Aber da das halt einfach wirklich Arbeit ist, wo wir uns teilweise Zeit auch
0:31:39–0:31:42
zusammen klauen müssen, ist es einfach nicht realistisch, so etwas zu machen.
0:31:42–0:31:45
Außer wir gewinnen mal im Lotto und haben einfach Geld.
0:31:45–0:31:48
Oh, dann würde ich sofort, dass sie voll beruflich machen. Genau,
0:31:48–0:31:50
und darum habe ich das Gefühl, hey, manchmal gibt es Sendungen,
0:31:50–0:31:53
die besser sind, manchmal gibt es Sendungen, die nicht so gut sind. Das ist wie so okay.
0:31:54–0:31:56
Ich glaube, es darf auch so ein bisschen schwanken. Ja, genau.
0:31:56–0:32:02
Der Razer1911 hat geschrieben, ich wollte ja mit dem Discord was sagen,
0:32:02–0:32:06
aber diese Seite will nach dem Nickname nicht weiterladen.
0:32:07–0:32:13
Ich finde es gut, wie er das macht. ich hätte vielleicht auch mal noch was ein Thema nicht beachten.
0:32:14–0:32:16
Razer 1911. Gibt es die noch?
0:32:17–0:32:21
Das ist ein Telefon, oder? Razer 1911 ist ein Kollektiv gewesen,
0:32:22–0:32:27
wo ich glaube Spiele vor allem veröffentlicht haben. Genau, Razer 1911, ja.
0:32:28–0:32:32
Awares oder Demo Group? Also sie haben Spiele gemacht, aber glaube ich wirklich,
0:32:32–0:32:34
dann hat es irgendwann... Ich glaube die haben geleakt, nein.
0:32:34–0:32:37
Also sie haben Spiele gemacht und irgendwann ist mal der grosse Bast gekommen
0:32:37–0:32:40
und dann Und dann haben sie einfach nur noch Demos gemacht und die haben dann
0:32:40–0:32:46
halt einfach gesagt, schau mal, auf einem C64 kannst du wirklich schöne Demos machen,
0:32:46–0:32:52
die 3D-Dings gemacht haben und eben, wir wissen ja alle, was ein C64 für Ressourcen hat.
0:32:52–0:32:56
Genau, also jetzt sind wir fast schon wieder durch, die Pre-Show ist fast am
0:32:56–0:33:00
Ende und diesmal kommt nach der Pre-Show keine Hauptsendung mehr,
0:33:00–0:33:01
sondern das ist dann fertig.
0:33:02–0:33:08
Digi-Chris, du hast wirklich auch noch in deiner Bubble nach Kritik gesucht
0:33:08–0:33:10
und gefunden vor allem auch.
0:33:11–0:33:16
Also ich glaube vieles und apropos ist Tonqualität, aber nicht der Kevin,
0:33:16–0:33:18
also deine Hühner. Die hohen Hühner.
0:33:18–0:33:21
Nein, nein, da haben also viele Leute gesagt, das klingt irgendwie authentisch,
0:33:21–0:33:25
also klar, wir sind nicht Bits und so, wo wahrscheinlich jeder einfach vom Herr
0:33:25–0:33:30
Hetzl jedes Jahr 1000 Stutzen bekommt für das Mikrofon und irgendwie zum Ding.
0:33:31–0:33:33
Also die Hühner sind echt positiv angekommen.
0:33:34–0:33:38
Ich finde die auch gut. Es klingt authentisch. Klar, je nachdem,
0:33:38–0:33:41
vielleicht auch bei mir, haben wir gemerkt, wenn ich im WLAN bin,
0:33:41–0:33:45
obwohl ich zwei Zentimeter neben der WLAN Box bin, klingt es blöd.
0:33:46–0:33:49
Und eben, was wir wirklich viel gesagt haben, wenn wir jetzt vielleicht ein
0:33:49–0:33:54
ernsthaftes Thema haben, dass man halt je nachdem, wenn halt irgendwie ein Fussball
0:33:54–0:33:57
kommt oder etwas, dass man einfach um 8.00 Uhr abbrechen muss.
0:33:57–0:33:59
Ich glaube, du hast noch ein längeres Mail bekommen.
0:34:00–0:34:08
Genau, der Reto hat geschrieben, er hat zuerst gefunden, die die Show Notes
0:34:08–0:34:14
sagen uncool, weil die nicht in der App schön aufbereitet sind.
0:34:14–0:34:18
Das stimmt, da hat er recht. Ich habe noch nicht herausgefunden, wie das geht.
0:34:18–0:34:21
In so zwei, drei Jahren habe ich das vielleicht geschafft.
0:34:21–0:34:23
Das andere ist genau das, was
0:34:23–0:34:28
du sagst. Er findet, am Ende hört es oft einfach auf, wenn es fertig ist.
0:34:29–0:34:32
Das ist so, weil wir im Radio sind. Am 8.
0:34:32–0:34:35
Sollten wir wir eigentlich aufhören, das wäre jetzt in zweieinhalb Minuten,
0:34:35–0:34:38
ich habe gedacht, das geht live weiter nachher.
0:34:38–0:34:40
Es geht live weiter, ich habe es gesehen, wo er unten ist.
0:34:40–0:34:42
Ah, du hast es gesehen, okay, dann müssen wir wirklich aufhören,
0:34:43–0:34:45
sonst hätte ich jetzt vielleicht noch fünf Minuten angehängt,
0:34:45–0:34:49
aber dann hören wir wirklich auf und eben, wir einfach zack,
0:34:49–0:34:53
am Ende, ja, das ist halt, das ist so ein bisschen der...
0:34:54–0:34:56
Sagen und Fluch, ich würde sagen, es ist beides gleichzeitig,
0:34:57–0:35:01
weil ich glaube, es tut den Podcasts, die dann einfach unbeschränkt so lange
0:35:01–0:35:04
machen können, wie sie wollen, nicht immer unbedingt gut.
0:35:05–0:35:12
Und er hat dann gefunden, ja, machen doch eine Postshow, wo man das noch fertigreden
0:35:12–0:35:14
kann, was wir nicht in der Sendung fertiggebracht haben.
0:35:14–0:35:17
Und er hat gefunden, ja, eben, eine Pre-Show können wir eigentlich darum machen,
0:35:17–0:35:19
weil dann niemand da im Studio ist.
0:35:20–0:35:25
Und Postshow ist häufig, ist dann halt jemand da und dann müssten wir das Studio
0:35:25–0:35:29
wechseln und das ist mir, ehrlich gesagt, ein bisschen... Wir könnten doch Stadtfilter
0:35:29–0:35:33
Plus machen, wo die Postshow gegen Bezahlung verfügbar ist.
0:35:33–0:35:37
Uh, jetzt kommen noch Businessmodelle rein. Auf Onlyfans.
0:35:38–0:35:41
Genau, das hatten wir nämlich einmal. Das ist eines von diesen Projekten,
0:35:41–0:35:43
die wir mal machen müssen, Onlyfans.
0:35:43–0:35:47
Und ich finde, was das abrupt endet, finde ich eigentlich noch gut,
0:35:47–0:35:51
das auch zu kultivieren und dann nicht einmal mehr verabschiedet,
0:35:51–0:35:52
sondern dann, wenn jemand etwas
0:35:52–0:35:56
Gutes gesagt hat, einfach den Jingle abführen und dann ist es fertig.
0:35:57–0:36:01
Ich finde es super. Ich finde das eben auch gut, aber kann man geteilter Meinung
0:36:01–0:36:03
sein? Das ist ein Konzept, das ist ein Marketingkonzept.
0:36:03–0:36:07
Always leave them want more. Das ist das Marketingkonzept.
0:36:07–0:36:13
Jetzt, ich habe das einfach so aus Tümmel gemacht und du hast ein Marketingkonzept,
0:36:13–0:36:16
das finde ich super. Genau, wir wissen jetzt schon, wo wir stark sind.
0:36:16–0:36:21
Genau bei dem beim Anfixen. Also, ich sage, wir haben noch 40 Sekunden Zeit
0:36:21–0:36:26
und jetzt muss jemand von uns drei so eine schöne Schlusspointe machen,
0:36:27–0:36:28
wo ich den Jingle-Cup führe.
0:36:28–0:36:34
Wir müssen zwei Gläser anstossen. Also, wir machen, was machen wir?
0:36:34–0:36:35
Nein, jetzt sind wir zu früh.
0:36:37–0:36:42
Also, nein, er ist da. Ich würde sagen, wir machen auf die nächsten 15 Jahre,
0:36:42–0:36:44
oder? Und vielleicht machen wir irgendwann mal noch sogar die... Bis 1000.
0:36:45–0:36:48
Bis 1000 müssen wir. Bis duusig müssen wir. Ja, die müssen wir knacken und dann,
0:36:49–0:36:50
mieten wir das alles Stadion.
0:36:51–0:37:03
Music.

Heute plaudern wir aus dem Nähkästchen – und das mit gutem Grund: Nach offizieller, aber nicht ganz unumstrittener Zählung sind wir bei unserer 700. Sendung angelangt. Das nehmen wir zum Anlass, unsere Redaktionssitzung heute live im Radio und Podcast abzuhalten – was deswegen bemerkenswert ist, weil wir uns normalerweise ganz ohne Sitzungen und vor allem per Messenger organisieren.

Also: Zeit für Selbstlob und Selbstkritik. Und für einen Ausblick in die Zukunft: Was könnten wir anders und besser machen? Und wenn ihr Anregungen habt, noch so gern: Wir gehen auf eure Ideen gern in einer der nächsten Sendung oder Preshows ein. „Redaktionssitzung, heute live on air“ weiterlesen

Wann fällt uns ChatGPT in den Rücken?

Transkript anzeigen (falls vorhanden)

00:00–0:00:19
Music.
0:00:20–0:00:25
Ähm, A mit Aryan Nation und ich habe fast ins falsche Mikrofon reingeredet,
0:00:25–0:00:27
aber ich glaube, es kommt trotzdem gut heute.
0:00:30–0:00:33
Radio Stadtfilter. 96,3 Megahertz.
0:00:34–0:00:40
Hoi Kevin, ich hoffe, du redest ins richtige Mikrofon rein. Ich rede ins richtige
0:00:40–0:00:42
Mikrofon rein, aber die Hurenvögel auch.
0:00:42–0:00:46
Die sind Wahnsinn, was ist denn mit denen? Ich weiss nicht.
0:00:46–0:00:50
Ich bin den ganzen Tag nicht zuhause gewesen und das Drehen jetzt Ich weiss
0:00:50–0:00:51
nicht, was die haben. Die spinnen.
0:00:53–0:01:00
Was machen wir mit ihnen? Poulet. Wäre jetzt auch etwas fies, oder? Ja.
0:01:02–0:01:05
Ja, aber ich entspanne mich. Ich weiss nicht, was sie haben.
0:01:06–0:01:11
Ja. Wir müssen mal... Das fehlt noch bei all diesen KI-Sachen,
0:01:11–0:01:12
die wir haben, neuerdings.
0:01:13–0:01:16
Dass du einfach so einen Übersetzer... Es gibt jetzt den Übersetzer,
0:01:16–0:01:22
der das Video und dann macht er so aus deinem Deutsch geredet ein Video,
0:01:22–0:01:25
macht er irgendwie japanisch oder chinesisch oder so.
0:01:25–0:01:29
Das ist recht beeindruckend. Aber noch viel beeindruckender wäre es,
0:01:29–0:01:34
wenn man jetzt das Mikrofon diesen Hühnern hinheben könnte und dann würde K.I.
0:01:34–0:01:35
Sagen, was sie eigentlich haben.
0:01:37–0:01:39
Ich glaube, wir sind im Fall nicht mehr so weit weg von dem.
0:01:40–0:01:46
Findest du? Ich glaube, das kommt wahrscheinlich relativ schnell,
0:01:46–0:01:52
dass man einfache Tier-Laut übersetzen kann.
0:01:52–0:01:57
Beziehungsweise am Hund kommt es relativ schnell.
0:01:58–0:02:01
Das wäre super. Ich bin nicht sicher, ob du recht hast.
0:02:02–0:02:05
Ich glaube, es ist nicht so schwierig.
0:02:06–0:02:10
Weil... bist du mit Hunden aufgewachsen? Nein, nein.
0:02:11–0:02:14
Kennst du dich mit Hunden aus? Ja, nicht so wirklich.
0:02:15–0:02:18
Okay, aber wenn du mit Hunden aufgewachsen bist, oder mit...
0:02:18–0:02:22
Hunde sind halt dankbar, weil die geben halt Töne von sich.
0:02:22–0:02:26
Du kannst bei einem Hund das Bellen unterscheiden, was es bedeutet.
0:02:27–0:02:31
Okay. Und darum habe ich das Gefühl, du kannst, wenn du das analysierst,
0:02:31–0:02:37
kannst du dem Hund wahrscheinlich ein Kommando geben im Sinn von Freude, Angst, Gefahr.
0:02:37–0:02:42
Ich glaube, der geht relativ schnell. Meinst du, das wäre dann.
0:02:43–0:02:47
Für jeden Hund spezifisch, dass man das zuerst trainieren müsste?
0:02:47–0:02:48
Oder ist das universell?
0:02:49–0:02:51
Haben die Hunde so universelle Sprache?
0:02:52–0:02:56
Ich glaube, sie haben universelle Sprache. Ich glaube, wenn ein Hund bellt und
0:02:56–0:03:01
sagt «Hey, kein Scheiss, jetzt ist es fertig», ich glaube, das hat eine universelle
0:03:01–0:03:03
Sprache, das verstehen alle Hunde.
0:03:03–0:03:09
Ja, das wäre noch lässig. Also, ich hatte mal so eine App, wo meine Tochter
0:03:09–0:03:12
noch als Baby war und sie behauptete, dass sie unterscheiden können,
0:03:13–0:03:15
was das Gebrüll von dem Kind heisst.
0:03:16–0:03:20
Und mich hätte es gedacht, das sei so ein bisschen eine Scharlatanerie gewesen.
0:03:20–0:03:24
Also als Eltern hast du dann zwischendurch das Gefühl gehabt,
0:03:24–0:03:27
du gehörst dem Kind jetzt an, ob es Hunger hat, ob die Windel voll ist,
0:03:28–0:03:33
ob es einfach die Schnauze voll hat, so generell, und will schlafen oder so.
0:03:34–0:03:39
Oder nicht schlafen, das kann ja dann auch noch sein. Aber diese App hat das
0:03:39–0:03:41
also nie so treffsicher herausfinden können.
0:03:43–0:03:48
Aber du, als Elternteil, weisst es bei deinem Kind. Ja, genau.
0:03:49–0:03:51
Und darum glaube ich, KI ist nicht so weit weg.
0:03:51–0:03:57
Weil wir können es ja auch. Also ich meine, wenn ich ein Baby höre und es schreit,
0:03:57–0:04:01
dann kann ich wahrscheinlich als Vater, der selber Kinder hatte,
0:04:01–0:04:04
kann ich wahrscheinlich beurteilen, was bedeutet das genau,
0:04:04–0:04:09
wo jemand anderer, der kein Kind hatte, wahrscheinlich das nicht beurteilen kann.
0:04:09–0:04:13
Und darum habe ich das Gefühl, es ist lernbar. Das ist wieder einmal eine dieser
0:04:13–0:04:18
berühmten Prognosen im «Nerdfunk». Wir werden es dann kontrollieren,
0:04:18–0:04:20
soll ich sagen. In fünf Jahren müsste es ja da sein.
0:04:21–0:04:23
Einigen wir uns darauf, dass wir das in fünf Jahren abklären.
0:04:23–0:04:25
In fünf Jahren, super. Genau.
0:04:26–0:04:38
Music.
0:04:38–0:04:42
Und heute geht es genau um die KI. Wir haben ja immer darüber gesprochen,
0:04:42–0:04:46
Kevin, wie toll das ist und wie die unser Leben erleichtert.
0:04:46–0:04:51
Und dass wir jetzt nicht mehr selbst unsere bösen Mails ausformulieren müssen,
0:04:51–0:04:56
sondern nur noch schreiben, ich finde, mein Chef sagt Trottel und das,
0:04:56–0:05:01
was er da wieder ausgedacht hat, ist der letzte Hirnschiss.
0:05:01–0:05:05
Und jetzt, Chat-GPT, formuliere mir das in Früchten. Schreibe mir das in Schön.
0:05:05–0:05:08
Genau, so dass ich nicht entlassen werde.
0:05:08–0:05:14
Genau, so macht man das. Aber sie hat ja vielleicht auch negative Seiten, die KI.
0:05:14–0:05:17
Und darüber wollen wir heute reden, oder?
0:05:18–0:05:24
Ich habe gefunden, ich würde gerne mal eine Sendung machen über «Ist jetzt KI gefährlich?
0:05:24–0:05:30
Ich scheisse in die Hosen vor Angst und du musst alles aufheben.» Okay.
0:05:30–0:05:34
Dass ich das Gefühl habe, es kommt extrem gut, was wir hier machen.
0:05:34–0:05:37
Sollen wir so ein Rollenspiel machen?
0:05:37–0:05:46
Du bist der Scheisshass und ich bin der, der sagt, nein, wir sollen alles, überall die K.I.
0:05:46–0:05:50
Einbauen und ohne das Kruppeln benutzen für alles.
0:05:51–0:05:54
Du kannst ja mal so die Position einnehmen, weil ich bin wirklich der,
0:05:54–0:05:56
der denkt, oh oh, das ist nicht gut.
0:05:57–0:06:01
Und ernst, ich finde es wirklich schwierig.
0:06:01–0:06:04
Und jetzt möchte ich mit dir über das reden.
0:06:06–0:06:12
Genau in diesem Rollenspiel. Ich bin der Sales Manager von OpenAI,
0:06:13–0:06:16
der dir alles antrillt, was wir so zu bieten haben.
0:06:17–0:06:21
Ich bin ein alter Mann, der noch nie mit Technik etwas zu tun hatte.
0:06:22–0:06:25
Also Herr Rechsteiner, wir haben hier unser schönes Produktsortiment.
0:06:26–0:06:31
Wir haben hier einen Chatbot, eine Bildgeneration. Nein, wie nennt man das, ein Generator?
0:06:31–0:06:36
Bildgenerator. Genau, und das müssen Sie alles brauchen, Herr Rechsteiner,
0:06:36–0:06:40
weil ohne das sind Sie einfach nicht mehr von heute.
0:06:43–0:06:48
Das ist so modernes Zeug, das braucht man alles nicht. Das ist alles Scheissdreck.
0:06:49–0:06:51
Okay. Nein, das ist es ja nicht. Aber...
0:06:53–0:06:58
Das ist jetzt ein abrupter Einstieg. Nein, ich würde sagen, aber hören Sie mal, Herr Rechsteiner.
0:06:59–0:07:03
Sie haben ja so ein Unternehmen und dort können Sie einfach Zeit sparen.
0:07:03–0:07:04
Und Zeit ist ja bekanntlich Geld.
0:07:05–0:07:09
Und das sollte eigentlich Ihre Bedenken sofort zerstreuen.
0:07:10–0:07:11
Ja, wahrscheinlich müsste es das.
0:07:13–0:07:17
Nein, die Diskussion kann jetzt nicht schon fertig sein.
0:07:18–0:07:21
Haben Sie vielleicht allenfalls gewisse Bedenken, Herr Reichsteiner,
0:07:21–0:07:23
was unser Produkt angeht?
0:07:23–0:07:32
Ich kann Ihnen versichern, alles ist sicher, wir haben es getestet mit 15 Probanden in Sri Lanka.
0:07:33–0:07:38
Und sind alle tot. Am Nachmittag. Ja, aber das ist am Tsunami gelegen,
0:07:38–0:07:40
der dann gekommen ist, nicht unserer Software.
0:07:40–0:07:46
Nein, Herr Schüster, ich verstehe, dass Sie das gut finden, aber mein Problem
0:07:46–0:07:48
ist, ich verstehe nicht, was passiert.
0:07:49–0:07:53
Sie verkaufen mir jetzt irgendeine Software, irgendein Programm,
0:07:53–0:07:56
irgendeinen Dienst, wo ich nicht genau weiss, woher das kommt.
0:07:56–0:08:00
Und das macht dann irgendetwas, wo ich auch nicht so genau weiss,
0:08:00–0:08:02
woher es jetzt die Informationen nimmt.
0:08:02–0:08:05
Und das finde ich einfach nicht so gut.
0:08:06–0:08:09
Also da könnte ich jetzt ernsthaft darauf Antwort geben, aber ich würde jetzt
0:08:09–0:08:12
mal sagen, ich probiere jetzt den Verkäufer nochmal.
0:08:12–0:08:16
Also schauen Sie mal, Herr Rechsteiner, wissen Sie denn wirklich im Detail,
0:08:16–0:08:22
wie Ihr Computer sonst funktioniert, wie ein Windows, was da in diesen 70 Millionen
0:08:22–0:08:24
Zielen Programmcode drin ist?
0:08:25–0:08:31
Oder wissen Sie, wie Ihre Versicherungs-, Ihre Krankenkasse im Detail funktioniert?
0:08:31–0:08:34
Oder unser politisches System.
0:08:34–0:08:40
Dieser Zug zum Verstehen ist doch schon längstens abgefahren.
0:08:42–0:08:46
Ich glaube, der Zugfahrer ist in den meisten Fällen von aussen.
0:08:46–0:08:50
Und bei mir in der Firma weiss ich zumindest, wenn ich diesen Knopf drücke, passiert das.
0:08:51–0:08:55
Und mit der KI habe ich das Gefühl, ich weiss das nicht mehr.
0:08:55–0:08:59
Die macht nachher irgendetwas, aber das entscheidet dann vielleicht nicht mehr ganz ich.
0:09:00–0:09:04
Und bei meinem PC ist es so, wenn ich dem sage, senden, dann schickt er das E-Mail.
0:09:04–0:09:08
Aber er kommt dann nicht selber auf die Idee, «Ah, ich könnte jetzt da noch
0:09:08–0:09:12
so ein bisschen etwas optimieren, etwas ändern, ohne dass ich da...» Doch, mindestens schon.
0:09:14–0:09:19
Aber ja, for the sake of argument, sagen wir, du hast recht.
0:09:20–0:09:25
Ja, genau, das stimmt. Aber ist das nicht genau die Voraussetzung,
0:09:25–0:09:31
dass er dir eben kann mehr Arbeit abnehmen als bisher so ein nicht künstlich
0:09:31–0:09:33
intelligenter Computer?
0:09:33–0:09:39
Weil eben, Je mehr er es von sich aus macht, wo du nicht genau weisst,
0:09:39–0:09:45
warum er es macht, desto hilfreicher ist er für dich, weil er dann schon merkt,
0:09:45–0:09:47
dass du etwas von ihm willst,
0:09:47–0:09:49
bevor du es ihm gesagt hast.
0:09:50–0:09:54
Aber... Und da kommt glaube ich mein Problem.
0:09:55–0:10:02
Woher weiss er es? Ich glaube, das ist das, wo ich bei KI ein Problem habe.
0:10:02–0:10:05
Woher weiss das Ding, was es will?
0:10:06–0:10:12
Es ist der grösste gemeinsame Nenner. Es ist das, was ihm all die Informationen
0:10:12–0:10:15
im Durchschnitt sagen. Ja. Das wird gemacht.
0:10:15–0:10:20
Und das ist gefährlich, habe ich das Gefühl.
0:10:21–0:10:25
Das ist, also jetzt kenne ich vielleicht zu den Rollen aus, aber,
0:10:25–0:10:28
oder müsste ich jetzt überlegen, ob das nicht gefährlich ist.
0:10:28–0:10:35
Das ist auf eine Art gefährlich, kann man sagen, aber diese KIs kann man ja irgendwie einhegen.
0:10:35–0:10:42
Man kann ihre Parameter vorgeben, worüber sie entscheiden dürfen.
0:10:42–0:10:47
Und dann musst du einfach darauf schauen, dass sie halt, zum Beispiel deine
0:10:47–0:10:50
Buchhaltungs-KI, du darfst selber,
0:10:50–0:10:57
was weiss ich was, neue Briefmarken bestellen und neue, was brauchst du noch,
0:10:57–0:11:03
vielleicht einen Toner für deinen Drucker, aber wenn es über 10'000 Franken
0:11:03–0:11:05
kostet, dann fragst du mich vorher noch.
0:11:07–0:11:12
Und dann ist sichergestellt, dass sie nicht Toner für 50'000 Franken bestellt,
0:11:12–0:11:15
weil sie gefunden haben, oh, der ist gerade im Angebot, da könnte Kevin,
0:11:15–0:11:19
wenn er die nächsten 100 Jahre Toner hat, ganz viel Geld sparen.
0:11:20–0:11:25
Aber mal angenommen, ich habe jetzt einen Drucker. Ja. Und dieser Drucker leidet.
0:11:25–0:11:27
Er gibt auf, er mag nicht mehr.
0:11:28–0:11:30
Und ich weiss, eigentlich komme ich, ich ersetze den.
0:11:31–0:11:36
Ich lasse den jetzt noch auslaufen, dann ist es gut. Wie sage ich das jetzt der KI?
0:11:38–0:11:43
Nicht einen Toner bestellen für den Drucker, denn der wird ersetzt, wenn er leer ist.
0:11:43–0:11:47
Und die KI wird mir einen Toner bestellen, eiskalt. Weil die sagt,
0:11:47–0:11:49
Toner ist leer, wir müssen wieder einen haben.
0:11:51–0:11:57
Jetzt muss ich hinschreiten und der KI sagen, wir haben hier einen Spezialfall.
0:11:57–0:12:02
Vielleicht hat die KI zu wenig mitgedacht, Weil wenn sie genug mitgedacht hat,
0:12:03–0:12:08
dann hat sie gefunden, jawohl, der Drucker ist kaputt, ich bestelle dir nicht
0:12:08–0:12:11
nur den Toner, sondern eben auch den Drucker.
0:12:11–0:12:16
Und das will ich auch nicht, ich will ja keinen Drucker mehr. Ah, okay.
0:12:17–0:12:22
Oder ich habe vielleicht noch einen zuhause. Ich habe noch einen Farblazer,
0:12:22–0:12:25
der reicht fürs Geschäft. Ich nehme dann diesen mit.
0:12:29–0:12:34
Ja, wir sehen schon, es ist tatsächlich ein bisschen schwierig.
0:12:34–0:12:39
Da ist ja dann nicht nur die Frage, ob du dir von der einfach so als Assistent
0:12:39–0:12:45
helfen lassen willst, oder ob du auch gewisse Entscheidungen direkt an sie delegieren willst.
0:12:45–0:12:52
Also zum Beispiel, willst du die Infrastruktur deines Büros ganz an sie delegieren,
0:12:52–0:12:56
dann musst du halt damit leben, dass du dann mit diesen Sachen musst arbeiten,
0:12:56–0:12:58
die sie für dich richtig finden.
0:12:58–0:13:02
Oder willst du ihr einfach sagen, bestelle etwas und dann, ja,
0:13:03–0:13:05
sollte sie nichts von sich aus bestellen, würde ich jetzt sagen.
0:13:05–0:13:07
Aber das wird ja KI genau machen, sie wird ja,
0:13:09–0:13:14
wahrscheinlich sehr viel Raum einnehmen irgendwann, dass man sagt,
0:13:15–0:13:17
hey, das kannst du automatisieren, das kannst du auch automatisieren.
0:13:17–0:13:19
Wo sind eigentlich die Amazon-Button?
0:13:20–0:13:24
Ja, die gibt es noch. Gibt es die noch? Genau.
0:13:26–0:13:31
Das ist ja wie so ein sehr primitiver Vorläufer ohne KI gewesen.
0:13:31–0:13:34
Ich hatte einen Knopf, den ich drauf passern konnte und dann hat es mir nochmal
0:13:34–0:13:36
ein 6-Pack-Bier bestellt. Ja, genau.
0:13:37–0:13:39
Es ist gestorben.
0:13:40–0:13:45
Aber das ist KI, dass es genau das machen wird.
0:13:45–0:13:52
Es wird Aufgaben für mich übernehmen und die Erwartungen an KI sind ja eben, es denkt mit.
0:13:52–0:13:56
Aber woher nimmt es diese Infos? Wie macht es das?
0:13:56–0:14:00
Das finde ich das Gefährliche und das haben wir nicht unter Kontrolle.
0:14:00–0:14:03
Ja, also ich finde es ja lustig, dass wir mit unserem ein bisschen,
0:14:03–0:14:08
wie soll ich sagen, primitiven Rollenspiel, wo wir wahrscheinlich keinen Preis,
0:14:08–0:14:13
keinen Oscar und sonst keinen schauspielerischen Preis dafür bekommen haben.
0:14:13–0:14:14
Wir hatten auch kein Drehbuch.
0:14:14–0:14:19
Aber ich glaube, wir sind eben sofort am richtigen Punkt gelandet,
0:14:19–0:14:22
nämlich an dem Punkt, wo eben entscheidend ist.
0:14:22–0:14:27
Das ist nämlich die KI, solange sie dir einfach nur Sachen sagt und Bilder macht
0:14:27–0:14:30
und du entscheidest dann mit dem, ob du es brauchst oder nicht,
0:14:30–0:14:34
oder wie du es brauchst, ist glaube ich alles easy peasy, da passiert nichts.
0:14:34–0:14:41
Aber wenn du dieser KI halt Entscheidungsmacht gibst und ihr erlaubst,
0:14:41–0:14:45
so Entscheidungen zu fällen, dann wird es tatsächlich sofort schwieriger, oder?
0:14:45–0:14:48
Und da sind wir, glaube ich, mitten in diesem Problem hinein.
0:14:49–0:14:52
Dass es KIs gibt, die es ja heute schon gibt, dass du zum Beispiel,
0:14:52–0:14:57
wenn du irgendeine Bewerbung schickst an ein Unternehmen, dass das vielleicht
0:14:57–0:15:04
dort eine KI einsetzt, die schon mal die Dossier sichtet und deinen Lebenslauf anschaut.
0:15:04–0:15:09
Und wenn dieser KI dann irgendetwas nicht passt, dann sortiert sie dich raus,
0:15:10–0:15:14
ohne dass du eine Ahnung hast, warum oder eben, dass das kein Mensch war,
0:15:14–0:15:16
sondern vielleicht irgendein Algorithmus.
0:15:19–0:15:26
Ich glaube, ich bin wirklich am Punkt, wo ich mir überlege, werde ich jetzt
0:15:26–0:15:28
so einen Corona-Verschwörer?
0:15:29–0:15:34
Nein, wirklich. Wo ich das Gefühl habe, sehe ich jetzt ein Problem,
0:15:35–0:15:36
das überhaupt nicht ist?
0:15:37–0:15:42
Wo ich mich völlig in irgendetwas und mir einfach überlege, hey,
0:15:42–0:15:45
die KI, wann haben wir das erste Mal von dem geredet?
0:15:46–0:15:54
Es ist noch nicht lange her und es ist omnipräsent. Es kommt ins nächste Office
0:15:54–0:16:00
rein, es wird ins iPhone integriert, es findet überall Integration von KI statt.
0:16:01–0:16:05
Vor zwei Jahren hätte ich jetzt gesagt, noch kein Thema. Thema.
0:16:06–0:16:10
Oder sehr am Anfang. Ja, ich finde das...
0:16:11–0:16:14
Ich kann jetzt diese Rolle nicht mehr wahrnehmen. Also ich muss auch zu dir
0:16:14–0:16:16
auf die skeptische Seite wechseln.
0:16:16–0:16:19
Ich finde auch, also das ist etwas, das ich wirklich kritisieren würde.
0:16:19–0:16:25
Das ist das Tempo, das wir da vorlegen, ohne dass wir eine Chance haben,
0:16:25–0:16:28
zu überlegen, ob es sinnvoll ist und wo Gefahren liegen könnten.
0:16:28–0:16:34
Ich glaube, da gab es mal so ein paar Wissenschaftler, die auch das Moratorium
0:16:34–0:16:36
gefordert haben, einen offenen Brief und so.
0:16:36–0:16:41
Aber aus dem ist ja offensichtlich nichts geworden. Man sieht, wenn es darum geht,
0:16:41–0:16:48
Kohle zu produzieren versus Risiken abschätzen zu können, dann ist völlig klar,
0:16:48–0:16:53
was im kapitalistischen System für eine Entscheidung getroffen wird.
0:16:53–0:16:58
Das finde ich auch. Das Problem ist tatsächlich,
0:16:59–0:17:07
das hat die EU in dem AI Act, dass in diesem Gesetz zur Regulierung der KIs eben auch genau,
0:17:08–0:17:15
glaube ich, schon richtig erkannt, dass man diese Fälle beurteilen oder regulieren
0:17:15–0:17:18
muss, wo eben so KIs im Hintergrund irgendetwas entscheiden,
0:17:18–0:17:20
ohne dass man eigentlich weiss,
0:17:21–0:17:25
nach welchen Regeln das macht und ob sie nicht irgendwelche Vorurteile hat,
0:17:26–0:17:31
ob sie vielleicht nur mit weissen Gesichtern trainiert worden ist und schwarze
0:17:31–0:17:34
Gesichter darum nicht vernünftig.
0:17:35–0:17:37
Behandeln kann, um was auch immer es geht.
0:17:38–0:17:43
Das ist, glaube ich, sehr entscheidend. Aber ich glaube, solange man sich bewusst
0:17:43–0:17:47
ist, wo man KIs einsetzt und was man derer für Kompetenzen gibt,
0:17:47–0:17:48
ist es nicht so gefährlich.
0:17:48–0:17:54
Aber ich glaube, ich sehe schon irgendwie, dass die dann so halt irgendwo auch
0:17:54–0:17:59
in so Rollen herutschen, wo wir dann am Schluss uns fragen, wie das überhaupt passieren könnte.
0:18:00–0:18:04
Das sehe ich schon als Gefahr. Ja, und ich weiss auch nicht,
0:18:04–0:18:08
wie stark man diese Rolle eingrenzen möchte.
0:18:08–0:18:11
Wenn wir jetzt an dem Punkt sind, wo man sagt, ja gut, jetzt schauen wir einfach
0:18:11–0:18:16
mal, was ist überhaupt möglich, und was ist nicht möglich.
0:18:17–0:18:19
Also man gibt dem wahrscheinlich keinen Rahmen.
0:18:20–0:18:25
Und das ist so ein bisschen durcheinander, dass auch Google und viele KI-Forscher
0:18:25–0:18:29
sagen, hey, wir wissen nicht mehr genau, woher es diese Infos hat.
0:18:29–0:18:31
Und was er jetzt genau macht.
0:18:32–0:18:37
Und ich habe jetzt nicht das Gefühl, dass er KI wird.
0:18:38–0:18:41
Apokalypse und Terminator und das gar nicht,
0:18:42–0:18:50
aber ich habe Angst, dass es es macht Fehler und es macht, es gibt Falschinformationen
0:18:50–0:18:55
und wir nehmen das dann als garantiert und das sehe ich als grosses Problem.
0:18:55–0:18:58
Ich kann in der KI, kann ich hineinschreiben, jetzt schreibe ich mir einen Text
0:18:58–0:19:02
über das und das Thema und das macht mir das, aber das zu verifizieren,
0:19:02–0:19:06
braucht ja dann gleich wieder das Fachwissen und das fehlt mir dann und dann
0:19:06–0:19:10
nehme ich das für, es ist von KI gemacht, das stimmt.
0:19:10–0:19:13
Ja, genau, also das ist sicher ein Punkt, dass man das Gefühl hat,
0:19:13–0:19:15
oder viele Leute haben das Gefühl, ja, KI,
0:19:15–0:19:21
gleich magisch, gleich irgendwie etwas Übersinnliches, gleich die reine Wahrheit,
0:19:21–0:19:25
also das wird ja auch oft so beworben, das sehe ich immer wieder,
0:19:25–0:19:29
dass halt die Leute sagen, ja, eben, sie macht das so auf keine weiss wie,
0:19:29–0:19:33
aber es kommt irgendwie etwas Sensationelles raus, also müssen wir das einfach
0:19:33–0:19:36
machen lassen und wahrscheinlich ist das tatsächlich, dass.
0:19:37–0:19:42
Entweder schränkst du es auf das ein, wo du genau voraussagen kannst, was dabei herauskommt.
0:19:43–0:19:47
Aber dann ist es wie ein klassischer Algorithmus, den du hart programmiert hast.
0:19:48–0:19:53
Und dann kann er nur in diesem sehr eng begrenzten Rahmen operieren.
0:19:53–0:19:58
Oder du lässt ihn frei laufen und dann entsteht vielleicht etwas Geniales,
0:19:58–0:20:03
aber du verstehst es nicht mehr und siehst vielleicht auch gar nicht,
0:20:03–0:20:11
wo die Probleme sind und wo man den Grenzzun setzen müsste, bevor man einen Unfug anstellt.
0:20:11–0:20:13
Und das ist, glaube ich, tatsächlich das Problem.
0:20:15–0:20:20
Eigentlich, um herauszufinden, was drin liegt, müsste man es völlig frei machen
0:20:20–0:20:25
lassen, aber vielleicht laufen wir so genau in die Probleme,
0:20:25–0:20:31
dass die KI am Schluss findet, ja, also Menschen braucht es eigentlich nicht auf diesem Planeten.
0:20:31–0:20:34
Die Menschen sind irgendwie eher so ein bisschen schädlich, oder?
0:20:34–0:20:37
Und dann, das so wird ja immer erklärt, wenn man sagt,
0:20:37–0:20:41
wird die KI uns alle umbringen, das ist so die Begründung, dass sie eigentlich
0:20:41–0:20:47
feststellt, dass es uns nicht braucht und dann hat sie zufällig irgendwie ein
0:20:47–0:20:52
medizinisches Wissen und kann irgendein Virus programmieren und dann sind wir weg.
0:20:53–0:20:58
Ja, vielleicht. Ja, also an das glaube ich schon nicht.
0:20:59–0:21:03
Das glaubst du nicht? dass sie uns umbringt. Das glaube ich ehrlich gesagt auch nicht.
0:21:03–0:21:10
Also eben, wir müssen vielleicht tatsächlich, wenn wir irgendein KI-Medikament oder so,
0:21:10–0:21:14
oder in so einem Labor arbeiten lassen, nach ihrem Gutdünken,
0:21:14–0:21:18
müssen wir sie vielleicht schon so einsperren, dass sie nicht einfach sagen
0:21:18–0:21:21
kann, das entlade ich jetzt in die Atmosphäre.
0:21:21–0:21:24
Das mache ich jetzt noch. Ja, genau. Weil es ist besser.
0:21:25–0:21:29
Ja, also fertiggedacht kann man sich natürlich so etwas schon überlegen,
0:21:29–0:21:33
wenn man jetzt ein KI mal sagt, du einfach mal optimieren.
0:21:34–0:21:37
Mach mal das Beste, dass es dann so etwas macht.
0:21:37–0:21:42
Ich glaube, ich weiss es nicht, vielleicht kann man Mechanismen einbauen,
0:21:43–0:21:45
die das halt stoppen, aber ja.
0:21:45–0:21:50
Ich würde gerne mit dir schnell die Diskussion machen über die Medien.
0:21:51–0:21:54
Das ist die, die mich halt auch beschäftigt.
0:21:55–0:21:59
Das ist jetzt auch schon durch. Medienhäuser, ich weiss nicht,
0:21:59–0:22:03
ob der Tagi das schon macht, ersetzen Mitarbeiter durch KI.
0:22:03–0:22:08
Das ist jetzt die grosse Diskussion. Also jetzt entlaubt man Leute und dann
0:22:08–0:22:10
generiert KI News-Texte.
0:22:11–0:22:15
Das ist mal so eine Ausgangslage, die jetzt so ein bisschen passiert.
0:22:15–0:22:16
In Amerika ist das jetzt, glaube ich, schon ein bisschen durch.
0:22:17–0:22:22
Das ist jetzt Schritt 1. Jetzt haben wir mal das.
0:22:22–0:22:26
Und jetzt kommt Schritt 2. Jetzt suche ich etwas über ein Thema,
0:22:26–0:22:33
gebe das in den KI und jetzt referenziert KI auf den Newsbeitrag,
0:22:33–0:22:36
welcher KI geschrieben hat.
0:22:36–0:22:42
Jetzt kann ich als Quelle natürlich sagen, ja cool, das kommt von der Zeitung
0:22:42–0:22:46
YY, das ist verifiziert, das hat jemand nachgeschaut, das ist super.
0:22:46–0:22:51
Und jetzt haben wir ein Problem, weil jetzt ist Quellenfindung mega schwierig.
0:22:51–0:22:56
Weil jetzt ist KI über KI über KI und jetzt müsste ich alles kontrollieren.
0:22:57–0:23:00
Und das sehe ich als Problem.
0:23:01–0:23:10
Das sehe ich auch als Problem. Aber ich glaube, Medienhäuser sollten nicht einfach
0:23:10–0:23:12
Journalisten durch KIs ersetzen.
0:23:12–0:23:15
Ich glaube, das wäre das Dümmste, was man machen könnte.
0:23:15–0:23:24
Gerade an dem Punkt, wo der Medienwandel immer noch so im Gang ist und man immer noch probiert,
0:23:24–0:23:30
händeringend Kundschaft dazu zu bringen, für Inhalte zu zahlen.
0:23:30–0:23:33
Und wenn du dann einfach irgendeinen Roboter schreiben lässt,
0:23:33–0:23:38
dann finde die Kundschaft zu Recht, ich zahle doch nicht für irgendein Artikel,
0:23:38–0:23:43
das eine Jet-GPT zusammengeprünselt hat, sondern ich glaube,
0:23:43–0:23:46
man darf die brauchen zum Recherchieren, man darf die brauchen zum...
0:23:48–0:23:49
Was weiss ich was.
0:23:51–0:23:55
Einfach so für nicht kreative Sachen, aber ich finde, jeder Text,
0:23:56–0:23:59
der jemand dafür zahlt, der sollte von einem Menschen geschrieben werden.
0:24:00–0:24:08
Und ich glaube, eben sonst war das nicht CNET in Amerika, wo schon so Roboter eingesetzt haben.
0:24:09–0:24:15
Und die haben ja dann auch brutal abgeschrieben von anderen, also plagiiert und so.
0:24:15–0:24:21
Und ich glaube, das ist Das war ja seinetisch, die haben das ausprobiert,
0:24:21–0:24:24
sie haben es auch nur so halb gar, halb batzig deklariert und so.
0:24:25–0:24:30
Und das, man hat dann auch sofort gesehen, also das ist, vor drei Wochen ist
0:24:30–0:24:32
dann zum Beispiel gestanden, hat Arzt, Techniker geschrieben,
0:24:32–0:24:37
also Wikipedia hat jetzt reagiert auf das und die schauen die einfach nicht
0:24:37–0:24:40
mehr als verlässlich an, die Inhalte, die die machen.
0:24:40–0:24:46
Und ich glaube, das gibt schon eine Selbstregulierung, aber ich glaube auch,
0:24:46–0:24:51
die KIs, die müssen, dass sie arbeiten können, brauchen diese guten Inhalte
0:24:51–0:24:56
und diese guten Inhalte müssen von Menschen erschaffen werden.
0:24:56–0:25:03
Und wenn du da immer nochmal eine Stufe drauf setzt, so wie du das geschildert
0:25:03–0:25:10
hast, ich glaube, dann geht es 1, 2, 3 Generationen und da kommt der gröbste Unsinn hinten raus.
0:25:14–0:25:19
Ja, also das sind halt so Überlegungen, die ich als Problem sehe,
0:25:19–0:25:25
dass man dann eben diesen Sachen einfach vertraut, wenn man der KI halt irgendeine
0:25:25–0:25:28
Aufgabe gibt, dass die eine Lösung für das Problem findet.
0:25:28–0:25:33
Aber es ist nicht eine gute Lösung und es ist oft auch nicht eine sinnvolle
0:25:33–0:25:36
Lösung, aber es ist eine und sie verkauft es extrem gut.
0:25:36–0:25:43
Das ist genau das. Ich glaube auch, dass das sehr schwer zu kontrollieren ist,
0:25:43–0:25:49
dass so Unternehmen wirklich einfach sagen, ja, wir haben da unsere Lösung getestet.
0:25:49–0:25:53
Bei den ersten tausend Fällen hat sie gut funktioniert, also setzen wir sie
0:25:53–0:25:59
ein zum Kreditvergaben beurteilen, zum medizinischen Entscheid treffen,
0:25:59–0:26:01
zum dieses, zum jenes und so.
0:26:01–0:26:04
Und am Anfang kontrolliert man es vielleicht noch so ein bisschen und irgendwann
0:26:04–0:26:08
einmal macht man es nicht mehr, weil es irgendwie gut funktioniert und irgendwann
0:26:08–0:26:10
einmal funktioniert es nicht mehr gut.
0:26:10–0:26:13
Und wer ist dann geschuld, oder? Also wer ist dann, ich glaube,
0:26:13–0:26:15
das ist ja auch völlig nicht klar.
0:26:15–0:26:20
Also wenn du zum Beispiel, ja, wenn du jetzt irgendeinen Text schreibst und
0:26:20–0:26:24
den veröffentlichst und dort steht in den Hanebüchern Unsinn drin und du hast
0:26:24–0:26:29
dann aber von der KI dann geschrieben, ist dann die KI geschuld?
0:26:29–0:26:33
Bist du trotzdem selber geschuld? Ist der geschuld, der die KI programmiert hat?
0:26:34–0:26:37
Ist es sonst noch irgendjemand? Ist der selber geschuld, der es gelesen hat?
0:26:38–0:26:41
Also das wird halt sofort wirklich schwierig.
0:26:43–0:26:46
Ja, und das ist wahrscheinlich ein Problem.
0:26:47–0:26:50
Und das nächste Problem, das ich sehe, ist, dass die KI-Dienste,
0:26:50–0:26:56
die JetGPT, ich habe mit dem relativ schnell angefangen, die lassen sich für
0:26:56–0:26:57
ihre Dienstleistung zahlen.
0:26:58–0:27:05
Das heisst, eine JetGPT Version 4 zahlt man, ich weiss gar nicht, 40 Franken im Monat.
0:27:05–0:27:12
20, glaube ich. Man zahlt den Betrag, aber eigentlich,
0:27:15–0:27:20
die KI ja keinen Inhalt generieren kann, also sie generiert Inhalte,
0:27:20–0:27:24
aber sie erschafft keine Inhalte, im Sinne von sie kreiert nichts Neues.
0:27:25–0:27:31
Und jetzt zahle ich einen Dienst, der mir aber keinen Inhalt kreiert,
0:27:31–0:27:36
aber ich zahle der Person, die diesen Inhalt kreiert hat, halt nichts.
0:27:37–0:27:40
Und das ist wieder das Internet-Problem.
0:27:41–0:27:45
Jetzt haben wir das Gleiche, was wir mit den Filmen hatten, was wir mit der
0:27:45–0:27:48
Musik hatten, jetzt geht es um die Inhalte, jetzt geht es um das Textschreiben.
0:27:48–0:27:52
Jetzt machen wir etwas kaputt, was eh schon am Boden war.
0:27:53–0:27:57
Aber irgendwann kommen halt all die Leute, die diese Texte erschaffen und kreieren
0:27:57–0:28:01
und sich Mühe geben und Wikipedia-Artikel machen und all das.
0:28:01–0:28:02
Die haben ja nichts davon.
0:28:03–0:28:07
Nichts. Und wer verdient? Die Leute, die eine KI eingeschrieben haben,
0:28:08–0:28:10
eine Software, die diesen Dienst verkauft, die das zusammenfasst.
0:28:10–0:28:13
Aber wer macht am Schluss dann noch die Inhalte?
0:28:13–0:28:17
Das ist eine sehr berechtigte Frage und ich habe ja, vielleicht erinnert ihr
0:28:17–0:28:23
euch daran, mit Andreas Foghunter darüber geredet, vor drei, vier Wochen.
0:28:23–0:28:29
Und er hat gefunden, er ist ja ein dezidierter Verfechter von diesem gemeinsamen Wissen.
0:28:29–0:28:33
Und er hat gesagt, das kommt allen zu gut und es entsteht etwas Neues.
0:28:33–0:28:37
Aber ich bin auch einer auf dieser Seite, dass ich finde, einfach,
0:28:37–0:28:39
wenn da, man kann sich eben,
0:28:39–0:28:44
es hat ja im Mittelalter dann auch die Druckereien gegeben, die dann nur die
0:28:44–0:28:49
Bücher drucken durften, dann gab es nur die Leute, die die Bücher gekannt haben
0:28:49–0:28:52
und dann gab es so ein Herrschaftswissen,
0:28:52–0:28:55
das halt nicht allen zu gut kam.
0:28:55–0:28:57
Und das sehe ich hier eben auch als Problem.
0:28:58–0:29:03
Wenn ein Einzelunternehmen darüber bestimmen kann, wie es so und wer und unter
0:29:03–0:29:09
welchen Bedingungen man Wissen nutzen kann, das alle zusammengetragen hat,
0:29:09–0:29:10
das eigentlich der Menschheit gehört.
0:29:11–0:29:17
Aber wo dann so ein Gatekeeper, also das ist ja auch der Begriff,
0:29:17–0:29:21
den die EU benutzt, für so grosse, mächtige Unternehmen, die dann eben so an
0:29:21–0:29:26
der Schaltstelle sitzen davon, was Leute machen können und was nicht.
0:29:26–0:29:30
Wenn so ein Gatekeeper dann über das Wissen, wie er kann, entscheidet,
0:29:30–0:29:35
dann sehe ich also schon auch ganz grosse Probleme auf uns zukommen.
0:29:35–0:29:40
Und darum, ja, sollte man vielleicht tatsächlich zuerst überlegen,
0:29:40–0:29:46
wie man die in den Griff bekommt, bevor man sich dann da kopfüber in das Abenteuer einstürzt.
0:29:46–0:29:50
Aber ich glaube, das kannst du vergessen.
0:29:50–0:29:54
Es ist doch In der Menschheitsgeschichte ist es so, dass man etwas macht,
0:29:54–0:30:00
man erfindet etwas, man macht die Atombombe oder man spaltet mal ein paar Atome
0:30:00–0:30:04
und dann schaut man, was die negativen Auswirkungen sein könnten.
0:30:04–0:30:07
Und dann ist aber das Kind eben schon im Brunnen eingefallen.
0:30:07–0:30:12
Dann bringst du das Wissen oder die Erfindung nicht mehr zur Welt raus.
0:30:13–0:30:17
Ich bin wirklich gespannt, wie es weitergeht.
0:30:17–0:30:20
Ich glaube, das wäre auch eine spannende Diskussion oder vielleicht auch eine
0:30:20–0:30:22
Rückmeldung von den Hörern, wie ihr das findet.
0:30:23–0:30:25
Ich bin nicht der, der Apokalypse sagt.
0:30:26–0:30:31
Aber ich bin ein Megatechnik-Fan, ich bin ein Mega-KI-Fan, ich finde es extrem spannend.
0:30:32–0:30:38
Aber ich bin am Punkt, wo ich sage, hey, sehen wir auch die Gefahr,
0:30:38–0:30:44
sind wir uns dem bewusst und wissen wir, was wir da machen und wirklich das
0:30:44–0:30:47
Gefühl haben, nein, wir wissen nicht mehr, was wir machen.
0:30:48–0:30:53
Wir probieren jetzt irgendetwas aus und das kann ich tosen. Ja, das kann man.
0:30:53–0:30:58
Aber man kann sagen, dass es in der Menschheitsgeschichte so war,
0:30:58–0:31:02
dass man irgendeine Erfindung gemacht hat und dann war sie da.
0:31:03–0:31:08
Dann bringst du sie nicht mehr weg und musst damit umgehen. Dann kannst du die Vernunft appellieren.
0:31:08–0:31:12
Aber das nützt nichts, weil einer oder ein anderer sieht dann garantiert einfach
0:31:12–0:31:18
die Möglichkeit jetzt berühmt und reich und einflussreich und mächtig zu werden
0:31:18–0:31:21
und darum bringst du das nicht mehr unter den Deckel und ich glaube,
0:31:21–0:31:24
dass immer also eben, ich finde eigentlich wirklich,
0:31:24–0:31:28
ich bin mir noch nicht so sicher ich habe schon den EU AI Act erwähnt und wir
0:31:28–0:31:35
haben da auch dann Tonnen von Shownotes wo ihr auch noch also die Sachen könnt
0:31:35–0:31:37
ihr im Detail nachlesen auf nerdfunk.ch,
0:31:38–0:31:40
und ich bin mir nicht sicher, ob der EU.
0:31:41–0:31:45
Der AI-Act wirklich alle Probleme löst.
0:31:45–0:31:50
Nein, das glaube ich nicht und ob er auch zu entdenkt ist und ob er nicht irgendwie,
0:31:51–0:31:54
eine zu einfache Lösung für ein zu kompliziertes Problem ist,
0:31:54–0:31:57
aber ich finde es gut, dass man es mal probiert und dass man jetzt zumindest,
0:31:57–0:31:59
ich glaube, dass sie auf die,
0:32:00–0:32:01
KIs losgehen, die eben.
0:32:03–0:32:06
Weitreichende Entscheidungen treffen und sagen, oder dort, wo es wirklich wirklich
0:32:06–0:32:07
gefährlich werden kann.
0:32:07–0:32:10
Eben so Massenüberwachungen und so, sagt man, will man nicht haben.
0:32:10–0:32:15
Dass man die Leute einfach profilieren kann nach Gutdünken, ohne dass sie das wissen.
0:32:15–0:32:24
Man will so selbstlenkende KIs und medizinische Sachen, will man vorsichtig sein.
0:32:24–0:32:29
Aber eben auch alles, wo irgendjemand eine Entscheidung getroffen wird,
0:32:29–0:32:31
da müssen wir genau hinschauen. Das finde ich gut.
0:32:31–0:32:34
Ich weiss nicht, ob es reicht, aber es ist jetzt sicher mal ein erster Schritt.
0:32:35–0:32:39
Und Kevin, jetzt haben wir gar noch nicht darüber geredet, ob wir dann,
0:32:39–0:32:44
das wäre ja noch weitere Angst, die man haben kann, ob wir dann alle arbeitslos werden,
0:32:44–0:32:49
weil die KIs einfach dann unseren Job besser und schneller und effizienter und
0:32:49–0:32:51
günstiger machen, als wir selber.
0:32:53–0:33:01
Meine Prognose ist ja. Ich glaube, wenn KI da ist und sie macht es 10% schlechter
0:33:01–0:33:03
als ein Mensch, sagt jeder,
0:33:04–0:33:08
nehmen wir, weil es kostet nichts. Das wird passieren.
0:33:09–0:33:13
Ich bin überzeugt davon, dass ganz viele Stellen auf der Kippe stehen,
0:33:14–0:33:19
weil KI wird die Ratzfatz ersetzen und nicht besser, aber gratis.
0:33:19–0:33:22
Genau, und dann sind wir dann auch wieder in dem gleichen Problem,
0:33:22–0:33:26
wo du gesagt hast, was passiert, wenn ein KI einen Text schreibt,
0:33:26–0:33:31
der dann ein KI wieder lehrt und weiterverwendet und dann kommt die nächste
0:33:31–0:33:32
KI und macht nochmal etwas daraus.
0:33:32–0:33:37
Das wird dann auch so sein, wenn die KIs die Software entwickeln.
0:33:37–0:33:40
Man findet eben, all diese teuren Informatiker, die sparen wir uns.
0:33:41–0:33:42
Das kann der Chat-Hippie-Tee günstiger.
0:33:45–0:33:48
Ich würde es ein bisschen anders formulieren.
0:33:48–0:33:52
Da klaue ich einfach den Text, wo ich... Und wir müssen gerade aufhören.
0:33:52–0:33:56
Ich höre gerade auf. Es ist Punkt 8, aber wir reden noch schnell fertig.
0:33:57–0:34:02
Wo ich gelesen habe, auf LinkedIn, Ich glaube, jeder zweite Klugscheisser hat
0:34:02–0:34:05
mir den in den letzten Monaten unter die Nase gegriffen.
0:34:05–0:34:09
Und der sagt, du wirst nicht von einer KI ersetzt in deinem Job,
0:34:09–0:34:12
aber du wirst von einem ersetzt, der eine KI nutzt.
0:34:13–0:34:17
Der ersetzt dich. Ja, das wird so sein.
0:34:17–0:34:25
Und ich glaube auch, der Mensch wird es noch brauchen, aber weniger Leute werden
0:34:25–0:34:26
viel mehr machen können.
0:34:26–0:34:29
Und wie gehen wir damit um? Warum?
0:34:30–0:34:34
Du hast gesagt, du seist trotzdem optimistisch.
0:34:34–0:34:39
Wie gehst du mit diesem Dilemma um, dass du als optimistischer Mensch ganz viele
0:34:39–0:34:41
schwierige Seiten siehst?
0:34:41–0:34:44
Das weiss ich nicht. Ich glaube, es ist ein Bewusstsein für das, was passiert.
0:34:45–0:34:49
Und dann mal schauen, wie man das nutzen kann. Ich habe keine Ahnung.
0:34:51–0:34:55
Mir geht es ein wenig ähnlich. Aber was mir hilft und mich manchmal tröstet,
0:34:55–0:34:59
ist, wenn man wirklich intensiv mit diesen Systemen schafft,
0:34:59–0:35:02
dann siehst du immer wieder, wo sie anstehen und wie dumm das eigentlich sind.
0:35:03–0:35:07
Und das sich dann selber immer wieder so entzaubert auch.
0:35:07–0:35:13
Und ich glaube, das hilft und dann kannst du sagen, okay, so ganz nutzlos bin
0:35:13–0:35:17
ich trotzdem immer noch nicht. Ich habe doch immer noch den besten Jahr.
0:35:17–0:35:21
Und das würde ich euch allen empfehlen, wenn es euch so geht wie uns.
0:35:22–0:35:26
Aber mir graut schon, ehrlich gesagt, Von dem Moment, in dem irgendwann mal
0:35:26–0:35:31
ein K.I. kommt, der sagt... Oder wo ich mal sage, hey, die war jetzt schlauer
0:35:31–0:35:35
als ich, das wäre ich nie gekommen. Scheisse. Dann ist es echt scheisse.
0:35:35–0:35:39
Dann sind wir am Arsch. Ja. Ja, das ist interessant.
0:35:39–0:35:51
Music.

Ist ChatGPT unser Freund – oder wartet der Bot nur darauf, uns bei der erstbesten Gelegenheit in den Rücken zu fallen?

Wir haben oft über die Chancen der künstlichen Intelligenz gesprochen. Doch heute geht es um die Gefahren: Da gibt es das Horrorszenario, dass eine superintelligente KI zum Schluss kommt, die Menschheit sei überflüssig oder sogar schädlich und sie vom Planeten tilgt.

Aber uns interessieren auch die weniger spektakulären, aber umso realeren Bedrohungen: Beispielsweise, dass eine KI über unsere Bewerbung, unseren Kreditantrag oder unsere medizinische Behandlung urteilt – und das mit Vorurteilen tut, die uns und vielleicht auch dem Betreiber nicht bekannt sind. Und es geht auch um unsere Jobs und die Frage, wie gross die Konkurrenz von ChatGPT in der Arbeitswelt ist. „Wann fällt uns ChatGPT in den Rücken?“ weiterlesen

Apple, die EU und das App-Store-Monopol

Transkript anzeigen (falls vorhanden)

00:00–0:00:07
Music.
0:00:07–0:00:11
Bitter Moon mit A Glimpse of Heaven.
0:00:12–0:00:20
Was soll denn bitte das sein? Das ist kurz, du Holz. Radio statt Filter. 96,3 Megahertz.
0:00:22–0:00:27
Und das ist Pre-Show, du Holz. Tiggi Chris, fühlst du dich angesprochen?
0:00:28–0:00:30
Ui, halt, stopp, jetzt.
0:00:31–0:00:37
Halt, stopp. Jetzt stopp, ja. Entschuldigung, du Holz. Ich habe ein falsches
0:00:37–0:00:38
Ding gehabt. Aber jetzt ist alles gut.
0:00:41–0:00:47
Genau, du wolltest noch etwas sagen, Chris? Eben, dass wir mit der 96.3 spätestens
0:00:47–0:00:50
in zwei Jahren irgendwie mal neu aufnehmen.
0:00:50–0:00:54
Du meinst halt die Jingles. Ja, ich finde das sowieso doof, das mit diesem Megaherz.
0:00:54–0:00:59
Wenn der Radiosender hört, dann hast du die Frequenz schon gefunden.
0:01:00–0:01:05
Aber trotzdem, Kevin hat nicht zu viel versprochen. Die Hühner sind auch da.
0:01:07–0:01:12
Aber man hört es. Man hört es wahnsinnig, ja.
0:01:13–0:01:21
Es sind die kleinen Hühner, ganz kleine. Du hast Babys, bist du Hühnervater geworden?
0:01:22–0:01:26
Ich bin schon hundert Mal Hühnervater geworden, aber ich bin jetzt wieder Hühnervater.
0:01:28–0:01:31
Ich nehme Hühner halt, ich sammle Hühner.
0:01:33–0:01:36
Sammeln ist wie, dann hat man nie genug. Ah ja, okay.
0:01:36–0:01:40
Dann ist es okay, wenn es eine schwierige Menge erreicht hat.
0:01:41–0:01:43
Bei mir hat es eine schwierige Menge erreicht.
0:01:43–0:01:47
Was heisst eine schwierige Menge? Du kannst noch nicht davon leben,
0:01:47–0:01:53
aber es sind so viele, dass du dich jeden Tag ernsthaft um sie kümmern musst.
0:01:54–0:02:01
Es sind über 40. Ui, 40? Eben, das ist eine schwierige Menge.
0:02:02–0:02:06
Ja, ich sehe es. Und diese Babyhühner hier, das ist eine Rasse,
0:02:07–0:02:09
die ich noch nie vorher gehört habe.
0:02:09–0:02:12
Und ich bin per Zufall an Bruteier angekommen von dieser Rasse.
0:02:12–0:02:16
Und ich dachte, muss ich haben. Das ist cool, dass niemand es hat.
0:02:17–0:02:19
Hast du schon Namen für all diese 40?
0:02:23–0:02:29
Es hat einen Bruno. Einen Bruno? Es hat einen Bruno, es hat einen Simba,
0:02:29–0:02:36
es hat das Bumerli und es hat den Aufschauvogel.
0:02:38–0:02:42
Der Aufschauvogel, also die Geschichte davon ist, das Problem ist,
0:02:42–0:02:45
wenn sie ausschlüpfen und sie schlüpfen,
0:02:46–0:02:51
das Ei liegt verkehrt. Dann haben sie mega lange bis sie checken was oben und unten ist.
0:02:52–0:02:58
Und dann gibt es Küken, die schlüpfen, wo dann eigentlich der Kopf immer ganz
0:02:58–0:03:01
hinten auf den Rücken liegt und dann fallen sie eigentlich auf den Rücken.
0:03:01–0:03:06
Und dann sterben sie. Das ist wirklich so, das ist nicht geil.
0:03:06–0:03:07
Ah, sie sterben dann sogar?
0:03:08–0:03:12
Ja, sie können sterben an dem, genau. Und der Uferluagifogel war eben so einer.
0:03:12–0:03:17
Der hatte genau das Problem. Und ich versuche dann immer den in die Socken reinzutun
0:03:17–0:03:22
oder in WC-Papier einzuwickeln, damit er nicht rauf schaut.
0:03:22–0:03:26
Und der hat es geschafft, der ist gesund, der rauf schau Vogel.
0:03:26–0:03:30
Also das klingt schon nach einem Film, der dann vielleicht einen Oscar bekommen
0:03:30–0:03:34
würde, wenn man da, du als Hunde-Papa, äh Hunde sage ich, als Hühnerpapa,
0:03:34–0:03:38
Als Hunde. Der muss alles machen, um seine Hühner zu retten.
0:03:39–0:03:45
Wir haben ein wahnsinnig dicht gedrängtes Programm in dieser Pre-Show.
0:03:45–0:03:50
Eigentlich müssen wir wahrscheinlich mal umgekehrt. Wir machen nur sechs Minuten
0:03:50–0:03:54
Tech und den Rest dann alles Pre-Show.
0:03:54–0:03:59
Ich wollte noch erzählen, dass ich jedes Mal etwas Abenteuerliches erlebe,
0:04:00–0:04:01
wenn ich in ein Studio komme.
0:04:01–0:04:10
Auf der Zürcher Strasse beim Neuwiesenzentrum ist ein Auto, das so ein Ding umgefahren hat.
0:04:11–0:04:14
Eine Ampel. Das fand ich recht abenteuerlich.
0:04:15–0:04:20
Ich hätte mich als Polizeireporter betätigt, wenn ich nicht sofort losrennen musste.
0:04:20–0:04:25
Dann hat mir Digi Chris gesagt, ich müsse bereit sein, Musik zu spielen.
0:04:25–0:04:29
Digi Chris, ich mache das in deinen Wunsch. Es ist mir Befehl. Ja, komm.
0:04:30–0:04:33
Also du musst uns aber noch schnell sagen, was das eigentlich ist.
0:04:33–0:04:39
Das ist ein Kollege, der super Queries im SAP BW schreiben kann und er kann
0:04:39–0:04:42
auch Songs schreiben, Basses mit Bad Ray.
0:04:43–0:04:50
Music.
0:04:49–0:04:53
No one has a clue, das könnte unsere Hymne sein, Digi Chris.
0:04:53–0:04:55
Jetzt musst du nochmal sagen, wer das war.
0:04:55–0:05:03
Das waren Basses mit Bad Ray. Genau, Better Days und jetzt kommt die beste Sendung, könnte man sagen.
0:05:03–0:05:18
Music.
0:05:18–0:05:24
Wir schalten knallhart auf Tech um nach dieser Pre-Show und kommen zu der EU.
0:05:24–0:05:28
Die EU zwingt nämlich die Tech-Konzerne zur Öffnung.
0:05:28–0:05:34
Seit letzter Woche gibt es die Möglichkeit für iPhone-App-Stores von Drittanbietern.
0:05:35–0:05:41
Wie funktionieren die? Was bedeutet die Öffnung, wenn es dann eine ist für Nutzerinnen und Nutzer?
0:05:41–0:05:46
Und warum hagelt es dann jetzt trotzdem? Trotzdem, sie öffnet sich und es hagelt
0:05:46–0:05:48
trotzdem Kritik an Apple.
0:05:49–0:05:54
Kevin, hallo Kevin, hast du diese Sache verfolgt? Hast du eine Ahnung,
0:05:54–0:05:55
über was wir heute Abend reden?
0:05:56–0:05:59
Nein, ich habe keine Ahnung. Ich denke, ich komme einfach wieder mal dazu,
0:05:59–0:06:01
weil ich immer gefehlt habe in letzter Zeit.
0:06:01–0:06:06
Du bist krank gewesen, du bist entschuldigt. Du steckst hoffentlich nicht deine Hühner an.
0:06:06–0:06:08
Vielleicht haben die... Ah, hast du vielleicht die Hühner...
0:06:08–0:06:10
Vogelgrippe. Vogelgrippe.
0:06:10–0:06:14
Ich habe eigentlich Vogelgrippe. Dann ist es besser, wenn du nicht ins Studio
0:06:14–0:06:15
kommst, ehrlich gesagt.
0:06:17–0:06:20
Also, du hast es nicht verfolgt, das ist schon mal eine gute Frage.
0:06:20–0:06:23
Ich habe es am Rande verfolgt, ich habe mitbekommen, was läuft.
0:06:24–0:06:28
Nein, das stimmt wahrscheinlich nicht, viele Leute haben es wahrscheinlich gar
0:06:28–0:06:29
nicht mitbekommen. Nein, ich glaube nicht.
0:06:30–0:06:33
Wahrscheinlich habe ich es ein wenig verfolgt. Gut, dann bist du der,
0:06:33–0:06:41
der, so sagen wir, sichtweise von den unvoreingenommenen Anwenderinnen und Anwender in dieser Sendung.
0:06:41–0:06:44
Aber der Digi-Chris sieht so aus... Ich habe nicht wirklich eine Ahnung,
0:06:44–0:06:47
aber eine Meinung. Das ist immer gut.
0:06:47–0:06:49
So gehört sich das heutzutage.
0:06:50–0:06:53
Digi-Chris, ich nehme an, du bist voll in dieser Materie drin, oder?
0:06:54–0:06:58
Ja, natürlich. Auch die Podcasts, die ich höre, wenn man eine CT liest,
0:07:00–0:07:03
kommt man davon mit. Aber wir können jetzt schon spoilern.
0:07:03–0:07:07
Wir sind ja nicht in der EU, daher ändert sich für die Schweizer.
0:07:09–0:07:12
Gar nichts. Genau. Vorläufig zumindest. Noch nicht. Genau.
0:07:13–0:07:16
Ich fasse mal die Ausgangslage zusammen.
0:07:16–0:07:19
Wir haben dann auch Links. Ich habe viel geschrieben über das.
0:07:19–0:07:21
Wir haben dann auch die Links in den Show Notes.
0:07:21–0:07:28
Und eben, also seit März, seit diesem Monat, lässt Apple in den EU,
0:07:28–0:07:32
so muss man es sagen, Stores von Drittanbietern zu. Es gibt noch keine solche.
0:07:32–0:07:39
Es gibt Ankündigungen. Und damit stellt Apple die Anforderungen des Digital
0:07:39–0:07:44
Markets Act, DMA kurz genannt, das Gesetz der EU umsetzen.
0:07:44–0:07:49
Die sagen nämlich, wenn sie so als Gatekeeper, Apple ist ein Gatekeeper,
0:07:49–0:07:53
das heisst, sie haben so viel Einfluss auf diesen Markt, dass sie eigentlich
0:07:53–0:07:54
sagen können, was läuft und was nicht.
0:07:55–0:07:59
Und diese Gatekeeper will man zwingen, sich aufzutun, dass auch Konkurrenten
0:07:59–0:08:03
eine Chance haben, dass Wettbewerbsvorteile ausgleichen werden.
0:08:04–0:08:08
Das passiert dann auch an anderen Orten, z.B. über WhatsApp muss ich da öffnen
0:08:08–0:08:12
für andere Messenger, die müssen dann so interoperabel werden, d.h.
0:08:12–0:08:17
Man kann dann WhatsApp zu anderen Messenger rausschreiben und zurück.
0:08:17–0:08:19
Und das ist ja eigentlich noch gut.
0:08:19–0:08:23
Und eben, jetzt muss man allerdings wahrscheinlich ernsthaft darüber reden,
0:08:23–0:08:28
wie Apple diese Öffnung umgesetzt hat. Man könnte sich einfach vorstellen,
0:08:28–0:08:32
dass die beste Lösung wäre, man macht es so, wie z.B.
0:08:32–0:08:37
Android das macht. Wenn man dort will, kann man einfach eine App auch frei aus
0:08:37–0:08:40
dem Internet herunterladen, die auf sein Android drauf tut.
0:08:40–0:08:44
Man muss dann irgendwo ein Häkchen setzen, dass man das machen will und dann darf man das.
0:08:44–0:08:48
Wie Windows oder Mac kannst du auch einfach Software herunterladen und installieren.
0:08:48–0:08:53
Und so hätte ich mir das eigentlich vorgestellt. Aber so ist es ja nicht, Chris. Chris.
0:08:53–0:08:56
Hilfe, wenn du das machst, kommst du doch 100'000 Viren übernehmen.
0:08:57–0:09:01
Was mir auch ganz klar war, als wir gesehen haben, wo es hingeht,
0:09:01–0:09:05
ich nehme an, Apple wird nicht nur einen Lawyer, einen Anwalt angestellt haben.
0:09:06–0:09:10
Nein, gar nicht. Die werden das Gesetz 100'000 Mal durchgelesen haben und natürlich,
0:09:10–0:09:16
dass sie so auf Spitzen getrieben haben, dass sie genau so weit gehen können,
0:09:17–0:09:19
vielleicht noch ein bisschen weniger, aber dann,
0:09:20–0:09:24
traut sich vielleicht auch wie heisst sie, Margaret Vesta Gerdat.
0:09:27–0:09:30
Die Wettbewerbsministerin von der EU. Ich weiss auch nicht, wie man sie ausspricht,
0:09:30–0:09:31
aber ich weiss, wer du meinst.
0:09:32–0:09:38
Dass sie das so machen und ja, es ist klar, du kannst auch auf dem Mac,
0:09:38–0:09:42
selbst auf dem Mac kannst du ja grundsätzlich irgendwas runterladen.
0:09:42–0:09:44
Der Mac fragt dich halt dreimal gut.
0:09:44–0:09:50
Ich glaube, unter Windows, man kann es heutzutage sogar Windows so so konfigurieren,
0:09:50–0:09:54
dass er standardmässig nur den Store braucht und man kann sagen,
0:09:54–0:09:57
das ist aber eine Wahlfreiheit, wenn jemand sicher sein will.
0:09:57–0:10:01
Und ich glaube, das ist eine Tatsache, dass man so die Sicherheit wirklich erhöht,
0:10:01–0:10:04
wenn man nur Sachen, Software aus diesen Stores bezieht.
0:10:04–0:10:07
Aber wenn man das nicht will, kann man es auch anders machen.
0:10:08–0:10:12
Bei Windows gibt es einen lustigen Effekt, wo ich auch schnell sagen kann,
0:10:12–0:10:15
wenn du einen Server hast, ich sage jetzt immer ein Unternehmen,
0:10:15–0:10:19
das kann jedes Unternehmen sein, klar, mit dem Admin-Account darfst du nicht
0:10:19–0:10:23
ins Internet, das macht auch Sinn, dann lädst du dir halt irgendwie die Software,
0:10:24–0:10:28
runter, kopierst sie rüber, und dann, ich glaube Windows Smart Screen heisst
0:10:28–0:10:30
das, weil mit Microsoft reden.
0:10:32–0:10:36
Erreicht der Microsoft Server nicht und ja, nicht installieren.
0:10:36–0:10:39
So können sie dann auf dem iPhone kommen, weil, eben wie gesagt,
0:10:40–0:10:44
ich glaube, dass man versteht, wenn wir zwei eine App schreiben wollen,
0:10:44–0:10:47
dann müssen wir bei Apple so einen Developer, einen Entwickleraccount haben.
0:10:47–0:10:48
Ja, genau, den zahlen wir schon mal.
0:10:48–0:10:51
Ich glaube, 99 Stutz, jetzt machst du ihr eine App, ich sage jetzt,
0:10:51–0:10:55
was ich weiß, für den Kevin einen Hühnercounter, also wo du kannst...
0:10:55–0:10:57
Schau, ob da alle Hühner da sind. ...die Hühner zahlen.
0:10:58–0:11:03
Und sofern die App jetzt kein Schabernack macht, gibst du die Apple Die meisten
0:11:03–0:11:09
sind automatisiert und schaue einfach, ob sie nicht heimlich auf die Kamera zugreifen.
0:11:10–0:11:13
Sonst kommt sie in den App Store.
0:11:15–0:11:18
Dass es wahrscheinlich nicht so viele Hühnerbesitzer gibt, wird Kevin seine
0:11:18–0:11:21
App dann irgendwo unter wahrscheinlich ferner Leifen sein.
0:11:22–0:11:25
Das wissen wir nicht, also ich könnte mir vorstellen, vielleicht muss er noch
0:11:25–0:11:28
etwas Gamification trainieren und dann wäre das ein riesen Renner.
0:11:29–0:11:33
Du kannst sie kombinieren mit einem Moorhuhn oder so.
0:11:34–0:11:38
Mit einem Moorhuhn abknallen? Nein, das habe ich jetzt nicht gesagt,
0:11:38–0:11:42
das nehme ich zurück, ich bin auch ein Tierfreund. Also, genau. Augmented Reality.
0:11:43–0:11:51
Ja, das stimmt. Aber es ist natürlich schon so, dass Apple gewisse Sachen nicht zulässt.
0:11:52–0:11:57
Wahrscheinlich ist das eine ganze Menge. Sie haben auch die ungeschriebenen Gesetze.
0:11:57–0:12:02
Also gewisse Sachen machst du als Entwickler einfach nicht, wenn du das Gefühl
0:12:02–0:12:04
hast, das könnte nicht durchkommen.
0:12:04–0:12:09
Weil du willst nicht 100 Stunden oder 200 Stunden in eine App investieren,
0:12:09–0:12:12
wo dann Apple sagt, und sie müssen ja nicht weiter begründen.
0:12:12–0:12:14
Sie können einfach sagen, wir wollen die App nicht und fertig,
0:12:15–0:12:16
und dann kommt sie nicht ins Store.
0:12:16–0:12:20
Und das ist tatsächlich, ich glaube, es gibt schon einige Genres,
0:12:20–0:12:25
also es gibt zum Beispiel viele Utilities, die es einfach nicht gibt,
0:12:25–0:12:27
die es auf anderen Plattformen gibt.
0:12:28–0:12:31
Es gibt keine Emulatoren, es gibt keine.
0:12:33–0:12:39
Und es gibt wirklich alles Hardware-nahe, so dicke Apps gibt es nicht,
0:12:39–0:12:42
und Und da kann man sich schon vorstellen,
0:12:42–0:12:48
dass wenn das aufgemacht wird, dass dann neue Ideen und neue Programme entstehen.
0:12:49–0:12:52
Ist so, wie klar, alles was ihr mir jetzt ein bisschen als Copyright gebt,
0:12:52–0:12:55
also du wirst kein Mickey Mouse Spiel haben dürfen wegen Disney.
0:12:56–0:13:02
Mickey Mouse, der ursprüngliche Steamboat-Willy ist zum... Oder sagen wir halt Simpsons oder so.
0:13:03–0:13:06
Dings hat das darfst du nicht, natürlich alles was ein bisschen mit Haut zu
0:13:06–0:13:08
tun hat, darfst du auch nicht. Genau.
0:13:08–0:13:12
Und was auch ganz spannend ist, wenn du jetzt findest, es ist vielleicht…,
0:13:13–0:13:18
Eine gute Idee, auf deiner Apple-Watsch auf der Krone deine iPhone-Kamera auszulösen.
0:13:19–0:13:22
Soviel ich weiss, lässt Apple auch nicht so, wie du gesagt hast,
0:13:22–0:13:23
was Hardware-näufig ist.
0:13:23–0:13:26
Genau, und das können sie vielleicht immer noch unterbinden,
0:13:26–0:13:29
indem sie einfach die Schnittstellen nicht freigeben am iPhone.
0:13:30–0:13:33
Also Kevin, wir haben herausgefunden, dass du so ein bisschen den,
0:13:33–0:13:41
wie soll ich sagen, der, der nicht so mit Feuer und Flammen ist für das Thema,
0:13:42–0:13:44
kann man sagen, interessiert dich das?
0:13:44–0:13:48
Hättest du das Bedürfnis für einen zusätzlichen App Store oder dass du einfach
0:13:48–0:13:51
frei kannst, Software installieren bei deinem iPhone?
0:13:52–0:13:56
Ich habe mir das lange überlegt und ich weiss manchmal nicht,
0:13:56–0:14:01
warum würde... Also ich verstehe, dass Apple gewisse Sachen reguliert, die scheisse sind.
0:14:01–0:14:07
Also vielleicht möchte ich jetzt halt mal eine nackte Frau auf meinem Telefon anschaue.
0:14:07–0:14:10
Das ist okay, das geht einfach mal grundsätzlich nicht. Da verstehe ich es.
0:14:10–0:14:15
Aber bei anderen Apps habe ich manchmal das Gefühl, es ist auch okay,
0:14:15–0:14:20
dass die das nicht in den App-Store schaffen, weil die wirklich schlecht sind.
0:14:20–0:14:25
Und ich weiss auch nicht, werden dann die anderen Shops gar nicht reguliert?
0:14:25–0:14:29
Werden die anders reguliert? Kommt dann einfach eine andere Instanz, die kontrolliert?
0:14:30–0:14:32
Gibt es einfach einen Freipass?
0:14:33–0:14:37
Aus meiner Laufbahn ist es einfach so, dass die meisten Probleme,
0:14:37–0:14:40
die ich mit Android-Telefonen hatte, entstanden sind, weil sich die Leute irgendwann
0:14:40–0:14:43
an den Götter aus dem Internet abgeladen haben.
0:14:43–0:14:48
Das ist das Beste. Es wäre ein mega gutes Programm. Es läuft einfach nicht, aber es wäre mega gut.
0:14:48–0:14:53
Und dann weisst du, das Telefon macht irgendetwas, aber es funktioniert nicht mehr.
0:14:53–0:14:57
Und darum finde ich, dass Regulierungen gar nicht so schlecht sind.
0:14:57–0:15:01
Genau. Wir sind da wirklich schon an einem zentralen Punkt.
0:15:01–0:15:06
Ich glaube, ich fände es einfach mal grundsätzlich gut, dass man diese Freiheit
0:15:06–0:15:08
hat, egal ob man sie nutzt oder nicht.
0:15:08–0:15:13
Das ist ja eigentlich schön an Freiheit, dass du diese Freiheit nicht nutzen kannst.
0:15:13–0:15:16
Und das glaube ich wäre schon entscheidend.
0:15:16–0:15:22
Und deine Frage, nein, also die Trittstores sind überhaupt nicht unreguliert,
0:15:22–0:15:29
sondern auch dort macht Apple Vorschriften, dass sie die Anbieter mit gewissen Standards einhalten.
0:15:30–0:15:33
Was Qualität angeht, was Datenschutz und so angeht.
0:15:33–0:15:38
Und ich finde, da tut sich dann wahrscheinlich schon ein riesiges Feld für Konflikte auf.
0:15:38–0:15:42
Aber ist dann die Freiheit, die du jetzt gerade...
0:15:43–0:15:46
Hast, ist ja dann schon wieder weg. Ja, also eben, ich glaube,
0:15:46–0:15:49
wir müssen darüber reden, ob diese Freiheit überhaupt vorhanden ist.
0:15:49–0:15:55
Und da gibt es, ich spoilere jetzt, da gibt es so ganz viel Apple-Kritiker, die sagen, nein,
0:15:56–0:16:00
Apple hat wirklich einfach alles daran gesetzt, dass alles so bleibt,
0:16:00–0:16:05
wie es ist, indem sie die Alternativen so unattraktiv machen, wie überhaupt möglich.
0:16:05–0:16:10
Also es muss zuerst einmal, wenn du so einen Store starten willst,
0:16:10–0:16:11
musst du dich beglaubigen und musst sagen,
0:16:12–0:16:15
jawohl, ich halte mich an die Regeln grundsätzlich von Apple,
0:16:15–0:16:20
dann musst du eine Zahlungsgarantie von einer Million Euro bringen von einer Bank, die sagt,
0:16:21–0:16:26
sie würden, wenn du eine App hast, die dann irgendwie ein Problem anrichtet,
0:16:26–0:16:32
dass du vielleicht auch gerade stehen könntest oder so, dann ist die Core-Technology-Fee,
0:16:32–0:16:34
die haben sie eingebaut, das ist das Ding,
0:16:34–0:16:38
also Apple verdient auch an diesen Drittstores mit, weil sie sagen,
0:16:38–0:16:43
wir haben ja all die Programmschnittstellen und die Werkzeuge zur Entwicklung
0:16:43–0:16:45
dieser Software bereitgestellt.
0:16:46–0:16:51
Also wenn wir, 1 Million Downloads hast du gratis, aber ab der 1 Million und
0:16:51–0:16:57
ersten App-Installation musst du uns 50 Cent pro Installation zahlen.
0:16:57–0:17:01
Ist schon mal, glaube ich, für so etwas wie F-Droid oder so,
0:17:02–0:17:05
das wäre etwas, das ist ein toller Store, den es für Android gibt,
0:17:05–0:17:10
wo all die Open-Source-Sachen drin sind, ist wahrscheinlich dann schon mal keine Option, oder?
0:17:10–0:17:14
Oder würdest du jetzt unter diesen Umständen die Christen Store aufmachen?
0:17:15–0:17:20
Wenn ich jetzt ein Game hätte, das Fortnite heisst, vielleicht schon, aber sonst nicht.
0:17:20–0:17:24
Ich glaube übrigens, sie haben jetzt auch auf Druck von der EU bei dieser Million
0:17:24–0:17:27
ein Bier ein bisschen zurückgerudert.
0:17:29–0:17:32
Ich glaube, wenn auch Apple natürlich, die haben einfach geschaut,
0:17:32–0:17:36
wahrscheinlich wie ein kleines Kind, das schaut, wie kann ich es jetzt am Abend
0:17:36–0:17:41
mit meinem Backup wie kann ich es auf die Spitze treiben bis dann halt die Eltern
0:17:41–0:17:43
sagen, so es ist fertig und,
0:17:44–0:17:48
wie gesagt, Apple wird nicht nur einen Anwalt haben, die werden das ganz ganz
0:17:48–0:17:50
klar durchexerziert haben bis dann mal sagen, nein,
0:17:52–0:17:57
jetzt gehen wir halt irgendwie ich weiss gar nicht, was die höchste EU-Gerichtsinstanz
0:17:57–0:18:01
ist aber ja, jetzt gehen wir halt so weit Ja, also ich weiss es nicht,
0:18:01–0:18:04
ob sich dass sich die EU nicht von dem auch provoziert fühlt.
0:18:04–0:18:06
Bis jetzt hat man noch nichts von ihr gehört.
0:18:06–0:18:10
Ich, wenn ich bei der Frau, jetzt weiss ich schon wieder nicht mehr,
0:18:10–0:18:14
wie sie heisst, wir lassen uns nicht auf den Test aus, ich gehe es nachher anschauen.
0:18:16–0:18:20
Ob die sich nicht ein bisschen provoziert fühlt. Weil mein Eindruck ist schon,
0:18:20–0:18:22
Apple probiert einfach wirklich,
0:18:23–0:18:28
umzusetzen nach dem Buchstaben des Gesetzes, aber so unattraktiv und es so...
0:18:29–0:18:35
Einfach alles ausreizen, dass jeder App-Entwickler, der die Wahl hat,
0:18:35–0:18:39
soll ich jetzt meine App in einen alternativen Store stellen oder in einen normalen Store?
0:18:40–0:18:42
Der sagt, ich nehme doch den normalen Store, ich bin ja nicht blöd,
0:18:42–0:18:45
wieso soll ich mir all den Ärger machen?
0:18:46–0:18:49
Und eben, ich glaube, es gibt dann auch Einschränkungen als Entwickler,
0:18:49–0:18:53
wie häufig du hin- und herwechseln kannst. oder du darfst auch nicht zum Beispiel,
0:18:53–0:18:57
glaube ich, in verschiedenen Stores darfst du auch nicht sein oder so.
0:18:57–0:19:00
Es ist wirklich einfach unattraktiv.
0:19:00–0:19:04
Ja, und eben, wenn wir das jetzt ganz klar sagen, wenn ich jetzt so schaue,
0:19:04–0:19:08
ich sage jetzt so normalisches oder sage jetzt einfach 0815 User,
0:19:08–0:19:12
die ich so in meinem Umfeld habe, wo jetzt nicht gerade Arbeitskollegen sind,
0:19:12–0:19:15
ja, die haben, ich sage jetzt auf jeden Fall Smartphone, Android oder IOS,
0:19:16–0:19:20
die haben halt WhatsApp, SBB, Tagi, vielleicht tatsächlich auch Twitter, Twitter, Gmail,
0:19:21–0:19:24
ja, vielleicht hat halt mal jemand noch so eine exotische App, aber das...
0:19:24–0:19:26
Die vermissen nichts, kann man sagen.
0:19:27–0:19:32
Ja, und klar, die Leute, die halt, die, die am Morgen im Zug sind,
0:19:32–0:19:35
die wahrscheinlich Fortnite spielen wollen, ja, vielleicht die würden tatsächlich
0:19:35–0:19:36
sich die Alternative App Store
0:19:36–0:19:39
draufpappen, das können wieder Fortnite auf meinem iPhone spielen im Zug.
0:19:40–0:19:45
Genau, also wenn man schon mal einen Ausblick wagen will, wie erfolgreich das
0:19:45–0:19:50
jetzt so, wie die Alternative Stores heute da stehen, eben Ich rechne damit,
0:19:50–0:19:54
dass Deo findet, dass es uns zu wenig offen ist.
0:19:54–0:19:57
Ihr müsst da noch mal überbüchen und dann geht es wahrscheinlich ein jahrelanges
0:19:57–0:20:01
Teil ziehen und vielleicht haben wir dann in fünf Jahren oder in zehn Jahren
0:20:01–0:20:05
sind wir dann an einem Punkt, der ein bisschen besser ist. Aber ich würde sagen, es geht noch lange.
0:20:05–0:20:08
Ich glaube, jetzt im Moment ist es wirklich so.
0:20:09–0:20:13
Die allermeisten Leute werden das nicht brauchen. Es müsste irgendeine Knaller-App
0:20:13–0:20:16
geben, die man sagt, die gibt es jetzt nur in diesem Store.
0:20:16–0:20:21
Und dass es aber unter diesen Umständen irgendeine Knaller-App in so einem Drittstore
0:20:21–0:20:24
entsteht, das sehe ich nicht so richtig.
0:20:24–0:20:29
Nein, und selbst wenn es die gibt, muss man ganz genau die Konsequenzen anschauen.
0:20:29–0:20:33
Kann ich zum Beispiel, wenn ich jetzt zum Epic Store gehe, zum Beispiel eben
0:20:33–0:20:39
für Fortnite, kann ich dann meine SBB-App zum Beispiel Spiel oder 20 Minuten App noch brauchen.
0:20:39–0:20:45
Da habe ich noch nicht ganz verstanden, ob du aus zwei Stores kannst. Ich glaube schon.
0:20:46–0:20:50
Ist es nicht so, die gleiche App kann zweimal da sein?
0:20:50–0:20:55
Ich glaube, das stelle ich mir auch so vor, ja. Aber das wissen wir noch nicht
0:20:55–0:20:56
so genau, wie dann die Details sind.
0:20:57–0:21:00
Und eben, auch das Prozedere ist dann umständlich. Da musst du zuerst,
0:21:00–0:21:05
glaube ich, ein Hörchen setzen, dass du die dritten Stores zulassen willst.
0:21:05–0:21:09
Dann musst du die Store-App App aus dem normalen Store herunterladen und dann
0:21:09–0:21:13
kannst du mit dieser App die App herunterladen, die du eigentlich wolltest.
0:21:13–0:21:18
Und in diesem Prozess sagt Apple natürlich noch etwa dreimal «Du,
0:21:18–0:21:21
es ist ganz gefährlich, was du hier machst. Willst du das wirklich machen?
0:21:21–0:21:25
Du riskierst dich.» «Ihr iPhone wird schmelzen.» «Ja, genau.
0:21:25–0:21:32
Und deine Renten und dein Haus und dein Bötchen riskierst du auch noch und.
0:21:34–0:21:41
Kevin, es klingt unattraktiv, aber wenn du jetzt die EU wärst,
0:21:41–0:21:43
was würdest du sagen? Ist das okay, das ist das, was wir wollten?
0:21:44–0:21:46
Oder ihr müsst dann nochmals über die Bücher?
0:21:47–0:21:50
Es ist doch sowieso immer ein Kompromiss bei solchen Geschichten.
0:21:51–0:21:55
Man hat eine Idee, wie die Welt funktionieren sollte, im Sinne von wir möchten
0:21:55–0:21:59
etwas öffnen. Dann hat man aber einen privatwirtschaftlichen Konzern,
0:21:59–0:22:00
der möchte das auf keinen Fall.
0:22:01–0:22:05
Und jetzt landet man dann wahrscheinlich bei irgendeiner Kompromisslösung,
0:22:05–0:22:15
die wahrscheinlich irgendwann im Sand verläuft und eigentlich gar nicht gangbar ist.
0:22:15–0:22:20
Also wahrscheinlich kommt es dann so weit, dass ich mir den zweiten App Store
0:22:20–0:22:24
installiere, dass ich dieses spezifische Spiel spielen kann.
0:22:24–0:22:30
Aber dem Endanwender ist das scheissegal woher das Zeug kommt.
0:22:30–0:22:34
Und ich glaube nicht, dass es dann irgend einen gibt, der sagt,
0:22:34–0:22:40
als Gegenbewegung gegen Apple gehe ich jetzt in alternative Store.
0:22:40–0:22:45
Das wird es nicht sein. Es wird schlussendlich nur um, es geht um Kohle.
0:22:46–0:22:48
Ich glaube, Kohle ist ein gutes Stichwort.
0:22:50–0:22:57
Die sogenannte Apple-Tags. Ich glaube, was Steve Jobs vor einigen Jahren der
0:22:57–0:22:59
App Store vorgestellt hat, 2008,
0:23:00–0:23:04
hat es ja geheiss, wenn du 10 Franken für deine App verlangst,
0:23:04–0:23:09
kommen mir 3 Franken über und du bekommst 7 Franken über. Einfach mal für die Initial-App.
0:23:10–0:23:13
Und dann irgendwann sind die sogenannten In-App-Käufe gekommen.
0:23:13–0:23:17
Das heisst, wenn du jetzt zum Beispiel, man kann sagen, ich glaube,
0:23:17–0:23:22
sie machen es nicht, die App vom Tagi, du verkaufst dort ein Abo,
0:23:22–0:23:27
dann holt Apple von dieser, es ist ja eine reine Finanztransaktion, 30%.
0:23:27–0:23:31
Und wenn man jetzt schnell denkt, wenn ich an der Tankstelle für 100 Franken
0:23:31–0:23:36
Benzintank und meine Mastercard angebe,
0:23:36–0:23:41
und ich habe die Mastercard 2%, also vielleicht wäre es auch schlauer gewesen,
0:23:41–0:23:45
einfach dort bei dem Prozentsatz, also ich rede jetzt nur von diesen In-App-Käufen,
0:23:45–0:23:48
also von diesen Transaktionsgebühren, wenn man dort vielleicht ein bisschen
0:23:48–0:23:52
angesetzt hätte, weil ich finde die 30% für In-App-Käufe echt unverschämt.
0:23:52–0:23:57
Die ist unverschämt und sie ist auch gar nicht zurückgegangen.
0:23:57–0:24:03
Und wie du sagst, Chris, es hat sich auch dann ausgedehnt auf Tabos,
0:24:03–0:24:04
also auf wiederkehrende.
0:24:06–0:24:12
Die Umsätze macht Apple durchs Band weg die hohle Hand und das ist natürlich absolut komfortabel.
0:24:12–0:24:16
Ich verstehe, dass sie das nicht aufgeben wollen, aber man kann sich schon fragen,
0:24:17–0:24:22
also wenn du überlegst, ob das ein Wettbewerbshindernis ist und eigentlich schädlich
0:24:22–0:24:26
für den freien Markt, dann kann man ganz klar bejahen.
0:24:26–0:24:30
Also Apple hat ja dann auch diese Buße von 1,8 Milliarden bekommen,
0:24:30–0:24:36
weil sie gesagt haben, auch mit den Mechanismen des Stores haben sie sich eindeutig
0:24:36–0:24:39
bevorteilt, selbst gegenüber Spotify.
0:24:40–0:24:45
Weil sie natürlich in diesem Streaming-Geschäft der Streaming-Apps viel bessere
0:24:45–0:24:47
Karten gehabt haben als ihre Konkurrenten.
0:24:47–0:24:51
Und das kann man glaube ich ganz klar sagen, das ist wettbewerbsschädlich,
0:24:51–0:24:55
das ist eigentlich nicht das, was man haben möchte, aber ich fürchte auch,
0:24:55–0:24:58
wenn wir vielleicht ein bisschen grundsätzlich werden, ich fürchte auch,
0:24:58–0:25:02
Auch die EU hat da wahrscheinlich zu lange gewartet oder eben,
0:25:02–0:25:06
wenn du jemanden regulierst, der dann schon so riesig ist und du willst ihn
0:25:06–0:25:10
zwingen, sein Geschäft eigentlich aufzumachen,
0:25:10–0:25:15
dann sitzt er ja immer auf einer Art am längeren Hebel, weil er überall auch
0:25:15–0:25:17
an versteckten Schrauben drehen kann und so.
0:25:17–0:25:20
Also was willst du machen? Ich glaube, wahrscheinlich das einzige,
0:25:20–0:25:23
was du machen kannst, ist wirklich, du musst Du kannst sagen, okay,
0:25:24–0:25:30
wir müssen die Apple aufspalten und sagen, wir regulieren überhaupt nichts,
0:25:30–0:25:33
aber wir sagen zum Beispiel, das iPhone,
0:25:33–0:25:39
die Hardware und die Software müssen von unterschiedlichen Unternehmen hergestellt
0:25:39–0:25:42
werden und die müssen sich konkurrenzieren auf dem freien Markt.
0:25:43–0:25:46
Und dann kannst du auch irgendwie, könnte dann der Teil von Apple,
0:25:47–0:25:50
der die Hardware herstellt, Ihr könnt ja dann auch auf die Idee kommen,
0:25:50–0:25:53
okay, jetzt gefällt uns das iOS aber nicht mehr.
0:25:53–0:25:57
Da haben wir irgendeinen Konkurrenten, der ein besseres Betriebssystem anbietet oder mehrere.
0:25:58–0:26:02
Dann würde wahrscheinlich der Wettbewerb spielen. Wäre das Apple aufspalten, DigiChris?
0:26:04–0:26:06
Ich freue mich eigentlich immer so ein bisschen aufspaltend,
0:26:06–0:26:11
wie denn das, ja, wenn er ein Team Q auf allen drei Unternehmen ist, ja, wenn es einfach,
0:26:11–0:26:16
du siehst es in anderen Buden, da hast du irgendwie, weiss ich was,
0:26:16–0:26:20
UBS Services AG, UBS Wealth Management,
0:26:21–0:26:25
also ich bin jetzt auch nicht so ein Experte, aber ja, aufspaltend,
0:26:25–0:26:28
wahrscheinlich schön und gut, aber eben, wie denn da?
0:26:28–0:26:33
Bei Microsoft stand das wirklich mal zur Debatte, 1999 oder wann das war,
0:26:33–0:26:38
weil man fand, ja, die haben das Betriebssystem, die haben das Office,
0:26:39–0:26:41
die haben den Browser, die haben alles.
0:26:41–0:26:45
Wenn man jetzt da die könnte zwingen, ich weiss nicht, wie man es gemacht hätte,
0:26:46–0:26:51
aber ich finde, man müsste zumindest mal ernsthaft darüber nachdenken und man
0:26:51–0:26:56
könnte es auch als Droh-Szenario in den Raum stellen und sagen, sagen, okay Apple,
0:26:56–0:26:59
jetzt probieren wir es mal so und wenn ihr dann nicht mitmacht,
0:27:00–0:27:01
dann wäre das die nächste Möglichkeit.
0:27:02–0:27:06
Kevin, Apple aufspalten, wäre das etwas, bei Google würde es ja auch irgendwie
0:27:06–0:27:08
auf der Hand liegen, oder?
0:27:08–0:27:16
Suchmaschinen abspalten, das Android abspalten, das würde uns Konsumenten nur nützen.
0:27:18–0:27:28
Wer entscheidet so etwas? Kann man das überhaupt? Ja, das kann man als Wettbewerbsbehörde machen.
0:27:28–0:27:32
Da kann man sagen, ihr habt eine marktbeherrschende Stellung und jetzt müssen wir etwas unternehmen.
0:27:33–0:27:40
Dann heisst es, ihr müsst etwas unternehmen, also splittet ihr das intern auf,
0:27:40–0:27:45
was eigentlich nur eine Geld-hin-und-her-Schieberei ist, aber faktisch überhaupt nichts bewirkt.
0:27:48–0:27:53
Ich glaube, man könnte ja schon zwingen, dass die nicht irgendwie der eine dann
0:27:53–0:27:59
die Holding ist und die Mutter von der anderen, sondern dass die organisatorisch
0:27:59–0:27:59
getrennt werden müssen.
0:27:59–0:28:02
Hat es das schon mal gegeben? Ich glaube, das hat es schon mal gegeben.
0:28:02–0:28:06
Es ist nicht einmal General Electric aufgespalten worden. In den USA.
0:28:06–0:28:11
Ich glaube, da war eben kürzlich mal ein uralter Bond,
0:28:12–0:28:19
der so hiess, wenn diese Operation abgeschlossen ist, habe ich das Monopol für
0:28:19–0:28:23
Drogen und die Telefongesellschaft das andere Monopol. und sonst hat keiner mehr einen Monopol.
0:28:24–0:28:28
Also ich glaube, das ist nicht einmal AT&T gewesen, wo man irgendwo aufgespalten ist.
0:28:29–0:28:34
Aber klar, was Kevin sagt, ich meine, theoretisch, wenn jetzt die EU würde sagen,
0:28:34–0:28:40
eben Apple, das Apple würde sagen, ja okay, pipipipip, off, dann gehen wir halt.
0:28:40–0:28:44
Also das ist die EU würde verlassen, das fände ich sehr spannend.
0:28:44–0:28:47
Ja, also ist jetzt nur so ein Ding, also ich finde es einfach,
0:28:47–0:28:52
wie gesagt, dass du so Unternehmen wirklich komplett kannst aufspalten.
0:28:53–0:28:56
Das stelle ich mir jetzt einfach organisatorisch. Und ja, schaust du wirklich,
0:28:57–0:29:00
dass wenn jemand im Board of Directors bei Apple Hardware sitzt,
0:29:01–0:29:07
dass da nichts und auch seine Frau nicht bei Apple Services sitzt. Also, ja, ja.
0:29:08–0:29:11
Idee ist ja gut, aber wahrscheinlich nicht ganz so einfach.
0:29:12–0:29:15
Also, ich habe nachgeschaut, also nachgeschaut, ich habe Chat-Shippit gefragt,
0:29:15–0:29:18
ob es eben so verfügte Aufspaltungen gibt.
0:29:18–0:29:22
Das hätte man können im Vorfeld von dieser Sendung machen. und du hast AT&T
0:29:22–0:29:24
genannt, 1984 tatsächlich.
0:29:25–0:29:30
Dort hat die US-Regierung einen Antitrust-Prozess geführt und dann gefunden,
0:29:30–0:29:32
sie müssten sich aufspalten.
0:29:33–0:29:36
Die als Baby Bells wurden dann die genannt.
0:29:36–0:29:45
Standard Oil, 1911, wurde auch aufgespalten und bei Microsoft hat man dann gefunden, man könnte.
0:29:47–0:29:51
Das machen, aber man hat es dann nicht gemacht. So richtig ernsthaft, Microsoft.
0:29:51–0:29:56
Aber es ist mehrfach in den USA zur Debatte gestanden, es ist auch schon durchgeführt
0:29:56–0:30:01
worden, aber man könnte sagen, heute wird das nicht ernsthaft erwogen.
0:30:01–0:30:05
Ich habe lustigerweise, erinnere ich mich noch, als das erste Mal,
0:30:05–0:30:10
wo Biden und Trump gegeneinander antreten wollten, dort haben beide gefunden,
0:30:11–0:30:13
sie machen etwas gegen Big Tech.
0:30:13–0:30:17
Sowohl Biden wie auch auch Trump hat das versprochen.
0:30:17–0:30:19
Es ist natürlich mehr oder weniger um Facebook und so gegangen,
0:30:19–0:30:23
aber passiert ist gerade null, oder? Also man kann schon sagen,
0:30:23–0:30:25
Politik schläft ein bisschen.
0:30:26–0:30:29
Also speziell in den USA, aber ich glaube, das kommt auch davon,
0:30:29–0:30:33
wie man in den USA denkt, dass man halt dort einfach, ja, ich weiss nicht,
0:30:33–0:30:37
ob liberal das richtige Wort ist, aber eben, dass man einfach eigentlich den Staat,
0:30:39–0:30:43
libertär ist auch das falsche Wort, aber den Staat möglichst wenig eingreifen soll.
0:30:43–0:30:46
Ich glaube, Wenn du jetzt in den USA bist, dann fragst du dich,
0:30:46–0:30:51
ob wir Facebook tatsächlich zwingen sollten, das und das zu machen.
0:30:51–0:30:55
Ich glaube, ja, da würde ich auch sagen.
0:30:55–0:30:58
Am Schluss läuft es einfach darauf heraus, wie sehr man will,
0:30:58–0:31:03
dass der Staat in die freie Marktwirtschaft eingreift.
0:31:03–0:31:07
Kevin, wie sehr könnte das nach deinem Geschmack passieren?
0:31:08–0:31:10
Dass der Staat eingreift? Ja.
0:31:13–0:31:17
Begeister dich, Klaus. Ja, ich kann wahrscheinlich aufgeben.
0:31:17–0:31:20
Weil die Firmen sehr clever sind.
0:31:21–0:31:25
Wenn ein Staat eingreift, dann wandert man einfach ab und macht es noch immer anders.
0:31:26–0:31:32
Und ich meine, dass wir so etwas nicht im Griff haben, das haben wir während Corona gesehen.
0:31:33–0:31:39
Dass jeder Staat, jedes Land hat anders auf die die gleiche Situation reagiert,
0:31:39–0:31:42
es hat andere Regeln gegeben, weil halt jedes Land anders funktioniert.
0:31:43–0:31:47
Und darum glaube ich, das ist mega schwierig, zu sagen, man spaltet irgendetwas
0:31:47–0:31:53
auf und wenn ich jetzt von, wir gehen jetzt von Amerika aus und die entscheiden
0:31:53–0:31:57
so, in Amerika läuft das so, dann passt das ja wahrscheinlich überhaupt nicht auf Europa.
0:31:58–0:32:01
Und dann haben wir schon wieder, also es wird schon wieder ein Murks.
0:32:01–0:32:03
Darum glaube ich, das funktioniert nicht.
0:32:03–0:32:08
Ich glaube, man müsste es mal ausprobieren und das wäre jetzt ein lustigen Fall,
0:32:08–0:32:10
um einfach mal zu schauen, was dabei rauskommt.
0:32:10–0:32:16
Einfach mal zum Testen. Genau, mal zum Testen. Ich polemisiere da.
0:32:16–0:32:21
Aber ich finde, als Druckinstrument und als wirksame Druckkulisse könnte man
0:32:21–0:32:25
das brauchen, dass jetzt Apple zum Beispiel in diesem Fall ein bisschen ernsthafter
0:32:25–0:32:28
probiert hätte, wirklich das Anliegen umzusetzen.
0:32:28–0:32:32
Ich glaube, man müsste... Jetzt ist es sicher zu früh, um wirklich ernsthafter
0:32:32–0:32:38
darüber zu reden, aber dass es als Möglichkeit im Raum Umstand fände ich auf
0:32:38–0:32:39
eine Art schon noch wichtig.
0:32:40–0:32:44
Die Schweizer, um auch noch auf uns zu reden zu kommen, wir sind einfach so,
0:32:45–0:32:49
Trittbrettfahrer gewesen und die SP hat vor einem Jahr gefragt an den Bundesrat,
0:32:49–0:32:53
ob man nicht auch eine ähnliche Gesetzgebung brauchen würde.
0:32:53–0:32:56
Und dann hat der Bundesrat gefunden, nein, es reicht, wenn die EU das macht,
0:32:56–0:33:02
dann behandeln uns die Konzerne ähnlich wie die Unternehmen in der EU.
0:33:02–0:33:05
Und jetzt der Fall von Apple zeigt, dass es eben nicht so ist.
0:33:05–0:33:10
Von diesen Trittstores können wir eh nichts über Vorläufige sehen.
0:33:13–0:33:19
Auf eine Art wäre es wahrscheinlich der beste Fall, wenn es den Markt regeln
0:33:19–0:33:26
würde und die alternativen Stores so erfolgreich wären, dass Apple das quasi gezwungen wäre.
0:33:26–0:33:28
Dass der Druck so stark wäre, dass
0:33:28–0:33:32
es die am Schluss überall gäbe und sie ernsthaft die Alternative wären.
0:33:32–0:33:37
Aber ich sehe das einfach nicht so. Videos hast du überall, also auf dem iPad
0:33:37–0:33:40
und eben auf der Apple Watch, Vision Pro, Apple TV schon gar nicht.
0:33:40–0:33:44
Genau, die sind einfach zu klein, diese Plattformen. Wie heisst das irgendwie?
0:33:45–0:33:49
Es gibt hier einen lustigen Vlooper, so eine Very Large Online Plattform,
0:33:49–0:33:53
ich glaube, so ein Flop mit einem Vögelchen.
0:33:54–0:33:59
Und ja, ich habe gefragt, was ist eine Very Large Online Plattform? Also ja, wie gesagt...
0:33:59–0:34:02
Wie hat er das jetzt gesagt? Gut gemeint, ist auch schlecht gemacht.
0:34:03–0:34:04
Oh Gott, ich liege fast mit dem Zitat.
0:34:05–0:34:10
Ich glaube tatsächlich, wir sollten zwar wieder mal fast schon wieder aufhören,
0:34:10–0:34:16
aber ich glaube, WhatsApp auf der anderen Seite hat ja dann sehr schnell angefangen,
0:34:16–0:34:17
diese Öffnung umzusetzen.
0:34:17–0:34:21
Und dann habe ich mich zuerst ein wenig gefragt, warum sind denn jetzt die so
0:34:21–0:34:23
bereit für die Interoperabilität?
0:34:24–0:34:27
Dann habe ich gedacht, ja, weil WhatsApp einfach mehr nützt als der allen anderen.
0:34:27–0:34:29
Andere, das sind die grössten Messenger.
0:34:29–0:34:33
Also profitierst du als Grösster doch, wenn du mit den Kleineren kannst interagieren,
0:34:34–0:34:36
viel mehr, wenn du den Kleineren umgekehrt profitierst.
0:34:36–0:34:41
Aber ich glaube, wenn Frama oder Signal gesagt hätten, WhatsApp schlägt dich,
0:34:41–0:34:43
wir wollen sicher kein WhatsApp Interoper...
0:34:45–0:34:51
Interoper... Ich glaube, das müsste man zungenbrechen. Ja, glaube ich auch. Teilweise.
0:34:53–0:34:56
WhatsApp wird genug Entwickler haben. Ja, und dass halt der Herr Zuckerberg
0:34:56–0:35:01
muss sagen, jetzt schreibt mal irgendwie ein API und wenn halt irgendjemand sollte kommen.
0:35:01–0:35:06
Wir stehen gut da und wir haben sogar die Chance, dass wir die anderen noch
0:35:06–0:35:11
ein bisschen aussaugen und dann so fast im wortwörtlichen Sinn aussaugen,
0:35:11–0:35:16
wenn sie mit denen eben interoperabilisieren, falls es das wäre.
0:35:16–0:35:21
Also ich würde sagen, das Thema wird uns beschäftigen. noch ein,
0:35:22–0:35:25
famous last word oder vielleicht einfach eine Prognose, Digi-Chris,
0:35:25–0:35:30
was meinst du, ist Hopp oder Topp die Idee, was Apple jetzt da gemacht hat und
0:35:30–0:35:31
wird das die EU schlucken?
0:35:32–0:35:37
Ich denke, wir werden spätestens in unserem digitalen Realitätsabgleich darüber
0:35:37–0:35:42
reden und hat Flutpotenzial, weil ich glaube, es wird sich, ich sage jetzt mal,
0:35:42–0:35:44
ausserhalb unserer Bubble, nichts ändern. Ja.
0:35:45–0:35:51
Kevin, was meinst du, ist das so einen politischen Rohrkrepierer am Schluss?
0:35:51–0:35:57
Ich glaube, das ist jetzt einfach, man hat das Traktandum abgekökkelt,
0:35:57–0:36:02
erledigt und somit ist das, ich glaube, das ist ein Rohrkrepierer.
0:36:02–0:36:06
Immerhin hatten wir ein Sendungsthema für heute. Das ist auch etwas wert.
0:36:06–0:36:09
Wir wünschen euch einen schönen Abend. Tschüss zusammen.
0:36:11–0:36:26
Music.

Die Europäische Union findet, es sei nicht mehr zeitgemäss, dass die Techkonzerne allein über ihre Plattformen bestimmen, die so gross und wichtig sind, dass kaum jemand von uns noch um sie herumkommt. Darum greift die EU per Gesetz durch und zwingt diese sogenannten Gatekeeper zur Öffnung: Bei Whatsapp sind Chats bald auch App-übergreifend möglich und Apple ebnet den Weg für App-Stores von Drittanbietern.

Seit März ist dieses Gesetzes über digitale Märkte nun in Kraft und wir wissen, wie Apple die Vorgaben umsetzt. Das gibt viel Diskussionsstoff – denn der Eindruck könnte entstehen, dass die Bereitschaft bei Apple zur Öffnung nicht sehr gross ist. Wir diskutieren den Stand der Dinge und viele der offenen Fragen. Zum Beispiel: Sollte die EU nun andere Saiten aufziehen? Und warum tut der Bundesrat so, als ob ihn die Sache nichts anginge? „Apple, die EU und das App-Store-Monopol“ weiterlesen