Wann fällt uns ChatGPT in den Rücken?

Transkript anzeigen (falls vorhanden)

00:00–0:00:19
Music.
0:00:20–0:00:25
Ähm, A mit Aryan Nation und ich habe fast ins falsche Mikrofon reingeredet,
0:00:25–0:00:27
aber ich glaube, es kommt trotzdem gut heute.
0:00:30–0:00:33
Radio Stadtfilter. 96,3 Megahertz.
0:00:34–0:00:40
Hoi Kevin, ich hoffe, du redest ins richtige Mikrofon rein. Ich rede ins richtige
0:00:40–0:00:42
Mikrofon rein, aber die Hurenvögel auch.
0:00:42–0:00:46
Die sind Wahnsinn, was ist denn mit denen? Ich weiss nicht.
0:00:46–0:00:50
Ich bin den ganzen Tag nicht zuhause gewesen und das Drehen jetzt Ich weiss
0:00:50–0:00:51
nicht, was die haben. Die spinnen.
0:00:53–0:01:00
Was machen wir mit ihnen? Poulet. Wäre jetzt auch etwas fies, oder? Ja.
0:01:02–0:01:05
Ja, aber ich entspanne mich. Ich weiss nicht, was sie haben.
0:01:06–0:01:11
Ja. Wir müssen mal... Das fehlt noch bei all diesen KI-Sachen,
0:01:11–0:01:12
die wir haben, neuerdings.
0:01:13–0:01:16
Dass du einfach so einen Übersetzer... Es gibt jetzt den Übersetzer,
0:01:16–0:01:22
der das Video und dann macht er so aus deinem Deutsch geredet ein Video,
0:01:22–0:01:25
macht er irgendwie japanisch oder chinesisch oder so.
0:01:25–0:01:29
Das ist recht beeindruckend. Aber noch viel beeindruckender wäre es,
0:01:29–0:01:34
wenn man jetzt das Mikrofon diesen Hühnern hinheben könnte und dann würde K.I.
0:01:34–0:01:35
Sagen, was sie eigentlich haben.
0:01:37–0:01:39
Ich glaube, wir sind im Fall nicht mehr so weit weg von dem.
0:01:40–0:01:46
Findest du? Ich glaube, das kommt wahrscheinlich relativ schnell,
0:01:46–0:01:52
dass man einfache Tier-Laut übersetzen kann.
0:01:52–0:01:57
Beziehungsweise am Hund kommt es relativ schnell.
0:01:58–0:02:01
Das wäre super. Ich bin nicht sicher, ob du recht hast.
0:02:02–0:02:05
Ich glaube, es ist nicht so schwierig.
0:02:06–0:02:10
Weil... bist du mit Hunden aufgewachsen? Nein, nein.
0:02:11–0:02:14
Kennst du dich mit Hunden aus? Ja, nicht so wirklich.
0:02:15–0:02:18
Okay, aber wenn du mit Hunden aufgewachsen bist, oder mit...
0:02:18–0:02:22
Hunde sind halt dankbar, weil die geben halt Töne von sich.
0:02:22–0:02:26
Du kannst bei einem Hund das Bellen unterscheiden, was es bedeutet.
0:02:27–0:02:31
Okay. Und darum habe ich das Gefühl, du kannst, wenn du das analysierst,
0:02:31–0:02:37
kannst du dem Hund wahrscheinlich ein Kommando geben im Sinn von Freude, Angst, Gefahr.
0:02:37–0:02:42
Ich glaube, der geht relativ schnell. Meinst du, das wäre dann.
0:02:43–0:02:47
Für jeden Hund spezifisch, dass man das zuerst trainieren müsste?
0:02:47–0:02:48
Oder ist das universell?
0:02:49–0:02:51
Haben die Hunde so universelle Sprache?
0:02:52–0:02:56
Ich glaube, sie haben universelle Sprache. Ich glaube, wenn ein Hund bellt und
0:02:56–0:03:01
sagt «Hey, kein Scheiss, jetzt ist es fertig», ich glaube, das hat eine universelle
0:03:01–0:03:03
Sprache, das verstehen alle Hunde.
0:03:03–0:03:09
Ja, das wäre noch lässig. Also, ich hatte mal so eine App, wo meine Tochter
0:03:09–0:03:12
noch als Baby war und sie behauptete, dass sie unterscheiden können,
0:03:13–0:03:15
was das Gebrüll von dem Kind heisst.
0:03:16–0:03:20
Und mich hätte es gedacht, das sei so ein bisschen eine Scharlatanerie gewesen.
0:03:20–0:03:24
Also als Eltern hast du dann zwischendurch das Gefühl gehabt,
0:03:24–0:03:27
du gehörst dem Kind jetzt an, ob es Hunger hat, ob die Windel voll ist,
0:03:28–0:03:33
ob es einfach die Schnauze voll hat, so generell, und will schlafen oder so.
0:03:34–0:03:39
Oder nicht schlafen, das kann ja dann auch noch sein. Aber diese App hat das
0:03:39–0:03:41
also nie so treffsicher herausfinden können.
0:03:43–0:03:48
Aber du, als Elternteil, weisst es bei deinem Kind. Ja, genau.
0:03:49–0:03:51
Und darum glaube ich, KI ist nicht so weit weg.
0:03:51–0:03:57
Weil wir können es ja auch. Also ich meine, wenn ich ein Baby höre und es schreit,
0:03:57–0:04:01
dann kann ich wahrscheinlich als Vater, der selber Kinder hatte,
0:04:01–0:04:04
kann ich wahrscheinlich beurteilen, was bedeutet das genau,
0:04:04–0:04:09
wo jemand anderer, der kein Kind hatte, wahrscheinlich das nicht beurteilen kann.
0:04:09–0:04:13
Und darum habe ich das Gefühl, es ist lernbar. Das ist wieder einmal eine dieser
0:04:13–0:04:18
berühmten Prognosen im «Nerdfunk». Wir werden es dann kontrollieren,
0:04:18–0:04:20
soll ich sagen. In fünf Jahren müsste es ja da sein.
0:04:21–0:04:23
Einigen wir uns darauf, dass wir das in fünf Jahren abklären.
0:04:23–0:04:25
In fünf Jahren, super. Genau.
0:04:26–0:04:38
Music.
0:04:38–0:04:42
Und heute geht es genau um die KI. Wir haben ja immer darüber gesprochen,
0:04:42–0:04:46
Kevin, wie toll das ist und wie die unser Leben erleichtert.
0:04:46–0:04:51
Und dass wir jetzt nicht mehr selbst unsere bösen Mails ausformulieren müssen,
0:04:51–0:04:56
sondern nur noch schreiben, ich finde, mein Chef sagt Trottel und das,
0:04:56–0:05:01
was er da wieder ausgedacht hat, ist der letzte Hirnschiss.
0:05:01–0:05:05
Und jetzt, Chat-GPT, formuliere mir das in Früchten. Schreibe mir das in Schön.
0:05:05–0:05:08
Genau, so dass ich nicht entlassen werde.
0:05:08–0:05:14
Genau, so macht man das. Aber sie hat ja vielleicht auch negative Seiten, die KI.
0:05:14–0:05:17
Und darüber wollen wir heute reden, oder?
0:05:18–0:05:24
Ich habe gefunden, ich würde gerne mal eine Sendung machen über «Ist jetzt KI gefährlich?
0:05:24–0:05:30
Ich scheisse in die Hosen vor Angst und du musst alles aufheben.» Okay.
0:05:30–0:05:34
Dass ich das Gefühl habe, es kommt extrem gut, was wir hier machen.
0:05:34–0:05:37
Sollen wir so ein Rollenspiel machen?
0:05:37–0:05:46
Du bist der Scheisshass und ich bin der, der sagt, nein, wir sollen alles, überall die K.I.
0:05:46–0:05:50
Einbauen und ohne das Kruppeln benutzen für alles.
0:05:51–0:05:54
Du kannst ja mal so die Position einnehmen, weil ich bin wirklich der,
0:05:54–0:05:56
der denkt, oh oh, das ist nicht gut.
0:05:57–0:06:01
Und ernst, ich finde es wirklich schwierig.
0:06:01–0:06:04
Und jetzt möchte ich mit dir über das reden.
0:06:06–0:06:12
Genau in diesem Rollenspiel. Ich bin der Sales Manager von OpenAI,
0:06:13–0:06:16
der dir alles antrillt, was wir so zu bieten haben.
0:06:17–0:06:21
Ich bin ein alter Mann, der noch nie mit Technik etwas zu tun hatte.
0:06:22–0:06:25
Also Herr Rechsteiner, wir haben hier unser schönes Produktsortiment.
0:06:26–0:06:31
Wir haben hier einen Chatbot, eine Bildgeneration. Nein, wie nennt man das, ein Generator?
0:06:31–0:06:36
Bildgenerator. Genau, und das müssen Sie alles brauchen, Herr Rechsteiner,
0:06:36–0:06:40
weil ohne das sind Sie einfach nicht mehr von heute.
0:06:43–0:06:48
Das ist so modernes Zeug, das braucht man alles nicht. Das ist alles Scheissdreck.
0:06:49–0:06:51
Okay. Nein, das ist es ja nicht. Aber...
0:06:53–0:06:58
Das ist jetzt ein abrupter Einstieg. Nein, ich würde sagen, aber hören Sie mal, Herr Rechsteiner.
0:06:59–0:07:03
Sie haben ja so ein Unternehmen und dort können Sie einfach Zeit sparen.
0:07:03–0:07:04
Und Zeit ist ja bekanntlich Geld.
0:07:05–0:07:09
Und das sollte eigentlich Ihre Bedenken sofort zerstreuen.
0:07:10–0:07:11
Ja, wahrscheinlich müsste es das.
0:07:13–0:07:17
Nein, die Diskussion kann jetzt nicht schon fertig sein.
0:07:18–0:07:21
Haben Sie vielleicht allenfalls gewisse Bedenken, Herr Reichsteiner,
0:07:21–0:07:23
was unser Produkt angeht?
0:07:23–0:07:32
Ich kann Ihnen versichern, alles ist sicher, wir haben es getestet mit 15 Probanden in Sri Lanka.
0:07:33–0:07:38
Und sind alle tot. Am Nachmittag. Ja, aber das ist am Tsunami gelegen,
0:07:38–0:07:40
der dann gekommen ist, nicht unserer Software.
0:07:40–0:07:46
Nein, Herr Schüster, ich verstehe, dass Sie das gut finden, aber mein Problem
0:07:46–0:07:48
ist, ich verstehe nicht, was passiert.
0:07:49–0:07:53
Sie verkaufen mir jetzt irgendeine Software, irgendein Programm,
0:07:53–0:07:56
irgendeinen Dienst, wo ich nicht genau weiss, woher das kommt.
0:07:56–0:08:00
Und das macht dann irgendetwas, wo ich auch nicht so genau weiss,
0:08:00–0:08:02
woher es jetzt die Informationen nimmt.
0:08:02–0:08:05
Und das finde ich einfach nicht so gut.
0:08:06–0:08:09
Also da könnte ich jetzt ernsthaft darauf Antwort geben, aber ich würde jetzt
0:08:09–0:08:12
mal sagen, ich probiere jetzt den Verkäufer nochmal.
0:08:12–0:08:16
Also schauen Sie mal, Herr Rechsteiner, wissen Sie denn wirklich im Detail,
0:08:16–0:08:22
wie Ihr Computer sonst funktioniert, wie ein Windows, was da in diesen 70 Millionen
0:08:22–0:08:24
Zielen Programmcode drin ist?
0:08:25–0:08:31
Oder wissen Sie, wie Ihre Versicherungs-, Ihre Krankenkasse im Detail funktioniert?
0:08:31–0:08:34
Oder unser politisches System.
0:08:34–0:08:40
Dieser Zug zum Verstehen ist doch schon längstens abgefahren.
0:08:42–0:08:46
Ich glaube, der Zugfahrer ist in den meisten Fällen von aussen.
0:08:46–0:08:50
Und bei mir in der Firma weiss ich zumindest, wenn ich diesen Knopf drücke, passiert das.
0:08:51–0:08:55
Und mit der KI habe ich das Gefühl, ich weiss das nicht mehr.
0:08:55–0:08:59
Die macht nachher irgendetwas, aber das entscheidet dann vielleicht nicht mehr ganz ich.
0:09:00–0:09:04
Und bei meinem PC ist es so, wenn ich dem sage, senden, dann schickt er das E-Mail.
0:09:04–0:09:08
Aber er kommt dann nicht selber auf die Idee, «Ah, ich könnte jetzt da noch
0:09:08–0:09:12
so ein bisschen etwas optimieren, etwas ändern, ohne dass ich da...» Doch, mindestens schon.
0:09:14–0:09:19
Aber ja, for the sake of argument, sagen wir, du hast recht.
0:09:20–0:09:25
Ja, genau, das stimmt. Aber ist das nicht genau die Voraussetzung,
0:09:25–0:09:31
dass er dir eben kann mehr Arbeit abnehmen als bisher so ein nicht künstlich
0:09:31–0:09:33
intelligenter Computer?
0:09:33–0:09:39
Weil eben, Je mehr er es von sich aus macht, wo du nicht genau weisst,
0:09:39–0:09:45
warum er es macht, desto hilfreicher ist er für dich, weil er dann schon merkt,
0:09:45–0:09:47
dass du etwas von ihm willst,
0:09:47–0:09:49
bevor du es ihm gesagt hast.
0:09:50–0:09:54
Aber... Und da kommt glaube ich mein Problem.
0:09:55–0:10:02
Woher weiss er es? Ich glaube, das ist das, wo ich bei KI ein Problem habe.
0:10:02–0:10:05
Woher weiss das Ding, was es will?
0:10:06–0:10:12
Es ist der grösste gemeinsame Nenner. Es ist das, was ihm all die Informationen
0:10:12–0:10:15
im Durchschnitt sagen. Ja. Das wird gemacht.
0:10:15–0:10:20
Und das ist gefährlich, habe ich das Gefühl.
0:10:21–0:10:25
Das ist, also jetzt kenne ich vielleicht zu den Rollen aus, aber,
0:10:25–0:10:28
oder müsste ich jetzt überlegen, ob das nicht gefährlich ist.
0:10:28–0:10:35
Das ist auf eine Art gefährlich, kann man sagen, aber diese KIs kann man ja irgendwie einhegen.
0:10:35–0:10:42
Man kann ihre Parameter vorgeben, worüber sie entscheiden dürfen.
0:10:42–0:10:47
Und dann musst du einfach darauf schauen, dass sie halt, zum Beispiel deine
0:10:47–0:10:50
Buchhaltungs-KI, du darfst selber,
0:10:50–0:10:57
was weiss ich was, neue Briefmarken bestellen und neue, was brauchst du noch,
0:10:57–0:11:03
vielleicht einen Toner für deinen Drucker, aber wenn es über 10'000 Franken
0:11:03–0:11:05
kostet, dann fragst du mich vorher noch.
0:11:07–0:11:12
Und dann ist sichergestellt, dass sie nicht Toner für 50'000 Franken bestellt,
0:11:12–0:11:15
weil sie gefunden haben, oh, der ist gerade im Angebot, da könnte Kevin,
0:11:15–0:11:19
wenn er die nächsten 100 Jahre Toner hat, ganz viel Geld sparen.
0:11:20–0:11:25
Aber mal angenommen, ich habe jetzt einen Drucker. Ja. Und dieser Drucker leidet.
0:11:25–0:11:27
Er gibt auf, er mag nicht mehr.
0:11:28–0:11:30
Und ich weiss, eigentlich komme ich, ich ersetze den.
0:11:31–0:11:36
Ich lasse den jetzt noch auslaufen, dann ist es gut. Wie sage ich das jetzt der KI?
0:11:38–0:11:43
Nicht einen Toner bestellen für den Drucker, denn der wird ersetzt, wenn er leer ist.
0:11:43–0:11:47
Und die KI wird mir einen Toner bestellen, eiskalt. Weil die sagt,
0:11:47–0:11:49
Toner ist leer, wir müssen wieder einen haben.
0:11:51–0:11:57
Jetzt muss ich hinschreiten und der KI sagen, wir haben hier einen Spezialfall.
0:11:57–0:12:02
Vielleicht hat die KI zu wenig mitgedacht, Weil wenn sie genug mitgedacht hat,
0:12:03–0:12:08
dann hat sie gefunden, jawohl, der Drucker ist kaputt, ich bestelle dir nicht
0:12:08–0:12:11
nur den Toner, sondern eben auch den Drucker.
0:12:11–0:12:16
Und das will ich auch nicht, ich will ja keinen Drucker mehr. Ah, okay.
0:12:17–0:12:22
Oder ich habe vielleicht noch einen zuhause. Ich habe noch einen Farblazer,
0:12:22–0:12:25
der reicht fürs Geschäft. Ich nehme dann diesen mit.
0:12:29–0:12:34
Ja, wir sehen schon, es ist tatsächlich ein bisschen schwierig.
0:12:34–0:12:39
Da ist ja dann nicht nur die Frage, ob du dir von der einfach so als Assistent
0:12:39–0:12:45
helfen lassen willst, oder ob du auch gewisse Entscheidungen direkt an sie delegieren willst.
0:12:45–0:12:52
Also zum Beispiel, willst du die Infrastruktur deines Büros ganz an sie delegieren,
0:12:52–0:12:56
dann musst du halt damit leben, dass du dann mit diesen Sachen musst arbeiten,
0:12:56–0:12:58
die sie für dich richtig finden.
0:12:58–0:13:02
Oder willst du ihr einfach sagen, bestelle etwas und dann, ja,
0:13:03–0:13:05
sollte sie nichts von sich aus bestellen, würde ich jetzt sagen.
0:13:05–0:13:07
Aber das wird ja KI genau machen, sie wird ja,
0:13:09–0:13:14
wahrscheinlich sehr viel Raum einnehmen irgendwann, dass man sagt,
0:13:15–0:13:17
hey, das kannst du automatisieren, das kannst du auch automatisieren.
0:13:17–0:13:19
Wo sind eigentlich die Amazon-Button?
0:13:20–0:13:24
Ja, die gibt es noch. Gibt es die noch? Genau.
0:13:26–0:13:31
Das ist ja wie so ein sehr primitiver Vorläufer ohne KI gewesen.
0:13:31–0:13:34
Ich hatte einen Knopf, den ich drauf passern konnte und dann hat es mir nochmal
0:13:34–0:13:36
ein 6-Pack-Bier bestellt. Ja, genau.
0:13:37–0:13:39
Es ist gestorben.
0:13:40–0:13:45
Aber das ist KI, dass es genau das machen wird.
0:13:45–0:13:52
Es wird Aufgaben für mich übernehmen und die Erwartungen an KI sind ja eben, es denkt mit.
0:13:52–0:13:56
Aber woher nimmt es diese Infos? Wie macht es das?
0:13:56–0:14:00
Das finde ich das Gefährliche und das haben wir nicht unter Kontrolle.
0:14:00–0:14:03
Ja, also ich finde es ja lustig, dass wir mit unserem ein bisschen,
0:14:03–0:14:08
wie soll ich sagen, primitiven Rollenspiel, wo wir wahrscheinlich keinen Preis,
0:14:08–0:14:13
keinen Oscar und sonst keinen schauspielerischen Preis dafür bekommen haben.
0:14:13–0:14:14
Wir hatten auch kein Drehbuch.
0:14:14–0:14:19
Aber ich glaube, wir sind eben sofort am richtigen Punkt gelandet,
0:14:19–0:14:22
nämlich an dem Punkt, wo eben entscheidend ist.
0:14:22–0:14:27
Das ist nämlich die KI, solange sie dir einfach nur Sachen sagt und Bilder macht
0:14:27–0:14:30
und du entscheidest dann mit dem, ob du es brauchst oder nicht,
0:14:30–0:14:34
oder wie du es brauchst, ist glaube ich alles easy peasy, da passiert nichts.
0:14:34–0:14:41
Aber wenn du dieser KI halt Entscheidungsmacht gibst und ihr erlaubst,
0:14:41–0:14:45
so Entscheidungen zu fällen, dann wird es tatsächlich sofort schwieriger, oder?
0:14:45–0:14:48
Und da sind wir, glaube ich, mitten in diesem Problem hinein.
0:14:49–0:14:52
Dass es KIs gibt, die es ja heute schon gibt, dass du zum Beispiel,
0:14:52–0:14:57
wenn du irgendeine Bewerbung schickst an ein Unternehmen, dass das vielleicht
0:14:57–0:15:04
dort eine KI einsetzt, die schon mal die Dossier sichtet und deinen Lebenslauf anschaut.
0:15:04–0:15:09
Und wenn dieser KI dann irgendetwas nicht passt, dann sortiert sie dich raus,
0:15:10–0:15:14
ohne dass du eine Ahnung hast, warum oder eben, dass das kein Mensch war,
0:15:14–0:15:16
sondern vielleicht irgendein Algorithmus.
0:15:19–0:15:26
Ich glaube, ich bin wirklich am Punkt, wo ich mir überlege, werde ich jetzt
0:15:26–0:15:28
so einen Corona-Verschwörer?
0:15:29–0:15:34
Nein, wirklich. Wo ich das Gefühl habe, sehe ich jetzt ein Problem,
0:15:35–0:15:36
das überhaupt nicht ist?
0:15:37–0:15:42
Wo ich mich völlig in irgendetwas und mir einfach überlege, hey,
0:15:42–0:15:45
die KI, wann haben wir das erste Mal von dem geredet?
0:15:46–0:15:54
Es ist noch nicht lange her und es ist omnipräsent. Es kommt ins nächste Office
0:15:54–0:16:00
rein, es wird ins iPhone integriert, es findet überall Integration von KI statt.
0:16:01–0:16:05
Vor zwei Jahren hätte ich jetzt gesagt, noch kein Thema. Thema.
0:16:06–0:16:10
Oder sehr am Anfang. Ja, ich finde das...
0:16:11–0:16:14
Ich kann jetzt diese Rolle nicht mehr wahrnehmen. Also ich muss auch zu dir
0:16:14–0:16:16
auf die skeptische Seite wechseln.
0:16:16–0:16:19
Ich finde auch, also das ist etwas, das ich wirklich kritisieren würde.
0:16:19–0:16:25
Das ist das Tempo, das wir da vorlegen, ohne dass wir eine Chance haben,
0:16:25–0:16:28
zu überlegen, ob es sinnvoll ist und wo Gefahren liegen könnten.
0:16:28–0:16:34
Ich glaube, da gab es mal so ein paar Wissenschaftler, die auch das Moratorium
0:16:34–0:16:36
gefordert haben, einen offenen Brief und so.
0:16:36–0:16:41
Aber aus dem ist ja offensichtlich nichts geworden. Man sieht, wenn es darum geht,
0:16:41–0:16:48
Kohle zu produzieren versus Risiken abschätzen zu können, dann ist völlig klar,
0:16:48–0:16:53
was im kapitalistischen System für eine Entscheidung getroffen wird.
0:16:53–0:16:58
Das finde ich auch. Das Problem ist tatsächlich,
0:16:59–0:17:07
das hat die EU in dem AI Act, dass in diesem Gesetz zur Regulierung der KIs eben auch genau,
0:17:08–0:17:15
glaube ich, schon richtig erkannt, dass man diese Fälle beurteilen oder regulieren
0:17:15–0:17:18
muss, wo eben so KIs im Hintergrund irgendetwas entscheiden,
0:17:18–0:17:20
ohne dass man eigentlich weiss,
0:17:21–0:17:25
nach welchen Regeln das macht und ob sie nicht irgendwelche Vorurteile hat,
0:17:26–0:17:31
ob sie vielleicht nur mit weissen Gesichtern trainiert worden ist und schwarze
0:17:31–0:17:34
Gesichter darum nicht vernünftig.
0:17:35–0:17:37
Behandeln kann, um was auch immer es geht.
0:17:38–0:17:43
Das ist, glaube ich, sehr entscheidend. Aber ich glaube, solange man sich bewusst
0:17:43–0:17:47
ist, wo man KIs einsetzt und was man derer für Kompetenzen gibt,
0:17:47–0:17:48
ist es nicht so gefährlich.
0:17:48–0:17:54
Aber ich glaube, ich sehe schon irgendwie, dass die dann so halt irgendwo auch
0:17:54–0:17:59
in so Rollen herutschen, wo wir dann am Schluss uns fragen, wie das überhaupt passieren könnte.
0:18:00–0:18:04
Das sehe ich schon als Gefahr. Ja, und ich weiss auch nicht,
0:18:04–0:18:08
wie stark man diese Rolle eingrenzen möchte.
0:18:08–0:18:11
Wenn wir jetzt an dem Punkt sind, wo man sagt, ja gut, jetzt schauen wir einfach
0:18:11–0:18:16
mal, was ist überhaupt möglich, und was ist nicht möglich.
0:18:17–0:18:19
Also man gibt dem wahrscheinlich keinen Rahmen.
0:18:20–0:18:25
Und das ist so ein bisschen durcheinander, dass auch Google und viele KI-Forscher
0:18:25–0:18:29
sagen, hey, wir wissen nicht mehr genau, woher es diese Infos hat.
0:18:29–0:18:31
Und was er jetzt genau macht.
0:18:32–0:18:37
Und ich habe jetzt nicht das Gefühl, dass er KI wird.
0:18:38–0:18:41
Apokalypse und Terminator und das gar nicht,
0:18:42–0:18:50
aber ich habe Angst, dass es es macht Fehler und es macht, es gibt Falschinformationen
0:18:50–0:18:55
und wir nehmen das dann als garantiert und das sehe ich als grosses Problem.
0:18:55–0:18:58
Ich kann in der KI, kann ich hineinschreiben, jetzt schreibe ich mir einen Text
0:18:58–0:19:02
über das und das Thema und das macht mir das, aber das zu verifizieren,
0:19:02–0:19:06
braucht ja dann gleich wieder das Fachwissen und das fehlt mir dann und dann
0:19:06–0:19:10
nehme ich das für, es ist von KI gemacht, das stimmt.
0:19:10–0:19:13
Ja, genau, also das ist sicher ein Punkt, dass man das Gefühl hat,
0:19:13–0:19:15
oder viele Leute haben das Gefühl, ja, KI,
0:19:15–0:19:21
gleich magisch, gleich irgendwie etwas Übersinnliches, gleich die reine Wahrheit,
0:19:21–0:19:25
also das wird ja auch oft so beworben, das sehe ich immer wieder,
0:19:25–0:19:29
dass halt die Leute sagen, ja, eben, sie macht das so auf keine weiss wie,
0:19:29–0:19:33
aber es kommt irgendwie etwas Sensationelles raus, also müssen wir das einfach
0:19:33–0:19:36
machen lassen und wahrscheinlich ist das tatsächlich, dass.
0:19:37–0:19:42
Entweder schränkst du es auf das ein, wo du genau voraussagen kannst, was dabei herauskommt.
0:19:43–0:19:47
Aber dann ist es wie ein klassischer Algorithmus, den du hart programmiert hast.
0:19:48–0:19:53
Und dann kann er nur in diesem sehr eng begrenzten Rahmen operieren.
0:19:53–0:19:58
Oder du lässt ihn frei laufen und dann entsteht vielleicht etwas Geniales,
0:19:58–0:20:03
aber du verstehst es nicht mehr und siehst vielleicht auch gar nicht,
0:20:03–0:20:11
wo die Probleme sind und wo man den Grenzzun setzen müsste, bevor man einen Unfug anstellt.
0:20:11–0:20:13
Und das ist, glaube ich, tatsächlich das Problem.
0:20:15–0:20:20
Eigentlich, um herauszufinden, was drin liegt, müsste man es völlig frei machen
0:20:20–0:20:25
lassen, aber vielleicht laufen wir so genau in die Probleme,
0:20:25–0:20:31
dass die KI am Schluss findet, ja, also Menschen braucht es eigentlich nicht auf diesem Planeten.
0:20:31–0:20:34
Die Menschen sind irgendwie eher so ein bisschen schädlich, oder?
0:20:34–0:20:37
Und dann, das so wird ja immer erklärt, wenn man sagt,
0:20:37–0:20:41
wird die KI uns alle umbringen, das ist so die Begründung, dass sie eigentlich
0:20:41–0:20:47
feststellt, dass es uns nicht braucht und dann hat sie zufällig irgendwie ein
0:20:47–0:20:52
medizinisches Wissen und kann irgendein Virus programmieren und dann sind wir weg.
0:20:53–0:20:58
Ja, vielleicht. Ja, also an das glaube ich schon nicht.
0:20:59–0:21:03
Das glaubst du nicht? dass sie uns umbringt. Das glaube ich ehrlich gesagt auch nicht.
0:21:03–0:21:10
Also eben, wir müssen vielleicht tatsächlich, wenn wir irgendein KI-Medikament oder so,
0:21:10–0:21:14
oder in so einem Labor arbeiten lassen, nach ihrem Gutdünken,
0:21:14–0:21:18
müssen wir sie vielleicht schon so einsperren, dass sie nicht einfach sagen
0:21:18–0:21:21
kann, das entlade ich jetzt in die Atmosphäre.
0:21:21–0:21:24
Das mache ich jetzt noch. Ja, genau. Weil es ist besser.
0:21:25–0:21:29
Ja, also fertiggedacht kann man sich natürlich so etwas schon überlegen,
0:21:29–0:21:33
wenn man jetzt ein KI mal sagt, du einfach mal optimieren.
0:21:34–0:21:37
Mach mal das Beste, dass es dann so etwas macht.
0:21:37–0:21:42
Ich glaube, ich weiss es nicht, vielleicht kann man Mechanismen einbauen,
0:21:43–0:21:45
die das halt stoppen, aber ja.
0:21:45–0:21:50
Ich würde gerne mit dir schnell die Diskussion machen über die Medien.
0:21:51–0:21:54
Das ist die, die mich halt auch beschäftigt.
0:21:55–0:21:59
Das ist jetzt auch schon durch. Medienhäuser, ich weiss nicht,
0:21:59–0:22:03
ob der Tagi das schon macht, ersetzen Mitarbeiter durch KI.
0:22:03–0:22:08
Das ist jetzt die grosse Diskussion. Also jetzt entlaubt man Leute und dann
0:22:08–0:22:10
generiert KI News-Texte.
0:22:11–0:22:15
Das ist mal so eine Ausgangslage, die jetzt so ein bisschen passiert.
0:22:15–0:22:16
In Amerika ist das jetzt, glaube ich, schon ein bisschen durch.
0:22:17–0:22:22
Das ist jetzt Schritt 1. Jetzt haben wir mal das.
0:22:22–0:22:26
Und jetzt kommt Schritt 2. Jetzt suche ich etwas über ein Thema,
0:22:26–0:22:33
gebe das in den KI und jetzt referenziert KI auf den Newsbeitrag,
0:22:33–0:22:36
welcher KI geschrieben hat.
0:22:36–0:22:42
Jetzt kann ich als Quelle natürlich sagen, ja cool, das kommt von der Zeitung
0:22:42–0:22:46
YY, das ist verifiziert, das hat jemand nachgeschaut, das ist super.
0:22:46–0:22:51
Und jetzt haben wir ein Problem, weil jetzt ist Quellenfindung mega schwierig.
0:22:51–0:22:56
Weil jetzt ist KI über KI über KI und jetzt müsste ich alles kontrollieren.
0:22:57–0:23:00
Und das sehe ich als Problem.
0:23:01–0:23:10
Das sehe ich auch als Problem. Aber ich glaube, Medienhäuser sollten nicht einfach
0:23:10–0:23:12
Journalisten durch KIs ersetzen.
0:23:12–0:23:15
Ich glaube, das wäre das Dümmste, was man machen könnte.
0:23:15–0:23:24
Gerade an dem Punkt, wo der Medienwandel immer noch so im Gang ist und man immer noch probiert,
0:23:24–0:23:30
händeringend Kundschaft dazu zu bringen, für Inhalte zu zahlen.
0:23:30–0:23:33
Und wenn du dann einfach irgendeinen Roboter schreiben lässt,
0:23:33–0:23:38
dann finde die Kundschaft zu Recht, ich zahle doch nicht für irgendein Artikel,
0:23:38–0:23:43
das eine Jet-GPT zusammengeprünselt hat, sondern ich glaube,
0:23:43–0:23:46
man darf die brauchen zum Recherchieren, man darf die brauchen zum...
0:23:48–0:23:49
Was weiss ich was.
0:23:51–0:23:55
Einfach so für nicht kreative Sachen, aber ich finde, jeder Text,
0:23:56–0:23:59
der jemand dafür zahlt, der sollte von einem Menschen geschrieben werden.
0:24:00–0:24:08
Und ich glaube, eben sonst war das nicht CNET in Amerika, wo schon so Roboter eingesetzt haben.
0:24:09–0:24:15
Und die haben ja dann auch brutal abgeschrieben von anderen, also plagiiert und so.
0:24:15–0:24:21
Und ich glaube, das ist Das war ja seinetisch, die haben das ausprobiert,
0:24:21–0:24:24
sie haben es auch nur so halb gar, halb batzig deklariert und so.
0:24:25–0:24:30
Und das, man hat dann auch sofort gesehen, also das ist, vor drei Wochen ist
0:24:30–0:24:32
dann zum Beispiel gestanden, hat Arzt, Techniker geschrieben,
0:24:32–0:24:37
also Wikipedia hat jetzt reagiert auf das und die schauen die einfach nicht
0:24:37–0:24:40
mehr als verlässlich an, die Inhalte, die die machen.
0:24:40–0:24:46
Und ich glaube, das gibt schon eine Selbstregulierung, aber ich glaube auch,
0:24:46–0:24:51
die KIs, die müssen, dass sie arbeiten können, brauchen diese guten Inhalte
0:24:51–0:24:56
und diese guten Inhalte müssen von Menschen erschaffen werden.
0:24:56–0:25:03
Und wenn du da immer nochmal eine Stufe drauf setzt, so wie du das geschildert
0:25:03–0:25:10
hast, ich glaube, dann geht es 1, 2, 3 Generationen und da kommt der gröbste Unsinn hinten raus.
0:25:14–0:25:19
Ja, also das sind halt so Überlegungen, die ich als Problem sehe,
0:25:19–0:25:25
dass man dann eben diesen Sachen einfach vertraut, wenn man der KI halt irgendeine
0:25:25–0:25:28
Aufgabe gibt, dass die eine Lösung für das Problem findet.
0:25:28–0:25:33
Aber es ist nicht eine gute Lösung und es ist oft auch nicht eine sinnvolle
0:25:33–0:25:36
Lösung, aber es ist eine und sie verkauft es extrem gut.
0:25:36–0:25:43
Das ist genau das. Ich glaube auch, dass das sehr schwer zu kontrollieren ist,
0:25:43–0:25:49
dass so Unternehmen wirklich einfach sagen, ja, wir haben da unsere Lösung getestet.
0:25:49–0:25:53
Bei den ersten tausend Fällen hat sie gut funktioniert, also setzen wir sie
0:25:53–0:25:59
ein zum Kreditvergaben beurteilen, zum medizinischen Entscheid treffen,
0:25:59–0:26:01
zum dieses, zum jenes und so.
0:26:01–0:26:04
Und am Anfang kontrolliert man es vielleicht noch so ein bisschen und irgendwann
0:26:04–0:26:08
einmal macht man es nicht mehr, weil es irgendwie gut funktioniert und irgendwann
0:26:08–0:26:10
einmal funktioniert es nicht mehr gut.
0:26:10–0:26:13
Und wer ist dann geschuld, oder? Also wer ist dann, ich glaube,
0:26:13–0:26:15
das ist ja auch völlig nicht klar.
0:26:15–0:26:20
Also wenn du zum Beispiel, ja, wenn du jetzt irgendeinen Text schreibst und
0:26:20–0:26:24
den veröffentlichst und dort steht in den Hanebüchern Unsinn drin und du hast
0:26:24–0:26:29
dann aber von der KI dann geschrieben, ist dann die KI geschuld?
0:26:29–0:26:33
Bist du trotzdem selber geschuld? Ist der geschuld, der die KI programmiert hat?
0:26:34–0:26:37
Ist es sonst noch irgendjemand? Ist der selber geschuld, der es gelesen hat?
0:26:38–0:26:41
Also das wird halt sofort wirklich schwierig.
0:26:43–0:26:46
Ja, und das ist wahrscheinlich ein Problem.
0:26:47–0:26:50
Und das nächste Problem, das ich sehe, ist, dass die KI-Dienste,
0:26:50–0:26:56
die JetGPT, ich habe mit dem relativ schnell angefangen, die lassen sich für
0:26:56–0:26:57
ihre Dienstleistung zahlen.
0:26:58–0:27:05
Das heisst, eine JetGPT Version 4 zahlt man, ich weiss gar nicht, 40 Franken im Monat.
0:27:05–0:27:12
20, glaube ich. Man zahlt den Betrag, aber eigentlich,
0:27:15–0:27:20
die KI ja keinen Inhalt generieren kann, also sie generiert Inhalte,
0:27:20–0:27:24
aber sie erschafft keine Inhalte, im Sinne von sie kreiert nichts Neues.
0:27:25–0:27:31
Und jetzt zahle ich einen Dienst, der mir aber keinen Inhalt kreiert,
0:27:31–0:27:36
aber ich zahle der Person, die diesen Inhalt kreiert hat, halt nichts.
0:27:37–0:27:40
Und das ist wieder das Internet-Problem.
0:27:41–0:27:45
Jetzt haben wir das Gleiche, was wir mit den Filmen hatten, was wir mit der
0:27:45–0:27:48
Musik hatten, jetzt geht es um die Inhalte, jetzt geht es um das Textschreiben.
0:27:48–0:27:52
Jetzt machen wir etwas kaputt, was eh schon am Boden war.
0:27:53–0:27:57
Aber irgendwann kommen halt all die Leute, die diese Texte erschaffen und kreieren
0:27:57–0:28:01
und sich Mühe geben und Wikipedia-Artikel machen und all das.
0:28:01–0:28:02
Die haben ja nichts davon.
0:28:03–0:28:07
Nichts. Und wer verdient? Die Leute, die eine KI eingeschrieben haben,
0:28:08–0:28:10
eine Software, die diesen Dienst verkauft, die das zusammenfasst.
0:28:10–0:28:13
Aber wer macht am Schluss dann noch die Inhalte?
0:28:13–0:28:17
Das ist eine sehr berechtigte Frage und ich habe ja, vielleicht erinnert ihr
0:28:17–0:28:23
euch daran, mit Andreas Foghunter darüber geredet, vor drei, vier Wochen.
0:28:23–0:28:29
Und er hat gefunden, er ist ja ein dezidierter Verfechter von diesem gemeinsamen Wissen.
0:28:29–0:28:33
Und er hat gesagt, das kommt allen zu gut und es entsteht etwas Neues.
0:28:33–0:28:37
Aber ich bin auch einer auf dieser Seite, dass ich finde, einfach,
0:28:37–0:28:39
wenn da, man kann sich eben,
0:28:39–0:28:44
es hat ja im Mittelalter dann auch die Druckereien gegeben, die dann nur die
0:28:44–0:28:49
Bücher drucken durften, dann gab es nur die Leute, die die Bücher gekannt haben
0:28:49–0:28:52
und dann gab es so ein Herrschaftswissen,
0:28:52–0:28:55
das halt nicht allen zu gut kam.
0:28:55–0:28:57
Und das sehe ich hier eben auch als Problem.
0:28:58–0:29:03
Wenn ein Einzelunternehmen darüber bestimmen kann, wie es so und wer und unter
0:29:03–0:29:09
welchen Bedingungen man Wissen nutzen kann, das alle zusammengetragen hat,
0:29:09–0:29:10
das eigentlich der Menschheit gehört.
0:29:11–0:29:17
Aber wo dann so ein Gatekeeper, also das ist ja auch der Begriff,
0:29:17–0:29:21
den die EU benutzt, für so grosse, mächtige Unternehmen, die dann eben so an
0:29:21–0:29:26
der Schaltstelle sitzen davon, was Leute machen können und was nicht.
0:29:26–0:29:30
Wenn so ein Gatekeeper dann über das Wissen, wie er kann, entscheidet,
0:29:30–0:29:35
dann sehe ich also schon auch ganz grosse Probleme auf uns zukommen.
0:29:35–0:29:40
Und darum, ja, sollte man vielleicht tatsächlich zuerst überlegen,
0:29:40–0:29:46
wie man die in den Griff bekommt, bevor man sich dann da kopfüber in das Abenteuer einstürzt.
0:29:46–0:29:50
Aber ich glaube, das kannst du vergessen.
0:29:50–0:29:54
Es ist doch In der Menschheitsgeschichte ist es so, dass man etwas macht,
0:29:54–0:30:00
man erfindet etwas, man macht die Atombombe oder man spaltet mal ein paar Atome
0:30:00–0:30:04
und dann schaut man, was die negativen Auswirkungen sein könnten.
0:30:04–0:30:07
Und dann ist aber das Kind eben schon im Brunnen eingefallen.
0:30:07–0:30:12
Dann bringst du das Wissen oder die Erfindung nicht mehr zur Welt raus.
0:30:13–0:30:17
Ich bin wirklich gespannt, wie es weitergeht.
0:30:17–0:30:20
Ich glaube, das wäre auch eine spannende Diskussion oder vielleicht auch eine
0:30:20–0:30:22
Rückmeldung von den Hörern, wie ihr das findet.
0:30:23–0:30:25
Ich bin nicht der, der Apokalypse sagt.
0:30:26–0:30:31
Aber ich bin ein Megatechnik-Fan, ich bin ein Mega-KI-Fan, ich finde es extrem spannend.
0:30:32–0:30:38
Aber ich bin am Punkt, wo ich sage, hey, sehen wir auch die Gefahr,
0:30:38–0:30:44
sind wir uns dem bewusst und wissen wir, was wir da machen und wirklich das
0:30:44–0:30:47
Gefühl haben, nein, wir wissen nicht mehr, was wir machen.
0:30:48–0:30:53
Wir probieren jetzt irgendetwas aus und das kann ich tosen. Ja, das kann man.
0:30:53–0:30:58
Aber man kann sagen, dass es in der Menschheitsgeschichte so war,
0:30:58–0:31:02
dass man irgendeine Erfindung gemacht hat und dann war sie da.
0:31:03–0:31:08
Dann bringst du sie nicht mehr weg und musst damit umgehen. Dann kannst du die Vernunft appellieren.
0:31:08–0:31:12
Aber das nützt nichts, weil einer oder ein anderer sieht dann garantiert einfach
0:31:12–0:31:18
die Möglichkeit jetzt berühmt und reich und einflussreich und mächtig zu werden
0:31:18–0:31:21
und darum bringst du das nicht mehr unter den Deckel und ich glaube,
0:31:21–0:31:24
dass immer also eben, ich finde eigentlich wirklich,
0:31:24–0:31:28
ich bin mir noch nicht so sicher ich habe schon den EU AI Act erwähnt und wir
0:31:28–0:31:35
haben da auch dann Tonnen von Shownotes wo ihr auch noch also die Sachen könnt
0:31:35–0:31:37
ihr im Detail nachlesen auf nerdfunk.ch,
0:31:38–0:31:40
und ich bin mir nicht sicher, ob der EU.
0:31:41–0:31:45
Der AI-Act wirklich alle Probleme löst.
0:31:45–0:31:50
Nein, das glaube ich nicht und ob er auch zu entdenkt ist und ob er nicht irgendwie,
0:31:51–0:31:54
eine zu einfache Lösung für ein zu kompliziertes Problem ist,
0:31:54–0:31:57
aber ich finde es gut, dass man es mal probiert und dass man jetzt zumindest,
0:31:57–0:31:59
ich glaube, dass sie auf die,
0:32:00–0:32:01
KIs losgehen, die eben.
0:32:03–0:32:06
Weitreichende Entscheidungen treffen und sagen, oder dort, wo es wirklich wirklich
0:32:06–0:32:07
gefährlich werden kann.
0:32:07–0:32:10
Eben so Massenüberwachungen und so, sagt man, will man nicht haben.
0:32:10–0:32:15
Dass man die Leute einfach profilieren kann nach Gutdünken, ohne dass sie das wissen.
0:32:15–0:32:24
Man will so selbstlenkende KIs und medizinische Sachen, will man vorsichtig sein.
0:32:24–0:32:29
Aber eben auch alles, wo irgendjemand eine Entscheidung getroffen wird,
0:32:29–0:32:31
da müssen wir genau hinschauen. Das finde ich gut.
0:32:31–0:32:34
Ich weiss nicht, ob es reicht, aber es ist jetzt sicher mal ein erster Schritt.
0:32:35–0:32:39
Und Kevin, jetzt haben wir gar noch nicht darüber geredet, ob wir dann,
0:32:39–0:32:44
das wäre ja noch weitere Angst, die man haben kann, ob wir dann alle arbeitslos werden,
0:32:44–0:32:49
weil die KIs einfach dann unseren Job besser und schneller und effizienter und
0:32:49–0:32:51
günstiger machen, als wir selber.
0:32:53–0:33:01
Meine Prognose ist ja. Ich glaube, wenn KI da ist und sie macht es 10% schlechter
0:33:01–0:33:03
als ein Mensch, sagt jeder,
0:33:04–0:33:08
nehmen wir, weil es kostet nichts. Das wird passieren.
0:33:09–0:33:13
Ich bin überzeugt davon, dass ganz viele Stellen auf der Kippe stehen,
0:33:14–0:33:19
weil KI wird die Ratzfatz ersetzen und nicht besser, aber gratis.
0:33:19–0:33:22
Genau, und dann sind wir dann auch wieder in dem gleichen Problem,
0:33:22–0:33:26
wo du gesagt hast, was passiert, wenn ein KI einen Text schreibt,
0:33:26–0:33:31
der dann ein KI wieder lehrt und weiterverwendet und dann kommt die nächste
0:33:31–0:33:32
KI und macht nochmal etwas daraus.
0:33:32–0:33:37
Das wird dann auch so sein, wenn die KIs die Software entwickeln.
0:33:37–0:33:40
Man findet eben, all diese teuren Informatiker, die sparen wir uns.
0:33:41–0:33:42
Das kann der Chat-Hippie-Tee günstiger.
0:33:45–0:33:48
Ich würde es ein bisschen anders formulieren.
0:33:48–0:33:52
Da klaue ich einfach den Text, wo ich... Und wir müssen gerade aufhören.
0:33:52–0:33:56
Ich höre gerade auf. Es ist Punkt 8, aber wir reden noch schnell fertig.
0:33:57–0:34:02
Wo ich gelesen habe, auf LinkedIn, Ich glaube, jeder zweite Klugscheisser hat
0:34:02–0:34:05
mir den in den letzten Monaten unter die Nase gegriffen.
0:34:05–0:34:09
Und der sagt, du wirst nicht von einer KI ersetzt in deinem Job,
0:34:09–0:34:12
aber du wirst von einem ersetzt, der eine KI nutzt.
0:34:13–0:34:17
Der ersetzt dich. Ja, das wird so sein.
0:34:17–0:34:25
Und ich glaube auch, der Mensch wird es noch brauchen, aber weniger Leute werden
0:34:25–0:34:26
viel mehr machen können.
0:34:26–0:34:29
Und wie gehen wir damit um? Warum?
0:34:30–0:34:34
Du hast gesagt, du seist trotzdem optimistisch.
0:34:34–0:34:39
Wie gehst du mit diesem Dilemma um, dass du als optimistischer Mensch ganz viele
0:34:39–0:34:41
schwierige Seiten siehst?
0:34:41–0:34:44
Das weiss ich nicht. Ich glaube, es ist ein Bewusstsein für das, was passiert.
0:34:45–0:34:49
Und dann mal schauen, wie man das nutzen kann. Ich habe keine Ahnung.
0:34:51–0:34:55
Mir geht es ein wenig ähnlich. Aber was mir hilft und mich manchmal tröstet,
0:34:55–0:34:59
ist, wenn man wirklich intensiv mit diesen Systemen schafft,
0:34:59–0:35:02
dann siehst du immer wieder, wo sie anstehen und wie dumm das eigentlich sind.
0:35:03–0:35:07
Und das sich dann selber immer wieder so entzaubert auch.
0:35:07–0:35:13
Und ich glaube, das hilft und dann kannst du sagen, okay, so ganz nutzlos bin
0:35:13–0:35:17
ich trotzdem immer noch nicht. Ich habe doch immer noch den besten Jahr.
0:35:17–0:35:21
Und das würde ich euch allen empfehlen, wenn es euch so geht wie uns.
0:35:22–0:35:26
Aber mir graut schon, ehrlich gesagt, Von dem Moment, in dem irgendwann mal
0:35:26–0:35:31
ein K.I. kommt, der sagt... Oder wo ich mal sage, hey, die war jetzt schlauer
0:35:31–0:35:35
als ich, das wäre ich nie gekommen. Scheisse. Dann ist es echt scheisse.
0:35:35–0:35:39
Dann sind wir am Arsch. Ja. Ja, das ist interessant.
0:35:39–0:35:51
Music.

Ist ChatGPT unser Freund – oder wartet der Bot nur darauf, uns bei der erstbesten Gelegenheit in den Rücken zu fallen?

Wir haben oft über die Chancen der künstlichen Intelligenz gesprochen. Doch heute geht es um die Gefahren: Da gibt es das Horrorszenario, dass eine superintelligente KI zum Schluss kommt, die Menschheit sei überflüssig oder sogar schädlich und sie vom Planeten tilgt.

Aber uns interessieren auch die weniger spektakulären, aber umso realeren Bedrohungen: Beispielsweise, dass eine KI über unsere Bewerbung, unseren Kreditantrag oder unsere medizinische Behandlung urteilt – und das mit Vorurteilen tut, die uns und vielleicht auch dem Betreiber nicht bekannt sind. Und es geht auch um unsere Jobs und die Frage, wie gross die Konkurrenz von ChatGPT in der Arbeitswelt ist. „Wann fällt uns ChatGPT in den Rücken?“ weiterlesen

Apple, die EU und das App-Store-Monopol

Transkript anzeigen (falls vorhanden)

00:00–0:00:07
Music.
0:00:07–0:00:11
Bitter Moon mit A Glimpse of Heaven.
0:00:12–0:00:20
Was soll denn bitte das sein? Das ist kurz, du Holz. Radio statt Filter. 96,3 Megahertz.
0:00:22–0:00:27
Und das ist Pre-Show, du Holz. Tiggi Chris, fühlst du dich angesprochen?
0:00:28–0:00:30
Ui, halt, stopp, jetzt.
0:00:31–0:00:37
Halt, stopp. Jetzt stopp, ja. Entschuldigung, du Holz. Ich habe ein falsches
0:00:37–0:00:38
Ding gehabt. Aber jetzt ist alles gut.
0:00:41–0:00:47
Genau, du wolltest noch etwas sagen, Chris? Eben, dass wir mit der 96.3 spätestens
0:00:47–0:00:50
in zwei Jahren irgendwie mal neu aufnehmen.
0:00:50–0:00:54
Du meinst halt die Jingles. Ja, ich finde das sowieso doof, das mit diesem Megaherz.
0:00:54–0:00:59
Wenn der Radiosender hört, dann hast du die Frequenz schon gefunden.
0:01:00–0:01:05
Aber trotzdem, Kevin hat nicht zu viel versprochen. Die Hühner sind auch da.
0:01:07–0:01:12
Aber man hört es. Man hört es wahnsinnig, ja.
0:01:13–0:01:21
Es sind die kleinen Hühner, ganz kleine. Du hast Babys, bist du Hühnervater geworden?
0:01:22–0:01:26
Ich bin schon hundert Mal Hühnervater geworden, aber ich bin jetzt wieder Hühnervater.
0:01:28–0:01:31
Ich nehme Hühner halt, ich sammle Hühner.
0:01:33–0:01:36
Sammeln ist wie, dann hat man nie genug. Ah ja, okay.
0:01:36–0:01:40
Dann ist es okay, wenn es eine schwierige Menge erreicht hat.
0:01:41–0:01:43
Bei mir hat es eine schwierige Menge erreicht.
0:01:43–0:01:47
Was heisst eine schwierige Menge? Du kannst noch nicht davon leben,
0:01:47–0:01:53
aber es sind so viele, dass du dich jeden Tag ernsthaft um sie kümmern musst.
0:01:54–0:02:01
Es sind über 40. Ui, 40? Eben, das ist eine schwierige Menge.
0:02:02–0:02:06
Ja, ich sehe es. Und diese Babyhühner hier, das ist eine Rasse,
0:02:07–0:02:09
die ich noch nie vorher gehört habe.
0:02:09–0:02:12
Und ich bin per Zufall an Bruteier angekommen von dieser Rasse.
0:02:12–0:02:16
Und ich dachte, muss ich haben. Das ist cool, dass niemand es hat.
0:02:17–0:02:19
Hast du schon Namen für all diese 40?
0:02:23–0:02:29
Es hat einen Bruno. Einen Bruno? Es hat einen Bruno, es hat einen Simba,
0:02:29–0:02:36
es hat das Bumerli und es hat den Aufschauvogel.
0:02:38–0:02:42
Der Aufschauvogel, also die Geschichte davon ist, das Problem ist,
0:02:42–0:02:45
wenn sie ausschlüpfen und sie schlüpfen,
0:02:46–0:02:51
das Ei liegt verkehrt. Dann haben sie mega lange bis sie checken was oben und unten ist.
0:02:52–0:02:58
Und dann gibt es Küken, die schlüpfen, wo dann eigentlich der Kopf immer ganz
0:02:58–0:03:01
hinten auf den Rücken liegt und dann fallen sie eigentlich auf den Rücken.
0:03:01–0:03:06
Und dann sterben sie. Das ist wirklich so, das ist nicht geil.
0:03:06–0:03:07
Ah, sie sterben dann sogar?
0:03:08–0:03:12
Ja, sie können sterben an dem, genau. Und der Uferluagifogel war eben so einer.
0:03:12–0:03:17
Der hatte genau das Problem. Und ich versuche dann immer den in die Socken reinzutun
0:03:17–0:03:22
oder in WC-Papier einzuwickeln, damit er nicht rauf schaut.
0:03:22–0:03:26
Und der hat es geschafft, der ist gesund, der rauf schau Vogel.
0:03:26–0:03:30
Also das klingt schon nach einem Film, der dann vielleicht einen Oscar bekommen
0:03:30–0:03:34
würde, wenn man da, du als Hunde-Papa, äh Hunde sage ich, als Hühnerpapa,
0:03:34–0:03:38
Als Hunde. Der muss alles machen, um seine Hühner zu retten.
0:03:39–0:03:45
Wir haben ein wahnsinnig dicht gedrängtes Programm in dieser Pre-Show.
0:03:45–0:03:50
Eigentlich müssen wir wahrscheinlich mal umgekehrt. Wir machen nur sechs Minuten
0:03:50–0:03:54
Tech und den Rest dann alles Pre-Show.
0:03:54–0:03:59
Ich wollte noch erzählen, dass ich jedes Mal etwas Abenteuerliches erlebe,
0:04:00–0:04:01
wenn ich in ein Studio komme.
0:04:01–0:04:10
Auf der Zürcher Strasse beim Neuwiesenzentrum ist ein Auto, das so ein Ding umgefahren hat.
0:04:11–0:04:14
Eine Ampel. Das fand ich recht abenteuerlich.
0:04:15–0:04:20
Ich hätte mich als Polizeireporter betätigt, wenn ich nicht sofort losrennen musste.
0:04:20–0:04:25
Dann hat mir Digi Chris gesagt, ich müsse bereit sein, Musik zu spielen.
0:04:25–0:04:29
Digi Chris, ich mache das in deinen Wunsch. Es ist mir Befehl. Ja, komm.
0:04:30–0:04:33
Also du musst uns aber noch schnell sagen, was das eigentlich ist.
0:04:33–0:04:39
Das ist ein Kollege, der super Queries im SAP BW schreiben kann und er kann
0:04:39–0:04:42
auch Songs schreiben, Basses mit Bad Ray.
0:04:43–0:04:50
Music.
0:04:49–0:04:53
No one has a clue, das könnte unsere Hymne sein, Digi Chris.
0:04:53–0:04:55
Jetzt musst du nochmal sagen, wer das war.
0:04:55–0:05:03
Das waren Basses mit Bad Ray. Genau, Better Days und jetzt kommt die beste Sendung, könnte man sagen.
0:05:03–0:05:18
Music.
0:05:18–0:05:24
Wir schalten knallhart auf Tech um nach dieser Pre-Show und kommen zu der EU.
0:05:24–0:05:28
Die EU zwingt nämlich die Tech-Konzerne zur Öffnung.
0:05:28–0:05:34
Seit letzter Woche gibt es die Möglichkeit für iPhone-App-Stores von Drittanbietern.
0:05:35–0:05:41
Wie funktionieren die? Was bedeutet die Öffnung, wenn es dann eine ist für Nutzerinnen und Nutzer?
0:05:41–0:05:46
Und warum hagelt es dann jetzt trotzdem? Trotzdem, sie öffnet sich und es hagelt
0:05:46–0:05:48
trotzdem Kritik an Apple.
0:05:49–0:05:54
Kevin, hallo Kevin, hast du diese Sache verfolgt? Hast du eine Ahnung,
0:05:54–0:05:55
über was wir heute Abend reden?
0:05:56–0:05:59
Nein, ich habe keine Ahnung. Ich denke, ich komme einfach wieder mal dazu,
0:05:59–0:06:01
weil ich immer gefehlt habe in letzter Zeit.
0:06:01–0:06:06
Du bist krank gewesen, du bist entschuldigt. Du steckst hoffentlich nicht deine Hühner an.
0:06:06–0:06:08
Vielleicht haben die... Ah, hast du vielleicht die Hühner...
0:06:08–0:06:10
Vogelgrippe. Vogelgrippe.
0:06:10–0:06:14
Ich habe eigentlich Vogelgrippe. Dann ist es besser, wenn du nicht ins Studio
0:06:14–0:06:15
kommst, ehrlich gesagt.
0:06:17–0:06:20
Also, du hast es nicht verfolgt, das ist schon mal eine gute Frage.
0:06:20–0:06:23
Ich habe es am Rande verfolgt, ich habe mitbekommen, was läuft.
0:06:24–0:06:28
Nein, das stimmt wahrscheinlich nicht, viele Leute haben es wahrscheinlich gar
0:06:28–0:06:29
nicht mitbekommen. Nein, ich glaube nicht.
0:06:30–0:06:33
Wahrscheinlich habe ich es ein wenig verfolgt. Gut, dann bist du der,
0:06:33–0:06:41
der, so sagen wir, sichtweise von den unvoreingenommenen Anwenderinnen und Anwender in dieser Sendung.
0:06:41–0:06:44
Aber der Digi-Chris sieht so aus... Ich habe nicht wirklich eine Ahnung,
0:06:44–0:06:47
aber eine Meinung. Das ist immer gut.
0:06:47–0:06:49
So gehört sich das heutzutage.
0:06:50–0:06:53
Digi-Chris, ich nehme an, du bist voll in dieser Materie drin, oder?
0:06:54–0:06:58
Ja, natürlich. Auch die Podcasts, die ich höre, wenn man eine CT liest,
0:07:00–0:07:03
kommt man davon mit. Aber wir können jetzt schon spoilern.
0:07:03–0:07:07
Wir sind ja nicht in der EU, daher ändert sich für die Schweizer.
0:07:09–0:07:12
Gar nichts. Genau. Vorläufig zumindest. Noch nicht. Genau.
0:07:13–0:07:16
Ich fasse mal die Ausgangslage zusammen.
0:07:16–0:07:19
Wir haben dann auch Links. Ich habe viel geschrieben über das.
0:07:19–0:07:21
Wir haben dann auch die Links in den Show Notes.
0:07:21–0:07:28
Und eben, also seit März, seit diesem Monat, lässt Apple in den EU,
0:07:28–0:07:32
so muss man es sagen, Stores von Drittanbietern zu. Es gibt noch keine solche.
0:07:32–0:07:39
Es gibt Ankündigungen. Und damit stellt Apple die Anforderungen des Digital
0:07:39–0:07:44
Markets Act, DMA kurz genannt, das Gesetz der EU umsetzen.
0:07:44–0:07:49
Die sagen nämlich, wenn sie so als Gatekeeper, Apple ist ein Gatekeeper,
0:07:49–0:07:53
das heisst, sie haben so viel Einfluss auf diesen Markt, dass sie eigentlich
0:07:53–0:07:54
sagen können, was läuft und was nicht.
0:07:55–0:07:59
Und diese Gatekeeper will man zwingen, sich aufzutun, dass auch Konkurrenten
0:07:59–0:08:03
eine Chance haben, dass Wettbewerbsvorteile ausgleichen werden.
0:08:04–0:08:08
Das passiert dann auch an anderen Orten, z.B. über WhatsApp muss ich da öffnen
0:08:08–0:08:12
für andere Messenger, die müssen dann so interoperabel werden, d.h.
0:08:12–0:08:17
Man kann dann WhatsApp zu anderen Messenger rausschreiben und zurück.
0:08:17–0:08:19
Und das ist ja eigentlich noch gut.
0:08:19–0:08:23
Und eben, jetzt muss man allerdings wahrscheinlich ernsthaft darüber reden,
0:08:23–0:08:28
wie Apple diese Öffnung umgesetzt hat. Man könnte sich einfach vorstellen,
0:08:28–0:08:32
dass die beste Lösung wäre, man macht es so, wie z.B.
0:08:32–0:08:37
Android das macht. Wenn man dort will, kann man einfach eine App auch frei aus
0:08:37–0:08:40
dem Internet herunterladen, die auf sein Android drauf tut.
0:08:40–0:08:44
Man muss dann irgendwo ein Häkchen setzen, dass man das machen will und dann darf man das.
0:08:44–0:08:48
Wie Windows oder Mac kannst du auch einfach Software herunterladen und installieren.
0:08:48–0:08:53
Und so hätte ich mir das eigentlich vorgestellt. Aber so ist es ja nicht, Chris. Chris.
0:08:53–0:08:56
Hilfe, wenn du das machst, kommst du doch 100'000 Viren übernehmen.
0:08:57–0:09:01
Was mir auch ganz klar war, als wir gesehen haben, wo es hingeht,
0:09:01–0:09:05
ich nehme an, Apple wird nicht nur einen Lawyer, einen Anwalt angestellt haben.
0:09:06–0:09:10
Nein, gar nicht. Die werden das Gesetz 100'000 Mal durchgelesen haben und natürlich,
0:09:10–0:09:16
dass sie so auf Spitzen getrieben haben, dass sie genau so weit gehen können,
0:09:17–0:09:19
vielleicht noch ein bisschen weniger, aber dann,
0:09:20–0:09:24
traut sich vielleicht auch wie heisst sie, Margaret Vesta Gerdat.
0:09:27–0:09:30
Die Wettbewerbsministerin von der EU. Ich weiss auch nicht, wie man sie ausspricht,
0:09:30–0:09:31
aber ich weiss, wer du meinst.
0:09:32–0:09:38
Dass sie das so machen und ja, es ist klar, du kannst auch auf dem Mac,
0:09:38–0:09:42
selbst auf dem Mac kannst du ja grundsätzlich irgendwas runterladen.
0:09:42–0:09:44
Der Mac fragt dich halt dreimal gut.
0:09:44–0:09:50
Ich glaube, unter Windows, man kann es heutzutage sogar Windows so so konfigurieren,
0:09:50–0:09:54
dass er standardmässig nur den Store braucht und man kann sagen,
0:09:54–0:09:57
das ist aber eine Wahlfreiheit, wenn jemand sicher sein will.
0:09:57–0:10:01
Und ich glaube, das ist eine Tatsache, dass man so die Sicherheit wirklich erhöht,
0:10:01–0:10:04
wenn man nur Sachen, Software aus diesen Stores bezieht.
0:10:04–0:10:07
Aber wenn man das nicht will, kann man es auch anders machen.
0:10:08–0:10:12
Bei Windows gibt es einen lustigen Effekt, wo ich auch schnell sagen kann,
0:10:12–0:10:15
wenn du einen Server hast, ich sage jetzt immer ein Unternehmen,
0:10:15–0:10:19
das kann jedes Unternehmen sein, klar, mit dem Admin-Account darfst du nicht
0:10:19–0:10:23
ins Internet, das macht auch Sinn, dann lädst du dir halt irgendwie die Software,
0:10:24–0:10:28
runter, kopierst sie rüber, und dann, ich glaube Windows Smart Screen heisst
0:10:28–0:10:30
das, weil mit Microsoft reden.
0:10:32–0:10:36
Erreicht der Microsoft Server nicht und ja, nicht installieren.
0:10:36–0:10:39
So können sie dann auf dem iPhone kommen, weil, eben wie gesagt,
0:10:40–0:10:44
ich glaube, dass man versteht, wenn wir zwei eine App schreiben wollen,
0:10:44–0:10:47
dann müssen wir bei Apple so einen Developer, einen Entwickleraccount haben.
0:10:47–0:10:48
Ja, genau, den zahlen wir schon mal.
0:10:48–0:10:51
Ich glaube, 99 Stutz, jetzt machst du ihr eine App, ich sage jetzt,
0:10:51–0:10:55
was ich weiß, für den Kevin einen Hühnercounter, also wo du kannst...
0:10:55–0:10:57
Schau, ob da alle Hühner da sind. ...die Hühner zahlen.
0:10:58–0:11:03
Und sofern die App jetzt kein Schabernack macht, gibst du die Apple Die meisten
0:11:03–0:11:09
sind automatisiert und schaue einfach, ob sie nicht heimlich auf die Kamera zugreifen.
0:11:10–0:11:13
Sonst kommt sie in den App Store.
0:11:15–0:11:18
Dass es wahrscheinlich nicht so viele Hühnerbesitzer gibt, wird Kevin seine
0:11:18–0:11:21
App dann irgendwo unter wahrscheinlich ferner Leifen sein.
0:11:22–0:11:25
Das wissen wir nicht, also ich könnte mir vorstellen, vielleicht muss er noch
0:11:25–0:11:28
etwas Gamification trainieren und dann wäre das ein riesen Renner.
0:11:29–0:11:33
Du kannst sie kombinieren mit einem Moorhuhn oder so.
0:11:34–0:11:38
Mit einem Moorhuhn abknallen? Nein, das habe ich jetzt nicht gesagt,
0:11:38–0:11:42
das nehme ich zurück, ich bin auch ein Tierfreund. Also, genau. Augmented Reality.
0:11:43–0:11:51
Ja, das stimmt. Aber es ist natürlich schon so, dass Apple gewisse Sachen nicht zulässt.
0:11:52–0:11:57
Wahrscheinlich ist das eine ganze Menge. Sie haben auch die ungeschriebenen Gesetze.
0:11:57–0:12:02
Also gewisse Sachen machst du als Entwickler einfach nicht, wenn du das Gefühl
0:12:02–0:12:04
hast, das könnte nicht durchkommen.
0:12:04–0:12:09
Weil du willst nicht 100 Stunden oder 200 Stunden in eine App investieren,
0:12:09–0:12:12
wo dann Apple sagt, und sie müssen ja nicht weiter begründen.
0:12:12–0:12:14
Sie können einfach sagen, wir wollen die App nicht und fertig,
0:12:15–0:12:16
und dann kommt sie nicht ins Store.
0:12:16–0:12:20
Und das ist tatsächlich, ich glaube, es gibt schon einige Genres,
0:12:20–0:12:25
also es gibt zum Beispiel viele Utilities, die es einfach nicht gibt,
0:12:25–0:12:27
die es auf anderen Plattformen gibt.
0:12:28–0:12:31
Es gibt keine Emulatoren, es gibt keine.
0:12:33–0:12:39
Und es gibt wirklich alles Hardware-nahe, so dicke Apps gibt es nicht,
0:12:39–0:12:42
und Und da kann man sich schon vorstellen,
0:12:42–0:12:48
dass wenn das aufgemacht wird, dass dann neue Ideen und neue Programme entstehen.
0:12:49–0:12:52
Ist so, wie klar, alles was ihr mir jetzt ein bisschen als Copyright gebt,
0:12:52–0:12:55
also du wirst kein Mickey Mouse Spiel haben dürfen wegen Disney.
0:12:56–0:13:02
Mickey Mouse, der ursprüngliche Steamboat-Willy ist zum... Oder sagen wir halt Simpsons oder so.
0:13:03–0:13:06
Dings hat das darfst du nicht, natürlich alles was ein bisschen mit Haut zu
0:13:06–0:13:08
tun hat, darfst du auch nicht. Genau.
0:13:08–0:13:12
Und was auch ganz spannend ist, wenn du jetzt findest, es ist vielleicht…,
0:13:13–0:13:18
Eine gute Idee, auf deiner Apple-Watsch auf der Krone deine iPhone-Kamera auszulösen.
0:13:19–0:13:22
Soviel ich weiss, lässt Apple auch nicht so, wie du gesagt hast,
0:13:22–0:13:23
was Hardware-näufig ist.
0:13:23–0:13:26
Genau, und das können sie vielleicht immer noch unterbinden,
0:13:26–0:13:29
indem sie einfach die Schnittstellen nicht freigeben am iPhone.
0:13:30–0:13:33
Also Kevin, wir haben herausgefunden, dass du so ein bisschen den,
0:13:33–0:13:41
wie soll ich sagen, der, der nicht so mit Feuer und Flammen ist für das Thema,
0:13:42–0:13:44
kann man sagen, interessiert dich das?
0:13:44–0:13:48
Hättest du das Bedürfnis für einen zusätzlichen App Store oder dass du einfach
0:13:48–0:13:51
frei kannst, Software installieren bei deinem iPhone?
0:13:52–0:13:56
Ich habe mir das lange überlegt und ich weiss manchmal nicht,
0:13:56–0:14:01
warum würde... Also ich verstehe, dass Apple gewisse Sachen reguliert, die scheisse sind.
0:14:01–0:14:07
Also vielleicht möchte ich jetzt halt mal eine nackte Frau auf meinem Telefon anschaue.
0:14:07–0:14:10
Das ist okay, das geht einfach mal grundsätzlich nicht. Da verstehe ich es.
0:14:10–0:14:15
Aber bei anderen Apps habe ich manchmal das Gefühl, es ist auch okay,
0:14:15–0:14:20
dass die das nicht in den App-Store schaffen, weil die wirklich schlecht sind.
0:14:20–0:14:25
Und ich weiss auch nicht, werden dann die anderen Shops gar nicht reguliert?
0:14:25–0:14:29
Werden die anders reguliert? Kommt dann einfach eine andere Instanz, die kontrolliert?
0:14:30–0:14:32
Gibt es einfach einen Freipass?
0:14:33–0:14:37
Aus meiner Laufbahn ist es einfach so, dass die meisten Probleme,
0:14:37–0:14:40
die ich mit Android-Telefonen hatte, entstanden sind, weil sich die Leute irgendwann
0:14:40–0:14:43
an den Götter aus dem Internet abgeladen haben.
0:14:43–0:14:48
Das ist das Beste. Es wäre ein mega gutes Programm. Es läuft einfach nicht, aber es wäre mega gut.
0:14:48–0:14:53
Und dann weisst du, das Telefon macht irgendetwas, aber es funktioniert nicht mehr.
0:14:53–0:14:57
Und darum finde ich, dass Regulierungen gar nicht so schlecht sind.
0:14:57–0:15:01
Genau. Wir sind da wirklich schon an einem zentralen Punkt.
0:15:01–0:15:06
Ich glaube, ich fände es einfach mal grundsätzlich gut, dass man diese Freiheit
0:15:06–0:15:08
hat, egal ob man sie nutzt oder nicht.
0:15:08–0:15:13
Das ist ja eigentlich schön an Freiheit, dass du diese Freiheit nicht nutzen kannst.
0:15:13–0:15:16
Und das glaube ich wäre schon entscheidend.
0:15:16–0:15:22
Und deine Frage, nein, also die Trittstores sind überhaupt nicht unreguliert,
0:15:22–0:15:29
sondern auch dort macht Apple Vorschriften, dass sie die Anbieter mit gewissen Standards einhalten.
0:15:30–0:15:33
Was Qualität angeht, was Datenschutz und so angeht.
0:15:33–0:15:38
Und ich finde, da tut sich dann wahrscheinlich schon ein riesiges Feld für Konflikte auf.
0:15:38–0:15:42
Aber ist dann die Freiheit, die du jetzt gerade...
0:15:43–0:15:46
Hast, ist ja dann schon wieder weg. Ja, also eben, ich glaube,
0:15:46–0:15:49
wir müssen darüber reden, ob diese Freiheit überhaupt vorhanden ist.
0:15:49–0:15:55
Und da gibt es, ich spoilere jetzt, da gibt es so ganz viel Apple-Kritiker, die sagen, nein,
0:15:56–0:16:00
Apple hat wirklich einfach alles daran gesetzt, dass alles so bleibt,
0:16:00–0:16:05
wie es ist, indem sie die Alternativen so unattraktiv machen, wie überhaupt möglich.
0:16:05–0:16:10
Also es muss zuerst einmal, wenn du so einen Store starten willst,
0:16:10–0:16:11
musst du dich beglaubigen und musst sagen,
0:16:12–0:16:15
jawohl, ich halte mich an die Regeln grundsätzlich von Apple,
0:16:15–0:16:20
dann musst du eine Zahlungsgarantie von einer Million Euro bringen von einer Bank, die sagt,
0:16:21–0:16:26
sie würden, wenn du eine App hast, die dann irgendwie ein Problem anrichtet,
0:16:26–0:16:32
dass du vielleicht auch gerade stehen könntest oder so, dann ist die Core-Technology-Fee,
0:16:32–0:16:34
die haben sie eingebaut, das ist das Ding,
0:16:34–0:16:38
also Apple verdient auch an diesen Drittstores mit, weil sie sagen,
0:16:38–0:16:43
wir haben ja all die Programmschnittstellen und die Werkzeuge zur Entwicklung
0:16:43–0:16:45
dieser Software bereitgestellt.
0:16:46–0:16:51
Also wenn wir, 1 Million Downloads hast du gratis, aber ab der 1 Million und
0:16:51–0:16:57
ersten App-Installation musst du uns 50 Cent pro Installation zahlen.
0:16:57–0:17:01
Ist schon mal, glaube ich, für so etwas wie F-Droid oder so,
0:17:02–0:17:05
das wäre etwas, das ist ein toller Store, den es für Android gibt,
0:17:05–0:17:10
wo all die Open-Source-Sachen drin sind, ist wahrscheinlich dann schon mal keine Option, oder?
0:17:10–0:17:14
Oder würdest du jetzt unter diesen Umständen die Christen Store aufmachen?
0:17:15–0:17:20
Wenn ich jetzt ein Game hätte, das Fortnite heisst, vielleicht schon, aber sonst nicht.
0:17:20–0:17:24
Ich glaube übrigens, sie haben jetzt auch auf Druck von der EU bei dieser Million
0:17:24–0:17:27
ein Bier ein bisschen zurückgerudert.
0:17:29–0:17:32
Ich glaube, wenn auch Apple natürlich, die haben einfach geschaut,
0:17:32–0:17:36
wahrscheinlich wie ein kleines Kind, das schaut, wie kann ich es jetzt am Abend
0:17:36–0:17:41
mit meinem Backup wie kann ich es auf die Spitze treiben bis dann halt die Eltern
0:17:41–0:17:43
sagen, so es ist fertig und,
0:17:44–0:17:48
wie gesagt, Apple wird nicht nur einen Anwalt haben, die werden das ganz ganz
0:17:48–0:17:50
klar durchexerziert haben bis dann mal sagen, nein,
0:17:52–0:17:57
jetzt gehen wir halt irgendwie ich weiss gar nicht, was die höchste EU-Gerichtsinstanz
0:17:57–0:18:01
ist aber ja, jetzt gehen wir halt so weit Ja, also ich weiss es nicht,
0:18:01–0:18:04
ob sich dass sich die EU nicht von dem auch provoziert fühlt.
0:18:04–0:18:06
Bis jetzt hat man noch nichts von ihr gehört.
0:18:06–0:18:10
Ich, wenn ich bei der Frau, jetzt weiss ich schon wieder nicht mehr,
0:18:10–0:18:14
wie sie heisst, wir lassen uns nicht auf den Test aus, ich gehe es nachher anschauen.
0:18:16–0:18:20
Ob die sich nicht ein bisschen provoziert fühlt. Weil mein Eindruck ist schon,
0:18:20–0:18:22
Apple probiert einfach wirklich,
0:18:23–0:18:28
umzusetzen nach dem Buchstaben des Gesetzes, aber so unattraktiv und es so...
0:18:29–0:18:35
Einfach alles ausreizen, dass jeder App-Entwickler, der die Wahl hat,
0:18:35–0:18:39
soll ich jetzt meine App in einen alternativen Store stellen oder in einen normalen Store?
0:18:40–0:18:42
Der sagt, ich nehme doch den normalen Store, ich bin ja nicht blöd,
0:18:42–0:18:45
wieso soll ich mir all den Ärger machen?
0:18:46–0:18:49
Und eben, ich glaube, es gibt dann auch Einschränkungen als Entwickler,
0:18:49–0:18:53
wie häufig du hin- und herwechseln kannst. oder du darfst auch nicht zum Beispiel,
0:18:53–0:18:57
glaube ich, in verschiedenen Stores darfst du auch nicht sein oder so.
0:18:57–0:19:00
Es ist wirklich einfach unattraktiv.
0:19:00–0:19:04
Ja, und eben, wenn wir das jetzt ganz klar sagen, wenn ich jetzt so schaue,
0:19:04–0:19:08
ich sage jetzt so normalisches oder sage jetzt einfach 0815 User,
0:19:08–0:19:12
die ich so in meinem Umfeld habe, wo jetzt nicht gerade Arbeitskollegen sind,
0:19:12–0:19:15
ja, die haben, ich sage jetzt auf jeden Fall Smartphone, Android oder IOS,
0:19:16–0:19:20
die haben halt WhatsApp, SBB, Tagi, vielleicht tatsächlich auch Twitter, Twitter, Gmail,
0:19:21–0:19:24
ja, vielleicht hat halt mal jemand noch so eine exotische App, aber das...
0:19:24–0:19:26
Die vermissen nichts, kann man sagen.
0:19:27–0:19:32
Ja, und klar, die Leute, die halt, die, die am Morgen im Zug sind,
0:19:32–0:19:35
die wahrscheinlich Fortnite spielen wollen, ja, vielleicht die würden tatsächlich
0:19:35–0:19:36
sich die Alternative App Store
0:19:36–0:19:39
draufpappen, das können wieder Fortnite auf meinem iPhone spielen im Zug.
0:19:40–0:19:45
Genau, also wenn man schon mal einen Ausblick wagen will, wie erfolgreich das
0:19:45–0:19:50
jetzt so, wie die Alternative Stores heute da stehen, eben Ich rechne damit,
0:19:50–0:19:54
dass Deo findet, dass es uns zu wenig offen ist.
0:19:54–0:19:57
Ihr müsst da noch mal überbüchen und dann geht es wahrscheinlich ein jahrelanges
0:19:57–0:20:01
Teil ziehen und vielleicht haben wir dann in fünf Jahren oder in zehn Jahren
0:20:01–0:20:05
sind wir dann an einem Punkt, der ein bisschen besser ist. Aber ich würde sagen, es geht noch lange.
0:20:05–0:20:08
Ich glaube, jetzt im Moment ist es wirklich so.
0:20:09–0:20:13
Die allermeisten Leute werden das nicht brauchen. Es müsste irgendeine Knaller-App
0:20:13–0:20:16
geben, die man sagt, die gibt es jetzt nur in diesem Store.
0:20:16–0:20:21
Und dass es aber unter diesen Umständen irgendeine Knaller-App in so einem Drittstore
0:20:21–0:20:24
entsteht, das sehe ich nicht so richtig.
0:20:24–0:20:29
Nein, und selbst wenn es die gibt, muss man ganz genau die Konsequenzen anschauen.
0:20:29–0:20:33
Kann ich zum Beispiel, wenn ich jetzt zum Epic Store gehe, zum Beispiel eben
0:20:33–0:20:39
für Fortnite, kann ich dann meine SBB-App zum Beispiel Spiel oder 20 Minuten App noch brauchen.
0:20:39–0:20:45
Da habe ich noch nicht ganz verstanden, ob du aus zwei Stores kannst. Ich glaube schon.
0:20:46–0:20:50
Ist es nicht so, die gleiche App kann zweimal da sein?
0:20:50–0:20:55
Ich glaube, das stelle ich mir auch so vor, ja. Aber das wissen wir noch nicht
0:20:55–0:20:56
so genau, wie dann die Details sind.
0:20:57–0:21:00
Und eben, auch das Prozedere ist dann umständlich. Da musst du zuerst,
0:21:00–0:21:05
glaube ich, ein Hörchen setzen, dass du die dritten Stores zulassen willst.
0:21:05–0:21:09
Dann musst du die Store-App App aus dem normalen Store herunterladen und dann
0:21:09–0:21:13
kannst du mit dieser App die App herunterladen, die du eigentlich wolltest.
0:21:13–0:21:18
Und in diesem Prozess sagt Apple natürlich noch etwa dreimal «Du,
0:21:18–0:21:21
es ist ganz gefährlich, was du hier machst. Willst du das wirklich machen?
0:21:21–0:21:25
Du riskierst dich.» «Ihr iPhone wird schmelzen.» «Ja, genau.
0:21:25–0:21:32
Und deine Renten und dein Haus und dein Bötchen riskierst du auch noch und.
0:21:34–0:21:41
Kevin, es klingt unattraktiv, aber wenn du jetzt die EU wärst,
0:21:41–0:21:43
was würdest du sagen? Ist das okay, das ist das, was wir wollten?
0:21:44–0:21:46
Oder ihr müsst dann nochmals über die Bücher?
0:21:47–0:21:50
Es ist doch sowieso immer ein Kompromiss bei solchen Geschichten.
0:21:51–0:21:55
Man hat eine Idee, wie die Welt funktionieren sollte, im Sinne von wir möchten
0:21:55–0:21:59
etwas öffnen. Dann hat man aber einen privatwirtschaftlichen Konzern,
0:21:59–0:22:00
der möchte das auf keinen Fall.
0:22:01–0:22:05
Und jetzt landet man dann wahrscheinlich bei irgendeiner Kompromisslösung,
0:22:05–0:22:15
die wahrscheinlich irgendwann im Sand verläuft und eigentlich gar nicht gangbar ist.
0:22:15–0:22:20
Also wahrscheinlich kommt es dann so weit, dass ich mir den zweiten App Store
0:22:20–0:22:24
installiere, dass ich dieses spezifische Spiel spielen kann.
0:22:24–0:22:30
Aber dem Endanwender ist das scheissegal woher das Zeug kommt.
0:22:30–0:22:34
Und ich glaube nicht, dass es dann irgend einen gibt, der sagt,
0:22:34–0:22:40
als Gegenbewegung gegen Apple gehe ich jetzt in alternative Store.
0:22:40–0:22:45
Das wird es nicht sein. Es wird schlussendlich nur um, es geht um Kohle.
0:22:46–0:22:48
Ich glaube, Kohle ist ein gutes Stichwort.
0:22:50–0:22:57
Die sogenannte Apple-Tags. Ich glaube, was Steve Jobs vor einigen Jahren der
0:22:57–0:22:59
App Store vorgestellt hat, 2008,
0:23:00–0:23:04
hat es ja geheiss, wenn du 10 Franken für deine App verlangst,
0:23:04–0:23:09
kommen mir 3 Franken über und du bekommst 7 Franken über. Einfach mal für die Initial-App.
0:23:10–0:23:13
Und dann irgendwann sind die sogenannten In-App-Käufe gekommen.
0:23:13–0:23:17
Das heisst, wenn du jetzt zum Beispiel, man kann sagen, ich glaube,
0:23:17–0:23:22
sie machen es nicht, die App vom Tagi, du verkaufst dort ein Abo,
0:23:22–0:23:27
dann holt Apple von dieser, es ist ja eine reine Finanztransaktion, 30%.
0:23:27–0:23:31
Und wenn man jetzt schnell denkt, wenn ich an der Tankstelle für 100 Franken
0:23:31–0:23:36
Benzintank und meine Mastercard angebe,
0:23:36–0:23:41
und ich habe die Mastercard 2%, also vielleicht wäre es auch schlauer gewesen,
0:23:41–0:23:45
einfach dort bei dem Prozentsatz, also ich rede jetzt nur von diesen In-App-Käufen,
0:23:45–0:23:48
also von diesen Transaktionsgebühren, wenn man dort vielleicht ein bisschen
0:23:48–0:23:52
angesetzt hätte, weil ich finde die 30% für In-App-Käufe echt unverschämt.
0:23:52–0:23:57
Die ist unverschämt und sie ist auch gar nicht zurückgegangen.
0:23:57–0:24:03
Und wie du sagst, Chris, es hat sich auch dann ausgedehnt auf Tabos,
0:24:03–0:24:04
also auf wiederkehrende.
0:24:06–0:24:12
Die Umsätze macht Apple durchs Band weg die hohle Hand und das ist natürlich absolut komfortabel.
0:24:12–0:24:16
Ich verstehe, dass sie das nicht aufgeben wollen, aber man kann sich schon fragen,
0:24:17–0:24:22
also wenn du überlegst, ob das ein Wettbewerbshindernis ist und eigentlich schädlich
0:24:22–0:24:26
für den freien Markt, dann kann man ganz klar bejahen.
0:24:26–0:24:30
Also Apple hat ja dann auch diese Buße von 1,8 Milliarden bekommen,
0:24:30–0:24:36
weil sie gesagt haben, auch mit den Mechanismen des Stores haben sie sich eindeutig
0:24:36–0:24:39
bevorteilt, selbst gegenüber Spotify.
0:24:40–0:24:45
Weil sie natürlich in diesem Streaming-Geschäft der Streaming-Apps viel bessere
0:24:45–0:24:47
Karten gehabt haben als ihre Konkurrenten.
0:24:47–0:24:51
Und das kann man glaube ich ganz klar sagen, das ist wettbewerbsschädlich,
0:24:51–0:24:55
das ist eigentlich nicht das, was man haben möchte, aber ich fürchte auch,
0:24:55–0:24:58
wenn wir vielleicht ein bisschen grundsätzlich werden, ich fürchte auch,
0:24:58–0:25:02
Auch die EU hat da wahrscheinlich zu lange gewartet oder eben,
0:25:02–0:25:06
wenn du jemanden regulierst, der dann schon so riesig ist und du willst ihn
0:25:06–0:25:10
zwingen, sein Geschäft eigentlich aufzumachen,
0:25:10–0:25:15
dann sitzt er ja immer auf einer Art am längeren Hebel, weil er überall auch
0:25:15–0:25:17
an versteckten Schrauben drehen kann und so.
0:25:17–0:25:20
Also was willst du machen? Ich glaube, wahrscheinlich das einzige,
0:25:20–0:25:23
was du machen kannst, ist wirklich, du musst Du kannst sagen, okay,
0:25:24–0:25:30
wir müssen die Apple aufspalten und sagen, wir regulieren überhaupt nichts,
0:25:30–0:25:33
aber wir sagen zum Beispiel, das iPhone,
0:25:33–0:25:39
die Hardware und die Software müssen von unterschiedlichen Unternehmen hergestellt
0:25:39–0:25:42
werden und die müssen sich konkurrenzieren auf dem freien Markt.
0:25:43–0:25:46
Und dann kannst du auch irgendwie, könnte dann der Teil von Apple,
0:25:47–0:25:50
der die Hardware herstellt, Ihr könnt ja dann auch auf die Idee kommen,
0:25:50–0:25:53
okay, jetzt gefällt uns das iOS aber nicht mehr.
0:25:53–0:25:57
Da haben wir irgendeinen Konkurrenten, der ein besseres Betriebssystem anbietet oder mehrere.
0:25:58–0:26:02
Dann würde wahrscheinlich der Wettbewerb spielen. Wäre das Apple aufspalten, DigiChris?
0:26:04–0:26:06
Ich freue mich eigentlich immer so ein bisschen aufspaltend,
0:26:06–0:26:11
wie denn das, ja, wenn er ein Team Q auf allen drei Unternehmen ist, ja, wenn es einfach,
0:26:11–0:26:16
du siehst es in anderen Buden, da hast du irgendwie, weiss ich was,
0:26:16–0:26:20
UBS Services AG, UBS Wealth Management,
0:26:21–0:26:25
also ich bin jetzt auch nicht so ein Experte, aber ja, aufspaltend,
0:26:25–0:26:28
wahrscheinlich schön und gut, aber eben, wie denn da?
0:26:28–0:26:33
Bei Microsoft stand das wirklich mal zur Debatte, 1999 oder wann das war,
0:26:33–0:26:38
weil man fand, ja, die haben das Betriebssystem, die haben das Office,
0:26:39–0:26:41
die haben den Browser, die haben alles.
0:26:41–0:26:45
Wenn man jetzt da die könnte zwingen, ich weiss nicht, wie man es gemacht hätte,
0:26:46–0:26:51
aber ich finde, man müsste zumindest mal ernsthaft darüber nachdenken und man
0:26:51–0:26:56
könnte es auch als Droh-Szenario in den Raum stellen und sagen, sagen, okay Apple,
0:26:56–0:26:59
jetzt probieren wir es mal so und wenn ihr dann nicht mitmacht,
0:27:00–0:27:01
dann wäre das die nächste Möglichkeit.
0:27:02–0:27:06
Kevin, Apple aufspalten, wäre das etwas, bei Google würde es ja auch irgendwie
0:27:06–0:27:08
auf der Hand liegen, oder?
0:27:08–0:27:16
Suchmaschinen abspalten, das Android abspalten, das würde uns Konsumenten nur nützen.
0:27:18–0:27:28
Wer entscheidet so etwas? Kann man das überhaupt? Ja, das kann man als Wettbewerbsbehörde machen.
0:27:28–0:27:32
Da kann man sagen, ihr habt eine marktbeherrschende Stellung und jetzt müssen wir etwas unternehmen.
0:27:33–0:27:40
Dann heisst es, ihr müsst etwas unternehmen, also splittet ihr das intern auf,
0:27:40–0:27:45
was eigentlich nur eine Geld-hin-und-her-Schieberei ist, aber faktisch überhaupt nichts bewirkt.
0:27:48–0:27:53
Ich glaube, man könnte ja schon zwingen, dass die nicht irgendwie der eine dann
0:27:53–0:27:59
die Holding ist und die Mutter von der anderen, sondern dass die organisatorisch
0:27:59–0:27:59
getrennt werden müssen.
0:27:59–0:28:02
Hat es das schon mal gegeben? Ich glaube, das hat es schon mal gegeben.
0:28:02–0:28:06
Es ist nicht einmal General Electric aufgespalten worden. In den USA.
0:28:06–0:28:11
Ich glaube, da war eben kürzlich mal ein uralter Bond,
0:28:12–0:28:19
der so hiess, wenn diese Operation abgeschlossen ist, habe ich das Monopol für
0:28:19–0:28:23
Drogen und die Telefongesellschaft das andere Monopol. und sonst hat keiner mehr einen Monopol.
0:28:24–0:28:28
Also ich glaube, das ist nicht einmal AT&T gewesen, wo man irgendwo aufgespalten ist.
0:28:29–0:28:34
Aber klar, was Kevin sagt, ich meine, theoretisch, wenn jetzt die EU würde sagen,
0:28:34–0:28:40
eben Apple, das Apple würde sagen, ja okay, pipipipip, off, dann gehen wir halt.
0:28:40–0:28:44
Also das ist die EU würde verlassen, das fände ich sehr spannend.
0:28:44–0:28:47
Ja, also ist jetzt nur so ein Ding, also ich finde es einfach,
0:28:47–0:28:52
wie gesagt, dass du so Unternehmen wirklich komplett kannst aufspalten.
0:28:53–0:28:56
Das stelle ich mir jetzt einfach organisatorisch. Und ja, schaust du wirklich,
0:28:57–0:29:00
dass wenn jemand im Board of Directors bei Apple Hardware sitzt,
0:29:01–0:29:07
dass da nichts und auch seine Frau nicht bei Apple Services sitzt. Also, ja, ja.
0:29:08–0:29:11
Idee ist ja gut, aber wahrscheinlich nicht ganz so einfach.
0:29:12–0:29:15
Also, ich habe nachgeschaut, also nachgeschaut, ich habe Chat-Shippit gefragt,
0:29:15–0:29:18
ob es eben so verfügte Aufspaltungen gibt.
0:29:18–0:29:22
Das hätte man können im Vorfeld von dieser Sendung machen. und du hast AT&T
0:29:22–0:29:24
genannt, 1984 tatsächlich.
0:29:25–0:29:30
Dort hat die US-Regierung einen Antitrust-Prozess geführt und dann gefunden,
0:29:30–0:29:32
sie müssten sich aufspalten.
0:29:33–0:29:36
Die als Baby Bells wurden dann die genannt.
0:29:36–0:29:45
Standard Oil, 1911, wurde auch aufgespalten und bei Microsoft hat man dann gefunden, man könnte.
0:29:47–0:29:51
Das machen, aber man hat es dann nicht gemacht. So richtig ernsthaft, Microsoft.
0:29:51–0:29:56
Aber es ist mehrfach in den USA zur Debatte gestanden, es ist auch schon durchgeführt
0:29:56–0:30:01
worden, aber man könnte sagen, heute wird das nicht ernsthaft erwogen.
0:30:01–0:30:05
Ich habe lustigerweise, erinnere ich mich noch, als das erste Mal,
0:30:05–0:30:10
wo Biden und Trump gegeneinander antreten wollten, dort haben beide gefunden,
0:30:11–0:30:13
sie machen etwas gegen Big Tech.
0:30:13–0:30:17
Sowohl Biden wie auch auch Trump hat das versprochen.
0:30:17–0:30:19
Es ist natürlich mehr oder weniger um Facebook und so gegangen,
0:30:19–0:30:23
aber passiert ist gerade null, oder? Also man kann schon sagen,
0:30:23–0:30:25
Politik schläft ein bisschen.
0:30:26–0:30:29
Also speziell in den USA, aber ich glaube, das kommt auch davon,
0:30:29–0:30:33
wie man in den USA denkt, dass man halt dort einfach, ja, ich weiss nicht,
0:30:33–0:30:37
ob liberal das richtige Wort ist, aber eben, dass man einfach eigentlich den Staat,
0:30:39–0:30:43
libertär ist auch das falsche Wort, aber den Staat möglichst wenig eingreifen soll.
0:30:43–0:30:46
Ich glaube, Wenn du jetzt in den USA bist, dann fragst du dich,
0:30:46–0:30:51
ob wir Facebook tatsächlich zwingen sollten, das und das zu machen.
0:30:51–0:30:55
Ich glaube, ja, da würde ich auch sagen.
0:30:55–0:30:58
Am Schluss läuft es einfach darauf heraus, wie sehr man will,
0:30:58–0:31:03
dass der Staat in die freie Marktwirtschaft eingreift.
0:31:03–0:31:07
Kevin, wie sehr könnte das nach deinem Geschmack passieren?
0:31:08–0:31:10
Dass der Staat eingreift? Ja.
0:31:13–0:31:17
Begeister dich, Klaus. Ja, ich kann wahrscheinlich aufgeben.
0:31:17–0:31:20
Weil die Firmen sehr clever sind.
0:31:21–0:31:25
Wenn ein Staat eingreift, dann wandert man einfach ab und macht es noch immer anders.
0:31:26–0:31:32
Und ich meine, dass wir so etwas nicht im Griff haben, das haben wir während Corona gesehen.
0:31:33–0:31:39
Dass jeder Staat, jedes Land hat anders auf die die gleiche Situation reagiert,
0:31:39–0:31:42
es hat andere Regeln gegeben, weil halt jedes Land anders funktioniert.
0:31:43–0:31:47
Und darum glaube ich, das ist mega schwierig, zu sagen, man spaltet irgendetwas
0:31:47–0:31:53
auf und wenn ich jetzt von, wir gehen jetzt von Amerika aus und die entscheiden
0:31:53–0:31:57
so, in Amerika läuft das so, dann passt das ja wahrscheinlich überhaupt nicht auf Europa.
0:31:58–0:32:01
Und dann haben wir schon wieder, also es wird schon wieder ein Murks.
0:32:01–0:32:03
Darum glaube ich, das funktioniert nicht.
0:32:03–0:32:08
Ich glaube, man müsste es mal ausprobieren und das wäre jetzt ein lustigen Fall,
0:32:08–0:32:10
um einfach mal zu schauen, was dabei rauskommt.
0:32:10–0:32:16
Einfach mal zum Testen. Genau, mal zum Testen. Ich polemisiere da.
0:32:16–0:32:21
Aber ich finde, als Druckinstrument und als wirksame Druckkulisse könnte man
0:32:21–0:32:25
das brauchen, dass jetzt Apple zum Beispiel in diesem Fall ein bisschen ernsthafter
0:32:25–0:32:28
probiert hätte, wirklich das Anliegen umzusetzen.
0:32:28–0:32:32
Ich glaube, man müsste... Jetzt ist es sicher zu früh, um wirklich ernsthafter
0:32:32–0:32:38
darüber zu reden, aber dass es als Möglichkeit im Raum Umstand fände ich auf
0:32:38–0:32:39
eine Art schon noch wichtig.
0:32:40–0:32:44
Die Schweizer, um auch noch auf uns zu reden zu kommen, wir sind einfach so,
0:32:45–0:32:49
Trittbrettfahrer gewesen und die SP hat vor einem Jahr gefragt an den Bundesrat,
0:32:49–0:32:53
ob man nicht auch eine ähnliche Gesetzgebung brauchen würde.
0:32:53–0:32:56
Und dann hat der Bundesrat gefunden, nein, es reicht, wenn die EU das macht,
0:32:56–0:33:02
dann behandeln uns die Konzerne ähnlich wie die Unternehmen in der EU.
0:33:02–0:33:05
Und jetzt der Fall von Apple zeigt, dass es eben nicht so ist.
0:33:05–0:33:10
Von diesen Trittstores können wir eh nichts über Vorläufige sehen.
0:33:13–0:33:19
Auf eine Art wäre es wahrscheinlich der beste Fall, wenn es den Markt regeln
0:33:19–0:33:26
würde und die alternativen Stores so erfolgreich wären, dass Apple das quasi gezwungen wäre.
0:33:26–0:33:28
Dass der Druck so stark wäre, dass
0:33:28–0:33:32
es die am Schluss überall gäbe und sie ernsthaft die Alternative wären.
0:33:32–0:33:37
Aber ich sehe das einfach nicht so. Videos hast du überall, also auf dem iPad
0:33:37–0:33:40
und eben auf der Apple Watch, Vision Pro, Apple TV schon gar nicht.
0:33:40–0:33:44
Genau, die sind einfach zu klein, diese Plattformen. Wie heisst das irgendwie?
0:33:45–0:33:49
Es gibt hier einen lustigen Vlooper, so eine Very Large Online Plattform,
0:33:49–0:33:53
ich glaube, so ein Flop mit einem Vögelchen.
0:33:54–0:33:59
Und ja, ich habe gefragt, was ist eine Very Large Online Plattform? Also ja, wie gesagt...
0:33:59–0:34:02
Wie hat er das jetzt gesagt? Gut gemeint, ist auch schlecht gemacht.
0:34:03–0:34:04
Oh Gott, ich liege fast mit dem Zitat.
0:34:05–0:34:10
Ich glaube tatsächlich, wir sollten zwar wieder mal fast schon wieder aufhören,
0:34:10–0:34:16
aber ich glaube, WhatsApp auf der anderen Seite hat ja dann sehr schnell angefangen,
0:34:16–0:34:17
diese Öffnung umzusetzen.
0:34:17–0:34:21
Und dann habe ich mich zuerst ein wenig gefragt, warum sind denn jetzt die so
0:34:21–0:34:23
bereit für die Interoperabilität?
0:34:24–0:34:27
Dann habe ich gedacht, ja, weil WhatsApp einfach mehr nützt als der allen anderen.
0:34:27–0:34:29
Andere, das sind die grössten Messenger.
0:34:29–0:34:33
Also profitierst du als Grösster doch, wenn du mit den Kleineren kannst interagieren,
0:34:34–0:34:36
viel mehr, wenn du den Kleineren umgekehrt profitierst.
0:34:36–0:34:41
Aber ich glaube, wenn Frama oder Signal gesagt hätten, WhatsApp schlägt dich,
0:34:41–0:34:43
wir wollen sicher kein WhatsApp Interoper...
0:34:45–0:34:51
Interoper... Ich glaube, das müsste man zungenbrechen. Ja, glaube ich auch. Teilweise.
0:34:53–0:34:56
WhatsApp wird genug Entwickler haben. Ja, und dass halt der Herr Zuckerberg
0:34:56–0:35:01
muss sagen, jetzt schreibt mal irgendwie ein API und wenn halt irgendjemand sollte kommen.
0:35:01–0:35:06
Wir stehen gut da und wir haben sogar die Chance, dass wir die anderen noch
0:35:06–0:35:11
ein bisschen aussaugen und dann so fast im wortwörtlichen Sinn aussaugen,
0:35:11–0:35:16
wenn sie mit denen eben interoperabilisieren, falls es das wäre.
0:35:16–0:35:21
Also ich würde sagen, das Thema wird uns beschäftigen. noch ein,
0:35:22–0:35:25
famous last word oder vielleicht einfach eine Prognose, Digi-Chris,
0:35:25–0:35:30
was meinst du, ist Hopp oder Topp die Idee, was Apple jetzt da gemacht hat und
0:35:30–0:35:31
wird das die EU schlucken?
0:35:32–0:35:37
Ich denke, wir werden spätestens in unserem digitalen Realitätsabgleich darüber
0:35:37–0:35:42
reden und hat Flutpotenzial, weil ich glaube, es wird sich, ich sage jetzt mal,
0:35:42–0:35:44
ausserhalb unserer Bubble, nichts ändern. Ja.
0:35:45–0:35:51
Kevin, was meinst du, ist das so einen politischen Rohrkrepierer am Schluss?
0:35:51–0:35:57
Ich glaube, das ist jetzt einfach, man hat das Traktandum abgekökkelt,
0:35:57–0:36:02
erledigt und somit ist das, ich glaube, das ist ein Rohrkrepierer.
0:36:02–0:36:06
Immerhin hatten wir ein Sendungsthema für heute. Das ist auch etwas wert.
0:36:06–0:36:09
Wir wünschen euch einen schönen Abend. Tschüss zusammen.
0:36:11–0:36:26
Music.

Die Europäische Union findet, es sei nicht mehr zeitgemäss, dass die Techkonzerne allein über ihre Plattformen bestimmen, die so gross und wichtig sind, dass kaum jemand von uns noch um sie herumkommt. Darum greift die EU per Gesetz durch und zwingt diese sogenannten Gatekeeper zur Öffnung: Bei Whatsapp sind Chats bald auch App-übergreifend möglich und Apple ebnet den Weg für App-Stores von Drittanbietern.

Seit März ist dieses Gesetzes über digitale Märkte nun in Kraft und wir wissen, wie Apple die Vorgaben umsetzt. Das gibt viel Diskussionsstoff – denn der Eindruck könnte entstehen, dass die Bereitschaft bei Apple zur Öffnung nicht sehr gross ist. Wir diskutieren den Stand der Dinge und viele der offenen Fragen. Zum Beispiel: Sollte die EU nun andere Saiten aufziehen? Und warum tut der Bundesrat so, als ob ihn die Sache nichts anginge? „Apple, die EU und das App-Store-Monopol“ weiterlesen

Youtube wird immer be💩ener

Transkript anzeigen (falls vorhanden)

0:00:05–0:00:10
Stay away from a lightning girl. Das ist eigentlich ein Cover von Nancy Sinatra,
0:00:10–0:00:13
sagt mir da mein Computer.
0:00:14–0:00:17
Die heissen ARABROD oder so ähnlich.
0:00:18–0:00:22
Und auf jeden Fall, eins ist klar, hier ist Radio Stadtfilter.
0:00:22–0:00:25
Hallo zusammen, hier ist Ginny von Annie Taylor und ihr hört Radio Stadtfilter.
0:00:26–0:00:32
Ich habe doch gerade gesagt, Digi Chris, du hörst Radio Stadtfilter und du hörst
0:00:32–0:00:34
nicht nur, sondern du bist auch da und machst mit.
0:00:34–0:00:38
Du, sag mal, ich habe jetzt wieder so hinter diesem Bahnhof,
0:00:38–0:00:40
wenn du dort in die Unterführung hochkommst,
0:00:40–0:00:46
so Richtung Neuwiesenzentrum, Darum, dort hat es, also sicher jedes dritte Mal,
0:00:46–0:00:49
wenn ich von der Sendung nach Hause laufe, hat es dort einen,
0:00:49–0:00:54
der gerade sein Portemonnaie verloren hat und sein Handy verloren hat und nicht
0:00:54–0:00:57
weiss, wo er schlafen kann.
0:00:57–0:01:01
Oder es ist ihm gestohlen worden und er war auf der Polizei,
0:01:01–0:01:05
hat aber dann nicht irgendwie ein Protokoll, wo er zeigen kann,
0:01:05–0:01:07
dass er tatsächlich alles verloren hat. und so.
0:01:07–0:01:13
Und glaubst du wirklich, DigiChris, dass es dort irgendeine Art schwarzes Loch
0:01:13–0:01:20
hat, wo die Leute so ihre Handys und ihre Portemonnaie und so zum Sack ausziehen?
0:01:20–0:01:25
Oder ist es eher so, dass ich einfach so aussehe, wie wenn man mich anpumpen könnte?
0:01:25–0:01:30
Müssen wir mal den Professor Harald Lesch übrigens, ja, auch einen YouTube-Huber
0:01:30–0:01:34
mal fragen, ob es ja tatsächlich Wintertour schwarzes Loch hat.
0:01:34–0:01:40
Also, ich weiss nicht, ich war mal vor vielen, vielen, vielen Jahren in einer Situation,
0:01:41–0:01:48
also vor 30 Jahren, mir haben irgendwie 20 Rappen fürs Bambi-Leh gefehlt und
0:01:48–0:01:50
da habe ich halt eine ältere Dame gefragt, sie, ja, ja.
0:01:50–0:01:53
Ich gebe ihnen das schon, aber ich komme mit am Bahnautomat.
0:01:53–0:01:54
Ja, ja, ist kein Problem.
0:01:55–0:01:59
Schauen Sie, ich muss nach so und so. Und sie, ja, ja, das gebe ich ihnen gerne.
0:01:59–0:02:04
Also sowas, eben, aber da bin ich, oh, was ist das gewesen, 14, 15 Jahre alt gewesen.
0:02:04–0:02:08
Genau, und jetzt hat es, ja, ja, es hat immer, es hat die, ihr könnt ja vielleicht,
0:02:08–0:02:10
wenn ihr das Erlebnis auch schon gehabt habt.
0:02:12–0:02:16
Liebe Wintertourerinnen und Wintertourer, da schnell ins Gästebuch hinschreiben,
0:02:16–0:02:22
das würde mich noch wundern, ob ich einfach so aussehe, wie wenn ich der wäre, entweder, wo...
0:02:22–0:02:28
Wo du so lieb bist. Ja, wo, sagen wir mal jetzt, Fall A, die Geschichte stimmt,
0:02:28–0:02:32
wo dann so hilfsbereit ist und wirklich den Leuten helfen würde.
0:02:32–0:02:37
Oder Fall B, wenn das, was ja auch der Fall könnte sein, so eine erfundene Geschichte
0:02:37–0:02:42
ist, von so Leuten, die nicht arbeiten wollen, sage ich jetzt mal, um ein bisschen Geld.
0:02:42–0:02:46
Ob ich dann so einfach wie ein dankbares Opfer aussehe.
0:02:46–0:02:51
Und jetzt, Ausnahme heute war, das ist mir nicht passiert, als ich von der Sendung
0:02:51–0:02:55
nach Hause gelaufen bin, sondern als ich von der Sendung hierher gekommen bin,
0:02:55–0:02:58
dann hatte ich wirklich keine Zeit, um zu diskutieren.
0:02:58–0:03:03
Also, lieber Mann, der Französisch mit mir oben drin noch reden wollte,
0:03:04–0:03:08
es tut mir leid, ich konnte dir jetzt nicht weiterhelfen, ich konnte dir nicht
0:03:08–0:03:11
sagen, wo du übernachten kannst oder wo du einen Kebab herüberkommst,
0:03:11–0:03:14
weil ich da wirklich in das Studio musste.
0:03:14–0:03:18
Und ja, ich glaube jetzt zwar nicht, dass er zulässt, aber ja.
0:03:19–0:03:24
Wobei, was sicher legitim war, ich bin kürzlich, als ich posten ging,
0:03:24–0:03:29
ist auch, ich sage jetzt Studenten und so, ja, sie sammeln für die Tafel,
0:03:30–0:03:36
ob ich jetzt nicht könnte etwas mehr posten für bedürftige Leute und du hast auch, also du hast,
0:03:36–0:03:40
Ich sage jetzt junge Leute gehabt, wahrscheinlich 18, 19 Jahre.
0:03:40–0:03:43
Und du hast auch einen gesehen, ein wenig älter.
0:03:44–0:03:48
Und ich so, was soll ich denn kaufen? Und dann sind einfach Sachen, die lange halten.
0:03:48–0:03:54
Und dann habe ich halt zwei Dosen Ravioli, irgendwie so. Ich glaube, das ist dann legitim.
0:03:54–0:03:59
Genau, und dann hast du ja auch eher das Gefühl, das ist tatsächlich, das schmeckt nicht so.
0:03:59–0:04:01
Weil wenn jemand dann einfach irgendwie
0:04:01–0:04:05
50 Stutz will, um jetzt irgendwo hinzufahren, dann kannst du halt...
0:04:05–0:04:08
Vielleicht gehen wir rauchen, weisst du nicht, aber dort glaubst du tatsächlich,
0:04:09–0:04:11
weil ja klar, du kannst natürlich die Ravioli, wäre es vielleicht,
0:04:12–0:04:18
und ja, ist halt schon traurig, dass die Tafel, oder nennt man das bei uns auch Tafel?
0:04:19–0:04:21
Das ist mehr das Deutsche, bei uns heisst es, glaube ich, irgendwie,
0:04:21–0:04:23
weiss es nicht, ehrlich gesagt.
0:04:24–0:04:27
Eben, und ja, ich glaube, da kannst du auch tatsächlich sagen,
0:04:28–0:04:30
holst du das, aber ich glaube,
0:04:30–0:04:33
da hat es auch mal einen guten Beitrag mit Meret Schneider gegeben,
0:04:33–0:04:38
dass man solche gewissen Sachen nicht einfach wegschmeissen sollte,
0:04:38–0:04:39
sondern einfach denen geben.
0:04:40–0:04:46
Ich muss auch nochmals sagen, gewisse Tourismusunternehmen auf dem Wasser geben
0:04:46–0:04:51
tatsächlich ihre Sachen, die noch gut sind, an Tafeln ab.
0:04:53–0:04:57
Die sind ja noch perfekt gut und ich glaube, da gibt es ja Apps und so.
0:04:57–0:05:00
Too good to go, haben wir, glaube ich, wahrscheinlich auch schon erwähnt,
0:05:00–0:05:03
ja. Aber ich glaube, wirklich das mal im DD anschauen, weil klar,
0:05:03–0:05:07
mindestens haltbar bis heisst nicht tödlich ab. Genau, genau.
0:05:08–0:05:11
Ja, ich bin auch eher der, der dann findet, ah, das ist noch gut,
0:05:11–0:05:15
solange es keinen Pelz oben drauf hat und nicht irgendwie das Gefühl hat,
0:05:15–0:05:22
da hat sich schon irgendwie eine mikroskopische oder subatomare Zivilisation.
0:05:23–0:05:28
Bildet, wo du jetzt abtauchen kannst. Wie Dedy der Simpsons-Hippie. Ja, genau.
0:05:29–0:05:33
Dann isst ich es auch noch. Und ich glaube, es ist... Ja, vielleicht hast du
0:05:33–0:05:35
dann mal Durchfall oder so, aber das überlebst du auch.
0:05:36–0:05:40
Also genau, ich bin auch wirklich eher der, der probiert, das so auf den Punkt
0:05:40–0:05:43
einzukaufen und nicht auf Vorrat und so. Aber ja.
0:05:45–0:05:49
Gut, ich kann schon sagen, du wohnst in Winterthur. Gut, ich wohne gerade in
0:05:49–0:05:51
Winterthur, aber ich habe auch Läden bei mir an.
0:05:51–0:05:57
Tatsächlich, wenn du jetzt halt merkst, ich habe keine Milch mehr, gehst halt am 5.8.
0:05:57–0:06:01
Rein, schnell zu dem Laden, hat halt der Filialleiter sehr Freude,
0:06:01–0:06:06
aber ich bin ja nicht der Einzige, der noch zum letzten Drücker in den Gubs
0:06:06–0:06:08
noch irgendetwas geholt hat.
0:06:09–0:06:12
Ich glaube, in der Industrie nennt man das just in time.
0:06:12–0:06:17
Genau, just in time. Das ist logistisch eine Herausforderung,
0:06:17–0:06:21
weil wenn dann alles still steht, dann ist es ein bisschen dumm.
0:06:21–0:06:24
Und wir versuchen hier auch «Just in Time» zu liefern.
0:06:24–0:06:28
Das heisst, wir haben noch 30 Sekunden und DigiChris hat es schon angedeutet.
0:06:29–0:06:34
So ganz sanft hat er uns das Thema mit Harald Lesch angeführt.
0:06:34–0:06:41
Er ist auf YouTube und wir haben einen Streit vor. Zoffen wir uns heute mal richtig?
0:06:42–0:06:46
Was meinst du? Weil ich finde, YouTube wird immer blöder und du findest es,
0:06:46–0:06:47
glaube ich, immer noch gut.
0:06:48–0:06:50
Darüber sprechen wir jetzt gerade. Ja, schauen wir mal. mal.
0:06:51–0:06:55
Ob wir uns einig werden. Genau. Oder ob das die letzte Sendung ist mit uns beiden.
0:06:57–0:07:10
Music.
0:07:10–0:07:15
Ist denn das YouTube so schlimm wie der eine von uns beiden?
0:07:15–0:07:19
Das bin ich behauptet. Ist es vielleicht sogar ein Beweis dafür,
0:07:19–0:07:25
dass Plattformen mit zunehmender Grösse und zunehmender Popularität immer schlechter
0:07:25–0:07:30
und benutzerunfreundlicher oder man könnte sogar sagen benutzerfindlicher werden?
0:07:30–0:07:36
Die Theorie heisst N-Shitification. Ich finde schon das Wort so gut und habe
0:07:36–0:07:40
darum für den Sendungstitel das schöne Kack-Emoji.
0:07:41–0:07:47
Benutzt. Darüber reden wir. Über Werbung, über Algorithmen und wichtig,
0:07:48–0:07:49
duerische YouTuber vielleicht auch.
0:07:51–0:07:55
Chris, du hast gesagt, du findest YouTube lässig. Warum findest du es dann,
0:07:55–0:07:59
obwohl es so schlimm ist, wieso findest du es immer noch lässig?
0:07:59–0:08:06
Ich kann es so sagen, meine nächsten Ferien finden wieder auf dem Wasser statt.
0:08:06–0:08:10
Das ist eine komplett neue in eine Rederei, wo ich ging und jetzt will man zuerst
0:08:10–0:08:12
über die Rederei etwas herausfinden.
0:08:12–0:08:14
Und gerade dort finde ich halt so YouTube-Videos.
0:08:15–0:08:18
Wir haben den Matthias Mohr, den wir auch schon bei uns hatten,
0:08:19–0:08:20
der halt über ein Schiff läuft.
0:08:21–0:08:26
Da und dann eben, du kannst irgendwas und du gewisse, ich sage jetzt,
0:08:26–0:08:31
ja, eben ein Meme, glaube ich, per Definition ist ja nur ein Bild,
0:08:31–0:08:33
aber auch so gewisse Sprüche aus den Simpsons und,
0:08:35–0:08:39
Ich finde es immer noch, um teilweise Infos zu finden, selbst beruflich,
0:08:39–0:08:43
wenn du jetzt wissen musst, wie tust du im SAP das und das machen.
0:08:46–0:08:50
Und das hast du auch irgendwie gesagt, also ich will das nicht zu viel vorgreifen,
0:08:50–0:08:52
wo das Audio einfach hanebüchen ist.
0:08:53–0:08:55
Ja, schlechte Mikrofonierung, genau.
0:08:55–0:08:59
Du musst halt teilweise vier, fünf Mal schauen, aber dann findest du das Zeug.
0:08:59–0:09:03
Klar, du könntest einen Blogpost lesen, aber ich finde das noch teilweise lustig.
0:09:03–0:09:09
Auf dem zweiten Screen hast du ein YouTube-Video, du machst das eins zu eins nach.
0:09:11–0:09:14
Und ich muss so sagen, bei mir persönlich, ich habe ein YouTube-Premium.
0:09:14–0:09:18
Ah, du hast es, dann kannst du natürlich gar nicht Ja,
0:09:18–0:09:23
ja, ich weiss aber es ist eben ein Grund warum ich ein Lillys habe da kommt
0:09:23–0:09:27
eben auch noch dazu ich habe halt noch das Family Package also ja,
0:09:27–0:09:32
ich sage jetzt Du wolltest einfach deinem Ruf als Digi-Chris mit Betonung auf
0:09:32–0:09:34
Digi gerecht werden Gut,
0:09:34–0:09:38
also vielleicht müssen wir an dieser Stelle ein Grundlagenirrtum klären, also ich glaube,
0:09:39–0:09:44
wie soll ich sagen, viele Inhalte finde ich gut auf YouTube und ich finde es
0:09:44–0:09:48
toll, dass es wirklich all die abstrusen Videos gibt, die es gibt.
0:09:48–0:09:53
Ich finde nicht alle Videos gut und eben gewisse YouTuber finde ich,
0:09:53–0:09:58
die, die dann anfangen, wirklich auch so den Algorithmus zu gamen,
0:09:58–0:10:03
wenn man so sagt, oder einfach probieren, erfolgreich zu sein auf YouTube,
0:10:03–0:10:07
die finde ich dann so ein bisschen mühsamer eher. Ja, da.
0:10:08–0:10:11
Aber grundsätzlich, dass es die Inhalte gibt, das finde ich gut,
0:10:11–0:10:13
Aber ich finde die Plattform selber,
0:10:14–0:10:19
meine Kritik richtet sich an die Betriebe und an Google und an die,
0:10:19–0:10:24
die einfach die Nutzer nicht mehr ernst nehmen, sagen wir es mal so.
0:10:24–0:10:29
Kannst du das nachvollziehen, dass wenn jemand, sagen wir, ich jetzt würde behaupten,
0:10:29–0:10:36
es gibt bald 20 Jahre das YouTube, ich glaube nächstes Jahr hat es 20-Jährige,
0:10:36–0:10:38
dass es einfach nachgelassen hat, seitdem.
0:10:39–0:10:44
Es wurde ja mal mit Google Video gemerged und vielleicht, wenn ich auch kurz
0:10:44–0:10:49
vorgreifen kann, vor etwa 10 Jahren hat YouTube, hast du auf deiner Profilseite,
0:10:49–0:10:52
also auch als Privater, wenn du nicht einmal Videos gemacht hast,
0:10:52–0:10:54
hast du eine Profilseite einrichten können.
0:10:54–0:10:57
Ja. Du hast glaube ich sogar ein Hintergrundbild machen können,
0:10:57–0:11:04
du hast sagen können, Hobbies like Travel, IT, Watches, Music, Techno, bla bla bla bla.
0:11:05–0:11:09
Und so fast ein Minimise-Base, was du damals noch hättest können,
0:11:09–0:11:14
du hättest den User direkt Messages schreiben können.
0:11:15–0:11:19
Und das fand ich auch spannend, weil du hast irgendjemanden gesehen und da ist
0:11:19–0:11:22
es noch nicht ums Schiff gegangen, um sonst irgendwelche Sachen.
0:11:22–0:11:25
Es hätte Zeit gegeben, wo du dich noch nicht verschieben würdest.
0:11:25–0:11:29
Aber du hast halt dem User eine Message sagen können und ich glaube,
0:11:29–0:11:32
damals hattest du einen Algorithmus, dass du gemerkt hättest, you want to buy Bitcoin.
0:11:34–0:11:37
Also es war mehr nach Community. Es war tatsächlich Community.
0:11:38–0:11:40
Es gab glaube ich teilweise sogar eine Art Foren.
0:11:41–0:11:43
Ja, das kann schon sein. Und heute gibt es einfach noch die Kommentare,
0:11:45–0:11:48
wo meistens nicht einen sehr freundlichen Umgang...
0:11:48–0:11:50
Ich zeige mir doch, dass ich auch gerade vorziehe, genau. Genau,
0:11:50–0:11:53
also ich tue auch die ganze Zeit, wo ich so ein bisschen sage,
0:11:53–0:11:57
was mir... Also bei den Kommentaren bin ich dir total einig,
0:11:57–0:11:59
da geht es ja teilweise zu. Da hast du... Ja.
0:12:00–0:12:06
...ist wahrscheinlich auf anderen sozialen Netzwerke hast, das ist ein bisschen mein Niveau.
0:12:06–0:12:11
Ja, wobei, also ich glaube, irgendwann mal nähert sich es, je grösser das wird,
0:12:11–0:12:14
hast du einfach einen Anteil von Leuten, die unhöflich sind,
0:12:14–0:12:18
sagen wir mal, und ein bisschen komische Anschauungen haben.
0:12:18–0:12:22
Das kann man, glaube ich, so distanziert und neutral sagen.
0:12:22–0:12:25
Also vielleicht, ich habe ja eigentlich auch noch ein bisschen systematisch
0:12:25–0:12:28
dran hingegangen, man hat irgendwann mal, glaube ich, darüber gesprochen,
0:12:28–0:12:32
wenn YouTube dass YouTube grösser geworden ist als das Fernsehen.
0:12:32–0:12:36
Im Sinne von alle anderen Fernsehsender zusammen.
0:12:37–0:12:42
Wahrscheinlich kann man das ziemlich global sagen. Das ist passiert.
0:12:43–0:12:46
YouTube ist grösser als das Fernsehen zusammen.
0:12:47–0:12:51
Das ist so. Das gab es auch vor vielen Jahren so einen Fall.
0:12:51–0:12:54
Den habe ich sicher schon erwähnt.
0:12:55–0:12:59
Susan Boyle, Britons Got Talent, die Sängerin mit der schönen Stimme.
0:12:59–0:13:03
Die ist natürlich durch die Presse gegangen und dann hat ITV, der Sender, gesagt.
0:13:04–0:13:09
Also Leute ausserhalb von UK, wir versprechen euch, sobald diese Sendung online
0:13:09–0:13:16
ist, werden wir euch international kostenlos, damals gab es auch schon Werbung, aber weniger,
0:13:16–0:13:20
wir tun euch das sofort auf YouTube, damit ihr das auch sehen könnt.
0:13:20–0:13:25
Und dass die vermutlich auf YouTube mehr Views gehabt hat als im Heimatland. Ja.
0:13:25–0:13:30
Ja, das ist wahrscheinlich schon so, wie du sagst. Also, ich sage mal,
0:13:30–0:13:36
YouTube hat monatlich aktive Nutzer, das habe ich bei statista.com nachgeschaut,
0:13:36–0:13:39
2,51 Milliarden Nutzer.
0:13:39–0:13:43
Welchen Fernsehsender hat das sonst schon? dann hat
0:13:43–0:13:47
es ein paar zahlen zu deutschland tages reichweite 22
0:13:47–0:13:51
nach umfrage 37 prozent also
0:13:51–0:13:58
37 prozent vor allen leuten das tut mich wahnsinnig viel leugnet einmal am tag
0:13:58–0:14:02
mindestens ein bisschen youtube hast du das ist das ist das realistisch dass
0:14:02–0:14:07
mehr wieder wieder wahrscheinlich ja vielleicht alle anderen fernsehsender zusammen
0:14:07–0:14:10
vielleicht noch aber ja gut ich Ich bin ein bisschen repräsentativ,
0:14:10–0:14:15
aber ich glaube auch in so WhatsApp-Gruppen zum Beispiel oder auch Facebook und so,
0:14:15–0:14:21
hast du halt keine beobachten YouTube-Link und nicht so oft wie Meo-Link oder was es noch gibt.
0:14:22–0:14:27
Und besonders krass wird es dann in Deutschland 14-29-Jährige Tagesreichweite
0:14:27–0:14:31
in dieser Altersgruppe 73,9%.
0:14:31–0:14:37
Das kann wirklich kein anderes Medium sagen, vielleicht noch TikTok vielleicht,
0:14:37–0:14:39
nein, wahrscheinlich nicht einmal TikTok.
0:14:40–0:14:44
Und eben unter den 50-Jährigen, und jetzt erklärt sich vielleicht meine Position,
0:14:44–0:14:48
ist es noch 20%. Also ich schaue nicht jeden Tag ein Video, ich schaue wahrscheinlich
0:14:48–0:14:52
nicht einmal jeden zweiten Tag ein YouTube-Video. Bei dir, du?
0:14:53–0:14:57
Vermutlich schon, also ich mache schon speziell auf dem iPad,
0:14:57–0:15:02
wenn ich im Zug bin, schnell die App auf. Ja eben, was spielt man den Algorithmus rein?
0:15:02–0:15:05
Und jetzt, gut, jetzt bist du nicht repräsentativ, Ferienvorbereitungen,
0:15:05–0:15:07
dann schaust du natürlich mehr.
0:15:07–0:15:10
Aber tatsächlich, wenn ich irgendein Problem habe im Geschäft,
0:15:10–0:15:16
also, hm, dann schaust du vielleicht mal auf YouTube irgendwie SAP HANA Database Backup.
0:15:17–0:15:19
Schaust du mal und vielleicht siehst du eben das erste Video,
0:15:19–0:15:23
in dem du gesagt hast, verstehst du, dann hast du vielleicht ein Video,
0:15:23–0:15:26
das dir das tatsächlich super erklärt. Ja, ja.
0:15:26–0:15:33
Nein, eben, also nochmal, ich stelle nicht infrage, dass YouTube gute Inhalte hat.
0:15:33–0:15:36
Man muss es manchmal ein wenig suchen, weil der Algorithmus,
0:15:36–0:15:38
über den will ich dann vielleicht auch noch ein wenig herziehen.
0:15:38–0:15:41
Also der, der dir, ich glaube, wenn du wirklich als.
0:15:42–0:15:45
Sagen wir als mündiger Konsument weisst, was du suchst.
0:15:46–0:15:50
Oder ich komme ja häufig, ich google einfach und suche dann ein Video und das
0:15:50–0:15:55
finde ich dann auf YouTube, dann schaue ich mir das an und dann gehe ich wieder.
0:15:55–0:16:00
Und dann kann man es, glaube ich, einigermassen sich dem Algorithmus entziehen.
0:16:00–0:16:04
Aber wenn du dann dort mal in das schwarze Loch reinkommst und dann der dir
0:16:04–0:16:07
dein Programm zusammenstellt, dann finde ich wird es schon schwierig.
0:16:08–0:16:11
Und jetzt aber noch, um die Statistik Ich kann noch schnell fertig machen.
0:16:11–0:16:16
Der erfolgreichste Channel, also der Kanal, der heisst T-Series,
0:16:16–0:16:23
im Oktober 2023, etwa 250 Millionen Abonnenten ist der beliebteste Kanal.
0:16:23–0:16:27
250 Millionen Abonnenten ist schon recht beeindruckend.
0:16:27–0:16:32
Ich glaube, das schafft tatsächlich so eine Einschaltquote, wenn wir wieder beim Fernsehen sind.
0:16:33–0:16:36
Also der Benni Thurnherr gibt es nicht mehr. Wer heisst denn,
0:16:36–0:16:41
gibt es den Büsser? gibt es denn, wie heisst die neue Sendung vom Fernsehen?
0:16:41–0:16:45
Das Late Night, ja, ja, aber ich glaube, teilweise, ist es nicht wirklich,
0:16:45–0:16:50
glaube ich, der Kurt Felix, der tatsächlich mit seinen Sendungen,
0:16:50–0:16:53
glaube ich, 50% markt geknackt hat?
0:16:54–0:16:56
Ja, keine 250 Millionen Abonnenten. Aber also wahrscheinlich.
0:16:57–0:17:00
Wenn es jetzt wahrscheinlich in Relation gesehen ist, wäre wahrscheinlich der
0:17:00–0:17:04
Herr Felix immer noch erfolgreicher gewesen, weisst du, also prozentmässig.
0:17:04–0:17:11
Ja, und kennst du den Mr. Beast, das ist Platz 2, 189 Millionen.
0:17:12–0:17:12
Ich habe keine Zähne mehr.
0:17:13–0:17:18
Und ja, und der hat dann offenbar, und der mit den höchsten Aufnahmen,
0:17:18–0:17:22
Einnahmen kommt, das ist eben der Mr.
0:17:22–0:17:30
Donaldson, Jimmy Donaldson, Mr. Beast, 54 Millionen, 2022, mit so Werbung halt.
0:17:30–0:17:33
Eine reine, das muss man wahnsinnige.
0:17:35–0:17:39
Zeiten sein, wo die Leute in den MrBeast investieren und vielleicht muss ich
0:17:39–0:17:44
den mal recherchieren, sprich mindestens ein Video von ihm anschauen.
0:17:44–0:17:49
Also eben, ich möchte ja sagen, ich glaube, als Phänomen finde ich das faszinierend.
0:17:49–0:17:53
Ich frage mich ein wenig, ob es, und da sind wir dann vielleicht eigentlich
0:17:53–0:18:00
beim Kern der Kritik, ob das wirklich gut ist, wenn sich Kultur oder so C-Gewohnheiten
0:18:00–0:18:02
global so vereinheitlicht.
0:18:02–0:18:09
Also wenn du einfach einen grossen Kanal hast, wo alles, oder alles ist auch
0:18:09–0:18:14
falsch, aber wo ein riesiger Anteil von dem rauskommt, was fast alle schauen.
0:18:14–0:18:20
Das frage ich mich einfach. Ich bin sehr für Diversität und nicht nur,
0:18:20–0:18:25
wenn die Leute mit der Regenbogenfarbe herumlaufen, sondern auch inhaltlich.
0:18:25–0:18:30
Muss es doch irgendwie... Klar, kannst du sagen, aber was habe ich gesagt?
0:18:30–0:18:34
Diese Statistik hätte ich jetzt anschauen müssen, aber irgendwie glaube ich,
0:18:34–0:18:40
99% von allen YouTube-Videos haben weniger als 1000 Views.
0:18:40–0:18:43
Also es gibt eben dann doch, kannst du sagen, alle sagen immer,
0:18:43–0:18:46
es hat eine riesen Menge von Zeug auf dem YouTube,
0:18:46–0:18:51
aber was geschaut wird, ist dann eben doch wieder nur ein winziges Ausschnittchen
0:18:51–0:18:57
von all dem und Und eben die allermeisten senden da halt so ein bisschen unter
0:18:57–0:18:58
Ausschluss von der Öffentlichkeit.
0:18:59–0:19:04
Ganz klar. Und bei dem haben wir halt den Termin draussen, es geht viral.
0:19:04–0:19:08
Das würde man sagen, wenn wir gar nicht mal etwas machen würden,
0:19:08–0:19:08
haben wir das schon gehabt.
0:19:09–0:19:13
Vielleicht gibt es irgendeinen Klick oder irgendwie ein SRF zeigt das und so.
0:19:13–0:19:18
Wir sind leider noch nie viral. Könntet ihr nicht, liebe Zuhörer,
0:19:18–0:19:22
jetzt einfach mal schauen, dass wir mit dieser Sendung viral gehen.
0:19:23–0:19:27
Wobei, ich muss jetzt auch sagen, der grösste YouTuber, den ich regelmässig
0:19:27–0:19:29
schaue, ist Linus, Linus Tech Tips.
0:19:31–0:19:34
Ja, so ein Tech-Kanal und eben, gerade so, ich sage jetzt, ja gut,
0:19:35–0:19:40
da bin ich vielleicht auch ein bisschen zu alt für halt diese ganzen Influencers
0:19:40–0:19:46
und was mich auch irgendwie genervt hat, das ist ja im Zusammenhang mit der Vision Pro,
0:19:46–0:19:49
es hat doch auch die Influencerin geht iJust in.
0:19:49–0:19:54
Ja, genau, da sagt man sogar etwas. Und irgendwie hat es mir auch nach 20 Sekunden
0:19:54–0:19:57
abgestellt, weil du hast genau gemerkt, es ist ein Gefälligkeitsvideo,
0:19:57–0:20:00
aber gut, da kannst du einfach sagen, zack.
0:20:00–0:20:05
Ja, ich weiss von gut unterrichteten Quellen, dass es tatsächlich auch so Tech-YouTuber
0:20:05–0:20:07
wie zum Beispiel eben der,
0:20:07–0:20:12
bei dem weiss ich es nicht, aber dass es zumindest in dieser Szene gegangen
0:20:12–0:20:18
und gegeben ist, dass die Unternehmen zahlen, dass es in diesen Videos vorkommt.
0:20:18–0:20:23
Da musst du jetzt nicht mehr mit journalistischen Massstäben und Kriterien kommen.
0:20:23–0:20:30
Das betrübt mich. Das hat eine korrumpierende Wirkung.
0:20:32–0:20:36
Auf eine Art funktioniert das halt über Werbung.
0:20:38–0:20:45
Wenn du zahlst für das YouTube Premium, zahlst du auch noch gewisse.
0:20:45–0:20:51
Oder du trägst ja zu der Monetarisierung dieser Leute bei, aber diese werden
0:20:51–0:20:56
trotzdem nur anhand ihrer Einschaltquote gemessen und ansonsten an nichts.
0:20:56–0:20:59
Das Heimtier ist ja die Werbung, die von einem Kunden herkommt,
0:20:59–0:21:00
da kommt etwas über und klar.
0:21:02–0:21:05
Wenn ich etwas YouTube Premium bezahlen werde, dann sage ich jetzt,
0:21:05–0:21:07
ob ich einen Linus oder so auch bekomme.
0:21:07–0:21:13
Irgendwie habe ich auch mal gehört, dass eigentlich, und das geht auch um Netflix,
0:21:13–0:21:18
Disney+, dass sie eigentlich die Werbe-Abo lieber haben, weil sie eigentlich
0:21:18–0:21:21
dort mehr ausschütten können.
0:21:21–0:21:24
Also ich kann das nicht belegen, aber ich kann es schon an sie machen. machen?
0:21:25–0:21:31
Ja, also zumindest bei Spotify weiss man ja, dass wenn man Werbe finanziert
0:21:31–0:21:35
lässt, dass Künstler weniger rüberkommen, als wenn man zahlt als Abonnent.
0:21:36–0:21:40
Noch gut, ich finde, das sollte eigentlich nicht im Interesse des Betriebers
0:21:40–0:21:42
sein, aber ja, es ist offenbar so.
0:21:43–0:21:49
Also, eben du als YouTube-Premium-Kund, um jetzt mal bei der ganz banalen Kritik.
0:21:50–0:21:54
Anzusetzen, ich finde einfach, die Werbigefänge, es gibt immer mehr Videos,
0:21:55–0:21:59
die du nicht mehr überspringen kannst, die du einfach anschauen musst.
0:21:59–0:22:03
Am Anfang, früher, hast du einfach gewusst, ein Video, dann geht es los.
0:22:04–0:22:08
Und jetzt kommen manchmal zwei oder drei, habe ich auch schon gesehen.
0:22:08–0:22:12
Und dann kommt zweitens eins und meistens eben nicht so, dass,
0:22:12–0:22:18
wenn ich Stephen Colbert schaue, dann kommt das mitten im Gag vor den Pointen und so.
0:22:19–0:22:24
Das ist einfach ein liebloser Umgang mit diesen Inhalten. Also da bin ich einverstanden.
0:22:25–0:22:27
Ich kann es auch so sagen, ich habe jetzt auf meinem Büro-Notebook,
0:22:27–0:22:31
im einen Browser, bin ich halt mit meinem privaten Google-Konto eingeloggt,
0:22:31–0:22:33
sehe keine Werbung und halt im einen nicht.
0:22:34–0:22:38
Und wenn ich halt irgendwie, es kann eben mal jemand sagen, hey,
0:22:38–0:22:39
schau, das und das Problem.
0:22:41–0:22:45
Das YouTube-Video, wenn er dann im Browser aufmacht, wo ich nicht eingeloggt bin,
0:22:45–0:22:52
ja, 90 Sekunden Werbung, ja, ich weiss, wir können es übertreiben und wir haben
0:22:52–0:22:53
jetzt kein Werbefach mehr da,
0:22:53–0:22:56
aber du könntest ja wahrscheinlich auch Botschaft, dass jetzt irgendwie das
0:22:56–0:23:00
Ariel das beste Wäschemittel ist, kannst du ja vielleicht auch in 10 Sekunden
0:23:00–0:23:02
durchbringen und musst es nicht in 90 Sekunden durchbringen.
0:23:02–0:23:07
Genau, also dann könnte man ja sagen, personalisierte Werbung wäre ja das Ding
0:23:07–0:23:12
von YouTube, aber offenbar sind dann, also das ist irgendwie die gleiche Werbung,
0:23:12–0:23:14
die man früher im Privatfernsehen gesehen hat.
0:23:14–0:23:18
Sie kommt jetzt einfach auf YouTube und sie ist meistens nicht irgendwie,
0:23:18–0:23:22
könnte man ja sagen, vielleicht, wenn es YouTube einmal gemerkt hätte,
0:23:22–0:23:24
dass ich ein, wie soll ich sagen,
0:23:24–0:23:30
ein Intellektueller bin und gerne ein bisschen auf höherem Niveau angesprochen
0:23:30–0:23:32
werden möchte, dann gäbe es ja vielleicht auch die Möglichkeit,
0:23:32–0:23:34
solche Clips auszuspielen.
0:23:34–0:23:38
Aber nein, es ist wieder... Nein, da bin ich voll bei dir.
0:23:38–0:23:42
Und ich kann sagen, bevor ich halt... YouTube Premium hat es ja zuerst in der
0:23:42–0:23:45
Schweiz nicht gegeben, für ein paar Monate. Und du hattest die Werbung.
0:23:45–0:23:49
Ich war mit meinem Google Konto eingeloggt. Ich kann ja sagen,
0:23:49–0:23:52
ich mache alles über Google. Also Google weiss alles über mich.
0:23:52–0:23:56
Und dass mir dann Google regelmässig Autowerbung einspielt... Ja.
0:23:56–0:24:00
Also das müsste doch Google besser können.
0:24:00–0:24:06
Also wenn schon, bringst du mir halt... eben, ich sage jetzt, ein Kreuzschiff.
0:24:06–0:24:08
Oder ein Kreuzschiff, oder bringst du halt einen neuen Burger,
0:24:08–0:24:14
oder weiss ich was, Heineken oder ein Feldschlössli hat jetzt das neue Sommerbier,
0:24:14–0:24:17
blablabla, aber dann musst du mir nicht irgendwie outen, im schlimmsten Fall,
0:24:17–0:24:19
ich habe glaube ich auch mal irgendwie, wie sagt man das.
0:24:21–0:24:24
Das habe ich glaube ich auch mal überkommt, Haare entfernen,
0:24:24–0:24:28
also weisst du, um die Beinhaare zu entfernen, das habe ich auch mal überkommt.
0:24:28–0:24:32
Das ist gut, das kann man auch als Mann, die Velofahrer finden das immer gut,
0:24:32–0:24:33
wenn sie dann wäre das windschneidiger.
0:24:33–0:24:39
Den hätte ich einfach nicht für einen Schifffahrer, sondern für einen Velofahrer gehalten.
0:24:41–0:24:45
Aber gut, ich muss sagen, klar, irgendwoher muss das Geld kommen vielleicht.
0:24:45–0:24:48
Ich finde, am YouTube Premium finde ich eine gute Idee.
0:24:49–0:24:52
Ich würde einfach, für mich ist es so, wenn ich es nutze, ist es einfach zu teuer.
0:24:52–0:24:56
Ich würde sagen, wenn es jetzt da einfach nur ohne Musik und,
0:24:57–0:24:59
YouTube Music und alles gehört, dann auch dazu, wenn ich sage,
0:25:00–0:25:03
wieso soll ich für das zahlen, wenn es Spotify Spotify-Abo haben,
0:25:03–0:25:07
wenn es jetzt einfach nur für, sagen wir, 2-3 Franken im Monat keine Werbung
0:25:07–0:25:11
und wirklich ich schaue jetzt so wenig,
0:25:12–0:25:17
dass es sich einfach nicht lohnt, so viel zu zahlen. Und dann wäre es okay, glaube ich.
0:25:17–0:25:21
Genau, aber klar, wenn du jetzt halt der CFO von Google bist,
0:25:21–0:25:24
dann denkst du natürlich... Ja, so rechnet man, dann kann man sagen...
0:25:24–0:25:26
Also das ist ganz klar halt, wir sind jetzt halt,
0:25:27–0:25:31
Du kannst nicht so viel verlangen, dass es niemand zahlt, aber du kannst schauen,
0:25:31–0:25:35
wie viel du verlangen musst, dass du bei denen, die Premium zahlen,
0:25:35–0:25:39
sicher mehr verdienst, als bei denen, die nur Werbung haben.
0:25:39–0:25:43
Das ist halt einfach das Problem.
0:25:44–0:25:47
Vielleicht, Dana, gibt es einen kleinen Trick, den ich mal vorgestellt habe.
0:25:48–0:25:55
Das gibt es individuo, also ich schreibe das Buch, invidio.us.
0:25:55–0:26:01
Das ist so eine Plattform, die tut irgendwie, dass YouTube die Inhalte wieder
0:26:01–0:26:06
über ein alternatives Frontend macht,
0:26:06–0:26:11
zugänglich, und da sieht man keine Werbung und man kann auch die Videos abladen
0:26:11–0:26:13
und solche Sachen. Also ich finde das noch praktisch.
0:26:13–0:26:18
Leider ist es dann mal abgeschaltet worden, die Urinstanz von dem.
0:26:18–0:26:23
Ist natürlich klar, das hat Google nicht so gepasst, aber es gibt jetzt dort
0:26:23–0:26:28
so Links, wo man es immer noch findet und man findet es immer noch und es ist immer noch gut,
0:26:28–0:26:32
wenn man, es gibt zum Teil auch alternative Kommentare darunter,
0:26:32–0:26:37
die dann via Reddit kommen und so, also eine ganz lustige, so ein,
0:26:37–0:26:41
wie ein Schatten-YouTube könnte man sagen. Das als kleiner Tipp.
0:26:42–0:26:45
Eben, die Werbung, okay, ich glaube, den Algorithmus habe ich schon gesagt,
0:26:46–0:26:49
über den haben wir ja auch schon viel geredet, dass einem der dann je nachdem
0:26:49–0:26:54
einfach, wenn du ein kleines Mist geschaut hast, präsentiert er dir dann den schlimmeren Mist.
0:26:55–0:27:01
Statt dass er dich vielleicht probieren würde, auf einen besseren Inhalt zu
0:27:01–0:27:03
locken. Also man könnte...
0:27:03–0:27:07
Und das ist vielleicht schon... Ich weiss jetzt nicht, ich töne wahrscheinlich
0:27:07–0:27:11
jetzt wie ein wahnsinnig alter Sack, Ich muss jetzt noch die Welt verteidigen,
0:27:11–0:27:15
die eigentlich zum Untergang verdammt ist. Also eben die Welt, die es dann.
0:27:17–0:27:21
Im Fernsehen jemanden gegeben hat, der geschaut hat, dass nicht der letzte Schrott
0:27:21–0:27:22
über den Sender geht, oder?
0:27:22–0:27:27
Ist ja vielleicht dann furchtbar altmodisch und furchtbar angestaubt,
0:27:27–0:27:31
aber wenn du darüber nachdenkst, ist es vielleicht doch gut, oder?
0:27:31–0:27:34
Eben jemanden, der schaut, dass man jetzt vielleicht gewisse Standards,
0:27:34–0:27:41
wie auch immer, definiert und auch immer wieder scheitert man wahrscheinlich
0:27:41–0:27:46
auch daran, aber man probiert es wenigstens so ein bisschen, nicht einfach sich zum.
0:27:49–0:27:52
Reinen Kommerzvermittler zu machen, oder?
0:27:52–0:27:57
Ja, weil klar eben, der Algorithmus und ich scrolle jetzt gerade durch mein YouTube,
0:27:58–0:28:02
also da habe ich jetzt tatsächlich eben Schiffli, ich habe Kochvideos weil ich
0:28:02–0:28:07
auch mal was gesucht habe ich habe Dixieland-Videos, weil ja mein Papa spielt
0:28:07–0:28:09
ja in einer Dixieland-Band Ah, können wir den mal live einspielen?
0:28:09–0:28:14
Können wir mal live einspielen, genau das würde sicher Freude haben eben teilweise
0:28:14–0:28:21
IT-Videos, also Simpsons-Ding, also ja, es ist relativ breit.
0:28:21–0:28:25
Das Problem ist, man fährt mal an, jetzt will ich aber mal wissen,
0:28:25–0:28:26
wie es um die Impfung geht.
0:28:26–0:28:30
Du schaust mal den Ken Jebsen. Genau, und dann schaust du drei,
0:28:30–0:28:33
vier Ken Jebsen-Videos oder fünf, sechs hintereinander.
0:28:33–0:28:36
Dem würde man schlichtweg allgemein, ich will es jetzt nicht mit dem Account
0:28:36–0:28:38
probieren, dass wir es nicht versuchen.
0:28:40–0:28:43
Und ja, gerade was du gesagt hast, jetzt angenommen, ich,
0:28:44–0:28:50
Nach ihrem Vortrag im Studium über alternative Ansichten, Reichsbürger oder
0:28:50–0:28:55
so, jetzt schaue ich, und wenn ich jetzt einen Vortrag seriös machen will,
0:28:55–0:28:58
muss ich halt vielleicht tatsächlich mal vier Stunden schauen.
0:28:59–0:29:02
Du meinst das Emoji, das ich im Titel habe.
0:29:03–0:29:08
Ja, ja. Und wenn dir dann natürlich der ganze Algorithmus zerhaut,
0:29:08–0:29:10
das wäre dann auch blöd. Also da hast du schon recht.
0:29:11–0:29:17
Ja. Ja, also kommen wir vielleicht wirklich zum Kern meiner Kritik.
0:29:18–0:29:22
Ich glaube, mir passt die Globalisierung von diesem Geschmack nicht.
0:29:22–0:29:25
Und eben, das habe ich auch mal so ein bisschen angeschaut.
0:29:25–0:29:32
Also ich bin ja mal selber YouTuber und habe mal geschaut, wie man Geld verdienen könnte.
0:29:32–0:29:36
Und bin daraus rausgefallen. YouTube hatte dann schon ein Problem.
0:29:37–0:29:43
Weil sie dann auch Leute viel Geld bezahlt haben, die eben genau mit Hahnenbüchern,
0:29:43–0:29:47
Unsinn und jeglicher Desinformation und alles, und dann haben sie irgendwann
0:29:47–0:29:50
einmal ein Problem bekommen mit dem und dann haben sie gefunden,
0:29:50–0:29:55
sie lösen das Problem, indem sie einfach die unterste Schicht von denen,
0:29:55–0:29:57
die am wenigsten verdienen, abschneiden.
0:29:57–0:30:03
Und zu denen habe ich dann gehört. Und das heisst, wenn du irgendeine Nische
0:30:03–0:30:08
bespielst, dann hast du schon eigentlich keine Chance mehr. Du musst immer auf
0:30:08–0:30:09
das Massenpublikum gehen.
0:30:10–0:30:16
Und das heisst schon mal, auf Rätoromanisch musst du nicht anfangen, YouTuber zu werden.
0:30:16–0:30:20
Oder sogar auf Zürichdeutsch kannst du es eigentlich vergessen.
0:30:20–0:30:27
Du musst mindestens Hochdeutsch sprechen und dann musst du aber schon ein ziemliches
0:30:27–0:30:31
Thema haben, das zieht, dass du irgendwie Geld verdienst.
0:30:31–0:30:35
Aber am besten ist es Englisch und dann natürlich, ja, dann hast du all die
0:30:35–0:30:38
Themen, die ziehen und die alle anderen aber auch schon machen.
0:30:39–0:30:44
Und das finde ich einfach, natürlich aus der kapitalistischen Logik ist das
0:30:44–0:30:45
klar, dass das so funktioniert.
0:30:45–0:30:49
Aber wenn du sagst, du bist jetzt quasi das Fernseh der Welt,
0:30:49–0:30:53
dann kannst du doch nicht einfach nur, oder ja, doch, natürlich kannst du,
0:30:54–0:30:57
das Fernseh früher hat das, zumindest das Privatfernseh hat es auch so gemacht.
0:30:58–0:31:02
Nein, stimmt nicht. Also eben auf RTL hast du doch immerhin auch noch Nachrichten
0:31:02–0:31:06
gesehen und Nachrichtensendungen, die zum Teil gut gewesen sind.
0:31:06–0:31:09
Und sie sind dann auch gezwungen worden, noch irgendwelche Fenster zu machen
0:31:09–0:31:13
für irgendwelche anderen Anbieter und so. Also man hätte zumindest,
0:31:13–0:31:18
auch wenn es kommerziell funktioniert, so ein bisschen einen Ausgleich probiert,
0:31:18–0:31:20
aber da Null, da ist einfach...
0:31:22–0:31:24
Also, ich habe mich ein wenig in
0:31:24–0:31:30
den Arsch gerettet. Würde ich dir nicht widersprechen. Ja, klar, also...
0:31:31–0:31:34
Wenn ich jetzt YouTube-Videos machen würde, dann mache ich es zum Spass,
0:31:34–0:31:36
aber klar. Und du hast, glaube ich, auch mal...
0:31:37–0:31:39
Ich denke, es ist ein deutscher Blogger, wie heisst der? Felix.
0:31:39–0:31:44
Der ist irgendwie mit einem Tesla an Nordpol. Ja. Und da hast du natürlich auch gesehen, hey...
0:31:45–0:31:49
Aber gut, er hat es natürlich auch... Das ist ja fair, transparent gemacht,
0:31:49–0:31:52
dass Michelin... Also wie sagen wir, die machen nicht nur Restaurants,
0:31:52–0:31:56
sondern auch Pneus, die haben ihm das Zeug gezahlt.
0:31:56–0:31:59
Und eben hat er gesagt, nein, nein, er sage nicht, was das gekostet hat,
0:31:59–0:32:03
weil das ist echt hochprofessionell aufzeichnet gewesen. Die sind drei, vier Wochen unterwegs.
0:32:05–0:32:12
Aber von der Qualität her hätte jetzt das Video auch wahrscheinlich auf dem ARB laufen können.
0:32:12–0:32:14
Aber eben, hey, das können wir zwei in Höhe.
0:32:14–0:32:18
Ich glaube nicht, dass wir jetzt sagen, irgendwie, keine Ahnung.
0:32:19–0:32:23
Ich glaube, das grössere Problem ist wirklich nicht das, was stattfindet,
0:32:23–0:32:25
obwohl da auch vieles hochproblematisch ist.
0:32:25–0:32:28
Aber das grössere Problem ist all das, was nicht stattfindet,
0:32:28–0:32:31
weil es sich nicht rendiert und weil es niemanden interessiert.
0:32:31–0:32:34
Und eben weil es so eine Globalisierung ist.
0:32:34–0:32:38
Ich bin ja sonst kein Fan von dem Begriff Mainstream-Medium,
0:32:38–0:32:40
aber für YouTube trifft es irgendwie zu.
0:32:43–0:32:45
Eben, um noch schnell, ich habe es schon angetönt, darum muss ich jetzt noch
0:32:45–0:32:48
schnell darüber reden, eben das N-Shitification,
0:32:49–0:32:53
also das heisst eigentlich, man kann es nicht gut auf Deutsch übersetzen,
0:32:53–0:32:58
auf Deutsch habe ich schon den Begriff Plattformverfall gehört,
0:32:58–0:32:59
aber es meint einfach, dass der.
0:33:01–0:33:05
Scheisse Anteil ansteigt immer, und zwar nicht inhaltlich oder nicht nur,
0:33:05–0:33:07
aber vor allem auch wegen dem Betreiber,
0:33:07–0:33:11
weil der sagt, am Anfang gibt sich dem Betreiber Mühe, eben es allen,
0:33:11–0:33:15
es sind Publikum um recht zu machen, seine Nutzer, die werden umhegt und umsorgt
0:33:15–0:33:18
und man bringt schöne neue Funktionen, was es denen bringt und so.
0:33:19–0:33:23
Gutes Preis-Leistungs- Verhältnis oder sogar gratis und dann irgendwann mal
0:33:23–0:33:24
ist eine kritische Masse erreicht,
0:33:25–0:33:28
dann können wir anfangen mit der Monetarisierung, dann gibt es Gebühren,
0:33:28–0:33:34
Werbungen, Mittel zur Gewinnsteigerung, dann wird schlechter so die Nutzungserfahrung,
0:33:34–0:33:36
weil eben dann probiert man möglichst viel,
0:33:36–0:33:40
rauszuholen aus dieser Plattform und dann am Schluss wird es auch für die Nutzer
0:33:40–0:33:44
und dann sogar auch noch für die die Werbetreibenden auch schlechter,
0:33:44–0:33:47
weil die werden dann natürlich, eben, das ist das Schöne an YouTube,
0:33:47–0:33:51
die können eigentlich beide Seiten ausbieten, sowohl die, die Werbung machen,
0:33:51–0:33:57
weil die müssen ja fast dort Werbung machen, wenn dort 2,5 Milliarden Menschen sind, oder?
0:33:57–0:34:01
Also die kannst du ausbieten, kannst du die auch irgendwie gegeneinander ausspielen
0:34:01–0:34:05
und so und am Schluss ist eigentlich die Plattform nicht mehr so toll,
0:34:05–0:34:07
nicht mehr so schön, aber sie ist halt irgendwie.
0:34:08–0:34:14
Konkurrenzlos und ja, und als als Newcomer hättest du keine Chance.
0:34:14–0:34:19
Ich glaube, diese Verschlechterungsphase, die sieht man mit all diesen Sachen,
0:34:19–0:34:22
die wir gesagt haben, die Werbung, die Empfehlungsalgorithmen,
0:34:22–0:34:26
das Clickbaiting seitens dieser YouTuber, die Datenschutz-B,
0:34:26–0:34:32
über die Urheberrechtsquerelen, die ständig stattfinden, haben wir gar noch nicht geredet.
0:34:32–0:34:35
Das wäre jetzt noch etwas, was mir...
0:34:36–0:34:39
Tatsächlich bin ich auch ein paar Mal reingelaufen,
0:34:40–0:34:46
Ich weiss, man sollte das nicht machen, aber es gab mal in der Simpsons einen Joke.
0:34:47–0:34:51
Ich glaube, da hat Apple den Preis des iPhones gesenkt und dann hast du in der
0:34:51–0:34:57
Springfield-Mall gesagt, «Attention, iPhones are now only 20 cents.» Also ein 3-Sekunden-Clip.
0:34:57–0:35:00
Und ja, den habe ich auf YouTube gestellt.
0:35:00–0:35:05
Also 3 Sekunden und baff, Strike. Ja, genau.
0:35:05–0:35:10
Aber man müsste eigentlich sagen, es gibt im amerikanischen Urheberrecht so etwas wie ein Fair Use.
0:35:10–0:35:14
Das heisst, du darfst zum Beispiel zu schulischen Zwecken, zum Zitieren,
0:35:14–0:35:17
wenn du darüber schreibst, wenn du das irgendwie einbettest,
0:35:17–0:35:19
dann darfst du das eigentlich.
0:35:19–0:35:27
Und das ist ganz eindeutig ein Missbrauch oder man hat dir ein Recht verweigert.
0:35:27–0:35:34
Man hat auch mal den Fall vom Kollegen Steiger, der ist mit seinem Flieger über das Auto angekommen.
0:35:34–0:35:40
Das stimmt, ja. Und ich glaube, er weiss sicher, wie man Urheberrechtsfreiheit,
0:35:40–0:35:45
es ist nicht urheberrechtsfrei, es wird also Musik, die du benutzen darfst.
0:35:45–0:35:50
Und ich glaube, das weiss keiner besser als er. Und das Video hat es mir auch gestriket.
0:35:50–0:35:55
Dann kannst du auch sagen, ich mache jetzt da einen Einspruch.
0:35:55–0:35:58
Aber das Problem ist dann, wenn der Einspruch ungerechtfertigt ist,
0:35:58–0:36:02
wenn es ganz dumm geht, ist dein Kanal weg. Immer noch ein kürzer Hebel.
0:36:02–0:36:05
Und ich glaube, mir ist das auch zweimal mit Videos passiert.
0:36:05–0:36:08
Und zwar in beiden Fällen mit Videos, die ich genau geschaut habe.
0:36:08–0:36:12
Wir müssen eigentlich in 50 Sekunden aufhören und ich versuche es kurz zu machen.
0:36:12–0:36:15
In zwei Fällen wirklich mit Videos, die ich geschaut habe.
0:36:15–0:36:22
Das ist Musik, die ich brauchen darf, die so als YouTube Safe angekündigt worden ist.
0:36:22–0:36:27
Aber es könnte natürlich auch ein Geschäftsmodell sein, weil wenn du dann den
0:36:27–0:36:30
Strike hast, kann es sein, dass er nicht den Kanal abschaltet,
0:36:30–0:36:35
aber dass die Monetarisierung von deinem Video, der Musiktrack ist, an den geht,
0:36:35–0:36:39
der den Musiktrack-Sauerheberrecht hat.
0:36:39–0:36:43
Und darum ist das wahrscheinlich viel attraktiver, und in 15 Sekunden muss ich
0:36:43–0:36:47
fertig sein, viel attraktiver, so Musik ins Internet zu stellen,
0:36:47–0:36:48
die die Leute dann meinen,
0:36:48–0:36:52
sie können es brauchen und dann nicht bereit sind, dafür zu zahlen und dann
0:36:52–0:36:57
nachher aber diesen Leuten ihre Monetarisierung wegnehmen und einstreichen.
0:36:57–0:37:01
Und wenn das das Geschäftsmodell ist und jetzt hören wir pünktlich auf,
0:37:01–0:37:05
dann sage ich euch, warum mir diese Plattform nicht mehr gefällt.
0:37:05–0:37:07
Schönen Abend miteinander. Tschüss miteinander.
0:37:11–0:37:21
Music.

Matthias hat seinen Spass an Googles Videoplattform verloren und findet, dass die besser heute als gestern abgestellt werden sollte. Digichris sieht das alles nicht so schwarz und findet, man könne sich dort auch heute noch gut unterhalten.

Eine hervorragende Ausgangslage, um zu diskutieren – oder vielleicht auch herzhaft zu streiten –, ob Youtube tatsächlich als Beleg für die Theorie der «En💩tification» dienen kann: Die stammt von Cory Doctorow und besagt, dass Plattformen mit zunehmendem Erfolg und des Profits wegen ihre Nutzerinnen und Nutzer und auch Werbekunden immer mieser behandeln. Dass die Ideale dabei auf der Strecke bleiben, ist das eine – das grössere Problem aus Sicht von Nutzerinnen und Nutzern ist, dass es schlicht keine Alternativen gibt, zu denen sie abwandern könnten.

Besteht Hoffnung? Oder müssen wir uns heute begnügen, alle Verfehlungen aufzuzählen und uns über jede Missetat von Google Luft zu machen? Oder kann Digichris uns überzeugen, dass alles gar nicht so schlimm ist?

„Youtube wird immer be💩ener“ weiterlesen

Kleine, grosse, schräge und dubiose Fragen

Transkript anzeigen (falls vorhanden)

00:00–0:00:06
Music.
0:00:09–0:00:12
Ah, Morgomat, sorry. Morgomat.
0:00:12–0:00:18
Ich habe keinen anderen Jingle. Das ist wieder Jingle-Misere für Radio Stadtfilter. Hallo, Kevin.
0:00:20–0:00:26
Wie geht's? Ui, du bist leise. Ich muss, warte mal. Jetzt muss ich dich ganz
0:00:26–0:00:27
schnell... Wir haben wieder...
0:00:28–0:00:31
Warte, ich kann da auch noch ein bisschen hochschrauben. Jetzt bist du viel zu hoch. Besser?
0:00:32–0:00:35
Warte, ich tue noch viel. Justiere so.
0:00:37–0:00:41
Wir machen wieder einen Soundcheck auf dem Sender, aber das ist gut,
0:00:42–0:00:46
weil wenn wir, Kevin, wenn wir die 61 Millionen gewinnen, dann stellen wir einen
0:00:46–0:00:48
an, der das für uns gemacht hat, oder?
0:00:49–0:00:55
Hast du gespielt? Ich habe bis jetzt immer nur Einer und Zweier gehabt,
0:00:55–0:00:59
aber ich weiss nicht, ob ich es nochmal so spielen soll oder nicht. Hast du gespielt?
0:01:00–0:01:06
Ja, aber erst nachdem der erste Hype vorbei war und es schon in die Follow-Up-Runde
0:01:06–0:01:10
ging, habe ich gedacht, ich habe einen ganzen Lottozerl ausgefüllt.
0:01:10–0:01:15
Einen ganzen? Also das wäre jetzt auf morgen, oder? Morgen? 35 Stunden.
0:01:16–0:01:18
Okay, das ist all in. Morgen gewinne ich.
0:01:20–0:01:25
35 Stunden. Und was machst du damit, wenn du gewinnst?
0:01:25–0:01:28
Ich kaufe mir ein Auto. Ui, aber Auto?
0:01:29–0:01:34
Ist das nicht ein wenig langweilig? Nicht irgendwie eine Villa oder... Voll nicht.
0:01:36–0:01:44
Ich bin mir so... Und das Tragische ist eigentlich, wenn ich jetzt 60,
0:01:44–0:01:46
wie viel? 50 Millionen... Nein, 61.
0:01:48–0:01:53
61, ist egal. Und jetzt würde ich so, ich würde jetzt... Das Trauma Auto,
0:01:53–0:01:59
das ich kaufen würde, top notch, dort wo Diana ist, das kostet 100'000 Franken.
0:02:00–0:02:05
Das ist es, dort ist es fertig bei mir, ich brauche ein Auto,
0:02:06–0:02:12
das teurer ist, genau das und das kostet ungefähr 100'000 Franken und der Rest
0:02:12–0:02:13
würde ich einfach, ich würde wirklich.
0:02:15–0:02:19
In Projekte investieren, in Menschen investieren, ich glaube,
0:02:19–0:02:21
ich würde das so ein bisschen Leuten geben, wo ich das Gefühl habe,
0:02:21–0:02:27
die machen etwas Cooles, da hast du mal nicht viel in diesem Verhältnis,
0:02:27–0:02:30
sondern ich würde ihnen sagen, da hast du mal ein Viertel Million, mach mal.
0:02:30–0:02:34
Das wäre so, du wärst eigentlich ein Investor.
0:02:35–0:02:39
Würdest du dann etwas erwarten oder würdest du dann den Leuten aufs Dach steigen
0:02:39–0:02:45
und sagen, du, ich bin zwar ein Mäzen und so, aber ich will trotzdem ein Return
0:02:45–0:02:48
on Investment, ein ROI, wie man so schön sagt.
0:02:48–0:02:51
Nein, ich möchte nicht einen Roy.
0:02:51–0:02:55
Ich möchte mehr Teil des Projekts sein.
0:02:55–0:03:02
Ich würde gerne mithelfen oder etwas mitentwickeln, aber nicht als Investition.
0:03:03–0:03:05
Lieber den Siegfried als den Roy.
0:03:07–0:03:12
Es tut mir leid. Was würdest du machen mit 61 Millionen?
0:03:12–0:03:17
Eine Villa kaufen. Das würde absolut zu dir passen. eine Villa.
0:03:17–0:03:20
Findest du? Nein. Ich habe doch immer in so.
0:03:22–0:03:27
Winzigen Zimmern gewohnt. Mein Jugendzimmer hatte 13 Quadratmeter,
0:03:28–0:03:30
glaube ich, aber dann hatte es noch so schräge Wände.
0:03:31–0:03:32
Wahrscheinlich effektiv konntest
0:03:32–0:03:37
du nur so Köpfe... Es war vielleicht dreimal so gross wie mein Bett.
0:03:38–0:03:43
Das Zimmer. Und das ist so... Ein bisschen mehr Platz...
0:03:43–0:03:49
Ich würde wahrscheinlich schon irgendwie wie wir es vielleicht in dem Windtower,
0:03:49–0:03:53
der ja ganz in der Nähe ist, wo ich wohne, dort würde ich mir vielleicht,
0:03:53–0:03:58
so ein Büro einrichten, dass ich dann so über die Stadt schauen könnte und mich
0:03:58–0:04:01
wenigstens so ein bisschen... Das wäre aber cool.
0:04:01–0:04:04
Und dann würde ich dort vielleicht so ein,
0:04:05–0:04:10
YouTube-Studio einrichten und schauen, was man machen kann, was für YouTube-Videos
0:04:10–0:04:15
man machen muss, dass man möglichst kein kein Influencer wird und niemand die
0:04:15–0:04:19
Videos anschaut und niemand auf die schiefe Bahn bringt mit dem,
0:04:19–0:04:21
was man da ins Netz rauspustet.
0:04:21–0:04:26
Das würde ich vielleicht... Ziel ist null Views. Genau, genau.
0:04:26–0:04:32
Ein riesenaufwendiges Video, aber es soll keine Klicks haben.
0:04:32–0:04:38
Das fände ich auf eine Art... So als Kunstprojekt wäre das doch noch lustig, oder?
0:04:38–0:04:43
Das hätte doch noch Charme auf einer Art. Ist es möglich, ein YouTube-Video zu verstecken?
0:04:45–0:04:52
Dass es so schlechte Titel hat als null. Das ist schlimm.
0:04:52–0:04:58
Es müsste öffentlich sein, es müsste auffindbar sein und alles mit all den Tricks,
0:04:58–0:05:04
aber es müsste so ein wüstes Bildchen haben und eben so einen blöden Titel und
0:05:04–0:05:07
so nichtssagend beschrieben,
0:05:07–0:05:09
dass alle finden würden, hm, hä, hä.
0:05:10–0:05:16
Und das Ziel wäre nach einem Jahr kein Klick, das wäre ein super Projekt.
0:05:17–0:05:21
Das schaffst du nicht, das schaffst du nicht. Das wäre mega gut.
0:05:22–0:05:27
Vielleicht wäre das ein Challenge, das wir machen sollten. Es müssten aber die
0:05:27–0:05:30
Hörer sich auch beteiligen. Wir müssten irgendwie ...
0:05:32–0:05:35
Das fände ich eine lustige Idee, dass wir das Projekt machen.
0:05:36–0:05:41
Wenn ihr schon zuhört, schreibt uns auf nerdfilter ... Nein, wie heissen wir?
0:05:42–0:05:46
Nerdfunk.stattfilter. nerdfunk.stattfilter. Genau.
0:05:46–0:05:52
Oder tunt uns auf Twitter. Ich glaube, man darf nicht nicht bei null.
0:05:52–0:05:54
Null ist schwierig. Null geht nicht.
0:05:54–0:05:59
Weil null ist, wenn ich kontrolliere, ob jemand schon gut kommt. Ja, genau.
0:06:00–0:06:04
Dann hast du unter Umständen schon einen.
0:06:04–0:06:10
Dann startet es aus Versehen. Nach einem Jahr unter 100 oder so.
0:06:10–0:06:14
Ich habe das Gefühl, das könnte wie gehen. Wir müssten einfach eine Gruppe sein,
0:06:15–0:06:20
wo 10 oder 20 Leute wären lustig, die mitmachen und dann wer nach einem Jahr
0:06:20–0:06:25
am wenigsten Klicks hat, der hat gewonnen und dann kommt irgendetwas hin.
0:06:25–0:06:29
Das machen wir, das müssen wir noch ausschaffen, aber wir machen die Spielregeln
0:06:29–0:06:34
dazu und dann bitte meldet euch schon, wenn ihr teilnehmen wollt, dann können wir da ein,
0:06:37–0:06:39
Aufgebot formieren und dann müssen wir natürlich irgendwie herausfinden,
0:06:39–0:06:43
dass nicht die Leute sich dann gegenseitig anschauen gehen und so,
0:06:43–0:06:44
weil dann ist es ja auch fies.
0:06:45–0:06:48
Dass ich dein Video 10 Mal hintereinander an.
0:06:49–0:06:52
Das wäre eben nicht gebannt. Das müssen wir noch etwas ausschaffen.
0:06:52–0:06:56
Aber das machen wir dann. Und jetzt geht es los mit «Kummerbox live».
0:06:57–0:07:09
Music.
0:07:08–0:07:13
Wir machen heute, wie jeden letzten Dienstag des Monats, Kummerbox live.
0:07:13–0:07:18
In dieser Sendung behandeln wir die Computerprobleme, die ihr uns per Mail zugekriegt
0:07:18–0:07:25
habt, auf nerdfunk.stadtfilter.ch Mit akuten Problemen ruft ihr uns ins Studio an.
0:07:25–0:07:28
Die Nummer ist 052 203 3100.
0:07:29–0:07:35
Oder ihr schreibt euer Problem ins Gästebuch auf stattfilter.ch Und der Kude
0:07:35–0:07:40
hat auf Twitter gefragt, sagt mal, In dieser Tagesanzeiger-App.
0:07:40–0:07:45
Und aus unerfindlichen Gründen hat er mich das gefragt. Als ob ich zuständig wäre für die.
0:07:46–0:07:50
Wie kann man die Schriftgrösse in dieser iPad-App, ich bin nicht sicher,
0:07:50–0:07:55
ob es das ePaper oder die normale App ist, die Schriftgrösse ändern?
0:07:55–0:07:58
Es hatte, glaube ich, mal so eine Option. Und jetzt hat es diese Option nicht
0:07:58–0:08:02
mehr. Kevin, was hättest du, wenn du noch auf Twitter wärst, ihm gesagt?
0:08:04–0:08:08
Keine Ahnung. Die App muss ja das können.
0:08:09–0:08:15
Ich weiss nicht, ob die Tagesanzeiger-App das nicht mehr hat. Ja.
0:08:17–0:08:22
Sonst nein. Du fluktuierst wieder ein bisschen, was lautstärker angeht,
0:08:22–0:08:24
aber ich probiere, das zu beheben.
0:08:24–0:08:29
Also ich glaube, es ist so, dass es tatsächlich diese Optionen mal gegeben hat
0:08:29–0:08:33
und dann haben die beim Tagesanzeiger gefunden, wer immer auch das ist,
0:08:35–0:08:38
hat dann gefunden, wir schaffen die Option ab.
0:08:39–0:08:43
Und zwar, ich glaube, die Idee war, weil das iOS neuerdings kann das.
0:08:43–0:08:48
Aber es ist wahrscheinlich wirklich so gut versteckt, dass es niemand findet
0:08:48–0:08:52
und darum es irgendwie auch nicht so viel bringt, diese Option auszubauen.
0:08:52–0:08:58
Weil wer würde schon im Betriebssystem so etwas suchen und nicht eher in der App, oder?
0:08:58–0:09:05
Das muss man schon sagen, Usability-mässig. Man kann das einstellen App-spezifisch?
0:09:05–0:09:09
Ja, das kann man Es geht eben
0:09:09–0:09:16
beides und ich erkläre euch noch wie es geht Man kann allgemein die Option die
0:09:16–0:09:22
Schriftgrösse einstellen in den Bedienungshilfen Anzeige und Textgrösse Das
0:09:22–0:09:28
ist aber mehr für die die schlecht sehen Meine Mutter hat das riesig eingestellt
0:09:28–0:09:29
und ich finde das schlimm schlimm.
0:09:29–0:09:32
Aber eben, es gibt noch so ein bisschen modernere Varianten.
0:09:33–0:09:35
Irgendwie habe ich jetzt noch eine alte Version von diesem Dock,
0:09:35–0:09:38
aber ist egal. Also es gibt eine modernere Variante.
0:09:39–0:09:45
Dort müsst ihr zuerst die Option in das Kontrollzentrum eintun.
0:09:45–0:09:50
Ihr geht in die Einstellung und sucht die Option «Kontrollzentrum».
0:09:50–0:09:56
Dort könnt ihr in den Knöpfen, die dann angezeigt werden, den Knopf «Textgrösse» eintun.
0:09:57–0:10:00
Wenn ihr das gemacht habt, dann zieht ihr das Kontrollzentrum oben runter.
0:10:01–0:10:06
Beim iPhone musst du von oben nach unten wischen. und dann kommt das.
0:10:06–0:10:11
Und dort hat es dann den Knopf Textgrösse und wenn ihr den drückt,
0:10:11–0:10:16
während wir in dieser App drin sind, dann könnt ihr dort die Schriftgrösse grösser
0:10:16–0:10:17
und kleiner machen und könnt unten einstellen,
0:10:17–0:10:23
ob ihr das pro App wollt haben oder eben für alle Apps insgesamt.
0:10:23–0:10:29
Und darum kann man eben, glaube ich, das pro App einstellen oder eben global.
0:10:30–0:10:31
Ha, habe ich nicht gewusst.
0:10:33–0:10:39
Zumindest Kevin hat etwas etwas gelernt. Aber bist du schon mit mir einverstanden,
0:10:39–0:10:42
man findet das wahrscheinlich dort schon sehr schlecht.
0:10:42–0:10:46
Man müsste da irgendwie, vielleicht zumindest dort, wo der Knopf war,
0:10:46–0:10:52
für die Grösse dieser Schrift, eine Erklärung hinzufügen, wie man es heute macht.
0:10:53–0:10:56
Ich habe das Gefühl, das müsste auch etwas sein, wo das App selber kann.
0:10:56–0:11:00
Also rein so vom Usability her.
0:11:00–0:11:06
Finde ich es, also, ich weiss es Ich habe jetzt keine Kindle-App auf dem iPad,
0:11:06–0:11:09
aber da, wo ich es noch drauf hatte, konnte ich es in der App machen.
0:11:09–0:11:11
Ich weiss nicht, ob sie das mittlerweile herausgerührt haben,
0:11:11–0:11:16
aber ich fand es eigentlich noch angenehm, dass ich dann halt je nachdem schnell
0:11:16–0:11:19
umstellen konnte, möchte ich jetzt weissen Hintergrund, möchte ich schwarzen
0:11:19–0:11:21
Hintergrund, möchte ich eine andere Schrift haben.
0:11:22–0:11:25
Weil teilweise auch je nachdem, was ich für Dokumente gelesen habe,
0:11:25–0:11:30
hatte ich dann andere Wünsche. stand und hat es noch angenehm gefunden,
0:11:30–0:11:33
dass ich das in der App kann machen und nicht irgendwo muss ich die Einstellungen
0:11:33–0:11:34
hin und links umstellen.
0:11:35–0:11:38
Das stimmt. Du bist wahnsinnig unterschiedlich in der Lautstärke.
0:11:38–0:11:42
Du musst vielleicht mal an deinem Mikrofon rütteln oder ich weiss auch nicht genau was.
0:11:42–0:11:47
Ich tue auf jeden Fall in dieser Zeit, während Kevin gegen sein Mischpult gingert,
0:11:47–0:11:51
sage ich noch schnell, was Nils als nächstes fragt.
0:11:51–0:11:57
Er hat einen Blogpost von mir gefunden, wo ich zwölf Tricks für Google Docs geschrieben habe.
0:11:57–0:12:03
Wenn man das Google Docs benutzt, gibt es noch ein praktisches Menü,
0:12:03–0:12:10
wo man das Add-Zeichen tippt, wenn der Cursor am Anfang der Ziele steht und
0:12:10–0:12:10
wenn man das nicht kennt,
0:12:11–0:12:13
das Menü, das ist wirklich so ein Geheimtrick.
0:12:13–0:12:16
Mit dem kann man ganz viele Befehle vorzaubern.
0:12:17–0:12:21
Man kann zum Beispiel dann Karten in sein Dokument einfügen oder man kann jemanden
0:12:21–0:12:25
direkt erwähnen oder dem seine Live-Koordinaten einfügen oder so,
0:12:25–0:12:27
also Kontaktdaten und so.
0:12:27–0:12:32
Ist praktisch, aber beim Nils taucht das Menü auf, wenn er den Knopf nicht drückt.
0:12:33–0:12:37
Und wenn er es eigentlich gar nicht will, und das ist dann natürlich eher so
0:12:37–0:12:42
ein bisschen uncool und er fragt, wie kann ich machen, dass das Menü nicht kommt,
0:12:42–0:12:45
wenn ich es nicht will und das Ad nicht drücke.
0:12:45–0:12:50
Kevin, hast du etwas Ähnliches in Google Docs schon mal gesehen, so.
0:12:52–0:12:53
Irgendeine Verselbstständigung?
0:12:55–0:13:00
Nein, das haben wir gar nicht, aber ich nutze das halt auch recht wenig und
0:13:00–0:13:05
darum, ich bin da Ja, schon wieder raus mit dieser Frage. Ich kann es nicht sagen.
0:13:06–0:13:12
Browser wechseln, andere Browser probieren, dann können wir mal ausschliessen,
0:13:12–0:13:14
ist das ein Browser-Problem oder nicht.
0:13:15–0:13:18
Andere PC probieren, dann können wir vielleicht ausschliessen,
0:13:18–0:13:24
ist es irgendein Programm, ein Add-on, etwas an der Tastatur.
0:13:25–0:13:28
Ich habe das letzte gesagt, ich habe immer die Hilfe.
0:13:29–0:13:33
Egal was der Kunde gedrückt hat, es ist immer die Hilfe aufgegangen.
0:13:33–0:13:36
Die Hilfe hat ihn einfach für inkompetent gemacht. Er hat gesucht und gesucht.
0:13:37–0:13:43
Ja, das war so. Und das war eine verklemmte F1-Taste, die ich auch schon lange nicht mehr hatte.
0:13:43–0:13:46
Das ist aber fast noch lustig auf eine Art. Ja, genau.
0:13:47–0:13:50
Und ich war an diesem PC und dachte mir, es kann nicht sein,
0:13:50–0:13:56
dass in jedem Programm, überall wo die... Es geht immer auf die Hilfe, F1 ist die Hilfe.
0:13:56–0:13:59
Wenn ich einfach fünfmal auf die F1-Taste drücke, dann ist es weggegangen.
0:13:59–0:14:02
Das ist super. Ja, aber ich einfach keine Ahnung.
0:14:02–0:14:05
Genau, aber du hast eigentlich, ich habe es auch nicht gewusst und ich habe
0:14:05–0:14:10
etwas gleich gesagt wie du, also eben mal schauen, ist es eigentlich der Browser?
0:14:10–0:14:15
Wir haben letztlich behauptet, dass die Browser eigentlich inzwischen recht
0:14:15–0:14:17
pflegeleicht sind und gar nicht mehr so viel Ärger machen,
0:14:18–0:14:22
aber jetzt haben wir schon wieder die zweite Browser, mögliches Browser-Problem
0:14:22–0:14:26
in unserer Sendung, also vielleicht ist es doch noch nicht immer alles so perfekt.
0:14:26–0:14:31
Auf jeden Fall habe ich einen Blogpost geschrieben, den ihr dann auch in den Shownotes findet.
0:14:31–0:14:35
Fehlerbehebung für Firefox, Chrome, Edge und Safari.
0:14:36–0:14:40
Dort könnt ihr das durchschaffen. Und wenn es dann nicht geht,
0:14:40–0:14:45
dann würde ich noch die Fehlerbehebungen, die Google selber empfiehlt,
0:14:45–0:14:49
wenn das nicht funktioniert, Fehler beim Bearbeiten von Google Docs,
0:14:49–0:14:52
Google Tabellen und Google Präsentationen beheben.
0:14:52–0:14:56
Das ist so die Hilfe. und wenn es immer noch nicht geht, dann schreibt ein Feedback
0:14:56–0:15:00
an Google und sagt, hey Google, dein Scheiss funktioniert nicht.
0:15:01–0:15:03
Und dann interessiert es dich.
0:15:04–0:15:09
Hey Google, nein, wir dürfen nicht Hey Google sagen, sonst gehen nicht überall
0:15:09–0:15:14
die Handys an, die hören auf Hey Google.
0:15:14–0:15:21
Bitte, was können wir sagen? Googlen nach Stadtfilter und klicken auf Like oder so.
0:15:21–0:15:23
Kann man das? Kann man so? Hey Siri.
0:15:25–0:15:30
Nein, das ist Trollen im Fall, Kevin. Du trollst unser Publikum.
0:15:31–0:15:38
Aber es funktioniert eh nicht. Nein, tut mir leid, Peter, ich habe dich nicht
0:15:38–0:15:42
verstanden, hat es jetzt beim Peter die Ehe gesagt, weil Siri immer noch so
0:15:42–0:15:43
ein bisschen auf dem Schlauch steht.
0:15:44–0:15:48
Aber wahrscheinlich können wir jetzt Chat-GPT-Siri über und mit der können wir
0:15:48–0:15:51
dann so philosophische Gespräche führen und so.
0:15:51–0:15:57
Und dann können wir zwei so Siris da ins Studio stellen und die machen dann die Sendung für uns.
0:15:57–0:16:03
Das ist dann das Nächste. Also, er hat dann nochmal zurückgeschrieben und es
0:16:03–0:16:07
hat eben dann irgendwie nicht so funktioniert und wir haben dann nochmal,
0:16:07–0:16:11
das habe ich ihm empfohlen, was Kevin eigentlich so sehr schön gesagt hat,
0:16:11–0:16:13
man muss es einfach eingrenzen, andere Computer,
0:16:14–0:16:20
andere Browser und dann siehst du es, ob du, wenn es in verschiedenen Computern,
0:16:20–0:16:23
die nichts miteinander zu tun haben, überall das gleiche auftritt,
0:16:24–0:16:27
dann bist du wahrscheinlich selber schuld und wenn nicht, ist wahrscheinlich
0:16:27–0:16:30
der Computer schuld. kann man so zusammenfassen.
0:16:32–0:16:35
Hast du noch etwas ergänzen wollen? Nein.
0:16:36–0:16:42
René sagt, da sei leider die Kummerbox vor Jahren, und ich mache jetzt keinen
0:16:42–0:16:46
Witz, die Kummerbox ist ja 2015 eingestellt worden, das ist jetzt,
0:16:46–0:16:50
dann haben wir gleich nächstes Jahr das 10-jährige Jubiläum vom Ende.
0:16:51–0:16:56
Also der 10-jährige Todestag der Kummerbox von den Tagesanzeigern.
0:16:56–0:17:02
Und es gibt aber immer noch Leute, die mir an meine Tagi Adresse schreiben und
0:17:02–0:17:04
Fragen stellen und das ist so einer davon.
0:17:04–0:17:07
Also, er hat das Schrägsverhalten von Firefox.
0:17:08–0:17:13
Wenn ich ein Bild mit der rechten Maustaste anklicke, Bild als Hintergrund einrichten,
0:17:13–0:17:17
wird nur ein kleiner Teil vom Zentrum auf dem Bildschirm gezoomt.
0:17:17–0:17:23
Früher funktionierte das so, dass das Bild den ganzen Schreibtisch füllte und
0:17:23–0:17:25
wenn es in Google Chrome oder so macht,
0:17:26–0:17:31
dann geht es und Und ja, es ist wieder so ein komisches Problem,
0:17:31–0:17:33
wo ich jetzt nicht genau weiss, woher das rührt.
0:17:33–0:17:39
Und ich würde sagen, mach es halt im Chrome. Aber ist das eine einfache Lösung,
0:17:39–0:17:41
oder würdest du das auch so sagen?
0:17:41–0:17:45
Ich habe noch die einfache Lösung für das. Okay. Mach es nicht.
0:17:48–0:17:50
Sorry, nein.
0:17:52–0:17:58
Nein, aus dem Browser raus. Es ist hinterhergerumpelt. Ja. Ist schon nah.
0:17:59–0:18:03
Ich habe nicht einmal gewusst, ich habe gemeint, das sei strafbar.
0:18:03–0:18:06
Das ist verboten. Ich habe gemeint, es gäbe einen Buß für das.
0:18:07–0:18:12
Also, ich hätte mir jetzt auch nicht überlegt, etwas zu machen.
0:18:12–0:18:15
Ich mache jetzt auch nicht so regelmässig das Hintergrundbild ändern.
0:18:15–0:18:21
Aber ich hätte das Hintergrundbild abgespeichert und wäre dann über die Systemeinstellungen,
0:18:21–0:18:23
oder hätte gesagt, als Hintergrund festlegen.
0:18:24–0:18:26
Ich habe nicht einmal gewusst, dass man das direkt aus dem Browser heraus kann.
0:18:27–0:18:30
Also, ehrlich gesagt, wenn ich jetzt... Das ist jetzt eine Funktion,
0:18:30–0:18:34
wo ich jetzt mal sage, das interessiert Firefox jetzt auch nicht.
0:18:34–0:18:37
Das Problem lösen die jetzt nicht. Ja, ich würde auch sagen,
0:18:37–0:18:42
also es ist im Windows gesehen, ich setze noch nicht einmal den Befehl.
0:18:42–0:18:46
Also ich weiss nicht, ob es den überhaupt überall gibt, oder vielleicht bin
0:18:46–0:18:50
ich jetzt da nicht auf dem... Und ich denke, ich mache das höchstens versehentlich.
0:18:51–0:18:55
Und klicke dann auf irgendeinen Link, den ich eigentlich rechtsklicken wollte
0:18:55–0:18:56
und irgendetwas damit machen.
0:18:56–0:19:01
Und dann mache ich stattdessen ein Hintergrundbild und habe dann irgendein Logo von irgendetwas.
0:19:02–0:19:06
Und dann musst du wieder... Und um es wegzumachen, ist es dann viel mühsamer,
0:19:06–0:19:09
wenn du es wieder hinmachst. Also ich finde auch, es ist eigentlich ein bisschen...
0:19:11–0:19:16
Also ja, ich bin sowieso kein wirklicher Fan von so Hintergrundbildern.
0:19:16–0:19:20
Aber ich glaube, das ist so eine pseudoreligiöse Debatte, die man jetzt vielleicht
0:19:20–0:19:22
lieber nicht führt, oder?
0:19:23–0:19:29
Also, die Funktion gibt es, Bild als Hintergrundbild einrichten,
0:19:29–0:19:30
direkt aus dem Firefox, das geht.
0:19:31–0:19:34
Okay, ja, bei Windows, siehst du das? Das ist eine Option, wirklich.
0:19:35–0:19:38
Nein, ich habe es jetzt noch bei Mac angeschaut, ich weiss nicht,
0:19:38–0:19:40
ob es das bei Windows gibt.
0:19:40–0:19:43
Also, ich sehe, ah ja doch, tatsächlich, jetzt sehe ich es auch.
0:19:44–0:19:49
Vorher war ich halt auf so einer zufälligen Webseite, die dann offen war, im Stadtfilter.
0:19:49–0:19:53
Mit diesem Bild ging es nicht, aber jetzt habe ich irgendwie mit dem...
0:19:53–0:19:59
Eben, man könnte jetzt hier also das Stadtfilter-Logo als Hintergrund-Desktop
0:19:59–0:20:01
hinlegen. Aber ich würde es empfehlen, das nicht zu machen.
0:20:03–0:20:08
Okay. Aber war das ActiveX auf Windows 8?
0:20:08–0:20:13
Wo hat man mal versucht, so einen dynamischen Desktop zu machen? Ja, ja.
0:20:14–0:20:20
Haben sie das mit ActiveX gemacht? Das war nie zu laufend, das war ein Bastel.
0:20:21–0:20:26
Du konntest wirklich eine Webseite abspeichern als Desktop.
0:20:27–0:20:32
Das war der Active Desktop, aber der war schon viel älter.
0:20:33–0:20:36
Ich glaube, der steckte in Windows 98 oder so.
0:20:37–0:20:44
Es war ein riesiges Sicherheitsrisiko und es hat nicht funktioniert. funktioniert und so.
0:20:44–0:20:49
Aber ich finde es lustig, weil es immer wieder, man probiert etwas auf dem Desktop
0:20:49–0:20:53
zu pflanzen, jetzt beim neuesten Mac OS dem so nachzumachen.
0:20:53–0:20:56
Wenn man jetzt die Widgets auf den Hintergrund macht und so und auch.
0:20:58–0:21:03
Das Windows 11 hat ja die Widgets, wenn du irgendwie Windows-Tasten und W drückst,
0:21:03–0:21:08
kommt da auch der Schmarrn, der aufgeht und so. Und mich stört das aber alles.
0:21:08–0:21:18
Ich bin so ein Buritaner, ich möchte möglichst alles übersichtlich und nicht ablenkend haben.
0:21:18–0:21:22
Aber ja, ich habe zum Beispiel auch kein Dokument auf meinem Desktop.
0:21:22–0:21:27
Und wenn ich an einen Computer laufe, wo jemand übersät ist mit so ein Körnchen,
0:21:27–0:21:30
dann wird es mir immer gerade so leicht schummrig.
0:21:30–0:21:34
Aber da gehen meine Gehen ja wirklich auseinander.
0:21:34–0:21:38
Habe ich das mal erzählt von einem Kunden, der uns angerufen hat und gesagt
0:21:38–0:21:42
hat, er könne nichts mehr auf dem Desktop sprechen? Dann ist er einfach voll.
0:21:42–0:21:48
Ja, der hatte so viele Symbole auf dem Desktop, dass er keinen Platz mehr hatte.
0:21:48–0:21:53
Das hat es schon auf dem Desktop gesprochen, aber da hätte ich keinen Platz mehr gemacht.
0:21:53–0:21:59
Also hätte er über den Ordner auf dem Desktop können und dann hätte er es gesehen,
0:21:59–0:22:01
aber auf seinem Desktop halt nicht.
0:22:01–0:22:05
Er hätte nicht gecheckt, vielleicht musst du mal 12'000 Symbole auf dem Desktop wegnehmen.
0:22:05–0:22:08
Hättest du ihm sagen können, du musst die Kontrolltaste gedrückt halten und
0:22:08–0:22:13
dann ein Mausrad drüllen und dann machst du es so klein wie es geht und dann
0:22:13–0:22:14
hast du noch viel mehr Platz.
0:22:16–0:22:21
Stimmt, das wäre nicht gegangen. Ich hätte gesagt, er darf nichts mehr auf dem Desktop sprechen.
0:22:22–0:22:25
Ich hätte sagen müssen, er kann drehen, dann hat es mehr Platz. Genau.
0:22:27–0:22:32
Früher hast du es mit so, wahrscheinlich über die Registry oder mit Hilfsprogrammen.
0:22:33–0:22:38
Den Abstand zwischen den Iconen verkleinern können und dann hattest du auch noch mehr Platz.
0:22:38–0:22:44
Aber es wird dann irgendwann mal so ein Patchwork-Ding, das du einfach nicht
0:22:44–0:22:46
mehr siehst. Aber eben, macht das, was ihr wollt.
0:22:47–0:22:50
Kommt nachher einfach nicht zu uns, weil wir sagen, versorgt...
0:22:51–0:22:55
Unsere Empfehlung wäre, immer gleich in den richtigen Ordner zu versorgen und
0:22:55–0:22:59
dann kannst du über diese Sprunglisten oder wie auch immer, kannst du es ja dann aufmachen.
0:22:59–0:23:03
Oder zuerst Programm starten und dann über zuletzt benutzen oder wie auch immer.
0:23:04–0:23:09
Da gibt es ja ganz viele Möglichkeiten. Aber ja, die Leute hängen einfach an diesem Desktop.
0:23:10–0:23:12
Aber jetzt der Hans, der sagt...
0:23:12–0:23:18
Da ich die Stenografie-Technik beim Telefonieren nicht sonderlich gut beherrsche,
0:23:18–0:23:24
mein Gehirn nicht wie bei einem Genie aktivieren kann oder nicht archivieren
0:23:24–0:23:28
kann und ich deshalb den Gesprächsinhalt, also beim Telefonieren,
0:23:28–0:23:32
schon nach wenigen Tagen oft nicht mehr genau oder vollständig rekonstruieren
0:23:32–0:23:34
kann, habe ich folgende Fragen.
0:23:34–0:23:39
Wie kann ich auf meinem Smartphone meine Telefongespräche aufnehmen,
0:23:40–0:23:42
mitschneiden, aufzeichnen, archivieren?
0:23:42–0:23:46
Brauche ich dazu eine spezielle App, ein spezielles Smartphone?
0:23:46–0:23:49
Und dann Hintergrund, offensichtlich wollen immer mehr Anbieter,
0:23:49–0:23:53
Dienstleister oder Verwaltungen statt schriftlich nur noch mündlich bzw.
0:23:53–0:23:58
Mittels Videoberatung mit uns Kunden kommunizieren, warum auch immer.
0:23:58–0:24:03
Und dann gibt es eben keinen Beweis, also er will gerne eine Beweiskette und
0:24:03–0:24:10
er nimmt darum alles auf und archiviert es und reibt es dann den Leuten unter die Nase.
0:24:10–0:24:14
Was wäre deine Empfehlung in diesem Zusammenhang? Irgendeine App, die das aufnehmen kann?
0:24:17–0:24:23
Mittlerweile kann man ja über Microsoft Teams und Skype und ich kann ja mit
0:24:23–0:24:25
mittlerweile fast allem auf Festnetznummern anrufen.
0:24:26–0:24:29
Über die kann ich glaube ich auch vieles aufzeichnen.
0:24:29–0:24:35
Ein normales Telefon, also wenn ich, ich sage jetzt wirklich klassisch,
0:24:35–0:24:39
telefoniere, ich gebe die Nummer ein und rufe jemanden an, das wird ein bisschen schwieriger.
0:24:39–0:24:44
Ich weiss nicht einmal, ob es Apps für so etwas gibt. Es gibt so etwas,
0:24:44–0:24:48
wenn ich da schnell reingrätschen darf, aber die sind so dubios,
0:24:48–0:24:50
die würde ich eigentlich selber nicht benutzen.
0:24:50–0:24:58
Die leiten dann den Anruf irgendwie um über ein Callcenter oder eine Vermittlungsstelle,
0:24:58–0:25:01
die dann wahrscheinlich irgendwo in Weissrussland steht oder so.
0:25:01–0:25:09
Oder unter dem Kreml im Bunker. Also das würde ich eher nicht brauchen.
0:25:10–0:25:15
Und er hat dann gesagt, ich will keine Belehrungen.
0:25:16–0:25:23
Deshalb meine Frage, und bitte keine Diskussion darüber, ob ich unter welchen
0:25:23–0:25:25
Umständen dies doch nicht tun darf.
0:25:26–0:25:32
Und er findet, die anderen machen das auch. auch wenn man das Call-Center anruft,
0:25:32–0:25:38
dann sagt es tatsächlich, ob die wir tun zur Qualitätskontrolle alles aufnehmen und so.
0:25:39–0:25:43
Und ich habe auch gemerkt, also neuerdings, wenn du irgendwie mit mit irgendeinem
0:25:43–0:25:49
Computerkonzern wie sagen wir jetzt Apple oder Microsoft oder so irgendein sogar
0:25:49–0:25:51
off the record etwas hast,
0:25:51–0:25:54
dann nehmen die das immer auf und so und dann wahrscheinlich,
0:25:54–0:25:57
wenn du irgendeinen Fall auf etwas schreibst und so, dann.
0:25:59–0:26:03
Verklagen sie dich mit all ihren Anwälten und so. Also er hat schon eigentlich
0:26:03–0:26:06
recht, dass es ein bisschen ein Unsitten ist.
0:26:07–0:26:11
Aber es ist dann trotzdem die Frage, sollte man dann da mit der gleichen Münze
0:26:11–0:26:13
diesen Leuten das heutzahlen?
0:26:13–0:26:18
Wie würdest du das so empfehlen oder urteilen?
0:26:20–0:26:24
Verheben sie es rechtlich, wenn du den Gegner nicht informierst?
0:26:24–0:26:26
Nein. Ich glaube, dann hast du sogar ein Problem.
0:26:27–0:26:30
Dann hast du es, ja. Ich glaube, ja.
0:26:31–0:26:35
Also einfach aufzeichnen und nachher sagen, ich habe es aufgenommen.
0:26:36–0:26:41
Ich habe das Gefühl, ich habe mal irgendeine Kundin oder einen Kunden gehabt,
0:26:41–0:26:45
wo wir das gesehen haben, dass jemand in einer Scheidung in Gespräch aufgenommen
0:26:45–0:26:51
hat und das dann als Beweismittel genutzt hat und das ist dann so weit gekommen, dass es geheissen hat,
0:26:51–0:26:55
sorry, du hast es gegenüber nicht gefragt, das ist alles ungültig.
0:26:55–0:26:59
Das ignorieren wir komplett, was was dort gesagt worden ist,
0:26:59–0:27:01
weil du nicht gefragt hast.
0:27:01–0:27:05
Genau. Und eventuell machst du dich sogar strafbar. So ist es.
0:27:05–0:27:09
Also ich habe da beim eidgenössischen Datenschützer nachgelesen und der sagt,
0:27:09–0:27:12
wer ein fremdes, also fremdes, nicht,
0:27:12–0:27:17
öffentliches Gespräch als Gesprächsteilnehmer oder nicht, also eben wenn du
0:27:17–0:27:20
nicht teilnimmst an dem Gespräch, dann ist es sowieso schwierig.
0:27:21–0:27:25
Aber es heisst, ohne die Einwilligung aller Beteiligten mit einem Abhörgerät
0:27:25–0:27:28
abhört oder auf einen Tonträger aufnimmt,
0:27:28–0:27:38
verstösst gegen das Strafgesetzbuch Artikel 179 bis und Artikel 179 ter StGB
0:27:38–0:27:40
und kann sich daher strafbar machen.
0:27:40–0:27:44
Also man darf das tatsächlich nicht und ich mache das als Journalist schon auch
0:27:44–0:27:47
ab und zu, wenn ich so Interviews mache und ich frage nicht mehr,
0:27:47–0:27:50
also explizit darf ich das aufnehmen und dann frage ich manchmal,
0:27:50–0:27:54
wenn ich das Gefühl habe, er hat es nicht gehört dann starte ich die Aufnahme
0:27:54–0:27:57
und frage nochmal, ob ich es darf aufnehmen und dann, dass es auch möglichst
0:27:57–0:27:59
auf der Aufnahme drauf ist.
0:27:59–0:28:01
Ah, ja. Dass er gesagt hat, ja.
0:28:03–0:28:07
Und eben, du kannst nicht einfach das, auch wenn es alle machen,
0:28:07–0:28:12
ist es trotzdem, finde ich, eigentlich klar, wie es gesetzlich ist.
0:28:12–0:28:18
Und ich finde es auch sinnvoll, also wenn, ja.
0:28:19–0:28:23
Natürlich kannst du sagen, wenn es irgendwie um Kopf und Kragen geht,
0:28:23–0:28:27
dann ist es vielleicht, aber wenn es dann so in deinem Umfeld so,
0:28:28–0:28:32
ist jetzt keine technische Antwort, Aber wenn es dann alles auf das Misstrauen
0:28:32–0:28:36
rausläuft und du findest, ich muss immer alles beweisen können,
0:28:36–0:28:38
was da gesagt worden ist,
0:28:39–0:28:43
dann wird das Leben irgendwie ungemütlich, oder?
0:28:44–0:28:46
Ja, ich glaube, dann muss man eher auf den schriftlichen Weg gehen.
0:28:46–0:28:52
Dass man sagt, okay, dann muss ich halt den Weg gehen und ich löse alles mit
0:28:52–0:28:53
eingeschriebenen Briefen.
0:28:53–0:28:57
Genau, das finde ich eine sehr gute Antwort. und ja, dann gibt es halt mehr
0:28:57–0:29:01
Aufwand und so, aber dort ist es dann wirklich klar und ja,
0:29:01–0:29:05
also und wenn ihr noch wollt, eben was so die technische Sachen angeht,
0:29:05–0:29:09
ich habe das mal ausführlich in meinem Blog beschrieben, das heisst Aufzeichnung von nein,
0:29:10–0:29:15
das heisst es nicht, das heisst eine Handreichung für die Aufzeichnung von Videokonferenzen,
0:29:15–0:29:19
also da geht es vor allem eben so im journalistischen Bereich oder so als Podcaster
0:29:19–0:29:21
machst du das natürlich auch die ganze Zeit,
0:29:22–0:29:26
das, ja, logisch und wenn du einen Podcast machen willst, dann musst du es eigentlich
0:29:26–0:29:29
fast zwingend aufnehmen. Weil sonst...
0:29:30–0:29:33
Ich nehme dich übrigens auf, Kevin. Ich habe dich vorher nicht gefragt.
0:29:33–0:29:35
Ist das okay? Wirklich? Ja.
0:29:36–0:29:44
Meine Schweine. Also, man sieht, es gibt wirklich... Es hängt halt von den Umständen ab.
0:29:45–0:29:48
Aber ich würde es nur machen aus guten Gründen.
0:29:48–0:29:54
Und jetzt so im normal zwischenmenschlichen oder auch geschäftlichen Umgang
0:29:54–0:29:55
würde ich es eher nicht machen.
0:29:55–0:30:01
Also, dann haben wir doch noch etwas. Vielleicht noch etwas als Ergänzung.
0:30:01–0:30:08
Wenn man wirklich crazy gehen will und das machen möchte, mit einer Telefonanlage kann man das.
0:30:09–0:30:14
Das ist dann so ein Next-Level-Schritt. Wenn jemand sagt, ich hole mir jetzt
0:30:14–0:30:18
eine Telefonanlage für 2000 Stutzen, dann kann ich all meine Telefonate aufzeichnen, kann man machen.
0:30:20–0:30:26
Rechtliche Situation bleibt die gleiche, aber ich kann meine normalen Telefonate,
0:30:26–0:30:29
die ich über die Telefonanlage mache, aufzeichnen. Ja, okay.
0:30:29–0:30:33
Das ist natürlich dann auch immer ein Problem, weil wenn jemand dann die Telefonanlage
0:30:33–0:30:39
hackt und all die Aufnahmen findet, dann könnte sich das gegeneinander selber wenden.
0:30:40–0:30:45
Also dort würde ich sagen, gesunder Menschenverstand und Augenmass hilft wahrscheinlich
0:30:45–0:30:46
bei dieser Frage weiter.
0:30:49–0:30:52
Ich habe auch nicht so ein gutes Gedächtnis, aber ich führe auch mit so einem
0:30:52–0:30:56
Protokoll, wenn es wirklich wichtig ist, und besitze auch Telefonate.
0:30:57–0:31:01
Meistens brauchst du ja nicht mehr drei, vier Stichworte, die du draufschreibst,
0:31:01–0:31:08
schreibst, um was es gegangen ist, was besprochen worden ist und was so die Quintessenz ist, oder?
0:31:08–0:31:13
Ob du noch etwas machen musst, oder ob du irgendeinen Vertrag abgeschlossen
0:31:13–0:31:16
hast, oder so. Das ist es ja.
0:31:16–0:31:19
Was du jetzt wieder gekauft hast. Ja, genau.
0:31:20–0:31:24
Ob du jetzt die Anzahlung für die Villa, die wir in der Pre-Show hatten,
0:31:24–0:31:25
schon versprochen hast.
0:31:25–0:31:31
Also, der Reto sagt, kürzlich wurde ich gefragt, wie man am besten einen Windows
0:31:31–0:31:33
10 Laptop sicher löschen kann,
0:31:34–0:31:38
damit man ihn in ein Geschäft zurückbringen kann, dass diesen zum Beispiel für
0:31:38–0:31:42
soziale Zwecke aufbereiten würde. Also eben, kann man irgendwie.
0:31:45–0:31:49
Drittanbieter-Software für das benutzen, oder kann das eigentlich das Windows
0:31:49–0:31:52
nicht von Haus aus, das Fan-Dads müsste das eigentlich können.
0:31:52–0:31:56
Und das ist sicher auch das Problem die ganze Zeit, Kevin.
0:31:56–0:32:03
Und was empfiehlst du dann in solchen Situationen? Man kann Windows abwärts zurücksetzen.
0:32:04–0:32:11
Auf, wie heisst das, auf Werkseinstellungen oder so zu rücksetzen. Das kann man,
0:32:14–0:32:19
googlen. Es ist irgendwo in den Systemeinstellungen drin.
0:32:19–0:32:23
Genau, da habe ich sonst noch einen Link dazu, ich habe das mal beschrieben
0:32:23–0:32:24
und der Unterschied ist ja,
0:32:26–0:32:31
der Fallstrick ist eigentlich, und übrigens ja, in diesem Artikel steht es dann
0:32:31–0:32:34
nicht nur für Computer, für Macs und Windows, sondern auch für Handys,
0:32:34–0:32:36
Denn da kommt das ja auch häufig vor.
0:32:36–0:32:41
Und das Problem ist ja dann, dass man früher darauf achten musste,
0:32:42–0:32:45
dass man dann, wenn man wirklich sicher sein wollte, dass alles weg ist,
0:32:45–0:32:50
dass nicht einer mit einer Software herangehen kann und das wiederherstellen
0:32:50–0:32:53
kann, was da gespeichert worden ist.
0:32:53–0:32:56
Und heute ist das natürlich theoretisch immer noch so.
0:32:56–0:33:01
Man kann immer noch eine Software benutzen. Aber es hängt davon ab,
0:33:01–0:33:06
wenn man die modernen Geräte so einsetzt, wie sie vorgesehen sind,
0:33:06–0:33:09
dann werden die Datenverschlüsselung gespeichert.
0:33:09–0:33:14
Das nennt sich Geräteverschlüsselung, die gibt es inzwischen bei allen,
0:33:14–0:33:17
bei den Handys sowieso, auch bei Windows, auch bei Mac gibt es das.
0:33:17–0:33:21
Und wenn man es dann zurücksetzt, dann werden auch die Schlüssel weggerührt,
0:33:21–0:33:28
die man gebraucht hat, um das zu entschlüsseln. und dann kannst du es natürlich
0:33:28–0:33:29
nicht mehr wiederherstellen.
0:33:29–0:33:32
Du musst auch nicht eine Zusatzsoftware, wie man das früher gemacht hat,
0:33:32–0:33:35
um zu überschreiben, was bei SSD nicht geht.
0:33:36–0:33:40
Also SSD kannst du nicht gut so überschreiben, dass du wirklich sicher bist, dass alles weg ist.
0:33:40–0:33:44
Darum gibt es dann die Empfehlung, wenn du das nicht verschlüsselt gespeichert
0:33:44–0:33:49
hast und ein SSD hattest, dann nimmst du sie am gescheitesten raus und zerstörst
0:33:49–0:33:53
sie physisch, wenn du wirklich sicher sein willst, dass alles weg ist.
0:33:53–0:33:56
Das ist auch etwas unbefriedigend, aber das würde ich jetzt empfehlen.
0:33:57–0:34:02
Aber wenn ihr seht, dass es verschlüsselt ist, dann könnt ihr einfach das Konto
0:34:02–0:34:07
mit dieser Verschlüsselung wegtun und dann müsste das eigentlich gut sein.
0:34:07–0:34:09
Oder? Hast du da noch etwas zu ergänzen?
0:34:10–0:34:15
Nein. Genau. Und das ist wichtig. Und dann gibt es auch, vielleicht müssen wir
0:34:15–0:34:21
tatsächlich noch diese Dienste vorstellen, wo man Geräte auch für soziale Zwecke spenden kann.
0:34:21–0:34:26
Das wäre vielleicht durchaus finde ich, hätte er da ein gutes Thema angesprochen.
0:34:26–0:34:29
Das machen wir aber bei einer anderen Gelegenheit.
0:34:29–0:34:33
Und jetzt sind wir fast am Ende von dieser Sendung. Und wenn du nicht noch eine
0:34:33–0:34:37
schöne Anekdote hast, um das abschliessen, dann würde ich euch einfach eine
0:34:37–0:34:40
gute Zeit wünschen. Und bis in der Woche.
0:34:40–0:34:43
Bis nächste Woche. Bis dann. Tschüss zusammen. Tschüss miteinander.
0:34:47–0:34:57
Music.

Wir alle werden nicht jünger, auch Küdde nicht. Er fragt nämlich danach, wie er in seiner angestammten Nachrichten-App am iPad die Schriftgrösse ändert; nachdem die entsprechende Option aus den Einstellungen verschwunden ist.

Nils seinerseits kämpft mit den Unwägbarkeiten von Google Docs, wo sich aus unerfindlichen Gründen und unaufgefordert ein Kontextmenü über seinen Text legt. René wird von Firefox geplant und Hans möchte wissen, wie er Anrufe aufzeichnet, damit er nicht mitstenografieren muss.

Ihr merkt es: Heute behandeln wir traditionsgemäss in Kummerbox Live die Computerfragen unserer Hörerinnen und Hörer. Falls ihr ebenfalls ein Anliegen habt, findet ihr hier sämtliche Kontaktmöglichkeiten. „Kleine, grosse, schräge und dubiose Fragen“ weiterlesen

Nur etwas für Glatzköpfe, Ungeschminkte und Cybertruckfahrer?

Transkript anzeigen (falls vorhanden)

0:00:03–0:00:07
«Gamakite» mit «Inbetween». «Hoi zusammen, hier ist Ginny von Annie Taylor und
0:00:07–0:00:12
ihr hört Radio Stadtfilter.» «Und Digi-Chris ist hier auf Radio Stadtfilter,
0:00:12–0:00:17
hallo.» «Guten Abend.» «Hast du irgendein Thema, über das du dringend reden musst?
0:00:18–0:00:21
Kevin ist nicht da, also musst du von deinen Hühnern erzählen.»,
0:00:23–0:00:30
«Also ich habe ja in der Familie Hühner, also wirklich richtig.» Also nicht deine Tante oder so.
0:00:30–0:00:33
Nein, aber die hat tatsächlich Hühner und ja, ja.
0:00:34–0:00:38
Es ist halt schon schön, wenn du von denen auch mal wieder Eier rüberkommst.
0:00:38–0:00:42
Wo genau weisst du jetzt irgendwie, die kleinste hat jetzt so ein kleines,
0:00:42–0:00:43
kleines Eilchen gelegt.
0:00:43–0:00:46
Und eben, das ist natürlich Freiland und ja.
0:00:47–0:00:52
Ich glaube, es gab vor Jahren im Kassensturz mal Tests und ob die jetzt besser riechen.
0:00:52–0:00:58
Aber ich will einfach nichts, was aus so einer Legibatterie ist. Ja, das geht mir auch so.
0:00:58–0:01:02
Das ist irgendwie... Also, je nachdem, wie du eine Mayonnaise kaufst,
0:01:02–0:01:03
kann man es nicht verhindern.
0:01:03–0:01:07
Aber wenn du tatsächlich eine klassische Spiegelei drei Minuten einmachst,
0:01:07–0:01:13
finde ich es schon schön, wenn du weisst, dass das Huhn ein schönes Leben hat und scharen kann.
0:01:14–0:01:20
Meine Tochter hatte, als sie noch im Kindergarten war, auch Hühner im Kindergarten.
0:01:20–0:01:25
Und dann mussten wir sie zwei, drei Mal betreuen
0:01:25–0:01:29
und misten und füttern und so und dann
0:01:29–0:01:32
ist lustig sie dann haben wir dafür dafür die frisch gleiten
0:01:32–0:01:38
mitnehmen und dann hat sie aber gefunden ich hatte jetzt nimmer nass irgendwie
0:01:38–0:01:44
sind also so die die eier und die hühner sind ihre so nahe dass ich gefunden
0:01:44–0:01:50
habe ich jetzt nicht von den hühnern wo nicht keine kann ich keine reise das lustig gefunden Ja,
0:01:50–0:01:53
ist jetzt spannend, weil ich habe das auch eben, wie gesagt,
0:01:53–0:01:56
ich habe ja Bauern in der Familie, dort ist es halt so gewesen,
0:01:56–0:02:01
wenn man halt mal ein Tier schlachten musste, hat man das eigentlich aus Prinzip
0:02:01–0:02:04
nicht selber gegessen, weil, ja, klar,
0:02:05–0:02:09
eben, auch der Hamburger in McDonalds ist mal irgendwo auf einer Weide herumgerannt,
0:02:09–0:02:11
aber wenn du halt das Ding vielleicht gestreichelt hast,
0:02:11–0:02:17
das Tier auch, ja, gern gehabt, ja, das verstehe ich schon, dass es auf der
0:02:17–0:02:21
einen Seite heuchlerisch ist, aber ja, Ja, ich habe grosses Verständnis,
0:02:21–0:02:23
wenn du Beziehung zum Tier hast, dass du dann das.
0:02:24–0:02:28
Ja, ich glaube das ist unterschiedlich.
0:02:28–0:02:35
Als ich auf dem Land war, habe ich meine Jugend auf dem Land verbracht.
0:02:35–0:02:40
Der typische Bauer hatte dort keine Sentimentalität.
0:02:41–0:02:45
Er hat zwar die Tiere gekannt, gepflegt und für sie gesorgt,
0:02:45–0:02:51
aber wenn es Zeit war, sie zu schlachten, dann wurden sie geschlachtet und sie wurden auch gegessen.
0:02:51–0:02:58
Wurden und da auch in meiner Verwandtschaft, die haben dann so die Küngel abgemurkst und so.
0:02:59–0:03:04
Das ist, glaube ich, eine andere Beziehung.
0:03:04–0:03:12
Aber eben, man kann den Leuten nicht sagen, sie sollen ihre Hunde oder so dann bröteln und essen.
0:03:13–0:03:18
Also ich glaube, da haben sich vielleicht auch Sensibilitäten ein bisschen verschoben.
0:03:19–0:03:23
Ja, aber Aber das ist nicht unser heutiges Thema.
0:03:23–0:03:28
Ich glaube, du hast noch Musik und dann würde man mit Patch Tuesday starten.
0:03:28–0:03:34
Wir machen Patch Tuesday mit den News von der Woche. Und jetzt habe ich noch einen Song für euch.
0:03:34–0:03:37
Etienne, das ist ein Freund von der Sendung, hat mir wieder gesagt,
0:03:37–0:03:39
ich müsse unbedingt etwas spielen.
0:03:39–0:03:43
Read the Room heisst das. Jetzt ist gerade mein Laptop eingeschlafen.
0:03:43–0:03:50
Aber da fängt es schon an. Read the Room mit Master 4. Ihr könnt es auch bis Party-Fi hören und so.
0:03:50–0:04:05
Music.
0:03:55–0:03:57
Why don't you read the room?
0:04:07–0:04:12
Und ich habe es falsch gesagt, das ist der Florence Cech, Not Gartier,
0:04:13–0:04:15
glaube ich. Why don't you read the room?
0:04:15–0:04:20
Direkt frisch aus dem Etienne's im Studio, Für die, die irgendwie,
0:04:20–0:04:22
ich weiss gar nicht, wo ist er?
0:04:22–0:04:25
Das müssen wir mal herausfinden. Zug oder so ist er, glaube ich,
0:04:25–0:04:31
zuhause. Aber bevor ich etwas Falsches sage, fangen wir jetzt mit dem Nerdfunk an.
0:04:31–0:04:46
Music.
0:04:46–0:04:51
Wir machen heute, wie immer, wenn uns nichts besser sein fällt, den Patch Tuesday.
0:04:52–0:04:56
Das ist die Sendung, wo wir über Neuigkeiten aus der digitalen Welt reden.
0:04:57–0:05:01
Und eine von diesen Neuigkeiten, wir steigen gerade knallhart ein,
0:05:01–0:05:03
da ist der Digi-Chris übrigens. Hallo miteinander.
0:05:03–0:05:10
Das ist die Apple Vision Pro. Das ist die Brille, wo du sicher auch schon eine
0:05:10–0:05:15
direkt bist aus den USA importieren und holen.
0:05:15–0:05:19
Nein, und ich habe tatsächlich auch noch keine, und ich fahre ja relativ viel
0:05:19–0:05:24
Zug, auch noch keine jetzt irgendwo in der S-Bahn oder im Intercity gesehen.
0:05:24–0:05:29
Genau, das ist so dein magischer Aha-Moment, wenn du sie in der freien Wildbahn
0:05:29–0:05:34
siehst und ich habe auch noch keine gesehen, in echt.
0:05:34–0:05:39
Ich habe fast, es ist ein bisschen eine blöde Panne passiert, darf ich das erzählen?
0:05:39–0:05:44
Ich habe eigentlich abgemacht mit einem, der gesagt hat, er hätte so eine,
0:05:44–0:05:50
er sei direkt zurückgekommen aus den USA und er würde sie mir gerne mal,
0:05:50–0:05:51
ich darf sie gerne mal anlegen.
0:05:51–0:05:58
Und dann haben wir abgemacht und dann war ich in Zürich im Büro und er meinte,
0:05:58–0:06:01
ich sei in Bern im Büro, weil die haben ja verschiedene Medien.
0:06:02–0:06:05
Er hat mich glaube ich immer im Bund gelesen und dann nicht gemerkt,
0:06:05–0:06:07
dass ich gar nicht da bin.
0:06:07–0:06:11
Das war ein bisschen blöd und darum hätte ich sonst jetzt brühwarm erzählen
0:06:11–0:06:13
können, wie diese Brille ist.
0:06:13–0:06:19
Aber so habe ich einfach ganz viel und zum Teil sehr lange Rezensionen gelesen
0:06:19–0:06:22
von dieser Brille. Digi-Chris, ist dir das auch so gegangen?
0:06:23–0:06:26
Ich habe natürlich vor allem YouTube-Videos gesehen.
0:06:27–0:06:34
Am Anfang halt so die typischen Influencer-I-Chests, wo ich irgendwann abstellen
0:06:34–0:06:36
musste, weil ich fand, das ist so ein Gefälligkeitsvideo.
0:06:36–0:06:42
Nein, brauche ich nicht. Natürlich in den üblichen Podcasts, Apfelfunk-Bits und so.
0:06:43–0:06:44
Whatever. Ja, ist das auch.
0:06:45–0:06:50
Besprochen wurde. Hinterst und vorst. Genau. Ich sage,
0:06:50–0:06:55
bei mir würde es halt schon scheitern, ich trage auch eine normale Brille und
0:06:55–0:07:00
dass du diese Vision Pro benutzen kannst, müsstest du eine Linse haben.
0:07:01–0:07:07
Ich habe das mal probiert, vor Jahren, und ich bin wirklich fast gestorben.
0:07:08–0:07:13
Ich glaube, es sind, wie nennt man die, die Testlinsen, die noch gar keine Korrektur haben.
0:07:13–0:07:16
Schon die hast du nicht vertreibt also ich habe wahrscheinlich fast wie ein
0:07:16–0:07:19
Ross ausgeschlagen und habe dann gesagt ja,
0:07:19–0:07:23
ich trage jetzt halt die Brille wer weiss, vielleicht kann man ja in 5 Jahren
0:07:23–0:07:26
doch meine Sehschwäche irgendwie lasern, sonst korrigieren,
0:07:26–0:07:31
aber bis da bin ich grundsätzlich wahrscheinlich aus diesen Dingen eh raus ja,
0:07:31–0:07:36
vielleicht müssen wir nochmal eine Kurzsichtigkeitssendung machen weil ich glaube ja,
0:07:36–0:07:39
das ist unter Nerds wahrscheinlich noch ein häufiger,
0:07:39–0:07:45
verbreitetes Phänomen weder in der Normalbevölkerung und ja, mir geht es ja auch so.
0:07:45–0:07:48
Eben, das hätte ich dann herausgefunden mit der.
0:07:51–0:07:56
Quest 3 von Meta, die habe ich mal ausprobiert. Dort war eigentlich kein Problem,
0:07:56–0:07:58
mit der Brille drunter zu schlüpfen.
0:07:59–0:08:03
Aber wie es jetzt mit der Apple Vision Pro ist, weiss ich nicht.
0:08:04–0:08:05
Was hätte ich so beeindruckt?
0:08:06–0:08:12
Sie sind ja wirklich recht ausführlich gewesen. Ich habe die Kritik von The
0:08:12–0:08:13
Verge noch gut gefunden.
0:08:14–0:08:18
Und dort ist es so quintessenzial. Es ist ein verblüffendes Produkt.
0:08:18–0:08:22
Es ist halt, es hat so die Krankheiten von der ersten Generation.
0:08:23–0:08:29
Es ist halt irgendwo, man merkt es noch, es ist noch nicht so ausgereift,
0:08:29–0:08:33
wie es dann vielleicht irgendwann mal sein sollte, wenn es wir alle brauchen sollten.
0:08:33–0:08:39
Aber tolle, wirklich tolle Grafik, das mit dem Passthrough, also dass du eigentlich
0:08:39–0:08:47
die Umwelt sehst, durch die kleinen Bildschirme, die du vor den Augen hast,
0:08:47–0:08:53
das ist eigentlich recht beeindruckend, das funktioniert offenbar gut, aber ja.
0:08:57–0:09:03
Die Frage, warum es dieses Produkt gibt, hat sich noch nicht so geklärt. Das sehe ich wie du.
0:09:03–0:09:06
Apple muss jetzt etwas Neues machen.
0:09:08–0:09:12
Was man wahrscheinlich ganz klar sagen kann, iPhone, the next big thing.
0:09:12–0:09:18
Es gab damals schon MP3-Player, es gab Smartphones, es hat aber schon mit dem
0:09:18–0:09:23
allerersten iPhone wahrscheinlich niemand so gut und nahtlos gemacht wie Apple.
0:09:24–0:09:28
Und ich würde sagen, das iPad, das hat schon früher Tablet-Computer gegeben
0:09:28–0:09:31
und wir haben das erste iPad, da hast du nicht mal Multitasking gehabt,
0:09:31–0:09:34
aber auch das hat Sachen gut gemacht.
0:09:34–0:09:38
Ich glaube, die erste Apple Watch, ja, da haben ja auch viele Apple-Nerds bis
0:09:38–0:09:43
zur zweiten oder dritten Generation gewartet und da, ja, sie haben wahrscheinlich
0:09:43–0:09:45
einfach gesagt, hey, wir können so etwas.
0:09:45–0:09:49
Genau, das sagt der Wörtsch auch. Warum hat es Apple gemacht,
0:09:49–0:09:54
um zu beweisen, dass Apple das das kann und eben so viel Talent und Ressourcen
0:09:54–0:09:58
hat und eben auch diese schwierigen Probleme kann meistern.
0:09:58–0:10:01
Aber, und sie finden auch, und das finde ich noch gut, die Einstellung,
0:10:01–0:10:08
sie sagen, wir testen eigentlich Geräte immer so, wie sie zum Böxli auskommen und nicht unter der.
0:10:09–0:10:13
Annahme, dass es dann irgendwann vielleicht in Zukunft durch dieses oder jenes
0:10:13–0:10:15
Update oder durch jene App oder
0:10:15–0:10:18
so noch besser wird und man dann plötzlich herausfindet, für was das ist,
0:10:19–0:10:22
sondern man muss es so testen, wie es jetzt die jetzt in dieser Box ist und
0:10:22–0:10:24
dann findest du, ja was machst du denn damit?
0:10:24–0:10:30
Du leihst sie an und dann kannst du so Apps vor dir aufreihen oder du kannst
0:10:30–0:10:35
deinen Bildschirm von deinem MacBook kannst du da drin einspiegeln und dann machst du das,
0:10:35–0:10:42
was du sonst ohne Brille mit deinem iPad oder deinem Mac-Computer gemacht hast.
0:10:42–0:10:45
Und du kannst eigentlich so 3D-mässig, kannst noch nicht filmen,
0:10:45–0:10:49
du kannst einen Film darauf schauen, aber das kannst du auch auf deinem Fernseher und so.
0:10:49–0:10:53
Und darum ist es auf eine Art schon eine Lösung,
0:10:53–0:10:58
für ein Problem, wo es schon längstens viel einfachere Lösungen gibt.
0:10:58–0:11:02
Genauso, und vielleicht auch noch so etwas ein bisschen wegen der Updates, die kommen.
0:11:03–0:11:07
Also eben, wahrscheinlich würde ich auch sagen, das Hauptszenario ist vielleicht
0:11:07–0:11:08
auch, wenn du jetzt Single bist,
0:11:09–0:11:13
also nicht inspektierlich gemeint, du bist halt in der Stube und hast Brüllen
0:11:13–0:11:16
an und schaust halt, hm, ja, ich brause jetzt da ein bisschen,
0:11:16–0:11:19
ich schaue jetzt da ein bisschen Netflix, alles schön.
0:11:19–0:11:24
Und eben beim Autofahren bitte, bitte, bitte nicht anlegen, Das ist gefährlich
0:11:24–0:11:27
und da habt ihr den Fahrausweis garantiert weg.
0:11:27–0:11:32
Genau, ich musste das zuerst in unseren Sendungstext schreiben.
0:11:32–0:11:36
Dann musste ich es durchstreichen, weil man hätte dann so ein lustiges Video
0:11:36–0:11:41
gesehen von einem, der mit dem Cybertruck herumgefahren ist und die Brille aufhatte
0:11:41–0:11:44
und dann so diese wilden Bewegungen gemacht hat,
0:11:45–0:11:48
die man macht, wenn man durch die Menüs navigiert.
0:11:48–0:11:53
Und dann habe ich aber einen Text dazu gefunden, der sagte, das sei ein Fake
0:11:53–0:11:58
gewesen oder ein Witz, das hätten sie inszeniert, das sei nicht ernst gemeint gewesen.
0:11:58–0:12:05
Aber es gibt wahrscheinlich tatsächlich Leute, die die Brille beim Autofahren anhaben.
0:12:06–0:12:10
Also das würde ich jetzt auch nicht machen. Und was ich auch noch in einem Podcast
0:12:10–0:12:16
gehört habe, du fliegst in Zürich, New York, wenn du mal auf Flughöhe bist,
0:12:16–0:12:18
wird das Flugzeug relativ stabil bleiben,
0:12:18–0:12:21
es wird eine Geschwindigkeit haben und auch die Lichtverhältnisse bleiben.
0:12:21–0:12:26
Ja. Da klappt es aber was, wenn ich jetzt denke, wenn ich wieder ins Dessin
0:12:26–0:12:29
runtergehe, so eben die berühmte Bergstrecke Gotthard.
0:12:30–0:12:36
Seien die total überfordert, weil klar, der Zug beschleunigt mal,
0:12:37–0:12:38
eben die Richtung ändert und so.
0:12:38–0:12:42
Das sehe ich auch noch absolut nicht gelöst. Und auch für mich als ÖV-Fahrer
0:12:42–0:12:46
wäre das schon mal ja... Sie orientiert sich ja in diesem Raum hinein.
0:12:46–0:12:50
Und dann, so habe ich es verstanden, ich konnte es nicht selber ausprobieren
0:12:50–0:12:56
bis jetzt, dann orientiert sie sich und darum funktioniert sie auch nicht,
0:12:56–0:12:59
wenn es ganz dunkel ist, weil dann sieht sie den Raum nicht mehr.
0:12:59–0:13:06
Und dann muss sie eben, wenn draussen am Fenster so Sachen vorbeiziehen,
0:13:07–0:13:11
wie es das im Zug halt passiert, dann probiert sie ihre Darstellung je nachdem
0:13:11–0:13:15
dann an den Sachen auszurichten, die da vorbeiziehen und dann hast du ja deine
0:13:15–0:13:20
Apps, die da immer riesen Tempo davon sausen, zusammen mit der Landschaft.
0:13:20–0:13:23
Und dann kannst du irgendwie so einen Travel-Mode einschalten offenbar,
0:13:23–0:13:27
aber der funktioniert im Zug glaube ich nicht und auch so im Auto vielleicht
0:13:27–0:13:30
wäre auch ein Unsinn, wenn es wirklich im Auto wird.
0:13:30–0:13:34
Also vielleicht als Beifahrer, aber eben, also schliesst man jetzt nicht aus,
0:13:34–0:13:36
dass wenn man in zwei oder drei Jahren nochmal darüber redet,
0:13:36–0:13:40
dass das dann auch eben auf der Bergstrecke funktioniert und wer weiss, dass Steve Jobs,
0:13:41–0:13:45
äh, das war jetzt ein Freundchen, der Tim Apple,
0:13:46–0:13:53
mal ist das im ZDK, also klar, wie gesagt, erste Version und ja,
0:13:53–0:13:57
was man halt auch sagen muss, also das iPad da, Ja, wenn ich kann.
0:13:58–0:14:02
Das war irgendwie 400-500 Franken, sogar. Ich sage jetzt noch als aufgerüstetes,
0:14:02–0:14:07
mit 4G, mit 256-Bit-Speichern.
0:14:07–0:14:11
Und ja, das benutze ich echt wahrscheinlich jeden Tag, also wenn ich unterwegs
0:14:11–0:14:13
bin, auch sonst einmal. Und eben die Vision Pro.
0:14:14–0:14:18
Und ja, ich habe hier grundsätzlich das iPad, kann ich meiner Frau geben,
0:14:18–0:14:19
meinen Kids, das geht auch.
0:14:20–0:14:23
Und eben da hast du mal pro Person 3200 Franken. Das ist halt,
0:14:23–0:14:26
klar, die wird billiger, aber wenn du jetzt denkst.
0:14:26–0:14:35
Du hast eine Tochter, dann müssten die Schüssler mal 10'000 Stutz haben, das ihr könntet.
0:14:35–0:14:39
Ich sage jetzt, ob es jetzt Tagesschau, der Tatort oder Irmepine Mechia ist,
0:14:40–0:14:43
obwohl es auch auf dem 400-fränkigen Fernsehen geht.
0:14:44–0:14:50
Genau, also ich lese mal noch vor, die Frage, die der Verge am Schluss gestellt hat, zu diesem Produkt.
0:14:50–0:14:55
Die erste Frage, wenn sie einen Computer brauchen, der ihnen jedes Mal die Frisur
0:14:55–0:15:00
versaut, wenn sie ihn über den Kopf ziehen, also man muss den immer überstülpen
0:15:00–0:15:04
und dann willst du vielleicht Kaffee trinken, dann musst du ihn wieder abnehmen und so.
0:15:04–0:15:09
Das finde ich schon mal, also für das einfach zum normalen Schaffen,
0:15:09–0:15:13
wie du es sonst schaffst, ist es schon mal umständlich und du hast so einen
0:15:13–0:15:17
richtigen, also eben, ich glaube wirklich, wenn ich mir überlege.
0:15:18–0:15:21
In welchem Szenario wäre gut, wenn du unterwegs bist,
0:15:21–0:15:25
du machst etwas riesengroß kompliziertes, du schneidest ein Video oder so,
0:15:25–0:15:29
kannst deine Brille anziehen und kannst fünf grosse Bildschirme virtuell vor
0:15:29–0:15:33
deiner Nase aufbauen und dann so arbeiten.
0:15:33–0:15:37
Aber wie häufig passiert das schon? Ja, also ich kann sagen,
0:15:37–0:15:41
wenn ich unterwegs bin, in der Regel schaue ich halt auf dem iPad oder auf dem,
0:15:41–0:15:45
Notebook in einem Film. Und ich habe noch ein Canceling-Kopfer.
0:15:45–0:15:49
Ich mache es in der Regel auch so. Ich lege halt mein Gea aufs Tisch.
0:15:49–0:15:54
Und das mit Zugführung. Ich hatte auch schon einen, der mich relativ umsanft
0:15:54–0:15:57
fast durchgeschüttelt hat. Ja.
0:15:59–0:16:05
Und ja, eben. Ist es vielleicht bei uns Männern nicht so ein Killer-Kriterium Frisur.
0:16:05–0:16:09
Aber ich kann mir vorstellen, wenn sich da jemand am Morgen eine halbe Stunde
0:16:09–0:16:12
frisiert und dann, oh, jetzt will ich schnell meine Nails lesen,
0:16:12–0:16:14
oh nein, jetzt muss ich das mal... Frisur versauen.
0:16:14–0:16:18
Eben, auch wenn du geschminkt bist, das hat man irgendwie auch,
0:16:18–0:16:22
glaube ich, irgendwie unterschätzt, dann macht sie dir auch dein Make-up völlig
0:16:22–0:16:26
zu unter Obsee, dann kann irgendwie offenbar die Walt Disney Company.
0:16:28–0:16:32
Verhindern, dass du kannst mit dieser Brille Fotos von gewissen Sachen machen,
0:16:33–0:16:36
die du gerne machen willst, weil sie vielleicht meinen, der Mickey Mouse sei
0:16:36–0:16:37
aus Versehen im Bild oder so.
0:16:38–0:16:44
Eben, man kann Wenn man diese Brille anhat, kann man niemandem zeigen, was man selber sieht.
0:16:44–0:16:48
Ich kann dir jetzt schnell mein iPad anhalten und du siehst...
0:16:48–0:16:51
Oder du kannst abgreifen, wenn du jetzt irgendeinen Podcast...
0:16:51–0:16:55
Nein, ich glaube, für die Demos kannst du nicht irgendwie das Signal...
0:16:55–0:16:58
Also wenn du jetzt ein YouTube-Video machst... Ja, das geht offenbar,
0:16:58–0:17:03
aber du bekommst einen völlig anderen Eindruck, als der, der das braucht.
0:17:03–0:17:10
Im Dunkeln funktioniert er nicht so gut und er schaut immer auf die Hände,
0:17:11–0:17:16
also du kannst dich nicht mal am Bauch kratzen oder an einer anderen Stelle.
0:17:16–0:17:22
Und sonst kommt das gerade mit. Scheisse, die Blumenarbeit habe ich nicht gespeichert.
0:17:22–0:17:28
Ja genau, wenn du dich kratzt, dann meint er, das gehst du für alles löschen und von Neuem anfangen.
0:17:28–0:17:32
Also man kann, offenbar kann man in anderen Reviews, haben wir dann können lesen,
0:17:32–0:17:36
was die Leute gemacht haben, sie haben können kochen damit, Skifahren,
0:17:36–0:17:39
es sind Leute Ski gefahren damit, aber irgendwie halt,
0:17:40–0:17:45
es ist schon alles noch nicht so ausgereift, man kann dann Film oder Netflix
0:17:45–0:17:49
kannst du nur im Browser rein schauen, weil es keine App gibt und so und ja,
0:17:49–0:17:52
also dann hat es noch die Diskussion gegeben,
0:17:52–0:17:58
dass jetzt schon die ersten Retouren gekommen sind und da ist er auch nochmal ein Riesen.
0:17:59–0:18:01
Hast du das verfolgt, diese Medienberichte?
0:18:01–0:18:04
Ich habe es gehört, dass anscheinend gewisse Leute tatsächlich.
0:18:06–0:18:09
Es sind selten 30 Minuten, mit dieser Brille einfach Kopfwebe bekommen haben.
0:18:10–0:18:10
Ja, das habe ich auch gehört.
0:18:11–0:18:15
Und vermutlich ist die jetzt nicht ganz so leicht. Und wenn du doch so viel
0:18:15–0:18:18
Gewicht auf dem Kopf hast, ist das vielleicht auch nicht so angenehm.
0:18:19–0:18:23
Und vielleicht hat das jemand gedacht, 3000 Stutzen für etwas,
0:18:23–0:18:28
das ich vielleicht eine halbe Stunde pro Tag, eine halbe Stunde pro Woche benutze.
0:18:28–0:18:29
Das kann ich mir schon vorstellen.
0:18:29–0:18:34
Also klar sind die Äpfel, und ich glaube, der eine von den Bits und so,
0:18:34–0:18:37
Also hat sie sich auch importieren lassen und vielleicht auch noch eine Warnung,
0:18:37–0:18:38
wenn ihr das machen wollt.
0:18:39–0:18:44
Man muss sie verzollen scheinbar, weil sonst wird man erwischt und dann kostet es.
0:18:44–0:18:48
Und dann musst du natürlich ein eigenes USA-Apple-Konto machen,
0:18:48–0:18:51
das geht, das schafft man auch noch, aber dann hast du halt all deine Apps,
0:18:51–0:18:53
die müsstest du dann vielleicht nochmal zweimal kaufen.
0:18:54–0:18:59
Also ja, ich halte niemanden davon ab,
0:18:59–0:19:04
das Ding zu kaufen, Aber momentan, wenn du jetzt mal so ein Glück hättest,
0:19:04–0:19:08
irgendwo so ein Ding zu haben, auch vielleicht zu tun als Pressemensch,
0:19:08–0:19:11
ja, schön und gut, aber sonst...
0:19:11–0:19:15
Nein, ich habe nichts Bedürfnis, wirklich nicht. Und eben, also die Geschichte
0:19:15–0:19:18
ist ja dann schon so gedrillert worden, als ob es jetzt wirklich ein riesen
0:19:18–0:19:20
Flop wäre, weil die Retturen gekommen sind.
0:19:21–0:19:23
Ich glaube, wahrscheinlich ist es schwierig zu sagen.
0:19:24–0:19:26
Das ist sicher noch zu früh. Es ist sicher zu früh, ja.
0:19:26–0:19:30
Und ich glaube, es sind eben Leute, die sie einfach nicht vertreten haben oder
0:19:30–0:19:33
gefunden haben, vielleicht ein schlechtes Gewissen bekommen haben,
0:19:33–0:19:35
wegen so viel Geld und so.
0:19:35–0:19:38
Und dann gefunden haben, ja, es ist lustig, aber so lustig dann doch auch wieder nicht.
0:19:38–0:19:41
Und dann gibt es natürlich wahrscheinlich auch die YouTuber,
0:19:41–0:19:44
die einfach ihr Video wollten machen und als das Video fertig war,
0:19:44–0:19:46
haben sie es wieder zurückgebracht.
0:19:48–0:19:52
Wenn ich jetzt tatsächlich 3'200 Franken zum Verbrennen hätte.
0:19:54–0:19:58
Und nicht mal wenn es aktiviert ist, einfach in die Testbank sitze und schaue,
0:19:59–0:20:01
wie die Leute... Das wäre lustig.
0:20:02–0:20:04
Müsstest du dann noch einen Kollegen haben, der... Du hast einen Kollegen,
0:20:05–0:20:06
der irgendwie versteckt filmt
0:20:06–0:20:09
vielleicht. Ich weiss noch, wo ein iPhone in die Schweiz gekommen ist.
0:20:10–0:20:15
Es war nicht ein Zug, sondern eine Gondelbahn. Diese Anekdote hast du auch schon erzählt.
0:20:15–0:20:20
Und eben, dass selbst der Gondelherr, der wahrscheinlich nicht ein Nerd ist,
0:20:20–0:20:21
oh, sie haben ein iPhone.
0:20:22–0:20:26
Weil klar, Art Vision Pro ist natürlich auch in den Mainstream-Medien.
0:20:26–0:20:32
Ja, klar, genau. Da hättest du wahrscheinlich nach 5 Minuten 20 Leute um dich
0:20:32–0:20:34
herum und sagen, was ist das?
0:20:34–0:20:39
Aber was ist das? Das ist ja dann die nächste Frage. Ich würde einfach die Reaktion...
0:20:39–0:20:40
Nein, ich bin nicht scharf.
0:20:40–0:20:43
Ich will einfach schauen, wie lange es geht, bis wenn du jetzt wirklich in der
0:20:43–0:20:48
Stosszeit in der zweiten Klasse nach Bern fährst, bis dann die Leute um dich herumstehen.
0:20:48–0:20:53
Gut, das Experiment hat, glaube ich, mein Kollege Raffi Zeier sogar schon mal
0:20:53–0:21:00
gemacht mit einer früherigen Brille, wo wahrscheinlich ist er schon da komisch angeguckt worden.
0:21:00–0:21:03
Und die meisten Leute können es nicht unterscheiden, nehme ich jetzt mal an.
0:21:03–0:21:08
Aber gehen wir doch, wir haben noch mehr Themen. Das ist ja auch sehr spannend,
0:21:08–0:21:15
das SORA heisst das, das ist jetzt so ein neues Ding von OpenAI,
0:21:15–0:21:19
das ist eine Software, die kann, eben bis jetzt hast du sagen können.
0:21:19–0:21:23
Du hast immer gerne diese Bierbeispiele, mach mir einen Gnome,
0:21:23–0:21:32
der vor einem Fliegerpilzhaus sitzt und ein Bier trinkt.
0:21:32–0:21:36
Und jetzt kannst du das auch sagen, aber jetzt bekommst du nicht nur ein Bild,
0:21:36–0:21:41
sondern ein ganzes Video, wo du dann siehst, wie er sitzt und trinkt und vielleicht
0:21:41–0:21:44
gerbst oder ich weiss auch nicht, hinter den Pilz geht oder so.
0:21:45–0:21:51
Das weiss ich nicht. Und hast du das verfolgt? Das ist schon recht beeindruckend.
0:21:51–0:21:57
Ja, aber wenn wir gedacht haben, wenn wir das erste Mal über JGPT geredet haben, ist das im 21.
0:21:58–0:22:02
Nein, nein, das ist noch nicht im 21. Ja, es ist so schnell gegangen.
0:22:02–0:22:07
Ja, vielleicht Ende 2022. Wahrscheinlich Ende 2022, wahrscheinlich Inu hätte
0:22:07–0:22:09
mehr gegeben, wahrscheinlich mal den Link gegeben.
0:22:10–0:22:15
Und dann sind die ersten Modelle gekommen, die ein Bild machen konnten.
0:22:15–0:22:19
Und wenn du nur meinst, ein Nerd typing on a computer, dann eben hat der Nerd
0:22:19–0:22:21
mal vier Finger gehabt, mal sechs Finger.
0:22:22–0:22:26
Das ist dann, das haben wir glaube ich im letzten Jahresrückblick genannt,
0:22:26–0:22:33
ist viel besser geworden. Und vermutlich potenzieren diese Fortschritte sich.
0:22:36–0:22:42
Ein gutes Beispiel, wie schnell das geht, erinnerst du dich vielleicht an Carpi,
0:22:42–0:22:45
unseren Lieblingssatiriker auf Twitter.
0:22:49–0:22:56
Vor einem halben Jahr hat Heidi einen Trailer gemacht mit den ersten Programmen,
0:22:56–0:23:04
die aus Standbildern animiert werden konnten. Die haben dann auch grässlich ausgesehen.
0:23:07–0:23:11
Schritt ist riesig, auch wenn offenbar, wenn zum Beispiel jemand,
0:23:11–0:23:17
was weiss ich was, ansitzt, dann durchaus auch gerne mal die Beine durcheinander kommen oder so.
0:23:17–0:23:23
Aber es ist faszinierend und wenn du dir überlegst, was damit möglich ist,
0:23:23–0:23:25
würdest du jetzt zu denen hören, die sagen,
0:23:25–0:23:33
Hollywood ist verloren, in 5 Jahren macht Netflix zum Beispiel nur noch ihre Computer,
0:23:33–0:23:38
äh ihre Computer, Ihre Filme und Serien nur noch mit dieser Software?
0:23:39–0:23:43
Nein, glaube ich nicht, weil auch der Journalismus ist ja nicht ganz verloren.
0:23:43–0:23:47
Es gibt ja immer noch Leute, die Texte schreiben. Klar, die Texte sehen gut aus.
0:23:48–0:23:53
Und ich glaube, gerade bei Hollywood, die haben ja teilweise auch einen Vertrag.
0:23:53–0:23:58
Also du dürftest jetzt nicht den Bruce Willis... Es gab ja mal diesen Autoren-
0:23:58–0:23:59
und Schauspielerstreik.
0:24:00–0:24:03
Und da war ein Punkt, dass du KI nicht benutzen darfst.
0:24:04–0:24:08
Gut, ich könnte natürlich sagen wenn jetzt du den Bruce Willis so gut kannst,
0:24:09–0:24:15
kann ich generieren dass er halt Die Hard 27 macht als Teenager ja,
0:24:15–0:24:16
aber das glaube ich schon.
0:24:18–0:24:24
Das wird dann noch ein bisschen gehen das wird sicher geben,
0:24:24–0:24:28
aber ich glaube jetzt auch nicht, dass sich das auf breiter Front wird durchsetzen
0:24:28–0:24:34
erstens mal musst du ja auch auf eine Art der jüngeren Generation von Schauspielern eine Chance geben.
0:24:35–0:24:42
Nur weil du Bruce Willis digital die nächsten 100 Jahre immer als 25-Jähriger
0:24:42–0:24:50
ein Haar drauf hast, wo er sogar noch Haare hatte, dann willst du ja trotzdem,
0:24:51–0:24:58
die neue Generation haben. Und jede Generation von Zuschauern will ihre Schauspieler haben.
0:24:58–0:25:02
Und das ist ja richtig so. Also wegen Fakes und so, wenn man denkt,
0:25:02–0:25:06
der Film, ja, ich sage ja, ein super Film, Forrest Gump, es ist doch auch die
0:25:06–0:25:10
Szene, wo Forrest Gump, also Tom Hanks, Kennedy und so gesehen hat,
0:25:10–0:25:11
die waren alle schwarz-weiss,
0:25:12–0:25:14
weil, gut, das ist damals eigentlich...
0:25:14–0:25:18
Ja, wenn du denkst, wann ist Forrest Gump gekommen? Das war in den 90ern, oder?
0:25:19–0:25:24
Du fragst Sachen, ich würde jetzt eigentlich 95 aus dem Holenbuch sagen.
0:25:25–0:25:32
Mittlerweile könnte man schon heute, dann stehe ich vor einem Greenscreen und
0:25:32–0:25:36
schüttle oder rühre Donald Trump eine Creme durch.
0:25:39–0:25:43
94 ist er, ich habe ihn angeschaut, gut geschätzt. Kannst du wirklich sagen,
0:25:44–0:25:49
«Make a picture of Digi-Chris with rose cream pecking the tunnel from his face»?
0:25:50–0:25:54
Äh, der heisst sicher «Donald Trump» können wir leider nicht machen,
0:25:54–0:25:58
weil der hat gesagt, wir dürfen nicht. «Someone looking like Donald...».
0:26:00–0:26:07
«An orange ape looking slightly like Donald...» Ich glaube es auch nicht.
0:26:07–0:26:11
Ich glaube, es wird sicher ein sicherer Experiment gegeben, wo du dann wahrscheinlich
0:26:11–0:26:16
eben kannst, wenn du irgendeinen Film hast, wo, wie soll ich sagen.
0:26:18–0:26:22
England spielt und du hättest ihn aber lieber, dass er in der Schweiz spielen
0:26:22–0:26:26
würde, dann kannst du ihn vielleicht mit KI adaptieren, dass er dann zu Luzern
0:26:26–0:26:29
der Schauplatz ist und nicht zu London.
0:26:29–0:26:35
Wobei, ich weiss nicht, ob sich das immer jede Szene gut adaptieren lässt von
0:26:35–0:26:38
London auf Luzern. Ich glaube, wir können nur sagen, eben die,
0:26:39–0:26:43
Modelle brauchen sicher Rechnung, also Rechenleistung und ja,
0:26:43–0:26:49
ich glaube, wir sind keine Börsensendung, aber ich glaube Nvidia könnte nochmal
0:26:49–0:26:56
steigen, weil wahrscheinlich die nochmal ein paar so Grafikkarte verkaufen werden. Genau.
0:26:56–0:27:00
Und wo wir bei der KI sind, reden wir doch über Google.
0:27:00–0:27:05
Die haben ihren Spart, das ist ein Chat-GPT-Konkurrent, wenn man so will.
0:27:05–0:27:09
Die haben den jetzt in Gemini oder Gemini wahrscheinlich umbenannt.
0:27:10–0:27:13
Aber mich dunkt, die Probleme seien immer noch die gleichen.
0:27:14–0:27:21
Ich habe ein bisschen rumgespielt. Also mir ist tatsächlich der Chat-GPT-4 am liebsten.
0:27:22–0:27:25
Mich dunkt, dass der Kamei... Mich dunkt es auch.
0:27:25–0:27:29
Er ist Ali, wenn man so nach Schweizer Komiker fragt, was ich so ein bisschen
0:27:29–0:27:34
gemacht habe und Satiriker und Schauspieler, dann erzählt er eigentlich recht schnell.
0:27:35–0:27:41
Völlige Mumpitz und was auch sehr lustig war, ich habe dann den Boart oder Gemini,
0:27:42–0:27:47
Gemini, wenn er heute heisst, ein bisschen nach meinem Blog gefragt und er hat
0:27:47–0:27:52
also zum Beispiel er hat die Rangliste von den beliebtesten Beiträgen völlig erfunden.
0:27:52–0:28:00
Das ist wirklich Das ist wirklich lustig und mich denkt es, Google hat das überhaupt nicht im Griff.
0:28:00–0:28:06
Also ich finde das... Klar, man sagt tatsächlich, man kann es bei diesen KI-Bots
0:28:06–0:28:12
nicht verlangen, dass sie immer die reine Ware zeigen, aber wo würdest du jetzt Grenzen ansetzen?
0:28:12–0:28:14
Wo müsste für dich so ein Bot...
0:28:17–0:28:22
Was für einen Prozentsatz an Fehlern darf er sich erlauben, dass du ihn als
0:28:22–0:28:23
akzeptabel anschauen würdest?
0:28:24–0:28:28
Gute Frage. Es kommt vielleicht auch darauf an, was für ein Fehler es ist.
0:28:28–0:28:34
Das habe ich auch in einer Sendung erzählt. Ich habe mal Chat-GBT3 oder 3.5 gefragt.
0:28:37–0:28:42
3, 1, 3, 3, 7, also liegt eine Primzahl. Ja, ist es. Und er hat dann so gesagt,
0:28:42–0:28:44
ja, das ist durch 5 teilbar.
0:28:44–0:28:49
Also etwas, was du wahrscheinlich nach 10 Minuten Python programmieren in den
0:28:49–0:28:51
ersten Sekt, kannst du selber machen.
0:28:53–0:28:59
Für mich sind es dann die Fehler, die elementar sind oder die, die gefährlich werden.
0:28:59–0:29:03
Also nach dem Motto, ich habe irgendwie Herzklopfen, was soll ich jetzt nehmen?
0:29:03–0:29:08
Und man sagt natürlich, nimm Medikamentix Y und Und das Medikament XY macht
0:29:08–0:29:12
es noch schneller, wobei ich glaube, bei medizinischen Sachen blockt er zum Glück auch gerade ab.
0:29:12–0:29:18
Der Chachipiti, ich habe das mal ausprobiert, als er neu war,
0:29:18–0:29:22
als du neu hast, hast du ihm Bilder gestöpselt, als ich einen schönen Ausschlag hatte.
0:29:22–0:29:26
Dann hat er mir ein Foto von dem gezeigt und hat gesagt, was würde er für eine
0:29:26–0:29:27
Behandlung vorschlagen.
0:29:27–0:29:31
Und er hat gemerkt, dass es ein Ausschlag ist und hat dann gesagt,
0:29:31–0:29:34
ich müsse zum Doktor, damit er nichts dazu sagt.
0:29:34–0:29:37
Aber das ist eigentlich eine gute
0:29:37–0:29:40
Idee das können wir mit dem Bart nochmal wiederholen also mich tut es,
0:29:40–0:29:48
es ist ja schwierig eben dass du kannst beurteilen wie schlimm oder potenziell
0:29:48–0:29:51
gefährlich so ein Fehler ist und darum würde ich einfach sagen also,
0:29:53–0:30:02
ich finde also wenn es so 1% sollte so die Marge sein, finde ich 1 Promille wäre besser.
0:30:04–0:30:09
Das Google Ding ist so weit drüber, dass ich das einfach abstellen würde,
0:30:09–0:30:13
ich würde aufhören und nochmal verfahren. Es wäre nicht sehr toll, dass Google das macht.
0:30:14–0:30:19
Ja, aber mich dunkt es, dass sie das jetzt noch umbenannt haben und wieder nochmal
0:30:19–0:30:24
gesagt haben, es gäbe jetzt noch ein leistungsfähigeres Modell und so,
0:30:24–0:30:28
wo dann vielleicht noch die elaborierter Fake News von sich gibt.
0:30:28–0:30:33
Ich finde es einfach bemerkenswert, dass Google das offenbar nicht in den Griff
0:30:33–0:30:38
bekommt und jetzt auch nach fast einem Jahr nicht in den Griff bekommt.
0:30:38–0:30:45
Das ist schon kein gutes Zeichen für Google. Vorher hast du dich als Aktienberater,
0:30:45–0:30:48
als Investitionsguru betätigt.
0:30:48–0:30:52
Was heisst das für unsere Google-Aktien? Abstossen, oder?
0:30:52–0:30:55
Könnte sein. Ich glaube auch, als sie die erste Demo gemacht haben,
0:30:55–0:30:58
ist die Aktie ziemlich untertatscht.
0:31:03–0:31:07
Es kommt niemandem nachfolgend und darum darfst du jetzt noch ganz schnell eines
0:31:07–0:31:08
deiner Themen wünschen.
0:31:08–0:31:14
Ich habe noch das Thema, ich bin nicht grosser Fussballfan und irgendwo habe
0:31:14–0:31:18
ich auf Twitter gelesen, Swisscom blockt Canale Cinque.
0:31:18–0:31:21
Genau, du hast Swisscom mit Knien gezwungen, das müssen wir noch sagen.
0:31:21–0:31:25
Mit einem Tweet oder mit zwei Tweet hast du den meisten gezeigt.
0:31:26–0:31:32
Also schnell, um es zu erklären, wie das genau läuft, die Fussballrechte,
0:31:32–0:31:35
die Champions League werden national vergeben.
0:31:35–0:31:39
Und bei uns hat das halt praktisch Swisscom slash Blue.
0:31:39–0:31:44
Sie lizenzieren zwar teilweise sub- lizenzieren und in Italien ist natürlich
0:31:44–0:31:50
auch Sky Italia am Berlusconi sein Mediaset, aber dort gibt es auch ein Spiel
0:31:50–0:31:53
pro Woche im sogenannten Free TV.
0:31:53–0:31:59
Und in der Schweiz haben wir die Regelung, dass wenn ein Sender irgendwo legal
0:31:59–0:32:05
oder mit mit handelsüblichem Aufwand empfangen werden kann,
0:32:06–0:32:08
darfst du Gesamtschweizerisch verbreiten.
0:32:08–0:32:13
Genau, darum dürfen wir immer noch ARD und ORF und so schauen.
0:32:14–0:32:19
Jetzt ist halt das Spiel auf Kanale Ging bekommen und als das losging,
0:32:20–0:32:23
bis Swisscom, bis Sunrise weiterging, hat es einfach Puff gemacht.
0:32:24–0:32:27
Dieses Spiel muss verschlüsselt werden. Das ist schon recht reich.
0:32:27–0:32:32
Da wollte ich einfach ihr eigenes Sportpaket verkaufen.
0:32:32–0:32:37
Und da habe ich einfach ganz lieb geschrieben, ich bin ja nicht ihr Ahle oder
0:32:37–0:32:41
so, ich war ja ganz lieb und habe gesagt, du, aber ihr dürft das.
0:32:41–0:32:44
Und ich weiss nur, ich glaube es war nicht nur der Digi-Chris,
0:32:45–0:32:50
weil anscheinend war doch im Tessin der Fussball, und es war glaube ich sogar
0:32:50–0:32:54
Milano, die gespielt hat, ein bisschen höherer Stellenwert als bei uns.
0:32:54–0:32:59
Und anscheinend, die armen Säue, die an der Hotline waren, die haben es dann vollfurcht.
0:32:59–0:33:04
Dann haben sie wahrscheinlich gedacht, es werden wahrscheinlich viele Leute.
0:33:05–0:33:07
Nicht extra das Abo abschliessen,
0:33:08–0:33:12
die werden dann sonst auf andere Methoden gehen oder halt irgendwo in ein Pub,
0:33:12–0:33:17
wo das jetzt mehr oder weniger legal läuft und wegen dem haben sie wahrscheinlich dann zurückgerudert.
0:33:17–0:33:22
Auf Twitter war es eine relativ gute Freude, aber ich habe von jemandem gehört,
0:33:22–0:33:26
der im Tessin lebt, auf der Hotline horrorlos gewesen sein müsste.
0:33:27–0:33:34
Interessant, dass sich die Swisscom manchmal als Tech-Multi gebärdet,
0:33:34–0:33:38
die die Regeln nach ihrem Guss diktieren.
0:33:39–0:33:42
Vermutlich hat das mal ein Management-Team gesagt. Und dann wahrscheinlich der
0:33:42–0:33:47
Reputationsverlust, oder dass dann Leute sagen, dann gehe ich halt zu der Sunrise,
0:33:48–0:33:54
ist wahrscheinlich grösser als die zwei, drei Blue Sport, aber was gelöst, hättet ihr bekommen.
0:33:55–0:34:08
Music.

Ist sie zukunftsweisend? Oder ist sie doch ein Flop, der die Frisur ruiniert, das Make-up versaut, unbequem auf die Stirn drückt und im besten Fall keine Schwindelgefühle verursacht? Inzwischen haben die ersten Käufer Apples Computerbrille erhalten, ausprobiert und teilweise sogar mit ihren Cybertrucks spazieren gefahren – und zwar, während sie am Steuer sassen. Es sind auch die ersten, meist epischen Rezensionen der Vision Pro erschienen, die wir gelesen haben, damit ihr das nicht tun müsst.

Ausserdem diskutieren wir über den jüngsten Streich von OpenAI: Die Software Sora, die anhand von Textbeschreibungen kurze Videos generiert. Und wir sprechen über Googles KI Bard, die den neuen Namen Gemini trägt, der aber ihr altes Vertrauensproblem geblieben ist. „Nur etwas für Glatzköpfe, Ungeschminkte und Cybertruckfahrer?“ weiterlesen

Wenn uns die Cloud im Regen stehen lässt

Transkript anzeigen (falls vorhanden)

00:00–0:00:08
Music.
0:00:08–0:00:17
Und the boys are in the studio of Radio Stadtfilter. Radio Stadtfilter. The fun starts here.
0:00:18–0:00:22
The fun starts here. Und da ist der Digi-Christ. Guten Abend.
0:00:22–0:00:25
Und der Kevin Rechsteiner ist auch da. Hallo miteinander.
0:00:27–0:00:30
Ui. Ich habe behauptet, der Kevin Rechsteiner sei da, aber aha,
0:00:30–0:00:34
ich... Hallo. Jetzt ist er da, Entschuldigung. Hallo. Hallo.
0:00:35–0:00:38
Wir hören dich jetzt. Ich bin wieder ausgeräumt. Nein, nein.
0:00:38–0:00:41
Du bist ein vollwertiges Mitglied von unserem Team.
0:00:42–0:00:47
Es ist nur der Techniker, der versagt hat, ich mache dich noch ein bisschen lauter vielleicht.
0:00:49–0:00:55
Ja, genau. Und dann habe ich eine Frage an euch. Wie würdet ihr Winterthur auf Englisch sagen?
0:00:56–0:00:59
Ui, jetzt. Winterthur. Winterthur, okay.
0:01:00–0:01:04
Ich halte mich an die offiziellen Namen, wie man es ausspricht.
0:01:04–0:01:06
Es gibt offizielle Namen?
0:01:07–0:01:13
In der Schweiz nennt man Winterthur. Ich habe das in Norwegen gelernt.
0:01:13–0:01:18
Es ist nicht Alesund, es ist Olesund. Es ist der norwegische Name erzählt.
0:01:18–0:01:20
Nicht was man interpretiert.
0:01:21–0:01:23
Und ich finde, man sagt Winterthur.
0:01:24–0:01:27
Ich würde sagen, eine Frage an Trondi.
0:01:29–0:01:34
Wie würdet ihr Tüdingen sagen? Jetzt bringst du mich bringst du mich vom Thema ab.
0:01:35–0:01:37
Ich wollte beim Thema bleiben. Fokus.
0:01:38–0:01:43
Und ich probiere, ob ich das abspielen kann, weil sonst geht es gar nicht.
0:01:44–0:01:48
Ui, nein, jetzt geht es nicht. Jetzt geht es nicht. Ich probiere es nochmal.
0:01:50–0:01:54
Tja, und an dieser Stelle hat meine schöne Demonstration in der Live-Sendung
0:01:54–0:01:55
leider nicht funktioniert.
0:01:56–0:02:00
Und darum muss ich das jetzt nachträglich noch noch reinflicken.
0:02:00–0:02:06
«We fix it in post» heisst das im Tech-Jargon. Wir flicken es in der Postproduktion.
0:02:06–0:02:10
Da ist der erste Ausschnitt, den ich eigentlich spielen wollte.
0:02:20–0:02:26
Und das ist der zweite Ausschnitt, der «Winterter» drin vorkommt, in diesem Hörbuch.
0:02:37–0:02:40
Und jetzt geht's weiter mit der Pre-Show.
0:02:41–0:02:45
Also ich habe völlig versehen, das hat nicht funktioniert, es tut mir leid.
0:02:45–0:02:49
Er hätte sollen, ich tue vielleicht dann nachher das noch reinschneiden, dass er es richtig hört.
0:02:49–0:02:55
Er sagt nicht Wintertour, er sagt Wintertour und das habe ich lustig gefunden.
0:02:56–0:02:59
Und es ist immerhin, kann ich euch sagen, es ist das erste Buch,
0:02:59–0:03:01
das ich gehört habe, also das Hörbuch.
0:03:02–0:03:06
Und dann plötzlich, ich habe nichts Böses geahnt und es ist ja auf Englisch
0:03:06–0:03:13
und alles. Es heisst übrigens AJ Riddle und es heisst «Quantum Radio», das Hörbuch.
0:03:14–0:03:19
Es ist brandneu und dann kommt der Mann, der vom CERN flüchten muss,
0:03:19–0:03:24
und er flüchtet Richtung Zürich und da kommt er in Winterthur vorbei.
0:03:24–0:03:27
Und das wollte ich euch vorstellen. Und jetzt hat es völlig rippen funktioniert.
0:03:27–0:03:37
Aber Winterthur hat keinen Handlungsbogen in Winterthur. Er geht nicht an die Steinberg-Gasse.
0:03:37–0:03:43
Leider nicht, nein. Er wird leider nur aufgehalten von einer Polizeisperre und
0:03:43–0:03:48
muss dann, ich weiss gar nicht, was er machen muss. Er fährt dann weiter nach
0:03:48–0:03:49
Zürich und trifft dort seinen Vater.
0:03:49–0:03:56
Und die flüchten dann weiter nach Washington DC. Und das war es dann mit Winterthur.
0:03:57–0:04:02
Winterthur. Ich glaube, er ist auch sehr enttäuscht. das der schöne Wurzeln
0:04:02–0:04:05
an der Marktgasse nennen ist. Genau.
0:04:07–0:04:10
Market Alley.
0:04:11–0:04:14
Ja, genau, Market Alley. Das wäre es noch.
0:04:14–0:04:18
Also wir müssen, wenn ihr Erfahrungen habt oder vielleicht uns sogar in den
0:04:18–0:04:24
USA hört, dann nehmt doch, so möglichst im mittleren Westen oder so,
0:04:24–0:04:28
dann nehmt doch ein Aufnahmegerät und fragt die Leute,
0:04:29–0:04:33
wie die dort im Bible Belt oder so Winterthur würden aussprechen.
0:04:33–0:04:37
Und ich muss es halt rausschneiden und ich reiche euch das noch nach.
0:04:37–0:04:41
Es ist jetzt, ja. Sorry, ich wäre in die Zeit gegangen. hätte ich es gemacht.
0:04:42–0:04:44
Also, aber Düdingen, hast du gesagt, Digi-Chris?
0:04:45–0:04:48
Düdingen auf Französisch, es ist ja Düdingen...
0:04:48–0:04:54
Nein, nein, Gain. Was? Gain, auf Französisch. Nur Gain? Gain, ja.
0:04:54–0:04:59
Weil eben also Düdingen redet man tatsächlich noch Deutsch, also sorry,
0:04:59–0:05:02
liebe Arbeitskollegen, sorry Patrick, sorry Patrice.
0:05:02–0:05:06
Ja, die reden irgendwie Deutsch. Es ist teilweise ein bisschen schwer zu verstehen.
0:05:07–0:05:10
Und dann gehst du eben über die Zahne, über den Röstigraben. Ja.
0:05:11–0:05:14
Und dann bist du im Fribourg und dann redest du Französisch. Ja, eben.
0:05:16–0:05:21
Also, und... Aber auch das verbietet sich immer noch pro Schneid in Tüdingen.
0:05:21–0:05:24
Aber anscheinend, wie sagen wir, lokale Dialektik.
0:05:25–0:05:29
Ich war auch wieder da, am Wochenende, haben wir auch mal jemanden erklärt.
0:05:30–0:05:34
Wir lernen etwas in dieser Sendung. Und eben, also Kevin, was jetzt norwegisch
0:05:34–0:05:36
angeht, da tust du auch andere...
0:05:36–0:05:40
Also, ich hatte nur einmal das Gefühl, die Einheimischen hätten nicht so Oslo
0:05:40–0:05:43
gesagt, sondern das O mit U, das O sieht so richtig U gegangen,
0:05:43–0:05:45
aber ich kann mich auch täuschen.
0:05:45–0:05:47
Das O ist jetzt U. Ah, dann täuscht mich...
0:05:47–0:05:51
Nein, das ist so. Oslo ist U-schlau. Eben genau, ich dachte zuerst,
0:05:51–0:05:54
ich sei am Falschen. Das ist wahr.
0:05:55–0:06:01
Okay. Das O ist ein U, das A mit einem Kreis ist ein O, ein U ist ein Ü.
0:06:02–0:06:05
Was ist noch? Das Special Move? Ja, das ist es etwa, glaube ich.
0:06:05–0:06:09
Es ist nicht so viel anders. Aber sie haben ein paar...
0:06:09–0:06:14
Aber ist es so, dass man sich, wenn man sich das merken kann,
0:06:14–0:06:19
wie es ist, dass man dann, wie soll ich sagen, das immer richtig macht?
0:06:19–0:06:20
Weil im Englischen musst du
0:06:20–0:06:23
ja eigentlich bei jedem Wort ein bisschen wissen, wie man es ausspricht.
0:06:24–0:06:27
Nein, es gibt Special Moves. Das ist schon so.
0:06:27–0:06:34
Ein O ist grundsätzlich ein U, ausser wenn nach dem O ein was kommt.
0:06:35–0:06:39
Wahrscheinlich ein mit, nein, es stimmt eben auch nicht.
0:06:39–0:06:43
Wenn nach dem O kommt etwas anderes, dann ist es eben ein gleiches O.
0:06:43–0:06:48
Es gibt so Spezialfälle, aber ja, es ist nicht so einfach.
0:06:49–0:06:53
Vielleicht lernen wir dann irgendwann mal einfach zusammen in dieser Sendung Sprachen.
0:06:53–0:06:56
Das fände ich noch lustig. Ich würde
0:06:56–0:06:59
jemanden suchen, der mir Griechisch beibringt, falls das möglich wäre.
0:06:59–0:07:02
Oh, Griechisch wäre mega cool. Gell, das wäre cool.
0:07:02–0:07:08
Ja, Griechisch wäre cool. Aber ich finde es so. Ich kann nur Ne. Ne. Ich kann nur Ochi.
0:07:11–0:07:18
Das ist das Gegenteil von «Ne». Ah, wirklich? Ah, okay.
0:07:19–0:07:20
Ich sehe, schon gut.
0:07:23–0:07:34
Music.
0:07:34–0:07:39
Und der Digi-Chris. Hallo. Hallo und wir haben heute ein Thema,
0:07:39–0:07:43
das euch wahrscheinlich täglich beschäftigt, also vielleicht nicht das Thema
0:07:43–0:07:45
selber, aber die Technologie.
0:07:45–0:07:52
Es geht um Cloud und DigiChris hat, glaube ich, mehr positiv über Cloud gesprochen,
0:07:52–0:07:54
weil die uns hilft und so.
0:07:54–0:07:58
Und dann bin ich auf die Idee gekommen, oder je länger ich das Dokument angeschaut
0:07:58–0:08:02
habe, desto kritischer wurde ich dieser Cloud gegenüber. darüber.
0:08:02–0:08:08
Aber die Chris. Ja, es geht darum, also jeder weiss, was eine Dropbox ist und
0:08:08–0:08:13
ich merke es auch in meinem Umfeld, auch wenn die Leute gar nicht meine Dropbox
0:08:13–0:08:15
benutzen, sondern halt eben mein,
0:08:16–0:08:20
Everybody's Darling, Nextcloud, selber immer noch Dropbox und ich habe mir mal
0:08:20–0:08:25
überlegt, wann habe ich eigentlich mit so einer Cloud und da geht es tatsächlich darum,
0:08:25–0:08:31
Daten abzulegen, anfangen zu arbeiten und es muss tatsächlich vor etwa 20 Jahren
0:08:31–0:08:32
gewesen sein, wo ich meine.
0:08:33–0:08:38
Prost-Materialitätsarbeit gemacht habe, wo ich natürlich, der Schock bei so
0:08:38–0:08:39
einer Arbeit ist ja immer,
0:08:40–0:08:44
du könntest das verlieren und damals hat es USB-Sticks gegeben,
0:08:44–0:08:48
die sind auch sündhaft teuer gewesen und ich habe das damals bei gmx auf der
0:08:48–0:08:56
cloud gespeichert und so das ist das erste mal wo ich eben Daten gespeichert habe,
0:08:56–0:09:02
die nicht bei mir zuhause waren und ja eben wegen dem bin ich auf die idee gekommen,
0:09:02–0:09:08
was gibt es da für dienst, was benutzt ihr und ist das Ist das gut,
0:09:08–0:09:09
ist das schlecht jetzt, Matthias?
0:09:09–0:09:15
Was war deine erste Idee, die du in der Cloud gespeichert hast?
0:09:15–0:09:21
Das ist eine gute Frage. Also FTP-Server habe ich natürlich schon früh gebraucht.
0:09:21–0:09:25
Da bin ich in den Anfängen vom Webhosting gar nicht drum herum gekommen.
0:09:26–0:09:30
Aber ob ich dort auch Dokumente abgelegt hätte, das wäre möglich,
0:09:30–0:09:32
aber ich könnte es nicht mehr so richtig sagen.
0:09:33–0:09:39
Ich glaube, wahrscheinlich ist tatsächlich so der Dropbox das Ding gewesen,
0:09:40–0:09:44
wo ich angefangen habe, systematisch damit zu anfangen. Kevin, bei dir?
0:09:47–0:09:51
Definitiv Dropbox und ich hätte jetzt gesagt, das Kino war wahrscheinlich der
0:09:51–0:09:54
Ausschlag, dass ich die,
0:09:54–0:10:00
ich hätte jetzt gesagt, entweder den Einsatzplan oder die Mitarbeiterliste zentral
0:10:00–0:10:04
haben wollen und dann hat es Dropbox gratis gegeben und ich Ich glaube,
0:10:04–0:10:05
darum haben wir diese eingesetzt.
0:10:05–0:10:08
Ich glaube, das war wirklich mein erster Schritt mit Cloud.
0:10:08–0:10:12
Die Ernste war, weil vorher waren meine Daten einfach auf meinem Laptop oder
0:10:12–0:10:15
PC. Ich habe das gar nicht gebraucht. Dropbox war der Einstieg.
0:10:16–0:10:20
Genau, und vorher war es schon so, dass ich immer einen USB-Stick dabei hatte.
0:10:20–0:10:22
Ich habe ihn, glaube ich, immer noch an meinem Schlüsselbund.
0:10:24–0:10:27
Nein, ich habe ihn das letzte Mal abgefummelt. Ich glaube, es ist erst ein paar
0:10:27–0:10:32
Wochen her. Und ich habe sonst immer den USB-Stick, so einen ganz kleinen,
0:10:32–0:10:38
etwa einen Zentimeter lang, der aufs Traditionsgründname im Schlüsselbund hängt.
0:10:39–0:10:43
Und dort hat es immer noch Daten drauf? Dort hat es wahrscheinlich immer noch
0:10:43–0:10:46
Daten drauf, aber... Die erste Corona-Version ist dort noch drauf.
0:10:48–0:10:56
Aha, ja genau. Der Bauplan, der dann in das Labor geschickt wurde, um ihn zu konstruieren.
0:10:56–0:11:02
Genau, das ist so. Nein, dort sind wahrscheinlich noch Digitalmagazinsendungen
0:11:02–0:11:08
von 19... Nein, nicht von 19, aber von 2015 noch drauf, würde ich schätzen.
0:11:09–0:11:14
Und ich glaube genau, was ihr jetzt beide zeigte mit der Dropbox und Kevin mit seinem Einsatzplan.
0:11:14–0:11:20
Eben damals bei Gmix zum Beispiel, das war einfach im Webbrowser und du hast
0:11:20–0:11:24
es halt umgeladen und ich glaube bei der Dropbox und eben Matthias,
0:11:24–0:11:25
wir kommen da wahrscheinlich noch dazu,
0:11:25–0:11:30
du hast eine Dropbox auf all deinen Geräten installieren können und ja es ist
0:11:30–0:11:34
dann so, wahrscheinlich nach den 2000er Jahren ist tatsächlich passiert,
0:11:34–0:11:38
dass du mehr als als Heissgerät hattest, sprich du hattest einen Desktop-PC,
0:11:38–0:11:44
du hattest vielleicht ein MacBook und Dropbox hat dir das lästige Zeug weggenommen,
0:11:44–0:11:46
dass du das hin und her melden musst.
0:11:46–0:11:50
Du hattest halt irgendeinen Ordner auf der Dropbox, eben wie bei Kevin1 als
0:11:50–0:11:56
Plan.xls und das war dann bei 1, 2 oder 100 Benutzern.
0:11:57–0:12:01
Genau, das Synchronisieren war halt auch Das war auch noch grossartig.
0:12:02–0:12:06
Hast du wieder ein Huhn in der Nähe?
0:12:06–0:12:09
Ich habe zwei Hühner in der Nähe. Also nicht so in der Nähe,
0:12:09–0:12:13
das sind sechs Meter von mir. Okay, dann sagst du einen Gruß.
0:12:14–0:12:18
Genau, die Dropbox und das Synchronisieren, das war schon grossartig.
0:12:18–0:12:22
Vorher musste man immer schauen, dass man die Dateien am richtigen Ort hatte.
0:12:23–0:12:28
Und das ist damit weggefallen. Ja, und du hast halt irgendwie,
0:12:28–0:12:32
ich glaube auch Dropbox hat relativ früh Versionierungen können.
0:12:32–0:12:37
Ich meine, jeder, der mal ein Arbeiten geschrieben hat, irgendwie Berufsmaturität
0:12:37–0:12:45
unterstrich V23 unterstrich Final unterstrich 1.x. Final 1, Final Final und
0:12:45–0:12:46
Final Definitiv, genau.
0:12:46–0:12:50
Und so Sachen hast du machen können. Und ja, ich weiss auch noch,
0:12:50–0:12:56
wir haben im Studium, ich glaube die Robbox ist 0607 gekommen,
0:12:56–0:12:59
eben dort auch wieder, ich sage immer wieder, das runde Gebäude,
0:12:59–0:13:05
das gerade neben uns ist, hat auch ein Dozent das ganz wirklich enthusiastisch erwähnt und.
0:13:06–0:13:11
Der erste Use Case, den wir auf der Dropbox hatten, wir waren eine Lehrgruppe
0:13:11–0:13:17
von 4-5 Studenten, es hat jede eine Zusammenfassung geschrieben und wir hatten das in der Dropbox.
0:13:18–0:13:24
Es hat also jedes Modul zusammengefasst, Dokumente draufgetätscht und das war genial,
0:13:25–0:13:30
du hättest nicht jedem eine Mail schreiben müssen, «Hey, schau mal hier das
0:13:30–0:13:35
Dokument.» Du konntest Unterordner machen, «Nice to know…» Also das war am Anfang
0:13:35–0:13:39
schon genial, aber ich glaube, wenn wir bei der Dropbox bleiben,
0:13:39–0:13:44
irgendwann, ich darf nur sagen, sind sie gierig geworden. Ja, sicher.
0:13:44–0:13:49
Das ist ja eine völlig natürliche Entwicklung.
0:13:49–0:13:55
Das ist ja die N-Shitification, wie Cory Doctorow das mal genannt hat.
0:13:55–0:14:01
Das ist fast so ein Naturgesetz, dass die Plattformen und die Dienste am Anfang
0:14:01–0:14:03
nicht zu ihren Kunden sind, dann wollen sie wachsen,
0:14:04–0:14:11
dann wollen sie Geld verdienen, je nachdem fangen sie dann ihre Kunden auszubieten.
0:14:11–0:14:16
Und wenn es dann noch Anbieter sind, die dann auch noch Werbung machen,
0:14:16–0:14:21
dann fangen sie auch die noch auszunehmen und die verschiedenen Parteien gegeneinander aufzuhetzen.
0:14:22–0:14:26
Und am Schluss ist es so, dass eine Plattform nicht mehr brauchbar ist.
0:14:27–0:14:30
Und das hast du gesehen bei den Dropbox, das siehst du bei Facebook,
0:14:30–0:14:32
das siehst du bei den sozialen Medien.
0:14:32–0:14:37
Aber mich dunkelt es, du siehst es auch so bei Diensten wie Evernote oder so.
0:14:39–0:14:44
Evernote ist auch gruselig. Ja, das ist richtig dumm geworden.
0:14:44–0:14:47
Von mega gut zu richtig dumm.
0:14:47–0:14:52
Und bei der Dropbox hat es wirklich hier angefangen, wo sie die Geräteanzahl
0:14:52–0:14:55
beschränkt haben. Man durfte dann nur noch 5 Geräte brauchen.
0:14:56–0:15:00
Und da war ich natürlich sofort drüber, nicht gerade um ein Vielfaches,
0:15:00–0:15:03
aber um 2-3 Geräte auf jeden Fall.
0:15:03–0:15:07
Und ich hätte auf eine Art wahrscheinlich sogar gezahlt. Aber dann konntest
0:15:07–0:15:11
du nicht einfach bezahlen, um die Gerätebeschränkung auszuhebeln,
0:15:11–0:15:14
sondern du hättest auch noch für Speicher bezahlen müssen, die ich nicht brauchte.
0:15:14–0:15:19
Dann war ich raus und bin bei der Nextcloud gelandet.
0:15:19–0:15:23
Das ist auch etwas, was du bei Apple sagst. Ich sage jetzt bei der iCloud,
0:15:24–0:15:25
eben der auf meinem iPad.
0:15:26–0:15:29
Die haben ja die Abos relativ gut abgestuft.
0:15:29–0:15:34
Du kommst für wirklich 1 Franken 50 GB über. Und bei der Dropbox kannst du,
0:15:34–0:15:38
glaube ich, ich kann jetzt nicht die letzte Zahl, ich sage jetzt 12 Franken,
0:15:38–0:15:41
zwei Terra, aber es gibt nichts dazwischen.
0:15:41–0:15:45
Genau, genau, da hätte ich dir jetzt fast, wie du sagst, gut abgestuft.
0:15:46–0:15:49
Das hast du mich schon getriggert damit, weil ich habe mal so einen Vergleich
0:15:49–0:15:51
gemacht zu diesen Kostenstrukturen.
0:15:51–0:15:56
Und du siehst erstens, also von Google, von Microsoft und Apple habe ich verglichen.
0:15:56–0:15:58
Und du siehst, sie sind...
0:15:58–0:16:04
Genau so aufeinander abgestimmt, dass jeder nicht deutlich günstiger ist als der andere.
0:16:05–0:16:11
Also keiner will wirklich Konkurrenz machen, der andere indem er sie preislich unterbietet.
0:16:11–0:16:15
Und Microsoft ist noch am besten, da kannst du auch wirklich glaube ich so in
0:16:15–0:16:20
100 Megabyte Schritte kannst du dein Ding, dein Kontingent durchstufen.
0:16:20–0:16:27
Und eben bei Apple gibt es einen riesen Schritt von 300 auf 2 Terra oder so, irgend so etwas ist es.
0:16:27–0:16:33
Und das ist, da werden einfach Heavy-User abgezockt und sobald du drüber bist,
0:16:33–0:16:38
301 Gigabyte hast, dann zahlst du für 2 Terabyte, obwohl es wahrscheinlich dann
0:16:38–0:16:41
etwa 10 Jahre geht, bis du die 2 Terabyte voll hast.
0:16:41–0:16:46
Also es ist eigentlich ein riesen Preismodell. Dürfen wir das so sagen? Ein riesen Scheiss?
0:16:47–0:16:52
Ja, ich würde sagen, die Unternehmen werden natürlich Geld verdienen.
0:16:52–0:16:57
Was ich jetzt auch sagen muss, du hast Microsoft erwähnt, also ich Ich brauche
0:16:57–0:17:00
ein Office, ich habe es halt im Geschäft, ich bin mich an ein Office gewöhnt,
0:17:00–0:17:05
ja, da könnte man mich jetzt auch mal wahrscheinlich in einer ganzen Sendung umziehen,
0:17:06–0:17:11
dass es auch ein LibreOffice gibt, sprich ich habe ein Office 365 und dort ist
0:17:11–0:17:17
dann glaube ich ein Terabyte OneDrive so oder so dabei und ich darf es auch
0:17:17–0:17:21
noch mit der Familie benutzen und ich glaube ich darf fünf Familienmitglieder dabei haben.
0:17:21–0:17:26
Ja, aber grundsätzlich, ja, es wäre wie wenn du jetzt halt...
0:17:29–0:17:35
101 Gramm Rübe oder Gurken hast und dann sagst du, ja Herr Matthias,
0:17:35–0:17:37
jetzt zahlen Sie aber ein Kilo.
0:17:37–0:17:41
Ja, genau, so ist es, so ist es absolut. Und was dann noch dazu kommt,
0:17:41–0:17:44
ist, du könntest ja auf die Idee kommen, das Microsoft 365,
0:17:45–0:17:52
also das Office zu brauchen, aber offline oder einfach mit deinem lokalen Computer
0:17:52–0:17:54
oder mit einem anderen Cloud-Dienst,
0:17:54–0:17:58
also eben, wenn man jetzt das Dropbox noch würde brauchen Oder wir könnten an
0:17:58–0:18:01
dieser Stelle vielleicht auch einwerfen, dass es ein paar Schweizer Dienste gibt.
0:18:01–0:18:06
Das MyCloud bei Swisscom, das K-Drive von Infomagnac.
0:18:06–0:18:11
Ich sage immer noch Infomagnac. Oh, c'est français. Infomagnac.
0:18:11–0:18:18
Infomagnac. Oder filesync.ch, das pcloud.com ist glaube ich auch ein Schweizer Ding.
0:18:18–0:18:23
Also man hat Auswahl, aber man wird... Und wenn du es einfach so speichern willst,
0:18:23–0:18:28
dann musst du immer noch 5x extra klicken, dass du es lokal speichern kannst,
0:18:28–0:18:33
weil er es standardmässig immer in der Cloud haben will. Und das regt mich derartig auf.
0:18:33–0:18:37
Das verdammte Ding... Also Microsoft ist wirklich gnadenlos,
0:18:38–0:18:42
wo sie dir überall das OneDrive ins Gesicht drücken.
0:18:43–0:18:47
Und wenn du es nicht willst, musst du immer einen extra Umweg machen und wenn
0:18:47–0:18:50
du einen Fehler machst, hast du es trotzdem wieder am Hals.
0:18:50–0:18:55
Und das, ich muss sagen, wenn ich die EU-Wettbewerbskommission wäre,
0:18:55–0:18:59
ich würde sie so in Grund und Boden klagen und ihnen das so verbieten,
0:19:00–0:19:03
dass sie sich in die Mecke schämen würden.
0:19:03–0:19:06
Kevin, kannst du meinen Unmut verstehen?
0:19:07–0:19:10
Du bist eher so ein bisschen positiv zu Microsoft 365.
0:19:10–0:19:12
Findest du, ich übertreibe?
0:19:15–0:19:21
Ich nutze es halt sowieso. Und darum spielt es mir wirklich keine Rolle. Das ist halt so ein Ding.
0:19:22–0:19:28
Ich beklage mich auch nicht über Adobe Strategie. Hast du schon gemacht.
0:19:28–0:19:30
Ja, habe ich auch schon gemacht.
0:19:30–0:19:34
Aber mehr, weil diese 4000 Programme brauche ich nicht.
0:19:35–0:19:40
Ich muss, ich bin Teil der Hölle, die ich selber geschaffen habe.
0:19:40–0:19:44
Das stimmt. Ich komme nicht aus dem aus. Das ist ein bisschen ein Problem.
0:19:44–0:19:48
Das stimmt schon. Aber jetzt hier in dieser Sendung sind wir ja nicht angestellt
0:19:48–0:19:52
als Cheerleader von Microsoft und Adobe, sondern da sind wir eigentlich angestellt,
0:19:52–0:19:59
um diese hart zu kritisieren und ihnen alles unter die Nase zu reiben, was sie falsch machen.
0:20:00–0:20:03
Aber nein, dann finde ich das Produkt im Fall nicht so schlecht wie du.
0:20:03–0:20:07
Okay. Ganz ehrlich, ich finde es nicht so schlecht wie du.
0:20:07–0:20:11
Es hat Macken und es hat gewisse Sachen, die mich stören, aber ich finde es
0:20:11–0:20:15
absolut nutzbar im Vergleich zu anderen Diensten, die es gibt,
0:20:15–0:20:18
die ich nutzen muss, die ich richtig dumm finde.
0:20:19–0:20:25
Gut, aber darf ich trotzdem vielleicht an dieser Stelle dir meine Vision vorstellen,
0:20:25–0:20:28
wenn ich finde, dass das müsste sein, und dann kannst du mir sagen,
0:20:28–0:20:32
ob du den Jetzt-Zustand oder meine Version besser findest.
0:20:32–0:20:35
Also ich finde, ich glaube, es ist sinnvoll heute,
0:20:35–0:20:41
dass man die Clouds so integriert, also auch die iCloud in der ganzen Apple-Welt
0:20:41–0:20:44
und so, das verstehe ich auf eine Art, aber ich hätte das gerne so,
0:20:44–0:20:49
dass du eine Einstellung hast, die heisst irgendwie.
0:20:49–0:20:55
Cloud-Anbindung oder Internet-Verknüpfung oder wie auch immer.
0:20:55–0:20:58
Und dort hat es einen Knopf, wo du zuerst einmal sagen kannst,
0:20:58–0:21:01
ob du Cloud überhaupt nutzen willst oder nicht.
0:21:02–0:21:04
Da kannst du schon einmal sagen, nein, ich möchte offline arbeiten und gehen
0:21:04–0:21:06
wir weg mit dem ganzen Cloud-Scheiss.
0:21:07–0:21:10
Und wenn du sagst, ja, ich möchte sie nutzen, kannst du dann dort deinen Dienst
0:21:10–0:21:16
eintragen oder auswählen und bei allen Plattformen, also auch Microsoft oder
0:21:16–0:21:19
Apple kannst du wählen, Ich will OneDrive,
0:21:19–0:21:28
ich will Dropbox, ich will Nextcloud, ich will Box, Google Drive und was es alles gibt.
0:21:28–0:21:30
Und du kannst dort auswählen und dann ist das transparent.
0:21:31–0:21:35
Und alles, was es jetzt nur bei seinem eigenen Ding macht,
0:21:35–0:21:45
also zum Beispiel iCloud macht ja nur auf ihres, also Apple macht nur via iCloud Backups Und alles,
0:21:46–0:21:50
was man auswählen würde, würde man transparent auf dem Dienst machen, den du ausgewählt hast.
0:21:50–0:21:54
Egal, ob das jetzt der eigene oder ein fremder ist.
0:21:55–0:21:57
Wie findest du das, Kevin? Wäre das nicht besser?
0:21:58–0:22:04
Ja, aber das ist auch nicht realistisch. Den Glauben an die Welt habe ich schon lange aufgegeben.
0:22:05–0:22:09
Aber das möchte es definitiv nie, nie, nie, nie, machen.
0:22:10–0:22:14
Aber Software ist doch eigentlich... Das Spannende an Software ist,
0:22:14–0:22:17
dass du sie zusammenstöpseln kannst, wie du willst, und dass du...
0:22:17–0:22:20
Interoperabilität ist doch das schöne Stichwort.
0:22:20–0:22:25
Digi-Grizz, Herr Lauchert. Aber ich möchte ja nicht, dass du mit deinen Daten
0:22:25–0:22:26
noch immer etwas anderes hast.
0:22:27–0:22:29
Das möchte ich auf jeden Fall vermeiden.
0:22:30–0:22:37
Ich meine, ja, wie es Kevin sagt, das ist schön, aber ich glaube auch, wenn du auf dem Mac bist,
0:22:37–0:22:41
klar, du kannst dir zum Beispiel OneDrive installieren und es gibt das,
0:22:41–0:22:45
wie sagt man das, Selective Sync, also um zu erklären,
0:22:46–0:22:55
wenn du jetzt halt 10 TB OneDrive Speicher hast und du hast 5 TB RAW Bilder,
0:22:55–0:23:02
Du kannst also in höchster Auflösung deiner letzten South Africa Safari im OneDrive
0:23:02–0:23:04
sagen, lass es auf dem OneDrive,
0:23:04–0:23:07
aber tu es mir nicht auf den Mac oder auf den Windows-PC.
0:23:07–0:23:09
Ausser wenn ich das RAW-Bild aufmache.
0:23:10–0:23:14
Das geht, aber zum Beispiel bei Nextcloud, schon vom Client her,
0:23:14–0:23:16
läuft das auf dem Mac nicht.
0:23:16–0:23:22
Oder ist es zumindest nicht gelaufen. Wie gesagt, was Kevin gesagt hat, das wäre das Ziel.
0:23:22–0:23:27
Aber wieso sollte ich jetzt, wenn ich bei Microsoft als CEO wäre,
0:23:27–0:23:34
irgendjemanden dazu verdonnere, hey, du jetzt doch mal diese schöne Funktion einbinden.
0:23:34–0:23:37
Ja. Schön wäre es, es erinnert mich ein bisschen an die Browserwahl.
0:23:38–0:23:42
Aber du hast einfach schon die, natürlich geht es um das Gleiche,
0:23:42–0:23:50
um die Wahlfreiheit der Nutzer und den Hang der Tech-Konzerne uns zu bevormunden und, aber.
0:23:51–0:23:57
Ich denke, ihr habt die Logik dieser Unternehmer schon viel zu sehr verinnerlicht.
0:23:57–0:24:00
Natürlich weiss ich, dass wir in einer kapitalistischen Welt leben und die einfach
0:24:00–0:24:03
eine riesen Chance gesehen haben, Geld zu verdienen.
0:24:03–0:24:08
Natürlich, früher gab es diese Cloud nicht und jetzt gibt es diese Cloud und
0:24:08–0:24:15
jetzt verdient Apple an mir 3 Franken jeden Monat extra und das dämliche Microsoft
0:24:15–0:24:20
für das 3,65 zahle ich irgendwie 40 Stutz im Jahr oder so irgendetwas.
0:24:20–0:24:23
Das kommt einfach obendrauf und natürlich finden sie das toll,
0:24:24–0:24:28
aber es geht ja mir jetzt nicht darum, was Microsoft toll findet,
0:24:28–0:24:32
sondern mir geht es darum, wenn ich möglichst effizient kann arbeiten und darum
0:24:32–0:24:35
finde ich, müssen wir die zwingen irgendwie.
0:24:36–0:24:43
Ich will sie zwingen. Ich will noch schnell etwas einwerfen wegen der Schweizer Anbieter.
0:24:43–0:24:47
Also ich habe es angenommen, ich komme am Morgen in meinen PC und sehe,
0:24:47–0:24:49
mein OneDrive ist gesperrt.
0:24:49–0:24:52
Uh, blöd. Ja, genau, es kommt dann noch dazu.
0:24:52–0:24:57
Und dann kommt das andere, ich sage jetzt, mein Infomaniac-Dings ist gesperrt.
0:24:57–0:24:58
Dann wirst du wahrscheinlich eine
0:24:58–0:25:02
Nummer haben in Genf. Dann wirst du wahrscheinlich an das Telefon gehen.
0:25:02–0:25:06
Ich nehme, der Mitarbeiter, der Hotline wird plus minus Deutsch können.
0:25:07–0:25:10
Und unser Missverständnis. Du kannst es französisch.
0:25:10–0:25:12
Sonst nimmst du... Oder ja, das würde ich jetzt auch noch schaffen,
0:25:12–0:25:17
aber einfach, also du wirst ein Infomaniak oder eben halt ein Hetzer,
0:25:17–0:25:19
du wirst wahrscheinlich telefonisch oder per Mail noch erreichen.
0:25:20–0:25:23
Genau. Und sie werden dir Antworten geben und dann sagen, ja,
0:25:23–0:25:25
eben, Missverständnis, das Ding ist weg.
0:25:25–0:25:30
Wenn jetzt du, ich sage jetzt, deine ganzen Artikel, die du jemals geschrieben
0:25:30–0:25:35
hast, nur auf OneDrive hast und irgendwo hat es halt irgendein Wort Penis drin.
0:25:35–0:25:38
Ja, genau, dann ist es schon vorbei. Und sie dann weg sind, ja.
0:25:39–0:25:43
Ist vielleicht auch so etwas, sondern man muss sagen, in Sachen Backup würde
0:25:43–0:25:47
ich jetzt nicht noch auf einen Dienst setzen. Das kann brutal ins Auge.
0:25:47–0:25:53
Ja, also Tiggi Chris, du hast recht und du bist eigentlich auch schon im Servicebereich drin.
0:25:53–0:25:57
Und ich bin aber heute mehr so ein bisschen auf Krawallbürsten und würde lieber
0:25:57–0:25:59
einfach noch ein bisschen auf diesen Dienst.
0:25:59–0:26:02
Nein, dann Krawall ein bisschen weiter. Wir haben ja auch in den Shownotes dann
0:26:02–0:26:07
wirklich noch so zwei Beispiele verlinkt, wo eben genau das passiert ist,
0:26:07–0:26:12
wo halt so Daten verschwunden sind oder so Konten gesperrt worden sind.
0:26:12–0:26:19
Einer ist eben, wo irgendein Hacker so ein Microsoft 365 Konto gekapert hat und dann ein Mann,
0:26:19–0:26:23
ich habe den persönlich getroffen und er hat mir erzählt, wie er monatelang
0:26:23–0:26:28
versucht hat, das Debakel zu beheben und es war ein riesiges Ding.
0:26:28–0:26:32
Und wenn du jetzt eben, genau wie du sagst, wenn du jetzt da sagen könntest,
0:26:32–0:26:38
dass dort ein Schweizer dienst oder deine Nextcloud einbindet und die wird genau gleich,
0:26:39–0:26:43
braucht wie das OneDrive, dann hättest du das Risiko einfach nicht.
0:26:44–0:26:50
Und eben, Kevin, haltest du mich für naiv und für einen Träumer oder kannst
0:26:50–0:26:54
du meine Fantasie da nachvollziehen?
0:26:56–0:27:00
Nein, also, ich halte dich für naiv und ein Träumer, dass das so weit kommt.
0:27:01–0:27:05
Ich weiss aber, dass du genug clever bist, um zu wissen, was die Alternativen
0:27:05–0:27:08
sind, dass du gleich mehr oder weniger das erreichst, was du willst. Ja.
0:27:08–0:27:12
Und ich glaube, um das geht es. Also, wenn es doof ist,
0:27:13–0:27:17
dass du die Option nicht hast und dass du dich so weit mit der Materie auskennen
0:27:17–0:27:20
musst, dass du eine ähnliche Lösung anbringst, dass es eigentlich für die meisten
0:27:20–0:27:23
Leute eben kein gangbarer Weg ist, das ist ein bisschen doof.
0:27:23–0:27:29
Dass du einfach wie, du kommst die Option nicht über, obwohl die Software herrscht,
0:27:29–0:27:35
die kann sagen, okay, wir realisieren das mit einem Klick und das unterbindet es halt.
0:27:35–0:27:38
Und das ist Marktwirtschaft und das wird immer so bleiben.
0:27:39–0:27:44
Aber müssen wir jetzt, eben, wir haben über diese Browser diskutiert,
0:27:44–0:27:49
oder, dass die EU hat gefunden, man müsse diese Browser frei wählen können,
0:27:49–0:27:51
aber das ist ja eigentlich,
0:27:52–0:27:57
bevormundig, beim Browser ist ja im Grunde genommen viel kleiner, als bei diesem Cloud.
0:27:57–0:28:01
Also einen Browser selber wählen und installieren ist viel einfacher,
0:28:01–0:28:03
als das Windows dazu zu bringen,
0:28:03–0:28:10
nicht das OneDrive zu brauchen, sondern eben irgendeinen anderen Dienst und darum fände ich jetzt,
0:28:10–0:28:19
das wäre ein viel attraktiverer Betätigungsbereich für die EU als die Browser.
0:28:19–0:28:23
Nein, ist ganz klar, weil eben wenn du Windows 11 installierst,
0:28:23–0:28:27
heisst es so, wollen sie ihre Daten mit OneDrive synchronisieren,
0:28:27–0:28:33
sie haben ihre Daten dort immer aktuell bla bla bla bla bla bla Und das dir halt zeigt,
0:28:33–0:28:39
möchten Sie Ihre Daten mit der Cloud oder mit dem Internet synchronisieren,
0:28:39–0:28:41
wählen Sie Dropdown-Menü. Ja, genau.
0:28:42–0:28:50
Ich finde das auch gut, aber dann hast du wahrscheinlich 99% der Benutzer so. Hä? Nein, mag ich nicht.
0:28:50–0:28:53
Ja. Also ich verstehe dich total.
0:28:54–0:29:02
Es ist wirklich wahnsinnig schwierig, diesen Unternehmen natürlich die Regulierung aufzunötigen.
0:29:04–0:29:13
Aber dort haben wir wahrscheinlich ein Problem im Kern, bei der ganzen Facebook-Daten-Weitergeben-Geschichte
0:29:13–0:29:18
haben wir das Problem auch gehabt, dass die Leute, die in diesen Gremien sitzen,
0:29:19–0:29:21
in diesen Verwaltungen sitzen, die diese Entscheidungen treffen,
0:29:22–0:29:24
die verstehen das technisch nicht.
0:29:24–0:29:28
Den Browser haben sie auf dem Desktop. Das verstehen sie noch so ansatzweise.
0:29:29–0:29:33
Aber wenn du jetzt sagst, beim Installieren hätten wir gerne die Auswahl,
0:29:33–0:29:36
welcher Cloud-Dienst, dann ist es schon vorbei.
0:29:36–0:29:39
Die wissen gar nicht, um was es geht.
0:29:40–0:29:45
Darum bist du bei technischen Sachen an so einer einfachen Basis.
0:29:45–0:29:51
Es wundert mich, dass sie das mit den USB-C Anschlüssen geschafft haben.
0:29:52–0:29:59
Genau, und dass du jetzt nur noch ein Ladekabel für deine Handys nehmen kannst.
0:29:59–0:30:01
Und so. Ja, das wundert mich ehrlich gesagt auch.
0:30:01–0:30:07
Aber ich weiss es auch nicht. Aber Digi-Chris, ich habe dir jetzt deine Sendung ein bisschen.
0:30:09–0:30:13
Mit meinem Aktivismus in Beschlag genommen.
0:30:14–0:30:18
Was meinst du, über was müssen wir noch reden in den letzten 5 Minuten ungefähr
0:30:18–0:30:20
bei diesen Cloud-Sachen?
0:30:21–0:30:27
Also wie gesagt, ja, eben Datenschutz.
0:30:27–0:30:35
Also jetzt Agna, du Du machst deine Steuererklärung, machst das PDF daraus und
0:30:35–0:30:40
schmeisst es auf Dropbox, OneDrive, Listan, Satinadella.
0:30:40–0:30:47
Glaubst du, das liest das mit? Wird das irgendwie gescannt oder sind wir dann da paranoid?
0:30:47–0:30:51
Nein, das wird ganz klar gescannt. Das wird alles automatisch gescannt,
0:30:51–0:30:57
auch von diesen Kinderporno-Scanner, wenn man das so sagen darf.
0:30:57–0:31:01
Also da werden nach bekannten Mustern gesucht und eben, wir wissen auch von
0:31:01–0:31:03
Google, dass wenn da eben zum Beispiel,
0:31:03–0:31:08
da hat es eben den Fall gegeben von dem Arzt oder von dem Vater,
0:31:08–0:31:13
der ein Foto gemacht hat vom Geschlechtsteil von seinem Kind,
0:31:13–0:31:19
weil er dort den Buben ausschlagen konnte und dann hat er das ausgeladen und
0:31:19–0:31:21
seine Hand war noch mit im Bild.
0:31:22–0:31:26
Das hat für Google so ausgesehen, als ob da Kinderpornografie im Spiel wäre.
0:31:26–0:31:32
Und zack, sein Konto war geschlossen und er hatte monatelang, bis er wieder da war.
0:31:32–0:31:38
Und er ist, glaube ich, sogar die Polizei ist vorbeigekommen. Also ja, wird gescannt.
0:31:38–0:31:42
Jetzt frage ich mich einfach, oder wenn du jetzt, keine Ahnung,
0:31:42–0:31:46
oder wenn jemand mit seiner Frau halt in der Scheidung ist und irgendwie einfach,
0:31:47–0:31:50
ich sage jetzt, die Anwaltsschreiber auf Dropbox knallt.
0:31:51–0:31:52
Interessiert das Dropbox?
0:31:54–0:31:57
Kommst du dann, oder bei Google, einfach, kommst du dann her,
0:31:57–0:31:59
bin ich vom Scheidungsanwalt-Typer?
0:31:59–0:32:01
Also, ja, zum ein bisschen ganz paranoiiert sein.
0:32:01–0:32:05
Anwalt und Tinder. Also ich glaube Microsoft macht das bis jetzt nicht,
0:32:05–0:32:13
aber wenn du sie ja jetzt auch, wenn du ihr Outlook.com brauchst in der Gratisversion, da machen sie das.
0:32:13–0:32:18
Google zu den besten Zeiten, da kommst du dann auch Werbung über in deinem Postfach und alles.
0:32:18–0:32:23
Also ich würde sagen, nein, standardmässig interessieren sie sich nicht für diese Schreiben.
0:32:24–0:32:28
Aber du weisst natürlich nicht, ob sich das mal ändern kann,
0:32:28–0:32:37
ob irgendwie mal halt irgendein Mitarbeiter selber ein Nebengeschäft aufmacht oder ob du eine Lücke,
0:32:37–0:32:44
ein Eindringling erlaubt, dann deine Daten zu nehmen und zu verwerten, wie auch immer.
0:32:44–0:32:49
Also diese Abhängigkeit, die ist halt schon da. Und da haben wir ja früher das
0:32:49–0:32:53
Boxcryptor empfohlen, wo du dann selber noch mal verschlüsseln konntest.
0:32:54–0:32:59
Und das ist halt jetzt inzwischen auch weg vom Fenster. Und das ist ein bisschen...
0:32:59–0:33:01
Es gibt einen Ersatz, den ich allerdings noch nie getestet habe.
0:33:01–0:33:05
Es ist nicht so, dass du bei der iCloud... Es gibt ja, glaube ich,
0:33:05–0:33:07
Ende-zu-Ende-Verschlüsselung.
0:33:07–0:33:11
Und da hast du ein Passwort. Und ich glaube, das glaube ich jetzt Apple auch,
0:33:11–0:33:15
weil Apple macht Geld mit überteuerten Hardware und nicht mit deinen Daten.
0:33:16–0:33:21
Aber wenn du dann dein Passwort vergessen hast, dann ist Game Over, dann ist alles weg.
0:33:21–0:33:25
Ja, bei den Fotos ist es ein bisschen knifflig, oder? Werden die inzwischen
0:33:25–0:33:28
auf dem Gerät... Doch, die werden auf dem Gerät verschlagt worden.
0:33:28–0:33:32
Das kann sein. Also ich habe jetzt wirklich ein iCloud Drive mit den Daten.
0:33:34–0:33:38
Und dann musst du auch tatsächlich, wenn du das aktivierst, auf jedem IOS-Gerät
0:33:38–0:33:41
noch ein Passwort eingeben und so.
0:33:41–0:33:45
Und wenn du jetzt halt eben, sehe ich bei mir ein Geschäft, sollte ich mal mein
0:33:45–0:33:50
Windows-Passwort vergessen, kann mir die Local-IT das zurücksetzen und es geht wieder.
0:33:50–0:33:55
Und ja, wie gesagt, man kann von Apple halten, was man will,
0:33:55–0:34:00
aber ich glaube, dass Apple die Privacy noch am höchsten von allen hält.
0:34:00–0:34:06
Und vielleicht auch eben, ich kenne niemanden von Maniac, aber ich glaube,
0:34:06–0:34:11
dass die haben wahrscheinlich auch kein Interesse, jetzt irgendwie grosse Daten zu scannen.
0:34:12–0:34:17
Klar, wenn die vom halt, wahrscheinlich überhaupt der Jans ist Justizminister,
0:34:17–0:34:21
wenn Herr Jans anklopft, dann wäre das wahrscheinlich das Zeug aus der G.
0:34:21–0:34:26
Natürlich, die sind ja gesetzbunden und wenn sie es nicht endzuend verschlüsseln,
0:34:26–0:34:27
dann haben sie keine Chance.
0:34:27–0:34:30
Also das ist so, wir müssen an dieser Stelle, glaube ich, wirklich aufhören.
0:34:30–0:34:35
Und voll, wir sind mitten in der Diskussion noch steckend. Ich glaube,
0:34:35–0:34:41
ein Problem ist auch tatsächlich, dass von aussen wirklich zu entscheiden, auch in der iCloud,
0:34:41–0:34:45
welche von deinen Dateien sind end-zu-end verschlüsselt, welche nicht,
0:34:45–0:34:49
das kannst du eigentlich fast nicht entscheiden, wenn du nicht extrem tief in
0:34:49–0:34:51
die Materie einschaffst.
0:34:52–0:34:54
Und das ist ein grundsätzliches Problem.
0:34:54–0:34:59
Kevin, ich würde sagen, du hast das famous last word in dieser Sendung,
0:34:59–0:35:02
Cloud Sind wir zu weit gegangen?
0:35:03–0:35:06
Hat das Überhand genommen? Müssten wir einen Befreiungsschlag machen?
0:35:06–0:35:09
Oder müssen wir leben, wie es jetzt halt ist?
0:35:10–0:35:15
Ich glaube, es ist wie mit allem in der IT. Wenn man die bessere Endlösung haben
0:35:15–0:35:18
will, muss man sich mehr darum kümmern. Es ist nie der einfache Weg.
0:35:19–0:35:21
Und das ist wahrscheinlich mit der Cloud genau das Gleiche.
0:35:23–0:35:25
Nerdfunk. Wenn ihr den Nerdfunk.
0:35:25–0:35:35
Music.

In den letzten Jahren sind sie zu einem unverzichtbaren Bestandteil des Computer-Alltags geworden: die Datenwolke. Sie ist auch bekannt unter der wolkigen Bezeichnung «die Cloud» – die übrigens daher rührt, dass in Diagrammen zu Sachverhalten aus dem Bereich der Telekommunikation das Internet gern als Wolke dargestellt wurde.

Aber mal ganz direkt gefragt: Ist das eine gute Entwicklung? Ohne Zweifel vereinfacht die Cloud vieles: Wir müssen keine Daten mehr via Kabel vom Computer aufs Smartphone schieben oder umgekehrt (die letzte Kummerbox lässt grüssen). Das Problem mit knappem Speicherplatz ist fast verschwunden. Und auch Bilder, Dokumente und selbst riesige Datenmengen lassen sich mit anderen Leuten teilen, ohne dass wir USB-Sticks oder – Göttin bewahre! – selbst gebrannte DVDs durch die Gegend schicken müssten.

Die Cloud hat auch ihre Schattenseiten: Die Hersteller verzahnen ihre Internetdienstleistungen so eng mit Computern, Smartphones und Betriebssystemen, dass unsere Abhängigkeit wächst und wir nicht darum herumkommen, unseren monatlichen Obolus fürs Datenguthaben zu entrichten. Es gibt keine Interoperabilität und wie gross unsere Abhängigkeit ist, das wird uns in einem kleinen Gedankenexperiment schnell bewusst – sobald wir uns vorstellen, wie es wäre, wenn wir keinen Zugang mehr zu unseren Accounts hätten.

Wir sprechen heute kritisch über die Cloud: Wie wir sie nutzen, was wir schätzen – und wo wir die Probleme verorten. „Wenn uns die Cloud im Regen stehen lässt“ weiterlesen

Müssen Chatbots Lehrgeld zahlen?

Transkript anzeigen (falls vorhanden)

0:00:02–0:00:09
Matt Villen featuring Matt mit Raid und da ist Radio Stadtfilter.
0:00:09–0:00:22
Music.
0:00:11–0:00:16
Nerdfunk. Herzlichst willkommen zum Nerdfunk.
0:00:17–0:00:21
Nerdfunk. Ihr Nerd am Mikrofon, der Matthias Schüssler.
0:00:22–0:00:28
Ist es eigentlich okay, dass die Tech-Unternehmen das ganze Web so als Trainingswesen
0:00:28–0:00:32
brauchen für ihre Bots und Bildgeneratoren oder ist das dann vielleicht ein
0:00:32–0:00:35
Betrug an diese Urheberinnen und Urheber,
0:00:35–0:00:40
die ihr Wissen und ihre Kreativität und ihre Werke zur Verfügung stellen,
0:00:40–0:00:45
damit eben die Bots trainiert werden können und dann oftmals hinterher gegen
0:00:45–0:00:49
Geld so tun, wie wenn sie alles wüssten oder alles könnten.
0:00:50–0:00:53
Oder müssten eigentlich die Tech-Unternehmen die Menschen entschädigen,
0:00:53–0:01:00
die das Material zur Verfügung stellen, das sie für ihr Training von ihren KI-Modellen verwenden.
0:01:00–0:01:05
Hier im Studio ist Andreas Vog unten. Und der, wenn ich dich zitieren darf,
0:01:05–0:01:11
hält die Idee, dass man die Urheber für eine Schnappsidee entschädigen müsste.
0:01:11–0:01:16
Weil die KIs, wenn ich dich richtig verstanden habe, die brauchen diese Informationen,
0:01:16–0:01:18
so wie wir Menschen brauchen, wenn wir lernen.
0:01:19–0:01:24
Und darum ist es eigentlich nicht angebracht. Wir sind uns dann auf LinkedIn
0:01:24–0:01:28
ein wenig die Haare geraten, weil ich habe gefunden, ich kann eigentlich dieser
0:01:28–0:01:32
Idee schon etwas abgewinnen und jetzt, auf LinkedIn kann man einfach nicht gut
0:01:32–0:01:33
streiten, oder Andreas?
0:01:34–0:01:42
Darum führen wir es jetzt hier im Radiostudio unter Echtzeit und unter realen Bedingungen weiter.
0:01:42–0:01:47
Also warum findest du das, ich habe es jetzt ein bisschen lapidar oder plakativ
0:01:47–0:01:49
zusammengefasst, warum findest du das eine Schnapps-Idee?
0:01:49–0:01:52
Weil eigentlich liegt es doch auf der Hand, dass man diese Forderung aufstellen kann.
0:01:53–0:01:57
Ja, ich muss gerade schauen, wo ich am besten anfange. Also zuerst einmal,
0:01:57–0:02:02
hoi Matthias, danke, dass ich bei dir sein darf. Gerne, ich freue mich, dass du da bist.
0:02:02–0:02:04
Ich finde es interessant, dass wir die Diskussion hier weiterführen.
0:02:04–0:02:07
Ich finde es übrigens auch lässig, dass so etwas passiert im Netz,
0:02:07–0:02:10
dass man irgendwo diskutieren will und dann führt man sie noch einmal anders
0:02:10–0:02:13
weiter. und finde es toll, dass du das hier anbietest und dass wir das machen können.
0:02:13–0:02:17
Um auf deine Frage zurückzukommen, es geht eigentlich um Folgendes.
0:02:18–0:02:21
Die Generatoren, also die generative KI, von der wir hier im Moment sprechen,
0:02:22–0:02:27
die funktioniert ja eigentlich so, dass sie möglichst viele Informationen verarbeitet
0:02:27–0:02:32
und dort statistische Verhältnisse herstellt zwischen verschiedenen Chunks,
0:02:33–0:02:37
Informationschunks, ob das Texte sind oder Bildmaterial oder Audio oder Video.
0:02:37–0:02:42
Die statistischen Daten, die hier entstehen, können wiederum dazu helfen,
0:02:43–0:02:45
neue Sachen zu generieren,
0:02:47–0:02:50
lustigerweise und interessanterweise und ich glaube für alle erstaunlicherweise
0:02:50–0:02:53
tatsächlich etwas Sinnvolles erkennt.
0:02:53–0:02:57
Was da passiert, ist eigentlich, dass wir einen Schritt weiter kommen zum alten
0:02:57–0:03:03
Traum, der uralte Traum, den wir seit der Bibliothek von Alexandria haben,
0:03:03–0:03:10
dass wir Menschen das komplette Wissen von allen zusammen jederzeit allen zur
0:03:10–0:03:12
Verfügung stellen können, dass wir das immer im Zugriff haben.
0:03:12–0:03:15
So sind Bibliotheken entstanden, dass Die Idee der Bibliothek,
0:03:15–0:03:19
und das war letztendlich das Grossartige am Anfang vom Netz,
0:03:19–0:03:21
vom Web, die Idee, dass dort alles zusammenkommt.
0:03:22–0:03:26
Und mit dieser generativen KI gibt es jetzt einen neuen Aspekt, der dazukommt.
0:03:26–0:03:30
Bis jetzt mussten wir nach Informationen suchen mit einer Suchmaschine.
0:03:30–0:03:34
Und die Informationen, die andere Leute ins Netz gestellt haben,
0:03:34–0:03:38
konnten wir finden und sich dort Antworten zusammensuchen zu den Fragen,
0:03:38–0:03:40
zu den persönlichen, die man hat.
0:03:40–0:03:44
Und das hat oft so funktioniert, dass man einen Suchbegriff oder einen Suchsatz
0:03:44–0:03:46
oder eine ganze Frage gibt und dann hat man halt die Liste bekommen von diesen
0:03:46–0:03:49
Links und ist auf diese Links und das hat sehr viel Aufwand gegeben,
0:03:49–0:03:54
ihnen anzugehen, diese Sachen anzuschauen. und jetzt ist es genial.
0:03:54–0:03:56
Jetzt kann man sich vorstellen, natürlich ist jetzt noch vieles,
0:03:56–0:04:00
wir haben noch Probleme mit Halluzinierungen usw. Das kann man alles lösen irgendwann.
0:04:00–0:04:03
Aber am Schluss muss man sich klar werden, jetzt ist die Idee da,
0:04:03–0:04:09
dass man eigentlich alles, was je geschrieben worden ist, zusammenfasst und
0:04:09–0:04:12
verfügbar macht für alle. Und das ist das Grossartige.
0:04:12–0:04:18
Genau, das ist deine Vision von der offenen Wissensgesellschaft und vom Wissen,
0:04:18–0:04:20
das niemand besitzt und das allen gehört. gehört.
0:04:20–0:04:25
Und ich glaube, an diesem Punkt sind wir uns absolut einig, weil das ist auch
0:04:25–0:04:27
meine Vision. Ich finde die super toll.
0:04:27–0:04:30
Und um dich noch schnell vorzustellen, du.
0:04:32–0:04:37
Vertrittst das ja auch als Verleger, dass du die Idee hast, dass das Wissen
0:04:37–0:04:39
möglichst offen und frei zugänglich sein muss.
0:04:39–0:04:42
Du bist auch beim Verein der Digitalen Gesellschaft.
0:04:43–0:04:47
Die setzt sich auch ein für Offenheit, Grundrecht, Menschenrecht im Netz.
0:04:47–0:04:53
Und du bezeichnest dich als linksliberaler humanist und ich glaube,
0:04:53–0:04:56
du bist genau der Richtige, um zu diskutieren.
0:04:56–0:05:00
Und ich würde dir absolut recht geben, wenn es jetzt da nicht einfach,
0:05:00–0:05:05
wenn ich jetzt da nicht den Hang von diesen Tech-Konzernen würde sehen,
0:05:05–0:05:12
die sagen, die haben nicht die Wissensgemeinschaft und unser aller Nutzen im Sinn,
0:05:12–0:05:16
sondern die wollen das Wissen, ich sage es jetzt ein bisschen überspitzt,
0:05:16–0:05:19
aber vielleicht ist es gar nicht überspitzt, bei Google, denke ich,
0:05:20–0:05:27
Die wollen das monopolisieren, die wollen die Gatekeeper sein von diesem Wissen
0:05:27–0:05:30
und jeder der davon partizipieren will,
0:05:30–0:05:37
der muss ihnen entweder Daten oder Geld liefern oder etwas zu gut tun,
0:05:37–0:05:39
damit sie noch grösser, stärker und mächtiger werden.
0:05:41–0:05:50
Ich glaube, das funktioniert für mich nicht und man muss irgendwie die Tech-Konzerne davon abhalten,
0:05:50–0:05:55
das Menschheitswissen für sich zu vereinnahmen und dann uns wieder zu verkaufen,
0:05:55–0:05:57
obwohl wir es ihnen ja ursprünglich zur Verfügung gestellt haben.
0:05:59–0:06:06
Sie müssen dafür zahlen, wenn sie die Daten verwenden oder aktiv verwerten.
0:06:06–0:06:09
Das ist die einfachste Variante.
0:06:09–0:06:14
Vielleicht gibt es eine bessere. Aber warum fangen wir nicht mal bei der einfachsten
0:06:14–0:06:16
Variante an und sagen, die müssen einfach zahlen, wenn sie etwas nehmen?
0:06:17–0:06:22
Du hast einen ganz wichtigen Punkt gebracht und da sind wir uns auch wieder einig.
0:06:22–0:06:28
Man muss verhindern, dass Grosskonzerne das Wissen von dieser Welt monopolisieren
0:06:28–0:06:33
und selber für sich quasi nur noch entscheiden, wer das nutzen kann und wie
0:06:33–0:06:33
das genutzt werden kann.
0:06:33–0:06:39
Und genau darum müssen wir beim Urheberrecht dafür sorgen, dass das nicht passiert.
0:06:39–0:06:42
Also genau das ist der Grund, warum alle diese Urheberrechtsrevisionen,
0:06:42–0:06:46
die jetzt auch wieder wieder angezeigt werden, wegen dieser ganzen Geschichte,
0:06:46–0:06:50
am Schluss genau für das da sind, damit Konzerne monopolisieren können.
0:06:50–0:06:54
Jede Urheberrechtsrevision, die wir jetzt gehabt haben, hat immer den Urheber
0:06:54–0:06:57
vor den Karren gespannt, aber letztendlich Rechte geschaffen,
0:06:58–0:07:03
die von den Grosskonzernen kapitalisiert und monopolisiert werden können.
0:07:03–0:07:06
Und wenn wir jetzt etwas verhindern müssen, dann ist es vor allem das.
0:07:06–0:07:09
Das ist das Allerwichtigste, bevor wir noch einmal darüber reden,
0:07:09–0:07:10
ob wir jetzt für Trainingsdaten zahlen müssen.
0:07:11–0:07:17
Das Allerwichtigste ist das, die Tendenz wird die sein, dass die grossen Konzerne, wie OpenAI,
0:07:17–0:07:22
Google usw., im Einklang mit den grossen Verlagskonzernen verlangen,
0:07:22–0:07:27
dass die KI-generierten Inhalte auch urheberrechtlich geschützt werden können.
0:07:28–0:07:32
Das würde dazu führen, dass am Schluss die komplette Kommunikation der Menschheit
0:07:32–0:07:34
in den Händen ein paar weniger Konzerne ist.
0:07:34–0:07:37
Dass bei jeder Nutzung einer dieser Konzerne etwas verdient.
0:07:38–0:07:40
Und das ist nur möglich wegen des Urheberrechts.
0:07:40–0:07:42
Also die Monopolisierung von Wissen,
0:07:42–0:07:47
entsteht erst dadurch, dass man mit dem Urheberrecht eben genau so ein Monopolrecht
0:07:47–0:07:50
schafft. Und dass man sagt, die Urheber haben etwas davon.
0:07:50–0:07:55
Das ist die grösste Farce, seit wir in der Aufklärung sind, weil das stimmt einfach nicht.
0:07:55–0:08:01
99,9% der Urheber, heute schon, und Urheberinnen, haben nichts vom Urheberrecht,
0:08:01–0:08:02
ausser ein paar Brosamen.
0:08:02–0:08:05
Es ist immer so, dass das Urheberrecht niemandem anderen hilft,
0:08:05–0:08:10
als denen, die zauberst oben sind, also die am allermeisten schon sonst verdienen,
0:08:10–0:08:14
die eigentlich die grossen Stars sind bei den UrheberInnen und vor allem in
0:08:14–0:08:18
den Verlagskonzernen, in welcher Branche auch immer, ob Musikbücher,
0:08:18–0:08:20
Filme usw., das sieht man überall.
0:08:20–0:08:22
Darum hat man eine Konzentration von drei, vier Konzernen pro Branche.
0:08:23–0:08:26
Und die sind die Einzigen, die in der Masse monetarisieren können.
0:08:26–0:08:30
Und jetzt neu kommen noch die Digitalkonzernen dazu, die gerne auch noch alle
0:08:30–0:08:33
Äußerungen, die man in Zukunft macht, durch Lizenzen monetarisieren können.
0:08:33–0:08:35
Genau. Wir müssen dagegen sein.
0:08:36–0:08:43
Ja, das war ein super Plädoyer und ich glaube, ich verstehe, wie du das meinst.
0:08:43–0:08:46
Aber wie kommen wir denn dort hin?
0:08:46–0:08:51
Wir können ja nicht das Urheberrecht jetzt auflösen.
0:08:53–0:09:00
Schildere mir an deiner Stelle, wie deine Vorstellung aussehen würde,
0:09:00–0:09:03
wie das Urheberrecht organisiert sein müsste.
0:09:03–0:09:06
Gäbe es das einfach gar nicht, würden wir das einfach abschaffen?
0:09:08–0:09:14
Wie kommen dann die Urheber, wenn ich einen Blogbeitrag schreibe, zum Geld?
0:09:14–0:09:17
Ich muss ja trotz allem von irgendetwas am Leben am Schluss.
0:09:17–0:09:21
Genau. Das Erste, was wir klarstellen müssen, das ist wichtig,
0:09:21–0:09:23
und ich will dir gar nicht zu nahe treten, weil ich bin auch ein Blogger wie du.
0:09:24–0:09:28
Du verdienst von deinen Blogbeiträgen auch jetzt kein Geld wegen des Urheberrechts.
0:09:28–0:09:30
Das ist so. Das Urheberrecht bringt dir im Moment gar nichts.
0:09:31–0:09:34
Und das ist wichtig. Und ja, um deine erste Frage ganz kurz beantworten zu können.
0:09:34–0:09:38
Ja, ich bin persönlich der Meinung, das Urheberrecht müssten wir eigentlich abschaffen.
0:09:38–0:09:43
Also Intellectual Property is Common Property ist der Titel meiner Masterthesis.
0:09:43–0:09:46
Und ich bin der Meinung, das Urheberrecht, es gibt gar nichts so etwas wie ein
0:09:46–0:09:51
geistiges Eigentum, weil letztendlich der Kreativprozess immer ein interpersoneller
0:09:51–0:09:54
Prozess ist, dass es eigentlich nichts gibt, das nicht mit anderen zusammenhängt,
0:09:54–0:09:57
mit anderen Austausch letztendlich stattgefunden hat.
0:09:57–0:10:00
Selbst wenn das am Schluss bei mir rauskommt. Ich mache immer das Beispiel von Picasso.
0:10:01–0:10:04
Der Pablo Picasso, wenn er allein auf einer Insel aufgewachsen wäre,
0:10:04–0:10:09
und keinen Kontakt zu anderen Kulturen hätte, wäre seine Malerei nie bei ihm entstanden.
0:10:10–0:10:12
Sie wäre aber wahrscheinlich bei jemand anderem entstanden. Man muss sich das
0:10:12–0:10:17
vorstellen wie ein riesiges Netzwerk von verknüpften Hirnen über Zeit und Ort
0:10:17–0:10:20
hinweg, das natürlich mittlerweile durch die Internetvernetzung noch viel schneller
0:10:20–0:10:21
und dynamischer funktioniert.
0:10:21–0:10:25
Und bei irgendjemandem kommt jeweils ein Fass zum Überlaufen mit einem Tropfen,
0:10:25–0:10:27
der dann das Werk rausgibt.
0:10:27–0:10:30
Das merkt man auch, wenn man mit Künstlern Interviews liest von Künstlerinnen
0:10:30–0:10:33
und Künstlern, der Name sagt, wenn man fragt, wie ist das entstanden?
0:10:33–0:10:36
Ja, ich weiss auch nicht, das ist mir einfach zugefallen. Mose hat mich geküsst oder was weiss ich.
0:10:37–0:10:39
Der Malo, der zum Beispiel in den 80er Jahren einen grossen Hit hatte.
0:10:40–0:10:42
Ich weiss jetzt gerade den Namen nicht mehr, ein Pop-Hit, den ich extrem gerne
0:10:42–0:10:47
gehört habe, der lebt seit den 80er Jahren in Hamburg von der Tante Jeme, von dem Hit.
0:10:47–0:10:50
Und wenn man ihn fragt, wie ist das entstanden? Ich habe heute 10 Minuten geschrieben.
0:10:51–0:10:54
Und ich mache ihm das gönnen. Versteht mich nicht falsch, ich mache ihm das gönnen.
0:10:54–0:10:56
Um das geht es überhaupt nicht, sondern es geht mir nur darum.
0:10:57–0:10:59
Urheberrecht hat nichts mit dem Arbeitstum, die man reinsteckt,
0:10:59–0:11:02
sondern nur mit dem Umverteilen.
0:11:02–0:11:06
Pro Nutzung. Und jetzt wichtig, wie sieht die Welt auch überreicht aus?
0:11:06–0:11:11
Sie sieht so aus, dass eigentlich alle Leute alle Werke jederzeit nutzen können
0:11:11–0:11:14
und das würde dazu führen, dass man einen viel höheren Output an kultureller
0:11:14–0:11:18
Produktion hätte und man müsste jetzt Geld anders verdienen.
0:11:18–0:11:21
Anders heisst zum Beispiel das, was jetzt auch passiert, was auch Musiker und
0:11:21–0:11:22
Musikerinnen machen live.
0:11:22–0:11:27
Anders kann Zugang heissen zu jemandem. Du könntest zum Beispiel ein Membership
0:11:27–0:11:30
machen, wo man mit dir über Sachen diskutieren kann, wenn du in einem bestimmten
0:11:30–0:11:33
Gebiet wirklich gut bist, weil das, was du schreibst in deinem Blog,
0:11:33–0:11:34
hast du nicht du alleine geschrieben,
0:11:34–0:11:37
das, was du schreibst in deinem Blog, du wirst ja nicht der Einzige sein,
0:11:37–0:11:40
der zum Beispiel über irgendein Produkt etwas schreibt. Nein, leider nicht, ja.
0:11:40–0:11:45
Und dann, wenn du dir jetzt die Generative KI vorstellst, die deinen Text verwendet,
0:11:45–0:11:48
dann verwenden sie ja alle anderen Texte auch dazu und wenn nachher irgendein
0:11:48–0:11:52
Thema, ein Faktum quasi aus dieser KI generiert wird,
0:11:52–0:11:56
mag das zwar sein, dass dein Beitrag einen Teil dazu beiträgt hat,
0:11:56–0:11:59
dass das dann so rauskommt, aber es ist halt nur ein kleiner Teil.
0:12:00–0:12:05
Und diese kleine Teilwelle zu entlöhnen, ist mit so viel Aufwand verbunden und
0:12:05–0:12:09
Restriktionen, dass am Schluss die KI-Modelle nur noch funktionieren können,
0:12:09–0:12:12
indem mit den grossen von den grossen Lizenzen geschlossen werden.
0:12:13–0:12:16
Und jetzt kommt etwas Wichtiges. Das führt dazu, dass die Open-Source-Modelle,
0:12:16–0:12:18
die immer wichtiger werden, diese Probleme bekommen.
0:12:18–0:12:24
Deshalb ist es auch interessant zu verstehen, wenn Google und OpenAI und Microsoft
0:12:24–0:12:30
verlangen, dass sie als KI-Anbieter reguliert werden, dann muss bei uns die Alarmglocke losgehen.
0:12:30–0:12:33
Wenn ein Konzern reguliert werden möchte, dann will er nicht reguliert werden,
0:12:33–0:12:37
weil es für die Gesellschaft wichtig ist, sondern weil es für den Konzern wichtig ist.
0:12:37–0:12:40
Monopol. Das ist etwas, was Peter Thiel mal geschrieben hat.
0:12:41–0:12:45
«Competition is for Losers» und das ist ihre Idee.
0:12:45–0:12:48
Und wir müssen schauen, dass Wettbewerb weiterhin besteht.
0:12:49–0:12:51
Wettbewerb von den Ideen und auch Wettbewerb von den Modellen.
0:12:52–0:12:55
Und die dürfen wir ja nicht einschränken, indem man so Urheberrechtsgesetze
0:12:55–0:12:57
macht, die dazu führen, dass die gar nicht mehr entstehen können.
0:12:57–0:12:59
Aber da sind wir an diesem Punkt ja nicht.
0:12:59–0:13:03
Wir sind nicht beim Wettbewerb von den Modellen, sondern das OpenAI war mal
0:13:03–0:13:08
da und hat plötzlich so eine Dominanz gehabt.
0:13:08–0:13:12
Also wir sehen Google, wenn du Wenn du das Paar anschaust, schafft es dich nicht,
0:13:12–0:13:14
gegen die OpenAI anzustinken.
0:13:15–0:13:19
Und dann kannst du ja geschweige dann irgendwie... Wir beiden können nicht irgendeine
0:13:19–0:13:27
KI aus dem Boden stampfen und dann erwarten, dass wir gegen OpenAI antreten
0:13:27–0:13:28
können. Nein, nein, das ist klar.
0:13:28–0:13:33
Also wir können alleine natürlich kein Foundation-Modell trainieren. Das ist richtig.
0:13:33–0:13:38
Aber es gibt bereits jenseits derer trainierte Modelle, die von anderen draussen
0:13:38–0:13:41
sind. Zum Beispiel von Stable Diffusion, erstaunlicherweise auch von Meta.
0:13:42–0:13:44
Ich muss ehrlicherweise zugeben, dass das natürlich von ihm her,
0:13:44–0:13:48
vom Zuckerberg her, einfach die letzte mögliche Strategie noch war,
0:13:48–0:13:50
nachdem sie wahrscheinlich das irgendwie verpennt haben, das halt so zu machen.
0:13:51–0:13:53
Mit dem Meta wäre es um ein bisschen aufs falsche Ross gesetzt.
0:13:53–0:13:55
Ja, aber weil sie gemerkt haben, das ist wahrscheinlich eine gute Möglichkeit,
0:13:55–0:13:58
um den anderen das Beibisschen, wir bringen unser Modell Open Source raus.
0:13:59–0:14:01
Aber für die Open Source Community ist das eigentlich eine gute Sache.
0:14:01–0:14:03
Und wenn du schauen willst, man darf das nicht unterschätzen,
0:14:03–0:14:08
es gibt im Moment eine unglaublich grosse Open Source LLM Community.
0:14:08–0:14:13
Und die wächst und die Modelle, man geht davon aus, dass eigentlich dieses Jahr die.
0:14:14–0:14:19
Das erste Mal wird passieren, dass Open Source Modelle gleich sind wie Closed Source Modelle.
0:14:20–0:14:23
Man geht darum auch davon aus, dass ChatGPT 5 das Jahr unbedingt kommen muss,
0:14:23–0:14:26
weil wir sehr bald wieder Open Source Modelle haben, die ChatGPT 4 schlagen werden.
0:14:26–0:14:29
Und das ist eine grossartige Neuigkeit.
0:14:29–0:14:33
Das ist wichtig für uns, um zu verstehen, die Large Language Models,
0:14:33–0:14:37
also die Foundation Models, die können trainiert werden von anderen. Das wird auch gemacht.
0:14:37–0:14:40
Es gibt Plattformen, wo man sich austauschen kann, wo die Modelle heruntergeladen
0:14:40–0:14:43
werden können. Es gibt Möglichkeiten nachher wieder für andere Firmen,
0:14:43–0:14:45
Das gibt es auch schon, jeden Dienstag zum Teil.
0:14:45–0:14:47
Und da frage ich mich auch wir in Europa, wir sind einfach so neben den Schuhen,
0:14:47–0:14:53
wir überlegen uns nur immer, wie können wir regulieren, während rundherum Firmen entstehen.
0:14:53–0:14:57
An den Tupac, und zwar lustig, in Amerika und in Kanada gibt es schon etwa fünf
0:14:57–0:15:00
Firmen, die über ein Milliard bewertet sind, die nichts anderes machen als Open
0:15:00–0:15:05
Source LLMs zu nehmen und diese via API auf eine saubere Infrastruktur zur Verfügung zu stellen.
0:15:05–0:15:08
Das ist etwas, was auch Swisscom machen könnte oder die Deutsche Telekom,
0:15:09–0:15:09
warum machen die das nicht?
0:15:10–0:15:12
Sondern man überlegt sich die ganze Zeit, wie man das regulieren kann,
0:15:13–0:15:16
statt dass wir einfach hergehen und Plattformen herstellen.
0:15:16–0:15:19
Und sagen, wir nehmen die Open Source Modelle, das sind unsere API,
0:15:19–0:15:20
wir machen es nachher besser.
0:15:21–0:15:25
Aber wir pennen einfach, wir pennen und jammern und haben das Gefühl,
0:15:26–0:15:30
die Welt wird besser, wenn wir irgendwie das Gefühl haben, wir dürfen das am besten einschränken.
0:15:30–0:15:32
Da liegen wir völlig falsch, wir kommen völlig auf die Welt,
0:15:32–0:15:33
wenn wir das nicht endlich begreifen.
0:15:33–0:15:37
Wir müssen das freilassen, wir müssen das laufen lassen. Natürlich müssen wir
0:15:37–0:15:40
es begleiten, natürlich müssen wir aufpassen, aber wir dürfen auf keinen Fall
0:15:40–0:15:44
jetzt mit so Ideen wie Urheberrecht eingreifen und diesen grossen Konzernen
0:15:44–0:15:46
durch das Macht in die Hände geben, die Welt zu beherrschen.
0:15:46–0:15:52
Aber glaubst du nicht, dass wir, wenn wir zu deinem Punkt kommen.
0:15:53–0:15:59
Die Übergangszeit überbrücken, ohne dass die Leute, die jetzt schon wenig mit
0:15:59–0:16:02
ihren Inhalten verdienen, dann gar nichts mehr verdienen?
0:16:02–0:16:07
Weil es ist ja tatsächlich so, wenn du einfach zum Chat-GPT gehst oder zum Microsoft
0:16:07–0:16:13
Co-Pilot und dem kannst du eine Frage stellen und er beantwortet sie dir.
0:16:13–0:16:16
Vielleicht, ich sage es jetzt einfach mal, mit Informationen,
0:16:16–0:16:20
die er auch aus meinem Blog hat, dann klickt sich niemand mehr zu meinem Blog
0:16:20–0:16:24
durch und dann die Werbung, diese kleine Werbung, die ich noch vorher verdient
0:16:24–0:16:25
habe, das ist dann völlig weg.
0:16:25–0:16:31
Also ich sehe schon, im unmittelbaren Moment sorgen die dafür,
0:16:31–0:16:37
dass die Webseiten, die eh schon getarbt haben, einfach gar keine Existenzberechtigung mehr haben.
0:16:37–0:16:42
Und ich sehe da eine Gefahr von einer riesen Verarmung, dass einfach wirklich
0:16:42–0:16:45
viele Leute empfinden, ja, es bringt gar nichts mehr.
0:16:45–0:16:50
Oder auch kleine Verlage finden, wenn gar niemand mehr sich zu uns durchklickt
0:16:50–0:16:54
und vielleicht dann mal noch ein PDF kauft, dann können wir unser Geschäft einfach
0:16:54–0:16:55
vergessen, dann fallen diese weg.
0:16:57–0:17:01
Ich verstehe mich etwas falsch, ich finde es nicht so eine tolle Idee,
0:17:01–0:17:04
diese Idee dann wirklich diesen Open AI zu zeigen.
0:17:04–0:17:09
Hör mal, wenn du jetzt halt diese Information von meinem Blog geholt hast und
0:17:09–0:17:11
sie nachher brauchst, musst du dafür etwas zahlen,
0:17:11–0:17:20
weil sonst bricht einfach diese Szene noch völlig auseinander und ist einfach weg am Schluss.
0:17:20–0:17:25
Und wenn sie weg ist, dann ist es eine Verarmung auch aus der Sicht dieser Menschheit
0:17:25–0:17:31
zu wissen. Und es ist mehr eine Notoperation oder eine Notlösung,
0:17:31–0:17:33
um das mal am Leben zu behalten.
0:17:33–0:17:36
Mit dem kannst du auch nichts anfangen. Also ich sage zwei Sachen dazu.
0:17:36–0:17:42
Das eine ist, dass du schilderisch, dass wenn man keine Aussicht mehr hat auf
0:17:42–0:17:44
Geld, dass dann kein Inhalt mehr entsteht.
0:17:44–0:17:47
Das ist das klassische utilitaristische Argument für das Urheberrecht,
0:17:48–0:17:51
das man immer wieder herbeizieht, wo man sagt, wenn man keine Aussicht mehr
0:17:51–0:17:57
hat auf Geld, dann macht man keine kreativen Outputs. und das ist einfach schon x-fach wie der Leid.
0:17:57–0:18:01
Wenn das so wäre, gäbe es keine Open-Source-Software, es gäbe deinen Blog nicht,
0:18:01–0:18:04
es gäbe meinen Blog nicht, es gäbe die Radio Stadtfilter, Kanal K und Radio
0:18:04–0:18:08
Rabi nicht, es gäbe ganz viele Sachen nicht, wenn es darum geht,
0:18:09–0:18:12
dass man kreative Output macht wegen dem Geld und das war noch schnell.
0:18:13–0:18:15
Das heisst nicht, dass man nicht kann, damit Geld zu verdienen.
0:18:15–0:18:18
Das ist wie bei Open-Source so auch da, wir müssen auch neue Modelle finden
0:18:18–0:18:19
und jetzt kommt der nächste Punkt.
0:18:19–0:18:23
Die Zeit, wo du hast können, einen Blogpost Post ins Netz stellen und dann ein
0:18:23–0:18:26
paar Fränkli bekommen pro Jahr von der Werbung.
0:18:27–0:18:31
Diese Zeit ist auch nur eine kurze Zeit her. Das konntest du vorher auch nicht.
0:18:32–0:18:38
Und als die neuen Medien auftauchten, sagten wir ja auch alle, es ändert halt etwas.
0:18:38–0:18:42
Es gibt halt den Kutscher nicht mehr, es gibt den Kollschufel auf der Locke nicht mehr.
0:18:42–0:18:46
Und ich würde jetzt mal behaupten, wir dürfen nie, das ist genau der Fehler,
0:18:46–0:18:48
den ich glaube, Europa sehr oft macht.
0:18:48–0:18:52
Wir denken immer von dem Anbüter her und überlegen uns ja, Aber wenn der seine
0:18:52–0:18:54
Brötchen nicht mehr verkaufen kann, dann haben wir ein Problem.
0:18:55–0:19:01
Aber die Welt verändert sich nie vom Anbieter her, sondern immer vom Nachfrager
0:19:01–0:19:02
und der Nachfragerin her.
0:19:02–0:19:05
Und das Problem, das der Nachfrager und die Nachfragerin haben,
0:19:05–0:19:08
ist, dass sie eine Frage stellen möchten. Sie haben eine Frage an die Welt und
0:19:08–0:19:12
sie möchten diese Frage an die Welt so gut wie möglich und so schnell wie möglich beantwortet haben.
0:19:14–0:19:18
Lösung ist Generative KI, weil die ist viel besser, also mein Bedürfnis wird
0:19:18–0:19:21
viel besser befriedigt und das heisst jetzt halt, für die Anbieter,
0:19:21–0:19:26
die bis jetzt im alten Modell Suchlisten mit 20 Links haben können existieren,
0:19:26–0:19:28
die müssen jetzt einen neuen Weg suchen.
0:19:28–0:19:30
So ist halt die Welt, es ändert sich.
0:19:31–0:19:36
Das heisst aber, dass wir wahrscheinlich müssten jetzt aufhören OpenAI und Microsoft
0:19:36–0:19:42
zu brauchen und eben selber so ein Open Source Modell trainieren auf unserem
0:19:42–0:19:46
Computer Computer und möglichst autark werden,
0:19:46–0:19:48
was KI angeht.
0:19:49–0:19:52
Brauchst du OpenAI oder findest du... Nein, nein, im Gegenteil.
0:19:52–0:19:54
Ich bin im Moment bei all diesen zahlenden Kunden.
0:19:55–0:19:59
OpenAI, Perplexity AI, Mid-Journey. Ich nutze das alles im professionellen Level,
0:19:59–0:20:02
um herauszufinden, wie gut sind sie, wie gut funktionieren sie und bin gerne
0:20:02–0:20:04
bereit, auch denen etwas zu bezahlen, weil ich finde nach wie vor,
0:20:04–0:20:05
sie bietet auch eine Leistung.
0:20:06–0:20:09
Und ich bin da in dieser Frage überhaupt nicht verblendet ideologisch oder so,
0:20:09–0:20:12
sondern ich sage mir einfach, wer mir eine gute Lieferung macht,
0:20:12–0:20:13
der soll für das auch etwas bekommen.
0:20:14–0:20:18
Und das ist mir eigentlich relativ egal, ob das OpenAI ist oder ein Open Source
0:20:18–0:20:21
Modell. Wenn es eine gute Lösung gibt, die auf einem Open Source Modell basiert,
0:20:21–0:20:22
dann nehme ich diese auch.
0:20:22–0:20:26
Und jetzt ist gerade heute oder gestern herausgekommen, dass Huggingface die
0:20:26–0:20:30
Möglichkeit bietet, eigene Avatare und eigene Bots zu machen auf Basis von Open
0:20:30–0:20:31
Source Modellen auf ihrer Plattform.
0:20:31–0:20:35
Das Huggingface ist eine lustige Plattform, die müsst ihr unbedingt ausprobieren.
0:20:35–0:20:37
Das ist so eine Experimentierweise.
0:20:37–0:20:41
Die ist wirklich spannend. kann ich nur empfehlen.
0:20:41–0:20:44
Und die bietet eben so Sachen an und es gibt noch viele andere und ich bin schon
0:20:44–0:20:48
der Meinung, wir müssen jetzt selber nicht, wir müssen damit experimentieren,
0:20:48–0:20:51
nicht unbedingt neue, eigene ganze Modelle entwickeln, das können wir nicht,
0:20:51–0:20:52
das kann nicht jeder selber machen.
0:20:53–0:20:56
Aber nachher mit diesen Modellen experimentieren, also es heisst,
0:20:56–0:21:00
solche Modelle zu dir herunterladen, Sachen probieren, wie funktionieren zum
0:21:00–0:21:04
Beispiel die RAG-Methoden, wie kann ich weitere Inhalte von mir
0:21:05–0:21:09
verbinden mit dem mit dem grossen Language-Modell und dann quasi meine Notizen,
0:21:09–0:21:11
das ist zum Beispiel etwas Geniales, was ich mir vorstelle in Zukunft.
0:21:11–0:21:16
Meine persönlichen Notizen verbunden mit einem lokalen LLM, wo ich nachher einfach
0:21:16–0:21:21
nicht mehr suchen muss, sondern nur noch Fragen stelle an mich selber. Wie geil ist das denn?
0:21:22–0:21:27
Aber jetzt trotzdem, was sagst du zu The Washington Post, oder zu The New York
0:21:27–0:21:30
Times, die sagen, wir erkennen da unsere Texte wieder.
0:21:31–0:21:36
Das Ding hat Texte, die ein normaler Leser, wenn du kommst, musst du zahlen,
0:21:37–0:21:41
dass du hinter die Paywall kommst, aber die haben die gebraucht zum Trainieren und jetzt geben die.
0:21:42–0:21:47
Verkaufen die Dienstleistung und geben unsere erarbeiteten Sachen aus.
0:21:47–0:21:51
Oder nachverrückt ihr ja bei diesen Künstlern, die sagen, ich sehe da mit Journey...
0:21:52–0:21:58
Ich erkenne meine Kunst aus dem Netz und die wird jetzt da, die Mitschörne musst
0:21:58–0:22:02
du zahlen, wenn du sie anständig brauchen willst, die bekommen Geld über und ich habe null dafür.
0:22:03–0:22:08
Hast du Empathie für diese Leute oder was sagst du denen, wenn sie sagen.
0:22:08–0:22:15
Mir ist deine Vision in Ehre, aber ich möchte für diese Leistung entlöhnt werden.
0:22:15–0:22:16
Was sagst du so jemandem?
0:22:16–0:22:20
Genau, also vielleicht, ich habe natürlich Empathie für alle Menschen, ich bin Humanist, oder?
0:22:20–0:22:26
Genau. Also von dem her, grundsätzlich, klar kann ich verstehen, dass man das so sieht.
0:22:26–0:22:29
Was ich zwar nicht ganz verstehen kann, ist oft, bei Gründung ist es im Urheberrecht
0:22:29–0:22:32
immer wieder so, das ist gerade auch wieder lustigerweise im deutschsprachigen
0:22:32–0:22:35
Raum vor allem und bei den Franzosen auch, dass man zum Beispiel sieht,
0:22:35–0:22:38
an den Creative Commons Lizenzen, wir im europäischen Raum,
0:22:38–0:22:42
wir nutzen oft eine Non-Commercial Lizenz bei Creative Commons.
0:22:42–0:22:47
Also wir finden oft, ich gebe das zwar frei, aber es darf niemand mit dem Geld verdienen.
0:22:47–0:22:51
Und das ist etwas, das ich nicht verstehen und nicht nachvollziehen kann,
0:22:51–0:22:56
weil ich sage mir immer, wenn ich mein Werk nicht monetarisieren kann und es
0:22:56–0:22:57
irgendjemand anderer aber kann,
0:22:57–0:23:01
dann hat er mir ja nichts weggenommen, sondern die andere Person hat einfach
0:23:01–0:23:03
offenbar etwas geschafft, was ich nicht geschafft habe.
0:23:03–0:23:09
Aber ich glaube, da bist du weniger besitzergreifend als viele andere,
0:23:09–0:23:15
die finden, ich habe etwas gemacht und ich schaffe es einfach nicht,
0:23:15–0:23:18
den Kontrollverlust völlig frei zu geben.
0:23:18–0:23:24
Genau, aber das hat mit der strukturellen Verankerung dieser abstrusen Idee
0:23:24–0:23:25
des geistigen Eigentums zu tun.
0:23:25–0:23:29
Das hat damit zu tun, dass du glaubst, dass der Blogpost, den du geschrieben
0:23:29–0:23:30
hast, dein Eigentum ist.
0:23:31–0:23:34
Und wenn du dich von dem loslösen könntest, indem du dir sagst,
0:23:34–0:23:37
ich habe es zwar geschrieben, aus mir ist es herausgekommen,
0:23:37–0:23:40
aber es ist nicht mein Eigentum, sondern es ist unser aller Eigentum,
0:23:40–0:23:41
dann hättest du kein Problem damit.
0:23:41–0:23:44
Aber dann finde ich doch, der jetzt...
0:23:44–0:23:49
Der Geistesblick oder die Anekdote, die ich jetzt hier rein gebracht habe und
0:23:49–0:23:54
die jetzt aus dem Blogpost, der vielleicht zuerst einen mittelmässigen Blogpost
0:23:54–0:23:58
gemacht hat, einen genialen Blogpost macht, die ist aus meinem Kopf gekommen
0:23:58–0:23:59
und die hat mit meinem Leben zu tun.
0:24:00–0:24:06
Da musste ich mal... Ich gebe jetzt den leidenden Künstler, der musste zuerst
0:24:06–0:24:11
ganz schlimme Sachen erleben, dass er seine Kunst in die Höhe aufschieben konnte.
0:24:11–0:24:16
Ich habe geritten für meine Kunst, also will ich jetzt auch etwas für meine Kunst.
0:24:16–0:24:20
Und ich will zumindest bestimmen, wer was damit machen darf.
0:24:20–0:24:26
Und nein, irgendein Nazi darf nicht mit meinem Motiv auf seiner Flagge herumlaufen,
0:24:26–0:24:28
wenn er gegen Ausländer hetzt.
0:24:29–0:24:30
Das wäre dann zum Beispiel auch
0:24:30–0:24:34
noch etwas, das in diesen Kontrollbereich einfallen würde, vielleicht.
0:24:34–0:24:37
Ja, das ist definitiv auch eines der schlagenden Argumente, die immer kommen,
0:24:37–0:24:40
wenn der Nazi das nimmt. Natürlich nicht.
0:24:41–0:24:46
Ich verstehe auch das, aber es hängt auch alles zusammen mit dem Irrglauben,
0:24:47–0:24:52
dass das, was du produziert hast, dir allein gehört. Das Deine ist nicht dir alleine.
0:24:52–0:24:55
Das ist wichtig zu verstehen. Das ist übrigens auch sonst interessanter,
0:24:55–0:25:00
weil sonst in der Welt akzeptieren wir das. Zum Beispiel, wenn du ein Haus hast, das dir gehört.
0:25:00–0:25:04
Das Haus gehört ganz allein dir. Du hast es allein gekauft, es ist mit deinem
0:25:04–0:25:08
Geld erwirtschaftet und trotzdem hast du nicht die komplette Kontrolle über
0:25:08–0:25:10
das Haus. Du kannst zum Beispiel nicht einfach eine gelbe Farbe herstreichen.
0:25:11–0:25:13
Dann kommt der Denkmalschutz, dann kommt der Ortsbildschutz,
0:25:13–0:25:16
dann kommen die Nachbarn usw. Obwohl das dein Haus ist.
0:25:16–0:25:21
Und man akzeptiert bei ganz vielen Eigentumstexten oder Eigentumselementen,
0:25:21–0:25:24
akzeptieren wir, dass wir nicht eine hundertprozentige Kontrolle haben.
0:25:24–0:25:29
Und beim Urheberrecht, da haben wir das Gefühl, alles was aus meinem Kopf rausbrunzelt,
0:25:29–0:25:32
ist nachher mir. Und vielleicht noch wichtig, du hast vorhin etwas Wichtiges gesagt, du hast gesagt,
0:25:33–0:25:34
Du hast den Text gemacht, das
0:25:34–0:25:38
ist in deinem Kopf passiert. Ich frage dich dann, wer bist denn das Du?
0:25:38–0:25:41
Also wie ist denn das entstanden? Was macht denn das aus? Also warum bist du das?
0:25:41–0:25:44
Weil letztendlich ist das, was in deinem Kopf ist, das bist ja nicht einfach
0:25:44–0:25:47
du, weil du hast ja auch Geschenke bekommen von allen anderen rundherum.
0:25:47–0:25:52
Dass überhaupt etwas in deinem Kopf ist, ist da, weil ich zum Beispiel mit dir jetzt rede.
0:25:53–0:25:56
Und andere Leute haben auch mit dir geredet. Und die Welt da aussen existiert.
0:25:56–0:25:59
Es kann gar nicht sein, dass das mit dir alleine zu tun hat.
0:25:59–0:26:03
Es ist einfach bei dir eine Art von Manifestation. aber du bist ein Teil von
0:26:03–0:26:06
einem grossen, grossen geistigen Kollektiv, oder?
0:26:07–0:26:10
Um das jetzt mal so bildlich darzustellen, ich bin aber überhaupt nicht spirituell
0:26:10–0:26:13
drauf in dieser Frage, sondern ich gehe ganz gut darum zu verstehen,
0:26:13–0:26:18
das sind alles Knoten von einem grossen geistigen Netz, von dem wir alle davon
0:26:18–0:26:20
profitieren, wenn wir es freigeben.
0:26:20–0:26:22
Das finde ich eine sehr schöne Vision.
0:26:22–0:26:26
Ich weiss einfach nicht, ob die Welt bereit ist für diese Vision, Andreas.
0:26:26–0:26:27
Ist sie nicht, ist sie nicht. Ich will sie nicht mehr erleben,
0:26:28–0:26:31
das ist mir schon klar. Aber wir müssen fast schon wieder aufhören.
0:26:31–0:26:34
Ich hätte jetzt, glaube ich, sicher noch eine Stunde weiter diskutieren mit dir.
0:26:34–0:26:38
Ich finde das sehr spannend und ich bin gespannt dann auch, was unsere Hörerinnen
0:26:38–0:26:41
und Hörer allenfalls ein Feedback dazu haben.
0:26:42–0:26:47
Ich würde einfach noch als letzte Frage von dir wissen, findest du denn die.
0:26:48–0:26:52
Also eben, ich glaube, du hast trotzdem auch das Gefühl, dass du,
0:26:52–0:26:58
wenn du etwas produzierst, in Text oder so, etwas von dir die du dir gibst und
0:26:58–0:27:02
eben auch in diese Welt rausgibst und allen zur Verfügung stellst.
0:27:02–0:27:06
Aber hast du nicht genau die Angst davor, dass dir irgendeine KI das wegnehmen
0:27:06–0:27:09
könnte, weil sie es schneller kann als du, weil sie es besser kann als du und
0:27:09–0:27:13
weil sie es maßgeschneiderter macht als du?
0:27:14–0:27:17
Nein, im Gegenteil. Also wenn eine KI mir die Arbeit abnimmt,
0:27:17–0:27:19
umso besser, dann kann ich noch besser werden. Ich kann noch mehr verstehen,
0:27:19–0:27:20
wie die Welt funktioniert.
0:27:20–0:27:24
Ich kann noch bessere Fragen an die Welt stellen und noch bessere Antworten
0:27:24–0:27:26
wieder generiere, Mithilfe habe ich als Werkzeug.
0:27:26–0:27:31
Und ich muss schon sagen, meine Gedanken, die ich mir zu dem Urheberrecht mache,
0:27:31–0:27:35
das ist auch wieder gelesen an verschiedensten Stellen, das sind verschiedene
0:27:35–0:27:35
Sachen, die mich inspirieren.
0:27:36–0:27:41
Wenn ich da jetzt schneller zum Ziel komme, quasi auch zum guten Argument finde, umso besser.
0:27:41–0:27:44
Und ich muss einfach sagen, letztendlich, was ich wichtig finde,
0:27:44–0:27:46
ich möchte auch noch so einen Abschluss mitgeben an die Leute.
0:27:46–0:27:52
Ich glaube, man muss in dieser Frage unbedingt den Kleingeisten wegputzen und grossmütig werden.
0:27:52–0:27:56
Denn letztendlich ist das grosse Geniale wirklich die Vision,
0:27:56–0:28:03
die Vorstellung, dass wir alle auf dieser Welt auf alles Wissen jederzeit zugreifen
0:28:03–0:28:06
können und uns miteinander dazu austauschen. Dort müssen wir herkommen.
0:28:07–0:28:10
Und das ist einfach genial, diese Vorstellung. Für alle.
0:28:11–0:28:15
Andreas von Gunther, ganz herzlichen Dank, dass du hier warst im «Nerdfunk».
0:28:15–0:28:16
Danke, dass ich hier sein durfte.
0:28:21–0:28:30
Music.

Ist es okay, dass die Tech-Unternehmen das ganze Web als Trainingswiese für ihre Bots und ihre Bilder-Generatoren verwenden? Oder ist das ein Betrug an den Urheberinnen und Urhebern, die ihr Wissen, ihre Kreativität und ihre Werke zur Verfügung stellen, damit die Bots hinterher – oftmals gegen Geld – so tun, als ob alles wüssten und alles könnten? Oder müssten die Tech-Unternehmen die Menschen entschädigen, deren Material sie fürs Training ihrer Modelle verwenden?

Andreas Von Gunten hält das für eine, Zitat, Schnapsidee und findet, die KIs würden diese Informationen nutzen, so wie wir Menschen anhand von Artikeln, Büchern und Kunstwerken lernen. Er hat diese These neulich auf Linkedin vertreten, woraufhin sich eine längere Diskussion entspannte – weil Matthias anderer Meinung ist.

Aber weil es sich auf Linkedin schlecht diskutieren lässt, besprechen die beiden diese Frage im heutigen Nerdfunk. Andreas Von Gunten ist Verleger. Er engagiert sich beim Verein Digitale Gesellschaft, die für Offenheit, Grund- und Menschenrechte im Netz kämpft. Und er bezeichnet sich als «linkslibertärer Humanist».

Weitere Themen im Gespräch sind die Frage, welchen Einfluss der KIs auf die Produktion von Inhalten, Büchern und Texten im Netz haben, wie Von Gunten selbst KIs einsetzt und ob er die Bots als Bedrohung wahrnimmt, weil sie seinen Job als Autor machen könnten. „Müssen Chatbots Lehrgeld zahlen?“ weiterlesen

Wenn Handy und PC sich nicht vertragen

Transkript anzeigen (falls vorhanden)

00:00–0:00:12
Music.
0:00:12–0:00:17
Jenny Fflall, ich weiss nicht, wie man das ausspricht, ich entschuldige mich
0:00:17–0:00:23
für, wenn es falsch war, mit den Classic Objects. 3, 2, 1.
0:00:24–0:00:29
We're Downtown Boys and you're listening to Radio Schatzfilter.
0:00:30–0:00:34
Hallo Downtown Boys, Downtown war wahnsinnig viel los.
0:00:34–0:00:38
Als ich ins Studio gekommen bin, bin ich fast nicht ins Studio gekommen,
0:00:38–0:00:43
weil ich unterwegs fast stecken geblieben wäre in so einer Horde von Basler.
0:00:43–0:00:45
Digi-Chris, ist das dir auch so gegangen?
0:00:45–0:00:50
Nein, eigentlich nicht, aber ich habe einfach am Bahnhof ein paar Uniformierte gesehen.
0:00:51–0:00:55
Also wirklich eine Krawallmontur. Der Zug war lustigerweise leer,
0:00:55–0:01:01
aber gut, der kommt von Zürich Habe. Ich habe meinen Fussball-Experten gefragt
0:01:01–0:01:05
und ich habe bestätigt, heute spielt Vinti gegen den FC Basel.
0:01:06–0:01:09
Und wer gewinnt da, frage ich so als Laie.
0:01:09–0:01:14
FC Winterthur wahrscheinlich, oder? Also ich habe immer schon gesagt,
0:01:14–0:01:18
ich habe für den Underdog grundsätzlich Sympathie daher.
0:01:18–0:01:21
Und natürlich, ich könnte jetzt auch nichts anderes sagen als auf dem Radio.
0:01:21–0:01:26
Also ich drücke Vinti den Daumen. Also Kevin, ich nehme an, du bist wegen diesem
0:01:26–0:01:29
Basler heute nicht ins Studio gekommen, oder?
0:01:29–0:01:33
Genau wegen dem. Da habe ich Angst. Genau.
0:01:33–0:01:37
Aber es ist Teil unseres DfD gegeben. Ich arbeite ja in Altstetten und dort
0:01:37–0:01:40
ist auch ein Fussballstadion in der Nähe.
0:01:40–0:01:46
Und wenn je nachdem ein Fussballspiel ist, ja hast du ein Problem deinen Zug zu erreichen.
0:01:46–0:01:49
Also ich bin ein-, zweimal reingelaufen. Gut, da war ich halt eine halbe Stunde
0:01:49–0:01:55
später zuhause. Die machen tatsächlich die Co-Prompto zu. Ah, okay.
0:01:55–0:02:04
Wenn die halt extra Sachen ankommen. Gerade bei so kritischen Matches wie FC Basel, Zürich.
0:02:04–0:02:10
Also in der Regel versuche ich schon schnell zu schauen, wenn spielt Basel oder wenn spielt Zürich.
0:02:10–0:02:13
Und dann machst du dann Homeoffice oder gehst um 3 nach Hause.
0:02:13–0:02:15
Genau, das kannst du immer machen.
0:02:15–0:02:20
Ich habe noch ein Foto gemacht von diesen Leuten. und dann ist ein Schwalb Bier dafür zurückgekommen.
0:02:20–0:02:24
Wenn es im Studio nach Bier riecht, ist das ein bisschen wie in einem Basler.
0:02:26–0:02:29
Die sind nicht so richtig höflich, sind sie nicht.
0:02:29–0:02:33
Wenn man findet, man kommt jetzt hier in diese schöne Wintertour,
0:02:33–0:02:37
dann könnte man mir ein Bier anbieten, aber nicht auf dem Luftweg.
0:02:38–0:02:45
Oh je. Also, ich glaube, wir machen jetzt nicht Pre-Show für den Fussball,
0:02:45–0:02:48
sondern wir machen Pre-Show für den der Nerdfunk.
0:02:49–0:02:54
Wir haben nicht mehr viel Zeit, aber habt ihr sonst etwas erlebt diese Woche?
0:02:55–0:02:59
Ich bin wieder fit, zum Glück. Letzte Woche war es nicht so der Hit,
0:03:00–0:03:01
aber jetzt geht es wieder.
0:03:02–0:03:07
Irgendjemand, Kevin an Schwank, den man noch schnell in einer Minute erzählen müsste.
0:03:07–0:03:12
Mein Restaurant-Projekt mit meinen Lernenden war am Sonntag. Ui, wie war es?
0:03:14–0:03:21
Ui, grossartig. Die haben richtig abgeliefert. Ich bin stolz und berührt und erleichtert.
0:03:22–0:03:26
Vielleicht in einer anderen... Erleichtert, berührt und stolz. All und Sechser.
0:03:29–0:03:32
Eigentlich ja. Ja, sie haben es wirklich gut gemacht.
0:03:32–0:03:38
Also eigentlich wirklich eine gute Erfahrung. Zur Nachahmung empfohlen, könnte man sagen.
0:03:38–0:03:43
Also das sollte jetzt auch deine Lehrerspende... Es braucht ein bisschen Nerven.
0:03:44–0:03:47
Es braucht Nerven, es braucht Aushalten, es braucht Geduld.
0:03:49–0:03:52
Aber der Lerneffekt war da und sie sind am Schluss gekommen und haben gesagt,
0:03:53–0:03:54
können wir das im Sommer nochmal machen?
0:03:55–0:03:57
Und ich habe gefunden, ficken wir das. Nie mehr.
0:03:59–0:04:04
Nie mehr, ich mag nicht mehr. Genau, vielleicht müsst ihr euch dann ein anderes
0:04:04–0:04:05
Projekt einfallen lassen.
0:04:05–0:04:08
Wollt ihr einen Buddy betreiben oder so? Oder wie?
0:04:10–0:04:15
Das wäre mega gut. Wer ist für die Wurst zuständig und wer ist der Badmeister?
0:04:15–0:04:19
Ja, ich würde das schon sehen. Wer ist für die Glatze? Ja.
0:04:19–0:04:22
Genau. Und für die Gummischlangen.
0:04:22–0:04:30
Genau, aber jetzt geht's los, ganz pünktlich mit unserer traditionellen Kummerbox-Live-Sendung.
0:04:30–0:04:45
Music.
0:04:31–0:04:31
Untertitelung des ZDF, 2020,
0:04:44–0:04:49
Wir machen heute wie jeden letzten Dienstag vom Monat Kummerbox live.
0:04:49–0:04:53
In dieser Sendung behandeln wir die Computerprobleme, die ihr uns per Mail oder
0:04:53–0:04:58
über die sozialen Medien oder so zugelegt habt. Wenn es per Mail war,
0:04:58–0:05:01
dann auf nerdfunk.at stattfilter.ch.
0:05:01–0:05:04
Ihr könnt auch anrufen mit akuten Problemen im Studio.
0:05:05–0:05:08
Die Nummer ist 052 203 31 00.
0:05:09–0:05:12
Das Gästebuch auf stattfilter.ch wäre auch offen.
0:05:12–0:05:17
Und der Hannes hat geschrieben, in meinem Windows 10 habe ich im Explorer die
0:05:17–0:05:23
Ordneransicht festgelegt, Details mit gewünschten Spalteninfos und Spaltenreihenfolge
0:05:23–0:05:26
und zwar über, ja, also eben über den Befehl, wo man das macht.
0:05:26–0:05:32
Wenn ich mit meinem Android 13 Samsung Handy mit USB am Computer es anschließe,
0:05:33–0:05:37
um Dateien auszutauschen, möchte ich die Ansicht für die Ordner des angeschlossenen
0:05:37–0:05:39
Geräts ebenfalls festlegen können,
0:05:40–0:05:44
sodass es auch beim zukünftigen Anschliessen des Geräts in gewünschter Form
0:05:44–0:05:47
erscheint, um effizienter arbeiten zu können.
0:05:47–0:05:51
Und jetzt macht das Windows, zeigt das Handy.
0:05:51–0:05:56
Ich finde ja schon mal bemerkenswert, Chris, da hat es einen Mann,
0:05:56–0:06:01
der Datenaustausch macht, indem er sein Handy anschließt und Computer macht.
0:06:01–0:06:03
Wann hast du das zum letzten Mal gemacht?
0:06:03–0:06:08
Das ist eine Weile her. Ich glaube, ich musste einen grösseren Day wegziehen
0:06:08–0:06:09
und dann kam mir gerade in den
0:06:09–0:06:13
Sinn, ich glaube, mit meinem wahrscheinlich allerersten Android oder so,
0:06:13–0:06:18
konntest du das reinstecken und es wurde wie ein USB-Sticker erkannt, aber irgendwann,
0:06:19–0:06:22
ich glaube sowohl auf Mac als auch auf Windows,
0:06:22–0:06:24
musstest du eine App installieren.
0:06:24–0:06:29
Ich glaube, da liegt der Hund begraben, weil das wahrscheinlich ihre eigene App ist.
0:06:29–0:06:36
Oder ein Treiber oder so. So was, dass er dann halt deine Windows-Einstellungen nicht übernimmt.
0:06:36–0:06:40
Das war jetzt meine spontane Idee, aber ich hatte das Handy wahrscheinlich ewig
0:06:40–0:06:44
nicht mehr am PC, außer die Kette hat man tatsächlich aufladen müssen oder so.
0:06:44–0:06:49
Ja, ich habe ihm dann geschrieben, ja, schon recht, wie du das machst,
0:06:49–0:06:52
aber willst du nicht gescheiter, eine moderne Variante nehmen?
0:06:52–0:06:59
Es gibt das Microsoft Smartphone Link, wo du direkt Daten austauschen kannst.
0:06:59–0:07:04
Oder das HP Quick Drop wäre auch eine gute Sache.
0:07:04–0:07:08
Das kann man auch, wenn man keinen HP Rechner hat. Ich glaube, der macht das.
0:07:09–0:07:15
Ohne Cloud oder nur ganz schnell mit Cloud oder du kannst auch das AirDisk Pro
0:07:15–0:07:20
für das iPhone und die Links dazu zu all diesen Empfehlungen findet ihr dann in den Show Notes.
0:07:21–0:07:26
Es gibt wirklich mehrere Methoden, wie man seine Daten austauschen kann,
0:07:26–0:07:32
ohne dass man das Kabel brauchen würde und ohne dass man das immer noch zuerst
0:07:32–0:07:35
suchen muss, wenn man eine Datei austauschen möchte.
0:07:35–0:07:39
Das AirDisk Pro ist eine ganz charmante Lösung, auch ganz ohne Cloud.
0:07:40–0:07:44
Oder die Owlfile-App, die habe ich erst vor kurzem entdeckt.
0:07:45–0:07:50
Da kann man einfach ein Freigab machen, ein Laufwerk freigeben auf seinem Windows-Rechner
0:07:50–0:07:54
und sieht dann das auch am Handy und kann dort Sachen reinbringen oder in beide
0:07:54–0:07:55
Richtungen kann man es brauchen.
0:07:56–0:08:03
Also Kevin, bist du ein Vertreter von Kabel, wenn es um Handys und PCs geht?
0:08:03–0:08:06
Nein, aber ich muss das manchmal auch machen.
0:08:07–0:08:14
Manchmal ist es einfach auch, ein iPhone auf ein neues iPhone zu nehmen. Ja.
0:08:14–0:08:19
Das ist ohne iCloud, ist das ein richtiger Scheiss.
0:08:19–0:08:23
Und dann muss ich es mit dem Kabel machen und iTunes.
0:08:24–0:08:28
Und ich habe so Kunden, wo ich das machen muss. Ich mache es nicht mehr.
0:08:29–0:08:35
Für den Alltag ist es schon etwas umständlich, oder? oder? Also ich finde, ja, keine Ahnung.
0:08:37–0:08:44
Definitiv. Ich habe noch zu dieser Situation mit dem Handy, ich habe das nämlich auch schon gehabt,
0:08:45–0:08:52
dass gewisse Handys immer wieder in der Standardansicht, wo du die ganzen Ordner
0:08:52–0:08:56
siehst, das ist ja die Standardansicht von Windows, dass du ganze Ordner siehst.
0:08:56–0:08:59
Ja, genau. Und nachher die Liste und die Details und so, das ist ja Bonus,
0:08:59–0:09:01
aber die Standardansicht ist Ordner.
0:09:01–0:09:05
Und mir hat mal jemand gesagt, als ich meinen PC auskam, dass das Problem ist,
0:09:06–0:09:11
dass gewisse Handys immer wieder als neues, ich sage jetzt mal unbekanntes Gerät
0:09:11–0:09:15
erkannt werden und kehrt darum immer wieder auf die Standardansicht zurück.
0:09:15–0:09:21
Und gewisse Handy, dort checkt er, ah, es ist der gleiche Datenträger und merkt sich die Ansicht.
0:09:21–0:09:27
Der hat mir das so erklärt. Weil ich hatte das, dass bei mir einzelne Speicherkärtchen
0:09:27–0:09:29
das eben auch machen. Ja, ja.
0:09:29–0:09:33
Und das ist, die alten Speicherkärtchen machen das, die neuen machen es nicht mehr.
0:09:33–0:09:37
Und der hat mir gesagt, weil er jedes Mal das Gefühl hat, das ist ein neues
0:09:37–0:09:41
Kärtchen, mit dem ist noch nie etwas gemacht worden, ich zeige dir einfach die Standardansicht.
0:09:41–0:09:49
Genau, ich habe dann probiert herauszufinden, wo und wie Windows die Ordnerdarstellungen speichert.
0:09:49–0:09:52
Weil das ist ja genau der entscheidende Punkt.
0:09:53–0:10:00
Er müsste ja den Datenträger wiedererkennen, damit er vorher eingestellte Ansichten machen könnte.
0:10:00–0:10:10
Oder er müsste, und bei Mac-Anwender, die kennen das mit diesen Desktop-Dateien,
0:10:10–0:10:12
die der Mac überall hinterlässt.
0:10:12–0:10:14
Das Punkt irgendwas, ja.
0:10:14–0:10:17
Genau, mir fällt es jetzt auch gerade nicht mehr ein. Bei Windows gibt es zum
0:10:17–0:10:24
Teil Desktop-Ini oder den Thumbs-DB, da speichert er dann seine Icons zwischenspeichern.
0:10:24–0:10:32
Aber zum Teil kommt auch Registry zum Einsatz, das heisst Shell Bags,
0:10:32–0:10:37
da gibt es irgendwo so einen Ast, wo das D gespeichert ist.
0:10:37–0:10:42
Und wenn du versuchst zu verstehen, wie das funktioniert und wie das Windows
0:10:42–0:10:46
macht, dann merkst du einfach, es ist nie dokumentiert, es weiss es niemand so genau.
0:10:46–0:10:51
Genau, Microsoft hat es auch nicht für nötig befunden, irgendwie den Leuten das zu erklären,
0:10:51–0:10:55
dass man vielleicht sagen könnte, okay, wenn man jetzt dem Gerät vielleicht
0:10:55–0:10:59
einen eindeutigen Namen geben kann oder dem Speichermedium,
0:11:00–0:11:04
dass es nicht einfach unnamed heisst, oder dann hast du 20 unnamed und dann
0:11:04–0:11:07
merkt er, dass es doch wieder etwas anderes ist und du hast dann seinen Shell-Bag
0:11:07–0:11:11
halt wieder weg oder so, dann könntest du das vielleicht machen.
0:11:11–0:11:15
Aber Microsoft hat das nicht dokumentiert und darum würde ich jetzt sagen,
0:11:15–0:11:21
Es ist wahrscheinlich vergebene Liebesmühe, das hier anzuzwingen.
0:11:21–0:11:24
Vermutlich, und er hat ja ein relativ modernes Handy,
0:11:24–0:11:29
also ja, es scheint wahrscheinlich ein Bug zu sein und eben da die Anzahl der
0:11:29–0:11:33
Leute, die das Handy via Kabel betreiben, eher zurückgeht,
0:11:33–0:11:39
wird vielleicht Microsoft oder auch der andere Hersteller da jetzt nicht unbedingt
0:11:39–0:11:43
leider die grösste Priorität ins Fixing von diesem Bug investieren.
0:11:43–0:11:47
Genau, weil die Hersteller finden sowieso, alle brauchen unsere Cloud,
0:11:47–0:11:53
zahlen uns extra für das OneDrive und so, also hört auf mit diesen Kabeln.
0:11:53–0:11:56
Und das finde ich auf eine Art auch ein bisschen schade, weil ich glaube,
0:11:56–0:11:59
es gibt schon Gründe, auch das nicht via Cloud zu machen.
0:12:00–0:12:04
Aber eben, es gäbe so das Mittelding, wo man ohne Cloud,
0:12:04–0:12:08
aber doch auch ohne Kabel und dann, wenn du sagst, schiebe mir jetzt einfach
0:12:08–0:12:15
die Datei von diesem Gerät da über und aufs andere, dann kommt das dann auf
0:12:15–0:12:17
dem Windows zum Beispiel an in der richtigen Ansicht.
0:12:17–0:12:21
Aber ich weiss ja nicht genau, was er dann da mit seinem Handy und seinen Daten macht.
0:12:21–0:12:29
Also, ein Hörer hat auf Twitter geschrieben und hat gesagt, ich kann im Safari-Browser
0:12:29–0:12:31
die Videos von SRF Play nicht abspielen.
0:12:32–0:12:34
Der Player erscheint nicht.
0:12:34–0:12:36
Da habe ich etwas falsch eingestellt im Browser.
0:12:37–0:12:44
Auf dem Firefox-Browser funktioniert es. und dann, ja, DigiChris, an was könnte es liegen?
0:12:46–0:12:51
Also eben, er sagt, auf dem Firefox funktioniert es, also es kann nicht sein,
0:12:51–0:12:55
dass er jetzt irgendein VPN am Laufen hat, wo er halt sagt, ich weiss nicht,
0:12:55–0:12:58
in Vietnam oder so, also das können wir ja mal ausschliessen.
0:12:59–0:13:03
Ich glaube, da ist vermutlich, und ich muss sagen, ich nutze auch meine Mac
0:13:03–0:13:08
an der Safari so gut wie nie, dass da vielleicht irgendeine Extension ist,
0:13:09–0:13:10
die das einfach kaputt macht.
0:13:10–0:13:14
Also es kann ein Adblocker sein oder eben sonst eine Security-Software,
0:13:15–0:13:19
wo halt vielleicht, es müsste wahrscheinlich wie ein HTML5 laufen,
0:13:19–0:13:21
aber wo das Zeug doch blockt.
0:13:21–0:13:24
Man weiss jetzt nicht genau, ich habe dann einfach vermutet,
0:13:24–0:13:30
eben ein Safari-Browser, das könnte entweder natürlich ein Mobilgerät sein,
0:13:30–0:13:34
also ein Tablet, ein iPhone oder es könnte ein Mac sein.
0:13:34–0:13:39
Und das gibt ein bisschen unterschiedliche Fehlerbehebungsmassnahmen.
0:13:39–0:13:44
Also Kevin, am Telefon kannst du nicht wahnsinnig viel machen,
0:13:44–0:13:47
weil dann kannst du den Safari abschiessen und das Telefon neu starten und viel
0:13:47–0:13:49
mehr kannst du nicht machen, oder? Wüsstest du noch sonst etwas?
0:13:50–0:13:53
Nein, also ich habe nicht gedacht, dass es Erweiterungen sein könnten,
0:13:53–0:13:58
irgendeine exotische, oder vielleicht ein Adblocker.
0:13:59–0:14:04
Es wäre auch noch spannend, wenn er sagt, der Player erscheint nicht.
0:14:04–0:14:05
Es gibt wie zwei Szenarien.
0:14:06–0:14:10
Wird der Block vom Player komplett ausblendet und ist nicht da,
0:14:10–0:14:16
oder ist er schwarz? Also ein Adblock würde unter Umständen den ganzen Block
0:14:16–0:14:20
eigentlich ausblenden, dann würde man gar nicht sehen, dass es dort einen Player gibt.
0:14:21–0:14:27
Aber wenn der Player in den Grundsätzen da ist, aber nicht abspielt,
0:14:28–0:14:31
dann hat es wieder eher mit dem Browser zu tun.
0:14:31–0:14:36
Und dann ist natürlich auch wieder die Frage, von welchem Betriebssystem reden wir hier?
0:14:37–0:14:43
Ich meine, ich begegne Apple Laptops, die zehnjährig sind und dort kann es natürlich
0:14:43–0:14:49
sein, dass dann irgendwann ein Safari, weil es einfach eine alte Generation Browser ist,
0:14:50–0:14:54
diese Art Player oder diese Art Codec oder diese Art Video nicht mehr unterstützt.
0:14:54–0:14:58
Also ich glaube, da muss man mal nachfragen, von welchem Betriebssystem reden wir da?
0:14:58–0:15:03
Genau, das hilft schon immer, wenn man genau wisst, was ist es für ein Betriebssystem,
0:15:03–0:15:05
was ist es für ein Gerät überhaupt.
0:15:06–0:15:10
Und dann kann man da eher ein bisschen sagen, in welche Richtung man gehen kann.
0:15:10–0:15:17
Eben, sonst der Klassiker bei Browser-Problemen ist, ja, mal all diese Browser-Daten löschen.
0:15:17–0:15:20
Also so der ganze Cache, das hilft.
0:15:21–0:15:26
Früher, man muss wirklich sagen, früher waren diese Browser noch recht anfällige Pflänzchen.
0:15:26–0:15:30
Und heute habe ich eigentlich fast nie mehr, ich glaube, ich habe schon seit
0:15:30–0:15:32
Jahren kein Browser-Problem mehr gehabt.
0:15:32–0:15:36
Und wenn, dann kann man es wirklich lösen, indem man einfach die Cache,
0:15:36–0:15:42
also die ganze Browser-Daten entfernt und die zwischengespeicherten Webseiten
0:15:42–0:15:46
und die Logins, dann musst du die halt überall wieder nochmal einloggen und
0:15:46–0:15:48
die Cookie-Bahn akzeptieren und so,
0:15:48–0:15:51
das ist ein bisschen mühsam, aber dann geht es eigentlich wieder.
0:15:53–0:15:59
Die Erweiterungen kann man abschalten, bei den meisten Browsern muss man das von Hand machen.
0:16:00–0:16:05
Bei Firefox gibt es noch den abgesicherten Modus, den ich gerade nicht auswendig
0:16:05–0:16:07
weiss, wie man den auslöst.
0:16:07–0:16:13
Aber ihr findet dazu auch auf nerdfunk.ch all die Links, wo erklärt ist,
0:16:13–0:16:15
wie man das Browser Troubleshooting macht.
0:16:15–0:16:18
Und es ist heute wirklich nicht mehr so ein Ding wie früher.
0:16:18–0:16:21
Das ist wahrscheinlich auch für die Privaten nicht mehr so.
0:16:21–0:16:25
Was ich im Geschäft teilweise noch erlebe, es gibt ja eben, wir wissen ja,
0:16:25–0:16:28
der Internet Explorer ist ja Ruhe im Frieden.
0:16:28–0:16:31
Und der Edge hat ja einen sogenannten Legacy Mode.
0:16:31–0:16:37
Und wir haben auch gesehen, irgendwo ist ein Subsystem von uns im Legacy Mode gelaufen.
0:16:37–0:16:42
Also du hast da eine Konfigurationsdatei, die halt über Sören verregt wird und
0:16:42–0:16:45
irgendwie hat halt jemand uns falsch verstanden und hat irgendein Subportal
0:16:45–0:16:49
in Legacy-Mode geknallt und dann ist natürlich nichts mehr gegangen.
0:16:49–0:16:56
Ich nehme jetzt nicht an, dass er das in einem Unternehmensnetzwerk macht, aber einfach so Sachen.
0:16:57–0:17:01
Ja und ich glaube, da könnten wir auch mal generell zwar mit einem Webdesigner
0:17:01–0:17:04
reden, weil ich glaube, die fluchen über die Browserwände. Du musst eine Webseite
0:17:04–0:17:08
schreiben, wo du jetzt sagst, ich gehe vielleicht fünf Jahre zurück,
0:17:08–0:17:11
dort sollen sie noch laufen und sie sollen auf aktuelle Dinge laufen.
0:17:11–0:17:15
Also die tun mir leid, die arme Schwein, die diese Webseite entwickelt.
0:17:15–0:17:20
Genau, das ist heute nicht mehr so schlimm wie früher, aber es gibt dann wieder
0:17:20–0:17:23
so neue Kompatibilitätsfallen, die sich öffnen,
0:17:24–0:17:29
zum Beispiel das WebP, das neue Grafikformat, das Google mal erfunden hat und
0:17:29–0:17:31
findet, das soll jetzt die ganze Welt brauchen.
0:17:31–0:17:35
Das ist eigentlich super, hat Vorteile, es ist etwas latschnell, aber dann, Kevin,
0:17:35–0:17:38
das kennst du sicher auch, dann kommt ein alter Browser dorthin,
0:17:38–0:17:43
der das Web-Pi noch nie gehört hat von dem und dann zeigt er halt all die Bilder
0:17:43–0:17:47
nicht an und dann stehst du wieder da wie der Esel am Berg.
0:17:48–0:17:53
Irgendwie so. Darum hatte ich irgendwann keine Lust mehr auf so Bugfixing-Scheissdreck.
0:17:53–0:17:59
Gar nicht mehr. Ja, das verstehe ich. Immerhin, eben zu Internet Explorer Zeiten
0:17:59–0:18:04
hast du noch Browser-Weichen machen müssen und du hast komplett andere Codes. Auf dem Netz geht es 4-7.
0:18:05–0:18:10
Genau, genau. Also das ist, glaube ich, schöner geworden, aber perfekt ist es immer noch nicht.
0:18:10–0:18:16
Also, Simone hat mir geschrieben, sie hat nämlich ihren Job gewechselt und.
0:18:17–0:18:24
Das heisst, sie gibt dann ihr Gmail und ihr Google Drive ab und hat dort aber noch so Daten drin,
0:18:25–0:18:29
die sie gerne rausziehen will und fragt sich, wie sie das machen kann,
0:18:29–0:18:34
ohne dass sie wirklich jedes einzelne Ding und jedes Mail einzeln ausdrucken
0:18:34–0:18:36
oder weiterleiten muss.
0:18:36–0:18:41
Aber DigiChris, du als staatlich diplomierter Anwalt, darf man das überhaupt?
0:18:41–0:18:47
Darf man seine persönlichen Daten mitnehmen, wenn man den Job wechselt?
0:18:47–0:18:49
Es kommt drauf an, würde ich jetzt sagen.
0:18:51–0:18:55
Genau, das kostet jetzt 120 Franken als juristische Beratung.
0:18:55–0:18:58
Was sicher ganz klar ist, wenn du jetzt irgendwas entwickelst,
0:18:59–0:19:01
ist klar gehört, dass du ihm Arbeit geben. Genau.
0:19:01–0:19:05
Und das ist natürlich jetzt angenommen, du schreibst ihr ein Programm,
0:19:05–0:19:11
ob das jetzt SAP oder weiss ich noch was ist, wäre es wahrscheinlich schaurig,
0:19:11–0:19:14
heikel, wenn du dort gehst, würdest du mitnehmen zum Arbeitgeber.
0:19:14–0:19:17
Wenn du jetzt aber wahrscheinlich würdest gehen, Aha, ich weiss,
0:19:17–0:19:18
wie man das Problem löst.
0:19:19–0:19:24
Das gehe ich wahrscheinlich schon. Da würde ich Ihnen schon mal raten.
0:19:25–0:19:29
Vielleicht wirklich mit dem IT-Admin fragen, weil du hast im Dokument auf das
0:19:29–0:19:31
takeoutgoogle.com. Ja, genau.
0:19:32–0:19:35
Jetzt ist die Frage... Da kommt natürlich alles mit, genau.
0:19:35–0:19:40
Aber ist das, je nachdem, wenn du jetzt eben das Corporate Google-Content hast,
0:19:40–0:19:42
ist das allenfalls blockt?
0:19:42–0:19:48
Das kann sein. Also wenn der Admin, also wir müssen vielleicht erklären,
0:19:48–0:19:50
dass Takeout, da kann man ran gehen.
0:19:50–0:19:53
Bei Google, den Link findet ihr dann auch in den Shownotes.
0:19:53–0:19:56
Ein bisschen in einem anderen Zusammenhang, aber ich habe mal erklärt,
0:19:56–0:20:00
dass Google inaktive Konten löscht und dann, wenn man nicht will,
0:20:00–0:20:03
dass die verschwinden oder alles, was dort drin war, kann man das herunterladen.
0:20:03–0:20:08
Aber wenn der Admin natürlich tatsächlich auf dem Sack ist, dann hat er das blockiert.
0:20:08–0:20:11
Ja, das wäre schon so. Kann ich mir jetzt gut vorstellen, gerade bei so einem
0:20:11–0:20:15
Geschäftskonto, wenn man weiss, dass sie vermutlich immer.
0:20:16–0:20:19
Wenn eine Arbeitskollegin von dir im journalistischen Bereich ist,
0:20:19–0:20:23
dass man das nicht unbedingt will, dass das irgendjemand mitnimmt. Ja, genau.
0:20:24–0:20:27
In vielen Fällen wird das einfach nicht gehen.
0:20:27–0:20:32
Und wenn du wirklich den Fehler gemacht hast, dass du über deine geschäftlichen
0:20:32–0:20:37
Adressen auch private Sachen laufen lässt, dann ist es wahrscheinlich tatsächlich
0:20:37–0:20:41
am einfachsten, wenn du das in ein PDF umwandelst oder weiterleitest.
0:20:41–0:20:46
Oder so, ich weiss auch nicht, wenn du jetzt anfängst, Tonnen von Mails weiterleiten,
0:20:46–0:20:50
ob dann irgendwann mal nicht auch da eine Warnung anspringt.
0:20:50–0:20:54
Dann wird es immer sicher irgendein Crowdstrike oder so, dann musst du halt
0:20:54–0:20:58
irgendwie den Heiratsantrag von der Geschäftsemail an deine Frau gemacht haben,
0:20:58–0:21:01
dann musst du halt irgendwie Screenshot. Genau, genau.
0:21:01–0:21:05
Und es ist wirklich so, ich glaube, da kann man, das ist das Wichtigste wahrscheinlich,
0:21:05–0:21:11
dass man sagt, man sollte es nicht so weit kommen lassen, dass man wirklich in diese Situation
0:21:11–0:21:18
dass man dann Tonnen von Dokumenten hat, die man dann im letzten Arbeitstag rausnehmen muss.
0:21:18–0:21:23
Und da finde ich es wirklich gut, wenn man Berufliches und Privates trennt.
0:21:23–0:21:27
Ja, und ich kenne es von uns, auch wenn ich eben nicht viel mit Windows Outlook
0:21:27–0:21:30
zu tun habe, es gibt einen Prozess, wenn jetzt jemand so ein Drama verlässt,
0:21:31–0:21:34
und man dann sagt, ja, es heisst auch generell bei uns, du musst halt.
0:21:35–0:21:41
Generische E-Mail-Adressen benutzt, also accounting.at, firmenname.com und blablabla.
0:21:41–0:21:45
Aber es gibt einen Prozess, da kannst du sagen, okay, ich verlasse die Firma,
0:21:45–0:21:50
jetzt der Kevin ist mein Nachfolger, der Kevin darf Zugriff auf meine Mail haben.
0:21:50–0:21:57
Da unterschreibst du ein Dokument am HR, wo du genau sagst, Kevin darf sechs Monate, ja. Ja.
0:21:57–0:22:01
Also das ist, glaube ich, wirklich relativ heikel.
0:22:01–0:22:05
Ja, also im Zweifel eben halt, wenn es jetzt zwei Mail sind,
0:22:05–0:22:11
die halt ausdrucken, PDF tatsächlich fragen will, ja, wenn du dir eine 10-Gigabit
0:22:11–0:22:16
Take-Out abziehst, kommt, steht vielleicht mal irgendjemand bei dir und sagt, was machst du da?
0:22:16–0:22:19
Genau, es schmeckt einfach ein bisschen komisch, sogar wenn jetzt das alles
0:22:19–0:22:22
legal wäre und du kein Geheimnis hast, es ist einfach,
0:22:23–0:22:28
da kann wirklich sein, dass in einem Unternehmen dann irgendein Mechanismus
0:22:28–0:22:32
anspringt, wo die auch sagen, das ist ein verdächtiger Vorgang und gehen da mal schauen.
0:22:32–0:22:36
Dann kommt es vielleicht noch ärgerer am Schluss. Und eben, dass das noch klar ist.
0:22:36–0:22:39
Also von der juristischen Seite, ich habe jetzt da ein bisschen Weiz gemacht,
0:22:39–0:22:44
aber wir können da nicht sagen, wie es wirklich ganz genau ist,
0:22:44–0:22:46
juristisch, was man darf und was man nicht darf.
0:22:46–0:22:50
Sonst, man kann sagen, beim Google Drive, dort würde ich einfach schauen,
0:22:50–0:22:53
dass alles, was man wirklich mitnehmen will, in einen Ordner hineinschüffeln.
0:22:54–0:22:57
Und wenn es immer unter Ordner drin ist, dann kannst du den auf der obersten
0:22:57–0:22:59
Ebene anklicken und dann abladen.
0:22:59–0:23:03
Also dann kannst du einfach den Ordner mit diesen Dokumenten abladen und ich
0:23:03–0:23:09
nehme an, sie ist Journalistin, also wenn es da einfach noch irgendwie Rohfassungen
0:23:09–0:23:12
von irgendwelchen Texten drin sind und so, dann wäre das, dann würde ich das
0:23:12–0:23:13
auch kein Problem sehen.
0:23:14–0:23:20
Aber Gmail in grösserer Anzahl ist einfach mühsam, das rauszunehmen.
0:23:21–0:23:24
Wir könnten dann noch probieren, eben vielleicht das halten,
0:23:24–0:23:30
das Gmail-Konto in einem anderen Mail-Programm einzubinden, was vielleicht geht
0:23:30–0:23:34
oder vielleicht auch nicht, je nach Konfiguration, uns dann dort.
0:23:35–0:23:40
Z.B. bei Thunderbird, dann dort eine Offline-Kopie ziehen, indem du das alles
0:23:40–0:23:47
überkopierst aus dieser Online-Ablage in dieses lokale Verzeichnis.
0:23:47–0:23:50
Es gibt glaube ich auch eine Software, wie nennt sich das? Mail Store?
0:23:51–0:23:54
Ja, Mail Store. Ich habe das, genau. Und das ist glaube ich auch teilweise tatsächlich,
0:23:55–0:23:58
also ich glaube Proversion ist tatsächlich auch, wie sagt man,
0:23:58–0:24:03
audit- und gerichtssicher, aber eben wenn natürlich nicht die Erlaubnis ist,
0:24:03–0:24:05
und ich nehme an, sie hätten kein Admin-Recht auf der Kiste,
0:24:06–0:24:07
dann würde es auch bleiben lassen.
0:24:07–0:24:10
Genau, man kann da überall wirklich in Probleme laufen.
0:24:11–0:24:15
Aber wir sagen jetzt mal, es könnte ja tatsächlich sein, dass man das auch in
0:24:15–0:24:19
einem privaten Umfeld macht, dass man aus was für einem Grund auch immer sein
0:24:19–0:24:23
Google-Konto umziehen oder auseinander dividieren möchte.
0:24:23–0:24:28
Du hattest mit deiner Frau ein gemeinsames Google-Konto und dann läuft es nicht
0:24:28–0:24:33
mehr so gut. Du findest, jetzt müssen wir es vielleicht doch auseinander dividieren.
0:24:33–0:24:36
Ich glaube, es wäre ein Thema für eine eigene Sendung. Irgendwann habe ich auch
0:24:36–0:24:38
mal etwas gelesen, dass je nachdem.
0:24:39–0:24:42
Wenn du, ich sage jetzt, Social Media machst für eine Firma X,
0:24:42–0:24:51
und du kannst, dass sie anscheinend dein Instagram-Konto herausfordern können. Ah sogar, ja.
0:24:51–0:24:55
Also das wäre vielleicht wirklich mal, je nachdem, wenn wir wirklich mal einen
0:24:55–0:24:57
Anwalt da haben, das wäre auch noch ganz spannend.
0:24:57–0:25:03
Und wenn du tatsächlich erkennbar für Unternehmen X und Sozialnetzwerke X schaffst...
0:25:03–0:25:08
Das kannst du nicht mehr, das X kannst du nicht mehr brauchen als Variable.
0:25:09–0:25:13
Digichrist, du musst auch in all deinen Programmen das X austauschen.
0:25:13–0:25:19
Also genau, da lohnt es sich im Voraus daran zu denken, wie es wäre,
0:25:19–0:25:22
wenn man das auseinanderdividieren würde.
0:25:22–0:25:25
Aber ich glaube, der Mailstore war wirklich ein guter Tipp.
0:25:26–0:25:30
Das ist zum Archivieren von E-Mails super.
0:25:31–0:25:38
Er kann auf jedes Programm zugreifen, auf jede Web-Ablage, also Web-Mail kann
0:25:38–0:25:44
er einziehen und er komprimiert es, archiviert es, du hast eine Volltextsuche.
0:25:44–0:25:49
Es gibt das für das Geschäftsumfeld, da kostet es etwas, aber als Privatanwender
0:25:49–0:25:52
darfst du es gratis kaufen. Du hast, glaube ich, ein paar Limitationen,
0:25:52–0:25:55
aber wie gesagt, wenn es dann halt auch, ich sage jetzt.
0:25:56–0:25:59
Eben, gerichtlich soll es verwertbar werden, dann zahlst du halt ein paar Tausend Franken.
0:25:59–0:26:05
Aber ja, wenn jetzt deine eben 200 Mails von deinem alten Hotmail-Konto willst,
0:26:05–0:26:07
die du löschen willst, dann sollte das gut sein.
0:26:07–0:26:12
Und ja, das verhebt. Also ich habe das mal benutzt und es hat soweit funktioniert.
0:26:12–0:26:15
Genau. Und sonst ist wirklich eben das Thunderbird gut.
0:26:15–0:26:21
Dann hast du ja die Teilung zu deinen Konten, die du im Netz hast,
0:26:21–0:26:27
auf dem Server arbeiten kannst und dann kannst du dort Mails aus dem eigentlichen
0:26:27–0:26:30
Konto in die lokale Ablage überziehen.
0:26:30–0:26:34
Du kannst sie entweder kopieren oder verschieben und wenn du sie verschiebst,
0:26:34–0:26:39
dann sind sie aus dem Web draußen, also vom ursprünglichen Webserver,
0:26:39–0:26:42
und du hast sie dann in deiner lokalen Kopie.
0:26:42–0:26:46
Und das ist auf eine Art eben auch noch gut. Aber es gab ja mal den Fall,
0:26:46–0:26:53
wo Swisscom eine gerichtliche Anordnung bekommen hat, ein paar Mails rauszurucken.
0:26:54–0:26:58
Und dann haben sie gefunden, wir rücken nicht ein paar Mails raus,
0:26:58–0:27:01
sondern wir rücken einfach alles raus, was in diesem Konto drin ist.
0:27:02–0:27:06
Sie haben es dann so begründet, dass sie halt auch gar nicht in der Lage sind,
0:27:06–0:27:12
oder wahrscheinlich wäre es auch noch schwierig überhaupt, dass sie überhaupt
0:27:12–0:27:13
schauen könnten, dass sie z.B.
0:27:14–0:27:17
Nur die Mails, die neuer sind als zwei Monate, rausrücken.
0:27:18–0:27:21
Das war doch ein Bersersin-Pressesprecher. Ja, genau.
0:27:22–0:27:25
Der war es, glaube ich. Du hast den Fall noch in Erinnerung.
0:27:26–0:27:31
Und dann haben sie halt einfach alles rausgerückt und er hatte zehn Jahre Historie drin.
0:27:32–0:27:34
Und das passiert sicher nicht jedem.
0:27:35–0:27:41
Für mich ist es trotzdem ein guter Grund, um anzuschauen, dass es sich lohnt,
0:27:41–0:27:45
nicht einfach alles immer in diesem Mail-Konto zu haben, sondern zu sagen,
0:27:45–0:27:48
ich habe das drin, wo ich wirklich damit arbeite.
0:27:48–0:27:53
Und alle halben Jahre ziehe ich das alte Zeug raus, rühre es entweder weg oder
0:27:53–0:27:56
archiviere es lokal in diesem Thunderbird, wie wir es beschrieben haben.
0:27:57–0:28:01
Und dann hast du erstens deinen Mail-Speicher ein bisschen entlastet und zweitens
0:28:01–0:28:04
dann läufst du da auch nicht so in die Probleme.
0:28:04–0:28:09
Und wenn du deinen Job wechselst, dann ist auch nur noch das Wesentliche da,
0:28:09–0:28:11
dann gibt es auch weniger Arbeit.
0:28:11–0:28:15
Kevin, da noch etwas hinzuzufügen, oder sollen wir zu Eva weitergehen?
0:28:16–0:28:17
Wir gehen zu Eva.
0:28:17–0:28:22
Eva, die sagt, ich bin gerade am Verzweifeln. Beim iPad sind die Tasten beim
0:28:22–0:28:24
Logitech Keyboard blockiert.
0:28:24–0:28:31
Ich kann jeweils auch teilweise keinen Leerschlag machen, wenn es jeweils funktioniert.
0:28:34–0:28:38
Sie hat die Leertaste schon einmal ausgetauscht, aber es hat irgendwie nichts gebracht.
0:28:38–0:28:42
Digi-Chris, was würdest du machen? Einfach mal Krümel rausschütteln?
0:28:42–0:28:47
Also ich nehme an, sie muss sicher physikalisch defekt sein.
0:28:48–0:28:52
Eben jetzt die Leertaste auszutauschen, wüsste ich gar nicht, wie das macht.
0:28:53–0:28:56
Ich kenne das Logitech Keyboard nicht, ich kann mich noch erinnern,
0:28:56–0:28:59
vor 4-5 Jahren gab es das Butterfly Keyboard.
0:28:59–0:29:06
Ich bin ziemlich sicher, dass es nicht softwaremässig ist, sondern dass da irgendetwas,
0:29:06–0:29:10
weiss ich nicht was, vielleicht auch die Tastentour mal eine Bierdusche bekommen
0:29:10–0:29:12
hat, als sie an einem Fussballmatch war.
0:29:12–0:29:17
Genau, sie war mit dem iPad am FCW gegen den FCB.
0:29:20–0:29:28
Wir wollen ja nicht die Wegwerfgesellschaften promoten, aber vermutlich bringt
0:29:28–0:29:33
es etwas mit dem Staubsauger, aber wenn das nichts hat,
0:29:33–0:29:36
dann muss ich in Gottes Namen ein neues Keyboard holen.
0:29:36–0:29:39
Also so schütteln hilft häufig schon mal.
0:29:40–0:29:44
Und ja, ich würde jetzt auch sagen, wenn einzelne Tasten falsch sind,
0:29:44–0:29:48
dann kann es immer noch sein, dass du eine falsche Tastaturbelegung ausgewählt hast.
0:29:48–0:29:53
Also mir passiert es beim Windows ab und zu, dass du mit einer Tastaturkombination
0:29:53–0:29:59
auf Französisch umstellst und die Franzosen haben eine so perverse Tastaturbelegung. Ja, in Zerte.
0:30:00–0:30:05
Aber das würde Leertasten jetzt nicht betreffen. Genau, die Leertaste ist eigentlich
0:30:05–0:30:10
wirklich, sonst müsstest du mit irgendeinem Tool dahinter, dass du die Leertaste
0:30:10–0:30:15
umrauten kannst und das geht eigentlich am iPad sowieso nicht.
0:30:15–0:30:19
Und darum würde ich höchstens noch sagen, dass die Bluetooth-Verbindung ein
0:30:19–0:30:22
bisschen gewackelig ist, aber das würdest du wahrscheinlich auch in anderen
0:30:22–0:30:23
Zusammenhängen merken.
0:30:24–0:30:29
Und ja, das ist irgendwie alles auch, was ich jetzt dazu gewusst habe.
0:30:30–0:30:38
Man könnte probieren, die Logitech-Tastatur mit dem iPhone zu verbinden oder
0:30:38–0:30:42
mit irgendeinem anderen Gerät und schauen, ob dann die Leertaste auch spinnt.
0:30:43–0:30:47
Und wenn sie an einem anderen Gerät auch spinnt, dann ist klar, dass es Tastatur ist.
0:30:47–0:30:53
Und dann, wenn es Tastatur ist, also ich meine, wir haben ja Tasten ersetzt
0:30:53–0:30:55
vor 20 Jahren, aber so reiht es.
0:30:56–0:30:59
Ich glaube, wenn heute Tasten ersetzt, es wird nur noch schlimmer.
0:30:59–0:31:03
Also das ist heute so filigran und so viel Nöckele, dass ich das Gefühl habe,
0:31:04–0:31:07
wenn wir die Tasten schon mal ersetzen, ist die Wahrscheinlichkeit,
0:31:07–0:31:09
dass es nochmal kaputt geht, relativ hoch.
0:31:09–0:31:12
Wir machen jetzt nicht das Fass von den mechanischen Tastaturen auf,
0:31:12–0:31:15
wo du natürlich nicht nur oben das Käpschen ersetzen kannst,
0:31:15–0:31:19
sondern auch unten den Mechanismus und alles.
0:31:19–0:31:23
Das kannst du machen, wie du willst und die sind so robust, dass auch wenn dir
0:31:23–0:31:27
dort ein Sandwich drin hingefallen ist, gehören die trotzdem nach und so.
0:31:27–0:31:32
Aber ich bin kein Fan von mechanischen Tastaturen und ja, ich würde das auch machen.
0:31:32–0:31:36
Kevin, guter Tipp, also das ist sowieso mit externen Geräten generell,
0:31:36–0:31:40
glaube ich, in fast jedem Fall einfach mal mit einem anderen Gerät probieren,
0:31:41–0:31:42
das auch damit umgehen könnte.
0:31:42–0:31:48
Und dann merkst du schnell, ob es an diesem Gerät liegt oder an welchem von beiden.
0:31:49–0:31:55
Weil an dem, was dann im einen Fall funktioniert und im anderen Fall nicht, ja.
0:31:55–0:32:00
Ja, also ihr habt glaube ich die Logik verstanden und sonst, wenn es beim iPad nicht,
0:32:00–0:32:06
wenn du es jetzt aus irgendeinem Grund nicht richtig mit dieser Tastatur umgehen
0:32:06–0:32:09
würdest, dann vielleicht auch mit einer anderen externen Tastatur nicht,
0:32:09–0:32:11
dann hast du wirklich nicht viel Möglichkeit,
0:32:11–0:32:14
du kannst es mal neu starten und wenn es dann nicht geht, dann musst du ein
0:32:14–0:32:16
Reset machen, musst es zurücksetzen.
0:32:17–0:32:22
Ja. Ja, genau, dann haben wir es, würde ich sagen, oder ich schaue mal noch
0:32:22–0:32:26
schnell, das ist, ui, nein, das ist eine ganz lange Frage, ich glaube,
0:32:27–0:32:30
die ersparen wir dann auf, auf Kummerbox live,
0:32:31–0:32:35
wo in einem Monat wieder kommt und ich würde mal sagen, nochmal,
0:32:35–0:32:40
eben, am besten ist, ihr schreibt uns das mit ein bisschen Vorlauf auf digital
0:32:40–0:32:46
at, nein, wie heisst es, nerdfunk at stadt. Nerdfunk. Genau.
0:32:47–0:32:53
Und dann drücken wir jemandem einen Daumen beim Fussball oder ist es uns egal, wie es aussieht.
0:32:53–0:33:01
Wir sind für die, die gewinnen. Und der, der mir das Bier angelehrt hat, der soll gefälligst...
0:33:02–0:33:03
Für den sind wir nicht.
0:33:05–0:33:08
Also, macht's gut. Bis dann. Einen schönen Mittag.
0:33:12–0:33:23
Music.

Ist 2024 das Jahr, in dem wir den Computerärger ausrotten konnten? Falls dem so sein sollte, dann nicht im Januar. Denn es sind wiederum genügend Computerfragen eingetrudelt, damit wir heute locker unsere Endmonat-Tradition aufrechterhalten und eine Folge «Kummerbox Live» senden können.

Mit folgenden Fragen: Hannes hat ein Problem beim Datenaustausch zwischen seinem Samsung-Handy und Windows. Kjoering hat ein Problem mit Videos, die am Handy nicht wiedergegeben werden. Und Simone wechselt den Job und fragt, wie sie die wichtigsten Mails aus Gmail und die wichtigsten Dokumente aus Google Drive sichern und mitnehmen kann.

Und falls noch Zeit ist, besprechen wir auch Evas Problem, bei der das iPad nicht mehr mit der Logitech-Tastatur zusammenarbeiten mag. „Wenn Handy und PC sich nicht vertragen“ weiterlesen

Unsere Apps für die einsame Insel

Transkript anzeigen (falls vorhanden)

0:00:12–0:00:13
Ja, das wollen wir auch machen.
0:00:14–0:00:21
Guten Abend miteinander. Da ist der Nerdfunk mit einer Episode,
0:00:21–0:00:25
die uns ein bisschen in die Corona-Zeit zurückwirft.
0:00:25–0:00:32
Wir sind nämlich im virtuellen Studio, weil ich schuld bin. Ich sage aber nicht, warum.
0:00:32–0:00:35
Aber ich habe gefunden, heute gehe ich nicht raus.
0:00:35–0:00:42
Heute ist es so gruselig draussen. Da müssen wir uns auf die einsame Insel träumen.
0:00:42–0:00:47
Und dann haben wir überlegt, wie könnte man sich als Nerd auf die einsame Insel träumen.
0:00:47–0:00:52
Also die normalen Leute überlegen sich Schallplatten für die einsame Insel.
0:00:53–0:00:59
Filmfreaks, Film oder vielleicht auch gewisse Leute Bücher oder solche Sachen.
0:00:59–0:01:01
Und wir überlegen natürlich, welche
0:01:01–0:01:05
Apps und welche Webdienste man auf die einsame Insel mitnehmen muss.
0:01:05–0:01:10
Und die wollen wir euch heute um die Ohren hauen. dass ihr, wenn ihr mal die
0:01:10–0:01:16
Gelegenheit hättet, euch abzusetzen von hier, dass ihr dann gut ausgestattet
0:01:16–0:01:19
seid. Und wer will anfangen von euch?
0:01:19–0:01:24
Wer hat den ultimativen Inselkick zum Einsteigen?
0:01:29–0:01:35
Soll ich anfangen mit dem Inselkick? Ich würde, wenn ich auf eine einsame Insel
0:01:35–0:01:39
müsste, würde ich glaube ich, Audible mitnehmen.
0:01:39–0:01:43
Das ist nicht ein riesen Tipp, aber ich glaube, auf einer einsamen Insel habe
0:01:43–0:01:47
ich Hörbücher wieder entdeckt, weil ich lange keine Hörbücher mehr gelesen habe
0:01:47–0:01:49
und jetzt höre ich wieder Hörbücher und ich finde es mega gut.
0:01:50–0:01:54
Das kann ich nur unterschreiben. Nur das Problem bei Audible ist natürlich,
0:01:54–0:01:57
ich weiss nicht, funktionieren die dann offline?
0:01:57–0:02:00
Oder kannst du... Möchtest du...
0:02:01–0:02:03
Nein, nein, du kannst die abladen. Genau.
0:02:03–0:02:07
Du musst alle im Voraus abladen und dann musst du schauen, dass nie deine Apps
0:02:07–0:02:10
Login verliert, sonst sind die Bücher...
0:02:11–0:02:16
Ja, das ist ein Problem. Okay. Ja, das ist ein Problem.
0:02:16–0:02:22
Genau. Aber du, ich würde es wahnsinnig schwierig finden, zu sagen,
0:02:22–0:02:26
jetzt gehst du zehn Jahre auf die einsame Insel, wie viele Bücher brauchst du
0:02:26–0:02:27
und welche nimmst du mit?
0:02:28–0:02:33
Das wäre fast schon... Download all.
0:02:35–0:02:36
Download all.
0:02:36–0:02:41
Ich glaube, eine Frage ist jetzt halt, das haben wir ja nicht definiert,
0:02:41–0:02:47
hat die einsame Insel Internet, irgendwie schlechtes Internet? Ja.
0:02:47–0:02:50
Das ist vielleicht noch eine Frage. Das stimmt, DigiCrystal,
0:02:50–0:02:54
das ist natürlich gerade die Wunde in meiner Anmoderation.
0:02:55–0:03:00
Weil ich habe gedacht, Zuerst wollte ich ein Überlebenspaket digitalen.
0:03:00–0:03:03
Was braucht man als digitaler Prepper?
0:03:03–0:03:06
Da habe ich gedacht, nein, das ist viel zu apokalyptisch.
0:03:06–0:03:08
Ich will nicht als Prepper.
0:03:08–0:03:12
Dann bin ich auf die Insel gekommen. Ich würde sagen, wir haben Internet,
0:03:12–0:03:15
aber Schlechtes. Wir haben ein Satellitentelefon.
0:03:17–0:03:23
Oder vielleicht ein Starlink vom Elon. Doch einen Starlink vom Elon haben wir.
0:03:24–0:03:30
Ja, aber dann sind wir mit Starlink, vom E-Land sind wir mit Hörbüchern auf der sicheren Seite Gut.
0:03:30–0:03:34
Dann gehen wir auch Podcasten Ich sehe schon, wir haben uns das zu wenig überlegt.
0:03:38–0:03:43
Ich glaube das Zeug geben, was ihr gesagt habt wegen dem Login verlieren,
0:03:43–0:03:48
also je nachdem bei vielen Apps muss man halt einfach dich authentifizieren
0:03:48–0:03:52
das würde wahrscheinlich sogar wie ein 56k Modem oder weiss ich was geht,
0:03:53–0:03:57
wenn du dann halt sagst, oh, jetzt kommt von der Serie XY die neue Fold, die ist 3 GB,
0:03:58–0:04:00
wird vielleicht schwieriger, aber ja,
0:04:02–0:04:06
beim Audible, was Kevin gesagt hat, gut, irgendwann ist natürlich der Speicher
0:04:06–0:04:08
von deinem Smartphone voll, aber trotzdem,
0:04:09–0:04:12
du würdest wahrscheinlich auf so ein iPhone, das du heute überkommst,
0:04:13–0:04:18
oder ein Android mit 256 GB, würdest du wahrscheinlich ein paar Stunden oder
0:04:18–0:04:23
Tage Hörbücher überkommen, also mal eine Woche, Kevin in der Hängematte würde
0:04:23–0:04:24
wahrscheinlich schon lassen.
0:04:24–0:04:28
Wichtig ist wahrscheinlich, dass die einsame Insel irgendwie Strom hat oder
0:04:28–0:04:30
Kevin den Generator mitnimmt.
0:04:31–0:04:35
Ja, genau. Also wenn man googelt, was man wirklich auf einer einsamen Insel
0:04:35–0:04:39
braucht, dann sind es eigentlich weniger Tabs und so, dann ist tatsächlich so
0:04:39–0:04:43
Solarpanels wären vielleicht noch bessere,
0:04:43–0:04:50
Varianten, weil eben beim Generator musst du irgendwie dann auch noch den Brennstoff
0:04:50–0:04:51
für den noch irgendwo her haben.
0:04:54–0:04:59
Also, aber Digi-Chris, an was hast du gedacht? Mehr offline, mehr online?
0:04:59–0:05:04
Oder kannst du uns mit beiden Welten dienen?
0:05:07–0:05:11
Wir beide wählten ihnen jetzt etwas, das offline funktioniert,
0:05:11–0:05:16
das ist eine Applikation, die läuft auf dem Mac, die nennt sich OpenEMU,
0:05:16–0:05:20
das ist so ein Emulator, da kannst du alte Spiele spielen.
0:05:20–0:05:26
Und wenn wir jetzt von Gameboy bis relativ weit hoch, wenn du denkst,
0:05:26–0:05:32
so ein Gameboy-Spiel braucht vielleicht 200 Kilobyte, Kilobyte,
0:05:32–0:05:35
nicht Megabyte Speicher und mit dem kannst du doch wahrscheinlich,
0:05:35–0:05:38
je nachdem was es ist, ja, einen Tag mal vergnügen haben.
0:05:38–0:05:44
Wenn du es aufrechnen kannst, was hat so ein MacBook 2, 56, 5, 12, da kannst du,
0:05:44–0:05:48
ziemlich viel spielen, also du kannst einfach irgendwie die Spiele,
0:05:48–0:05:54
die du in der Kindheit gezockt hast, kannst du auf deinem Notebook einmal spielen.
0:05:54–0:05:59
Das ist auch so eine App, wo ich denke, ja, also, wie sagen wir,
0:06:00–0:06:02
es ist ein normales Programm auf MacOS,
0:06:03–0:06:09
auf iOS hat das App ja nicht so gerne, wenn du so Emulatoren hast,
0:06:10–0:06:14
weil Nintendo hat glaube ich wahrscheinlich fast mehr anwählt als Softwareentwickler.
0:06:14–0:06:18
Das glaube ich auf jeden Fall. Genau, also an Switch habe ich natürlich auch gedacht.
0:06:19–0:06:25
Ich finde eigentlich, und das Achtung, Meta-Witz, ich würde an Animal Crossing
0:06:25–0:06:27
auf der einsamen Insel spielen.
0:06:30–0:06:33
Findet ihr den jetzt nicht lustig? Ich habe gedacht, der Säge jetzt.
0:06:33–0:06:38
Ich habe bis heute nicht Animal Crossing gespielt.
0:06:38–0:06:42
Nicht einmal. Ich glaube, das ist so ein Spiel,
0:06:43–0:06:50
wo in der Corona-Phase ist es vor allem gross geworden und du gehst auf eine
0:06:50–0:06:55
einsame Insel virtuell und du stehst, am Anfang hast du einfach nichts,
0:06:55–0:06:59
hast so ein Zelt und es läuft nichts auf dieser Insel.
0:07:00–0:07:06
Und dann ist es so. Eigentlich kann man sagen, DigiChris, dass es so eine Aufbausimulation ist. Und.
0:07:09–0:07:13
Ich habe es auch nicht wirklich oft gespielt. Ich glaube, ich hatte mal eine Demo.
0:07:14–0:07:20
Aber ja, wie gesagt, bei so vielen Aufbausimulationen hast du wahrscheinlich
0:07:20–0:07:21
auch das Zeug, es ist nie fertig.
0:07:22–0:07:25
Ich glaube, wir hatten ja neulich mal ein Video.
0:07:25–0:07:31
Du kannst irgendwann Tetris fertig spielen, indem es einfach einen simple Buffer-Overflow
0:07:31–0:07:32
gibt und es nicht mehr weitergeht.
0:07:33–0:07:38
Aber ich glaube, bei SimCity und SimCity Stepped Out kannst du spielen,
0:07:38–0:07:43
bis du irgendwie, ja, halt in der einsamen Insel dann halt merkst,
0:07:43–0:07:47
oh, ich habe zwar ein Powerbank da, aber ich habe kein Mineralwasser da.
0:07:47–0:07:54
Ja, genau. Das weiss ich nicht genau, wie das funktioniert, aber ja,
0:07:54–0:07:56
ich nehme an, es wird da schon gewisse Verbindungen.
0:07:56–0:08:01
Und also, um noch bei dem Animal Crossing zu sagen, dort ist noch ein Gag,
0:08:01–0:08:05
dass es eigentlich so in Echtzeit einigermassen läuft, also es ist immer ob
0:08:05–0:08:09
die Tageszeit und die Jahreszeit, die du gerade in Echt hast.
0:08:09–0:08:16
Und dann kannst du dich dort vergnügen und du kannst das voll ambitioniert machen
0:08:16–0:08:20
und du kannst es aber auch voll chillend machen und kannst einfach nur schauen,
0:08:20–0:08:27
dass du immer die coolsten Outfits hast und irgendwie deine Wohnung super toll einrichtest und so.
0:08:28–0:08:32
Und ich finde es eigentlich noch eine entspannte Sache.
0:08:32–0:08:36
Und ich müsste wahrscheinlich die ersten drei Wochen auf dieser einsamen Insel,
0:08:36–0:08:39
müsste ich einfach den Controller mal wirklich verinnerlichen.
0:08:40–0:08:44
Ich merke einfach, ich bin, glaube ich, zu alt, um den Controller zu verstehen.
0:08:44–0:08:51
Digi Chris, ist das bei dir auch ein Problem, weisst du, wenn du den A-Knopf musst drücken?
0:08:53–0:08:57
Es ist eben noch ein Problem, ich habe ja sowohl einen Xbox als auch einen Nintendo
0:08:57–0:09:00
Switch und dort sind ja eigentlich das A und das B vertauscht,
0:09:00–0:09:02
also bestätigen und zurück.
0:09:02–0:09:04
Und ich verdrucke Ah.
0:09:04–0:09:06
Vertuscht. Oh, das ist super fies.
0:09:08–0:09:11
Also eben, dort, wie meinte ich, sind sie links, wenn du jetzt,
0:09:11–0:09:14
weisst du, irgendwie sagst, ja, wir wählen einen Charakter aus,
0:09:14–0:09:15
wie meinte ich, ist er halt rechts.
0:09:17–0:09:20
Und je nachdem, haust halt auch der Name. Aber eben, wenn du dann halt auf der
0:09:20–0:09:23
einsamen Insel bist, gut, die Xbox wird dort ein bisschen schwieriger,
0:09:23–0:09:25
wie du es wahrscheinlich schon irgendwann merkst.
0:09:25–0:09:31
Ja, genau. Aber eben, ich meine, bei dieser Switch hast du ja die kleinen Kontroller
0:09:31–0:09:34
und da brauchst du manchmal Manchmal brauchst du nur einen, manchmal brauchst
0:09:34–0:09:37
du zwei, manchmal hast du sie vertikal, manchmal hast du sie horizontal.
0:09:38–0:09:45
Und ich bin, wenn da irgendwie jemand ein YouTube-Video kennt für Switch-Controller,
0:09:45–0:09:48
du beliebst mich, dann...
0:09:49–0:09:50
Switch for Dummies.
0:09:51–0:09:53
Switch for Dummies gibt sicher ein Buch.
0:09:53–0:10:01
Da wäre ich sehr froh. Kevin, Hörbücher finde ich super, aber kannst du ja nicht
0:10:01–0:10:03
nur den ganzen Tag Hörbücher hören.
0:10:04–0:10:09
Ja, ich habe halt nicht gewusst, sind wir dann am Arbeiten auf dieser Insel
0:10:09–0:10:11
oder nicht? Das ist mein Hauptproblem.
0:10:12–0:10:16
Wenn ich am Arbeiten bin, dann hat es ganz viele Apps.
0:10:16–0:10:21
Und wenn ich nicht am Arbeiten bin, dann... Also, Arbeiten heisst Austausch mit anderen Menschen.
0:10:23–0:10:28
Und ja, das weiss ich noch nicht. Weil wenn ich nicht Austausch mit anderen
0:10:28–0:10:31
Menschen machen darf, dann wird es bei mir verdünnt.
0:10:32–0:10:38
Nein, man muss jetzt wirklich sagen... die Regeln haben wir zu wenig gut ausgedacht.
0:10:38–0:10:40
Und ich würde sagen, doch, wir arbeiten auch.
0:10:41–0:10:45
Wie nennt man das auf Neudeutsch, wenn man an einem Ferienort arbeitet? Ich vergesse sie.
0:10:46–0:10:47
Workaholic.
0:10:47–0:10:51
Ja, genau, aber es gibt Workation. Genau, Workation.
0:10:51–0:10:56
Also wir machen auch Workation. Kevin, bitte, was empfiehlst du uns da?
0:10:58–0:11:03
Also ich glaube wirklich, dass meine Haupt-App mittlerweile der grösste Bestandteil
0:11:03–0:11:06
von meinem Tag, ist meine To-Do-App.
0:11:07–0:11:12
Wenn ich all meine To-Dos dritteue und das völlig missbrauche für alles.
0:11:13–0:11:17
Also eigentlich ist es wirklich eine To-Do-App, aber das kann eben so viel mehr,
0:11:17–0:11:19
dass ich dort eigentlich alles hinballere, was mir in den Sinn kommt.
0:11:20–0:11:29
Und das merke ich, dass ich das halt mega brauche und ich bin so,
0:11:29–0:11:31
dass ich mir, ich merke mir nichts mehr.
0:11:32–0:11:32
Das ist.
0:11:33–0:11:34
Ich weiss nicht.
0:11:34–0:11:36
Ob das gut ist. Wirklich nicht.
0:11:38–0:11:44
Aber wie oft gibt es das, dass man sagt, oh, man müsste wieder mal ins Theater gehen.
0:11:45–0:11:50
Und dann war das das. Und es ist fertig. Und dann schreibe ich mir halt auf
0:11:50–0:11:53
meine To-Do-Liste Theater und dann gehe ich schauen, ob das Theater schon ist.
0:11:53–0:11:57
Ich muss dann das gerade machen, weil sonst schnurrt man immer nur so Dinge.
0:11:58–0:12:01
Und darum habe ich angefangen, ich merke mir wirklich nichts mehr so im Sinne
0:12:01–0:12:03
von, oh, man sollte dann mal noch,
0:12:03–0:12:07
sondern es kommt alles in meine To-Do-Liste ein und das hilft mir halt mega
0:12:07–0:12:12
auch in den Ferien oder wenn ich mal irgendwo weg bin, weil da kommen mir so Zeugen rein,
0:12:12–0:12:17
was man noch machen könnte mit dem Leben und dann wenn ich halt dann nicht das
0:12:17–0:12:19
gerade dann möchte machen oder denke,
0:12:20–0:12:23
ja, jetzt bin ich zu faul zum das recherchieren, dann kommt das auch auf meine To-Do-Liste.
0:12:24–0:12:27
Darum glaube ich, ich müsste auf die Inseln das App mitnehmen,
0:12:27–0:12:30
weil mir würde langweilig werden und dann hätte ich Ideen und dann könnte ich
0:12:30–0:12:31
das in die App reinschreiben.
0:12:32–0:12:35
Schnell noch eine Frage, Kevin. Du hast es gesagt in der Sendung,
0:12:35–0:12:39
aber dass man es sinnvoll nutzt, was zahlt man? Es ist wahrscheinlich sicher ein Abonnentenmodell.
0:12:40–0:12:41
30 Stutz?
0:12:44–0:12:46
30 oder 40 Stutz im Jahr.
0:12:46–0:12:51
Also in dem Fall, wenn du denkst, wenn du es nur schon schaffst mit To-Do-Eats,
0:12:52–0:12:57
den Hochzeitstag nicht zu vergessen, dann wäre es ja schon locker weg.
0:12:57–0:12:58
Digi-Chris.
0:12:58–0:13:00
Wenn du nur den Hochzeitstag da drin hast.
0:13:01–0:13:02
Dann lohnt es sich nicht.
0:13:02–0:13:07
Ja, aber weisst du, den Ärger, den du bekommst, wenn du vergisst.
0:13:07–0:13:08
Ist es einfach ein Nein.
0:13:08–0:13:13
Aber wahrscheinlich ja, das habe ich teilweise auch schon gehabt wirklich in
0:13:13–0:13:17
der Nacht ist dir irgendwas in den Sinn gekommen, ob das jetzt im Büro ist,
0:13:18–0:13:21
was du machen müsstest oder ich könnte doch wieder mal mit XY in die Nacht essen,
0:13:22–0:13:25
ja gut, dann musst du halt das Smartphone schicken und so, aber ich glaube ja
0:13:25–0:13:29
ich kann mir glaube ich mal wählen, die App anzuschauen, ich habe es jetzt noch
0:13:29–0:13:32
nicht gemacht, aber ja wäre sicher auch was ich.
0:13:32–0:13:35
Könnte da einhängen, weil ich habe vorher gelacht, aber Kevin,
0:13:35–0:13:38
ich habe dich nicht ausgelacht, sondern ich habe gelacht, weil es mir genauso geht.
0:13:39–0:13:45
Ich habe meine Notiz-App und dort schaue ich an mich rein und sehe Einträge
0:13:45–0:13:47
und finde, ah, so eine super Idee.
0:13:48–0:13:52
Aber ich hätte sie vergessen, ich hätte nie mehr daran gedacht,
0:13:52–0:13:54
wenn ich sie nicht hier eingeschrieben hätte.
0:13:54–0:13:58
Und dann findest du ja irgendwie eigentlich, also mir gibt es auch ein bisschen
0:13:58–0:14:03
zu denken, weil es ist wahrscheinlich einfach so ein Zeichen der Zeit,
0:14:03–0:14:07
dass man mit so viel Informationen, kannst du nicht mehr alles im Kopf haben.
0:14:07–0:14:12
Und ich habe aber das Allermeiste eigentlich in diesem Simple Note drin.
0:14:12–0:14:18
Das ist so eine App von, ich glaube, inzwischen gehört sie zu Automatic.
0:14:18–0:14:22
Also das sind die, die auch das WordPress betreiben und machen.
0:14:23–0:14:26
Und die haben ja auch so einige Apps zusammen gekauft.
0:14:26–0:14:31
Und eben unter anderem auch das Simple Note. Da gibt es eine App für Windows,
0:14:31–0:14:33
für Mac, für Smartphones und,
0:14:35–0:14:39
kannst auch über das Web zugreifen und es ist simpel, machst einfach Notizen
0:14:39–0:14:44
nach Themen und kannst so mit Markdown, also mit einer ganz simplen.
0:14:45–0:14:46
Auszeichnungssprache, kannst du
0:14:46–0:14:50
Formatierungen drin machen und das ist eigentlich das braucht schon, ich,
0:14:51–0:14:57
merke bei den Notizen habe ich mich immer weiter zurückreduziert von OneNote
0:14:57–0:14:59
und Evernote und all dem Zeug, wo
0:14:59–0:15:03
ich finde, ah, bis es nur schon schon aufgestartet. Ich werde wahnsinnig.
0:15:03–0:15:08
Brauche ich alles nicht. Ich brauche eine ganz simple App. Und die macht das gut.
0:15:08–0:15:13
Bis auf ein, wirklich ein Problem, das sie hat. Sie macht kein...
0:15:15–0:15:20
Einmal hat sie ein Cloud-Problem gehabt. Also sie ist nicht wirklich für die
0:15:20–0:15:21
Offline-Insel taugt sie nicht.
0:15:22–0:15:25
Weil wenn die Cloud ausfällt, sind alle die Notizen weg.
0:15:25–0:15:30
Und das ist aber eigentlich ein K.O.-Kriterium.
0:15:30–0:15:33
Aber ich war zu faul, um sie auszutauschen.
0:15:35–0:15:36
Also.
0:15:36–0:15:39
Wenn du kein Internet hast, dann hast du nichts?
0:15:40–0:15:45
Doch, ich glaube wenn du einfach kein Internet hast, dann geht es.
0:15:45–0:15:50
Dann hat sie einfach ihren gesten Zustand und synchronisiert nicht.
0:15:50–0:15:54
Aber einmal ist der Server nicht erreichbar gewesen oder kaputt gewesen und
0:15:54–0:15:55
hat komische Sachen gemacht.
0:15:55–0:15:59
Und dann hat sie dich einfach ausgeloggt und dann bist du auch nicht mehr an
0:15:59–0:16:03
deine Notizen herangekommen, weil du dich nicht mehr einloggen konntest.
0:16:03–0:16:04
Das ist natürlich scheisse.
0:16:05–0:16:09
Okay, gut, ja, das ist doof, aber das ist jetzt ein Extremfall,
0:16:10–0:16:13
also auf einer Insel mit ein bisschen Internet müsste es ja dann laufen,
0:16:13–0:16:15
das ist ja dann wirklich ein Problem von dem Abend.
0:16:15–0:16:21
Das stimmt. Digi Chris, wir machen es nicht so richtig systematisch, oder?
0:16:21–0:16:24
Ihr könnt auch reinschwätzen, wenn ihr ganz noch etwas Dringendes habt.
0:16:25–0:16:29
Also ich glaube, wenn es jetzt ums Schaffen geht, dann würde ich die,
0:16:30–0:16:35
ich nehme jetzt an, ich habe mein privater Notebook dabei, die Remote Desktop App von Microsoft,
0:16:36–0:16:40
da könnte ich eben auf den schönen Azure Virtual Desktop kommen.
0:16:40–0:16:45
Also eben, ihr wisst ja, dass ich im SAP-Bereich arbeite, aber ich komme dort
0:16:45–0:16:50
auf alle Systeme und könnte auch von der einsamen Insel aus mehr oder weniger arbeiten.
0:16:50–0:16:55
Wir wissen auch, das RDP-Protokoll ist nicht so wahnsinnig bandbreit und hungrig.
0:16:55–0:17:00
Also eben, es würde auch mit einem Starlink oder, es hat schon damals im 2017
0:17:00–0:17:05
RDP auf dem Kreuzfahrtschiff, auf dem Atlantik.
0:17:05–0:17:09
Also du willst jetzt wahrscheinlich nicht gerade irgendwie alles machen,
0:17:09–0:17:11
aber zumindest mal einen Service-Neustart.
0:17:11–0:17:17
Und der Windows-Server ist auch wirklich zu Mitte zwischen der Gran Canaria
0:17:17–0:17:18
und der Recife gegangen.
0:17:19–0:17:22
Es ist nervig, aber so ganz kleine Sachen kannst du machen.
0:17:23–0:17:23
Ah.
0:17:23–0:17:27
Schon damals, und das war 2017, da gab es noch lange kein Starlink. Genau.
0:17:28–0:17:32
Und sonst Teamviewer ist ja auch noch ein guter Fall, aber natürlich in deinem
0:17:32–0:17:37
Kontext macht das Windows Remote Access viel mehr Sinn, ja.
0:17:39–0:17:43
Und so vielleicht noch etwas auch, wir waren ja schon bei den Hörbüchern gewesen,
0:17:44–0:17:47
ich meine, wenn du klassische Bücher hast, je nachdem vielleicht auch,
0:17:47–0:17:48
wie das Licht auf der Insel ist,
0:17:49–0:17:53
musst du halt nochmals ein Gadget packen, aber so ein Kindle oder halt,
0:17:53–0:17:58
das soll jetzt nicht werbig sein, oder wie halt all die E-Ink Reader heissen,
0:17:58–0:18:01
das wäre vielleicht auch nicht so schlecht, weil da bringst du auch,
0:18:02–0:18:05
da bringst du wahrscheinlich auf so ein, ich glaube, mein Kindle hat 4 GB Speicher,
0:18:06–0:18:09
da bringst du dann wirklich viele Bücher drauf, wo du ja zwei,
0:18:09–0:18:10
drei Monate kannst du auf die Instanzen sein.
0:18:10–0:18:14
Ich glaube, es gibt auch diese Variante mit, und ich nenne jetzt noch den Konkurrenten,
0:18:14–0:18:17
und ich würde wahrscheinlich jetzt eher noch den Konkurrenten annehmen,
0:18:17–0:18:19
den Tolino, weil der ist,
0:18:20–0:18:25
der hat kein DRM drauf, also dort passiert es dir nicht, dass auf einmal,
0:18:25–0:18:30
beim Kindl weisst du es ja nicht, vielleicht nach vier Jahren sagt der auf einmal, du, sorry,
0:18:30–0:18:34
jetzt bist vier Jahre schön offline gewesen, hast deine Robinsonade genossen,
0:18:34–0:18:37
aber jetzt, wenn du unsere Bücher noch aufmachen willst, müsstest du dich doch
0:18:37–0:18:39
irgendwann mal wieder verbinden.
0:18:39–0:18:43
Also das wäre jetzt so auf den Offline-Inseln natürlich nur das Problem.
0:18:44–0:18:50
Und darum das passiert mit dem Tolino nicht. Dort schmeisst du einfach die E-Pubs drauf.
0:18:50–0:18:54
Die haben dann auch kein DRM oder so. Allerfalls ein Wasserzeichen.
0:18:54–0:18:59
Du kannst aber auch so aus offenen Quellen aus dem Gutenberg Project oder so,
0:18:59–0:19:02
kannst all die Klassiker,
0:19:03–0:19:09
draufladen und konvertieren als E-Pop ab und zu lesen und dann kannst du zurückkommen
0:19:09–0:19:13
und dann endlich mal wenn du von der einsamen Insel zurück bist, so deinen,
0:19:14–0:19:17
Germanistik-Doktortitel abholen nachher.
0:19:17–0:19:19
Also das würde ich empfehlen.
0:19:20–0:19:26
Aber Kevin, nochmal etwas zum Arbeiten, nochmal etwas off oder online? Nein.
0:19:28–0:19:34
Ich würde mein Yoga-App mitnehmen. Ich habe ja jetzt... Ich habe jetzt wieder
0:19:34–0:19:36
angefangen, so ein bisschen Yoga zu machen, fast jeden Tag.
0:19:36–0:19:41
Es ist nicht so konsequent jeden Tag, aber in regelmässigen Abständen.
0:19:41–0:19:44
Und ich habe jetzt mal alle Yoga-Apps ausprobiert. Alle.
0:19:45–0:19:46
Ich weiss.
0:19:46–0:19:49
So schlimm ist es nicht, aber ich habe sicher 15 Apps ausprobiert. Es gibt extrem viele.
0:19:50–0:19:54
Es gibt mega viele Apps, die alles genau das Gleiche machen.
0:19:55–0:19:58
Und es gibt einfach mega viele. und ich habe jetzt mal alle ausprobiert und
0:19:58–0:20:02
ich bin jetzt zu Hause gelandet, was ich eigentlich recht gut finde und ja,
0:20:02–0:20:05
mit dem bin ich happy und das würde ich dann mitnehmen und dann würde ich jeden
0:20:05–0:20:08
Tag eine Stunde Yoga machen und dann wäre ich nachher super bereit.
0:20:08–0:20:12
Wie heisst denn diese App, dass unsere Zuhörerinnen und Zuhörer.
0:20:13–0:20:14
Ah ja, das müsste ich ja sagen.
0:20:14–0:20:15
Down Dog?
0:20:17–0:20:24
Down Dog. Es gibt eine Yoga-Hose, der Downward Facing Dog,
0:20:24–0:20:28
und und sie haben es wahrscheinlich auf dem dann
0:20:28–0:20:31
aufbaut da und es ist die apps
0:20:31–0:20:35
und als gleiche du kannst du bist anfänger
0:20:35–0:20:39
bis vorgeschritten weil er still yoga watch wie lange machen und
0:20:39–0:20:43
dann stellt sich das programm und dann machst du das ist nicht bis wahnsinnig
0:20:43–0:20:49
aber ich habe Ich wollte nichts mit dem Gamification und jetzt hast du noch
0:20:49–0:20:54
einen Preis und noch einen Stern und solche Sachen bekommen und ich habe die
0:20:54–0:20:56
Videos am besten gefunden und,
0:20:57–0:21:02
Ja, wie es aufgebaut ist, hat mir am besten gefallen. Und es kostet 30 Stutze?
0:21:02–0:21:04
Es kostet, glaube ich, auch um die 30 Stutze im Jahr.
0:21:04–0:21:07
Aber du, Kevin, du musst mir etwas erklären, weil ich habe das auch schon ausprobiert.
0:21:07–0:21:08
Und ich habe ein Problem.
0:21:09–0:21:13
Weil egal, wo ich mein Handy oder dann auch den Fernseher anstelle,
0:21:13–0:21:17
wenn ich so eine Yoga-Übung mache, dann schaue ich ja immer irgendwo hin und
0:21:17–0:21:22
nicht unbedingt dort, wo der Fernseher ist. Da musst du dich auch bewegen.
0:21:22–0:21:27
Und der Fixpunkt deines Kopfes ist ja nicht der Fernseher am Schluss.
0:21:27–0:21:31
Und wie machst du das, dass du trotzdem nicht aus dieser Übung rausfällst?
0:21:33–0:21:35
Mit der Zeit kennst du ja die Prozesse.
0:21:36–0:21:36
Ja.
0:21:38–0:21:43
Am Anfang musst du schauen. Wenn jemand mit Yoga anfängt, würde ich empfehlen,
0:21:43–0:21:46
am Anfang immer den gleichen Ablauf zu machen.
0:21:47–0:21:51
Und einen einfachen Ablauf zu nehmen. Dann weisst du irgendwann,
0:21:51–0:21:54
wie die Übungen heissen. Und dann musst du eben nicht immer schauen.
0:21:56–0:22:01
Und das schöne an Yoga, also Yoga hat sich halt so etwas entwickelt,
0:22:01–0:22:06
das ein Statussymbol wird, also heute musst du im kleinen Finger im Handstand
0:22:06–0:22:12
stehen, dass das cool ist, aber eigentlich ganz einfache Yoga-Posen sauber hinzubringen
0:22:12–0:22:15
ist relativ schwierig und das vergisst man oft.
0:22:16–0:22:21
Also ich bin nicht der, der wahnsinnig aufwendige und schwierige Übungen macht,
0:22:21–0:22:26
sondern mir geht es wirklich darum, dass ich beweglich bleibe.
0:22:26–0:22:28
Und das kannst du mit ganz einfachen
0:22:28–0:22:31
Übungen machen. Da musst du nicht irgendetwas kompliziertes haben.
0:22:32–0:22:34
Und ich glaube, dann kannst du dich wie,
0:22:35–0:22:40
in die Figuren, ich denke, und irgendwann hast du die Grundfiguren und dann
0:22:40–0:22:43
hast du irgendwann auch das Verständnis, wenn eine neue Figur oder eine neue
0:22:43–0:22:47
Pose kommt, hast du dann relativ schnell verstanden, wie du die machen musst,
0:22:47–0:22:48
weil du halt die anderen Schuhe hast.
0:22:48–0:22:53
Genau, und das wäre natürlich dann wirklich auch der Vorteil von dieser Insel,
0:22:53–0:22:58
weil da bist du ja nicht zum dann dort jemanden beeindrucken, oder?
0:22:58–0:23:03
Hat es dort sonst, das haben wir auch nicht, das hätten wir auch den Spielregler noch festlegen müssen.
0:23:03–0:23:07
Ich glaube, wir machen diese Sendung wieder mal aber dann mit klaren Spielregeln.
0:23:07–0:23:11
Hat es noch andere Leute auf dieser Insel? Ich würde sagen, nein, oder?
0:23:11–0:23:16
Das ist eine Nerd-Insel und es hat vielleicht einen Nerd-Robinson und es hat
0:23:16–0:23:19
einen Nerd-Freitag, aber sonst hat es niemanden.
0:23:20–0:23:22
Nein, ich würde sagen, es hat niemanden. Es hat halt irgendwie,
0:23:22–0:23:27
ich sage jetzt Frachtschiff, der halt irgendwie dein Essen und dein Trinken bringt.
0:23:27–0:23:30
Und ein bisschen zum Einhängen von Kevin.
0:23:31–0:23:35
Es gibt ja unzählige Sprachlehr-Apps.
0:23:35–0:23:40
Was haben wir, Bubble, Duolingo und so und wer mir auf Social Media folgt,
0:23:40–0:23:42
ich bin ja viel im Tessin, aber mein Italienisch,
0:23:43–0:23:47
Katastrophe, wenn du jetzt einfach einen Monat auf dieser Insel wärst und hast
0:23:47–0:23:52
keine Ablenkung, wenn du einfach jeden Tag, zwei, drei Stunden mit dieser App schaffst,
0:23:53–0:23:57
würdest du wahrscheinlich auch noch einigermassen was erreichen und ich glaube,
0:23:57–0:23:58
du kannst auch bei dieser App,
0:23:59–0:24:03
gewissen Inhalt halt abladen, weil eben, wenn du keine Ablenkung hast und vielleicht
0:24:03–0:24:07
auch eben, ich sage jetzt eingeschränkt das Internet, können wir dann sagen,
0:24:07–0:24:09
Twitter, Facebook und so sind gesperrt.
0:24:11–0:24:13
Ja, das würde wahrscheinlich einiges bringen.
0:24:14–0:24:17
Und eben, wie der Kevin sagt, wenn du jetzt einfach mal eine Stunde lang ganz
0:24:17–0:24:22
fokussierte Übungen machst, bringt das sicher mehr, als wenn du dann denkst,
0:24:22–0:24:28
oh, ich muss ja noch am Kunden XY irgendwie das Konzept schicken und so.
0:24:28–0:24:31
Also Sprachlehr-Apps wären wahrscheinlich auch noch was.
0:24:31–0:24:37
Genau, und ich finde, Digichrist, du hast zwei wirklich wichtige Stichworte
0:24:37–0:24:38
geliefert, nämlich Schiff.
0:24:38–0:24:43
Also ich würde sagen, man braucht irgendeine App, wo man Schiff identifizieren kann.
0:24:43–0:24:46
Ich würde sagen, den Schifffinder brauche ich noch gerne.
0:24:48–0:24:50
Maritime Traffic ist aber das Gleiche.
0:24:51–0:24:57
Wir sind dann völlig, so diese Splendid Isolation, die die Briten jetzt wieder
0:24:57–0:25:01
für sich entdeckt haben, kann man sagen, so sehr, dass sie alle alle sogar irgendwie
0:25:01–0:25:04
auf Afrika ausschaffen wollen, wo es nicht passt.
0:25:04–0:25:09
Aber eben, also diese Splendid Isolation auf der einen Seite,
0:25:09–0:25:15
aber mit der Beobachtung von diesen Schiffen hast du dann trotzdem noch einen Bezug zu der Welt.
0:25:15–0:25:21
Und das andere, für die Nacht würde ich vorschlagen, natürlich irgendeine schöne Astronomie-App.
0:25:22–0:25:28
Und da gibt es auch mehrere. Ich habe da immer wieder verschiedene durchgetestet.
0:25:28–0:25:31
Aber ich würde sagen, die, die man unbedingt empfehlen müsste,
0:25:31–0:25:33
das wäre das Darmap. Da findet man eben,
0:25:35–0:25:39
Da kann man der internationalen Raumstation zuschauen.
0:25:39–0:25:42
Man sieht Sternbilder, man sieht den Mond, man sieht Planeten.
0:25:42–0:25:45
Man sieht, was sichtbar ist.
0:25:45–0:25:50
Und wenn man Astrophotografie machen würde, dann käme man dort vielleicht auch noch Tipps über.
0:25:50–0:25:54
Aber ich würde vorschlagen, dass wir keine Astrophotografie machen auf dieser Insel.
0:25:54–0:25:56
Sondern wir entspannen uns.
0:25:58–0:26:00
Wieso machen wir keine Astrophotografie?
0:26:00–0:26:01
Bist du der Gegner, Kevin?
0:26:03–0:26:08
Es hat so ein mega selektives Tönen. Fotografieren wir schon,
0:26:08–0:26:11
aber Astro, das machen wir nicht. Das ist gruselig.
0:26:11–0:26:16
Nein, es ist einfach, ich würde sagen, ich würde wahnsinnig gerne Astro-Fotografie
0:26:16–0:26:20
machen, aber es ist, wenn du es gut machen willst, wird es wahnsinnig schnell,
0:26:20–0:26:23
wahnsinnig technisch und nerdig und so.
0:26:23–0:26:25
Ich glaube, wir müssen mal eine Sendung dazu machen.
0:26:27–0:26:32
Aber es passt nicht so zu dieser entspannten Vorstellung, die ich von dieser
0:26:32–0:26:33
Insel habe, sagen wir es so.
0:26:33–0:26:38
Ja, aber wenn du über entspannt redest, du hast oft, es gibt ja das,
0:26:38–0:26:42
ich weiss nicht einmal das deutsche Wort, Light Pollution, also du siehst ja
0:26:42–0:26:47
bei uns, wenn du die Sterne schaust, ist es schwierig, also wenn du auf dem Mütliberg oben bist,
0:26:47–0:26:52
aber auf dieser Insel, ich sage mal, du hast jetzt halt dein Bungalow oder dein Tiny House,
0:26:53–0:26:57
dort stellt es dich ab und dann, nehme ich an, wirst du wahrscheinlich schön,
0:26:58–0:26:59
in die Sterne noch schauen können.
0:26:59–0:27:04
Ja, also genau, Kelly, echt Verschmutzung, das ist sicher grossartig.
0:27:04–0:27:05
Das stelle ich mir auch so vor.
0:27:06–0:27:12
Ja, ich würde sagen, wir fangen langsam an, uns auf dieser Insel so ein bisschen heimisch zu fühlen.
0:27:13–0:27:17
Wir haben noch so etwa drei Minuten für diese Sendung und da würde ich sagen,
0:27:18–0:27:24
jeder von euch sollte noch so den ultimative Tipp liefern oder irgendetwas,
0:27:25–0:27:30
was wirklich unverzichtbar ist, weil sonst muss man gerade wieder abreisen.
0:27:30–0:27:34
Und ich muss bei meinem Tipp, glaube ich, beim Kevin anschliessen,
0:27:34–0:27:37
ich muss auch eine Sport-App haben, aber ich muss, glaube ich,
0:27:37–0:27:43
Strava mitnehmen, dass ich dann Local Legend von dieser Insel bin.
0:27:45–0:27:46
Eben, Gamification.
0:27:47–0:27:51
Und niemand kann mir die Local... Weil da, wenn es Wintertour heisst,
0:27:51–0:27:56
sind wir ja irgendwie wieder... Sowieso hat er den Local Legend auf dieser Strasse wieder weggenommen.
0:27:57–0:28:00
Und dann schiesst es mich wieder an, weil ich bin eben anfällig auf das.
0:28:01–0:28:05
Und wenn ich aber sagen kann, nein, hier auf dieser Insel bin ich bis in alle
0:28:05–0:28:08
Ewigkeit Local Legend. Findet euch ab damit.
0:28:10–0:28:15
Ich bin einmal um die Insel rumgelaufen, ich hatte neun Stunden Local Legend.
0:28:15–0:28:15
Bam.
0:28:19–0:28:24
Kevin, dein ultimativer Tipp oder einfach abschliessend, ich muss ja jetzt auch...
0:28:24–0:28:30
Ich habe keinen ultimativen Tipp, aber ich brauche irgendetwas zu meinem Kinofilm.
0:28:30–0:28:36
Und ich kenne Anbieter, weil ich finde alles scheisse, aber ich müsste mich
0:28:36–0:28:39
dann für irgendeinen entscheiden und sagen, ich muss einen Film schauen,
0:28:39–0:28:42
sonst drehe ich durch. Das ist schon wichtig für mich.
0:28:43–0:28:49
Ein self-made Kino irgendwie, aus Bambusstecken und... Und.
0:28:49–0:28:49
Ich glaube...
0:28:49–0:28:51
Ich erfinde etwas. Das schaffe ich.
0:28:51–0:28:55
Für das Problem, Kevin, kannst du nachher eine Freemomessage übernehmen.
0:28:56–0:28:57
Super.
0:29:00–0:29:04
Aber ich würde es jetzt eigentlich wirklich ganz banal nehmen.
0:29:04–0:29:12
Einfach bist einfach sicher, dass du ein Ladekabel hast, dass das in das Outlet der Insel reinpasst.
0:29:12–0:29:17
Weil sonst hast du einfach nach zwei Tagen keinen Puls mehr und dann wird es langweilig. so.
0:29:17–0:29:24
Vielleicht ist das etwas ganz Banales, aber ja. Wenn es halt irgendwie die Amerikaner-Steckdosen
0:29:24–0:29:28
haben, weisst du, da mit, wie nennt man das? Die 110 Volt-Steckdosen.
0:29:29–0:29:32
Und du hast halt deinen normalen Charger, wird es ein bisschen schwierig.
0:29:32–0:29:35
Gut, also, das finde ich ein sehr guter Tipp.
0:29:35–0:29:39
Ich glaube, das wäre wirklich dumm, wenn man angekommen wäre und gesagt hätte,
0:29:39–0:29:46
oh, kein USB-C-Kabel, sondern nur ein Lightning und das passt nicht zu meinem iPhone 15.
0:29:46–0:29:50
Genau, das wäre blöd. Eine Frage müssen wir noch klären. Gehen wir alle auf
0:29:50–0:29:55
die gleiche Insel oder hat jeder von uns eine eigene Insel?
0:29:57–0:29:59
Sagen wir doch, es hat jeder eine
0:29:59–0:30:04
eigene Insel, aber wir dürfen in Kontakt bleiben via, ja, Riverside FM.
0:30:04–0:30:07
Also, ich hätte gesagt, wir sind einfach in Sichtweite, aber okay,
0:30:07–0:30:09
dass wir uns nicht mit Bananen überrühren oder so.
0:30:10–0:30:15
Also, wir sehen uns auf der Insel und bis dann, macht's gut.
0:30:16–0:30:17
Tschüss zusammen.
0:30:17–0:30:18
Tschüss.
0:30:21–0:30:22
Stop recording.
0:30:24–0:30:26
Ich glaube, jetzt wird noch irgendwas.

Viele überlegen sich, welches ihre Lieblings-Platten sind, die sie auf die viel beschworene einsame Insel mitnehmen würden. Auch sehr beliebt: Filme, Bücher und historische Persönlichkeiten. Dabei, lernen wir bei «Geo», gehören die Dinge, die wir auf so einem Eiland wirklich brauchen, nicht in den Bereich der Unterhaltungsmedien. Nein, wir benötigen Wasser, ein Satellitentelefon, Solarpanels, einen Campingkocher, eine Angel, eine Taucherbrille und, nicht zu vergessen, den Sonnenschutz.

Aber wir zelebrieren nicht unsere Neustart-Fantasien, sondern bleiben bei unseren Tugenden: Wir diskutieren und präsentieren heute unsere unverzichtbaren Apps und Online-Dienste: die Programme, ohne die wir nicht arbeiten können, die uns bei unserer Kreativität helfen und uns ermöglichen, uns aufs Wesentliche zu konzentrieren. Man könnte auch sagen: Wir stossen zum harten Kern der weichen Ware vor! „Unsere Apps für die einsame Insel“ weiterlesen

Wann erringt die KI die Weltherrschaft?

Transkript anzeigen (falls vorhanden)

00:00–0:00:07
Music.
0:00:07–0:00:13
Mit «Find the Mole». Wir müssen hier den Maulwurf finden. Digi-Chris, bist du der Maulwurf?
0:00:14–0:00:17
Nein, ich glaube es nicht, aber ich kann mich einfach weitersuchen.
0:00:17–0:00:20
Einer von uns beiden muss es sein, oder?
0:00:21–0:00:27
Der Morgomat. Nein, Morgomat. Das ist Quatsch. Das kommt immer auf die Seitzone
0:00:27–0:00:29
an. Also gut, genau, das stimmt.
0:00:30–0:00:39
Also, sagen wir noch, der passt auch gut. Das war Frau Putin, die uns begrüsst hat.
0:00:39–0:00:44
Diggi, Chris, gut, nice, bist du gut im 2024 angekommen.
0:00:44–0:00:47
Wir sehen uns zum ersten Mal und wir haben uns extra vorher,
0:00:47–0:00:53
als ich in das Studio kam, haben wir uns angeschwiegen, dass wir ja nichts erzählen,
0:00:53–0:00:57
was wir jetzt in der Pre-Show zum Besten geben könnten.
0:00:57–0:01:02
Ja, nein, es ist tatsächlich Zeit vergangen. Das letzte Mal haben wir mit Maggie
0:01:02–0:01:08
im Studio den Realitätsabgleich aufgenommen und jetzt bin ich wieder da.
0:01:09–0:01:13
Genau, das ist schon länger her. Das ist nicht so lange wie während Corona.
0:01:13–0:01:16
Das stimmt. Oh, jetzt hast du schon wieder...
0:01:16–0:01:21
Ich hoffe, das ist kein böses Homen, dass du jetzt mit Corona anfängst.
0:01:21–0:01:23
Nein, aber hast du dich gut erholt?
0:01:23–0:01:30
Kevin und ich haben ja letzte Woche ein bisschen gejammert über unseren Zustand. Geht es dir besser?
0:01:31–0:01:38
Und natürlich, die Neujahrs-Vorsätze sind schon gebrochen, aber das gehört dazu, ob Nerd oder nicht Nerd.
0:01:39–0:01:43
Kannst du in die Details gehen, oder willst du es lieber geheim halten?
0:01:44–0:01:46
Es wäre mal etwas für eine eigene Sendung, wegen so Sachen.
0:01:47–0:01:54
Also, nichts, wo du nicht gesagt hast, was weiss ich, als was würde ich dich
0:01:54–0:02:02
sehen, als... Weiss nicht, nie mehr deinen CO2-Fussabdruck auf Null bringen.
0:02:02–0:02:07
Genau, nie mehr Kreuzfahrt, nie mehr Jellyfine und nie mehr SAP.
0:02:07–0:02:11
Ein SAP ist ja wahrscheinlich auch so ein Energieschleuder. Er läuft auch in
0:02:11–0:02:16
ein SAP mit grünem Strom oder mit Kohlenstrom irgendwo. Ich weiss eigentlich gar nicht.
0:02:17–0:02:21
In Deutschland in so einem schlimmen Rechenzentrum.
0:02:21–0:02:24
Also es steht in Deutschland, ja, aber ich weiss echt nicht,
0:02:24–0:02:27
mit welchem Strom es läuft. Also das müssen wir herausfinden.
0:02:28–0:02:32
Vorsatz in diesem Jahr nur noch grünen Strom verheizen in der Cloud.
0:02:32–0:02:35
Das ist wahrscheinlich auch noch schwierig, würde ich sagen.
0:02:36–0:02:39
Green IT, das wäre auch noch ein Thema. Das wäre auf jeden Fall ein Thema.
0:02:40–0:02:45
Es ist halt schon so, wenn du früher 10 Server in einem Raum hattest und jetzt
0:02:45–0:02:52
mit der Virtualisierung hast du noch einen oder zwei und es skaliert halt einfach besser.
0:02:52–0:02:56
Sprich, auch wenn der vielleicht 20 mal so leistungsfähig ist wie die 10 einzelnen Kisten.
0:02:58–0:02:59
Es ist sicher noch spannend.
0:03:03–0:03:09
Mein Nextcloud, mein Jellyfin, eben steht und das muss ich nochmal sagen,
0:03:09–0:03:11
nein, wir sind nicht gesponsert bei Hetzner und die sagen,
0:03:11–0:03:17
sie denken alles, also grüner Strom und die haben eben auf der RZ einfach unzählige
0:03:17–0:03:19
ein riesiges Solaranlag.
0:03:19–0:03:23
Die nehmen es schon ernst, die haben auch eine riesige Page und wenn sie es
0:03:23–0:03:24
sagen, glauben sie es auch.
0:03:24–0:03:28
Das ist natürlich eben immer schwierig, das zu kontrollieren,
0:03:28–0:03:32
weil alle Unternehmen sind irgendwie grün und wenn du dann genau hinschaust,
0:03:32–0:03:37
Ich glaube, wir haben auch schon kurz über den Zertifikatshandel geredet.
0:03:37–0:03:41
Also dort ist kein Zertifikat, sondern sie machen es und irgendwie in Finnland,
0:03:41–0:03:44
in Irsch wahrscheinlich, glaube ich, ist es vielleicht noch teilweise ein bisschen
0:03:44–0:03:49
einfacher, so einen Strom grün oder irgendwie nachhaltig zu erzeugen.
0:03:49–0:03:53
Ja, das denke ich auch. Die haben ja dort so, was haben sie dort eigentlich?
0:03:53–0:03:55
Sie haben so Wälder und so Wind haben sie wahrscheinlich.
0:03:55–0:04:00
Sie haben viel Wind und sie haben, glaube ich, auch doch irgendwie Wasserkraft.
0:04:00–0:04:03
Gibt es da auch noch. Eben, wäre auch mal so, ja, noch mal so ein Thema.
0:04:04–0:04:07
Green IT eben, ich habe auch schon einen potenziellen Kandidaten,
0:04:07–0:04:10
der sich sehr gut mit Solarzellen auskennt.
0:04:10–0:04:14
Wir haben uns mal abgestimmt, wir zwei haben kein Jahr. Hast du ihn schon eingeladen? Das ist gut.
0:04:14–0:04:18
Also er wäre, er hat dann so gesagt, aber er kommt technisch nicht so ganz raus.
0:04:18–0:04:21
Ich meine, wir müssen ja nicht ins Detail heran. Nein, nein,
0:04:21–0:04:24
aber einfach so ein bisschen der Klassiker. Das große Ganze.
0:04:24–0:04:27
Wir beide sind in einer Mietwohnung, dort wird es eh schwer,
0:04:27–0:04:31
aber ich baue jetzt ein neues Häuschen mit meiner Familie, und ich möchte jetzt
0:04:31–0:04:35
so Dinge drauf tun, das kostet, ich weiss jetzt was, 50'000 Stutz,
0:04:35–0:04:37
wie lange geht es, bis ich es rauskomme?
0:04:37–0:04:41
Genau, das müssen wir mal besprechen und das Hauptthema, wo wir jetzt gerade,
0:04:41–0:04:44
ich spiele dann gerade noch ein bisschen Musik, aber das Hauptthema ist leider,
0:04:44–0:04:48
was den Energieverbrauch angeht, überhaupt nicht optimal.
0:04:48–0:04:51
Das muss man schon sagen. Nein, ich glaube weniger.
0:04:51–0:05:01
Music.
0:05:02–0:05:07
Emmet Rhodes mit «Mirror» und jetzt geht's los mit dem «Nerdfunk».
0:05:07–0:05:22
Music.
0:05:12–0:05:19
«Nerdfunk» Herzlich willkommen zum «Nerdfunk».
0:05:22–0:05:29
2024 ist das alles bestimmende Tech-Thema natürlich. Weisst du es, Chris?
0:05:30–0:05:33
Das neue Service-Pack, das für das SAP rauskommt.
0:05:59–0:06:04
Wo dann die Trends heranzeigen, die man identifizieren kann und was mich auch
0:06:04–0:06:06
noch interessieren würde, was du dazu meinst.
0:06:06–0:06:08
Wo stecken wir in dieser Revolution?
0:06:09–0:06:13
Sind wir noch ganz am Anfang, sind wir mitten drin oder ist es eigentlich fast
0:06:13–0:06:18
schon alles durch und es tut sich nur noch so konsolidieren und etablieren?
0:06:18–0:06:22
Also wir sind ja momentan bei JGPT 4.
0:06:23–0:06:28
Jetzt ist mir noch einmal der OpenAI-Chef entfallen, der es geschaffen hat, Sam Altman.
0:06:30–0:06:34
Anscheinend hätte es ja, ich habe es ja auch einmal gehört, eben wegen 4.5,
0:06:34–0:06:36
was denn das kann, oder 5.0.
0:06:37–0:06:42
Ich glaube, da kommt schon noch einmal ein gröberer Gump.
0:06:42–0:06:48
Ich denke jetzt, das habe ich auch gesagt, im Realitätsabgleich,
0:06:48–0:06:53
dass wenn du jetzt sagst, create a girl holding a beer. Du bist immer mit den Frauen und dem Bier.
0:06:54–0:06:59
Oder eben ja, ein Nerd on a Cruise-Ship.
0:06:59–0:07:04
Die haben mittlerweile 5 Finger. Früher hatten sie mal 3, mal 6.
0:07:04–0:07:10
Nur schon das ist jetzt, würde ich sagen, um 23 hat sich das brutal verbessert.
0:07:11–0:07:15
Genau, bei «Mitch Ernie» konnten wir das in Echtzeit beobachten,
0:07:15–0:07:18
wie die Finger, zuerst hat die Anzahl gestimmt und dann sind sie auch ungefähr
0:07:18–0:07:20
ungefähr am richtigen Ort in der Hand rausgekommen.
0:07:21–0:07:24
Also ich würde sagen, was mich jetzt ein Trend ist, wo man sieht,
0:07:25–0:07:27
die Kommerzialisierung ist im Gang.
0:07:27–0:07:31
Also am Anfang war alles gratis, man konnte es ausprobieren,
0:07:31–0:07:37
man wurde angefixt, man hat Begeisterung entwickelt, so als Normalsterblicher.
0:07:37–0:07:41
Und jetzt finden die Unternehmen, glaube ich, jetzt ist genug Begeisterung da,
0:07:41–0:07:42
jetzt können wir anfangen Geld zu verdienen.
0:07:43–0:07:46
Also man sieht das Co-Pilot Pro, pro das
0:07:46–0:07:49
ist die microsoft profi kai das
0:07:49–0:07:52
hat mit 20 dollar im monat zahlen
0:07:52–0:07:56
dafür 21 franken wenn man die braucht die ist
0:07:56–0:08:00
ein klick zuverlässigen die staat eigentlich immer zur verfügung sie wandert
0:08:00–0:08:05
dann auch alle ideen office anwendungen also kostenau ich habe zum beispiel
0:08:05–0:08:10
im word in schreiben es sollte jetzt zusammenfassung machen mit den notizen
0:08:10–0:08:13
wo gestern im one note gemacht und solche Sachen, das kommt dort.
0:08:15–0:08:19
OpenAI, also bei ChatGPT, da gibt es ja diese Premium-Variante,
0:08:19–0:08:22
die gibt es schon etwas länger, die auch 20 Dollar im Monat kostet.
0:08:22–0:08:28
Und da gibt es jetzt auch den Store, wo du dann auch als Drittanbieter eigene
0:08:28–0:08:34
GPTs, also eigene Bots, die dann Spezialfähigkeiten haben, dort einbringen und
0:08:34–0:08:37
dann diese auch wiederum verkaufen.
0:08:37–0:08:39
Ich glaube, das ist schon ein recht wichtiger Schritt.
0:08:40–0:08:46
Das ist ein wichtiger Schritt. Und wenn man denkt, dass 20 Franken plus minus wie ein Netflix und,
0:08:47–0:08:51
ich glaube, als wir das erste Mal richtig über die KI gesprochen haben,
0:08:51–0:08:57
habe ich mir mal das JetGPT Pro oder Plus geklickt, das auch 20 Franken ist.
0:08:59–0:09:03
Premium heisst es, glaube ich, aber es ist gleich. Das ist jetzt etwas Lustiges
0:09:03–0:09:08
für mich, aber wenn man jetzt an Magit denkt, der täglich programmiert und dann
0:09:08–0:09:12
schreibt er halt dummer irgendwie etwas schreiben,
0:09:13–0:09:19
wo man die Array sortiert oder so, dann spart er eine halbe Stunde oder so und
0:09:19–0:09:24
dann sind die 20 Franken, wenn es so professionell, nichts mehr.
0:09:24–0:09:28
Bei mir muss ich sagen, es ist lustig und ich habe schon angefangen,
0:09:28–0:09:30
wenn ich jemandem eine Mail geschrieben habe im Geschäft, weil irgendwie,
0:09:30–0:09:36
ich komme wegen einer Anfrage, hast du noch ein Chat-GPT-Bild unternommen mit einem Smile und so.
0:09:36–0:09:42
Seit wann kann Chat-GPT zeichnen? Ja, genau, dann hast du deine Nerd-Credibility
0:09:42–0:09:44
da ein bisschen rausschrauben können. Das ist, glaube ich, schon so.
0:09:44–0:09:48
Und ich würde sagen, ich glaube, es ist keine Frage, wenn man das,
0:09:48–0:09:51
wenn man jetzt nur, wenn ich ein bisschen daran rumspielt, dann kann man sich
0:09:51–0:09:54
fragen, ob man es wirklich rausholt.
0:09:54–0:09:56
Wahrscheinlich tue ich es nicht direkt.
0:09:58–0:10:03
Monetarisieren, aber ich spare Zeit und es macht noch Spass auf eine Art und
0:10:03–0:10:04
darum lohnt es sich wahrscheinlich auch.
0:10:05–0:10:09
Man sieht schon, eben mit diesen Drittherstellern,
0:10:10–0:10:16
GPTs, tönt sich da natürlich auch wieder allerhand Probleme auf und da sehen
0:10:16–0:10:20
wir, können wir glaube ich auch ein Vorgeschmäckchen über, was dann im neuen Jahr passiert.
0:10:20–0:10:28
Also etwas naheliegend ist ja, eine virtuelle Freundin oder einen virtuellen
0:10:28–0:10:34
Freund zu fabrizieren mit dem GPT und in der Story zu stellen und dann können
0:10:34–0:10:37
die Leute mit dem flirten und was weiss ich was alles machen.
0:10:38–0:10:40
Und das ist natürlich sofort gemacht
0:10:40–0:10:46
worden, obwohl es eigentlich laut Nutzungsbestimmungen nicht erlaubt ist.
0:10:46–0:10:49
Und ich würde aber sagen, das kannst du wahrscheinlich nicht verhindern,
0:10:50–0:10:57
das ist eine zwingende Folge, dass das passiert und wahrscheinlich würdest du
0:10:57–0:10:58
es einfach gescheiter probieren,
0:10:59–0:11:02
irgendwie geordnete Bahnen zu lenken, probieren es abzuklemmen.
0:11:02–0:11:07
Klar, und es gibt ja die Historiker, wo jemand gesagt hat, meine Oma hat mir
0:11:07–0:11:10
immer Windows 7 Seriennummern vorgelesen und dann ist es so cool.
0:11:10–0:11:15
Genau, das habe ich auch mal geschrieben, ja. Eben, und es gibt glaube ich eben...
0:11:16–0:11:21
Wenn man nochmal ist, du kannst jetzt nicht sagen, make me Tom Cruise,
0:11:21–0:11:26
standing on the Matterhorn, aber wenn du je nachdem sagst, make a man looking
0:11:26–0:11:31
like Tom Cruise oder alternativ beschreibst du halt Tom Cruise,
0:11:31–0:11:33
standing on the Matterhorn, dann macht er es.
0:11:33–0:11:41
Ich habe mich über mein HP-Notebook aufgeregt und dann habe ich einen Blogpost
0:11:41–0:11:44
geschrieben und habe gewählt, dass er mir ein HP-Notebook macht,
0:11:45–0:11:49
wo irgendwie von einem Mann böse angeschaut wird, ein Bild, das ich als Illustration
0:11:49–0:11:52
für den Blogpost brauchen konnte.
0:11:52–0:11:56
Und dann hat er geschrieben, tut mir leid, das kann ich leider nicht machen,
0:11:57–0:11:59
weil das widerspricht den Regeln.
0:12:01–0:12:07
Da ist jetzt irgendein Scherzbold bei den Words angegangen und hat genau diese
0:12:07–0:12:11
Formulierung gebraucht, die dann vom Chat-GPT kommt,
0:12:11–0:12:18
nämlich I'm sorry, but I cannot fulfill this request as it goes against Open-Eye-Use-Policy.
0:12:18–0:12:22
I'm sorry und so weiter. Er sagt immer «I'm sorry». Und dann hat er bei ganz
0:12:22–0:12:29
vielen grossen Plattformen, wie zum Beispiel Amazon oder einfach bei Shopping-Seiten
0:12:29–0:12:32
oder wo, dass man suchen kann, nach dem «I'm sorry».
0:12:32–0:12:38
Und er hat überall Texte gefunden, die einfach automatisch mit Chat-Hippity
0:12:38–0:12:43
textlich generiert worden sind, aber die er nicht gemacht hat,
0:12:43–0:12:46
weil sie irgendwie dieser Regel widersprochen haben.
0:12:46–0:12:52
Und bei Amazon findest du hunderte Anbieter, die ihre Texte automatisiert geschrieben
0:12:52–0:12:56
haben und nicht einmal geschnallt haben, dass das Ding gar nicht...
0:12:56–0:12:59
Also die klassische Artikelbeschreibung, die du halt hast. Genau.
0:13:00–0:13:02
Und dort hätte es wahrscheinlich stehen sollen, ich nehme an,
0:13:03–0:13:06
das ist jetzt ein schönes Zelt, das aussieht wie das Zelt von,
0:13:06–0:13:09
wer ist ein bekannter Zelthersteller?
0:13:09–0:13:14
Hörst du nicht Spatz oder so? Ich weiss es nicht. Ich sage mir Turnschuhe.
0:13:15–0:13:21
Nein, Turnschuhe weiss ich zwar nicht. Die On-Schuhe. Wo der Herr Federer mal
0:13:21–0:13:22
war und dann wieder nicht. Genau.
0:13:23–0:13:26
Das sind Schuhe, die aussehen wie die On-Schuhe, die du gerne kaufen willst,
0:13:26–0:13:28
aber dir nicht leisten kannst.
0:13:28–0:13:31
Und dann hat der Chat-Hippie das Text machen sollen und gesagt,
0:13:31–0:13:32
I'm sorry, I cannot do this.
0:13:32–0:13:38
Und dann hat es in den Shops ganz viele Fehler-Meldungen drin.
0:13:38–0:13:42
Das ist noch lustig auf eine Art, aber man sieht schon auch,
0:13:42–0:13:48
man sieht wirklich schon in einem Jahr, dass das Ding einfach so überall angekommen ist.
0:13:48–0:13:50
Das finde ich schon verblüffend. Ich finde auch noch ein Beispiel,
0:13:50–0:13:51
das ich gerade noch mal heute getestet habe.
0:13:52–0:13:57
Im Tessin habe ich etwas über den ÖV gefragt und noch wahrscheinlich vor einem
0:13:57–0:14:00
Jahr war das einfach kreuzfalsch.
0:14:00–0:14:04
Also ja, bei uns gibt es keinen Busnummer 3 und bla bla bla bla.
0:14:05–0:14:08
Heute sagt das wirklich ganz korrekt, ja, er geht.
0:14:08–0:14:12
Alle 15 Minuten tagt er die Station
0:14:12–0:14:17
A, aber alle 30 Minuten geht er die Station B, was 100% korrekt ist.
0:14:17–0:14:21
Ja, da gibt es Potenzial, glaube ich, immer noch. Ich habe diesen Bart getestet,
0:14:21–0:14:23
das ist das Ding von Google.
0:14:23–0:14:30
Und das ist dann irgendwie im September oder Oktober letztes Jahr hat Google
0:14:30–0:14:32
das so verknüpft mit ganz vielen von ihren Diensten.
0:14:32–0:14:37
Unter anderem auch mit ihrer Hotelsuche und mit ihrer Flugsuche.
0:14:37–0:14:41
Und dann habe ich gesagt, also gut, lieber Bart, such mir eine schöne Reise raus.
0:14:41–0:14:44
Ich möchte eine Woche lang in dieser Zeit auf Griechenland.
0:14:44–0:14:51
Es sollte irgendwo ein Café am Strand sein. Und ich möchte einen günstigen Flug,
0:14:52–0:14:54
einen Direktflug müsste es sein.
0:14:54–0:14:58
Und das Hotel eben am Strand und so. Und dann hat er das super gemacht.
0:14:58–0:15:02
Er hat Flüge rausgesucht und Hotels und so. Dann schaust du und findest, hm.
0:15:03–0:15:06
Aber du, Bart, hat er keiner gesagt, dass wenn du in die Ferien gehst,
0:15:06–0:15:10
dann würdest du wahrscheinlich erwarten, dass das Hotel ungefähr dort ist,
0:15:10–0:15:13
wo dann das Flugzeug landet, wo du hingehst.
0:15:14–0:15:19
Die Hotels waren irgendwo in Griechenland und die Flüge sind irgendwo auch gelandet
0:15:19–0:15:23
in Griechenland, aber an völlig anderen Orten. Da hättest du noch ein Auto mieten
0:15:23–0:15:27
müssen und quer über die ganze Peloponnese fahren oder so. Oder nach den Ferien hin.
0:15:27–0:15:30
Und dann musst du sagen, ja, okay, das ist jetzt noch nicht so.
0:15:30–0:15:33
Ich glaube gerade so, ich würde sagen so,
0:15:34–0:15:38
Wenn du in die Ferien willst, dann solltest du nicht, dass der Chat-GPT oder
0:15:38–0:15:40
der Bart im Moment machen lassen.
0:15:40–0:15:43
Also du wirst sicher zur Unterstützung gehen können oder so,
0:15:43–0:15:52
das geht sicher, aber entweder sitzt du halt mal einen Tag hin und suchst es
0:15:52–0:15:57
raus oder gehst ins Reisebüro und zahlst halt die liebe, liebe Dame im Reisebüro,
0:15:57–0:16:00
die das halt macht und das kennt und vielleicht schon mal da war.
0:16:00–0:16:04
Vielleicht macht dann jemand einen individuellen GPT daraus,
0:16:04–0:16:12
einen Tourismus-Reiseberater-GPT für Leute wie Digi-Chris, die gerne auf einem
0:16:12–0:16:15
Schiff sind und Ausflüge machen.
0:16:16–0:16:19
Was? Frachtschiff, habe ich noch nicht gesagt. Genau, genau.
0:16:19–0:16:25
Also das Problem, das diese Technologie hat, ist noch nicht gelöst, so grundsätzlich.
0:16:25–0:16:31
Ich habe gerade vor kurzem gelesen, offenbar haben die Microsoft Network,
0:16:31–0:16:35
also das ist da ihre MSN, das ist da die News-Webseite, die setzen dort natürlich,
0:16:36–0:16:41
die tun wahrscheinlich ihre eigene Software-Doc-Food, wenn man so schön sagt,
0:16:41–0:16:44
setzen die ein und setzen sie ein, um Bilder raussuchen.
0:16:44–0:16:48
Und dann hatten sie einen Artikel, wo es um.
0:16:50–0:16:55
Kinderpornografie oder sogar Kinderschändung gegangen ist und dann hat die.
0:16:56–0:17:00
Kai halt ein Bild genommen, wo sie gefunden hat, das passt zum Thema,
0:17:00–0:17:02
aber das ist dann irgendwie ein irischer.
0:17:03–0:17:08
Radiomoderator, David Fanning heisst der, wo nichts mit dem Thema oder nichts
0:17:08–0:17:12
mit dem Vorwurf zu tun hatte und der hat dann natürlich logischerweise Microsoft
0:17:12–0:17:15
und die Betreiber dort verklackt im Grunde und Boden hier.
0:17:16–0:17:20
Ich glaube, das ist schon etwas, wo man wahrscheinlich ernst nehmen müsste,
0:17:20–0:17:24
also auch die juristischen Probleme, die einem blühen können,
0:17:24–0:17:28
wenn man die Technologie einfach von sich her wurschteln lässt.
0:17:28–0:17:31
Ja, aber ich glaube, es ist halt auch, ich erinnere mich auch,
0:17:31–0:17:33
das hat auch lange nichts mehr mit KI zu tun gehabt.
0:17:34–0:17:39
Ich bin da im Rundengebäude, im Studium habe ich auch mal einfach eine Aufgabe
0:17:39–0:17:42
gekürzt und sie den Bruch einfach schön in den Rechner hinein getan.
0:17:42–0:17:46
Und ich war so schlau, habe alles eins zu eins abgeschrieben.
0:17:46–0:17:50
Und dann sehe ich da rot, null Punkte. Und für euch trotzdem sowieso.
0:17:51–0:17:55
Sie können ein Sechstel aus diesem Term im Kopf ausklammern,
0:17:55–0:17:56
dann fressen Sie einen Besen.
0:17:56–0:17:59
Sie haben das mit dem TR gemacht, daher null pünktlich.
0:18:00–0:18:06
Okay, verwutscht. Ja, genau. Wenn Sie es schon so machen, schalten Sie doch
0:18:06–0:18:08
das Gehirn und schauen, was Sie da hinschreiben.
0:18:09–0:18:11
Dann ist es genau das Gleiche. Ich meine, dort war jetzt noch meine Prüfung.
0:18:12–0:18:16
Wenn du jetzt halt im schlimmsten Fall auf SRF-CH oder auf TAGI-CH so einen
0:18:16–0:18:20
Fauxpas machst, ist es dann noch etwas blöder. Das kommt garantiert.
0:18:20–0:18:25
Ich habe schon so Inserate gesehen von grossen Pressehäusern,
0:18:25–0:18:29
Medienhäusern, die ich jetzt den Namen nicht sage, aus Gründen.
0:18:31–0:18:39
Und die suchen Leute, die KI betreiben für journalistische und kommerzielle
0:18:39–0:18:43
Einsätze auf News-Plattformen.
0:18:43–0:18:48
Wie genau die aussehen, das weiss man nicht, das stand in diesem Inserat nicht,
0:18:49–0:18:53
aber man kann sich schon vorstellen, dass solche Sachen auch kommen.
0:18:53–0:18:56
Und ja, die plagieren dann auch.
0:18:56–0:18:59
Also ich glaube, das Problem ist, das ist ja ein anderes Ding,
0:18:59–0:19:07
wo man auch lesen kann, dass die Zeitung OpenAI die New York Times verklagt
0:19:07–0:19:10
und Microsoft, glaube ich, auch noch, weil die gesagt haben, ja, hört mal,
0:19:11–0:19:14
wir haben einfach gemerkt, dass ihr unsere Artikel genommen habt,
0:19:14–0:19:17
unseren Premium-Content, wie man so schön sagt,
0:19:17–0:19:20
um eure KIs zu trainieren drauf.
0:19:20–0:19:26
Und die geben jetzt halt Informationen raus, die sie aus unseren Artikeln haben.
0:19:28–0:19:31
Wo wir keine rote Rappe davon haben.
0:19:31–0:19:35
Und das, ich glaube, das ist ein grundsätzliches Problem. Das habe ich schon
0:19:35–0:19:38
vor einem Jahr geschrieben, aber ich glaube, es ist immer noch,
0:19:38–0:19:42
hat man dem Problem zu wenig Aufmerksamkeit geschenkt.
0:19:42–0:19:48
Wenn du auch einen Blog hast, wenn jetzt ChatGPT kommt und lehrt aus deinem Blog,
0:19:49–0:19:53
Informationen daraus zieht, Fragen beantwortet nachher in diesem Abo,
0:19:53–0:19:56
wo sie OpenAI 20 Franken im Monat verdienen.
0:19:57–0:20:03
Aber du, dass du diese Informationen bereitgestellt hast, das sieht man dieser
0:20:03–0:20:04
Antwort dann nicht mehr.
0:20:04–0:20:07
Und OpenAI wäre bis jetzt, glaube ich, auch noch nicht auf die Idee gekommen,
0:20:07–0:20:11
zu sagen, du, liebe Chris, danke, da hast du einen 5-Liber dafür.
0:20:12–0:20:15
Ja, also grundsätzlich, ich glaube schon, es gibt, glaube ich,
0:20:15–0:20:19
GPD vor Gitterquellen an, aber wenn man jetzt an das Problem denkt,
0:20:19–0:20:22
wenn du auf Google News gehst, du siehst irgendeinen Artikel,
0:20:22–0:20:26
hast ein Headline, du klickst drauf, aber dann bist du, ich sage jetzt auf Tag ein Blick.
0:20:27–0:20:31
Frankfurter Allgemeinen, und dann werden es Bannerwerbung und ihr Tracking überkommen,
0:20:31–0:20:34
aber eben, mit Chat-GPD kommt das nicht über.
0:20:34–0:20:38
Genau, wir haben hier die Diskussion zu diesem Leistungsschutzrecht,
0:20:38–0:20:40
die geht ja schon seit Jahren,
0:20:40–0:20:47
und ich glaube, das wird noch, das Leistungsschutzrecht ist ist harmlos im Vergleich
0:20:47–0:20:49
zu dem, was dann da auf uns zukommen könnte.
0:20:49–0:20:53
Klar, auch Wikipedia kannst du sagen, Wikipedia ist kostenlos.
0:20:54–0:20:58
Also ich würde sagen, Wikipedia ist ein wichtiger, wichtiger Bestandteil für die KIs.
0:20:59–0:21:04
Die sind gratis. Da hat man auch gesagt, das soll so sein.
0:21:04–0:21:09
Man stellt das mit den Creative Commons der Menschheit zur Verfügung.
0:21:09–0:21:16
Aber stellt sich dann trotzdem die Frage, ob man da eigentlich auch dran...
0:21:16–0:21:20
Man hat natürlich nicht daran gedacht, weil als man diese Lizenzen gemacht hat,
0:21:20–0:21:24
hat man noch nicht gewusst von OpenAI und JGPT.
0:21:24–0:21:30
Aber will man dann, dass ein Unternehmen reich und mächtig wird auf diesem Ding,
0:21:30–0:21:35
auf diesem Wissen, ohne dass dann die, die das gemacht haben,
0:21:35–0:21:36
nur das Geringste davon haben?
0:21:36–0:21:41
Ich finde das noch schwierig. Eben, gut, das Thema kennen wir ja schon aus der
0:21:41–0:21:46
Open-Source-Software, Akno, du schreibst jetzt irgendwie eine Firewall auf Open-Source,
0:21:46–0:21:52
wo du einfach Pakete blocken kannst, die vielleicht, wer weiss,
0:21:52–0:21:55
eine KI haben und so, und jetzt kommt irgendein Routerhersteller,
0:21:55–0:21:58
der sagt, oh, was der Schüssler geschrieben hat oder was der Digi-Chris geschrieben
0:21:58–0:22:01
hat, cool, das baue ich bei mir mal ein.
0:22:01–0:22:05
Und ich sage, dass ich das zum Spass gemacht habe, weil es mir irgendwie langweilig
0:22:05–0:22:09
war und die verdienen dann hunderte oder tausende Stutz mit so einem Router.
0:22:09–0:22:10
Dann würde ich auch sagen, hey...
0:22:11–0:22:16
Ja, wenn du es zuhause benutzt, ist es mir egal, aber wenn dann jemand mit meinem
0:22:16–0:22:20
geistigem Eigentum richtig Kohle macht, finde ich es schon nicht mehr so lustig.
0:22:20–0:22:26
Und bei dem GPL-Zeug gab es ja schon diverse Schläge, die bis zum Verkaufsverbot gegangen sind.
0:22:26–0:22:30
Dort ist wirklich das Problem, dass die Hardcore-Verfechter,
0:22:30–0:22:34
die sagen natürlich, frei ist frei und dann gibt es keine Ausnahmen und dann
0:22:34–0:22:36
ist alles kommerziell und alles,
0:22:37–0:22:42
was irgendein Unternehmen damit macht, ob es dir passt oder nicht, ist halt abgedeckt.
0:22:42–0:22:46
Und sonst darfst du es nicht unter dieser freien Lizenz rausgeben.
0:22:46–0:22:53
Und das leuchtet mir auf eine Art schon ein, aber auf der anderen Seite finde
0:22:53–0:22:59
ich trotzdem, dass wenn eigentlich die Idee irgendwie gemeinnützig war.
0:23:00–0:23:06
Dann finde ich es schwierig, wenn nachher ein Konzern da einfach knallhart egoistisch
0:23:06–0:23:11
das für sich beansprucht und damit riesige Summen einfährt.
0:23:11–0:23:16
Und da müssen wir dann vielleicht auch schon überlegen, wie viel ist dann das
0:23:16–0:23:18
Menschheitswissen wert?
0:23:18–0:23:23
Dürft man das einfach so als grosses Unternehmen monopolisieren?
0:23:23–0:23:31
Weil eben OpenAI oder Microsoft oder so ein paar wenige sind ja dann auch eine Art Monopol.
0:23:31–0:23:33
Man kann nicht herangehen und sagen, jeder hat die Möglichkeit.
0:23:33–0:23:38
Weil nein, nicht jeder hat die Möglichkeit, so eine Software,
0:23:38–0:23:41
die gleich leistungsfähig ist, aus dem Boden heraus zu stampfen.
0:23:41–0:23:47
Und ich glaube, da sind wir wirklich in so ganz schwierigen Abwägungen drin,
0:23:48–0:23:53
wo ich nicht sehe, dass man auch nur schon anfangen würde, darüber ernsthaft
0:23:53–0:23:55
zu diskutieren. Das ist auch noch etwas zu weit.
0:23:57–0:24:01
Mir ist auch aufgefallen, dass Leute, mit denen ich zusammen arbeite,
0:24:01–0:24:05
nicht gerade die absolut analogen Menschen sind.
0:24:06–0:24:09
Chat-GPT-4 kann Bilder generieren.
0:24:10–0:24:17
Es geht ja momentan nur mit der Premium-Version oder mit dem Bing würde es auch noch gehen.
0:24:18–0:24:23
Ich finde schnell noch etwas, das mir eingefallen ist.
0:24:24–0:24:30
Angenommen, dass jemand jünger ist und ihren Aufsatz für die Schule schreiben
0:24:30–0:24:33
muss, macht ChatGPT auf und fragt zum Beispiel, wo Marseille liegt.
0:24:33–0:24:37
Und dann sagt ChatGPT, Marseille liegt im Norden von Frankreich.
0:24:38–0:24:42
Super. Schreibt sie dann einfach so, ja, Marseille im Norden von Frankreich,
0:24:42–0:24:45
vielleicht mal die Stadt mit den, weiss ich nicht was.
0:24:46–0:24:49
Genau, mit dem Eiffelturm. Ja, mit den Hüpfeln irgendwie so,
0:24:49–0:24:55
weil du weisst ja, selbst in Wikipedia gibt es Fake News.
0:24:55–0:24:58
Da war es vielleicht nicht einmal bewusst oder es ist schon irgendwie ein bisschen
0:24:58–0:24:58
durcheinander gekommen.
0:25:00–0:25:04
Ich glaube, das muss man wirklich klären. Aber es ist wahnsinnig schwierig,
0:25:05–0:25:08
wenn ich sehe, was die Leute einfach in den sozialen Medien alles glauben.
0:25:09–0:25:12
Dann macht mir das ehrlich gesagt auch noch Sorgen. Und wenn man gerade bei
0:25:12–0:25:17
den Sorgen sinkt, dann kann ich auch noch das lesen. Das ist eine neue Studie
0:25:17–0:25:20
vom internationalen Währungsfonds IWF.
0:25:20–0:25:23
Die sagt, KI wird 60% aller Jobs beeinflussen.
0:25:24–0:25:29
Die gut Ausbildeten werden eher positiv beeinflusst.
0:25:29–0:25:35
Die können mit KI ihre Produktivität steigern, kommen dadurch im Idealfall mehr
0:25:35–0:25:42
Geld über, haben einen interessanteren Job, können sich auf die wirklich spannenden Sachen konzentrieren.
0:25:42–0:25:48
Aber dann eben bei den weniger qualifizierten Leuten wird es eher so sein,
0:25:48–0:25:52
dass die konkurrenziert werden durch die KIs und vielleicht dann einen schlechteren
0:25:52–0:25:53
Lohn überkommen müssen.
0:25:54–0:25:59
Ich meine, lohnmässig gegen KI anzudenken ist wirklich schwierig.
0:26:00–0:26:05
Da bist du auf dem verlorenen Posten. und eben auch, es könnte sich noch ein
0:26:05–0:26:08
weiterer, von diesem digitalen Graben reden wir schon lange,
0:26:09–0:26:15
aber der könnte sich halt noch weiter auftun, weil eben die Kluft noch grösser wird.
0:26:15–0:26:19
Und ich glaube, ja, das müssen wir auch im Auge behalten.
0:26:19–0:26:23
Ich finde, wir können dann schnell über einen gewinnenden Gewinner von dieser
0:26:23–0:26:27
KI reden. Und da rede ich jetzt von einem Hardwarekonzern namens Nvidia.
0:26:27–0:26:32
Ja, das ist so. Die machen ursprünglich, also auch vor 20 Jahren,
0:26:32–0:26:36
beim ersten Gaming-PC, das sind so eben Grafikkarten, die man halt spielen kann,
0:26:36–0:26:39
in 3D und mit schönen Bum-Bums-Effekten kann man spielen.
0:26:39–0:26:44
Und mittlerweile haben die Chips und ja, es sind Grafikkarten,
0:26:44–0:26:50
die so darauf optimiert sind, die KI-Anfragen zu bearbeiten.
0:26:50–0:26:54
Also, die verkaufen glaube ich relativ viele Grafikkarten. Genau,
0:26:54–0:26:58
ich sage jetzt OpenAI, Microsoft, wer auch immer.
0:26:58–0:27:02
Und ja, was wir auch in den Preisen bilateral geredet haben,
0:27:03–0:27:08
brauchst du wahrscheinlich 20 neue Atomkraftwerke oder 300 Millionen Solarzellen,
0:27:08–0:27:12
um die ganze Grafikkarte mit Strom zu versorgen.
0:27:12–0:27:16
Und was man auch noch sagen kann in diesem Zusammenhang, viele von diesen Chips,
0:27:16–0:27:18
die hier verbaut werden, die kommen aus Taiwan.
0:27:19–0:27:24
Also wenn da mal China findet, dass Taiwan hm, was machen wir jetzt mit dem? Das ist jetzt uns.
0:27:24–0:27:29
Das gehört jetzt uns, genau. Und dann könnten wir uns gerade noch diese Chipfabriken.
0:27:31–0:27:35
Einverleiben. Dann haben wir vielleicht auch auf einmal ein Problem.
0:27:36–0:27:41
Während der Corona-Pandemie haben wir über die Abhängigkeiten geredet, die wir hier haben.
0:27:43–0:27:47
Aber wir haben die Lektion nicht daraus gelernt, oder? Ich glaube es nicht.
0:27:47–0:27:52
Aber ich glaube auch nicht, dass du sagen könntest, dass Herr Parmalat jetzt
0:27:52–0:27:57
kommt, jetzt machen wir irgendwo in Murten eine Chipfabrik.
0:27:57–0:28:01
Und wir bauen ab nächstem Jahr KI-Chips.
0:28:01–0:28:03
Das braucht, glaube ich, ein bisschen mehr Vorlauf.
0:28:04–0:28:10
Das stimmt schon, aber eben, es ist nicht einfach mit den Lieferketten und allem,
0:28:10–0:28:16
aber dass man jetzt wieder einfach das völlig ignoriert, finde ich trotzdem irgendwie seltsam.
0:28:16–0:28:18
Also, jetzt haben wir noch ein paar Minuten.
0:28:19–0:28:23
Ich muss da zu diesen Grundlagen, es gäbe noch viel mehr.
0:28:23–0:28:25
Ich habe mir noch überlegt, was machen jetzt eigentlich so Apple,
0:28:26–0:28:28
was macht Google vor allem auch?
0:28:28–0:28:31
Ich finde, Apple wäre noch schnell einen wichtigen Punkt, weil man muss schon
0:28:31–0:28:36
sagen, also Siri, bist du mittlerweile sehr blöd bei meinem schönen Bits und
0:28:36–0:28:39
so Podcast, habt ihr da mal ein Teil des Problems?
0:28:39–0:28:41
Add this to the calendar.
0:28:42–0:28:44
Also sprich, du bist auf einer Webseite, ich sage jetzt auch,
0:28:44–0:28:49
du bist, oder to my notes, du bist auf einer Webseite, schönes Hotel, hey Siri.
0:28:50–0:28:54
Add this to the calendar. Du darfst das nicht sagen, sonst können alle in Syrien
0:28:54–0:28:57
sagen. Und dann am 7. Tag, Syrietein, ist einfach das Wort this.
0:28:58–0:29:00
Ja, das habe ich, ich habe auch schon so Sachen gesehen.
0:29:00–0:29:06
Also, genau, da sind, da haben es einige Konzerne, die müssen aufholen.
0:29:06–0:29:07
Ich würde Google da auch dazu zählen.
0:29:07–0:29:13
Facebook habe ich gelesen, die haben jetzt ihr Metaversum, ist ja ihr grosses
0:29:13–0:29:18
Ding gewesen, das sei jetzt so auch ein bisschen zugunsten der KI in den Hintergrund geschoben worden.
0:29:18–0:29:22
Was ich auch sehr sehr spannend finden, was wir vielleicht mal noch separat
0:29:22–0:29:28
drüber reden müssen, dass so die KI-Gadgets, der Humane AI-Pin,
0:29:28–0:29:32
den es gibt, der soll wie der Communicator in Star Trek,
0:29:32–0:29:34
wo du das im Revers rumdrehst und mit dem,
0:29:35–0:29:38
interagierst und mit dem redest und überall, wo du gehst und stehst.
0:29:39–0:29:42
Aber das ist der eben, wo du eine Brille hast, wo du einfach so ein bisschen
0:29:42–0:29:47
dezent heruntersehen und dann... Nein, ich glaube, der redet vor allem mit dir.
0:29:47–0:29:53
Also so eine Art als broschen und so und eben funktioniert größtenteils über
0:29:53–0:29:58
sprachbefehl und dann gibt es noch so eine zweite so eine red tech pocket companion
0:29:58–0:30:03
heißt das ding hat man könne kaufen oder oder ich weiß nicht ist glaubt vielleicht sogar das.
0:30:04–0:30:10
Kickstarter ding die kamen auch das ist so ein gadget mit rum und wo dann also
0:30:10–0:30:16
es kann ein ding ist jetzt das wirklich bringt bin ich noch nicht sicher aber Aber ich glaube,
0:30:16–0:30:20
2024 könnte man es auch mit Leuten zu tun bekommen,
0:30:20–0:30:25
die dann in ihren Reverien reden und so alle Star Trek auf dem Bahnhof.
0:30:25–0:30:30
Dann, was weiss ich was. Gut, dass wir heute in Tour reden, wie der David Hessel
0:30:30–0:30:33
von 30 Jahren. Ja, gut, das stimmt. Das hast du auch schon.
0:30:33–0:30:36
Aber eine kleine Zwischenfrage, die ich jetzt stellen möchte.
0:30:38–0:30:41
Jetzt aus dem Stand heute, wie lange geht es, bist du das erste Mal,
0:30:41–0:30:43
ich sage jetzt im Zug, Zürich Wintertour, ob du jemanden siehst,
0:30:44–0:30:47
der einen Apple Vision Pro im Zug trägt? Das ist eine gute Frage.
0:30:49–0:30:52
Ich würde sagen, wenn du Glück hast, kann es dir schon relativ,
0:30:52–0:30:55
wird es dir schon bald mal passieren, aber ich glaube, dann wäre es wirklich
0:30:55–0:31:00
ein Glückstreffer und bis du das ernsthaft siehst, geht es mindestens drei Jahre.
0:31:01–0:31:04
Ja, sicher, aber ich weiss noch, auch als das iPhone herausgekommen ist,
0:31:04–0:31:08
beim Skifahren hat das eine in der Gondel vorgezogen. Und gut,
0:31:08–0:31:12
das iPhone ist dann schon noch mal etwas nicht so gross.
0:31:13–0:31:18
Und dann plötzlich, wie sagt man, der Gondolier, also der, der die Steigehörner
0:31:18–0:31:21
bedient hat, «Sie haben ein iPhone, darf ich das mal sehen?
0:31:21–0:31:25
Ich habe das im Fernsehen gesehen, darf ich das mal sehen?» Ich glaube nicht,
0:31:25–0:31:29
dass das ein Nerd war, aber er wusste einfach, da kommt ein Telefon,
0:31:29–0:31:30
das alles revolutioniert.
0:31:30–0:31:35
Ja, schon, aber bis mit dieser Brille in den Zug hinschauen,
0:31:35–0:31:38
das braucht, glaube ich, innere Überwindung vor allem auch.
0:31:38–0:31:43
Aber jetzt, ich möchte noch, Digi Chris, ich möchte noch unsere letzte Minute effizient nutzen.
0:31:43–0:31:49
Ich glaube, etwas, was wir auch noch zu tun bekommen, sind so mit diesen KI-Influencer,
0:31:49–0:31:54
die werden dann in den sozialen Medien, man sieht dann die so als Supermodels
0:31:54–0:31:58
und so, die führen die Mode virtuell vor und überall wird man die,
0:31:58–0:31:59
glaube ich, immer mehr sehen.
0:31:59–0:32:04
Und jetzt haben wir fast keine Zeit mehr, um diese Frage zu beantworten,
0:32:04–0:32:05
die ich am Anfang gestellt habe.
0:32:05–0:32:11
Was meinst du? Du hast eher angefunden, mit dem nächsten Chat-GPT,
0:32:11–0:32:13
da wird noch so viel passieren.
0:32:14–0:32:18
Ich würde sagen, es gibt noch mal einen Peak, also wahrscheinlich plus minus
0:32:18–0:32:22
gleich, wie jetzt von drei Fingern an der Hand auf fünf Fingern an der Hand.
0:32:22–0:32:25
Ich sage, es gibt sicher noch mal einen Peak und eben vielleicht irgendwann,
0:32:25–0:32:31
wenn, das kann durchaus sein, dass man heisst so stopp und jetzt ziehen wir das Stecken.
0:32:31–0:32:34
Also ihr entstand, seid so und weg.
0:32:34–0:32:38
Das glaube ich nicht. Ich glaube nicht, dass man das wieder in die Büchse,
0:32:38–0:32:42
dann wird es einfach illegal und umso teurer und umso beliebter und so.
0:32:43–0:32:48
Aber ich glaube, du hast recht, dass der technische Fortschritt dann geht weiter.
0:32:48–0:32:52
Aber ich glaube, wir haben in den Grundzügen gesehen, was die KIs können.
0:32:52–0:32:57
Und ich glaube nicht, dass sie zum Beispiel finde ich sie nicht kreativ,
0:32:57–0:32:58
nicht intuitiv, all das.
0:32:59–0:33:03
Eben, dass sie kein grundsätzliches Verständnis für richtig oder falsch,
0:33:03–0:33:08
für moralisch und unmoralisch haben, an dem wird sich nichts ändern,
0:33:08–0:33:15
sondern das wird man vielleicht immer noch ein bisschen besser simulieren können, aber es wird kein...
0:33:15–0:33:19
Keine KI geben, die dir ein Buch schreibt, das du lieber liest,
0:33:19–0:33:21
als das von Stephen King, oder?
0:33:21–0:33:25
Nein, das sicher nicht. Aber ich sage es vielleicht auch, wenn du mal ein Buch
0:33:25–0:33:28
schreibst, wenn du vielleicht ein wenig strecken musst, dass du das mal ein wenig machst.
0:33:28–0:33:34
Aber klar, wenn wir an Reda, sein Buch denken, da wird es noch 20 Jahre an Reda
0:33:34–0:33:39
brauchen, wo du wahrscheinlich 27 Handlungsstränge hast, das wird noch keine KI geben.
0:33:39–0:33:45
Ich habe auch schon gelesen, in den E-Book-Stores kommen jetzt all diese KI-angeschlutterten
0:33:45–0:33:50
Bücher und da haben die Leute wahrscheinlich jetzt schon die Schnauze voll.
0:33:50–0:33:54
Und das sehe ich als ein riesiges Problem an und es wird dann wahrscheinlich
0:33:54–0:33:57
irgendwann mal auch wieder ein Mechanismus brauchen,
0:33:57–0:34:00
wo kann unterscheiden ist jetzt das menschlich oder
0:34:00–0:34:04
wurde es als label wieso so ist die regel genau
0:34:04–0:34:07
man made wehrsatz kain und dann muss
0:34:07–0:34:14
dann muss der kunde eine verbindung wo leute wirklich und so und leute die die
0:34:14–0:34:19
chat history und sagt nein da hast für das buch hast du da formulierung ausgelenkt
0:34:19–0:34:25
wir nehmen dir das label wieder weg das könnte ich mir gut vorstellen und aber wie wie es rauskommt.
0:34:25–0:34:29
Ich glaube, das wird in einem Jahr sehr spannend.
0:34:29–0:34:33
Wir sind wahrscheinlich bei allem falsch gelegen, aber ich glaube,
0:34:33–0:34:39
wir werden müssen uns dann streng die Finger schauen, was wir richtig und was wir falsch haben.
0:34:39–0:34:43
Ihr könntet eigentlich als Sendungsortiz in einem Jahr die Sendung irgendwie
0:34:43–0:34:47
mal kommentieren, wer hat am meisten Voraussagen gehabt, die richtig gewesen sind.
0:34:47–0:34:50
Das machen wir. Tschüss miteinander. Einen schönen Tschau.
0:34:53–0:35:04
Music.

Ob es uns passt oder nicht: Die künstliche Intelligenz wird auch im neuen Jahr das dominierende Thema in der Tech-Welt sein – und darüber hinaus. In allen Bereichen, sowohl privat als auch bei der Arbeit, sind Auswirkungen zu erwarten. Im Idealfall positiv, indem uns die künstliche Intelligenz Arbeit abnimmt. Aber genauso kann die sie auch als Konkurrent auftreten und unseren Arbeitgeber auf Ideen bringen, wie und wo er Kosten sparen könnte.

Damit wir wissen, woran wir sind, nehmen wir heute eine Auslegeordnung vor: An welchem Punkt stehen wir? Welche unmittelbaren Entwicklungen sind zu erwarten, wie reagieren die grossen Konzerne, welche neuen Geräte und Gadgets erwarten uns?

Und: Stehen wir erst am Anfang der Entwicklung oder ist der grösste Hype schon durch? „Wann erringt die KI die Weltherrschaft?“ weiterlesen