Schu Schu oder Gsiu Gsiu oder wie man immer das ausspricht mit Knockout und
0:00:13–0:00:14
Knocked Out sind wir noch nicht.
0:00:15–0:00:21
Music.
0:00:21–0:00:25
Digi Chris, auch du nicht Knocked Out? Nein, nicht.
0:00:25–0:00:29
Also soweit alles gut und über den Rest müssen wir jetzt nicht reden.
0:00:29–0:00:32
Über welchen Rest? Jetzt machst du mich gerade neugierig. Nein,
0:00:32–0:00:36
was ich mal in den Chat geschrieben habe, aber nein, es geht mir wirklich gut.
0:00:36–0:00:40
Es geht mir gut, also kein Problem, ja.
0:00:40–0:00:44
Also ich versuche jetzt, deine Privatsphäre zu wahren und trotzdem unseren Hörerinnen
0:00:44–0:00:49
und Hörern zu erklären, was es war. Also man hat dich gesehen mit einer ...
0:00:49–0:00:54
Ein bisschen lädiert. Und dann haben wir nicht so genau nach den Details gefragt.
0:00:54–0:00:58
Irgendwie hattest du einen Ringkampf mit deinen Zimmermöbeln.
0:00:59–0:01:04
Aber nein, es ist alles gut. Du lebst noch, das ist das Hauptsache.
0:01:04–0:01:09
Ich glaube noch, und ich kann jetzt auch sagen, dass das Gesundheitssystem in
0:01:09–0:01:13
der Schweiz doch super ist und super effizient.
0:01:13–0:01:19
Also, ich glaube, es wird den Leuten noch als Mail schreiben,
0:01:19–0:01:23
weil wir kommen dann dazu an, anstatt immer zu motzen.
0:01:23–0:01:26
Wenn etwas gut macht, könnte man das ja auch mal machen.
0:01:27–0:01:31
Also, das war mir nicht ganz klar aufgrund des Bildes, das du gepostet hast.
0:01:31–0:01:34
Also du musstest dein Gesundheitssystem in Anspruch nehmen.
0:01:35–0:01:39
Genau, aber dann zahlt man halt jeden Monat 3, aber ja, ja.
0:01:40–0:01:43
Also ich kann, nur als ich dann halt im Büro war mit Leuten,
0:01:43–0:01:47
ah ja, das ist mir auch schon passiert, vielleicht ja und so,
0:01:47–0:01:48
also ja. Ja, mussten sie dann nehmen?
0:01:50–0:01:53
Also falls das, kannst du auch sagen, du willst nicht drüber reden,
0:01:53–0:01:56
wenn es... Das tun, nehmen wir das mal aber tun. Also gut.
0:01:58–0:02:04
Ich kann noch schnell vielleicht etwas in der Pre-Show, was mich zur Weissgluhe treibt.
0:02:04–0:02:10
Also du weisst, ich arbeite in der IT, wir sind ITler und wenn man Teams-Call hat und einfach Leute,
0:02:10–0:02:16
wie ich sage jetzt, Scheisse tönen, weil sie einfach kein Headset haben oder
0:02:16–0:02:18
nur ein Scheiss-Headset und wenn
0:02:18–0:02:21
man dann weiss, dass der Arbeitgeber dir eigentlich das Headset zahlt,
0:02:22–0:02:27
Das bringt mich so zur Weissgut, wenn jemand von lauter... Klar,
0:02:27–0:02:32
wenn du jetzt, also ich spreche jetzt mit dir auch mit dem Headset,
0:02:32–0:02:34
den ich in Teams geholt habe, ich glaube, das klingt einigermassen gut.
0:02:36–0:02:43
Und dann einfach, wenn die Leute irgendwie in Lautsprecher reden und... Wieso macht ihr das?
0:02:43–0:02:45
Und auch selbst, wenn es den Arbeitgeber nicht bezahlen würde,
0:02:45–0:02:51
SAP-Berater verdienen jetzt vielleicht nicht nur den Mindestlohn.
0:02:51–0:02:56
Okay, ah, ich sehe schon, ich habe die falsche Karriere gewählt.
0:02:57–0:03:01
Also ich würde sagen, Pascal findet wahrscheinlich, dass du besser tönen würdest,
0:03:01–0:03:04
wenn du da im Studio wärst. Ja, ja. Damit hat sie natürlich recht.
0:03:05–0:03:09
Aber heute haben wir zumindest ausgerät, dass du ja eigentlich bettlägerig bist.
0:03:11–0:03:15
Tust du jetzt aus den Waagerechten oder aus den Senkrechten senden?
0:03:15–0:03:17
Das müssen wir jetzt noch wissen, dass wir uns das vorstellen können.
0:03:17–0:03:20
Also nein, ich sitze jetzt in meinem Podcaststuhl.
0:03:23–0:03:28
Manchmal stehe ich auch, aber wie gesagt, es geht mir gut und jeder fragt, siehst du dich doppelt?
0:03:29–0:03:31
Nein, habe ich aber auch nie gesehen an diesem HHP.
0:03:32–0:03:36
Also, es geht mir gut und während du mich jetzt auf der Strasse sehen würdest
0:03:36–0:03:39
oder irgendeinen Hörer erkennen würdest... Würdest du nicht umlaufen lassen.
0:03:40–0:03:44
Nein, nein, aber du würdest es nicht erkennen. Ach so, ah ja, sehr gut.
0:03:44–0:03:50
Also, du wolltest noch über Apple reden, und dafür haben wir noch genau 35 Sekunden.
0:03:51–0:03:52
Mehr haben wir nicht für Apple.
0:03:52–0:03:56
Ja, nicht viel Neues, aber klar, je nachdem, wenn es halt Zeit ist,
0:03:56–0:03:59
um dein Gerät zu zersetzen, dann mach's.
0:03:59–0:04:05
Also, das iPhone 16 ist gekommen, ich habe unter neuen AirPods Max da die grossen Kopfhörer.
0:04:05–0:04:10
Ich habe da sehr grosse Klagen darüber gehört, dass der uninspiriert sei und
0:04:10–0:04:12
eigentlich fast nichts Neues dran sei.
0:04:12–0:04:18
Und darum haben wir gefunden, reden wir nicht über Apple oder nur ganz kurz.
0:04:18–0:04:22
Und jetzt geht es dann gerade in der Hauptshow mit etwas ganz anderem los.
0:04:22–0:04:24
Und zwar pünktlich jetzt.
0:04:25–0:04:39
Music.
0:04:39–0:04:43
Wir reden heute über Shitstorms und zwar aus gutem Grund.
0:04:43–0:04:47
Es hat ja verschiedene gegeben. Es hat eigentlich fast nicht mehr aufgehört
0:04:47–0:04:50
zu regnen, das braune Material.
0:04:50–0:04:55
Hätte man nicht etwas weniger Grausiges nehmen können als Wort,
0:04:55–0:04:57
sagen wir mal, statt Shitstorm.
0:04:57–0:04:59
Aber gut, es heisst jetzt nur mal so.
0:05:00–0:05:01
Allgemeine Aufregung.
0:05:03–0:05:07
Empörungswelle. Empörungswelle wäre wahrscheinlich noch gut und auch der Verein
0:05:07–0:05:11
der deutschen Sprache, wo ja auch sagt, der Laptop ist jetzt ein Klapprechner,
0:05:11–0:05:13
ja, Empörungswelle. Genau.
0:05:14–0:05:18
Dann sind wir auch jugendfrei. Der neue Duden ist rausgekommen,
0:05:18–0:05:21
aber ich könnte jetzt nicht sagen, ob Shitstorm da drin ist.
0:05:21–0:05:25
Ich finde das vielleicht noch raus während dieser Sendung. Also wir haben verschiedene Gründe.
0:05:25–0:05:30
Wir haben Sanja Ameti, oder Ameti, ich glaube, man betont es eh ein bisschen
0:05:30–0:05:32
mehr, und Luke Mockridge, zwei,
0:05:33–0:05:38
Leute, die aus unterschiedlichen Gründen, aber mit die mit eher ähnlicher Höhe
0:05:38–0:05:42
so Empörungswellen ausgelöst haben. Und über diese reden wir.
0:05:42–0:05:47
Wie geht das eigentlich? Wie entwickelt sich so ein Shitstorm?
0:05:47–0:05:51
Was kann man machen? Was ist vielleicht gescheit, das man macht?
0:05:52–0:05:53
Und was würde man gescheiter nicht machen?
0:05:53–0:05:59
Also, ich würde sagen, das Intro war einfach so.
0:06:01–0:06:04
Fangen wir doch mit der Frau Amethy an. Die hat... Willst du erzählen,
0:06:04–0:06:08
was hat sie gemacht? Und hast du dich empört? Ja, ganz klar.
0:06:09–0:06:13
Zuerst mal, wer ist Frau Metti? Ich habe sie so wahrgenommen.
0:06:13–0:06:20
Sie ist ja in der Operation Libero, wo ich sage jetzt, eine liberale Vereinigung ist.
0:06:21–0:06:26
Ich glaube, sie haben unter anderem auch gegen die, wie heisst es,
0:06:26–0:06:30
nicht Ausschaffungsinitiative, die andere, irgendwie eine Durchsetzungsinitiative
0:06:30–0:06:33
von der SVP haben sie sich eingesetzt.
0:06:33–0:06:36
Sie sind, ich würde sagen, durchaus pro-europäisch.
0:06:37–0:06:40
Das triggert natürlich viele Leute grauenhaft.
0:06:41–0:06:47
Aber Sie sind jetzt nicht extrem links. Nein, nein, ich habe wegen dem gesagt, liberal. Genau.
0:06:47–0:06:53
Also, liberal ist halt eben grün-liberal. Eine Partei, die mir durchaus nicht unsympathisch ist.
0:06:53–0:06:56
Also, über die Reaktion, ja, okay.
0:06:56–0:06:58
Aber, ja, einfach, wo halt.
0:07:00–0:07:03
Gewisse Sachen halt hat. Sie hat ja nicht gesagt, wir müssen sofort in die EU.
0:07:03–0:07:10
Aber ich glaube, sie nennt es ihren konstruktiven Dialog mit der EU. Ja. Ja,
0:07:12–0:07:16
ich muss mal so sagen. Man kann sagen, sie neigt ein bisschen zur Provokation,
0:07:16–0:07:22
ist aber eigentlich für so eine Jugendorganisation ja auch nicht aussergewöhnlich.
0:07:22–0:07:28
Das gibt es im ganzen Spektrum, dass ihnen die Jungen dann noch ein bisschen
0:07:28–0:07:29
mehr auf die Kacke hauen.
0:07:30–0:07:34
Womit wir wieder beim Shitstorm wären. Aber eben, also du kannst ja sagen,
0:07:34–0:07:39
ich glaube, Herr Wermuth hat mal in einer SB-Parteiversammlung einen Joint angezündet
0:07:39–0:07:43
und den Viechtern, gerade mit jungen Mitstangen, irgendwo vor dem Bundesplatz,
0:07:43–0:07:45
ja was jetzt besser ist, nehmen wir.
0:07:45–0:07:52
Aber ja, die jungen Wilden, also ich glaube, der Herr Leuenberger im Plenio-Verwaltungsrat
0:07:52–0:07:56
ist, glaube ich, als Junge auch mal ziemlich radikal, das ist ein Falschwort,
0:07:56–0:07:59
aber laut gewesen, würde ich sagen. Ich würde sagen, es gehört dazu.
0:07:59–0:08:03
Und jetzt hat sie, sie schiesst offenbar gern, das habe ich nicht gewusst,
0:08:04–0:08:08
aber jetzt hat sie geschossen und hat als Zielscheibe das Bild genommen.
0:08:09–0:08:14
Das Religiöse mit Maria und Jesus und hat darauf geballert und hat das,
0:08:14–0:08:19
was sie für sich allein gesehen hat, nicht so wellen geworfen.
0:08:19–0:08:23
Aber sie hat einen Instagram-Post davon gemacht. macht davon.
0:08:23–0:08:28
Und da muss man schon sagen, hey, ich verstehe ja, dass man im Moment vielleicht
0:08:28–0:08:32
ein bisschen, wie soll ich sagen, manchmal nicht genau überlegt,
0:08:33–0:08:36
aber in dem Moment hätte man vielleicht schon müssen überlegen, ist das eine gute Idee?
0:08:37–0:08:40
Und dann, ich glaube, das ist dann eigentlich fast noch schlimmer,
0:08:41–0:08:44
Verbrechen gewesen, wenn man das so sagen möchte, in diesem Kontext,
0:08:44–0:08:48
ist sie angegangen und hat gesagt, sie hätte gar nicht so genau gewusst,
0:08:48–0:08:52
was das ist und hätte einfach so einen Kunstkatalog Das Bild hätte die richtige
0:08:52–0:08:55
Grösse gehabt, dann hätte sie halt das genommen.
0:08:56–0:08:59
Da kommt man sich vielleicht etwas blöd verkauft vor.
0:09:00–0:09:05
Ja, man muss sagen, auf den Menschenschuss... Ich muss jetzt auch sagen,
0:09:06–0:09:08
wenn ich mich zurück erinnere, als ich vielleicht 13, 14 Jahre alt war,
0:09:09–0:09:12
haben wir vielleicht auch mal mit dem Luftgewehr auf das Bild eines Lehrers gestossen.
0:09:13–0:09:17
Aber da war man 13, 14 Jahre alt, da war man naiv und hat das nicht geschnellt.
0:09:17–0:09:23
Sie ist 32 Jahre alt, sie hat sogar doktoriert, wenn es mir recht ist.
0:09:24–0:09:30
Sie ist eine hochintelligente Frau. Sie hat Rechtswissenschaften studiert und
0:09:30–0:09:31
da würde man schon meinen, ja.
0:09:32–0:09:37
Sie ist eine hochintelligente Frau und dass man so etwas macht.
0:09:37–0:09:40
Und dann eben, das habe ich auch irgendwo gelesen, eben,
0:09:41–0:09:46
Sie ist zwar wahrscheinlich nicht religiös, aber sie ist zumindest auf dem Papier
0:09:46–0:09:51
Muslima und ey, für die Muslime ist der Jesus, Isa, auch ein Prophet.
0:09:51–0:09:56
Also sie hat sozusagen nicht nur die Christen hässlich gemacht,
0:09:56–0:10:01
also mich jetzt nicht, ich sage eben, wie du, es ist dumm, aber ja,
0:10:01–0:10:04
und vielleicht ja, eben also, ich meine,
0:10:05–0:10:08
du schiessest ja auch nicht als Christ auf ein Mohammed-Bild.
0:10:10–0:10:15
Du weisst ja, du bist wahrscheinlich einen Kopf kürzer und du beleidigst Leute,
0:10:15–0:10:18
die vielleicht auch moderat religiös sind.
0:10:18–0:10:23
Ja, also ich finde jetzt, das Bild finde ich recht wüst.
0:10:23–0:10:28
Ich finde jetzt, das Bild regt mir auch gewisse Aggressionen weg.
0:10:28–0:10:32
Ich würde jetzt nicht darauf schiessen, aber ich hätte zum Beispiel vielleicht
0:10:32–0:10:38
Lust, dem Jesus noch ein Schnäuzchen drauf zu malen. Würdest du es wahrscheinlich
0:10:38–0:10:40
dann nicht auf Facebook stellen?
0:10:40–0:10:45
Nein, das würde ich wahrscheinlich nicht. Aber so gewisse Vandalismus-Impulse
0:10:45–0:10:48
habe ich bei dem Bild nachvollziehen können. Nein, aber ernsthaft.
0:10:48–0:10:51
Das war eine dumme Idee.
0:10:51–0:10:57
Aber inzwischen ist es ja, wenn wir sagen, was dann alles passiert ist.
0:10:57–0:10:59
Sie hat ihren Job verloren. Sie war bei Farner.
0:11:00–0:11:08
Wo man vielleicht tatsächlich sagen kann, als Kommunikationsexpertin ist das
0:11:08–0:11:09
schlechte Kommunikation gewesen.
0:11:09–0:11:16
Man könnte sagen, das ist ein Grund, wo sie für den Job disqualifiziert.
0:11:16–0:11:20
Andererseits könnte man ja genauso gut sagen, sie hat vielleicht etwas daraus gelernt.
0:11:20–0:11:25
Und vielleicht hätte man da sagen können, es war auch ein teachable Moment,
0:11:25–0:11:29
wie so die Engländer so schön sagen. Und ich finde, und dann eben...
0:11:31–0:11:36
Es wurde dann darüber diskutiert, wie man sie sonst bestrafen müsste.
0:11:36–0:11:40
Sie mussten zu der Partei-Leitung der GLP Zürich austreten.
0:11:41–0:11:43
Ich glaube, ihre Post im... Was ist sie?
0:11:44–0:11:47
Stadtrat? Ist sie Stadträtin? Das siehst du jetzt... Nein, sie ist glaube ich
0:11:47–0:11:49
Gemeinderätin. Ah, Gemeinderätin.
0:11:50–0:11:54
Ja. Also, das Parlament der Stadt, ja. Da kann sie ja nicht...
0:11:55–0:11:58
Kann sie eigentlich gar nicht, müsste sie selber zurücktreten.
0:11:58–0:12:01
Da kann man sie nicht rausrühren. Aber dort haben sie gefunden,
0:12:01–0:12:08
dass es im Moment eher so aussieht, dass unsere Idee nicht weiter unter Druck kommen würde.
0:12:08–0:12:13
Aber die GLP hat ein Parteiausschlussverfahren gegen sie eingeleitet.
0:12:13–0:12:16
Und wir sind jetzt an dem Punkt, an dem wir entscheiden müssen.
0:12:17–0:12:21
Ist das nicht ein bisschen überzogen? Ich finde es wahnsinnig überzogen.
0:12:21–0:12:25
Man könnte ja jetzt vielleicht mal ruhig durchschnaufen und warten,
0:12:25–0:12:29
in einer Woche ist es wirklich so schlimm und mit ein bisschen Distanz darüber
0:12:29–0:12:31
reden und dann mal schauen,
0:12:31–0:12:40
ist das ein Ausdruck von wirklich Niedergesinnung, die man da gesehen hat und
0:12:40–0:12:42
würde das vielleicht heissen,
0:12:42–0:12:46
dass sie tatsächlich für die Jobs und für die Aufgaben nicht geeignet ist?
0:12:46–0:12:52
Oder war es einfach eine dumme Idee, wie sie uns allen passieren kann und müssen
0:12:52–0:12:55
wir vielleicht nicht einfach das auch mal gut sein lassen?
0:12:55–0:12:58
Zu welcher Ansicht neigst du?
0:12:58–0:13:04
Also ganz klar, es war eine saublöde Idee. Wie gesagt, das ist eine hochintelligente
0:13:04–0:13:07
Dame, aber sie hat ja zumindest den Fehler eingesehen.
0:13:07–0:13:10
Wie jetzt dann die Entschuldigung ist, steht auf einem anderen Blatt.
0:13:10–0:13:15
Während du wahrscheinlich so unter Druck bist, sagst du vielleicht sogar, sie hat den Fehler...
0:13:16–0:13:20
Zugeben. Damit wäre es für mich erledigt gewesen.
0:13:20–0:13:24
Ja, für mich eigentlich auch. Ich muss sagen, je länger das gegangen ist,
0:13:24–0:13:27
am Anfang habe ich gefunden, okay, ist wirklich dumm.
0:13:27–0:13:32
Man muss auch ein bisschen bestraft werden, auch für reine dumme Ideen.
0:13:32–0:13:36
Aber bei mir, ich habe dann wirklich gemerkt, es hat relativ schnell bei mir
0:13:36–0:13:38
gekippt und gefunden, ja, jetzt ist es gut.
0:13:40–0:13:46
Auf Twitter ist der hinterste und letztendlich unter seinem Stein vorgekrochen
0:13:46–0:13:47
und hat sich auch noch aufgeregt.
0:13:47–0:13:52
Und es sind allwahnsinnig viele Leute, die sind ihren religiösen Gefühlen verletzt worden.
0:13:53–0:13:58
Einer hat dann so schön geschrieben, wenn die, die jetzt alle ihren religiösen
0:13:58–0:14:01
Gefühlen verletzt sind, dann am nächsten Sonntag in die Kirche gehen,
0:14:01–0:14:03
dann haben wir dort aber ziemlich ein Gedränge.
0:14:03–0:14:08
Das hat für mich eben auch noch... Und dann kommt es natürlich dazu,
0:14:09–0:14:14
dass halt viele einfach jetzt auch das als Steilpassverstand haben,
0:14:14–0:14:17
zu dieser Frau, die viele Leute,
0:14:18–0:14:22
provozieren, nochmals so richtig eins einzubremsen. Und dann ihre...
0:14:22–0:14:28
Also die jungen SVP zum Beispiel, die haben sie irgendwie verklagt oder was weiss ich was.
0:14:29–0:14:32
Der Herr Imoldi wird sie auch verklagen, haben wir ja schon gehört.
0:14:33–0:14:36
Aber ich glaube, es ist eine Sache, also ich sage jetzt eventuell,
0:14:36–0:14:40
ich sage jetzt früher, ich sage jetzt in der Dorfbeiz irgendwie etwas Dummes
0:14:40–0:14:42
gesagt, hast du vielleicht zehn Leute gehört,
0:14:42–0:14:46
und da haben wir vielleicht gesagt, ja, der Schüssler hat gesagt, man soll...
0:14:46–0:14:48
Nein, das machst du nicht, aber Aber ich paraphrasiere.
0:14:49–0:14:53
Man soll den und den am Baum hängen. Nein, du machst das nicht.
0:14:53–0:14:56
Sagen wir es einfach so. Das wird nach drei Tagen vergessen.
0:14:56–0:15:00
Es könnte sein, dass mir in einem Wutanfall so etwas rausrutscht.
0:15:00–0:15:03
Das ist nicht ganz... Und dann würde es mir auch leid tun.
0:15:04–0:15:09
Aber eben, der Unterschied ist, das Posten würde es, glaube ich,
0:15:09–0:15:11
nicht. Oder ich hätte es schneller gelöscht.
0:15:12–0:15:15
Vielleicht hätte dann natürlich trotzdem schon einer einen Screenshot machen
0:15:15–0:15:17
können. Das ist halt ein bisschen das Problem.
0:15:17–0:15:21
Aber ich glaube, das ist auch ein Fluch der sozialen Medien,
0:15:22–0:15:26
dass so ein Ausrutscher nicht einfach nur begrenzt bleibt.
0:15:27–0:15:35
Und ich würde da gerne noch von ihr wegkommen, aber zuerst würde ich das noch
0:15:35–0:15:39
ausführen, dass sie halt, und da hat die WOTS noch gut,
0:15:40–0:15:46
oder zumindest etwas zugespitzt eine Position vertreten, die man schon anschauen muss.
0:15:48–0:15:54
Der mysogin-rassistische Eifer, also einerseits Rassismus gegen ihre Person,
0:15:54–0:15:57
ich glaube in Bosnien ist sie geboren oder wo,
0:15:57–0:16:06
und eben eine Ausländerin, die dann auch noch so heisst und manchmal so auftritt, manchmal,
0:16:06–0:16:12
wenn man es vielleicht von einer guten Schweizer Frau um das rassistische Stereotyp
0:16:12–0:16:15
weiterzutreiben, nicht würde ich erwarten, eben.
0:16:17–0:16:22
Muslimische Migrationsgeschichte und dann Redzina sagt allen ihre Meinung und so,
0:16:22–0:16:27
das geht einfach nicht und dann ist GLP, wo da glaube ich schon ein bisschen
0:16:27–0:16:34
wenig Rückgrat gezeigt hat das werfen sie ihr auch vor in den Wots und eben am Schluss,
0:16:35–0:16:39
Ich lese das vor, weil ich finde es eigentlich noch treffend, was du da sagst.
0:16:39–0:16:42
Was am Ende bleibt, ist auch eine unschöne Erkenntnis.
0:16:43–0:16:47
Fehler können sich in diesem Land nur jene leisten, deren gesellschaftlicher
0:16:47–0:16:50
Status ohnehin unantastbar ist.
0:16:50–0:16:53
Frauen, erst recht migrantische, gehören nicht dazu.
0:16:54–0:16:57
Und willst du den Heinrich Böll, den du zitiert hast, auch noch hören?
0:16:57–0:17:06
Ja, ja, mach! Also passend hat Heinrich Böll den Vorgang vor 50 Jahren so beschrieben,
0:17:06–0:17:12
die Gewalt von Worten kann manchmal schlimmer sein als die von Ohrfeigen und Pistolen.
0:17:12–0:17:16
Das ist auf eine Art schon richtig, glaube ich.
0:17:19–0:17:24
Wenn der Aschi wieder etwas macht, oder du weisst, der Ander da,
0:17:24–0:17:28
dein Freund, der Glarner, der Folieli,
0:17:30–0:17:37
dann ist man schon viel toleranter oder viel grosszügiger, um das zu verzeihen, glaube ich.
0:17:37–0:17:43
Ja, ist durchaus so, aber was ich auch glaube, wenn jetzt jemand exponiert ist, ich sage jetzt,
0:17:43–0:17:47
ja, ich möchte jetzt nicht ganz klar links-rechts sagen, Aber wahrscheinlich
0:17:47–0:17:51
eben, da wären eigentlich, ich sage, die Gegner der Frau Ameti oder die Gegner
0:17:51–0:17:55
des Klarners sind ständig auf seinem Twitter-Kanal und wollen mal etwas posten.
0:17:55–0:17:57
Ja. Und Screenshot, Bumm, Screenshot.
0:17:57–0:17:59
Ja, ja, klar, klar. Und dann auch klar.
0:17:59–0:18:03
Ich meine, ich muss sagen, ich habe schon ein scheiß Dörrchen überkommen und
0:18:03–0:18:04
das ist vielleicht auch noch spannend.
0:18:06–0:18:12
Und ich habe nicht einmal das Wort Köppel geschrieben. Er hat ja an seiner Abschiedsveranstaltung
0:18:12–0:18:15
im Nationalrat geschwänzt.
0:18:15–0:18:20
Ja, genau. Und da habe ich geschrieben, der schlechteste Nationalrat ever schwänzt.
0:18:20–0:18:22
Ich habe nicht Köppel geschrieben.
0:18:22–0:18:28
Ich habe jetzt glaube ich nicht so viele Follower von ganz rechts.
0:18:28–0:18:33
Ein Pötli von Köppel, es ist ein paar Sekunden gegangen, da hat ein lieber Duggenburger,
0:18:33–0:18:36
ich sage jetzt den Namen nicht, angefangen zu schiessen.
0:18:37–0:18:39
Also ich glaube auch, dass gewisse Leute, gerade von rechts,
0:18:40–0:18:43
wahrscheinlich, sie folgen mir nicht, aber du kannst auf Twitter Liste machen.
0:18:46–0:18:50
Auf der Finders-Liste bist du gelandet also ich meine, ja klar du kannst eine
0:18:50–0:18:55
Liste öfter machen ich habe irgendwie eine Liste zum Beispiel,
0:18:55–0:19:00
aber nein also eine ganz harmlose, Digidec Podcast zum Beispiel oder ÖV oder whatever,
0:19:00–0:19:04
ich habe natürlich eine gewisse Liste, die ich verstecke und ich habe das Gefühl,
0:19:04–0:19:06
dass man gerade bei rechts so,
0:19:06–0:19:11
ich bin jetzt auch nicht gerade die grösste, wichtigste Person dass die dann
0:19:11–0:19:14
das irgendwann wahrscheinlich auf Telegram oder so rumgehen und dann rattert
0:19:14–0:19:16
es und eben die meisten Leute
0:19:16–0:19:21
zwölf Follower aus Deutschland. Gut, da gibt es natürlich schon immer noch die
0:19:21–0:19:23
Bots und so, wo du dann auch noch mitmischst.
0:19:24–0:19:28
Ich glaube, in dem Fall ist es einfach halt so, dass, ja, du hast recht,
0:19:28–0:19:38
der Shitstorm kann alle treffen, aber es ist für einen aus dem Toggenburg oder einen, der so einen,
0:19:39–0:19:42
eingeschweizerten Namen hat und auch so den bünsteligen Stahlgeruch,
0:19:42–0:19:46
ist es einfach viel leichter, so einen Shitstorm auszusitzen,
0:19:46–0:19:48
als jemand mit einem migrantischen Hintergrund.
0:19:48–0:19:54
Und jetzt möchte ich gerne einen von diesen, glaube ich, ersten Shitstorms,
0:19:54–0:19:57
ich bin nicht sicher, ob es der allererste ist, kann man wahrscheinlich nicht
0:19:57–0:19:59
datieren, aber einer von den frühen.
0:19:59–0:20:04
Der ist aus dem Buch von John Ronson, den habe ich da auch schon erwähnt.
0:20:04–0:20:10
Der schreibt noch gute Bücher und der hat 2015 ein Buch geschrieben über Shitstorms
0:20:10–0:20:15
«So you've been publicly shamed», heisst es auf Englisch im Original.
0:20:16–0:20:19
Und in Shitgewittern heisst es auf Deutsch. Und dort ist die Geschichte von
0:20:19–0:20:21
der Justine Sacco vorkommen.
0:20:21–0:20:25
Und die war elf Stunden unterwegs im Flugzeug.
0:20:25–0:20:29
Und bevor sie losgeflogen ist, hat sie geschrieben, «Going to Africa,
0:20:29–0:20:34
hope I don't get AIDS, just kidding, I'm white.» Also das muss man sagen,
0:20:34–0:20:38
ist ein bisschen zynisch.
0:20:38–0:20:44
Aber ich habe eigentlich gefunden, das ist zynisch, ja. ja, aber auf eine Art
0:20:44–0:20:49
eigentlich eine Parodie auf Rassismus und kein echter Rassismus.
0:20:50–0:20:54
Ich habe das wirklich so verstanden. Sie macht sich da über Rassisten lustig,
0:20:54–0:20:59
im Sinne von, jawohl, in Afrika kommen halt noch die schwarzen Aids rüber, oder?
0:21:00–0:21:03
Es war wieder wahrscheinlich blöd und überlegt.
0:21:03–0:21:09
Ich meine, ich habe auch noch, bevor es weitergegeben hat, wo es noch IRC und
0:21:09–0:21:14
so gegeben hat, habe ich einmal von dem Wort Paki gehört. Also das ist ein Wort für Pakistani.
0:21:15–0:21:19
Und wenn ich das jetzt an einen Pakistani würde sagen, ist es rassistisch.
0:21:19–0:21:25
Aber wenn ein Pakistani zu einem Pakistani ich hoffe, ich sage jetzt richtig, also.
0:21:26–0:21:30
Pakistan ist nicht rassistisch. Die sagt jetzt einmal Paki.
0:21:30–0:21:34
Und das hat man mir halt auch damals im IRC müssen erklären,
0:21:34–0:21:40
aha, Paki ist rassistisch, wenn es jemand benutzt, der nicht so ein Ding ist.
0:21:40–0:21:41
Gut, da habe ich was gelernt.
0:21:41–0:21:45
Und wie gesagt, sie hat das sicher nicht böse gemeint.
0:21:45–0:21:49
Und eben ist halt noch blöd, dass du 11 Stunden im Flugzeug warst und damals
0:21:49–0:21:52
hast du im Flugzeug noch kein WLAN gehabt.
0:21:52–0:21:56
So ist es. Das ist die Fortsetzung von dieser Geschichte. Sie hat dann während
0:21:56–0:21:59
ihrem elfstündigen Flug schön geschlafen, ist dann verwacht,
0:21:59–0:22:04
landet und hat gemerkt, sie hat inzwischen ihren Job verloren,
0:22:04–0:22:07
ist weltweit ein Top-Thema auf Twitter gewesen.
0:22:08–0:22:12
Prominente und News-Media-Blogger und so auf der ganzen Welt haben sich auf
0:22:12–0:22:19
sie eingeschossen und gesagt, ihre Follower hätten sie aufgehetzt und sie hätte
0:22:19–0:22:21
einen richtigen Shitstorm abbekommen.
0:22:21–0:22:27
Und es ist recht traurig gewesen und ich glaube sie hat das nicht so gemeint,
0:22:27–0:22:31
sie hat die Dynamik unterschätzt und eben am Schluss, letztlich ist es glaube
0:22:31–0:22:33
ich auch häufig ein Zufall, ob das einer sieht,
0:22:34–0:22:38
der sich dann darüber aufregt oder ob es halt niemand sieht und dann ist er
0:22:38–0:22:43
einen halben Stunde später der Tweet wieder weg und es ist gar nichts passiert, oder?
0:22:44–0:22:53
Das finde ich kleine Fehler können wirklich ganz brutale die dann deine Job verloren haben.
0:22:53–0:22:59
Und Job verloren, das ist ein gutes Stichwort, um auch noch über einen zu sprechen, Luke Mugridge.
0:22:59–0:23:03
War der dir ein Begriff schon früher oder erst jetzt?
0:23:04–0:23:11
Ich habe mal irgendwie, wo es darum ging, er soll ja mal seine Ex-Partnerin, wie sagt man,
0:23:12–0:23:15
Ja, wahrscheinlich... Vergewaltigend war die Vermutung, oder?
0:23:15–0:23:19
Ja, wobei ich habe das eben auch... Man kann da Werbung machen,
0:23:19–0:23:25
also nicht nur das, es gibt auch so einen YouTube-Channel über eben auch Gerichtsurteile
0:23:25–0:23:27
und er ist ja dann freigesprochen worden.
0:23:28–0:23:31
Ja, das weiss ich gar nicht mehr so genau. Anscheinend ist er freigesprochen
0:23:31–0:23:35
worden und meine Meinung ist jetzt auch, egal was jemand macht,
0:23:35–0:23:39
wenn er bei uns, ich sage jetzt Schweiz, Deutschland, Österreich,
0:23:39–0:23:41
das sind Rechtsstaaten, die man sagen kann.
0:23:42–0:23:45
Und wenn dann jemand von einem Gericht freigesprochen wurde,
0:23:45–0:23:46
dann ist er freigesprochen.
0:23:48–0:23:52
Das ist so. Und dort habe ich von ihm mal gehört. Ich habe zuerst auch gemeint,
0:23:52–0:23:55
das sei ein Künstlernamen. Aber er heisst tatsächlich so.
0:23:56–0:23:59
Er hat mich jetzt nicht wirklich interessiert. Ich habe vielleicht auch mal
0:23:59–0:24:03
in seine Videos geschaut. Das hat mich einfach nach 20 Sekunden abgestellt.
0:24:04–0:24:08
Aber ja, ich sage jetzt, er ist glaube ich Comedian. Man sagt, er nennt sich Comedian.
0:24:08–0:24:13
Er hat einen englischen Namen, weil er einen kanadischen Schauspieler,
0:24:13–0:24:15
Bill Mockridge, als Vater hat.
0:24:15–0:24:17
Er ist ein Schauspieler, ein berühmter.
0:24:19–0:24:25
Also berühmt, ja. Also und er hat eben auch einen Shitstorm sich eingefangen
0:24:25–0:24:30
und in dem Fall glaube ich wirklich zu, weil das ist nicht einfach nur ein Ausrutscher gewesen.
0:24:30–0:24:33
Er hat einen Podcast, der heisst
0:24:33–0:24:38
«Die Deutschen». Dort hatten er zwei Mitstreiter, Nisar und Cheyenne.
0:24:38–0:24:45
Die haben sich über Sportlerinnen und Sportler von den Paralympischen Spielen lustig gemacht.
0:24:45–0:24:50
Sie haben gesagt, ich zitiere das, für die, die es nicht mitbekommen haben,
0:24:50–0:24:52
ein von den Sätzen, der gefallen ist.
0:24:52–0:24:56
«Es gibt Menschen ohne Arme und Beine, die wirft man in ein Becken,
0:24:56–0:25:00
und wer als Letzter ertrinkt, der hat gewonnen.» Und es war nicht nur dieser
0:25:00–0:25:04
Spruch, sondern es ging die ganze Zeit so.
0:25:04–0:25:08
Dann haben sie zwischendurch aber gesagt, ja, aber es gibt ja noch den einen,
0:25:08–0:25:11
die kleinwüchsige Comedian und den finden wir gut und so.
0:25:11–0:25:13
Und es ist einfach wirklich ein bisschen,
0:25:14–0:25:18
Da muss ich sagen, da fällt es mir, und jetzt kannst du mir sagen,
0:25:19–0:25:25
ob ich ein Hüchler bin oder nicht, da fällt es mir also viel schwerer, das zu entschuldigen.
0:25:26–0:25:30
Geht mir genauso. Ich glaube, das war ihm echt bewusst. Man hat ja nicht nur
0:25:30–0:25:33
einen dummen Spruch gemacht. Ja, sondern es ist lang.
0:25:34–0:25:39
Ich sage jetzt eben, Frau Meti hat vielleicht einfach eine dumme Kurzschlusshandlung
0:25:39–0:25:43
gemacht, hat dreimal geballert, den Post gemacht und sie hat es dann sofort wieder gelöscht.
0:25:43–0:25:47
Aber ich glaube, die haben vermutlich, ich nehme auch an, die werden ihren Podcast,
0:25:48–0:25:52
ihren Stock haben und ich glaube, wenn ich jetzt so ihren Witz hineinschreiben
0:25:52–0:25:54
würde, würdest du mir aber durchaus sowas verlangen ziehen.
0:25:55–0:25:59
Ja, das hat, ich glaube, es hat auch Leute gegeben, die gesagt haben,
0:25:59–0:26:04
gewisse Sachen, die er gesagt hat, hat er auch schon so in seinem Bühnenprogramm
0:26:04–0:26:07
schon gesagt und so, also das scheint irgendwie so ein bisschen Menschen,
0:26:08–0:26:14
zu seinem Stil zu hören und ich finde ja, wenn wir vielleicht auch noch drüber sprechen.
0:26:14–0:26:19
Dann kommt ja immer so Meinungsfreiheit und Cancel Culture und all das.
0:26:19–0:26:22
Was darf man eigentlich da sagen? Darf man das sagen?
0:26:22–0:26:26
Ich finde, ja, auf eine Art darf man das.
0:26:26–0:26:32
Es ist wahrscheinlich gut, wenn es kein Gesetz gibt oder wenn man vielleicht
0:26:32–0:26:38
jetzt tatsächlich da klagen müsste und entscheiden, dann Richter,
0:26:38–0:26:39
darf man das sagen oder nicht.
0:26:39–0:26:44
Aber ich finde, ja, man darf auch wirklich gruselige Sachen sagen.
0:26:45–0:26:49
Aber es gibt dann halt auch die entsprechenden Reaktionen.
0:26:49–0:26:53
Und ich finde, dass man jetzt zum Beispiel, er hatte dann seine Sendung beim
0:26:53–0:26:57
Sat.1, die hätte dann gerade demnächst losgehen sollen, die hat er verloren.
0:26:58–0:27:00
Und da hingegen, muss ich sagen, das finde ich völlig in Ordnung,
0:27:01–0:27:05
wenn du bei so einem grossen Sender eine Sendung hast, dann musst du irgendwie
0:27:05–0:27:13
in einer Form ein breites Publikum ansprechen, ohne ohne eine bestimmte Gruppe auszugrenzen.
0:27:13–0:27:14
Und dann hast du dort nichts verloren.
0:27:15–0:27:18
Also das ist für mich dann keine Cancel Culture, sondern einfach die logische
0:27:18–0:27:25
Folge, dass du in die Rolle von so einem Moderator nicht mehr einpassen kannst.
0:27:25–0:27:30
Ganz klar. Und wenn du jetzt auch denkst, eben Cancel Culture, Werbeverträge.
0:27:30–0:27:33
Also wenn du jetzt, du bist irgendein Hersteller und du bist,
0:27:33–0:27:35
ich sage jetzt, hm, was machen wir?
0:27:35–0:27:39
Irgendein Produkt, was ist das Produkt, das für die Familie passt?
0:27:39–0:27:44
Cornflakes. Sagen wir Cornflakes, ja, dann willst du vielleicht nicht irgendjemanden,
0:27:44–0:27:48
der einfach immer unter die Gürtellinie geht, wenn du jetzt vielleicht für einen
0:27:48–0:27:51
Whisky oder so Dings bist.
0:27:51–0:27:57
Ja, passt das vielleicht, also wenn du jetzt mal so das Glück hast von jemandem
0:27:57–0:28:04
als Brand Ambassador, heisst das so schön neudeutsch, dann musst du den Brand auch anpassen. Ja.
0:28:04–0:28:08
Und ja, vielleicht, ich habe keine Ahnung, wenn jetzt irgendjemand.
0:28:09–0:28:14
Wofür ihr eine Hiltl-Werbung macht, plötzlich über Veganer herzieht,
0:28:14–0:28:18
dann würde ich Herrn Hiltl auch sagen, es passt leider nicht mehr.
0:28:18–0:28:24
Genau, genau. Ich finde auch, wenn eine Plattform wie YouTube sagt,
0:28:25–0:28:29
wir wollen solche Videos nicht bei uns haben, sondern die passen nicht rein,
0:28:29–0:28:31
dann würde ich auch sagen, das ist okay.
0:28:31–0:28:34
Dann kannst du schauen, ob du das auf deine eigene Webseite tust.
0:28:34–0:28:40
Dann hast du vielleicht nur noch eine kleine Reichweite und dann auch noch Leute,
0:28:40–0:28:44
die deine Meinung teilen und das nennt man ja De-Platforming.
0:28:44–0:28:48
Ich finde, das ist für mich eigentlich keine Cancel Culture,
0:28:49–0:28:54
wenn man es so in diesem sensorischen Begriff benutzt.
0:28:54–0:29:01
Aber ja, ich habe in diesem Fall wirklich tatsächlich wahnsinnig Mühe,
0:29:01–0:29:05
ihn zu verteidigen und er hat sich dann auch so ein wenig entschuldigt,
0:29:05–0:29:11
aber das ist auch wirklich halt schwieriger.
0:29:11–0:29:15
Ja, ist bei ihm, ja, echt, würde ich sagen, ein wenig schwieriger.
0:29:15–0:29:19
Also eben bei der anderen Dame, eben hochintelligente Dame, ich weiss nicht,
0:29:20–0:29:24
was der Motto ist für dich, die hat, ja, komm, eben, wir machen alles einmal seich.
0:29:24–0:29:29
Ich sage dir, kann dir einmal passieren und eben, wenn du Pech hast und gerade
0:29:29–0:29:33
jemand vom SRF mit dem Mikrofon hinter dir steht, Ja, genau.
0:29:34–0:29:39
Und so ist es halt. Und darum finde ich, der Mockridge war kein Begriff.
0:29:40–0:29:48
Und wenn man einem dann halt so auftaucht, dann würde ich nicht an eine seiner Comedy-Shows gehen.
0:29:49–0:29:54
Aber vielleicht lernt er dann doch irgendwann mal etwas daraus. Und wenn er dann.
0:29:57–0:30:02
Das thematisieren kann, dann würde es ja vielleicht auch wieder anders ausgesehen.
0:30:02–0:30:05
Man kann ja tatsächlich, auch ihm würde ich jetzt zugestehen,
0:30:05–0:30:08
dass er vielleicht irgendwann etwas daraus lehrt.
0:30:09–0:30:14
Ich finde, was mir noch in den Sinn kommt, auch mal einer von den ersten Shitstorms,
0:30:14–0:30:18
magst du dich noch an den berühmten Kristallnacht-Tweet erinnern?
0:30:19–0:30:21
Das sagt mir etwas, aber von wem war das?
0:30:22–0:30:25
Lass mich überlegen. Ich weiss nicht, wer es ist, aber ich weiss nur,
0:30:25–0:30:28
ich bin dort irgendwo, habe Twitter scrollt und die Person gesehen und eben,
0:30:30–0:30:35
Zitat, Achtung Zitat wir brauchen eine Kristallnacht dieses Mal gegen Moscheen
0:30:35–0:30:40
und ich schreibe so, oh, was für ein Idiot, aber das ist typisch für ihn und
0:30:40–0:30:43
ich habe da natürlich nicht ja, und dann hat irgend,
0:30:43–0:30:48
glaube ich sogar ein Tagischournalist hat das einfach auf Titelseite gehauen
0:30:48–0:30:52
und anscheinend ihm nicht einmal die Chance gelassen, weisst du,
0:30:52–0:30:56
zumindest stell ich es nicht, Zitat, er sei anscheinend beruflich unterwegs gewesen,
0:30:57–0:30:59
finde ich, wenn jetzt jemand, also jetzt,
0:31:00–0:31:04
Wenn wir mal so einen Scheiss raushauen, finde ich, für einen guten Journalisten
0:31:04–0:31:08
muss man wenigstens die Möglichkeit geben, die Stellung zu nehmen,
0:31:08–0:31:10
wieso hast du das geschrieben?
0:31:10–0:31:15
Ja, das würde eigentlich schon dazugehören. Und jetzt, wir sind kurz vor dem
0:31:15–0:31:17
Ende, ich möchte noch etwas sagen.
0:31:17–0:31:21
Also wir haben diese Shitstorms, ich glaube, ich fände es gut,
0:31:21–0:31:25
wenn man wieder auf eine sachliche Ebene zurückfinden könnte.
0:31:25–0:31:29
Wie genau, dass man das könnte machen, ist mir nicht so ganz klar,
0:31:29–0:31:31
vielleicht eben halt, wenn auch einfach die.
0:31:33–0:31:38
Sozialen Medien nicht so derartig würden davon leben, dass halt Empörung.
0:31:39–0:31:44
Am Schluss letztlich ihnen Umsatz, am meisten Umsatz generiert,
0:31:44–0:31:49
dass man von dem weg kommt und die Empörung auch einfach auf ganzer Linie bewirtschaftet
0:31:49–0:31:50
das finde ich so ein Problem,
0:31:50–0:31:55
wenn die Leute ein bisschen weniger dazu angeheizt werden würden und vielleicht auch eher,
0:31:56–0:32:00
Anreize für konstruktive Ansätze und nicht für einfach Leute,
0:32:00–0:32:01
die aneinander gurgeln.
0:32:02–0:32:06
Aber was man vielleicht schon noch sagen muss, ist, diese Shitstorms können
0:32:06–0:32:10
auch natürlich zum einen so ein politisches Kampfmittel sein,
0:32:12–0:32:14
Zum Beispiel, über das haben wir jetzt fast keine Zeit mehr,
0:32:14–0:32:18
was ein bisschen schade ist, um das noch ein bisschen ausführlicher darüber zu sprechen.
0:32:19–0:32:25
Zum Beispiel, dass es so Accounts gibt, wo wirklich Antisemitismus oder Rassismus
0:32:25–0:32:28
einfach anprangert auf Twitter und sagt,
0:32:28–0:32:33
hey, wenn ihr rassistisch seid und euch so äussert, müsst ihr damit rechnen,
0:32:33–0:32:37
dass wir dafür sorgen, dass euch ein Shitstorm erreicht.
0:32:37–0:32:45
Das ist auch, denke ich, zur Verschärfung der Situation beigetragen,
0:32:45–0:32:49
aber es erinnert vielleicht auch daran, dass Meinungsfreiheit nicht einfach gratis ist,
0:32:50–0:32:54
sondern dass es auch mit einem Preis kommt, wenn du unpopuläre Meinungen hast.
0:32:54–0:32:59
Und das geht manchmal vielleicht bei denen, die sagen, ja, weil Meinungsfreiheit
0:32:59–0:33:03
heisst einfach, man kann alles sagen, was man gerne möchte, ungestraft und ohne
0:33:03–0:33:07
Konsequenzen, dass das ein bisschen in ihnen zurechtgerückt wird.
0:33:08–0:33:14
Manchmal sind diese Shitstorms auch gegen Unternehmen. Es gibt es gegen Nestlé,
0:33:14–0:33:20
Barilla, United Airlines, Pepsi, Gillette, Disney, Bud Light.
0:33:20–0:33:26
Einige dieser grossen Unternehmen kamen daran, wenn sie sich falsch aufgeführt haben.
0:33:26–0:33:35
Dort ist ein Shitstorm wie ein Korrektiv der Konsumenten, die manchmal vernachlässigt
0:33:35–0:33:37
werden, gegen diese grossen Unternehmen.
0:33:37–0:33:42
Ich denke, zum Schluss noch etwas Provokatives und nicht ernst gemeint.
0:33:42–0:33:46
Man könnte die Shitstorms einfach abstellen, indem man die Retweet-Funktion
0:33:46–0:33:52
blockiert und die Screenshot-Funktion blockiert. Das gibt es doch gar nicht mehr.
0:33:52–0:33:56
Nein, es ist natürlich nicht ernst gemeint, aber ich glaube,
0:33:56–0:33:59
die Hörer merken das, wenn ich etwas nicht ganz ernst meine.
0:33:59–0:34:02
Ich finde es eine gute Idee. Tschüss miteinander.
0:34:05–0:34:20
Music.
In den sozialen Medien werden Leute ohne Recht auf Verteidigung oder Anhörung abgeurteilt – und ob die Strafe im Verhältnis zum Vergehen angemessen ist, spielt auch fast keine Rolle. Und wer – zum Beispiel als junge, aufmüpfige Frau – anderen schon vorher ein Dorn im Auge war, hat mit besonders heftigen Sanktionen zu rechnen.
Wir nehmen die beiden grossen Shitstorms der letzten Tage zum Anlass, über die Empörung im Netz zu sprechen. Was haben die Fälle von Sanija Ameti und Luke Mockridge gemeinsam? In welchen Aspekten unterscheiden sie sich? Und gibt es einen Weg zu einer vernünftigen Diskussionskultur, bei der die Entgleisungen klar benannt und sachlich gekontert werden – ohne gleich den Kopf oder zumindest die Entlassung der Leute zu fordern? „Wenn Menschen in Shitstorms abgeurteilt werden“ weiterlesen
Also, eigentlich wollte ich das gar nicht mehr spielen. Das ist Placebo mit Every You, Every Me.
0:00:12–0:00:15
Aber ich habe den richtigen Knopf mal wieder nicht gefunden.
0:00:15–0:00:18
Das ist, glaube ich, ein Running Gag in dieser Sendung. Hey,
0:00:18–0:00:20
hast du das gehupen von meinem Hund drauf?
0:00:20–0:00:23
Der bearbeitet gerade jetzt genau in dem Moment sein Quietschespielzeug.
0:00:23–0:00:25
Hätte er neben mir, das glaubst du ja nicht.
0:00:28–0:00:32
Radio Stadtfichter. Und was soll man dazu sagen?
0:00:32–0:00:36
Quietschenspielzeug ist für Anfänger. Wir haben hier den Mann mit den Hühnern.
0:00:36–0:00:38
Da ist Kevin Rechsteiner.
0:00:39–0:00:45
Sie waren ruhig, niemand war da. Und jetzt kommen sie zurück, als es dunkel wird.
0:00:46–0:00:49
Ich habe vor drei Minuten kein Huhn mehr.
0:00:49–0:00:51
Und jetzt geht es... Jetzt ist Radio.
0:00:53–0:01:00
Die sind halt nett zu ihrem Papa. die sagen «Hoi», die wollen wissen,
0:01:00–0:01:02
wie der Tag war, wie es dir geht.
0:01:02–0:01:10
Das ist richtig vorbildlich. Da könnte das eine oder andere Ehepaar etwas lernen von euch.
0:01:12–0:01:15
Ich glaube nicht, dass es wegen dem ist. Es gibt einfach Futteralte.
0:01:15–0:01:18
Ach so, okay. Das ist die Gruppe.
0:01:19–0:01:24
Fahrt das Futter an. Ja gut, aber weisst du, wenn du jetzt so einen Ehe-Ratgeber,
0:01:24–0:01:28
sagen wir mal aus den 1960er Jahren liest, da steht auch drin,
0:01:28–0:01:33
also du als Frau bist dazu da, dass wenn dein Mann nach Hause kommt,
0:01:35–0:01:38
Was ist das? Was ist das? Das bin nicht ich.
0:01:39–0:01:42
Ui, ich glaube, das ist die Klimaanlage. Das bin nicht ich.
0:01:42–0:01:48
Ich mache die Klimaanlage hier aus im Studio. Ich glaube, die hat jetzt ihren Zenit überschritten.
0:01:48–0:01:52
Die Klimaanlage ist der Klimaerwärmung nicht gewachsen.
0:01:52–0:01:59
Also ich wollte sagen, der Ratgeber für eine gute Ehe sagt ja auch,
0:01:59–0:02:03
wenn dein Mann am Abend nach Hause kommt vom Arbeiten, dann musst du Verständnis
0:02:03–0:02:10
dafür haben, dass er müde ist und erschöpft von der harten Arbeit, die er da geliefert hat.
0:02:10–0:02:14
Also musst du ihm zuerst etwas kochen, dann musst du ihm ein bisschen Sacko
0:02:14–0:02:16
abziehen und die Krawatte lockern
0:02:16–0:02:22
und dann darf er auf seinen Stuhl sitzen und einen Drink servieren.
0:02:23–0:02:30
Das ist im Fall voll unironisch. Gibt es dieses Buch? Ich habe es im Internet
0:02:30–0:02:31
gesehen, das Buch gibt es.
0:02:31–0:02:35
Und diese Hühner, die drehen jetzt einfach den Spiess um mit dir.
0:02:37–0:02:40
Sie sagen, du kommst nach Hause und dann kümmerst du dich mal um uns.
0:02:41–0:02:43
Ja, genau. Frisches Essen, frisches Wasser.
0:02:44–0:02:46
Genau. Du schaust ein bisschen Stroh locker.
0:02:48–0:02:51
Ja, etwa so. Wir hatten so einen strengen Tag.
0:02:51–0:02:54
Den ganzen Tag mussten wir unterwegs sein, in der Sonne. Ja,
0:02:54–0:02:58
so Würmerpicken und so. So, das darf man nicht unterschätzen.
0:03:00–0:03:02
Kevin, wie geht's dir?
0:03:03–0:03:07
Mir geht es gut. Okay. Mir geht es gut.
0:03:07–0:03:10
Sollen wir das jetzt in eine Pre-Show in zwei Minuten packen?
0:03:10–0:03:11
Jawohl, das schaffst du.
0:03:11–0:03:18
Das ist mein mentales Problem, im Radio zu kommunizieren. Das wäre ja mega lustig.
0:03:19–0:03:25
Aber ich glaube, dass ich eine depressive Phase habe, wissen mittlerweile alle,
0:03:25–0:03:26
die das regelmässig hören.
0:03:27–0:03:31
Ich glaube, du hast es nie so explizit gesagt, aber man kann es so ein bisschen...
0:03:31–0:03:35
Ja, aber mehr im Winter auch, glaube ich, oder? Ja, genau, im Winter.
0:03:36–0:03:40
Und die letzte Schlimme war vor drei Jahren. Dann habe ich mein Antidepressivo genommen.
0:03:40–0:03:43
Und dann habe ich gesagt, ich habe es im Griff. Und jetzt...
0:03:44–0:03:45
Depressionen sind eben sehr clever.
0:03:46–0:03:50
Jetzt ist sie richtig schleichend gekommen. Und ich hatte sie über Monate und
0:03:50–0:03:51
ich habe es nicht gemerkt.
0:03:52–0:03:58
Und seit etwa drei Wochen geht es mir wieder gut. Aber ich hätte vor fünf Wochen
0:03:58–0:04:01
nicht sagen können, mir geht es schlecht. Das war alles anstrengend um mich.
0:04:04–0:04:08
Ich bin jetzt gerade etwas unschlüssig, weil eigentlich müssten wir jetzt gerade
0:04:08–0:04:15
nahtlos in die Sendung übergehen, wo wir uns ausgedacht haben oder wo ich mir ausgedacht habe.
0:04:15–0:04:18
Du hast gesagt, du könntest etwas damit anfangen.
0:04:19–0:04:23
Und ich würde sagen, das machen wir doch, oder? Das machen wir gerade so.
0:04:23–0:04:27
Das passt zusammen. Passt das gleich zusammen. Also, verzeiht mir,
0:04:27–0:04:32
wenn ich jetzt noch so tue, als ob ich noch etwas zu sagen hätte für 20 Sekunden,
0:04:32–0:04:36
dass man einigermassen pünktlich anfangen könnte. Nein, aber es hat sich so schön ergeben.
0:04:36–0:04:42
Also, es geht um Selbstfürsorge. Wie schaut man eigentlich hoch für sich?
0:04:42–0:04:48
Gerade auch so als Nerd. Darum geht es. Und zwar genau 5 Sekunden vor halb 8
0:04:48–0:04:50
Uhr auf Radio Stadtfilter.
0:04:51–0:04:52
Jetzt ist es sogar pünktlich.
0:04:53–0:05:05
Music.
0:05:05–0:05:09
Dias Schüssler. Nerd, bist doch gut zu dir, heisst die Sendung.
0:05:09–0:05:13
Wir fragen, was ist dann dran am Klischee von diesem verwahrlosten Nerd,
0:05:14–0:05:18
der eben nicht so genau weiss, wie er sich um sich selber kümmert.
0:05:18–0:05:22
Wir reden ein ehrliches Wort über Selbstfürsorge. Betreiben wir sie selber,
0:05:23–0:05:25
wenn ja wie, in ausreichendem Mass?
0:05:27–0:05:33
Und was sind dann vielleicht unsere speziellen Bedürfnisse und was könnte bei denen helfen?
0:05:35–0:05:41
Du hast jetzt, Kevin, eigentlich, ich wollte ein wenig sanft in das Thema einsteigen
0:05:41–0:05:47
und du hast in der Pre-Show den Ball, wie soll ich sagen, ein wenig härter aufs Goal geschossen.
0:05:48–0:05:50
Aber ich fange jetzt trotzdem an, wenn ich eigentlich anfangen wollte.
0:05:50–0:05:56
Meine Frau hat dann gefunden, hey, du Ehemann, du solltest mal etwas für dich
0:05:56–0:06:00
tun, ich habe dir da einen guten Schein für, und jetzt kommt es,
0:06:00–0:06:02
für die Fusspflege. Sie hat gefunden, meine Füsse.
0:06:02–0:06:08
Ich habe ja dann das Bild gefunden, das Meme, «How Man Shower» heisst es.
0:06:10–0:06:15
Das hast du vielleicht auch schon gesehen. Da sieht man einen Mann, wo er duscht.
0:06:16–0:06:22
Er putzt sich unter den Achseln, auf dem Kopf vielleicht, und dann noch im Genitalbereich.
0:06:22–0:06:26
Der Rest dann so ein bisschen, aber Füsse bis zu den Füssen,
0:06:26–0:06:32
aber er buckt an sich hin. Es gibt diese Bereiche, wo man nie so richtig dran kommt.
0:06:32–0:06:37
Und ich habe gefunden, genau Füsse, warum genau muss man sich um seine Füsse
0:06:37–0:06:40
kümmern? Die sind ja eigentlich einfach da.
0:06:40–0:06:46
Und dann war ich bei dieser Fusspflege und fand es nicht völlig komisch,
0:06:46–0:06:52
also nicht völlig abartig, aber es ist trotzdem irgendwie, habe ich nicht so
0:06:52–0:06:54
verinnerlicht, warum man das machen sollte.
0:06:54–0:07:01
Und du, ich glaube, du bist da, Kevin, ein bisschen mehr in Einklang oder bringst
0:07:01–0:07:06
so die Psyche und den Körper noch ein bisschen mehr in Synchronität wie ich.
0:07:07–0:07:08
Und du kannst mir das vielleicht erklären.
0:07:09–0:07:14
Hey, Füsse im Fall gar nicht. Nein. Meine Füsse sind so ein Hobby,
0:07:14–0:07:18
die Füsse. Nein, bei den Füssen gebe ich mir mega keine Mühe. Ja, ich auch.
0:07:19–0:07:23
Also ich kann sie ja mega gerne und ich laufe ja mega viel barfuss rum und ich
0:07:23–0:07:26
kann ja nicht gerne Schuhe haben. Eigentlich müssten mir die Füsse wichtig sein.
0:07:26–0:07:30
Aber die Füsse, also ich habe jetzt halt auch nicht ein Problem mit meinen Füssen.
0:07:31–0:07:36
Es sind so die angenehmen Themen, so eingewachsene Fussnägel oder Fussbild und
0:07:36–0:07:38
so und all das Das coole Zeug.
0:07:38–0:07:42
Ich habe nichts von dem. Ich habe wirklich so völlig easy Füsse,
0:07:42–0:07:45
ich kann die Fussnägel schneiden und ey läuft.
0:07:45–0:07:50
Das einzige was ich habe seit, seit, keine Ahnung, zwei, drei,
0:07:50–0:07:52
vier Jahren, ich habe so Hornhaut.
0:07:53–0:07:56
Okay. Das ist scheisse. Ja genau, für das. Das ist ein Kack.
0:07:56–0:08:01
Für das ist eben die Fusspflege da. Die schrubbelt dann liebevoll die Hornhaut weg.
0:08:02–0:08:05
Ja ich habe jetzt Hornhautsalbe genommen, tue das eine Woche drauf und dann
0:08:05–0:08:09
ist es wieder gut. Das ist jetzt mein Weg daraus heraus.
0:08:10–0:08:14
Sobald ich merke, jetzt kommt es wieder, eine Woche Creme, dann habe ich wieder
0:08:14–0:08:17
ein halbes Jahr Ruhe. Easy peasy kann ich damit leben.
0:08:17–0:08:20
Aber wahrscheinlich eine Pedicure müsste man schon mal machen,
0:08:20–0:08:21
das habe ich noch nie gemacht.
0:08:21–0:08:24
Ich habe mir mal in Griechenland von den Fischchen die Füsse essen lassen.
0:08:24–0:08:26
Das ist das Dümmste auf dieser Welt.
0:08:27–0:08:35
Ja, das finde ich. Ich habe dort einfach gefunden, wenn zuerst die Fische dir
0:08:35–0:08:41
deine Füsse pflegen, kannst du nachher sagen, und jetzt hätte ich gerne den Fisch da auf dem Grill.
0:08:41–0:08:50
Und dann wäre es ja so wie ein Kreislauf, eine geschlossene Circle Economy.
0:08:50–0:08:54
Sie werden von innen mariniert. Ja, genau. Genau.
0:08:56–0:08:58
Nein, es hat doch nicht...
0:09:01–0:09:07
Ich weiss meine Hornhaut und ich meine das ist Gipswand und jetzt kommt das
0:09:07–0:09:11
3cm Fischchen und hat das Gefühl in 10 Minuten fress ich mich da durch.
0:09:11–0:09:15
Da habe ich schon gedacht das ist unmöglich. Was machen die Fische?
0:09:15–0:09:19
Nichts. Ich weiss nicht was die genau machen. Aber das ist für mich,
0:09:19–0:09:21
ich glaube das ist ein Touristenfall.
0:09:21–0:09:25
Ich kann mir nicht vorstellen, dass das irgendwie funktioniert.
0:09:25–0:09:28
Ich glaube, es ist auch nicht nett für die Fischchen, oder?
0:09:28–0:09:33
Also das ist ja, ich meine, einen tieferen Job gibt es ja wirklich fast nicht mehr.
0:09:33–0:09:38
Weil sie bekommen dann auch kein Geld. Und werden sie dann noch extra gefüttert?
0:09:38–0:09:38
Es gibt eine Gewerkschaft.
0:09:38–0:09:43
Ja, ja, also du musst, also sie hat gesagt, du musst sie füttern.
0:09:44–0:09:46
Es darf nicht, jeder Fisch darf nicht jeden Tag essen.
0:09:47–0:09:52
Weil wenn es zu viele Füsse drin hat, dann ist es wahrscheinlich nicht gut für
0:09:52–0:09:56
den Fisch. Es muss abwechselnd sein.
0:09:56–0:09:59
Es ist wie wenn du immer in McDonalds gehst. Das ist das Gleiche.
0:10:00–0:10:05
Sie hatte einen Lieblingsfisch. Das war der Grösste. Der hatte sie schon 2 Jahre.
0:10:06–0:10:10
Der ist pensioniert. Der muss nicht mehr.
0:10:11–0:10:17
Also, genau. Das mit der Selbstversorgung ist wirklich ein schwieriges Ding.
0:10:18–0:10:22
In diesem Fall kann man sagen, sind wahrscheinlich einfach die Füsse ein bisschen
0:10:22–0:10:26
weit weg von allem anderen und darum werden sie ein bisschen vernachlässigt.
0:10:26–0:10:30
Aber ich habe ja auch nicht so schöne Finger zum Beispiel, da könnte man jetzt
0:10:30–0:10:32
wahrscheinlich auch noch ein bisschen etwas verbessern.
0:10:32–0:10:37
Aber es geht ja eigentlich auch nicht nur so ums Optische, sondern es geht ja
0:10:37–0:10:42
vor allem auch so um den Emotionalen, den Psychischen, den mentalen Haushalt.
0:10:42–0:10:46
Eben auch ein bisschen, du hast es angetönt ja in der Pre-Show,
0:10:46–0:10:49
es geht darum zu merken, wenn es einem nicht gut geht und nicht einfach,
0:10:50–0:10:54
weiterzudrödeln und zu finden, okay, ich muss einfach noch mehr arbeiten,
0:10:54–0:11:00
ich muss mich noch mehr konzentrieren auf meinen Job und auf das,
0:11:00–0:11:02
was ich dort machen muss. Und dann kommt alles gut.
0:11:03–0:11:10
Und dann gehe ich am Wochenende, mache irgendwie eine Party oder sonst irgendetwas.
0:11:10–0:11:14
Und dann mache ich zwei Wochen Ferien und dann kommt das alles wieder gut.
0:11:14–0:11:20
Und das ist ja eigentlich wahrscheinlich nicht die optimale Voraussetzung.
0:11:20–0:11:24
Oder man könnte sagen, dann wäre der Moment, in dem die Selbstfürsorge vielleicht
0:11:24–0:11:25
besonders wichtig wäre.
0:11:27–0:11:34
Ja, aber es ist schwierig, das zu erkennen. Wann ist jetzt dieser Moment und was sind meine,
0:11:36–0:11:42
Methode, wie es meine Tools sind, um das zu machen und ich glaube gerade,
0:11:42–0:11:47
also das ist jetzt vielleicht ein Klischee, aber manchmal haben Nerds halt nicht
0:11:47–0:11:48
die höchste Sozialkompetenz.
0:11:48–0:11:52
Ja, das ist ein Klischee, aber wahrscheinlich eins mit dem wahren Kern.
0:11:53–0:11:58
Und diese Sozialkompetenzen haben es nicht nur gegen aussen nicht so,
0:11:58–0:12:02
sondern gegen sich selbst auch nicht. Es ist halt wie die gleiche Situation.
0:12:02–0:12:10
Und dann zu merken, was würde mir gerade guttun, ist teilweise noch schwierig. Ja.
0:12:11–0:12:16
Also, um mal das noch ein bisschen einhegen, weil ich habe tatsächlich gefragt,
0:12:16–0:12:20
und zwar kein Psychologe, weil ich gerade keinen bereit hatte,
0:12:20–0:12:23
darum habe ich für den Chat-GPT gefragt.
0:12:23–0:12:28
Kann man dann sagen, dass Nerds besonders schlecht in dieser Selbstfürsorge sind?
0:12:28–0:12:32
Und der Chat-GPT hat gefunden, ja, das kann auf eine Art sein,
0:12:32–0:12:36
dass wenn Leute, die sich einfach extrem auf irgendetwas konzentrieren,
0:12:36–0:12:40
die können dann einfach alles andere ein bisschen ausblenden, oder?
0:12:40–0:12:43
Und dann eben, das ist ja auch von einer Art ein bisschen banal.
0:12:43–0:12:46
Ich habe tatsächlich in der Zeit, in der ich zum Beispiel programmiert habe,
0:12:47–0:12:52
habe ich bis um 3 Uhr am Morgen dann hast du am Abend bin ich reingeschaut um
0:12:52–0:12:54
halb 8 Uhr und habe gefunden, jetzt mache ich das noch schnell fertig.
0:12:55–0:12:59
Und wo es fertig gewesen ist, war es 3 Uhr am Morgen und dann hätte ich um 6
0:12:59–0:13:01
Uhr wieder aufstehen müssen. Also das ist ein klassischer Fall,
0:13:02–0:13:04
der selbst für so nicht funktioniert hat.
0:13:04–0:13:09
Aber darüber hinaus hat dann der Perplexity gesagt, Nein, es gäbe also keine
0:13:09–0:13:12
wissenschaftliche Studie, dass das wirklich eben, dass man könnte so eins zu
0:13:12–0:13:18
eins sagen, Computernerds seien in dem besonders schlecht oder so.
0:13:19–0:13:24
Aber es ist natürlich schon, es hat so gewisse Anzeichen, dass wenn du die ganze
0:13:24–0:13:31
Zeit rumhockst, ist es halt einfach nicht so gut für dich und dein Wohlbefinden und deinen Körper.
0:13:31–0:13:37
Wenn du so Zeitstress, Stress ist bekanntermass nicht gut.
0:13:38–0:13:43
Und der Perplexity hat dann aber auch gefunden, Nerds seien ja auch auf eine
0:13:43–0:13:47
Art so ein bisschen anfällig für so Gadgets, so Gesundheitsgadgets,
0:13:47–0:13:53
so Wearables, die dann Schritt zählen und so und das könnte ja wieder einen Gegenpol setzen.
0:13:54–0:13:58
Aber ich glaube, wir könnten das, das ist ein guter Aufhänger gewesen für diese
0:13:58–0:14:01
Sendung, aber wir könnten jetzt die Selbstfürsorge so ein bisschen einfach für
0:14:01–0:14:06
alle anschauen, für jeden einzelnen Menschen, egal ob Nerd oder nicht, oder?
0:14:07–0:14:11
Ja, aber wichtig ist halt, dass so ein Tracker wirklich etwas Gutes ist.
0:14:11–0:14:14
Also es muss nicht ein Tracker sein, manchmal hilft auch einfach ein Kalender.
0:14:15–0:14:20
Und sich Termine blockieren. Also das ist etwas, was ich sehr oft merke,
0:14:20–0:14:27
dass also da kommt jetzt der Beziehungsberater für dich. Wo du ja auch noch bist, ja.
0:14:28–0:14:33
Ja genau, aber ich meine, Leute, die gerade in einer Beziehung sagen,
0:14:34–0:14:38
auch gerade mit Kindern, wo es viel schwieriger wird, ich sage jetzt mal,
0:14:38–0:14:42
Zeit zu haben, um Sex zu haben, ist mega schwierig, weil Kinder.
0:14:42–0:14:48
Und dann ist es so, Okay, du musst es dir einfach planen und es klingt mega
0:14:48–0:14:56
unsexy, auch wenn du dir jetzt planst, ja gut, jetzt am Mittwochmorgen von 9 bis 11 habe ich Zeit,
0:14:56–0:15:00
um irgendwo hinzugehen und für mich einen Kaffee trinken.
0:15:00–0:15:05
Oder am Donnerstagabend, zwischen sechs und acht sitze ich an und lese ein Buch.
0:15:05–0:15:10
Es klingt mega uninspiriert und unkreativ, aber es ist mega gut,
0:15:10–0:15:14
weil du dir halt dann genau die Zeit blockierst.
0:15:15–0:15:16
Aber das ist eine Übung.
0:15:19–0:15:22
Zuerst musst du die Idee haben, was tut dir überhaupt gut.
0:15:23–0:15:29
Was ist denn jetzt überhaupt dein Mechanismus? Das kann ja körperlich sein,
0:15:29–0:15:33
das kann eine Massage sein, es kann aber auch einfach sein, ich muss schnell
0:15:33–0:15:34
eine halbe Stunde Sport machen.
0:15:35–0:15:38
Oder ich habe keine Ahnung. Da gibt es ja tausend Mechanismen.
0:15:38–0:15:41
Ich finde das wirklich sehr wichtig, was du jetzt gesagt hast,
0:15:41–0:15:46
weil wenn man sich mit dem Thema beschäftigt und dann ein bisschen die Chatbots fragt,
0:15:46–0:15:54
was die einem sagen, Die haben wahrscheinlich auch die Selbsthilfebücher zu
0:15:54–0:16:00
Tausenden analysiert und darum kommt es dann auch gerade zu einem Gruff,
0:16:00–0:16:04
das nach «verbessere dich selbst» klingt.
0:16:04–0:16:10
Ich finde diese Bücher recht schlimm. Ich blätter manchmal in der Buchhandlung
0:16:10–0:16:15
die Ratgeber durch und dann finde ich, ja, das wäre ein gutes Thema.
0:16:15–0:16:21
Und dann nach zwei Seiten finde ich, aber ich finde die Haltung nicht gut,
0:16:21–0:16:23
wenn man da angeredet wird.
0:16:23–0:16:27
Ich finde, wenn jemand, der mich nicht kennt, aus so einem Buch herausfindet,
0:16:27–0:16:30
er müsste mir jetzt Ratschläge geben, was auf eine Art ein bisschen ironisch
0:16:30–0:16:35
ist, weil ich lange Zeit Leute in der Zeitung Ratschläge geben habe,
0:16:35–0:16:37
ohne die auch selber wirklich zu kennen.
0:16:37–0:16:43
Aber ihr merkt, ich finde, man muss eigentlich das ein bisschen selber heraus
0:16:43–0:16:49
spüren und es sind Die Hilfe zur Selbsthilfe finde ich einen guten Ansatz.
0:16:49–0:16:52
Besser als der Pfannen fertige Resultat oder Rezept.
0:16:53–0:16:59
Ich habe hier aber ein grosses Aber. Und zwar ist es die Inspiration für Sachen, die man machen kann.
0:17:00–0:17:02
Ich glaube für das sind Ratgeber mega gut.
0:17:02–0:17:08
Nicht der, der sagt, mir hat geholfen jeden Tag eine Stunde zu laufen.
0:17:08–0:17:12
Wobei ich sage, wenn ihr jeden Tag eine Stunde laufen geht, das hilft euch,
0:17:12–0:17:16
da gibt es nichts. Also geht jede Tagesstunde laufen, euch geht es nachher besser,
0:17:16–0:17:18
das ist diskussionslos.
0:17:19–0:17:23
Also auch Sachen auszuprobieren. Der eine sagt, ich gehe gehen laufen,
0:17:23–0:17:27
ich gehe schwimmen, ich brauche mir eine Massage, ich fange an zu meditieren,
0:17:28–0:17:30
ich brauche Zeit, um meine Bücher zu lesen, ich treffe Freunde,
0:17:30–0:17:31
ich koche etwas für mich.
0:17:32–0:17:36
Keine Ahnung, das ist ein riesiger Regenbogen von Möglichkeiten,
0:17:36–0:17:41
die man herausfinden muss, was ist es, was mir in diesem Moment mega gut tut.
0:17:42–0:17:45
Und und ich so einfach wenn ich
0:17:45–0:17:50
es immer wieder machen ist das hilft mir ja und und die inspiration überholen
0:17:50–0:17:55
was gibt es denn überhaupt weil es gibt es gibt ja das schrägste aber wenn dir
0:17:55–0:18:01
das hilft wie machen wir es dann also du hast sport erwähnt und ich habe tatsächlich
0:18:01–0:18:03
lange zeit in der fraktion war,
0:18:03–0:18:10
die heisst «No Sports», also Sport ist Mord und Mord ist tödlich, oder so das.
0:18:10–0:18:13
Nur ja, nicht bewegen, wenn es sich irgendwie vermieden lässt.
0:18:13–0:18:18
Und das hat sich ja eigentlich, das hat sich so ein bisschen subtil verändert.
0:18:19–0:18:22
Dann haben wir irgendwie gefunden, ja, gehen wir mal ein bisschen auf die Velo
0:18:22–0:18:26
fahren manchmal und dann hat mir das eigentlich noch gefallen und dann hat man
0:18:26–0:18:30
dann, und eben heute bin ich so der, der joggt und manchmal auch ein bisschen
0:18:30–0:18:32
so, dass es eigentlich fast schon übertrieben ist.
0:18:33–0:18:39
Also nicht so, dass ich jetzt für irgendwie ein Triathlon oder so etwas mache, aber trotzdem.
0:18:39–0:18:42
Und ich glaube, das ist wahrscheinlich etwas, was sich vielleicht auch so mit
0:18:42–0:18:45
dem Alter ein bisschen verändert, so diese Bedürfnisse, oder?
0:18:45–0:18:52
Und da muss man vielleicht auch sagen, du kannst nicht mit der Attitüde eines
0:18:52–0:18:58
20-Jährigen an dein eigenes Wohlbefinden herangehen, wenn du 40 oder 50 bist.
0:18:58–0:19:03
Also das will eben, wenn du dann sagst, eben Party bis um 3 Uhr morgens und
0:19:03–0:19:06
dann klappst du einfach zusammen.
0:19:07–0:19:10
Wie machen wir das? Ich habe gesagt, ja, der Sport, ich bin tatsächlich,
0:19:10–0:19:13
wir haben glaube ich diese Schrittzähler gut.
0:19:13–0:19:18
Ich glaube auch, ich habe so einen Schlafcoach in meiner Uhr,
0:19:18–0:19:21
der mir sagt, ob ich gut oder schlecht geschlafen habe.
0:19:21–0:19:25
Und erstaunlicherweise stimmt das eigentlich recht häufig recht genau.
0:19:25–0:19:33
Oder das, was die Uhr mir anzeigt, stimmt dann auch mit meiner eigenen Wahrnehmung überein?
0:19:33–0:19:37
Und dann liess ich wieder, ja, die Schlaftracker sind ganz schlimm,
0:19:37–0:19:39
die stimmen eigentlich gar nicht so genau.
0:19:39–0:19:44
Dann finde ich, ja, klar, schon. Wahrscheinlich müsstest du an eine Maschine
0:19:44–0:19:48
angeschlossen sein, die deine Hirnströme misst, dass du wirklich sagen kannst,
0:19:48–0:19:52
wann du schläfst und ob das jetzt eine REM-Phase war oder nicht.
0:19:52–0:19:55
Und die Uhr rötelt halt ein bisschen. Aber letztlich ist es egal.
0:19:56–0:20:03
Es geht darum, die Wahrnehmung für sich selber zu schärfen und seine Bedürfnisse.
0:20:04–0:20:10
Das kann sie sicher und das ist wahrscheinlich der erste Schritt zu dieser Selbstfürsorge.
0:20:12–0:20:17
Ja, voll. Und ich glaube, gerade diese Tracker, die können dir in einer Form helfen.
0:20:19–0:20:25
Es gibt ja Tracker, die du aufschreiben musst, nicht nur, ich habe jetzt Sport
0:20:25–0:20:27
gemacht, sondern auch, es war gut oder nicht gut.
0:20:27–0:20:32
Ja, genau. Und dann siehst du im Kalender auch, wie viele Mal hast du es gemacht.
0:20:32–0:20:37
Und ich glaube, das motiviert halt, gerade wenn du mal keine Lust hast oder
0:20:37–0:20:40
keinen Sport gemacht hast, dass du dann auch eine App siehst,
0:20:40–0:20:46
die sagt, jetzt hast du aber 24 Tage am Stück und jetzt einen Tag nicht, aber go.
0:20:46–0:20:49
Also ich glaube, das kann schon helfen, dass du nicht in den Modus reinkommst,
0:20:49–0:20:51
jetzt bin ich einmal nicht gegangen, jetzt muss ich an.
0:20:51–0:20:55
Ja, ja, ist ja gleich, ist ja gleich, ist ja gleich. Ja, genau.
0:20:55–0:21:00
Und wenn ich, nachher darfst du dann sagen, Kevin, was du so machst und was
0:21:00–0:21:05
dir so ich glaube, das ist vielleicht auch besser als wenn wir jetzt da die
0:21:05–0:21:08
super Ratschläge geben, wenn wir einfach ein bisschen von uns erzählen.
0:21:08–0:21:13
Das ist zwar so ein bisschen, ja es klingt so ein bisschen egozentrisch und
0:21:13–0:21:17
so, aber es ist irgendwie fast wie ehrlicher wieder, wenn wir so klingen,
0:21:17–0:21:20
als wenn wir für alle jetzt da die super Ratschläge haben.
0:21:21–0:21:24
Also ich habe eine Phase, und das ist vielleicht selbst für so gewesen.
0:21:25–0:21:30
Als ich so, sagen wir, 20 war und dort auch so das eine oder andere Problem
0:21:30–0:21:32
vor mir herum gewälzt habe.
0:21:33–0:21:35
Es waren sogar mehrere und sie waren recht schwierig.
0:21:36–0:21:40
So aus heutiger Sicht bin ich eigentlich, ich habe eigentlich mal sagen wollen,
0:21:41–0:21:45
ich habe dann angefangen, Tagebuch zu schreiben und ich habe die letzte Mal
0:21:45–0:21:48
vorgenommen und habe wieder angefangen, darin zu lesen und es hat mir also fast
0:21:48–0:21:50
wie haben wir früher gesagt, den Gunker.
0:21:51–0:21:55
Also ich würde sagen, Zuerst habe ich gedacht, hey Mann, hey,
0:21:55–0:21:58
Dude, was ist dort abgegangen?
0:21:59–0:22:02
Und dann habe ich so, dann habe ich gefunden, okay, zur Selbstfürsorge gehört
0:22:02–0:22:05
da vielleicht auch, dass man ein bisschen grosszügig ist mit sich und dann sagen,
0:22:05–0:22:08
okay, Matthias, das hast du gut gemacht.
0:22:09–0:22:13
Wenn ich jetzt das lese und wenn ich sehe, wie du heute so mit so Sachen rumgehst,
0:22:13–0:22:15
top, hast du dich verbessert.
0:22:16–0:22:19
Kann man dich nur loben dafür. Aber cool, das ist ja super.
0:22:21–0:22:26
Und so ein Tagebuch schreiben finde ich gut, es kann auch wirklich nur kurz sein.
0:22:27–0:22:30
Früher hat man eben wirklich wahrscheinlich sein halbes Leben erzählt,
0:22:30–0:22:32
aber man hat auch zwei Sätze oder so.
0:22:33–0:22:38
Oder es gibt auch die Apps, wo du nur sagst, ja, eben so ein bisschen anhöglisch,
0:22:38–0:22:40
was dich beschäftigt hat, was es so...
0:22:41–0:22:44
Themen von diesem Tag gewesen sind. Das ist auch schon gut, glaube ich.
0:22:44–0:22:49
Und dann gibt es in dieser Health-App von Apple auch so eine,
0:22:49–0:22:54
das geht dann auch in Richtung mentale Gesundheit, seelisches Wohlbefinden,
0:22:55–0:23:00
wo du dann jeden Tag oder in einem bestimmten Abstand deinen,
0:23:01–0:23:05
Gemütszustand erfassen kannst und siehst dann auch, wie sich das entwickelt.
0:23:07–0:23:11
Und wenn es dann vielleicht die ganze Zeit nur schwarz ist und du nur einfach
0:23:11–0:23:17
immer siehst, da gibt es fast keinen Moment mehr, wo irgendwie,
0:23:17–0:23:20
mir wohl ist oder so, dann musst du dir vielleicht überlegen,
0:23:20–0:23:22
was du jetzt machst oder ob du irgendwie an deinen,
0:23:23–0:23:27
Lebensumständen etwas ändern musst oder ob du Hilfe holen musst oder so.
0:23:27–0:23:29
Ich glaube, das kann schon helfen.
0:23:31–0:23:35
Ja, also reden mit den Leuten. Ich glaube, das ist das Wichtigste.
0:23:35–0:23:39
Also einmal mehr, wie ich es in der Pre-Show gesagt habe, die Depressionsphase
0:23:39–0:23:44
hinter mir jetzt gerade wieder und das mal eine, die ich nicht erkannt habe,
0:23:45–0:23:51
also ich weiss, dass erst seit ich vor etwa drei Wochen wieder daraus rausgekommen bin, aus,
0:23:53–0:23:59
weiss auch nicht warum und jetzt auch wieder, ich rede jetzt wieder über das Thema,
0:23:59–0:24:03
weil ich meine letzte Episode vor drei Jahren hatte und dann ist das so präsent
0:24:03–0:24:08
und dann vergisst man das wieder und jetzt ist es wieder da gewesen und ja Ja,
0:24:08–0:24:10
ich glaube, es tut gut, wenn man jemanden hat,
0:24:11–0:24:16
dem man erzählen kann und da auch wieder Psychiater,
0:24:16–0:24:20
Psychologen, Therapeuten, was immer, wenn man so einen geschützten Raum findet.
0:24:21–0:24:25
Und dort hin geht und kann reden, dann tut das mega gut.
0:24:27–0:24:32
Auch wenn man, das hatte ich oft so, das Gefühl hat, ich habe gar kein Thema.
0:24:33–0:24:37
Ich kann gar nichts. Und dann fängt man an zu reden und dann kommt der ganze Rotz rein.
0:24:38–0:24:43
Und das ist immer super. Also für mich jetzt. Aber auch hier muss man es selber herausfinden.
0:24:44–0:24:47
Aber eben, wenn ihr in einem tiefen schwarzen Loch seid und das Gefühl habt,
0:24:47–0:24:51
ich komme nicht mehr daraus heraus, fangt an zu reden. dass es hilft. Ja.
0:24:52–0:24:55
Das ist eigentlich auch das Prinzip dieser Sendung.
0:24:56–0:25:01
Also wirklich reden, ich glaube, das hilft. Du musst halt jemanden haben.
0:25:02–0:25:10
Und auch den Freiraum. Du hast es schon etwas angekündigt mit der Familie und den Beziehungen.
0:25:10–0:25:13
Und jeder ist irgendwie dann doch in seinem Hamsterrad.
0:25:13–0:25:19
Und es gibt kein man sieht sich am Morgen kurz und dann am Abend vor der Nacht
0:25:19–0:25:24
und dann sitzt du eigentlich vor dem Fernseher wild erschöpft und fragst dich
0:25:24–0:25:27
dann, wo ist dann der Moment für diese Gespräche?
0:25:28–0:25:32
Und dann müssten beide noch in der richtigen Verfassung sein.
0:25:34–0:25:41
Das finde ich schon noch schwierig. Und es ist, glaube ich, wahrscheinlich geht das vielen Leuten so.
0:25:42–0:25:46
Und wenn du aber schaust, dann ist das auch nicht nur ein privates Problem,
0:25:46–0:25:49
sondern das ist ein gesellschaftliches Ding.
0:25:49–0:25:53
Jetzt habe ich gerade heute irgendwo gelesen, es ist so eine Studie rausgekommen,
0:25:53–0:25:59
die sagt, die Schweizer Bevölkerung läuft eigentlich insgesamt am Anschlag.
0:26:00–0:26:02
Da sind alle am Rotieren.
0:26:04–0:26:10
Und immer kurz vor der Erschöpfung, also da gab es so eine Studie,
0:26:10–0:26:17
die zeigt eben auch, der Leistungsdruck generell ist einfach wahnsinnig gross. Und da muss man,
0:26:18–0:26:25
einen Weg finden, damit umzugehen und halt möglichst nicht mit Alkohol oder mit Drogen oder so.
0:26:25–0:26:28
Das ist ja dann auch wahrscheinlich eine Methode, aber eine,
0:26:29–0:26:30
die auf Tour dann ein wenig schwierig wird.
0:26:32–0:26:35
Wahrscheinlich nicht optimal ist, aber auch viel gemacht wird,
0:26:35–0:26:37
muss man leider halt auch sagen.
0:26:37–0:26:40
Ja, ja, absolut. Ja.
0:26:42–0:26:47
Jetzt das schwierigste Thema, das wir da ausgewählt haben. Du ziehst Füsse und
0:26:47–0:26:50
aufwächst ein Fussnägel und dann Depressionen. Das ist cool.
0:26:51–0:26:57
Ja, genau, das stimmt. Aber so funktionieren unsere Sendungen oft.
0:26:57–0:27:03
Ich finde es aber auch gut. Du kannst dir das auf verschiedenen Ebenen angehen.
0:27:03–0:27:09
Die Fusspflege auf eine Art Einstiegsdroge klingt jetzt ein bisschen blöd.
0:27:09–0:27:16
Aber vielleicht bringt die dich tatsächlich dann dir selber etwas näher und
0:27:16–0:27:21
merkst dann, was du neben den Füssen auch noch machen könntest mit dir selber.
0:27:22–0:27:27
Und ich finde ja, dass du das mit diesen Freiräumen, also dass du irgendetwas hast, wo...
0:27:27–0:27:31
Und was ich immer noch wirklich, glaube ich, das Schwierigste finde,
0:27:32–0:27:37
ist, wie bringst du so das Hirnkarussell so etwas zum abbremsen wenigstens.
0:27:38–0:27:41
Wenigstens. Also all die Gedanken, die sich drehen und,
0:27:42–0:27:46
wo auch in der Nacht, wenn du verwachst, das ist jetzt zum Glück,
0:27:46–0:27:51
komischerweise ist das jetzt im Moment, wo wir ja bei der Tamedia wieder eben
0:27:51–0:27:53
eine riesen Sparrunde und.
0:27:54–0:27:59
Hunderte von Leuten, die entlassen werden und so, erstaunlicherweise nicht so,
0:27:59–0:28:04
dass ich um drei bis jetzt, ich hoffe, das bleibt so, verwachen und dann die
0:28:04–0:28:09
Gedanken haben, die dann nicht mehr nicht mehr ruhig Ruhe geben und so.
0:28:10–0:28:14
Aber ich habe das auch so, in den letzten Monaten habe ich das schon immer mal
0:28:14–0:28:18
wieder gehabt und habe aber bei dem habe ich kein so richtig gutes Rezept.
0:28:18–0:28:20
Hast du irgendein, machst du.
0:28:23–0:28:29
Irgendeine Mindfulness Übung oder machst du Atemübungen oder hast du irgendeinen
0:28:29–0:28:33
Trick, wo man sagen kann, so bringt man die verdammten Gedanken endlich mal,
0:28:34–0:28:35
dazu, klappen zu halten?
0:28:37–0:28:41
Schach. Schach, okay. Das ist kein Witz.
0:28:41–0:28:48
Das ist meins. Voll. Also es kann sein, dass ich morgen um drei wach werde und
0:28:48–0:28:50
mein Handy vornehme und mit irgendeinem Inder-Schach spiele.
0:28:51–0:28:56
Einfach das hohe Hirn abstellen. Und es funktioniert.
0:28:56–0:28:59
Ich hatte das letzte Mal an einem Fest.
0:28:59–0:29:03
Ich bin nicht fest kompatibel. Es ist schwierig für mich mit Menschen.
0:29:03–0:29:05
Ich war aber da, weil ich die Menschen gleich gerne hatte.
0:29:06–0:29:09
Und irgendwann habe ich gedacht, Ich dachte mir, ich drehe die Uhr,
0:29:09–0:29:14
es ist nur das Mahltag, es ist das langweiligste auf der Welt.
0:29:14–0:29:17
Und ich habe mein Handy vorgenommen, bin in der Ecke gesessen,
0:29:17–0:29:20
habe eine Viertelstunde Schach gespielt und ich habe wieder funktioniert nachher.
0:29:21–0:29:23
Das funktioniert bei mir voll.
0:29:23–0:29:30
Also ich glaube, ich habe mittlerweile auch ein relativ hohes Schachlevel schon.
0:29:31–0:29:37
Das ist voll mies geworden. Und das tut mir so gut. Einfach,
0:29:37–0:29:40
weil schwierige Schachaufgaben, du musst denken.
0:29:40–0:29:42
Ohne denken kannst du die nicht lösen.
0:29:43–0:29:47
Und weil mich das halt so begeistert, weil es halt wirklich sehr ein einfaches
0:29:47–0:29:50
Spiel ist, kann ich mich dort voll ausklinken.
0:29:51–0:29:57
Das ist mega lustig, es war wirklich so ein Zufallstreffer, auch hier hat mir
0:29:57–0:29:59
ein Kollege gesagt, hey Schach und so, das ist noch gut, das musst du überlegen.
0:30:00–0:30:04
Und dann habe ich da das Schach-App runtergelassen und seitdem, das ist es.
0:30:05–0:30:09
Ja, ich glaube, es sind wirklich diese Zufallstreffer. Ich habe dann wirklich
0:30:09–0:30:14
angefangen, und das ist jetzt vielleicht auch ein bisschen seltsam auf den ersten
0:30:14–0:30:17
Blick, Aber wenn ich um 3 Uhr erwache und dann finde,
0:30:17–0:30:21
kann ich jetzt einschlafen, okay, ich probiere es jetzt, sagen wir, 10 Minuten.
0:30:22–0:30:25
Und wenn es dann nicht geht, dann bin ich auch einfach schon rausgegangen und
0:30:25–0:30:27
habe einen Spaziergang gemacht.
0:30:28–0:30:33
Das ist das Beste in der Nacht. Ja, es ist super. Ich liebe es. Es ist so gut.
0:30:34–0:30:39
Und dann bin ich um 100 Meter gelaufen und dann ist mir da auf dem Brückeli,
0:30:39–0:30:44
dort wo ich wohne, über die Eulachie, ist mir so ein Fuchs entgegengekommen
0:30:44–0:30:45
und hat mich so angeschaut und gefunden,
0:30:46–0:30:49
ah, du kannst auch nicht schlafen, bei mir ist es normal, aber bei dir,
0:30:49–0:30:51
und dann war es super, und dann.
0:30:52–0:30:56
Kannst du so ein bisschen diesen Gedanken anhängen, aber dann hast du doch immer
0:30:56–0:31:00
irgendwie noch so das irgendwie doch das ein bisschen komische Gefühl in der
0:31:00–0:31:06
Nacht, was da alles in diesen dunklen Schatten unten sitzt und was einem da kommt,
0:31:06–0:31:09
ob es noch andere, vielleicht hörst du auch von diesen Wölfen,
0:31:09–0:31:13
ist das das nächste den ersten Viech, der dir begegnet, irgendeinen Wolf oder so. Einen Wolf?
0:31:13–0:31:17
Einen Bär? Einen Bär, genau, oder einen Grizzly, oder irgend so etwas.
0:31:18–0:31:24
Oder halt irgendeinen beknackten Wintertourer, der auch nicht schlafen konnte,
0:31:24–0:31:27
aber vielleicht, was weiss ich nicht.
0:31:27–0:31:33
Also eben, es ist halt so eine spezielle Stimmung und dann, wenn ich zurückkomme,
0:31:33–0:31:35
tatsächlich meistens funktioniert es wieder.
0:31:35–0:31:39
Und da musst du, das musst du einfach mal ausprobieren, um zu schauen,
0:31:39–0:31:43
ob es funktioniert oder nicht. Und bei mir hat das erst du und ich gut funktioniert.
0:31:44–0:31:48
Ja, also das ist, das darf man ja auch nicht mehr sagen, dass man das macht.
0:31:49–0:31:52
Aber wenn ich manchmal nicht schlafen kann, dann fahre ich in der Nacht Auto.
0:31:53–0:31:58
Dann fahre ich eine halbe Stunde Auto und dann kann ich wieder schlafen, dann ist es wieder gut.
0:31:59–0:32:05
Man ist in Bewegung und wenn ich da bei mir spazieren gehe, bin ich einfach
0:32:05–0:32:06
die dunkle Nacht draussen.
0:32:06–0:32:10
Das ist ja nichts in der Nähe. Und dann einfach schnell so etwas machen.
0:32:10–0:32:15
Aber eben, deshalb, vielleicht wirklich die Bücher anschauen für Inspiration.
0:32:15–0:32:18
Und einfach mal anfangen, Sachen durchzuprobieren.
0:32:19–0:32:23
Auch hier, ich glaube, kochen und essen darf man auch nicht vergessen.
0:32:23–0:32:27
Das finde ich auch etwas mega Wichtiges. Also gescheite Ernährung,
0:32:27–0:32:30
richtig essen, sich Zeit nehmen, um etwas zu kochen.
0:32:31–0:32:34
Das habe ich gemerkt, das ist jetzt gerade in dieser depressiven Phase.
0:32:34–0:32:37
Das ist für mich so ein Learning, dass ich das nicht mehr mache.
0:32:37–0:32:42
Also ich koche nur noch für mich ernähren. Ich koche nicht mehr aus Freude.
0:32:42–0:32:45
Sondern es ist einfach so, ich muss jetzt etwas zu essen haben.
0:32:45–0:32:47
Ich bin nicht ein Junkfood-Esser.
0:32:47–0:32:51
Das bin ich einfach nicht. Ich esse dann gleich recht, aber ich gebe mir halt
0:32:51–0:32:53
nicht so Mühe, sonst ist es einfach okay, es ist Hungerstille.
0:32:54–0:32:57
Ja, das ist... Und ich glaube, wenn man sich dort so etwas reinträgt,
0:32:57–0:33:03
auch sich Kochen beibringt oder mal einen Kuchen macht oder eine Wehe macht
0:33:03–0:33:07
oder den Mittag für den nächsten Tag vorbereitet oder so, ich glaube,
0:33:07–0:33:08
das kann einem auch mega viel geben.
0:33:09–0:33:13
Ja, das ist absolut der Kern von Selbstfürsorge, würde ich sagen,
0:33:13–0:33:17
dass du nicht einfach irgendetwas einstopfst gedankenlos, möglichst während
0:33:17–0:33:21
der Tastatur sitzt, sondern dass du sagst, Essen,
0:33:22–0:33:27
Gottes Name, ist wichtig für den Körper, für die Seele und so nimmst du also
0:33:27–0:33:29
auch dementsprechend Zeit dafür.
0:33:29–0:33:37
Und ja, ich habe ja vorher ein bisschen gelästert über diese Ratgeberbücher
0:33:37–0:33:42
und eines habe ich dann doch mal gelesen dieses Jahr, das heisst «The Subtle
0:33:42–0:33:44
Art of Not Giving a Fuck».
0:33:44–0:33:50
Das ist ein gutes Buch. Und ich fand es dann auch gut, vor allem weil so oft Fakt drin vorkommt.
0:33:50–0:33:55
Und das sagt tatsächlich, es ist eine banale Erkenntnis, die du eigentlich auch
0:33:55–0:33:58
in jedem von diesen Seminaren gesagt bekommst.
0:33:58–0:34:03
Du kannst zwar nicht entscheiden, was dir passiert, aber du kannst entscheiden, was,
0:34:04–0:34:11
wie du damit umgehst. Wie du damit umgehst. Genau. Und über was du einen Fuck gibst.
0:34:14–0:34:19
Auf Deutsch ist es leider nicht so schön. Ich würde sagen, unbedingt auf Englisch lesen.
0:34:19–0:34:21
Auf Deutsch gibt es noch ein Buch, das habe ich nicht gelesen,
0:34:21–0:34:25
aber der Titel hat mir auch gut gefallen und der heisst «Am Arsch vorbei führt
0:34:25–0:34:27
auch ein Weg». Das habe ich noch gute...
0:34:30–0:34:33
Das kenne ich nicht. Ich kenne es eben auch nicht. Aber wenn ihr es gelesen
0:34:33–0:34:38
habt, Dann, ja, dann sagt uns doch, wie euch das taugt.
0:34:38–0:34:43
Es ist jetzt genau 8 Uhr, wir haben pünktlich angefangen, wir hören einigermassen pünktlich auf.
0:34:44–0:34:50
Aber ich würde noch sagen, wir wären interessiert, was ihr von diesem Thema haltet.
0:34:50–0:34:53
Ist es etwas, das ihr lieber verdrängt?
0:34:53–0:34:57
Ist das etwas, wo ihr eure Meinung geändert habt darüber?
0:34:57–0:35:03
Schreibt uns gerne auf nerdfunkatstadtfilter.ch und dann können wir da vielleicht
0:35:03–0:35:04
mal nochmal drauf zurückkommen.
0:35:04–0:35:08
Und ihr könnt aber auch sagen, wenn ihr findet, wir sollen mehr über Technik
0:35:08–0:35:15
reden und die Gespürschmissendungen findet ihr nicht so toll, das ist auch okay.
0:35:16–0:35:20
Wir machen es dann gleich. Aber ihr könnt es sagen. Es geht nur,
0:35:20–0:35:23
sich selber auszudrücken, kommunizieren, was Bedürfnisse sind.
0:35:24–0:35:27
Das ist wichtig, genau. Kevin, vielen Dank.
0:35:28–0:35:34
Ich wünsche dir alles Gute, dass das Leben und alles einfach gut kommt.
0:35:35–0:35:38
Und diese Sendung in einer Woche wissen wir nicht, was kommt.
0:35:39–0:35:40
Aber bis dann, macht's gut.
0:35:41–0:35:43
Bis dann, schöne Zeit. Tschüss zusammen.
0:35:45–0:35:57
Music.
Das Klischee besagt, dass Nerds oft etwas verwahrlost an ihrem Bildschirm sitzen und manchmal auch einen eher unangenehme Körperausdünstung absondern. Der Computerfreak als solches hat nämlich nicht immer die Zeit für eine Dusche und auch nicht immer einen Waschlappen griffbereit.
Oder ist das nur ein übles Klischee, das genauso unzutreffend ist wie die angebliche soziale Isolation, die Beziehungsunfähigkeit, der Entwicklungsrückstand und das trollhafte Wesen? Wir wagen einen ehrlichen Blick in den Spiegel und fragen uns: Haben wir ein Defizit bei der Selbstfürsorge? Schlafen wir genug und gehen wir vernünftig mit Stress um? Und kann uns die Technik vielleicht auch in diesem Bereich unterstützen? „Nerd, sei gut zu dir!“ weiterlesen
«Blue Ass, I can be the Mr. Airplane Man» war das auf Radio Stadtfilter.
0:00:20–0:00:25
Stadtfilter. Und da ist der Digi-Chris in unserer legendären Pre-Show.
0:00:25–0:00:30
Ich hoffe, das mal klappt völlig ohne technische Probleme. Bist du da?
0:00:30–0:00:32
Ich bin da und ich sehe dich.
0:00:33–0:00:36
Ich sehe dich auch. Ich höre dich sogar. Das ist fast noch wichtiger.
0:00:36–0:00:41
Unsere Zuhörer gehören dich hoffentlich auch. Kevin stösst dann hoffentlich dazu.
0:00:42–0:00:47
Und, wie soll ich sagen, Blue as I can be, das trifft für mich zu,
0:00:47–0:00:54
weil ich heute nicht so einen tollen Tag hatte bei meinem Arbeitsplatz.
0:00:55–0:00:59
Und wenn ihr Medien verfolgt habt, wir haben es also bis zum Spiegel auf Deutschland
0:00:59–0:01:03
geschafft mit unserer jüngsten Meldung.
0:01:03–0:01:09
Hast du dich mitbekommen, Chris? Es ist halt so, dass Tamedia,
0:01:09–0:01:13
ich kenne den ganzen Organisationsstruktur nicht,
0:01:14–0:01:19
also ich glaube, das erste ist mal, dass man in Sachen Druckereien abbaut,
0:01:19–0:01:23
weil das halt nicht mehr rentiert.
0:01:23–0:01:28
Muss ich gerade einwerfen, ich habe auch noch ein Zeitungsabbau,
0:01:28–0:01:31
zwar nicht von der Tamedia, aber ist nichts gegen euch.
0:01:31–0:01:35
Bei einem anderen Ding, aber halt einfach digital, weil, ja,
0:01:35–0:01:39
ich lese es halt auf dem iPad, aber ist natürlich für die Leute,
0:01:39–0:01:43
die in der Druckerei arbeiten, auch blöd und dann, ja.
0:01:43–0:01:49
Genau, 200 Leute werden dort entlassen und du musst mich, bevor ich anfange,
0:01:49–0:01:50
zu sehr, wie soll ich sagen,
0:01:51–0:01:57
man hat ja gegenüber seinem Arbeitgeber eine Loyalitätsverpflichtung,
0:01:57–0:02:01
das heisst, man muss sich da diplomatisch äussern. Ich habe mir das vorgenommen.
0:02:01–0:02:05
Du kennst mich ja. Ich bin der Meister der Diplomatie, ausser dann,
0:02:06–0:02:07
wenn ich den Rollen ausfalle.
0:02:08–0:02:13
Und in der Redaktion werden auch wieder Leute entlassen.
0:02:13–0:02:21
Und ich kann ja sagen, ich arbeite seit dem Jahr 2000, also seit 24 Jahren bei der Tamedia.
0:02:22–0:02:28
Und ich weiss jetzt nicht mehr so genau, wie viele Sparrunden das jetzt ist, die ich damit erlebe.
0:02:28–0:02:34
Letztes Jahr hatten wir eine, also in diesen 20er Jahren ist es recht,
0:02:35–0:02:40
es hat also schon im dritten Jahr, als ich da war, 2003 gab es die erste,
0:02:41–0:02:49
dann 2008 war sie schon legendär und seitdem geht das also in einer guten Taktik vorwärts.
0:02:49–0:02:53
Also gut würde ich es jetzt nicht bezeichnen. Ja, genau.
0:02:54–0:02:59
Also selbst, wenn du, und das ist jetzt nicht böse gemeint, wenn du jetzt halt
0:02:59–0:03:02
den Typ entlässt, der irgendwie...
0:03:03–0:03:10
Das Blumengärtchen vom Rösli irgendwo, also ich rede jetzt von den Lokalmedien, berichtet.
0:03:10–0:03:12
Das ist ja auch irgendwie relevanter Journalismus.
0:03:13–0:03:20
Und klar, weil sonst das Problem ist ja jetzt irgendwie der Albert Rösti macht
0:03:20–0:03:23
eine Pressekonferenz, dass man wieder Atomkraft werden kann. Ja, genau.
0:03:23–0:03:26
Das kann irgendjemand schreiben, überall.
0:03:26–0:03:30
Da kannst du irgendwie jeden... Also, nein, ich würde es nicht machen.
0:03:31–0:03:36
Eben, ich hätte rausrühren, die halt nicht zu Bernd sitzen. Es ist wirklich.
0:03:38–0:03:42
Schade und ja, es wird dann irgendwie eintöniger, weil wenn du nur noch die
0:03:42–0:03:48
Newsrooms hast, wo einfach alle zusammen sitzen, das ist halt schon ein bisschen blöd.
0:03:48–0:03:55
Genau, ich glaube, Medien leben auch schon so von der Verwurzelung von dort,
0:03:55–0:04:00
wo sie herkommen und dass halt, ja, die Newsrooms haben auch so gewisse.
0:04:02–0:04:08
Berechtigungen, glaube ich, aber ich sehe das als Medienkonsument gesehen ist es genauso und.
0:04:09–0:04:11
Als, wie soll ich sagen, als Betroffener
0:04:11–0:04:14
finde ich einfach, es laugt dann irgendwann mal ein bisschen aus,
0:04:15–0:04:21
wenn alle Jahre wieder pünktlich, Ende August gibt es die neue Strategie,
0:04:21–0:04:24
die drin heisst, letztlich wie viele Leute das entlassen werden.
0:04:25–0:04:31
Ich glaube eben, das müssen wir uns, und eben, kann ich mich an der Nase nehmen
0:04:31–0:04:34
und das müssen wir in der eigenen Sendung beraten, ich habe jetzt halt eben,
0:04:34–0:04:39
Du hast ja noch ein Abo Du bist ja gar nicht so schlimm wie andere Ich habe
0:04:39–0:04:41
ein Abo, ich habe es auf Print, aber eben du hast teilweise,
0:04:41–0:04:43
ich weiss gar nicht, ob es noch existiert Blende oder etwas,
0:04:44–0:04:48
teilweise siehst du einen Artikel, ja 1.50 ein Tagespass.
0:04:48–0:04:53
Und dann denkst du, ja, aber wenn ich dann ins Hützeabend, ins Feierabend Bier
0:04:53–0:04:59
gehen gehe, kostet das eben 6.50, also ich muss mich an die Nase nehmen und
0:04:59–0:05:02
ich glaube, all von uns Also, jetzt du mal ausgenommen,
0:05:02–0:05:09
hey, ja, guter Journalismus kostet eben auch, wenn du irgendwie oder ein Zeier
0:05:09–0:05:13
oder jemand ein Review schreibt, dann sitzt er mehrere Stunden dort.
0:05:14–0:05:18
So ist es, ja. Das macht er auch nicht und ja, es ist halt die Frage,
0:05:19–0:05:24
haben die Gratiszeitungen dafür gesorgt, dass, ich sage jetzt,
0:05:24–0:05:27
nein, die gimmischen ja nicht, aber das jetzt vielleicht irgendwelche,
0:05:27–0:05:29
ich sage jetzt das Wort nicht,
0:05:29–0:05:33
ja, wenigstens wissen, dass der Herr Berset im Bundesrat ist,
0:05:33–0:05:35
wo es jetzt alle einsperrt. Sie ist, genau.
0:05:35–0:05:39
Ich habe es so, oder ja, man muss halt einfach sehen, dass...
0:05:40–0:05:46
Es kostet was, ja. Genau, also gute Inhalte erstellen kostet etwas.
0:05:46–0:05:51
Fake News gibt es gratis. Das ist schon auch ein Problem, das wir hier haben.
0:05:51–0:05:54
Und das ist ein Teil von diesem Problem.
0:05:54–0:05:58
Und ich weiss auch nicht. Vielleicht reden wir heute nicht darüber.
0:05:58–0:06:01
Vielleicht wir fangen sowieso an.
0:06:02–0:06:07
Es heisst zwar Hummerbox Live, diese Sendung. Ich möchte einfach ein wenig Hummer haben.
0:06:07–0:06:11
Genau, aber es geht dann nicht um meinen Kummer, sondern um euren Kummer.
0:06:11–0:06:15
Und vielleicht, ja, die Mediensendung müssen wir doch mal machen.
0:06:15–0:06:19
Wie sieht denn das aus? Wie könnte man den Leuten beibringen,
0:06:19–0:06:23
dass halt gut informiert sein auch etwas wert ist?
0:06:23–0:06:26
Nicht alles bei TikTok hören, oder ja, bei den,
0:06:28–0:06:34
beim Heinz Müller, oder bei dem, der einen unaussprechlichen Namen hat auf Twitter,
0:06:34–0:06:38
dafür ein blaues Höckli, der genau weiss, dass Putin eigentlich ein guter Mensch
0:06:38–0:06:42
Das können wir, glaube ich, ein anderes Mal diskutieren.
0:06:42–0:06:46
Und jetzt machen wir wie jeden letzten Dienstag des Monats Hummerbox live.
0:06:46–0:06:47
Aber zuerst kommt noch schnell der Jingle.
0:06:48–0:07:02
Music.
0:06:55–0:06:59
Herzlich willkommen zum Nerdfunk.
0:07:03–0:07:07
Wir machen heute wie jeden letzten Dienstag des Monats Hummerbox live.
0:07:07–0:07:12
In dieser Sendung behandeln wir die Computerprobleme, die ihr uns per Mail hinzulassen
0:07:12–0:07:14
habt, auf nerdfunk.stadtfilter.ch.
0:07:15–0:07:23
Mit akuten Problemen lutet ihr uns ins Studio an, Nummer 052 203 31 00 oder
0:07:23–0:07:27
ihr schreibt euer Problem ins Gästebuch auf stadtfilter.ch.
0:07:27–0:07:30
Das muss ich dann allerdings nachher noch schnell aufmachen,
0:07:30–0:07:33
sonst sehe ich es nicht, wenn ihr mir schreibt, dass ich im Studio bin.
0:07:33–0:07:40
Also, der Thomas sagt, ich muss dich noch einmal mit einem Anliegen bzw. mit einer Frage stören.
0:07:41–0:07:44
Er hat nämlich vor kurzem schon mal etwas gefragt und er sagt,
0:07:45–0:07:51
die Zeit meiner beiden iMacs, die praktisch ausschliesslich für die Musikproduktion
0:07:51–0:07:53
verwendet werden, kommt an ein Ende.
0:07:54–0:07:58
Die neue Musiksoftware verlangt neuerdings mindestens Ventura,
0:07:59–0:08:03
was beim 2017er noch möglich ist. Auch die Verwendung von Intel-Prozessoren
0:08:03–0:08:07
scheint mir beim MacOS 15 nicht mehr garantiert.
0:08:07–0:08:13
Ein Umstieg auf die M-Chips ist schon bald zwingend. Und jetzt kommt er eigentlich zum Problem.
0:08:14–0:08:19
Nun liest man im Zusammenhang mit den M1- bis M3-Chips von nicht behebbaren
0:08:19–0:08:25
Sicherheitslücken, wobei es offenbar unter Einbusse von Leistung beim M3-Chip
0:08:25–0:08:29
möglich ist, mit der Aktivierung des DTI-Bits.
0:08:29–0:08:36
Den Data Memory Dependent Prefetcher DMP gezielt zu deaktivieren und damit einen
0:08:36–0:08:39
Seitenkanalangriff zu verhindern.
0:08:39–0:08:41
Nicht, dass ich das verstanden hätte.
0:08:41–0:08:45
Also, und jetzt fragt ihr eigentlich, was soll er machen, oder?
0:08:45–0:08:47
Man sieht die Bredouille, die drinsteckt.
0:08:48–0:08:52
Alte Macs mit Intel-Prozessor sind nicht mehr so auf dem neuesten Stand und
0:08:52–0:08:57
die neuen sind irgendwie total unsicher, weil man sich angreifen kann.
0:08:57–0:09:03
Also, wie ernst ist diese Sicherheitslücke für User wie mich überhaupt zu nehmen?
0:09:03–0:09:07
Apple hat ja anscheinend noch nicht reagiert. Empfiehlt es sich mit der Anschaffung
0:09:07–0:09:13
eines neuen Computers, höchstwahrscheinlich eines aufgerüsteten Mac-Studios noch zuzuwarten?
0:09:14–0:09:18
Digi Chris, das ist ja wirklich ein echtes Dilemma. Was würdest du da empfehlen?
0:09:18–0:09:22
Also, wenn er nicht gerade irgendwie Botschafter von einem Land ist oder so,
0:09:22–0:09:28
oder irgendwie sonst irgendwie weiß ich was letzte Woche im Lotto gewonnen hat,
0:09:28–0:09:31
würde ich mal sagen, bist du, ich, Kevin,
0:09:32–0:09:36
meine Mutter, mein Onkel nicht unbedingt ein Ziel.
0:09:37–0:09:42
Also ja und dieser Look ist mir jetzt auch nicht so bekannt und ich glaube auch
0:09:42–0:09:46
diesen Look auszunutzen ist, glaube ich, relativ schwierig.
0:09:46–0:09:52
Genau, du sagst es so, wir können ja vielleicht... Ah, Kevin ist auftaucht, guten Abend.
0:09:53–0:09:59
Du, genau, wir nehmen dich jetzt trotzdem noch mit Kusshand.
0:10:01–0:10:06
Also, ich fasse zusammen, er hat ja eigentlich jetzt die vier Optionen.
0:10:06–0:10:11
Er könnte sagen, ein Mac einfach kaufen, Augen zu und durch.
0:10:11–0:10:17
Er könnte ein Intel-Mac kaufen, er könnte auf Windows umsteigen und dort sind
0:10:17–0:10:23
ja die Intel-CPUs, obwohl es inzwischen gibt es auch so Snapdragon-Modelle mit Windows,
0:10:23–0:10:26
das können wir dann vielleicht in einer kommenden Sendung mal noch,
0:10:26–0:10:31
also Intel bei Windows ist immer noch kein Problem, oder er könnte abwarten
0:10:31–0:10:37
und es sind aber alle von diesen vier Lösungen sind irgendwie ein bisschen unbefriedigend, oder?
0:10:37–0:10:44
Und Digi-Chris hat schon gesagt, eigentlich Augen zu und durch und mal überlegen,
0:10:44–0:10:46
wie schlimm ist diese Sicherheitslücke.
0:10:46–0:10:52
Kevin, hast du von dieser Sicherheitslücke in diesen Prozessoren von Apple schon gehört?
0:10:53–0:10:57
Ja, aber ich habe gehört, dass es die gibt, aber ich habe noch nie gehört von
0:10:57–0:11:00
einem Fall, wo wirklich etwas Schlimmes passiert wäre.
0:11:00–0:11:02
Aber vielleicht bin ich nicht so informiert.
0:11:03–0:11:07
Nein, ich glaube, du hast recht. Ich bin dann ein bisschen recherchiert und
0:11:07–0:11:10
habe dann einen Artikel gefunden, der das erklärt.
0:11:11–0:11:15
Kaspersky, man weiss zwar nicht, Kaspersky ist ja die schlimme russische Bude.
0:11:17–0:11:20
Nein, ich glaube, in diesem Fall kann man ihnen vertrauen. Die sagen,
0:11:20–0:11:26
es wäre eigentlich so, um die auszunutzen, die Sicherheitslucke,
0:11:26–0:11:29
muss eh schon Schadsoftware auf dem Computer drauf sein.
0:11:29–0:11:36
Und dann ist es eh eigentlich fast egal, wenn man von diesem Fall ausgeht,
0:11:36–0:11:41
ob die CPU noch eine Sicherheitslucke hat oder nicht, wenn die Schadsoftware drauf ist.
0:11:43–0:11:52
Darum kann man ja vorher die Daten stellen oder Schindluder treiben.
0:11:52–0:11:59
Und eben, du hast ja diverse Sicherheitslücken, wo du physikalischen Zugriff zum PC haben musst.
0:12:01–0:12:06
Ein böse Junge in meiner Wohnung ist, habe ich glaube ich ein ganz ganz anderes Problem.
0:12:07–0:12:13
Ja, genau, das ist wirklich so. Also wir können sagen, wir würden da Entwarnung geben und sagen,
0:12:13–0:12:16
dass die Sicherheitslücken, vor allem eben die Sicherheitslücken,
0:12:17–0:12:20
die in der Hardware drin sind, die sind immer wahnsinnig ärgerlich,
0:12:20–0:12:23
weil da kann man eigentlich, was will man machen, ja.
0:12:23–0:12:28
Man kann sie manchmal quasi hinten rumflicken, durch Software,
0:12:29–0:12:32
durch Firmware oder so, aber meistens ist das tatsächlich so,
0:12:32–0:12:35
hat es dann halt Auswirkungen auf die Rechenleistung.
0:12:36–0:12:38
Intel-Macs, da können wir glaube ich schnell sagen, oder Kevin,
0:12:39–0:12:43
die kann man heute, sollte man heute nicht mehr kaufen, sogar wenn man sie günstig bekommt.
0:12:44–0:12:48
Man müsste sie schon sehr günstig bekommen, wenn man jetzt noch so einen Intel-Mac
0:12:48–0:12:51
kaufen würde. Man müsste sie schon sehr günstig bekommen.
0:12:53–0:12:56
Ich würde auch sagen, wenn du ein Intel-Mac hast, dann vielleicht,
0:12:57–0:13:00
ich sage jetzt, um dieses Home-Entertainment-System zu kontrollieren,
0:13:00–0:13:03
bitte auf keinen Fall das Internet mitnehmen.
0:13:03–0:13:10
Und ich glaube M1 Mac, ich rede jetzt mit euch um einen M1 Mac,
0:13:10–0:13:17
gibt es gar nicht mehr, aber ich glaube so ein M2 Mac Entry Level kommst du relativ günstig über,
0:13:17–0:13:22
wo du auch deine Boom Boom Musik Software kannst drauflaufen und eben wahrscheinlich
0:13:22–0:13:28
Logic Pro oder was er benutzt, läuft auf einem M2 glaube ich wie ein flinkes
0:13:28–0:13:31
Weisel. Genau, genau so ist es.
0:13:31–0:13:35
Also eben auf Windows umsteigen könnte man in dieser Situation,
0:13:35–0:13:38
wäre vielleicht aber auch ein wenig problematisch.
0:13:39–0:13:42
Gerade wenn ihr das Logic, gibt es meines Wissens, oder gibt es Logic?
0:13:42–0:13:46
Nein. Gibt es nicht für Windows? Nein, gibt es nicht. Und wenn es um Sicherheit
0:13:46–0:13:53
geht, dann ist es mit Windows so die erste Wahl. Ja.
0:13:54–0:13:58
Das war jetzt auch ein bisschen böse. Ich glaube, man kann Windows auch...
0:13:58–0:14:02
Oder du bist doch auch... Nein, nein, ich habe es jetzt nicht so böse gesagt, aber also, ja.
0:14:02–0:14:06
Gut, eben, man kann halt immer sagen, und ich habe das auch schon laut erklärt,
0:14:06–0:14:10
wo jetzt nicht viele mit IT zu tun haben, wenn du ein böser Bub bist und Virus
0:14:10–0:14:15
schreibst, schreibst du halt ein Virus für das Betriebssystem, das 80% benutzt.
0:14:15–0:14:19
Das heisst nicht, dass für dich macOS ganz tief runter geht.
0:14:19–0:14:24
Ich meine, macOS hatte mal einen Bug, da hattest du Benutzerwechsel,
0:14:24–0:14:28
R-O-O-T, Root, und hattest acht Mal auf den leeren Ding gedrückt.
0:14:28–0:14:31
Und dann hattest du Administratorenrecht.
0:14:31–0:14:35
Das war mal ein Bug in macOS.
0:14:35–0:14:38
Ja, ich kann es auch sagen. Ja, es hatte glaube ich sogar mal ein bisschen eine
0:14:38–0:14:44
Schadsoftware, wo das nicht eine Transmission war, das Filesharing-Programm,
0:14:44–0:14:47
das dann mal mit irgendeinem Virus durch ein Update ausgeliefert wurde.
0:14:47–0:14:50
Also es kann passieren, aber es ist wirklich selten.
0:14:50–0:14:55
Und ich würde auch sagen, abwarten in dem Fall, wenn man eh warten mag,
0:14:55–0:14:58
dann kann man viel Geld sparen.
0:14:58–0:15:02
Dann wartest du immer so lange ab, dass du nur jeden dritten Computer,
0:15:03–0:15:05
den du eigentlich kaufen wolltest, kaufst.
0:15:05–0:15:10
Aber in dem Fall muss man sich von dem nicht allzu sehr verunsichern lassen.
0:15:10–0:15:14
Aber eben grundsätzlich für Thomas einfach vorsichtig sein.
0:15:15–0:15:20
Wie man als kleines Kind gelernt hat, wenn die Herdplatte rot war,
0:15:20–0:15:22
wie es heute mit der Induktion immer so ist,
0:15:22–0:15:25
aber nicht gerade die Hand drauf halten, einfach mal überlegen,
0:15:26–0:15:31
soll ich jetzt auf die Seite, soll ich auf den Link und das über das Linux,
0:15:31–0:15:34
Windows, Mac, einfach vorsichtig sein?
0:15:35–0:15:40
Also, dann gehen wir doch zu der Susanne und ihr seid unser 13-jähriger Sohn,
0:15:40–0:15:45
hat seit sieben Monaten ein Handy mit bislang mittelmässig programmierter Bildschirmzeitkontrolle.
0:15:46–0:15:51
Vor allem das Feature noch eine Minute bereitet grosse Probleme.
0:15:51–0:15:58
Im Juni lud er OS 18 Beta herunter und hatte ziemlich unregulierten Zugang zu
0:15:58–0:16:03
seinen Lieblingsspielen, da die Bildschirmzeitkontrolle überhaupt nicht mehr funktionierte.
0:16:03–0:16:09
Also an dieser Stelle können wir schon das Fazit treffen, oder Digi Chris?
0:16:11–0:16:18
Also wenn du eine Bildschirmzeit hast, kannst du einfach Betas darauf installieren.
0:16:18–0:16:20
Überrascht mich jetzt. Ja genau.
0:16:21–0:16:24
Aber wir müssen das vielleicht schnell umkehren.
0:16:24–0:16:31
Der ist 13 Jahre alt, hat ein iPhone und er installiert selber eine iOS 18 Beta Version. Ja.
0:16:33–0:16:39
Ich glaube, dann ist es okay, wenn er die Bildschirmzeitkontrollen umgehen kann.
0:16:39–0:16:44
Ich weiss nicht, wer sich jetzt von allen Hörern zutrauen würde,
0:16:44–0:16:47
ein iOS 18 Beta einfach so zu installieren.
0:16:47–0:16:51
Also ich glaube, der Sohn ist recht bereit mit 13.
0:16:52–0:16:56
Und wenn man jetzt wieder die Bildschirmzeitkontrollen rausfindet,
0:16:56–0:16:58
wie man die jetzt laufen bringt.
0:16:58–0:17:02
Ich glaube, das nächste Mail ist, er hätte sich umgehen können,
0:17:02–0:17:03
wir brauchen eine andere Lösung.
0:17:04–0:17:09
Ja, ich glaube, man hat sich auch da einfach die Aussage von diesem 13-jährigen
0:17:09–0:17:11
Sohn über den Tisch ziehen lassen.
0:17:11–0:17:16
Er hat wahrscheinlich irgendwo gelesen, jawohl, die Beta, die hat halt Lücken
0:17:16–0:17:21
drin bei der Bildschirmzeit und die nutze ich jetzt knallhart aus.
0:17:21–0:17:25
Und ja, also eben, ich glaube, das ist, vielleicht wenn man es ein bisschen
0:17:25–0:17:30
allgemeiner fassen kann, es ist natürlich sowieso so, bei diesen technischen
0:17:30–0:17:32
Mitteln, die gehen immer so und so weit.
0:17:32–0:17:38
Ich glaube, Bildschirmzeit finde ich jetzt beim iOS 17 funktionieren,
0:17:38–0:17:41
ich habe die selber, um mich ein bisschen zu disziplinieren,
0:17:41–0:17:44
was Twitter angeht und so, habe ich die selber drin.
0:17:44–0:17:50
Und bei mir funktioniert sie recht gut, aber sie ist halt immer nur so und so
0:17:50–0:17:53
weit, wo die technischen Mittel langen.
0:17:53–0:17:58
Und da ist es gut, wenn man als Eltern nicht einfach alles verbietet und so,
0:17:58–0:18:03
aber mehr so ein bisschen schaut und fragt und wissen will, was die Kinder machen.
0:18:04–0:18:09
Und dann vielleicht auch gleichzeitig sich von den Kindern auch ein bisschen kontrollieren lässt.
0:18:09–0:18:11
Und die sagen dann zum Beispiel, wenn du jetzt schon wieder,
0:18:11–0:18:18
was weiss ich was, Minion Rush spielst, dann muss ich dir dann als Sohn oder
0:18:18–0:18:20
Tochter dir auch die Bildschirmzeit hier machen.
0:18:20–0:18:26
Und ich glaube auch noch, zum Beispiel ich, wie gesagt privat habe ich ein Android,
0:18:26–0:18:34
ich habe ein iPhone im Geschäft und darf ich keinen so gemeinen Beta installieren?
0:18:34–0:18:40
Der heisst dann bloops, blocked by policy, also ist wahrscheinlich auch ein Unfall gewesen.
0:18:40–0:18:44
Da könnte man auch eine eigene Sendung machen, gut, ich habe keine Kids,
0:18:44–0:18:46
müsste nochmal einen Experten haben.
0:18:46–0:18:51
Vielleicht ist anstatt Bildschirmzeit einfach besser, dass du jetzt mal deine
0:18:51–0:18:54
Tochter so umfragst, ja, wieso spielst du das schon wieder?
0:18:54–0:18:56
Wieso hast du das gemacht?
0:18:57–0:19:04
Oder ich habe Leute gehört, die einen 8-jährigen GTA gespielt haben,
0:19:04–0:19:08
da ist der Vater mal angekommen und so nach dem Motto, so, und wieso spielst du das Spiel?
0:19:08–0:19:13
Wieso findest du das lustig, mit 8, ich sage jetzt, jemanden zu überfahren?
0:19:13–0:19:18
So Sachen, also, ja, also, ist vielleicht besser, als irgendwie zu hoffen,
0:19:18–0:19:23
dass er, und ich meine, wir wissen wahrscheinlich, auch deine Tochter ist wahrscheinlich
0:19:23–0:19:28
schlau, und die versucht dann irgendwie den Pin aus der Tasche zu ziehen.
0:19:29–0:19:33
Ja, das hat sie schon geschafft, schon ganz erfolgreich. Das ist tatsächlich ein Problem.
0:19:33–0:19:41
Nein, ich würde sagen, eben, das IOS hat in dem Sinn keine Admin-Konten,
0:19:41–0:19:46
Benutzer-Konten und normale User-Konten, wo man dann zum Beispiel sagen könnte,
0:19:47–0:19:53
wir haben dem so ein Benutzer-Konto eingerichtet, wo er keine Updates installieren kann.
0:19:53–0:19:56
Ich glaube, das kannst du nicht unterbinden.
0:19:56–0:20:01
Das Einzige, was du machen könntest, du könntest so ein MTM installieren,
0:20:02–0:20:07
und über das kann man dann auch bieten, also so wie es der DigiCrisp bis zum
0:20:07–0:20:11
Geschäftshandy hat, dann kann dann der, der das kontrolliert,
0:20:11–0:20:15
gewisse Funktionen, wie die Updates unterbinden.
0:20:16–0:20:21
Ja, grundsätzlich sollte Bildschirmzeit das, wie sagen wir, verhindern,
0:20:21–0:20:25
Aber ja, grundsätzlich muss man auch sagen...
0:20:25–0:20:29
Kannst du bei den Bildschirmen die Zeit verhindern, dass er selber ein Beton
0:20:29–0:20:31
installiert? Ich glaube nicht, oder?
0:20:32–0:20:36
Ich meine, es sollte es können. Ja, aha, genau. Da hast du absolut recht.
0:20:36–0:20:41
Und ich finde auch eben, also wie gesagt, ich habe keine Kids,
0:20:41–0:20:45
aber vielleicht kann tatsächlich, wenn du jetzt halt mal im Auto oder im Zug, ich sage jetzt,
0:20:46–0:20:53
in Toskana fährst, dass halt du deine Tochter, Sohn, bespastigst mit dem iPad für 5 Stunden.
0:20:53–0:21:00
Ja, aber sonst ist Bildschirmzeit kein Ersatz für den Vater oder den Mut.
0:21:00–0:21:04
Für Erziehung. im weitesten Sinne kann man sagen.
0:21:04–0:21:08
Bildschirmzeit, kein Ersatz für Erziehung. Das fände ich eigentlich fast noch
0:21:08–0:21:11
einen schöneren Titel für diese Sendung. Ich ändere ihn vielleicht noch.
0:21:12–0:21:16
Ich muss zwar noch mal ein neues Bild suchen. Aber das interessiert euch jetzt vielleicht nicht.
0:21:17–0:21:22
Armin sagt, ich wollte den von Ihnen beschriebenen Knopf Web anklicken,
0:21:22–0:21:26
aber dieser taucht bei mir nicht auf, auch wenn ich auf mehr drücke.
0:21:27–0:21:31
Da musste ich zuerst ein bisschen überlegen, Was meint jetzt der genau?
0:21:31–0:21:36
Google hilft mir weiter. Ich habe dann einen Artikel geschrieben mit Google,
0:21:36–0:21:38
wie sie so effizient wie früher suchen.
0:21:39–0:21:47
Google hat auf der Resultatenseite einen Knopf eingeführt, der heisst Web.
0:21:47–0:21:51
Und wenn du da drauf gehst, dann siehst du einfach nur die Resultate deiner
0:21:51–0:21:56
Websuche, ohne all die Sachen, die sie sonst noch je nachdem dazu tun.
0:21:56–0:22:05
Also Schlagzeilen oder KI-Informationen oder Wikipedia oder ihre eigenen Informationen
0:22:05–0:22:09
zu Flügen oder Hotels oder was auch immer.
0:22:09–0:22:13
Also hier sieht man über den Knopf quasi nur Web-Resultate.
0:22:14–0:22:17
Und den habe ich mal beschrieben, eben genau in dem Kontext,
0:22:17–0:22:21
dass ja Google immer mehr Sachen anreichert mit denen.
0:22:21–0:22:30
Und eben die neueste Entwicklung von künstlicher Intelligenz zusammengesuchten Informationen.
0:22:30–0:22:35
Dann eben eigentlich die Suchmaschine, gar keine Suchmaschine mehr ist in dem
0:22:35–0:22:37
Sinn, sondern einfach eine KI-Antwortmaschine.
0:22:37–0:22:42
Und jetzt hat er den Knopf nicht gefunden. Kevin, könntest du eine Ahnung haben,
0:22:42–0:22:47
an was das liegt, wenn man in seinem Browser Google braucht und Google nicht
0:22:47–0:22:49
so funktioniert, wie Google funktionieren sollte?
0:22:49–0:22:53
Ich weiss nicht, wer einen Knopf sucht.
0:22:54–0:23:00
Also ein Knopf, Knopf. Es ist ja nicht ein Knopf, es ist ja wie ein Reiter. Also ein Tab, ja.
0:23:00–0:23:08
Ich habe gerade Stadtfilter gegoogelt und da kann ich sagen, ja, bei all...
0:23:08–0:23:12
Gut, vielleicht bei Stadtfilter, jetzt nicht gerade, aber ich habe da den Reiter
0:23:12–0:23:15
Web und den sehe ich. Und wenn ich jetzt mal sage, ja...
0:23:15–0:23:19
Eben, ich weiss wirklich nicht, ob er finde ich am falschen Ort.
0:23:19–0:23:23
Oder ja, jetzt sagt man halt, wie alt ist Taylor Swift? Oh, okay,
0:23:23–0:23:24
wie alt ist Taylor Swift?
0:23:25–0:23:30
Also jetzt sagt man halt, 34 ist sie, also zuerst ist der AI-Ding, und wenn ich dann...
0:23:31–0:23:36
Ist das spannend. Du hast das Ding schon. Also wenn ich sage,
0:23:36–0:23:43
wie alt ist Taylor Swift, und dann auf «all» gehen, sagt es mir «34 Jahre».
0:23:43–0:23:44
Genau, das hat es bei mir auch.
0:23:45–0:23:48
Das ist aber noch nicht die KI, sondern das ist einfach die...
0:23:48–0:23:51
Doch, wenn ich runter gehe, sagt es «People also ask».
0:23:52–0:23:53
Wie heisst Taylor Swift in echt?
0:23:54–0:24:02
Aber ich habe dann da All News Image Web Flights Whatever, wieso soll ich jetzt
0:24:02–0:24:07
Taylor Swift Ja, mit Taylor Swift hat doch das Privatflug Und da kannst du vielleicht
0:24:07–0:24:09
hin und rein fliegen Aber also,
0:24:10–0:24:12
Von Zürich nach Taylor Swift.
0:24:13–0:24:18
Ja genau Ich würde sagen, vielleicht hat er einfach am falschen Ohr gesucht
0:24:18–0:24:24
Wie nennt man das früher Menu Bar Eben, müsste das Webding sein.
0:24:25–0:24:32
Und eben der erste Punkt ist dann, ja, kann man so sagen, ist ein Wikipedia-Artikel von Taylor Swift,
0:24:32–0:24:37
dann kommt ein Gmix-Artikel, blablabla, aber ja, würde ich jetzt einmal sagen,
0:24:37–0:24:41
so, um Fake News zu verhindern, wären Wikipedia-Artikel vielleicht auch nicht
0:24:41–0:24:45
die schlechtesten Einstiegsseiten, um, wenn man jetzt unter einem Stein gelebt
0:24:45–0:24:49
hat und nie gewusst hätte, wer die ist, dass Taylor Swift ist.
0:24:49–0:24:53
Genau, aber man sieht schon auf dieser Seite, wenn du nach Taylor Swift suchst,
0:24:53–0:24:57
dann siehst du eigentlich auf der ersten halben Seite, oder einfach auf dieser
0:24:57–0:25:01
Seite, die jetzt bei mir vollständig auf dem Laptop angezeigt wird,
0:25:01–0:25:06
siehst du eigentlich noch kein Suchresultat, wenn du jetzt von Wikipedia abgesehen bist.
0:25:06–0:25:10
Das ist wirklich auch ein Problem von diesem Google, über das wir vielleicht
0:25:10–0:25:12
noch etwas ausführlicher reden müssen.
0:25:12–0:25:17
Und ich glaube, was jetzt ins konkrete Problem angeht, Vielleicht meinte er
0:25:17–0:25:23
tatsächlich, dass das ein richtiger Knopf sei, der auch ausgesehen wie ein Knopf,
0:25:23–0:25:25
aber es ist ja eigentlich ein Link.
0:25:25–0:25:30
Aber er hat das eigentlich mit einem Mehr, weil die Optionen,
0:25:30–0:25:33
die einem hier angezeigt werden, werden ja immer je nachdem,
0:25:34–0:25:40
was du suchst, verschieden sortiert, was mich zum Beispiel auch ziemlich auf die Palme treibt.
0:25:40–0:25:44
Ich möchte eigentlich immer, dass die gleichen Knöpfe am gleichen Ort sind,
0:25:44–0:25:48
dass ich blind draufklicken kann und nicht zuerst lesen muss,
0:25:48–0:25:51
wo ich meine News habe, wenn ich nach News suchen will.
0:25:52–0:25:58
Aber dann kann es sein, dass er gar nicht auftaucht und dann ist es glaube ich
0:25:58–0:26:04
das Problem, dass Google so Features häufig nicht einfach auf einen Klopf bei
0:26:04–0:26:06
allen Nutzern zur Verfügung stellt,
0:26:06–0:26:11
sondern dann so, man nennt das ausrollen, man rollt das aus.
0:26:12–0:26:16
«Stage-Rollout» heisst es, glaube ich. Genau. Und dann kann es sein,
0:26:16–0:26:21
dass eben die einen diese Funktion schon überkommen und die anderen nicht.
0:26:21–0:26:25
Und ich habe mich da in meiner Rolle als Journalist schon ziemlich darüber gekämpft.
0:26:26–0:26:30
Weil ich weiss eigentlich gar nicht, wenn ich jetzt darüber schreibe und ich habe es schon gesehen,
0:26:31–0:26:34
haben dann das alle Leserinnen und Leser schon gesehen oder kommen sie nachher
0:26:34–0:26:39
in den Heerscharen und sagen, du sag mal, was schreibst du da für ein Zeichen,
0:26:39–0:26:43
da hast du uns diese Funktion vorgestellt und wir finden die gar nicht.
0:26:43–0:26:45
Das finde ich wirklich ein Problem.
0:26:46–0:26:51
Ich habe auch schon bei Google reklamiert. Sie können nicht einmal selbst herausfinden,
0:26:52–0:26:56
ob das schon alle Menschen in der Presse haben oder nicht.
0:26:56–0:26:59
Es ist ein wenig mühsam.
0:26:59–0:27:05
Es war damals schon so, dass bei WhatsApp vor Jahren die Hökli gelesen wurden.
0:27:06–0:27:14
Du hast das erste Hökli gesendet, übertragen, blablabla. Die sind ja auch nicht
0:27:14–0:27:17
bei allen rausgekommen, das war auch eine riesen Verwirrung.
0:27:17–0:27:21
Also, das versteht man als IT-Lehrer auch, du kannst natürlich nicht so eine
0:27:21–0:27:26
Funktion... Wir haben über Crowdstrike geredet, alle auf dem Band... Die können es.
0:27:26–0:27:29
Gut, die können es schon, ja. Dann sehen wir, was passiert.
0:27:30–0:27:36
Die, die machen das. Ja, nein, verstehe ich schon. Ich glaube,
0:27:36–0:27:37
ich hatte es auch schon...
0:27:38–0:27:43
Dass irgendwie die Eltern irgendwie... Du hast ja immer die Windows-Upgrades.
0:27:43–0:27:47
Ja. Weisst du, dass zwei... Jetzt kommt dann ja, glaube ich,
0:27:47–0:27:54
24K2 und, glaube ich, 23K2 hat die Mutter auf ihrem PC vor mir gehabt.
0:27:55–0:27:59
Also gut, wir sind beide nicht im Insider-Channel. Ich habe jetzt gemeint,
0:27:59–0:28:00
ich habe vielleicht ein bisschen mehr.
0:28:00–0:28:05
Genau, nicht einmal, wenn du Betas abonniert hast, kommst du immer zur gleichen Zeit.
0:28:05–0:28:09
Das ist wirklich so. Ich finde, man könnte es ja einfach machen wie früher,
0:28:09–0:28:14
wo man dann halt einfach, es könnte irgendwie die Versionsnummer stehen irgendwo
0:28:14–0:28:16
und dann könntest du genau... Und eine CD bekommen hast.
0:28:17–0:28:20
Eine CD, ja. Google CD, genau.
0:28:22–0:28:27
Google schickt dir persönlich eine CD. Oder meinetwegen könntest du ja schreiben,
0:28:27–0:28:31
die Features kommen als nächstes und wenn du es jetzt unbedingt schon willst,
0:28:31–0:28:33
kannst du es anklicken und dann hast du es schon.
0:28:33–0:28:40
Das kostet 8 Dollar. Ja, ich sehe schon Kevin, du bist heute mehr so Vertreter
0:28:40–0:28:43
von der Gegenseite. Das ist so der Kapitalist.
0:28:44–0:28:48
Es passiert eben genau das, du kommst ab jetzt früher über und ein blaues Höckli.
0:28:48–0:28:50
Ja, das blaue Höckli, genau.
0:28:51–0:28:56
Der verifizierte Google-Nutzer, ja, das wäre es noch.
0:28:56–0:29:00
Nein, eben, und das Problem könnte ja dann auch am Schluss sogar noch sein,
0:29:00–0:29:05
dass er einfach einen sehr alten Browser hat oder irgendetwas an seinem System
0:29:05–0:29:09
hinzuführt, dass er diese Funktion gar nicht überkommt.
0:29:09–0:29:12
Und das wäre dann natürlich besonders blöd. Also in diesem Fall müsste man vielleicht
0:29:12–0:29:18
mal einfach einen anderen Browser probieren, schauen, dass generell so das System
0:29:18–0:29:19
auf dem neuesten Stand ist.
0:29:19–0:29:23
Wenn man sieht, es liegt am Browser, dann die Fehlerbehebungen,
0:29:23–0:29:25
die man durchführen kann, da haben wir einen Link dazu.
0:29:26–0:29:30
Und jetzt sind im Fall dieser Funktion, dieser Webansicht-
0:29:30–0:29:37
kann man auf UDM14.com gehen und dann kann man es dort eingeben und dann sollte
0:29:37–0:29:41
man automatisch in die richtige Ansicht kommen.
0:29:41–0:29:48
Weil UDM14 ist quasi der Parameter, den Google dazu bringt, all den Schmorder,
0:29:48–0:29:53
sage ich jetzt ein wenig despektierlich, wegzulassen und nur die Resultate anzuzeigen.
0:29:53–0:29:57
Und wenn man dann vielleicht etwas ausprobieren möchte, was es erst in Amerika gibt,
0:29:58–0:30:03
dann kann man immer noch ein VPN nutzen und sich in den USA einloggen und dann
0:30:03–0:30:09
zum Beispiel eben die KI-Funktionen schon ausprobieren, die es dort bei Google schon gibt.
0:30:10–0:30:15
Noch ein Nachtrag zur Demo, dann sollen wir zum Heinrich gehen. Ja, gehen wir weiter.
0:30:15–0:30:20
Heinrich. Der Heinrich, der sagt, ich sende Ihnen eine komische Mail-Anfrage
0:30:20–0:30:22
von Microsoft-CD unten.
0:30:23–0:30:27
Was soll das? Ist das Spam? Und Microsoft schreibt, ab dem 16.
0:30:28–0:30:33
September 2024, also das ist dann so gut die zwei Wochen, können Apps,
0:30:33–0:30:38
die auf eine weniger sichere Anmeldetechnologie zugreifen,
0:30:38–0:30:43
nein, die Nutzer nicht mehr auf ihr E-Mail-Postfach zugreifen.
0:30:44–0:30:49
Der Schutz ihrer Daten hat für Microsoft oberste Priorität. Da würde ich,
0:30:49–0:30:55
glaube ich, ein Fragezeichen machen. Ich glaube, unsere Rendite hat für Microsoft
0:30:55–0:30:57
die oberste Priorität, würde ich sagen.
0:30:57–0:31:03
Aber, eben, genau, was ist das, Chris, was meinst du, ist das echt?
0:31:03–0:31:07
Ist das irgendein komisches Phishing oder was könnte das sein?
0:31:07–0:31:11
Es geht wahrscheinlich darum, wenn jemand, ich glaube, hat hotmail.com,
0:31:11–0:31:15
hat rocketmail.com, hat outlook.com und irgendwie.
0:31:15–0:31:22
Ich rede immer so in Anglizismen, ein Third-Party-Client hat also eine Anwendung
0:31:22–0:31:26
von einem Drittabüter, die vielleicht seit drei Jahren immer aktualisiert hat,
0:31:26–0:31:29
dass Microsoft sagt, nein, du kommst hier nicht mehr rein.
0:31:30–0:31:33
Ich gehe jetzt mal davon aus, es geht in diese Richtung.
0:31:33–0:31:38
Ja, ich würde es auch vermuten. Früher hat man ja so Dritt-Apps einfach so gebraucht,
0:31:38–0:31:39
indem man dort seine Anmelde...
0:31:40–0:31:42
Ja, genau. Genau, oder auch das,
0:31:42–0:31:48
dass man dort einfach seine Anmeldedaten hinterlegt hat und sein Passwort.
0:31:48–0:31:54
Und das ist natürlich tatsächlich dann so sicher, wie halt die dritte App ist.
0:31:54–0:31:59
Und heute macht man das eher so, dass man das O-Out benutzt.
0:31:59–0:32:04
Das ist eigentlich noch eine recht clevere Authentifizierungsmethode,
0:32:04–0:32:10
die dann auf das Postfach zugreifen kann, aber ohne, dass sie das Passwort kennen muss.
0:32:11–0:32:14
Sondern sie bekommt dann so ein Token über und mit dem kann sie sich anmelden
0:32:14–0:32:19
und kann man sie auch einfacher abklemmen, wenn sie komische Sachen macht und
0:32:19–0:32:24
eben, man muss nicht das Passwort irgendwo deponieren, wo es vielleicht wegkommen könnte.
0:32:24–0:32:30
Und ich könnte mir vorstellen, dass das der Grund ist, warum das jetzt passiert ist.
0:32:30–0:32:34
Also vermutlich eine authentischste Meldung.
0:32:34–0:32:38
Kevin, was kann man machen, wenn man das Mail jetzt auch von Microsoft bekommt?
0:32:39–0:32:45
Also es ist wir haben das mit den Mails ja jetzt schon in mehreren Generationen durchgespielt.
0:32:47–0:32:47
Zuerst haben wir,
0:32:48–0:32:54
Port 25 hatte, dann haben die meisten Anbieter geändert und gesagt,
0:32:54–0:32:56
ok, wir wechseln jetzt den Port auf 587.
0:32:58–0:33:04
Und dann musste man SSL schliesslich machen und Port 456 also es ist einfach
0:33:04–0:33:08
wie die nächste Generation von E-Mail Sicherheit,
0:33:09–0:33:12
das ist nichts gefährliches, es kann einfach sein, also man verliert auch keine
0:33:12–0:33:16
Daten in dem Moment, es kann einfach sein, dass eben genau die Programme.
0:33:16–0:33:19
Da muss man wieder irgendwelche Sicherheitseinstellungen anpassen.
0:33:20–0:33:24
Im Thunderbird habe ich es, glaube ich, schon mal gemacht.
0:33:24–0:33:28
Da kann man irgendwo, ich kann es nicht mehr sagen, in den Kontoeinstellungen
0:33:28–0:33:34
kann man auf O-Out 2 umstellen und dann muss man sich neu anmelden und dann läuft das wieder.
0:33:34–0:33:39
Ich weiss jetzt nicht, wer Windows Live Mail noch nutzt, ist dann vielleicht
0:33:39–0:33:44
raus, weil das Programm kann das nicht mehr. Und dann muss man einfach ein neues Programm suchen.
0:33:45–0:33:51
Der diesen Sicherheitsstandort wieder unterstützt. Das ist das Dümmste, was passieren kann.
0:33:51–0:33:56
Andererseits ist es vielleicht auch ein guter Moment, wirklich alte Programme,
0:33:56–0:34:01
die so eine Funktion nicht mehr unterstützen, dann abzusagen.
0:34:01–0:34:05
Und das wiederum, da müsste Microsoft dann doch recht geben,
0:34:05–0:34:07
das würde die Sicherheit erhöhen.
0:34:08–0:34:12
Ich glaube, es gibt ja auch noch, wie sagt man das,
0:34:13–0:34:18
Wenn du jetzt tatsächlich auf deinem 386er einen E-Mail Client hast,
0:34:18–0:34:24
kannst du sagen, mit diesem Passwort darf ich nur E-Mails lesen,
0:34:24–0:34:30
aber ich weiss ja, das Microsoft-Konto hat ja durchaus auch deine Kreditkartennummer und solche Sachen.
0:34:32–0:34:37
Und wenn jetzt halt mal dein 386er gehackt wird, ist halt das Passwort weg,
0:34:37–0:34:39
dann kannst du sagen «Revoke» und «Weg».
0:34:39–0:34:44
Also ich glaube auch, da kann man jetzt sagen, Microsoft, es ist gut gemeint,
0:34:44–0:34:49
es ist nicht, dass sie dir eine neue PC, ein neues Surface-Book verkaufen.
0:34:49–0:34:53
Das wollen sie natürlich trotzdem, aber... Ja, aber ich glaube tatsächlich,
0:34:54–0:34:58
ich rede zu viel Englisch, die Intention ist eine gute. Genau,
0:34:58–0:35:01
wir sagen, sie haben gute Absichten in diesem Fall.
0:35:02–0:35:06
Man hätte es vielleicht noch benutzerfreundlicher schreiben können oder versuchen
0:35:06–0:35:14
herauszufinden oder dem Benutzer noch mitschicken, um was für ein Programm es sich dann handelt.
0:35:14–0:35:17
Dass er nicht einfach warten muss bis zum 16.
0:35:17–0:35:20
September und schauen muss, was dann nicht mehr funktioniert.
0:35:20–0:35:27
Das ist halt ein bisschen das Blöde daran. Für 8 Dollar bekommst du eine verständliche
0:35:27–0:35:29
Erklärung und ein blaues Häkli.
0:35:30–0:35:35
Also Kevin, ich würde sagen, heute bist du der, du bist weniger der,
0:35:35–0:35:41
wie soll ich sagen, der, der Computerprobleme löst, aber so der... Der Verkäufer.
0:35:41–0:35:44
Marketing. Kann ich. Der, der mich triggert will.
0:35:44–0:35:51
Also ich kann nur sagen, das blaue Häkli wird in unserem Realitätsabgleich eine grosse Rolle spielen.
0:35:51–0:35:53
Das kann ich jetzt schon spoilern. Also, wir sind gespannt.
0:35:54–0:35:56
Das war ein super Teaser, Chris.
0:35:56–0:35:58
Wir freuen uns alle schon.
0:35:58–0:36:01
Da kann man den Bogen schlagen zu der Pre-Show.
0:36:03–0:36:07
Oder ich zumindest freue mich, wenn das Jahr durch ist. Das 2024.
0:36:07–0:36:08
Ich habe es bis jetzt auch nicht
0:36:08–0:36:12
so toll gefunden, aber vielleicht wird es noch ganz toll bis Ende Jahr.
0:36:13–0:36:17
Und sonst geben wir ihm ein blaues Haken dem 2024.
0:36:17–0:36:22
Das ist jetzt das Zeichen von einem nicht so tollen Jahr.
0:36:22–0:36:26
Ich wünsche euch, hat jemand noch ein famous last word und sonst hören wir uns
0:36:26–0:36:30
in einer Woche wieder und ich glaube, das ist dann ein super Thema,
0:36:31–0:36:35
wo wir dann haben, nämlich Self-Care für Nerds. Das ist super.
0:36:35–0:36:37
Tschüss miteinander. Macht's gut, ciao.
0:36:39–0:36:53
Music.
Eine riesige Sicherheitslücke in Apples Prozessoren – und niemand ist beunruhigt? Doch, Thomas, der seinen Mac ablösen will und nicht sicher ist, ob er guten Gewissens ein Modell mit «Apple silicon» kaufen kann. Dieser kniffligen Frage gehen wir in der heutigen Folge von Kummerbox Live auf den Grund.
Weitere Anliegen aus dem Publikum: Susanne hat Ungereimtheiten in iOS 18 festgestellt, die es ihrem Sohn erlauben, die Kontrolle durch die Bildschirmzeit auszuhebeln. Armin vermisst eine neue Funktion bei Google. Und Heinrich fragt sich, was es mit einer Warnmeldung von Microsoft auf sich hat, die sich auf ein Microsoft selbst bezieht (Outlook).
Und das ist ein Stück wie gemacht für Digi-Chris, es heisst nämlich «The Boat» von Hanya Rani.
0:00:15–0:00:19
Digi-Chris, bist du live vom Boot? Nein, du siehst aus, als würdest du im Studio stehen.
0:00:19–0:00:24
Nein, ich bin im Studio, dieses Mal nicht. Ab und ab wie am Mittelmeer. Genau, das war etwas.
0:00:24–0:00:28
Wir sind wieder da, unsere Sommerpause ist fertig.
0:00:28–0:00:33
Ihr seid hoffentlich auch zurück und ja, wir sind entspannt, oder?
0:00:33–0:00:36
Bist du entspannt, Digi-Chris? Ja, kann man so sagen.
0:00:37–0:00:42
Es war jetzt angenehm, dass es heute nicht mehr so ganz heiss war,
0:00:42–0:00:44
sondern ja doch ein bisschen kühler,
0:00:44–0:00:47
dass es vielleicht mal ein bisschen geregnet hat über die Nacht, ja.
0:00:48–0:00:54
Weil ja, ich bin mir auch überlegen, ja, weil ich habe so eine hohe Luftfeuchtigkeit
0:00:54–0:00:58
in der Wohnung, ja soll ich jetzt so einen Geheiber luftempfeuchter anschaffen?
0:00:59–0:01:03
Ah, okay, ja genau, dass es nicht ganz so tropisch ist, aber wenn es von draussen
0:01:03–0:01:08
so ist, dann hast du ja eh, wie soll ich sagen, dann kommt es gleich zack wieder rein, oder?
0:01:08–0:01:13
Also genau, über das müssen wir vielleicht mal eine Hitzeedition machen.
0:01:13–0:01:17
Wir können ja noch, ich muss noch eine kleine Ferienanekdote erzählen.
0:01:18–0:01:25
Ich bin ja so, ich bin nämlich so, man sagt ja so, zu seiner Komfortzone rausgerissen worden.
0:01:25–0:01:30
Bist du jemand, der gerne deine Komfortzone verlässt?
0:01:30–0:01:35
Ja, ich komme davon ab. Wie? Also eben, genau, wir sind auf dem Atsmani gewesen
0:01:35–0:01:37
und dann hat es dort so einen Kletterpark.
0:01:38–0:01:41
Dann habe ich gefunden, meine Tochter hat gefunden, ja, ja, sie will das machen
0:01:41–0:01:44
und sie fände das cool und so. Oder so einen Seilpark, wie sagt man das?
0:01:44–0:01:48
Auf jeden Fall habe ich nicht so genau geschaut, was denn das ist und habe gefunden,
0:01:48–0:01:51
ja, ja, easy, das machen wir, ist kein Problem.
0:01:51–0:01:57
Und dann bin ich ja so auf der Anfängerstrecke gewesen und habe dann gefunden,
0:01:57–0:02:01
oh, oh, wenn ich gewusst hätte, Auf was ich mich hier einlade,
0:02:01–0:02:02
hätte ich wahrscheinlich nicht gefunden.
0:02:04–0:02:10
Du bist so angeseilt, du hast so ein Gestaltchen an, das du einschnitten kannst.
0:02:12–0:02:16
Und dann hängst du dich immer so ein an einem Drahtseil.
0:02:18–0:02:23
Dann musst du dich so bewegen, irgendwie 2, 3, 4, 5, 6 Meter über dem Boden
0:02:23–0:02:27
zwischen den Bäumen und dann ist da so ein Seil gespannt, da musst du zum Beispiel
0:02:27–0:02:32
auf dem Seil balancieren und hast vielleicht noch ein Seil, das du dran halten kannst.
0:02:32–0:02:35
Oder dann hat es so Bretter und so Pflöcke oder so.
0:02:35–0:02:43
Und was du auch noch hast, dann hast du so ein Rollding, wo du oben kannst ins Drahtseil einhängen.
0:02:43–0:02:47
An dem hängst du dran und dann kannst du dir einfach so das Seil durch die Rollen
0:02:47–0:02:50
lassen, etwa 20, 30 Meter durch den Wald.
0:02:51–0:02:56
Und ich habe gemerkt, das hat mich überwindet, die Kostinnerei.
0:02:57–0:03:02
Aber zu wenig ist dort nicht, wie sagen wir, Rodelbahn. Genau, das ist es.
0:03:02–0:03:07
Auf der Rodelbahn sind wir auch noch, im Vergleich ist die natürlich Pipifax.
0:03:08–0:03:11
Also ich würde sagen, wenn ihr euch mit diesem Gedanken trägt,
0:03:11–0:03:15
dann geht zuerst schauen, wie es aussieht und macht es nicht wie ich.
0:03:15–0:03:21
Und ich muss sagen, ich meine, ich hatte ja den Vorteil, dass ich so einigermassen
0:03:21–0:03:23
von der Grösse her gut durchgekommen bin.
0:03:23–0:03:28
Und meine Tochter, die ist acht Jahre alt und die hat gerade eine Minimalgrösse,
0:03:28–0:03:32
die man braucht, um da durchzugehen. Und die musste sich dann voll durchstrecken,
0:03:32–0:03:35
damit sie überhaupt an diesem Seil entlang kam.
0:03:35–0:03:40
Einmal musste man von einem dieser Belge zum anderen hüpfen.
0:03:41–0:03:46
Und ich konnte einen grossen Schritt machen und sie musste dann richtig kumpeln.
0:03:47–0:03:52
Ich muss sagen, Respekt, dass sie das gemacht hat und sie hat es,
0:03:52–0:03:56
glaube ich, genau wie ich, wir haben uns beide wahnsinnig bereut,
0:03:56–0:03:58
dass wir uns auf diese Abtüre eingelassen haben.
0:03:59–0:04:03
Aber wenn du mal dort oben bist, dann hast du einfach gar keine andere Wahl
0:04:03–0:04:05
mehr, weil dann hat es schon hinter dir Leute, die kommen.
0:04:05–0:04:11
Das kannst du nicht einfach umkehren und wieder Steigli durch ab oder das Strickleiterli
0:04:11–0:04:13
wieder rechts umkehren,
0:04:13–0:04:20
sondern musst dich dann durch den Parkour durchkämpfen bis ans andere Ende.
0:04:20–0:04:25
Und dann dachte ich mir, ich hätte das Video noch einspielen müssen.
0:04:25–0:04:34
Ich sagte, es ist gut, aber dort wo man sich an dem Seil abfahren muss,
0:04:34–0:04:38
an dem Ding, ich weiss gar nicht, wie man das sagt. Zip-Line?
0:04:39–0:04:46
Ja, irgendwie einfach das Seil durchrollen lassen. Dann dachte ich mir, das machen wir nicht.
0:04:47–0:04:54
Zuerst hattest du nach einer Auswahl, rechts oder links, und dann konntest du ohne rutschen oder mit.
0:04:54–0:04:57
Dann haben wir gefunden, okay, das ist beim nächsten Mal wieder so,
0:04:57–0:04:59
aber beim nächsten Mal hattest du keine Wahl mehr.
0:05:00–0:05:07
Genau, also wie soll ich sagen, eine fast halbwegs traumatische Erfahrung.
0:05:09–0:05:13
Und wir haben noch 20 Sekunden. Hast du etwas... Ah, jetzt warte,
0:05:14–0:05:16
ich muss noch schnell schauen. Kevin hat gesagt, er sei hier auf dem 1.
0:05:17–0:05:21
Dann schaue ich mal. Hallo Kevin, bist du da? Hörst du uns? Oh,
0:05:21–0:05:23
oh, ich glaube fast. Jetzt probiere ich es noch hier.
0:05:24–0:05:27
Wir haben die gleichen Probleme wieder wie letztes Mal.
0:05:27–0:05:30
Kevin, hörst du mich? Okay, also...
0:05:31–0:05:34
Es fängt ja schon gut an. Jedes Jahr das Gleiche, April.
0:05:35–0:05:40
Ich würde sagen, Kevin, wenn du uns hörst, er hört es, aber wieso höre ich das
0:05:40–0:05:43
nicht? Das ist wieder genau das Problem. Ich schreibe nachher noch.
0:05:44–0:05:47
Währenddessen fangen wir mit unserer Hauptsendung an.
0:05:49–0:05:53
Währenddessen sagt Digi Chris, um was es heute eigentlich geht.
0:05:54–0:06:08
Music.
0:06:01–0:06:05
Willkommen zu Nerdfunk.
0:06:09–0:06:13
Guten Abend miteinander. Wir sind wieder aus den Ferien da.
0:06:13–0:06:18
Und wir haben uns entschlossen, ein Thema zu bringen, das wahrscheinlich bevor
0:06:18–0:06:24
wir in die Ferien gegangen wären, das Wort Crowdstrike wahrscheinlich kennen, gekannt hat.
0:06:25–0:06:31
Und ja, es war der 19. Juli. Ich darf das so weit sagen. mein Arbeitgeber hat
0:06:31–0:06:35
die Software CrowdStrike benutzt. Oh-oh.
0:06:36–0:06:40
Ist soweit auch gut, sie hat sicher auch schon geholfen, also eben,
0:06:40–0:06:44
das ist, ja, Virus-Scanner ist jetzt vielleicht, ja, kommen wir vielleicht später noch dazu.
0:06:45–0:06:51
Und es hat alles angefangen am Freitagmorgen, als ich im Bus war und eine Microsoft
0:06:51–0:06:57
Teams-Meldung bekommen habe, hey, Chris, ist der DIC-SQL-Server weg? Und ich so, ja. Oh-oh.
0:06:58–0:07:01
Das ist nach dem Motto, ich schaue mal, sobald ich im Büro bin.
0:07:01–0:07:06
Und dann war man halt im Büro, hat das Notebook gut gefahren und im Server Operation
0:07:06–0:07:08
Channel hat es gerappelt.
0:07:08–0:07:16
Also ja, wir haben Blue Screen auf vielen Clients und Servern. Ich meine, Scheisse.
0:07:16–0:07:20
Also da ist was nicht gut, weil dass du auf einem Server einen Blue Screen hast,
0:07:20–0:07:22
kommen wir vielleicht auch später noch dazu.
0:07:22–0:07:24
Also wirklich... Das ist ungewöhnlich, ja.
0:07:24–0:07:27
Wenn Windows abschmiert. Das ist nicht gut.
0:07:28–0:07:35
Ja, das ist so. Dann haben wir geschaut, was da los ist, welche Maschinen sind
0:07:35–0:07:43
weg, SAP, die auf Linux läuft, war natürlich noch nicht da, aber das Satellitensystem, z.B.
0:07:43–0:07:48
Das Print-System, war auf Windows, das war auch noch nicht da, also scheisse.
0:07:49–0:07:52
Wir haben das Problem, und auch in unserem Team. Der eine, ja,
0:07:52–0:07:55
hatte auch Blue Screen. Hm, blöd.
0:07:57–0:08:01
Und ich glaube, ich weihe aus dem Internet, im Chat schreibe ich so,
0:08:01–0:08:05
ja, die arme Sau, die den Patch ausgerollt hat bei uns.
0:08:05–0:08:09
Und irgendwann haben wir auch mal geschaut, also Schadensbilanz.
0:08:10–0:08:14
Und ich bin zu dieser Basis und wir hatten einen Externen, der schaut mich so
0:08:14–0:08:17
an, es sind nicht nur ihr.
0:08:17–0:08:21
Also das Crowdstrike, das ist eigentlich das Unternehmen, aber die Die haben
0:08:21–0:08:24
da so eine Software gehabt, eine Sicherheitssoftware, wo man sagt,
0:08:24–0:08:28
zum Glück, Endanwender brauchen die eigentlich nicht.
0:08:28–0:08:34
Die ist so, allerdings, sie läuft in Spitäler, im Flugverkehr wird sie an vielen
0:08:34–0:08:37
Orten eingesetzt, es gibt Läden, die sie braucht.
0:08:37–0:08:41
Also man kann sagen, sie hat wirklich an ganz vielen Orten, haben die Leute
0:08:41–0:08:45
gemerkt, dass etwas nicht mehr gestimmt hat, kann man so sagen.
0:08:46–0:08:53
Es ist auch so, dass CrowdStrike in der Security-Software, also Don't Quote Me, 3% Marktanteil hat.
0:08:53–0:08:59
Also sie sind zwar gross, aber ja, wenn du tatsächlich im Flughafen Zürich irgendwo
0:08:59–0:09:06
die Anzeigetafel siehst, wo dann halt einfach nur blau ist, ja, blöd.
0:09:07–0:09:11
In der Schweiz sind allerdings, glaube ich, nicht so viele Unternehmen betroffen gewesen, oder?
0:09:11–0:09:16
Ist es im Flughafen? Also ich glaube es war auch bei Sky Guide,
0:09:16–0:09:18
bei Don Quodmüandet ist was passiert.
0:09:19–0:09:24
Und eben nein, keine Angst, Herz-Lunge-Maschine läuft nicht auf Windows, da ist nichts passiert.
0:09:24–0:09:32
Aber 4-5 Unternehmen im Industriesektor waren sicher auch betroffen.
0:09:33–0:09:38
Wobei man auch sagen kann, dort gab es in Anführungszeichen nur Produktionsausfälle.
0:09:38–0:09:42
Und eben nicht, es ist nicht um Leben und Tod gegangen.
0:09:42–0:09:45
Genau, wie bei Spitälern, wo dann hat man so Operationen verschieben und so.
0:09:46–0:09:50
Kevin, hast du Kunden gehabt, die gefunden haben, ich habe nur noch Blue Screens
0:09:50–0:09:51
auf meinem Windows-Computer?
0:09:53–0:09:56
Nein, gar nichts. Ich glaube, ich bin da ans kleine Fisch. Meine Kunden hängen
0:09:56–0:10:00
nicht so fest im Internet herum, dass sie die Software brauchen.
0:10:01–0:10:05
Genau, für was DigiCris braucht sie die denn?
0:10:05–0:10:10
Ist das so ein Virus-Scanner? Warum brauchen Unternehmen spezielle Virus-Scanner?
0:10:10–0:10:12
Wir haben doch eigentlich ja jetzt den, den wir immer sagen,
0:10:12–0:10:15
den, der im Windows eingebaut ist. Der Defender. Der Defender reicht.
0:10:16–0:10:23
Ich glaube, CrowdTrack findet tatsächlich etwas heraus. Wie könnte man das jetzt vergleichen?
0:10:23–0:10:29
Wenn tatsächlich jemand etwas Blödes auf deinem Rechner machen will oder nach dem Motto,
0:10:30–0:10:33
Siehst du vielleicht auch bei dir im Haus, wenn jemand einen Türfall runter
0:10:33–0:10:36
drückt, ja, du hast beschlossen, ist das vielleicht noch normal,
0:10:36–0:10:40
weil vielleicht kommst du nach Hause und hast halt den Schlüssel nicht und wenn
0:10:40–0:10:42
dann halt vielleicht jemand im ganzen Haus,
0:10:43–0:10:47
an 20 Türfällen rütteln geht, würde dann wahrscheinlich GrassRack mal sagen,
0:10:47–0:10:54
da ist irgendwas falsch und dann anscheinend knallt so unser Security-Team aus dem Nest und...
0:10:54–0:10:56
Ah, die werden dann gerade direkt geweckt vom...
0:10:57–0:11:00
Anscheinend gibt es schon einen gewissen Algorithmus, der sagen kann,
0:11:00–0:11:03
da ist jetzt vielleicht etwas, das man sich anschauen kann.
0:11:04–0:11:12
Es ist sicher gut, wenn du auf Unternehmenslevel bist, wenn du eine 10-Milliarden-Firma
0:11:12–0:11:17
bist, dass man da nicht nur einen Window Defender hat, sondern vielleicht ein bisschen mehr.
0:11:17–0:11:22
Genau, man kann das kurz zusammenfassen, dass Unternehmen andere Bedürfnisse haben,
0:11:22–0:11:28
weil da auch andere Gefahrensituationen auftreten können, weil vielleicht die
0:11:28–0:11:33
ganze Infrastruktur komplexer ist und es schwieriger eben da auch nicht nur
0:11:33–0:11:35
auf den einzelnen Rechner muss geschaut werden,
0:11:35–0:11:39
sondern in dieser ganzen Umgebung, was so passiert.
0:11:39–0:11:43
Und ich glaube, es ist ja auch, also man muss schnell sagen,
0:11:43–0:11:46
es ist ja nicht ein Antivirus-Programm.
0:11:46–0:11:51
Also ich habe vorher von Crowdfans noch nie etwas gehört und habe dann geschaut,
0:11:51–0:11:56
aber es ist ja glaube ich eine Software, die sich... also ein Antivirus-Programm,
0:11:56–0:11:58
das wird auf Windows-Basis installiert.
0:11:58–0:12:01
Ich brauche ein Windows und dann installiere ich ein Antivirus-Programm wie darauf.
0:12:02–0:12:07
Und Crowdfans ist eigentlich eine Software, wo ein Layer unter dem Windows schon stattfindet.
0:12:09–0:12:12
Vor dem Windows ist die Software schon aktiv, d.h.
0:12:12–0:12:19
Sie hat viel einen weitergehenden Zugriff auf ein System, also ein Antivirusprogramm.
0:12:19–0:12:25
Also sie kann eigentlich Sicherheitsprobleme oder Angriffe oder so,
0:12:25–0:12:31
kann sie bei so einer Stufe vorher schon erkennen, bevor die Software überhaupt aktiv wird auf dem PC.
0:12:32–0:12:36
Genau, im optimalen Fall ist das so, dass CrowdStrike vielleicht meint,
0:12:36–0:12:40
auch wenn du jetzt vielleicht mal drei Bilder löscht, also ja,
0:12:40–0:12:42
ist jetzt vielleicht im Unternehmen nicht so relevant,
0:12:42–0:12:44
aber wenn du halt irgendwie 750
0:12:44–0:12:49
Bilder löschen kannst, wird vielleicht CrowdStrike sagen, nein, nichts.
0:12:49–0:12:53
Genau, Verdächtigung. Es ist tatsächlich auch ein AI-Algorithmus.
0:12:53–0:12:57
Oder sagen wir, wenn jemand zum Beispiel einfach riesige Datenmengen anfängt
0:12:57–0:13:00
kopieren auf einem USB-Stick oder so etwas.
0:13:00–0:13:03
Das analysiert auch diese Verhalten.
0:13:03–0:13:08
Aber Kevin hat doch ein richtiges Thema angesprochen. Das ist ja im Kern,
0:13:08–0:13:11
also im Kernel von diesem Windows reingelaufen.
0:13:11–0:13:19
Und darum, ich glaube, wir müssen jetzt nicht ganz genau im Detail ausbreiten, was das Problem war.
0:13:19–0:13:24
Aber man kann schon sagen, es war wahrscheinlich ein relativ blöder Fehler und
0:13:24–0:13:26
sie haben relativ schlecht getestet.
0:13:26–0:13:30
Zuerst hätte der Fehler wahrscheinlich nicht passieren dürfen,
0:13:30–0:13:35
zweitens hätte man ihn beim Testen finden sollen und drittens sollte wahrscheinlich.
0:13:35–0:13:41
Oder kann man darüber diskutieren, ob so eine Software so tief in diesem Windows
0:13:41–0:13:45
stecken sollte, dass so ein Fehler dann gleich einen Blue Screen auslösen kann.
0:13:45–0:13:49
Also ich glaube, was man sagen kann, wenn du jetzt, ich sage jetzt das Wort
0:13:49–0:13:52
hast und das Wort hat ein Problem, dann reisst du das Wort runter,
0:13:52–0:13:56
also das Wort ist dann weg und deine Dokumente hast du aber in der Regel noch.
0:13:56–0:14:01
Aber eben weil das so tief ist und das hat es einmal einer erklärt,
0:14:01–0:14:04
das halt dann, und vermutlich macht das Sinn,
0:14:04–0:14:07
jetzt hast du einen Fehler und dann sagst du, jetzt stelle ich lieber das ganze
0:14:07–0:14:13
Betriebssystem stoppen, anstatt dass noch viel mehr Schaden anrichtet wird.
0:14:13–0:14:18
Also vermutlich, dass es all diese Blue Screen gibt, ist nicht der Bill Gates,
0:14:18–0:14:22
der uns sagt, nein, nein, nein, nein, nein, es gibt sicher einen Grund dafür.
0:14:22–0:14:27
Und jetzt, ja, das ein Virenscanner, also, ja, sagen wir jetzt Virenscanner,
0:14:27–0:14:28
so tief muss es drin sein.
0:14:29–0:14:33
Ja, und das wird eine Frage für die Gerichte sein und ich weiss nur,
0:14:33–0:14:37
Delta Airlines allein will 500 Millionen von Crowdsprite. Ja, genau.
0:14:38–0:14:40
Nach dem Motto, ja, wieso haben wir dann die...
0:14:41–0:14:46
Windows-Updates einfach allen Kunden gleichzeitig rauszutatschen,
0:14:46–0:14:50
das ist so was, weil die Windows-Updates von Microsoft,
0:14:50–0:14:57
die tun es ja stufweise, also meine Mutter hat schon irgendwie das neue, was ist es momentan, 24,
0:14:58–0:15:00
also einfach die neue Windows-11-Version.
0:15:00–0:15:02
Windows-12. Also ja.
0:15:03–0:15:12
24 H1 oder was ist H2? Oder H2. Sie hat schon ich noch nicht und da wird Microsoft...
0:15:12–0:15:16
Apple macht das auch bei den Updates beim IOS, also beim iPhone.
0:15:17–0:15:23
Wenn du nicht sofort auf den Update-Knopf drückst, werden die stufenweise ausgerollt.
0:15:24–0:15:26
Es ist auch schon vorkommen, dass dann eines wieder zurückgezogen wurde,
0:15:27–0:15:29
weil es nicht richtig funktioniert hat.
0:15:29–0:15:33
Das wäre wahrscheinlich in diesem Fall tatsächlich auch sinnvoll gewesen,
0:15:33–0:15:38
Es sieht nicht so aus, als ob das Update unmittelbar dringend gewesen wäre,
0:15:38–0:15:43
weil es gerade auf eine aktuelle Bedrohung reagieren müsste. Das wissen wir nicht.
0:15:44–0:15:49
Gut, das wissen wir nicht. Ich sage jetzt nochmals, ein Virus-Scanner soll Bedrohung erkennen.
0:15:50–0:15:52
Wer weiss, vielleicht war da ein Zero-Day oder etwas draussen.
0:15:53–0:15:58
Ja, aber eben, dass man dann das vielleicht, es ist lange her,
0:15:58–0:16:01
dass ich mal irgendwie C++ programmiert habe, aber es sind, glaube ich,
0:16:01–0:16:04
relativ Amateur-Fähigkeiten gewesen, die es gemacht haben. Ja,
0:16:04–0:16:05
das habe ich auch gelesen.
0:16:05–0:16:09
Man sieht, ein Array hatte irgendwie nicht die richtige Grösse,
0:16:09–0:16:11
jetzt ein bisschen vereinfacht gesagt.
0:16:12–0:16:16
Und sollte man wahrscheinlich nach so irgendwie, ich sage jetzt DATA,
0:16:16–0:16:19
wie Lektion Programmieren 1, müsste das irgendwie können?
0:16:20–0:16:22
Oder eben, wie gesagt, man hätte es vielleicht finden können.
0:16:24–0:16:30
Was ich gelesen habe, sie haben dann getestet ihr System nur mit gültigen Daten
0:16:30–0:16:34
und wenn aber etwas Ungültiges dann anfangen hat zu verarbeiten,
0:16:34–0:16:36
dann ist er weggeflogen und das ist dann da genau passiert.
0:16:37–0:16:40
Also es ist eben tatsächlich auch ein bisschen unglücklich gewesen.
0:16:40–0:16:47
Trotzdem, was man nicht beurteilen könnte, ist, was da für Haftungsszenarien entstehen.
0:16:47–0:16:52
Du hast Delta Airlines erwähnt, das wäre natürlich nochmal ein spannender Fall für sich.
0:16:52–0:16:56
Aber ich finde jetzt, wir müssen einfach mal würdigen, dass das jetzt nach dem
0:16:56–0:17:03
heutigen Stand der Dinge gilt als grösste IT-Panne bis jetzt nach Homer Simpson, oder?
0:17:03–0:17:05
So far. Würde ich ja sagen.
0:17:06–0:17:10
Wie gesagt, wo da der Kollege, ja, hallo Roger, eben gesagt hat und wirklich
0:17:10–0:17:12
relativ tauscht, hat er gesagt, hey,
0:17:13–0:17:18
Der XY ist auch betroffen, also es sind nicht nur wir, ich achte wirklich scheisse.
0:17:18–0:17:21
Also ohne jetzt, dass du zu viel Geschäftsgeheimnis verratest,
0:17:21–0:17:25
Digi Chris, wie schlimm war es, wie lange habt ihr gehabt, bis es wieder gegangen ist?
0:17:25–0:17:29
Wie gross war der Ansturm auf die Hotline?
0:17:30–0:17:34
Also meine Kiste ist immer gelaufen. Und du hast auch gesehen,
0:17:34–0:17:38
sie haben, also man muss ihnen wirklich ein Kompliment machen,
0:17:38–0:17:42
sie haben natürlich zuerst Domain-Controller, File-Server wieder hergezogen.
0:17:42–0:17:46
Dann sind sie halt mal in die Produktion gelaufen und vielleicht auch noch ein lustiges Detail.
0:17:47–0:17:50
Eben, Server sind ja heutzutage virtuell. Also das ist eigentlich,
0:17:50–0:17:53
man kann sagen, der Server ist nur eine Datei.
0:17:54–0:17:59
Sprich, der Workaround war eigentlich einfach, du musst ein paar Files aus dem
0:17:59–0:18:01
C-Windows-Ordner löschen.
0:18:01–0:18:04
In den Server geht das schon relativ schnell.
0:18:04–0:18:09
Aber eben, wenn du dann Notebooks hast, dann läufst du zuerst mal in die Produktion
0:18:09–0:18:14
hinein. Genau, wo einer muss wirklich durch das ganze Geschäft laufen und das
0:18:14–0:18:16
bei jedem einzelnen Computer vor allem machen.
0:18:16–0:18:20
Und dann musst du nach und was auch eben, also bei uns und bei anderen Firmen
0:18:20–0:18:24
eben, es gibt so eine genannte Bitlocker, dass deine Festplatte verschlüsselt
0:18:24–0:18:29
ist, macht auch durchaus Sinn, weil wenn du dein Notebook mal am Flughafen lassen
0:18:29–0:18:30
lässt, ist das vielleicht gut.
0:18:31–0:18:37
Dann haben wir das Notebook für Notebook und blöd war es, wenn jemand gerade
0:18:37–0:18:43
im Sabbatical an der Nordsee war und es einfach weit und breit keine IT gab.
0:18:44–0:18:50
Es gibt etwas, ja, vielleicht schnell, eben früher hattest du ja einen lokalen
0:18:50–0:18:55
Illustrator-Account im Windows und mittlerweile ist das Passwort halt dynamisch.
0:18:55–0:18:59
Also wenn du jetzt jemandem das Passwort geben würdest, ist es nicht so schlimm.
0:18:59–0:19:03
Tim, wäre vielleicht blöd, wenn du jetzt ein Local Admin gibst,
0:19:03–0:19:06
der auf 15'000 Clients gültig ist.
0:19:06–0:19:09
Das wäre nicht so schlau. Also da gibt es schon Sachen, aber da musst du auch
0:19:09–0:19:11
jemanden haben, der noch ein bisschen technikaffin ist und.
0:19:12–0:19:16
Ich sag's dir, ich glaube, um das Windows 10, 11 mal in Recovery Mode zu booten,
0:19:16–0:19:18
ist auch nicht mehr so einfach.
0:19:18–0:19:22
Früher hast du ja mit XP, hast du doch einfach auf F8 gedrückt,
0:19:22–0:19:24
du hast können sagen, abgesichert, das ist mir nichts wert.
0:19:24–0:19:27
Ja, ja, genau. Das ist viel schwieriger geworden.
0:19:27–0:19:31
Es ist nicht mehr so einfach und ja, die armen, also der eine Typ,
0:19:31–0:19:33
verdammt, wie 80 Telefone habe ich gehabt.
0:19:33–0:19:38
Also ja, ich verstehe total, dass der natürlich, die liebe Autorität hat bei
0:19:38–0:19:41
uns ständig Status-Mails rausgehauen.
0:19:42–0:19:49
Aber dass natürlich irgendjemand auf dem Smartphone die Status-Mails liest, ist nicht unbedingt so.
0:19:49–0:19:54
Sie haben einen Leiter und ja, ich kann auch sagen, ich habe dann einen Panettone-Praktiker.
0:19:54–0:19:58
Ah, immerhin, immerhin. Und das hat sie besänftigen können. Also nein,
0:19:58–0:20:02
ich habe ja nichts damit zu tun. Nein, aber trotzdem, ich meine, das ist ja immer so.
0:20:02–0:20:08
Der, der in der Informatik flicken muss, ist meistens nicht schuld gewesen. In aller Regel.
0:20:08–0:20:15
Also das ist so. Und Kevin, was hast du so gedacht, als du das mitbekommen hast,
0:20:15–0:20:18
hast du gefunden, zum Glück bin ich nicht in diesem Bereich tätig,
0:20:18–0:20:22
in dieser Grössenordnung von Unternehmen, oder hast du gefunden,
0:20:23–0:20:26
aber darf das passieren?
0:20:27–0:20:32
Also ich habe in dem Moment, wo das passiert ist und das Ausmass gehabt hat,
0:20:32–0:20:39
habe ich gedacht, entweder ist es ein Angriff und dann sind sie richtig am Arsch,
0:20:39–0:20:42
weil das hätte ein Ausmass, das riesig wäre,
0:20:42–0:20:44
oder dann ist es eben wirklich eine Lappalie.
0:20:45–0:20:48
Ich habe gedacht, es sind diese zwei Szenarien.
0:20:49–0:20:55
In der Regel werden ja Software bevor und Updates ja schon gecheckt Und darum
0:20:55–0:20:59
habe ich gedacht, wahrscheinlich war das eine kleine Änderung,
0:20:59–0:21:02
die sie gemacht haben, und das ist an diesen ganzen Prozessen vorbeigelaufen.
0:21:03–0:21:08
Und ich vermute, dass es eben genau das war, dass man etwas geändert hat,
0:21:08–0:21:12
und das war so etwas Kleines, das hat man einfach ausgerollt.
0:21:12–0:21:17
So by the way, aha, ja, das fixen wir auch noch, oder das bauen wir auch noch ein, oder was immer.
0:21:18–0:21:21
Und eigentlich hat sich ja dann schon relativ schnell abgezeichnet,
0:21:21–0:21:22
okay, sie haben eine Lösung und
0:21:22–0:21:25
sie reagieren darauf und sie haben dann kommuniziert, es ist kein Angriff.
0:21:25–0:21:30
Ich glaube, das war auch gut, dass sie gerade gesagt haben, es ist kein Angriff, es ist unser Bock.
0:21:30–0:21:34
Das habe ich eigentlich von der Kommunikation her recht gut gefunden.
0:21:37–0:21:45
Die Auswirkungen, die so etwas hat und wie fragil so ein ganzes IT- Netz ist,
0:21:45–0:21:47
hat man jetzt eigentlich einmal gesehen.
0:21:48–0:21:53
Also eigentlich, eben, DigiCris hat gesagt, das ist 3% von allen PCs.
0:21:53–0:22:00
Ja, Wahnsinn. Und es ist extrem viel einfach mal flachgelegt und hast einfach
0:22:00–0:22:02
gewartet, bis irgendetwas passiert.
0:22:02–0:22:08
Und wenn jetzt dir das so auf globaler Ebene mit einer grösseren Software vorstellst,
0:22:08–0:22:12
merkst du schon, es braucht schon mega wenig und es läuft nichts mehr.
0:22:12–0:22:16
Oder wenn es jetzt eben wirklich ein Angriff gewesen wäre, wo ich das auch zuerst
0:22:16–0:22:22
dachte, ich dachte, jetzt hat Putin ein Exempel statuieren wollen.
0:22:22–0:22:25
Irgendjemandem ist ein Blöde gekommen und dann hat er gefunden,
0:22:25–0:22:26
jetzt zeigen sie es ihnen mal.
0:22:26–0:22:31
Aber es ist ja dann nicht, wenn du das gleiche Szenario ausmalst,
0:22:31–0:22:38
aber auf maximale Destruktion ausgelegt, dann wäre es einfach ziemlich beschissen
0:22:38–0:22:39
rausgekommen, könnte man sagen.
0:22:39–0:22:44
Und was man vielleicht auch noch sagen muss, Chris, es klingt jetzt ein bisschen
0:22:44–0:22:50
so, und wir haben auch die Crowdstrike als amateurhaft angestellt,
0:22:50–0:22:51
aber das sind sie eigentlich gar nicht.
0:22:51–0:22:55
Also die haben schon Kompetenz, die haben auch verschiedene.
0:22:57–0:23:01
Sich auch Meriten angeeignet in diesem Sicherheitsbereich,
0:23:01–0:23:04
in dem sie auch so Cybervorfälle haben schon aufklären und
0:23:04–0:23:07
hand bieten und so also sind auch kein amateur
0:23:07–0:23:10
und drum ist es wirklich erstaunlich dass so
0:23:10–0:23:17
etwas passieren oder also ja aber wie sie reiht ich eben du schreibst mir mit
0:23:17–0:23:22
gott und da waren sie irgendwie wenn der kämpfer und irgendwie für den maler
0:23:22–0:23:26
der stadt hat irgendwie es ist programm schrieb und man nicht aufpasst uns halt
0:23:26–0:23:30
irgendwie ja das programm irgendwie Das ist mir also noch nie passiert.
0:23:30–0:23:34
Das kann ich mir nicht... Nein, also, wie gesagt, das ist wahrscheinlich,
0:23:34–0:23:38
das wollte ich noch mal sagen, eine arme Sau, die einfach dann bei Crowdstrike
0:23:38–0:23:40
auf wahrscheinlich die blauen Knöpfe gedrückt hat.
0:23:41–0:23:44
Also, es kann jedem so etwas passieren, dass du halt mal nicht genau schaust.
0:23:45–0:23:49
Ja, also, du wirst vielleicht auch schon, Matthias, Texte geschrieben haben
0:23:49–0:23:52
für die Zeitung, wo es vielleicht einen Tippfehler drin gab.
0:23:52–0:23:56
Ja, das ist tatsächlich auch schon passiert. Das ist jetzt nicht gerade so...
0:23:56–0:23:59
Also, ich habe auch schon Artikel gemacht, wo dann z.B.
0:23:59–0:24:03
Drin gestanden ist, irgendwo im Text, und dann hatte es so einen Zwischentitel,
0:24:03–0:24:08
der heisse «Hier bitte noch Zwischentitel einfügen». Das hat es also auch schon...
0:24:08–0:24:12
Aber genau, ich bin froh, dass wenn ich einen Bock baue, dass dann...
0:24:12–0:24:16
Vielleicht ist es... In aller Regel ist es ja dann peinlich für mich,
0:24:16–0:24:22
wenn ich wirklich Scheisse baue, aber ich bringe nicht die Wirtschaft in so
0:24:22–0:24:24
und so vielen Ländern zum Stillstand.
0:24:25–0:24:27
Was ihr beide gesagt habt, eben, also CrowdStrike ist jetzt,
0:24:27–0:24:32
ich sage jetzt, eben, auf Business-PC sagen wir 3%, also plus minus.
0:24:32–0:24:37
Sollte jetzt mal Microsoft irgendwie ein kaputtes Update rausschiessen und das
0:24:37–0:24:38
geht dann auch alle raus?
0:24:39–0:24:43
Ja, dann musst du dann noch den Privatkonten sagen, so, eben jetzt drückst du
0:24:43–0:24:50
27 mal auf F8 und dann, ja, das wäre dann mal, lustig ist das falsche Wort,
0:24:50–0:24:51
das wäre vielleicht tragisch.
0:24:51–0:24:55
Das Netz würde wahrscheinlich noch recht gut funktionieren, weil das Internet
0:24:55–0:24:59
läuft ja, auch wenn, ich habe letztens darüber geschrieben, Bill Gates eigentlich
0:24:59–0:25:06
vor 22 Jahren probiert hat, das Internet auch mit seinem .net und so sich unter den Nagel zu reissen.
0:25:06–0:25:11
Es ist ihm zum Glück nicht so gelungen und darum haben wir jetzt im Internet
0:25:11–0:25:15
wirklich eine relativ gute, so ein bisschen heterogene Landschaft,
0:25:15–0:25:17
keine Monokultur, sondern was ist das Gegenteil?
0:25:17–0:25:21
Nein, Stereokultur ist es nicht. Biodiversität, Thermokultur.
0:25:21–0:25:27
Genau, wir haben eine gewisse Biodiversität mit halt viel, auch Open Source
0:25:27–0:25:32
Sachen, mit viel Linux, mit auch anderen Unix-Derivaten und so.
0:25:32–0:25:36
Und da ist es, es gibt zwar schon immer wieder die Fälle, wo dann irgendwie
0:25:36–0:25:40
in einem so tief fliegenden Modul etwas gefunden wird und dann finden, oh ja.
0:25:40–0:25:44
Ja, das ist die SSK. Genau, das habe ich gemeint. Das hätte jetzt auch anders
0:25:44–0:25:46
rausgehen können, also dort ist man nicht besser unterwegs.
0:25:46–0:25:50
Aber ich glaube, die Lehre ist schon, dass so diese Monokulturen,
0:25:50–0:25:55
die sind nicht gut in der richtigen Natur und auch nicht gut in dieser digitalen Welt.
0:25:56–0:26:00
Nein, gar nicht. Aber übrigens, ich glaube, Gagfur, das ist auch eines der ersten
0:26:00–0:26:05
Fotos, die auf Twitter, ich sage Twitter, es heisst nicht X,
0:26:05–0:26:06
es heisst Twitter. Es heisst Twitter.
0:26:07–0:26:11
Es wird immer Twitter heissen. Auftaucht ist, eben Gagfur in Frankreich ist
0:26:11–0:26:14
halt der Self-Checkout auch abgeschmiert, aber ich weiss nur,
0:26:14–0:26:18
der Coop zumindest, ich kann auch mal sehen, wie so eine Self-Checkout-Kasse
0:26:18–0:26:20
bautet, die haben Open-Suse.
0:26:21–0:26:24
Genau, ich habe das auch schon gesehen, genau, das ist so.
0:26:24–0:26:30
Achso, aber gut, eben, sind wir ehrlich, es kann es auch unter Linux oder unter
0:26:30–0:26:36
Bob, dass die mal einen kaputten Patch rausschmeissen, also das ist durchaus ja auch möglich.
0:26:36–0:26:40
Kevin, müssen wir jetzt als Privatanwender, müssen wir Lehren daraus ziehen,
0:26:40–0:26:43
müssen wir irgendetwas machen, müssen wir uns vom Windows verabschieden,
0:26:43–0:26:48
was würdest du deinen Kunden raten, was ist da, was ist das,
0:26:49–0:26:50
was man daraus ziehen muss?
0:26:53–0:26:57
Ich glaube, viele ziehen wir nicht daraus. Ich glaube, wir vergessen relativ schnell wieder.
0:26:57–0:27:00
Das ist ja das Schöne an der Menschheit.
0:27:00–0:27:03
Wir haben ja Corona schon wieder vergessen. Du meinst auch, dass wir dort nichts
0:27:03–0:27:07
aus der Lieferkette-Debakel gelernt haben? Nein, völlig egal.
0:27:09–0:27:14
Ich glaube, es muss noch ein paar Mal passieren, dass man merkt, wie fragil alles ist.
0:27:14–0:27:21
Ich glaube, es geht um das und wahrscheinlich ist jetzt da auch ein Weg,
0:27:22–0:27:26
wo ich glaube, wird kommen, dass halt auch die künstliche Intelligenz da mitspielen
0:27:26–0:27:29
wird und viel früher bei so etwas eingreifen kann und sagen kann,
0:27:29–0:27:31
das läuft dann im Fall nicht.
0:27:31–0:27:34
Ich sage, das wird der nächste Schritt sein bei der Softwareentwicklung,
0:27:34–0:27:36
dass dort so etwas reinspielt.
0:27:37–0:27:41
Und dann, wir haben schon mal darüber gesprochen, ich weiss nicht, ob das nur gut ist.
0:27:43–0:27:47
Wenn so etwas passiert, dass dann halt eine KI auch mal eingreifen kann und
0:27:47–0:27:48
sagen kann, das machen wir jetzt halt gleich nicht.
0:27:49–0:27:55
Ja, also ich habe den Verdacht, dass es einfach noch viel schwieriger zu durchschauen
0:27:55–0:28:01
wird werden und wir da in der Komplexität auf ein Niveau zusteuern,
0:28:01–0:28:03
das einfach sehr schwierig wird.
0:28:04–0:28:07
Ja, und ich glaube, teilweise, was ich auch schon gehört habe,
0:28:07–0:28:12
Und eben, was ist das, irgendein Vortrag über Notfallpläne.
0:28:12–0:28:17
Die haben auch mal ein Szenario getestet, was passiert, wenn dann und dann.
0:28:17–0:28:21
Und dann haben sie mal gemerkt, schon mal blöd, aber wenn es uns vor dem Büro
0:28:21–0:28:25
den Baum umhaut, können wir mit dem Notstromgenerator gar nicht hin.
0:28:26–0:28:31
Oder, uh, wir haben keine, wie sagen wir, Filzstifte, weisst du, wie sagen wir.
0:28:32–0:28:35
Zum noch etwas aufschreiben. Im Flipchart. Das Problem habe ich,
0:28:35–0:28:37
dass ich nicht mal meinen Kugelschreiber finde.
0:28:38–0:28:45
Und solche Sachen. Du musst ja nicht ohne IT 100% funktionieren können.
0:28:45–0:28:50
Aber ich sage jetzt eine Bäckerei, dann kannst du halt nur Weissbrot und Zopf machen.
0:28:50–0:28:55
Und vielleicht noch ein dunkles Brot und nicht deine 27, wie sagen wir,
0:28:55–0:28:58
Urding und Brot. Solche Sachen.
0:28:59–0:29:05
Dass man wirklich mal schaut, wenn das Ding echt mal wegknallt Und wenn es nicht
0:29:05–0:29:10
nur ein Reboot ist, wenn du tatsächlich sagen musst, ja, restore und wer von euch.
0:29:11–0:29:15
In den grössten Unternehmen hat man einen kompletten Restore getestet.
0:29:15–0:29:19
Niemand, würde ich jetzt mal so sagen. Also vielleicht gibt es schon Leute,
0:29:19–0:29:20
aber es ist eher die Ausnahme.
0:29:21–0:29:28
Ich würde am Schluss noch gerne einen Hörer oder eigentlich eine Leserreaktion einbringen.
0:29:28–0:29:36
Und er hat einfach gefragt, ob grundsätzlich die Verwicklung von diesen Betriebssystemen
0:29:36–0:29:40
und der Sicherheitssoftware nicht ein bisschen problematisch ist.
0:29:40–0:29:48
Und ich glaube, da hat er wirklich auch den schwierigen Punkt getroffen von diesem Problem.
0:29:48–0:29:51
Und Microsoft, habe ich jetzt gelesen, die überlegen sich jetzt tatsächlich
0:29:51–0:29:56
auch, wie sie das vielleicht ein bisschen so lösen könnten, dass da die gegenseitigen
0:29:56–0:29:58
Abhängigkeiten ein bisschen kleiner sind.
0:29:58–0:30:02
Aber er hat geschrieben, ich weiss jetzt zwar gar nicht, ob ich das vorlesen
0:30:02–0:30:03
darf, aber ich mache es jetzt einfach.
0:30:03–0:30:09
Am 1.11.1939 ist er auf der Elko in Deutschland, seit 1953 in Basel,
0:30:09–0:30:12
Amateur an Physikstudium in Zürich und Basel.
0:30:12–0:30:18
Doktorarbeit am Physikalischen Institut der Uni Basel über ein Thema der experimentellen Kernphysik.
0:30:19–0:30:24
Ferienjob am EIR, Rechner und Hilfslaborant.
0:30:24–0:30:29
Dabei auch Arbeit an der Zuse Z22, einem der ersten Computer in der Schweiz
0:30:29–0:30:32
später, während der Doktorarbeit Programmierung in Fortran.
0:30:32–0:30:39
Auf der Univac 1108, IBM 360, das kommt vielen noch bekannt vor,
0:30:39–0:30:44
IBM 1620 und in Assembler und Focal auf der PDP 8.
0:30:45–0:30:49
Also ich glaube, da hat sich jemand mit dem Thema beschäftigt,
0:30:49–0:30:54
der sich einfach durch die ganze Computer-Historie gekämpft hat.
0:30:55–0:31:00
Durchaus, aber ich glaube, was man sagen muss, es wird sicher Debatten geben.
0:31:00–0:31:05
Ein Problem war ja auch, normalerweise, wenn du Windows aufstartest und der
0:31:05–0:31:09
Treiber schmiert ab, glaube ich, nach dem dritten Mal ladet Windows den Treiber nicht mehr. Genau.
0:31:09–0:31:13
Aber Crowdstrike ist irgendwie als, ich weiss jetzt das Wort auch nicht mehr
0:31:13–0:31:19
so, der PC soll lieber abschmieren, als dass Crowdstrike hochkommt.
0:31:20–0:31:22
Und ich glaube, man kann es so vergleichen, wenn du jetzt halt.
0:31:23–0:31:27
Ja, gut, vielleicht brauchen wir das nicht, aber einen Sicherheitsdienst,
0:31:27–0:31:30
dann musst du halt einfach auch den Schlüssel in deine Wohnung geben,
0:31:30–0:31:31
damit er rein kann. So ist es, ja.
0:31:31–0:31:35
Und es ist wahrscheinlich ein Abwägen und vielleicht tun sie jetzt einfach mal
0:31:35–0:31:40
zumindest, dass halt wenn auch ein Crowdstrike nach dem zweiten Mal abschmiert, dass er halt,
0:31:41–0:31:45
dass das Notebook wenigstens hochfährt und nicht halt immer bluescreened.
0:31:46–0:31:51
Genau, also du hast es gesagt, eigentlich können ja die allermeisten Anwendungsprogramme
0:31:51–0:31:53
nicht das Windows zum Abstürzen bringen,
0:31:53–0:31:58
sondern das kann eigentlich nur Treiber problematisch sein, so die hardware-nähe
0:31:58–0:32:01
Sachen und die sind heutzutage,
0:32:03–0:32:08
ist es besser geworden, kann man sagen, als früher, wo man halt dann auch so
0:32:08–0:32:10
dubiose Treiber installieren musste.
0:32:10–0:32:15
Heute funktioniert sehr viel Hardware mit diesen Standardtreibern und da bist
0:32:15–0:32:18
du einfach auf der sicheren Seite. Da würde ich vielleicht nochmal gerne Kevin fragen.
0:32:19–0:32:25
Ist es schon auch deine Erfahrung, dass Windows in aller Regel heute recht stabil ist?
0:32:25–0:32:29
Ich habe schon seit Jahren keinen Blue Screen mehr gehabt.
0:32:29–0:32:33
Ich habe zwischendurch, weil ich teilweise noch Kunden habe,
0:32:33–0:32:42
die sehr alte Geräte betreiben müssen. so CNC-Maschinen und so alte Software, die gibt es manchmal.
0:32:43–0:32:48
Aber im Vergleich vor, ich weiss es auch nicht, ich sage jetzt 15 Jahren,
0:32:48–0:32:54
ist es eigentlich, eben, es ist unter 1%, wo es noch Blue Screen gibt.
0:32:54–0:33:01
Also die Systeme sind viel stabiler geworden, die ganze Treiberproblematik ist viel weniger.
0:33:01–0:33:05
Auch dass eine Software eigentlich dieses System abschiesst, gibt es nicht mehr.
0:33:07–0:33:11
Früher konntest du in einen Windows-Systemordner eine Datei lösen,
0:33:11–0:33:12
das Gerät lief nicht mehr.
0:33:13–0:33:18
Du kommst heute fast nicht mehr an die Dateien hin, ohne dass er dir sagt,
0:33:18–0:33:21
du bist jetzt wirklich Admin, das geht jetzt nicht.
0:33:22–0:33:25
Jetzt musst du nochmal bestätigen und brauchst noch spezielle Software.
0:33:25–0:33:28
Ich glaube, die Systeme sind schon viel stabiler geworden.
0:33:28–0:33:32
Ja, und wenn es dann hart wäre, also ich sage jetzt, der Klassiker ist halt,
0:33:32–0:33:35
wenn es das RAM-Riegel, wenn vielleicht so eine Art Töpel zerhaut ist,
0:33:35–0:33:38
ja dann knallt es halt, aber ja, das in der Regel, ich glaube,
0:33:39–0:33:42
wer macht seinen eigenen PC noch auf, ausser vielleicht, ja, wir. hier?
0:33:43–0:33:47
Nein, ich habe kein PC mehr, wo ich aufmachen kann, mein Laptop schraube ich
0:33:47–0:33:50
nicht mehr auf, aber das hat es früher tatsächlich gegeben und ich habe ja,
0:33:50–0:33:52
dort hat es dann auch mal eins geschmiert und so.
0:33:53–0:33:58
Also, wer möchte noch das letzte famose Wort sagen von dieser Sendung?
0:33:58–0:33:59
Haben wir etwas daraus gelernt?
0:33:59–0:34:04
Müssen wir etwas daraus lernen oder ist es halt einfach eine von diesen Anekdoten,
0:34:04–0:34:07
die unsere Sendungen so hörenswert machen?
0:34:08–0:34:11
Ich glaube nicht, wir werden nichts daraus lernen. Das Nächste,
0:34:12–0:34:15
Desaster kommt wieder und vielleicht hätten halt die Software nicht drei,
0:34:15–0:34:19
sondern 90% mehr da drin und dann gute Nacht am Setzi. Genau, genau.
0:34:19–0:34:22
Dann müssen wir mal halt ein bisschen wieder mal zumindest drei,
0:34:22–0:34:25
vier Tage so leben wie unsere Grosseltern.
0:34:25–0:34:27
Kevin, für dich wäre das kein Problem?
0:34:28–0:34:30
Absolut nicht. Das würde ich sehr geniessen.
0:34:35–0:34:44
Music.
Mitten in unserer Sommerpause fand ein Ereignis statt, dass eine Sondersendung verdient gehabt hätte und das heute mit einem Superlativ bedacht wird: Es gilt als die grösste IT-Panne – wobei in bester Homer-Simpson-Manier natürlich ein «Bis jetzt!» angehängt gehört.
Es handelt sich um den flächendeckenden Ausfall von Windows-Systemen am 19. Juli 2024, der durch ein fehlerhaftes Update bei der Sicherheitssoftware des US-Anbieters Clowdsrike verursacht wurde. Die Folgen waren Abstürze von Windows-Rechnern mit Bluescreens. Microsoft geht davon aus, dass um die 8,5 Millionen Computer ausser Gefecht gesetzt worden sind. Betroffen waren Fluggesellschaften, Medienhäuser, Telko-Firmen, aber auch Banken und Spitäler. Passagiere strandeten, Operationen wurden verschoben, Läden mussten schliessen, Bankomaten verweigerten die Auszahlung und bei einem Fernsehsender stoppte das Programm.
Wir diskutieren die Details dieses fatalen Fehlers. Und stellen uns auch die Frage, welche Lehren gezogen werden müssen – und wie sich das Risiko entschärfen liesse, dass sich so etwas wiederholt. „Der grösste Störfall aller Zeiten“ weiterlesen
She wants us to leave und jetzt haben wir es doch noch geschafft mit 3 Minuten Verspätung.
0:00:05–0:00:10
Jetzt sehe ich zwar Digichrist nicht mehr, aber doch, da ist er. Wir fangen gleich an.
0:00:10–0:00:16
Hier ist der Nerdfunk mit technischen Problemen zum Anfang der Sommerferien.
0:00:16–0:00:17
Aber wir machen alles, was wir wollen.
0:00:18–0:00:32
Music.
0:00:21–0:00:22
Nerdfunk,
0:00:24–0:00:26
Herzlich willkommen zu.
0:00:32–0:00:37
Also, das ist der zweite Teil unserer entspannten Sommerserie,
0:00:38–0:00:40
wo es darum geht, dass die...
0:00:40–0:00:47
Wieso kommt jetzt ein Jingle? Ah, Himmel, Dunner. Also, unsere entspannte... Noch mal, bitte.
0:00:47–0:00:52
Wie könnte ich jetzt die Jingles stoppen? Ah, ich weiss es. Genau, so...
0:00:53–0:00:58
Unsere entspannte, mit technischen Problemen begleiteten Sommerspecial.
0:00:58–0:01:03
Hier ist der Digi-Chris und ich bin noch nicht ganz so weit. Wir legen gerade los.
0:01:03–0:01:07
Wir wollten euch Filme und Serien empfehlen und du musst anfangen,
0:01:07–0:01:10
damit ich noch schnell das Dock vorbeikriegen kann.
0:01:11–0:01:18
Ja, ich fange an mit einem Film von Beat Schlatter, kennt man als Schweizer.
0:01:19–0:01:25
Der nennt sich «Bonjour Ticino». Es ist eine Komödie, vielleicht auch mit einem
0:01:25–0:01:28
gewissen Realitätsbezug.
0:01:28–0:01:35
Es geht dort um eine Volksinitiative, also eine fiktive No-Bilang. Nein, No-Bilang.
0:01:36–0:01:42
No-Bilang. Und es geht darum, die Schweiz soll nur noch eine Landsprache haben.
0:01:42–0:01:46
Wir wissen ja, wir haben vier Landsprachen. Es kommt heraus,
0:01:47–0:01:52
dass Französisch die einzige Landsprache wird.
0:01:54–0:01:59
Es ist eine Ironie, man hat dann auch so Anspielungen auf Corona-Massnahmen.
0:01:59–0:02:03
Du magst dich noch erinnern an die roten Plakate, die wir hatten?
0:02:03–0:02:07
Ja, leider habe ich die noch nicht verträumt, ja.
0:02:07–0:02:13
Und dann heisst es halt dort so, ja, in diesem Laden wird ab so und so nur noch
0:02:13–0:02:15
Französisch gesprochen.
0:02:16–0:02:22
Und es geht auch nicht viel. viel und der Beat Schlatter hat auch zwei Rollen in dem Film.
0:02:22–0:02:30
Das eine ist der Initiant von dieser Initiative, das andere ist ein Bundespolizist,
0:02:31–0:02:35
der eben das Gesetz muss wie sagen wir, enforcen.
0:02:36–0:02:42
Durchsetzen. Durchsetzen, ja. Mit der Einsprachlichkeit.
0:02:44–0:02:49
Und es geht halt darum, dass es in Tessin eine Widerstandsgruppe gibt,
0:02:49–0:02:53
die ihr Italienisch nicht aufgeben will.
0:02:53–0:02:58
Und er geht dort hinunter als Bundespolizist.
0:02:59–0:03:03
Und ja, da kommt dann teilweise auch eine Art, ich sage jetzt mal,
0:03:04–0:03:09
nicht, dass ich zu viel spoilere, Gewissenskonflikt.
0:03:10–0:03:15
Genau, nicht spoilern. Das ist aber eine interessante Empfehlung.
0:03:15–0:03:20
Ich habe den Film, irgendwie hatte ich das Gefühl, die grossen Medien haben
0:03:20–0:03:24
ein bisschen einen Bogen drum gemacht, weil sie irgendwie nicht so richtig gewusst
0:03:24–0:03:30
haben, wo sie den Film einordnen sollen. Aber er war ein riesiger Publikumserfolg, oder?
0:03:31–0:03:37
Ja, und wie gesagt, auch als Warnung, die Empfehlungen, die ich jetzt gebe,
0:03:37–0:03:40
das ist eher eine lichte Kost.
0:03:41–0:03:47
Ja, da Wir können natürlich tatsächlich diskutieren und ich habe ein paar Tage
0:03:47–0:03:52
gesagt, wir sollen jetzt in der Primarschule keine Fremdsprachen mehr lernen.
0:03:55–0:04:01
Also wir müssen uns nicht entschuldigen, wenn es leicht ist oder auch wenn es schwer ist, finde ich.
0:04:01–0:04:08
Nein, also wir haben ja gesagt, Sommerferien und da darf ja durchaus mal etwas
0:04:08–0:04:10
sein, wo man einfach nur lachen kann. und ich finde also,
0:04:12–0:04:16
die Anspielungen ich finde es gut ich habe mir,
0:04:17–0:04:22
keine Minuten bereut genau, also das ist doch schon mal ein guter Tipp zum Einsteigen,
0:04:23–0:04:28
der Kevin ist leider heute nicht da das merkt man dieser Sendung dann auch aber
0:04:28–0:04:31
er muss im Kino das ist ein bisschen ironisch,
0:04:31–0:04:36
die Ironie der Sache ist dass er im Kino ist und darum uns nicht helfen kann
0:04:36–0:04:38
bei den Filmen und er hat gesagt,
0:04:38–0:04:41
da hat er nur einen YouTube-Link gemacht.
0:04:43–0:04:45
Aber er hat glaube ich uns ein,
0:04:46–0:04:51
Das Prinzip habe ich nicht ganz verstanden. Er hat jetzt hier nochmal Podcasts
0:04:51–0:04:52
eingeschrieben. Ich lese es einfach vor.
0:04:52–0:04:56
Podcast, Chameleon oder Wild Boys. Da kann ich nichts dazu sagen.
0:04:56–0:04:57
Aber die Serie, er hat eine Serie.
0:04:59–0:05:01
Ripley, das ist... Ich musste das in der...
0:05:04–0:05:07
Wahrscheinlich im Gimmi, im Englischunterricht, habe ich das Ripley-Buch mal
0:05:07–0:05:12
gelesen und habe es hier nicht zu der Hit gefunden. Aber die Serie muss grossartig sein.
0:05:13–0:05:17
Es ist einer der von den Sommerhits bei Netflix, kann man sagen.
0:05:17–0:05:22
Und ein zweiter Sommerhit bei Netflix, oder vielleicht ein Präsummerhit,
0:05:22–0:05:26
müsste man es nennen, ist allerdings, der Digi Chris hat von leichter Kost gesprochen,
0:05:26–0:05:29
ist keine leichte Kost, heisst Reindeer Baby.
0:05:30–0:05:38
Ist so ein ziemlich erfolgloser Comedian, der möchte in London arbeiten.
0:05:39–0:05:44
Er kommt aus Schottland. Er lacht sich so einen Stalker an, eine Frau,
0:05:44–0:05:50
die ihn verfolgt bei allem, was er macht und an den möglichsten und unmöglichsten Orten auftaucht.
0:05:51–0:05:53
Und die Geschichte, es heisst ja immer so,
0:05:54–0:05:58
bei vielen Filmen, das basiere ich auf einer wahren Begebenheit und dann kann
0:05:58–0:06:03
man meistens davon ausgehen, dass der Zusammenhang zwischen der wahren Begebenheit
0:06:03–0:06:06
und einem Film oder der Serie relativ locker ist.
0:06:06–0:06:11
Aber da könnte ich mir vorstellen, dass das relativ nah an den Tatsachen ist,
0:06:11–0:06:15
weil die Frau hat dann auch schon gefunden, hey, was macht ihr da für eine Serie aus mir und so?
0:06:15–0:06:19
Das passt mir nicht. Bitte gebt mir Geld oder so wahrscheinlich.
0:06:19–0:06:25
Also, das wären so die beiden Blockbuster und hast du, du hast leichte Kosten
0:06:25–0:06:30
versprochen, Digi Chris, dann tu uns nochmal etwas leichtes servieren.
0:06:30–0:06:36
Also leicht ist definitionsfragbar, weil das Ding geht viereinhalb Stunden.
0:06:36–0:06:41
Okay, aber wenn man es zu Hause schaut, kann man so viel mal unterbrechen, wie man will.
0:06:41–0:06:45
Genau, und es nennt sich First Person Shooter und,
0:06:47–0:06:50
Der Name John Carmack, sagt dir was, oder? Nein.
0:06:53–0:06:59
Der hat zumindest Commander Keen programmiert, Quake, Doom. Ah, okay.
0:07:00–0:07:06
Der ist eigentlich für das Genre fast ein bisschen verantwortlich.
0:07:06–0:07:11
Und es geht halt mit dem Film los, dass er tatsächlich, ich glaube,
0:07:11–0:07:16
Apogee hat es geheissen, angefangen hat, eben so einen Sidescroller.
0:07:16–0:07:23
Wie Super Mario Bros., wo du von links nach rechts läufst und scrollst.
0:07:23–0:07:28
Das war anscheinend nicht so einfach auf dem PC zu programmieren.
0:07:29–0:07:38
Und Herr Karmäck hat das geschafft und hat dann halt irgendwann angefangen so 3D-Spiele zu machen.
0:07:38–0:07:44
Eben Wolfenstein, wo du halt ja den Hitter verschossen hast am Schluss.
0:07:45–0:07:50
Eben Doom, wahrscheinlich wirklich ein Klassiker der Gameszene war.
0:07:51–0:07:55
Quake und was wir alles hatten. Halo,
0:07:55–0:08:02
also einfach während viereinhalb Stunden zeigen sie all die Bum Bum Bum Spiele,
0:08:02–0:08:07
die aber eben in meinen Augen nicht nur hirnlose Ballerspiele waren,
0:08:07–0:08:09
sondern auch technisch viel dabei waren.
0:08:10–0:08:16
Und Entwickler, Marketingleute werden hier interviewt.
0:08:16–0:08:23
Also es ist sehr interessant, aber eben vielleicht nicht an einem Abend durchzuschauen,
0:08:23–0:08:27
weil ja eben, viereinhalb Stunden ist ein bisschen lang.
0:08:27–0:08:32
Genau, und ich habe, das ist jetzt eine Randnotiz, aber ihr könnt zum Beispiel
0:08:32–0:08:35
einmal nachschauen, wie das Scrollen beim C64 war.
0:08:35–0:08:43
Das war nämlich wirklich schwierig, weil man ja dann den Bildschirmbereichen
0:08:43–0:08:47
so adressieren musste, dass man das möglichst effizient machen konnte,
0:08:47–0:08:50
ohne dass es geflackert hat und so.
0:08:50–0:08:53
Das ist, glaube ich, in der Anfangszeit, man kann sich das heute gar nicht mehr
0:08:53–0:08:58
vorstellen, aber wirklich eine Herausforderung gewesen, dass das richtig und
0:08:58–0:08:59
anständig funktioniert hat.
0:08:59–0:09:05
Also, dann würde ich sagen, ich, nachdem ich eher ein bisschen in den Herd eingestiegen
0:09:05–0:09:08
bin, würde ich sagen, etwas leichteres, eine Serie von Netflix,
0:09:09–0:09:13
oder es ist, glaube ich, kein Netflix Original, sondern irgendwie vom kanadischen
0:09:13–0:09:15
Fernseher produziert oder so.
0:09:15–0:09:21
Die heisst «Children ruin everything». Man könnte sagen, auf Deutsch «Kinder
0:09:21–0:09:25
versauen» einfach alles, was einem so passieren könnte.
0:09:25–0:09:29
Es geht um ein Ehepaar, das dann halt gefunden hat, jawohl, wir pflanzen uns
0:09:29–0:09:32
fort, wir schaffen unsere Kinder an.
0:09:32–0:09:36
Und dann merken sie, der Astrid und der James sind das.
0:09:36–0:09:40
Dann haben sie zuerst zwei Kinder und dann kommt noch ein drittes. Dass dann halt einfach.
0:09:42–0:09:49
Dass sie quasi ihr eigenes Leben und auch ihr Leben als Pärchen weit hinten
0:09:49–0:09:52
anstellen können. Und zuerst kommen einfach die Kinder.
0:09:52–0:09:56
Und da werden verschiedene berufliche,
0:09:57–0:10:03
private und familiäre Implikationen durchdekliniert in dieser Serie.
0:10:03–0:10:07
Manchmal ein bisschen gar lehrbuchhaft, dass man sagt, in dieser einen Folge
0:10:07–0:10:12
geht es um Intimität in der Beziehung und dann geht es um Krankheiten,
0:10:12–0:10:16
wo alle, also kennt jeder, der ein Kind hat, es kommt so ein Kind,
0:10:17–0:10:23
heim aus dem Kindesgehege, hat irgendeinen Pflügel und steckt alle an und einer
0:10:23–0:10:24
nach dem anderen kommt es über.
0:10:24–0:10:29
Und das ist recht lustig und die letzte Folge von der zweiten Staffel,
0:10:29–0:10:30
dort habe ich wirklich gefunden,
0:10:30–0:10:36
da habe ich mich fast gefragt, ob die uns, die Filmemacher heimlich unser Familienleben
0:10:36–0:10:40
beobachtet haben, weil dort sind so viele Szenen vorkommen, die mir so bekannt
0:10:40–0:10:45
vorkommen sind, Und darum, eben eigentlich so ein bisschen Sitcom-haft, nicht jetzt in Richtung.
0:10:48–0:10:51
Modeströmung, da gibt es ja dann den Hashtag Regretting Motherhood, oder?
0:10:51–0:10:56
Für die Frauen, die es dann zu tiefst bereuen, dass sie jemals Mutter geworden
0:10:56–0:10:58
sind, nein, so weit geht es nicht.
0:10:58–0:11:02
Es ist ein Sitcom, es ist amüsant, man kann lachen, aber es werden,
0:11:02–0:11:07
glaube ich, die Themen, die richtigen Themen angesprochen, auf eine gute Art.
0:11:08–0:11:10
Also, und jetzt bist du wieder da, oder hast du noch etwas?
0:11:10–0:11:18
Von der Länge her, du hast gesagt, zwei Staffeln. Wie viele Folgen pro Staffel?
0:11:18–0:11:23
Das weiss ich jetzt nicht mehr auswendig. Ich würde sagen, so sechs, sieben vielleicht.
0:11:23–0:11:26
Also keine ewige Serie.
0:11:27–0:11:31
Man kommt wahrscheinlich in so eine Ferienwoche, wenn man sich ernsthaft Mühe
0:11:31–0:11:37
gibt und die Kinder bei den Grosseltern abliefern, sollte man eigentlich durchkommen.
0:11:38–0:11:44
Aber ich schaue gerade noch einmal nach. Also erste Staffel acht Folgen, zweite Staffel ...
0:11:45–0:11:49
Dann sogar, also insgesamt 24 Folgen und es gibt, glaube ich,
0:11:49–0:11:52
noch eine dritte Staffel, die jetzt aber bei Netflix noch nicht läuft.
0:11:53–0:11:55
Aber ich hoffe, dass die dann noch einmal kommt. 20 Minuten,
0:11:55–0:11:59
also ja, aber nicht eine 4,5 Stunden Monster.
0:11:59–0:12:04
Genau, nicht so schlimm wie du. Aber jetzt hast du vielleicht sogar so etwas
0:12:04–0:12:12
6,5-stündiges oder so, die ganzen Star Wars Franchises, wo ich völlig den Überblick
0:12:12–0:12:14
verloren habe. Ich eigentlich auch.
0:12:14–0:12:19
Und es muss ja sein, dass das Wort «Kreuzfahrt» ausfallen muss.
0:12:19–0:12:27
Es ist ein absoluter Kitsch und die Serie heisst «Volle Kraft voraus» und das
0:12:27–0:12:31
ist der übelste Scripted Reality-Schrott.
0:12:32–0:12:36
Also nicht das Traumschiff, das man… Es ist noch schlimmer.
0:12:37–0:12:39
Es ist sogar das gleiche Schiff.
0:12:40–0:12:48
Es geht halt darum, Kreuzfahrt in den Karibik und ja, wir haben uns getrennt.
0:12:48–0:12:52
Wir versöhnen uns jetzt wieder auf dem Schiff.
0:12:53–0:12:58
Was war es? Ja, ich mache jetzt meinem Mann einen Heiratsantrag,
0:12:58–0:13:04
aber ich werde ihn noch heiraten, wenn er aus seiner Heavy-Metal-Bank Oh mein Gott, nein.
0:13:04–0:13:11
Aber Digi-Chris, du lästerst jetzt ein wenig darüber, aber hast du doch irgendwie
0:13:11–0:13:16
einen Soft-Spot, wie man auf Englisch sagt. Hast du eine Schwäche für solche Sachen?
0:13:17–0:13:19
Ja, durchaus. Oder geht es nur um Schiffe?
0:13:20–0:13:25
Wenn es Schiffe hat und teilweise Sachen, also hast du auch gesehen,
0:13:25–0:13:30
Cookie und Frau XY, aber wenn du die googlest, also die gibt es,
0:13:30–0:13:33
die schafft es für dich in der EI, Es ist einfach, ja,
0:13:33–0:13:40
also einfach, um sich passiv berieseln zu lassen, finde ich mal ein bisschen
0:13:40–0:13:47
schöne Karibik streng sehen, eben ein kleines Schiffchen, also ja, also eben wie gesagt,
0:13:48–0:13:51
leicht gekostet und nicht zu viel erwartet und.
0:13:52–0:14:00
Ich kenne mich mit diesen Schriftdokus aus und vieles ist einfach ein bisschen gefaked. Ja, ja.
0:14:01–0:14:08
Also wenn man einfach mal so Sachen will, also gute Zeiten, schlechte Zeiten
0:14:08–0:14:14
oder so, aber ja, ja, ist okay und sonst kann man einfach...
0:14:15–0:14:19
Vorwärtsspulen. Vorwärtsspulen, ja. Bei gewissen Szenen. Ja,
0:14:20–0:14:26
wenn es mich interessiert, wenn man sieht, wie der Captain Burkhard Müller antritt,
0:14:26–0:14:29
dann schaut man das, sonst schaut man es halt nicht.
0:14:29–0:14:37
Ich bin auf Fox gelaufen, also im Free-TV, es läuft auch im Streamingdienst von RTL.
0:14:37–0:14:39
Aber im Werbeversuch der Free-TV.
0:14:40–0:14:45
Ja, aber irgendwie haben sie das auch nach zwei Jahren nicht gebracht,
0:14:45–0:14:50
dass du im Replay die Werbung siehst. Also ich habe noch nie eine Werbung gesehen im Replay.
0:14:50–0:14:53
Ah, aber eigentlich müsste das so sein.
0:14:54–0:14:58
Ich habe das glaube ich einmal gesehen, aber vielleicht ist es immer noch technisch
0:14:58–0:14:58
ein bisschen schwierig.
0:14:58–0:15:04
Aber gut, wenn du so mit Dokus und so, also so Scripted Reality,
0:15:04–0:15:08
das ist es zwar glaube ich nicht, aber so Dokudrama oder so, wie nennt man das?
0:15:09–0:15:13
Doch, einfach Reality TV. Dann kann ich eine vom Schweizer Fernsehen und ich
0:15:13–0:15:16
kann sonst mit diesem Genre wirklich nichts anfangen.
0:15:16–0:15:22
Aber das Auf und Davon, wo der Gölä das Titellied singt, das finde ich,
0:15:22–0:15:27
das hat sich irgendwie... Das mag ich sehr. Das ist vom SRF.
0:15:28–0:15:30
Schweizer wandern irgendwo an und aus.
0:15:31–0:15:35
Nicht so schlimm, es gibt ja auch die deutschen Pendants, du hast vorher Vox
0:15:35–0:15:38
erwähnt oder so, die RTL-Gruppe, da gibt es auch so etwas.
0:15:39–0:15:43
Aber das ist meistens so auf Schadenfreude getrimmt. oder so,
0:15:43–0:15:47
dass man eigentlich diesen Leuten beim Scheitern zuschauen will. Und das ist so.
0:15:48–0:15:53
Das nennt man glaube ich Abwärtsvergleich, so soziologisch, dass man sieht,
0:15:53–0:15:57
okay, da gibt es noch Leute, die sind noch ungeschickter in ihrer Lebensgestaltung
0:15:57–0:16:03
als ich selber, also kann ich mich eigentlich gut fühlen, wenn ich denen zuschauen
0:16:03–0:16:05
werde, wer wirklich das macht.
0:16:05–0:16:09
Und das ist eben bei dem Auf und Davon überhaupt nicht so.
0:16:09–0:16:12
Sondern dort hat man eine Sympathie für die Leute.
0:16:12–0:16:15
Man will, dass die das schaffen.
0:16:15–0:16:20
Und ich finde immer, sie sind super, wenn sie das eigentlich herausfinden oder
0:16:20–0:16:23
wenn sie auf die Leute stossen, die sie da porträtieren.
0:16:23–0:16:25
Also schaue ich sehr gerne.
0:16:26–0:16:29
Und dann würde ich gerade noch mal, wenn du nichts dagegen hast,
0:16:29–0:16:31
noch etwas nachschieben.
0:16:31–0:16:36
Auch so mehr wie der Netflix-mässig. das ist der Mann Laudermilch.
0:16:36–0:16:40
Mit dem kann ich mich identifizieren auf eine seltsame und ein bisschen,
0:16:40–0:16:44
wie soll ich sagen, angsteinflößende Art und Weise.
0:16:44–0:16:48
Das ist ein Journalist, kein Computerschurnalist, aber ein Musikkritiker.
0:16:48–0:16:52
Aber er ist gescheitert in seiner Arbeit.
0:16:52–0:16:57
Er hat so die ganze Härte vom Leben abbekommen, ist dann Alkoholiker geworden
0:16:57–0:17:03
und ist jetzt leitend in so einer Selbsthilfegruppe von anderen Alkoholikern.
0:17:03–0:17:11
Und das ist irgendwie auf eine melancholische Art und Weise wahnsinnig lustig.
0:17:11–0:17:15
Und ich finde irgendwie, alles ist so die verkrachten Existenzen.
0:17:16–0:17:21
Aber jeden Einzelnen ist auf seine seltsame Art und Weise sehr, sehr sympathisch.
0:17:22–0:17:27
Und man bekommt, also es ist ja auch keine neue Idee, irgendwie den sympathischen
0:17:27–0:17:35
Loser im Fernsehen. Aber das ist auf eine sehr humane und nachvollziehbare Art und Weise gemacht.
0:17:36–0:17:44
Mir gefällt der Laudermilch mit seinen melancholischen Augen und seinen wunderbaren Augenbrauen.
0:17:44–0:17:51
Ich habe fast einen Man-Crush, nennt man das, wegen seinen Augenbrauen, wenn ich so sagen darf.
0:17:51–0:17:55
Und jetzt bist du wieder für das Kontrastprogramm zuständig.
0:17:55–0:18:04
Ja, du hast Musik erwähnt und das ist eine zweiteilige Doku, How Music Got Free.
0:18:04–0:18:07
Juhu, das wollte ich auch noch schauen.
0:18:07–0:18:13
Und da geht es halt darum, um die MP3-Szene und ja, ich kann sagen,
0:18:13–0:18:20
es ist über 20 Jahre her, zwei Leute, die den Film kennen. Ja, tatsächlich.
0:18:21–0:18:24
Es ist 20 Jahre her, sie ist verjährt. Also persönlich?
0:18:25–0:18:30
Man hat zumindest mal im IRC gechattet, aber die Hand geschüttelt hat er nie.
0:18:32–0:18:37
Irgendeine kleine Stadt in Amerika, ich glaube North Carolina,
0:18:37–0:18:42
das hätte man vielleicht noch aufschreiben können, wo es ein CD-Presswerk hatte.
0:18:42–0:18:47
Also du kannst dir vorstellen, so North Carolina, vielleicht wirtschaftlich
0:18:47–0:18:55
nicht so stark und da haben halt gewisse Leute angefangen, so Rolling rauszuschmuggeln.
0:18:55–0:19:01
Und daneben ist vom Fraunhofer-Institut die MP3-Technologie gekommen und die
0:19:01–0:19:06
haben dann das Zeug halt gerippt, also sprich die haben die CDs,
0:19:07–0:19:11
vor dem Veröffentlichungsdatum ins Internet getan und wenn du denkst,
0:19:12–0:19:15
vor 20 Jahren ist das vielleicht noch nicht so,
0:19:16–0:19:21
wie sagen wir, common also ich rede schon so viel Du bist verdengt,
0:19:21–0:19:25
das ist das Zeichen für einen guten Podcast, dass die Leute Ich kann nicht mehr Deutsch sprechen.
0:19:27–0:19:32
Eben, dass halt tatsächlich man irgendwie, ob jetzt Metallica oder was ist,
0:19:33–0:19:37
halt diese CDs, weil die musst du ja produzieren.
0:19:37–0:19:42
Und auch damals, irgendjemand hat halt so eine CD, ich glaube irgendwo im,
0:19:43–0:19:48
wie sagen wir, Lunchbag, ja, Entschuldigung, rausgenommen.
0:19:50–0:19:55
Das ist noch ganz spannend. Genau, ich kann da vielleicht noch schnell reingrätschen.
0:19:55–0:20:00
«How Music Got Free», das war ja eigentlich ursprünglich ein Sachbuch von Stephen Witt.
0:20:00–0:20:04
Ich habe das 2015 gelesen und auch im Blog besprochen.
0:20:04–0:20:09
Man kann sonst, wenn man nicht Film schaut, auch sehr gut das Buch lesen.
0:20:09–0:20:13
Und er erzählt eben auch, wie das passiert ist und diese Szene,
0:20:13–0:20:17
wie diese Musik rausgeschmuggelt worden ist.
0:20:17–0:20:23
Und es war dann die Vermutung, dass auch ein grosser Teil von all diesen Musikstücken,
0:20:23–0:20:29
die dann über die Tauschbörsen gelaufen sind, zu dem einen Presswerk herausgekommen sind.
0:20:29–0:20:32
Also das ist... Ich finde das eine wahnsinns Geschichte.
0:20:33–0:20:38
Also das hast du eben... Als Musikfan kannst du die gut lesen.
0:20:38–0:20:42
Du siehst auch in Plattenfirmen, dass die Geschäfte selbst im Grunde um den
0:20:42–0:20:47
Boden geritten haben, weil sie halt an diesen CDs wahnsinnig verdient haben,
0:20:47–0:20:48
dann kam der Hip-Hop auf.
0:20:48–0:20:54
Beim Hip-Hop ist es so gewesen, dass häufig dann eben diese CDs halt einfach aufgefüllt wurden.
0:20:55–0:21:00
Da wurde auch nicht mehr so in diesem Album, in dieser Album-Dimension gedacht.
0:21:01–0:21:05
Also eigentlich war die Zeit reif, auch von der Art und Weise her,
0:21:05–0:21:10
wie diese Alben produziert wurden, dass man diese nicht mehr als ganze Alben
0:21:10–0:21:14
verkauft, sondern eben vielleicht auch einzeln pro Stück, wie das mit dem iTunes
0:21:14–0:21:15
Store und so nachher kam.
0:21:16–0:21:21
Aber die Musikindustrie wollte das Geschäft nicht loslassen.
0:21:21–0:21:25
Und das ist, glaube ich, wirklich eine hervorragende Lektion,
0:21:25–0:21:27
was passiert, wenn man sich dem Fortschritt verweigert.
0:21:28–0:21:33
Also, ganz klar, iTunes wird auch erwähnt, eben, dass du...
0:21:35–0:21:40
Du bist etwas älter als ich, aber ich hatte das noch, du hattest irgendwie halt
0:21:40–0:21:45
in der S3 irgendwie «This is life in the streets» aufs Kassettchen aufgenommen
0:21:45–0:21:47
und «Wheher hat der Drei geschnutzt?»,
0:21:48–0:21:51
Vielleicht noch ein Satz eben so von der Szene.
0:21:51–0:21:57
Es gab aber tatsächlich auch Produzenten, aber natürlich jetzt wirklich way
0:21:57–0:22:02
off Mainstream, die die Vinylplatte den Ripper selber gegeben haben.
0:22:02–0:22:05
Aber das ist dann wirklich absolut, wie sagt man?
0:22:07–0:22:10
Ausnahme. Also nicht Taylor Swift, die heute Abend spielt.
0:22:11–0:22:20
Sondern die einfach das wollten promoten und dann lief es halt in die Clubs. Ja, genau.
0:22:20–0:22:24
Das ist auch, das sprengt jetzt zwar den Rahmen ein bisschen,
0:22:24–0:22:28
weil wir haben jetzt, dadurch, dass wir am Anfang ein bisschen Verzögerung hatten,
0:22:28–0:22:30
müssen wir jetzt dafür ein bisschen schneller fertig machen.
0:22:30–0:22:35
Aber ich habe mal darüber geschrieben, dass es mit den Bootlegs,
0:22:35–0:22:42
also mit den Schwarzpressungen, die es früher noch gab, nicht so klar war zwischen legal und illegal.
0:22:42–0:22:47
Es gab auch dort schon Bands, die das gut fanden, andere, die es hassten.
0:22:47–0:22:51
Aber auch solche Künstler, die dann sogar gefunden haben, okay,
0:22:51–0:22:55
dann gebe ich halt die Platte, die da als Bootleg rausgekommen ist,
0:22:55–0:22:58
die offenbar einem Bedürfnis entspricht, offiziell raus.
0:22:58–0:23:03
Das hat sich durchaus auch schon dort gegenseitig befruchtet und.
0:23:05–0:23:10
Ergänzt. Also, ich habe noch ein paar Nachträge, dass wir dann einigermassen
0:23:10–0:23:11
pünktlich aufhören können.
0:23:11–0:23:15
Kevin sagt noch «The Bear Season 3». Ich gebe das einfach so weiter.
0:23:16–0:23:22
Und er muss es dann vielleicht nach der Sommerferie erklären, was ihm da gefallen hat.
0:23:22–0:23:26
Ich habe dann noch eine spanische Serie, auch eher auf der lustigen,
0:23:26–0:23:29
auf der lockeren Seite. «Machos Alpha» heisst die.
0:23:29–0:23:34
Da geht es um so ein Haufen Männer, die vorgeblieben sind.
0:23:35–0:23:40
Von der Emanzipation, die werden dann gezwungen, so einen Kurs zu machen,
0:23:40–0:23:44
wenn man heute modern mit Frauen umgeht, dass man akzeptiert,
0:23:44–0:23:47
wenn die Jobs haben und wenn die Geld verdienen und so.
0:23:47–0:23:52
Und das geht dann so um die Konflikte, die dann entstehen, wenn da moderne Frauen
0:23:52–0:23:56
und aufgeklärte Töchter und so auf die Männer treffen.
0:23:57–0:24:01
Die es eigentlich am liebsten hätten, wenn alles so wäre, wie halt früher,
0:24:01–0:24:03
als sie die Macho-Alphas waren. sie sind.
0:24:04–0:24:07
Es gibt Kritik, dass egal, also so ein bisschen Stereotypen,
0:24:07–0:24:11
so die Männer und Bilder und auch die Frauen kommen so ein bisschen schlecht weg.
0:24:11–0:24:14
Aber ich finde es eigentlich gar nicht so schlimm.
0:24:14–0:24:20
Und ich meine, dass jetzt in einer Sitcom oder in einer auf Unterhaltung gebürsteten
0:24:20–0:24:26
Serie so ein bisschen Stereotypen vorkommen, ist jetzt nicht so aussergewöhnlich, finde ich.
0:24:26–0:24:30
Und dann, noch schnell, hast du dann du noch das letzte Wort, Chris.
0:24:30–0:24:34
Wir haben gesagt, Podcasts Was ist eigentlich mit denen?
0:24:34–0:24:42
Ich habe festgestellt, die Podcasts tauchen so langsam auch in der Unterhaltung
0:24:42–0:24:46
auf, also in der fiktionalen Szene.
0:24:46–0:24:52
Gibt es tatsächlich den Podcaster als Figur, als Held oder als eher vielleicht
0:24:52–0:24:54
ein bisschen ungeschickter Held.
0:24:54–0:25:01
Aber der Film heisst «Bodkin», spielt in Schottland, ist so ein True-Crime-Podcaster,
0:25:01–0:25:07
der ein Verbrechen aufklären will, vor 25 Jahren sind an einem Fest.
0:25:07–0:25:12
An einem irischen Volksfest, drei Leute verschwunden. Und was ist mit denen passiert?
0:25:12–0:25:16
Da gibt es wahnsinnig viele Verwicklungen und der.
0:25:18–0:25:22
Diese Serie ist von Barack und Michelle Obama,
0:25:22–0:25:25
die haben ja so ein Produktionsstudio, wie du vielleicht weisst,
0:25:25–0:25:31
die haben das produziert, ist eine von diesen Serien aus, wenn man gerade so
0:25:31–0:25:33
Irland mag, habe ich Schottland gesagt?
0:25:33–0:25:37
Nein, ich habe Irland gemeint, in Irland spielt sie und man muss sie unbedingt
0:25:37–0:25:44
auch, glaube ich, mit den Original-Tonspuren hören, dass man das Focching und
0:25:44–0:25:47
all diese Sachen so im Ohr...
0:25:47–0:25:52
Ich habe nach der Sendung geübt, um das richtig zu machen, aber ich habe es
0:25:52–0:25:56
jetzt leider nicht mehr präsent gehabt. Also, Kevin, Kevin sage ich schon.
0:25:57–0:26:01
Digi-Chris, du musst Kevin noch schnell, wie soll ich sagen,
0:26:01–0:26:06
channelen. Und dann kannst du den Sack zumachen und wir hören uns dann nach
0:26:06–0:26:07
der Sommerpause wieder.
0:26:08–0:26:16
Ja, ich glaube, jetzt habt ihr genug gesagt, dass ich, ob auf dem Kreisfahrtschiff, ob auf dem Tal.
0:26:17–0:26:22
Nicht langweilig wird und ich wünsche euch schöne Ferien und wir freuen uns,
0:26:22–0:26:27
ja, wahrscheinlich nach der Ferie euch wieder zu hören. Genau.
0:26:28–0:26:32
Umgekehrt. Ihr gehört uns und wir lesen vielleicht von euch,
0:26:32–0:26:35
weil du hast noch einen Aufruf machen wollen.
0:26:35–0:26:40
Wir machen irgendwann mal eine Folge, eine Nerdfunk-Sendung über die miesesten
0:26:40–0:26:44
Filme von allen Zeiten und wenn ihr dort noch Vorschläge habt,
0:26:44–0:26:48
dann sehr gerne auf Auf nerdfunk.at stattfilter.ch am 20.
0:26:48–0:26:51
August sind wir zurück. Und bis dann, eine gute Zeit. Macht's gut.
0:26:52–0:27:05
Music.
Wenn Ihr euch in kommenden Tagen und Wochen langweilt, dann ist das ausschliesslich unsere Schuld: Dann haben wir euch nämlich die falschen Tipps für die Sommerferien mitgegeben. Denn unser Ziel ist, dass ihr euch, was digitale Inhalte angeht, voll auf die Kosten kommt – sowohl bei Unterhaltung als auch bei der geistigen Stimulation.
Letzte Woche haben wir Tipps zu Podcasts, Hörbüchern und Games verabreicht, heute sind die Filme und Serien dran. Binge-Würdiges für den Strand, die Schiffskabine oder auch die Hotelbar … falls ihr tatsächlich zu den Leuten zählt, die in der Hotelbar Netflix zücken.
In den zwei letzten Sendungen vor der Sommerpause haben wir vor, uns in eure Ferienplanung zu drängen. Aber keine Angst: Wir werden nicht uneingeladen in eurem Rustico, Strandhäuschen oder in eurer Kreuzfahrtschiffkabine auftauchen oder euch an eurer Grillparty die Würste wegfressen. Nein, wir haben vor, eure Ferien kulturell zu bereichern: Mit unseren Tipps, was ihr hören, sehen oder (am Gamecontroller) tun könntet.
Kein Stress mit PMS, das gilt auch für mich. Da auf Radio Stadtfilter, das ist, was war das?
0:00:17–0:00:22
Bärchen und Milchbubis, Happy Bonbons. Das ist der Heilige Geist.
0:00:22–0:00:26
Ja, das ist der Heilige Geist. Und das ist der Stadtfinker.
0:00:27–0:00:28
96,3 Megahertz.
0:00:28–0:00:35
Music.
0:00:33–0:00:39
Der Heilige Geist, oder wie wir ihm auch sagen, Kevin Rechsteiner. Hallo miteinander.
0:00:41–0:00:47
Ich bin wieder mal dabei. Genau, und wie ein Blitz eingeschlagen in deinem Studio.
0:00:47–0:00:51
Sag mal, hast du eine Ahnung, was die Happy Bonbons könnten sein?
0:00:52–0:00:56
Nein, das habe ich mir im Falle überlegt. Ist das eine Droge, die ich nicht kenne?
0:00:57–0:01:02
Wichtig ist, dass ja, Happy Bonbons.
0:01:03–0:01:06
Gibt es das? Es klingt ja... Ah, Happy...
0:01:07–0:01:13
Das sind Mauwam. Mauwam? Happy... Es hat ja auch noch etwas mit Malte zu tun.
0:01:13–0:01:17
Es ist das erste, wenn ich... Aha, Happy Bonbons. Happy Bonbons.
0:01:17–0:01:21
Hey, ich kann es nicht sagen. Also wenn ich google, kommt Mauwam Happy Fruities.
0:01:21–0:01:26
Happy Fruities kommt zuerst. Ich glaube... Aber es hat einfach Happy drin. Aber das ist nicht das.
0:01:27–0:01:31
Ja, das wäre vielleicht... Happy Bonbons. Ja, bei mir kommt das auch.
0:01:32–0:01:35
Sweets. Nein, sagen wir jetzt nicht. Sonst wäre es Werbung gewesen.
0:01:35–0:01:40
Und da gibt es 5 Kilo, das kannst du aufs Mal kaufen von diesen Happy Boxen.
0:01:40–0:01:42
Vielleicht ist es eine versteckte Botschaft.
0:01:42–0:01:45
Ich habe erst diese Woche herausgefunden, dass Mr.
0:01:45–0:01:48
Tambourine Man eigentlich... Also, Mr.
0:01:48–0:01:54
Tambourine Man war der Drogendealer von Bob Dylan. Uh, da wäre ich jetzt auch nie drauf gekommen.
0:01:54–0:01:57
Ja, jetzt kann man das Lied eben neu hören.
0:01:57–0:02:00
Das hat mir eben jemand erzählt und ich habe das nie gecheckt.
0:02:00–0:02:06
Ich bin ja nicht so ein tiefgründiger Mensch, dass ich jemals auf Liedertext höre.
0:02:07–0:02:11
Und jemand hat mir gesagt, du hast in den 60er Jahren nicht übertragen singen
0:02:11–0:02:15
dürfen. Also gab es ganz viele Lieder, die dann halt versteckt übertragen gesungen haben.
0:02:15–0:02:17
Mit einem Code. Happy Bonbons.
0:02:18–0:02:22
Interessant. Hast du gewusst, dass der William Shatner einmal «Mr.
0:02:22–0:02:24
Tambourine Man» gesungen hat?
0:02:25–0:02:32
Hat er nicht einmal ganz viele Lieder gecovert? Ja doch, das hat er schon. Hey, Mr. Tamarind, man!
0:02:36–0:02:41
Ich glaube, es ist nicht wirklich... Das sind die Platten, die die gemacht haben,
0:02:41–0:02:46
und die dann irgendwie wahnsinnig peinlich waren, aber dann haben sie natürlich
0:02:46–0:02:48
trotzdem Sammlerwerte bekommen.
0:02:53–0:02:57
Ich würde jetzt sagen, Wir warten vielleicht noch, bis William Shatner kommt
0:02:57–0:02:59
und dann würgen wir es dann ab.
0:03:00–0:03:03
Aber du Kevin, wie geht es dir so? Wir haben uns schon länger nicht mehr gesprochen.
0:03:04–0:03:08
Ich bin die letzten vier Wochen ein bisschen am Limit gelaufen.
0:03:08–0:03:14
Ich hatte gerade ein bisschen zu viel und ich mache ja jetzt wieder die Events
0:03:14–0:03:16
im Kino Freienstein. Das war gerade ein bisschen viel.
0:03:17–0:03:20
Und dann sind noch vom KV die ganzen QVs gewesen.
0:03:21–0:03:27
QV am KV? Also diese Lehrabschlüsse, QV und KV, und da muss man einerseits halt
0:03:27–0:03:30
einfach anwesend sein, was schon eine Tortur ist für mich, weil ich muss dann
0:03:30–0:03:33
einfach drei Stunden dort sitzen und darf nichts machen und muss schauen,
0:03:33–0:03:34
dass die nicht scheissen.
0:03:34–0:03:36
Das ist manchmal ein bisschen schwierig und ich habe mich dann,
0:03:37–0:03:40
also ich finde es dann gleich schwierig, wenn ich jetzt meinen Laptop füllen
0:03:40–0:03:42
würde und einfach ein bisschen arbeiten, das mache ich dann gleich nicht.
0:03:42–0:03:47
Ah ja, das wäre mies. Ich bin, ich bin halt als Aufsichtsperson und zum schauen,
0:03:47–0:03:49
dass die nicht spicken und wenn sie eine Frage haben, halt die Frage beantworten.
0:03:49–0:03:53
Ich hätte aber teilweise wirklich einfach 3 Stunden arbeiten können,
0:03:53–0:03:56
weil die sind so angespannt, die stellen keine Frage. Ja.
0:03:56–0:03:59
Aber das mache ich dann gleich nicht. Und das hat ein bisschen Zeit gebraucht
0:03:59–0:04:02
und nachher mussten wir die ganze Prüfung noch korrigieren.
0:04:02–0:04:07
Und da ich noch nicht so routiniert bin in dem, hat das auch nochmal ein bisschen mehr Zeit gebraucht.
0:04:07–0:04:13
Und durch das bin ich einfach so die letzten paar Wochen ein bisschen absorbiert gewesen. Verstehe ich.
0:04:15–0:04:20
Mist. Wir müssen... Happy Pills von William Scherner.
0:04:20–0:04:24
Du, aber ist das jetzt mit diesem Lehrer, ist das eine weitere Karriere oder
0:04:24–0:04:27
war das eher so ein einmaliges Gastspiel bei dir?
0:04:29–0:04:32
Ich habe immer noch das Gefühl, dass es ein einmaliges Gastspiel ist.
0:04:32–0:04:36
Es ist ja schon das zweite Mal. Ich habe ja in den letzten Jahren eine Klasse übernommen.
0:04:38–0:04:40
Vorbereitung, Lehrabschlussprüfung. Dann habe ich gesagt, ich mache es nochmal.
0:04:41–0:04:45
Und hört man, wie ich da stürmend gerade einholen kann?
0:04:45–0:04:49
Ich habe vorher die Hühner gehört. Hört man das? Ich mache mal den William Shatner-Faktor.
0:04:50–0:04:56
Ja. Ich mache es mal ruhig und ich mache es ganz laut. Dann hören wir es vielleicht.
0:04:59–0:05:02
Ja, man hört sich ein bisschen plätschern. Ich glaube, das hat man jetzt gehört.
0:05:02–0:05:04
Okay, es tut gerade ziemlich ein bisschen.
0:05:05–0:05:10
Nein, ich habe jetzt eine Klasse übernommen. Die habe ich jetzt ein Jahr.
0:05:10–0:05:13
Ich habe dann schon gemerkt, dass Lehrer nicht für mich sind.
0:05:14–0:05:21
Und habe die jetzt ein Jahr. Und irgendwie vor zwei Wochen ist irgendetwas passiert.
0:05:21–0:05:22
Ich weiss nicht genau, was.
0:05:23–0:05:25
Vielleicht hat es damit zu tun, dass wir im Europapark waren,
0:05:25–0:05:30
alle miteinander. Aber es hat sich wie bei allen etwas verändert.
0:05:30–0:05:32
Also gut oder schlecht?
0:05:33–0:05:36
Mega gut. Also jetzt haben wir
0:05:36–0:05:41
so eine ganz andere Basis. Jetzt haben sie plötzlich mega Lust auf Schule.
0:05:41–0:05:45
Wo ich jetzt nicht weiss, warum. Und jetzt bin ich mega gespannt,
0:05:45–0:05:48
ob das jetzt einfach ist, weil wir wieder kurz vor Zügnis sind.
0:05:49–0:05:54
Wobei eigentlich die Noten sind schon durch. Sie können nichts mehr daran ändern.
0:05:55–0:05:57
Oder ob jetzt wirklich etwas passiert ist.
0:05:57–0:06:02
Ich habe gerade ein mega gutes Gefühl. Aber du weisst was, ich habe den Verdacht,
0:06:02–0:06:04
wenn du so redest, dann lassen sie dich nicht mehr gehen.
0:06:04–0:06:07
Dann hast du das Job bis an dein Lebensende.
0:06:09–0:06:13
Ich kann ja einfach sagen, ich bin raus. Es ist ja immer pro Semester.
0:06:13–0:06:17
Ja, dann sagen sie aber, Herr Rechsteiner, wir würden Ihnen da noch etwas mehr
0:06:17–0:06:20
Geld zahlen und etwas für Ihre Altersvorsorge.
0:06:20–0:06:24
Hast du eine gute Altersvorsorge? Weil ich beginne in dem Alter,
0:06:24–0:06:27
in dem wir alle sagen, du, aber hör mal, jetzt musst du schon ein wenig schauen,
0:06:27–0:06:31
sonst nackst du dann am Hungertuch als Senior.
0:06:31–0:06:36
Ich stelle mir ja eher so vor, dass ich als Senior das Leben geniesse und in
0:06:36–0:06:42
der Welt herumreise und, wie soll ich sagen, auch ein bisschen auf grossem Fuss das mache.
0:06:43–0:06:47
Dann kaufst du eine Ferrari? Nein, das glaube ich nicht, aber irgendwie sonst
0:06:47–0:06:51
vielleicht wieder eine neue, teure Kamera, wo ich jetzt immer finde,
0:06:52–0:06:56
nein, ich brauche sie ja so wenig, wieso soll ich jetzt irgendwie drei Riesen ausgeben oder so.
0:06:56–0:07:00
Wir könnten eine Sendung machen über Altersvorsorge, hat das etwas mit digital
0:07:00–0:07:04
zu tun? Ja, schon. Ich bin mega schlecht in dem.
0:07:04–0:07:07
Ich habe keine Ahnung. Ich weiss nichts.
0:07:07–0:07:13
Ich glaube, ich werde arbeiten, bis ich tot umkehre. Darum muss ich mir keine Sorgen machen.
0:07:13–0:07:16
Ich habe nicht das Gefühl, ich arbeite auf 65 und dann ist fertig.
0:07:17–0:07:19
Sondern ich mache einfach weiter und irgendwann bin ich tot.
0:07:21–0:07:25
Es ist mir wie gleich, glaube ich. Diese Vorstellung habe ich auch ein bisschen,
0:07:25–0:07:29
aber beim Journalismus kann es auch sein, dass Sie sagen, Herr Schüssler,
0:07:29–0:07:31
jetzt ist das vorbei mit dem Journalismus.
0:07:31–0:07:38
Jetzt können sie noch ihren Lebensabend noch irgendwie ein bisschen, mit was weiss ich was.
0:07:39–0:07:42
Programmierer kannst du ja auch nicht mehr werden, das macht ja heute auch KI,
0:07:42–0:07:45
oder? Es wird dann wirklich ein bisschen die Luft dünn irgendwann einmal.
0:07:46–0:07:48
Dann machen wir Coachings.
0:07:49–0:07:54
Coachings ist immer gut. Das würde uns vielleicht sogar jemand anstellen für Coachings.
0:07:55–0:08:00
Ich könnte mir vorstellen, erst, ja vielleicht nicht aufgrund dieser Sendung,
0:08:00–0:08:01
aber gut. Nein, ich glaube nicht.
0:08:02–0:08:14
Music.
0:08:14–0:08:18
Recksteiner und Martin Wir machen heute wie jeden letzten Dienstag vom Monat Kummerbox live.
0:08:19–0:08:23
In dieser Sendung behandeln wir die Computerprobleme, die ihr uns per Mail zugelegt
0:08:23–0:08:29
habt auf nerdfunk.stadtfilter.ch Mit akuten Problemen rufen Sie unsere Studie an.
0:08:29–0:08:32
Die Nummer ist 052 203 31 00.
0:08:33–0:08:36
Oder schreiben Sie das Problem in das Gästebuch auf stadtfilter.ch.
0:08:37–0:08:42
Wenn Sie diese A-Moderation entnehmen können, haben wir die Kummerbox live nicht
0:08:42–0:08:46
abgeschafft, obwohl ich es letztes Mal damit droht habe. Ich glaube,
0:08:46–0:08:48
diese Drohung hat gewirkt.
0:08:48–0:08:53
Es sind Fragen in die Rudel, die nichts mit E-Mail und Spam zu tun haben.
0:08:54–0:08:55
Das finde ich schon mal gut.
0:08:56–0:09:02
Sollen wir gerade in medias res, Kevin? Ja, absolut. Gerade bang. Gerade bang.
0:09:02–0:09:07
Also Dominik sagt, lieber Matthias, bei FP habe ich es geschafft,
0:09:07–0:09:12
das Widerspruchsrecht gilt das automatisch auch bei Insta. Da sitze ich im Nirvana
0:09:12–0:09:15
weder Profil noch Zahnrädchen.
0:09:15–0:09:19
Also, wir haben ja glaube ich auch im letzten Nerdfunk darüber geredet,
0:09:19–0:09:22
eben über die KIs, die überall aufploppen.
0:09:22–0:09:25
Und wenn man das nicht haben will, muss man etwas dagegen machen.
0:09:26–0:09:29
Man muss Widerspruch einlegen und sagen, lieber Mark Zuckerberg,
0:09:29–0:09:33
oder das Liebe ist optional, man kann auch sagen, hey, Alter,
0:09:33–0:09:38
zack, jetzt hör mal zu, wir haben hier eine Ansage zu machen.
0:09:38–0:09:45
Bitte brauche nicht meine persönlichen Daten zum Training deiner Meta-AI.
0:09:46–0:09:49
Und dann gibt es eben, das habe ich glaube ich auch erklärt,
0:09:49–0:09:55
dank dem, dass der Mark Zuckerberg nicht so gut ist in der Geografie, Hat er nicht gemerkt,
0:09:55–0:09:58
oder vielleicht auch nicht so gut in der Politik, vielleicht Geografie schon,
0:09:59–0:10:01
hat er gedacht, die Schweiz ist auf dem Kontinent Europa.
0:10:01–0:10:06
Aber er hat nicht gemerkt, dass das eigentlich auch vor allem ums politische Gebilde geht.
0:10:06–0:10:09
Hat er nicht gemerkt, dass die Schweiz dort nicht dazugehört und darum dürfen
0:10:09–0:10:13
wir Europäer auch das Widerspruchsrecht einlegen.
0:10:14–0:10:16
Hast du das gemacht, Kevin? Und jetzt schafft es aber.
0:10:18–0:10:22
Ja, eben. Ich bin da voll im Glitter. Super.
0:10:22–0:10:27
Crazy. Ja, weisst du was? Egal. Du bist im Gewitter und wenn ich nach dieser
0:10:27–0:10:29
Sendung nach Hause laufe, dann versägt es mich dann so richtig.
0:10:29–0:10:33
Das mache ich... Warte, ich kann dir gleich zeigen, auf welche Seite es wandert.
0:10:33–0:10:35
Willst du das jetzt wissen? Ja, bitte.
0:10:36–0:10:39
Nein, es geht in die andere Richtung. Ah gut, da hatte ich Schwein.
0:10:40–0:10:45
Also... Ja, also das ist super. Ähm, habe ich es gemacht? Ich habe es probiert
0:10:45–0:10:46
und ich bin gescheitert.
0:10:47–0:10:51
Genau. Ich bin dann auf so eine Meldung gekommen, wo dann gestanden ist,
0:10:52–0:10:56
Du kannst das machen, aber um das zu machen, musst du es machen und das kannst
0:10:56–0:10:59
du machen. Ja, okay, dann hast du es nicht gemacht.
0:11:00–0:11:05
Ich habe nicht gewusst, wo. Ich bin in eine Todesschlaufe reingekommen.
0:11:05–0:11:09
Also du musst ja dann in die Einstellung gehen und dann musst du ja ein Mail schicken.
0:11:10–0:11:12
Also ein Formular. Ein Formular musst du ausfüllen, genau.
0:11:13–0:11:16
Und ich bin dann immer wieder auf die Seite gekommen, wo es heisst,
0:11:16–0:11:22
hey, danke, da kannst du das Formular ausfüllen. Ich habe es nicht geschafft.
0:11:23–0:11:27
Wir haben wieder ein bisschen Latenz heute. Ich bin nicht ganz sicher,
0:11:27–0:11:29
es ist wahrscheinlich wegen des Sturms.
0:11:29–0:11:32
Der Sturm weht die Bits und Bytes etwas in die falsche Richtung und es dauert
0:11:32–0:11:34
etwas länger, bis sie bei uns ankommen.
0:11:34–0:11:41
Meine These ist, dass sie das vielleicht wieder abdrillen, weil sie ja sowieso gesagt haben,
0:11:41–0:11:48
sie verzögern in der EU das Training der Meta-AI ein und dadurch kann man vielleicht
0:11:48–0:11:52
im Moment auch nicht mehr Widerspruch einlegen, was aber ein bisschen idiotisch wäre.
0:11:53–0:11:58
Man sollte das auch auf Vorrat können und ich probiere, also ich würde euch
0:11:58–0:12:01
einfach empfehlen, mal über diesen Weg zu gehen.
0:12:02–0:12:06
Ich habe es beschrieben, genau wie man es macht, in diesem Artikel «Schützen
0:12:06–0:12:09
Sie Ihre Daten vor KI-Training».
0:12:09–0:12:13
Der ist verlinkt in den Shownotes auf nerdfunk.ch und dann haben wir da in diesen
0:12:13–0:12:19
Shownotes dann auch noch Direktlinks, die im Idealfall auf diese.
0:12:21–0:12:25
Datenschutzerklärung verweisen, wo ihr dann auch das Formular findet,
0:12:25–0:12:26
wo Kevin davon gesprochen hat.
0:12:26–0:12:30
Aber eben, also das Meta ist einfach ein Problemfall.
0:12:30–0:12:36
Ich finde, sie müssten da von der EU gezwungen werden, das auch benutzerfreundlicher zu machen.
0:12:36–0:12:39
Aber die EU hat ja jetzt auch Apple verklagt, wie wir gehört haben.
0:12:39–0:12:43
Also die sind nicht zufrieden mit diesen alternativen Stores,
0:12:43–0:12:47
wie die laufen, über die wir auch schon gesprochen haben, und da kann man gespannt
0:12:47–0:12:54
sein, ob die EU auch bei Meta dann vielleicht nochmals die Daumenschrauben ein wenig anzieht.
0:12:54–0:12:58
Aber bevor wir das herausfinden, gehen wir jetzt zu Thomas, seiner Frage.
0:12:59–0:13:03
Nein, wir müssen, haben wir die Frage von Dominik beantwortet?
0:13:03–0:13:08
Also, man muss separat... Ja, ach stimmt, genau, du hast recht. Man muss separat...
0:13:09–0:13:18
Logisch, muss man separat. Ja, klar. Es ist zwar eine Firma,
0:13:18–0:13:24
eine Plattform, was immer dahinter, aber man muss es wirklich für Instagram und Facebook machen.
0:13:25–0:13:31
Und für WhatsApp gibt es es nicht. Die Daten werden im Moment nicht genutzt.
0:13:31–0:13:36
Genau, das ist vielleicht auch noch wichtig, aber es wäre auch sehr dreist,
0:13:36–0:13:40
wenn er mit privaten Nachrichten Herrn Zuckerberg seine K.A.I.
0:13:41–0:13:45
Trainieren würde. Dort hat sogar er ein bisschen Zurückhaltung gezeigt.
0:13:45–0:13:49
Aber vielleicht macht er es einfach ohne, dass er es sagt. Das kann ein anderer sein.
0:13:49–0:13:53
Also, Thomas, wir müssen auf die Frage mit dem Desktop zurückkommen,
0:13:53–0:13:57
die wir in der letzten Sendung auch schon mal besprochen haben.
0:13:57–0:13:59
Dokumente verschwinden vom Mac-Desktop.
0:14:00–0:14:05
Er hat ein anderes, ich glaube, es ist das gleiche Problem. Er sagt,
0:14:05–0:14:11
er könne nicht mehr direkt speichern und auf das andere komme ich dann aber nachher zurück.
0:14:11–0:14:17
Und ich glaube, wir haben in der letzten Sendung das noch nicht völlig durchdrungen, das Problem.
0:14:17–0:14:23
Weil ich glaube, es hat damit zu tun, dass gewisse Leute das so nochmal installiert
0:14:23–0:14:25
haben, die neueste Version vom Betriebssystem.
0:14:26–0:14:30
Und dort gibt es in den Systemeinstellungen bei Schreibtisch und Talk,
0:14:30–0:14:34
Dort könnt ihr im Abschnitt Schreibtisch und Stage Manager schauen.
0:14:34–0:14:38
Dort gibt es die Option Objekte einblenden.
0:14:38–0:14:44
Und wenn dort das Häkchen auf dem Schreibtisch nicht gesetzt ist,
0:14:44–0:14:48
dann werden die Objekte auf dem Schreibtisch nicht eingeblendet.
0:14:48–0:14:50
Was ein bisschen doof ist, nicht wahr?
0:14:50–0:14:54
Noch nie gehört. Ja, ich eben auch nicht, sonst hätte ich schon in der letzten
0:14:54–0:14:58
Sendung... Da kannst du die Leute richtig plagen. Ja, genau.
0:14:59–0:15:03
Also, ich weiss nicht, ob das aus Versehen eingeschaltet werden kann oder ob...
0:15:04–0:15:08
Wie der Stage Manager, dann hast du vielleicht mal aus Versehen den Stage Manager
0:15:08–0:15:12
benutzt und dann ist die Option eingeschaltet und nachher findest du dein Zeug
0:15:12–0:15:12
auf dem Desktop nicht mehr.
0:15:13–0:15:16
Das ist also, ich glaube auch, das ist wirklich eine dumme, eine dumme,
0:15:16–0:15:19
dumme Funktion, die es wahrscheinlich nicht brauchen würde. Weil wenn du nichts
0:15:19–0:15:22
auf dem Desktop hast, dann tue einfach nichts auf dem Desktop, oder?
0:15:24–0:15:27
Ich kann dir das erzählen, als ich die Lehre gemacht habe.
0:15:28–0:15:35
Detailhandel. Ja. Meine erste Informatiknote war ja ein 1er. Ui, sicher?
0:15:35–0:15:41
Ja, weil ich musste in die Informatik kommen und ein Zeilfingersystem lernen.
0:15:42–0:15:42
Aber ich konnte das schon.
0:15:43–0:15:48
Und entsprechend langweilig war es mir natürlich. Und dann habe ich nur Scheissdreck
0:15:48–0:15:50
gemacht und etwas, was ich gemacht habe...
0:15:50–0:15:53
Wenn du einen PC gestartet hast, ich habe einen Printscreen gemacht,
0:15:54–0:15:58
dann das Bild an den Hintergrund festgelegt und das Desktop-Symbol ausgeblendet.
0:15:58–0:16:00
Oh, das ist fies.
0:16:01–0:16:08
Ja, und ich habe herausgefunden, das Zehnfingersystem war ein DOS-Programm.
0:16:09–0:16:12
Und dann habe ich herausgefunden, wenn du dieses DOS-Programm gestartet hast,
0:16:12–0:16:16
dann konntest du in diesem Programm nicht löschen. Wenn du aber Alt-Enter drückst,
0:16:16–0:16:19
hast du das Fenster minimieren können, hast du den Text in einem Texteditor
0:16:19–0:16:21
schreiben können und dann überkopieren können.
0:16:21–0:16:24
Super. Und das habe ich natürlich allen gesagt.
0:16:25–0:16:28
Und dann waren alle mega gut. Und irgend so ein Schwein hat dann gesagt,
0:16:28–0:16:31
ich bin es gewesen. Und dann haben sie einen Einriss zynisiert.
0:16:32–0:16:38
Oh, okay. So, man kann sagen, bei der Pre-Show hast du von deiner Lehrertätigkeit erzählt.
0:16:38–0:16:42
Du bist also so vom Saulus zum Paulus geworden. Kann man so sagen.
0:16:43–0:16:47
Ja, schon. Und ich habe das nicht vergessen. Das ist der Unterschied.
0:16:47–0:16:50
Ich weiss, dass ich auch so war, wie Sie heute sind.
0:16:50–0:16:56
Ja, genau. Das gibt dir natürlich wiederum einen Wettbewerbsvorteil in diesem
0:16:56–0:17:00
Business gegenüber den Lehrern, die immer brav gewesen sind.
0:17:02–0:17:04
Also, Thomas, es gibt noch eine
0:17:04–0:17:10
zweite Methode, die man auch bei älteren Versionen vom macOS machen kann.
0:17:10–0:17:17
Da muss man im Terminal und so rumfigurieren das sage ich jetzt nicht wie das
0:17:17–0:17:22
geht, aber ihr findet in den Shownotes auf nerdfunk.ch den Link dazu und dann
0:17:22–0:17:23
hat er noch eine zweite Frage,
0:17:23–0:17:27
er hat dann angefangen rumzusuchen und dann ist ihm aufgefallen,
0:17:27–0:17:33
dass er auf seiner internen Festplatte gar kein Recht hat auf der obersten Ebene,
0:17:33–0:17:34
sondern dort hat es irgendwie.
0:17:36–0:17:39
Ein Schlüssel und so und er darf Ich durfte gar nichts machen und dann wollte
0:17:39–0:17:44
er von mir wissen, ob er dort die Rechte abändern soll.
0:17:44–0:17:46
Und dann, was würdest du sagen? Soll er das oder soll er das nicht?
0:17:47–0:17:52
Uuuuh, jetzt mal mach's und mach uns nachher einen Erfahrungsbericht.
0:17:52–0:17:57
Also so Zeug mit Recht ist immer... Uuuuh, ich weiss nicht.
0:17:58–0:18:01
Genau. Ich habe dann einfach bei meinem Mac nachgeschaut und habe gesehen,
0:18:01–0:18:05
dass es bei mir genau gleich aussieht wie bei ihm. Dann kann ich sagen,
0:18:05–0:18:07
es ist wahrscheinlich nicht das Problem.
0:18:08–0:18:11
Und wenn du darüber nachdenkst, ist es eigentlich Leid auf der Hand.
0:18:11–0:18:14
Weil der Mac ist ein Mehrbenutzersystem.
0:18:14–0:18:21
Das heisst ja, dass du auf der obersten Ebene als Benutzer kein Recht hast.
0:18:21–0:18:28
Sondern du hast erst in deinem Benutzerordner ab deinem eigenen Ordner Recht
0:18:28–0:18:32
zum Lesen und Schreiben. und in den Ordner von den anderen Benutzern solltest
0:18:32–0:18:36
du als normaler User nicht einmal sehen dürfen, was da drin ist.
0:18:36–0:18:41
Weil Datenschutz und so, das ist ja einfach die Meinung, dass man die Daten schön trennt.
0:18:42–0:18:47
Und darum ist es eben okay, dass es auch ein bisschen anders aussieht.
0:18:47–0:18:52
Wenn ihr eine externe Festplatte habt, die einfach eurem Konto zugewiesen ist,
0:18:52–0:18:55
dann ist dort einfach immer überall die volle Rechte.
0:18:55–0:19:00
Aber dann hat er auch noch gefragt, Es hat noch eine komische Berechtigung für
0:19:00–0:19:07
«Wheel». Das ist dann ein Geheimnis von Apple, was der User «Wheel» genau macht
0:19:07–0:19:09
auf eurer Mac-Festplatte.
0:19:10–0:19:15
Ich habe versucht, Theorien zu wälzen, aber falls ihr jetzt da vielleicht sogar
0:19:15–0:19:19
bei Apple arbeitet und am macOS programmiert, dann sagt uns,
0:19:19–0:19:25
was das Weil ist, vielleicht um den Spinning Beach Ball anzuzeigen.
0:19:28–0:19:31
Das ist ein Easter Egg, das noch niemand gefunden hat. Ja, genau.
0:19:32–0:19:36
Genau, Susan mit dem nächsten Problem. Sie hat eine Frage, für die ich deine
0:19:36–0:19:42
Expertise brauche. ich habe mich bei Apple vor Urzeiten mit meiner Tag-E-Mail-Adresse angemeldet.
0:19:42–0:19:44
Das habe ich im Fall, ich glaube, auch schon erzählt.
0:19:44–0:19:48
Ich kann schon alleine den Job nicht mehr wechseln, weil ich so viele Konten
0:19:48–0:19:52
mit meiner Tag-E-Adresse eingerichtet habe, weil ich gefunden habe,
0:19:53–0:19:54
ah, das brauche ich eh nie.
0:19:54–0:19:58
Und dann ist es so wie Facebook und so, und dann ist es halt nicht wieder verschwunden,
0:19:58–0:20:03
sondern geblieben und dann sitzt du da mit einem Konto und deine Tag-E-Mail-Adresse
0:20:03–0:20:06
und wenn ihr etwas aus der heutigen Sendung mitnehmt,
0:20:06–0:20:11
dann klingt einfach nicht für solche Sachen eure berufliche Mailadresse brauchen.
0:20:11–0:20:15
Weil wenn ihr den Job wechseln wollt, dann müsst ihr nachher bei hunderten von
0:20:15–0:20:19
Konten rausfinden, wie man Mailadressen abändert.
0:20:19–0:20:23
Bei Apple ist es zum Glück nicht so schwierig. Hast du das schon mal machen müssen, Kevin?
0:20:24–0:20:27
Weisst du, wie das geht? Es ist glaube ich nicht so eine Sache.
0:20:27–0:20:34
Am besten ist online auf icloud.com oder Apple ID oder so. Also einfach online
0:20:34–0:20:37
bei Apple einloggen. Appleid.apple.com, genau.
0:20:38–0:20:43
Appleid.apple.com kann man sich auch gut merken. Dann kann man sich dort einloggen
0:20:43–0:20:47
und nachher muss man, glaube ich, zuerst muss man die zweite Mailadresse hinterlegen.
0:20:48–0:20:51
Dann muss man die verifizieren. Dann kommt ein Code daneben,
0:20:51–0:20:52
dann muss man die verifizieren.
0:20:52–0:20:58
Und nachher kann ich sagen, das ist meine Primär-Mailadresse und dann kann ich die andere löschen.
0:20:59–0:21:06
Genau, so ist es. Es kann sein, dass man bei gewissen Geräten wieder ausloggen
0:21:06–0:21:10
und einloggen muss, aber es ist eigentlich nicht so schwierig.
0:21:10–0:21:16
Und so funktioniert es. Wir haben auch noch einen Link zur Apple Anleitung,
0:21:16–0:21:18
die eine Apple-ID ändert.
0:21:18–0:21:23
Dort steht noch drin, falls etwas nicht so funktioniert, an was es liegen könnte.
0:21:24–0:21:29
Dann der Hans Ueli. Ich habe also einen Artikel geschrieben letzte Woche,
0:21:30–0:21:35
das heisst, es geht auch ohne KI und Cloud die Alternativen zum Microsoft Office.
0:21:36–0:21:41
Denn Microsoft zwingt einen immer mehr zu dem Microsoft 365.
0:21:42–0:21:47
Kevin findet das gut. Ich habe ein bisschen mehr Verständnis für die Leute,
0:21:47–0:21:48
die es nicht so gut finden und
0:21:48–0:21:52
sagen, ich hätte eigentlich lieber so das klassische Office wie früher,
0:21:53–0:21:58
wo es einfach kein OneDrive drin hatte, kein Cloud und kein KI und nichts,
0:21:59–0:22:04
sondern einfach die Programme, meine Daten auf meiner eigenen Festplatte und fertig.
0:22:04–0:22:06
Das ist aber ein schwieriger Fall.
0:22:07–0:22:15
Darum habe ich das Office 2024, das von Microsoft herauskommt, wieder erwartet.
0:22:15–0:22:20
Ich denke, mit dem 2021, vor drei Jahren sei das klassische Office ohne Cloud
0:22:20–0:22:23
gestorben, aber es ist jetzt nochmals eines gekommen.
0:22:23–0:22:28
Ich würde sagen, kommt dann auch noch 2027, Kevin, oder ist das jetzt das Letzte?
0:22:30–0:22:33
Nein, es geht jetzt einfach weiter. Da haben sie nicht gesagt,
0:22:33–0:22:35
Windows 10 ist die letzte Windows.
0:22:35–0:22:39
Ja, das hat sie gesagt. Und dann ist Windows 11 gekommen. Und jetzt kommt dann
0:22:39–0:22:41
vielleicht Windows 12 demnächst.
0:22:41–0:22:44
Und dort hat es nur noch KI drin und kannst nichts mehr machen selber.
0:22:44–0:22:49
Kein Maus mehr, sondern kannst nur noch... Da kommt Windows KI.
0:22:49–0:22:56
Ja, scheisse. Ja, genau. Und dort ist sogar der Bund darauf hingekommen,
0:22:56–0:22:59
weil die haben gesagt, die hatten vorher auch Microsoft Office.
0:22:59–0:23:04
Jetzt mussten sie auf Microsoft 365 wechseln, weil sie 2021 gefunden haben.
0:23:05–0:23:08
Das sei ja wahrscheinlich das Letzte. Jetzt hätten sie aber nochmals eines gehabt.
0:23:09–0:23:13
Ich habe bei der Bundesverwaltung angefragt, ob sie sich das jetzt nochmals
0:23:13–0:23:16
anders überlegen. Sie fanden, dass sie es durchziehen müssten.
0:23:16–0:23:19
Die Flucht nach vorne. Genau.
0:23:21–0:23:26
Aber eben, der Hans Ueli hat ja eigentlich das, der wird weg von dem Microsoft Office,
0:23:26–0:23:32
aber er sagt, ich arbeite seit eh und je mit Microsoft Office zu 95% mit WinWord
0:23:32–0:23:39
und dann mit VBA, Visual Basic for Applications, für die, die so alt sind wie du und ich.
0:23:39–0:23:46
Ich nutze diese mächtige Sprache extensiv, vor allem mit gegen 200 verschiedenen,
0:23:46–0:23:51
zum Teil riesigen Makros, viele davon mit live einen Input abfragen und ähnliches.
0:23:51–0:23:54
Ich würde gerne wissen, was er damit macht, mit all diesen Makros.
0:23:55–0:23:58
Programmierst du Makros, Kevin? Gar nicht.
0:23:58–0:24:04
Schon ewig nicht mehr gebraucht. Ich habe ein paar Kunden, die noch so Excel-Makros
0:24:04–0:24:06
für spezielle Funktionen.
0:24:06–0:24:10
Das gibt es noch teilweise, aber die meisten meiner Kunden haben irgendwann
0:24:10–0:24:15
gemerkt, es ist ihnen zu mühsam und sind auf irgendeine Branchenlösung ausgewichen
0:24:15–0:24:20
und machen es nicht mehr. Aber es schwirrt in meinem Umfeld sicher noch Sachen rum.
0:24:21–0:24:25
Aber ich bin nicht der Spezialist auf dem. Also ich finde...
0:24:26–0:24:29
Also wirklich, was macht der mit so viel Makros? Das ist ja crazy.
0:24:29–0:24:33
Das würde mich echt wundern. Ich muss vielleicht nochmal nachfragen.
0:24:33–0:24:38
Weil das ist irgendwie auch ein Mirakel für mich.
0:24:39–0:24:43
Ja, sie sind ja auch nie wirklich so richtig robust gelaufen, oder?
0:24:43–0:24:46
Das ist eben so ein Problem, ja. Ja.
0:24:47–0:24:52
Und ich würde wirklich sagen, heute sind sie ein Ding der Vergangenheit.
0:24:52–0:24:57
Also heute würde ich unbedingt empfehlen, das nicht mehr mit so Makros zu machen,
0:24:57–0:25:00
sondern mit ein bisschen moderneren Lösungen.
0:25:01–0:25:05
Also da gibt es ja, es gibt so Skriptsprachen, die dann eben nicht nur in diesem
0:25:05–0:25:10
Office hineinleben, sondern wo man kann auch sogar Plattformen übergreifen und brauchen.
0:25:11–0:25:15
Python wäre eine, JavaScript. JavaScript ist einfach fürchterlich zum Programmieren.
0:25:15–0:25:22
Python ist eigentlich kann man lernen glaube ich und ist ein bisschen benutzerfreundlicher
0:25:22–0:25:26
und so und ich würde eher auf so eine offene Lösung gehen die dann vielleicht mit,
0:25:27–0:25:30
Markdown Dateien schafft die nicht irgendwie in so einem,
0:25:32–0:25:36
proprietären Format sind oder in so einem komplexen Format sondern die ein bisschen
0:25:36–0:25:39
einfacher sind mit Script oder Perl oder so könntest du ja auch noch brauchen,
0:25:41–0:25:45
aber bei ihm ist jetzt da halt wahrscheinlich einfach das Kind schon im Brunnen
0:25:45–0:25:50
eingefallen ist, wenn er die 200 Makros hat. Kann er da weg?
0:25:50–0:25:51
Kommt er noch jemand anderes hin?
0:25:53–0:25:59
Nein. Du bist jetzt gefangen in dieser Welt. Also ich frage mich auch,
0:25:59–0:26:01
ob die Makros alle noch auf dem neuen Office laufen.
0:26:02–0:26:06
Ja. Also ich weiss nicht, ob er schon auf dem neuen Office ist und weg will,
0:26:06–0:26:13
oder ob er noch auf einer alten Office-Version ist und jetzt schon auf die neue müsste wechseln.
0:26:13–0:26:17
Weil ich hatte oft das Problem, dass eben genau die Makros dann in neueren Office-Versionen
0:26:17–0:26:21
wieder nicht mehr gelaufen sind oder die Funktionen haben anders geheissen oder
0:26:21–0:26:24
die Bezüge haben nicht mehr gestimmt oder whatever.
0:26:24–0:26:31
Also wechseln geht nicht und oft ist nur schon ein Upgrade auf eine andere Version problematisch.
0:26:31–0:26:36
So ist es. Und tatsächlich ist es, man weiss nicht, ob das irgendwann einmal
0:26:36–0:26:42
stirbt, eben diese Makrosprache, weil es ist wahrscheinlich auch aufwändig,
0:26:42–0:26:44
sie so zu pflegen für Microsoft.
0:26:44–0:26:49
Und eben heute redet alles von der KI und so und sie ist wirklich ein Ding der
0:26:49–0:26:56
Vergangenheit und bei einer Mac-Version ist sie knall-auf-all einfach mal verschwunden gewesen.
0:26:56–0:27:02
Ich weiss nicht mehr welche das war, vielleicht Office 2004 oder es ist wirklich
0:27:02–0:27:05
schon lange her und dann sind die Leute,
0:27:05–0:27:09
die damit geschafft haben, die haben das Update gemacht und haben es dann erst
0:27:09–0:27:13
je nachdem gemerkt, nachdem das dass ein Update durchgelaufen ist und sie ihr
0:27:13–0:27:18
Makro starten wollten, dass nichts passiert ist. Und das ist schon recht blöd.
0:27:19–0:27:28
Ja. Und ich glaube, wenn man immer diese Abhängigkeiten vermieden kann,
0:27:28–0:27:31
dann lohnt sich das, etwas zu machen. Ein Lock-in nennt man das.
0:27:32–0:27:35
Das machen die Hersteller natürlich nicht ganz unabsichtlich,
0:27:35–0:27:37
dass sie dir den Wechsel erschweren.
0:27:38–0:27:43
Und ja, vielleicht, du hast es eigentlich gesagt, Kevin, wechseln,
0:27:43–0:27:44
quasi fast unmöglich. Es gibt.
0:27:46–0:27:53
Auch andere Office-Versionen wie OpenOffice oder LibreOffice haben beide eine ähnliche Sprache.
0:27:53–0:27:58
Aber sie unterscheiden sich in der Syntax und in den Objektmodellen so weit,
0:27:59–0:28:02
dass man nicht die gleichen Makros laufen lassen kann, sondern man muss sie
0:28:02–0:28:04
umschreiben und anpassen.
0:28:05–0:28:09
Das wäre wirklich ein Sklavenjob, glaube ich.
0:28:11–0:28:17
Ja, also wenn es um einen Makro geht, okay, 200. Das ist wahrscheinlich der
0:28:17–0:28:19
Grund, warum die Leute immer noch mit Microsoft Money arbeiten.
0:28:20–0:28:25
Oh ja, um das wieder einmal erwähnt zu haben. Microsoft Money, ich muss schauen.
0:28:25–0:28:31
In letzter Zeit hat es mich gedunkelt, habt ihr Kommentare abgenommen in meinem
0:28:31–0:28:34
Blog zu diesem Thema, Aber ich sage jetzt nicht,
0:28:35–0:28:42
die böse Bemerkung wäre ja jetzt, weil die letzten Anwender von diesem Ding
0:28:42–0:28:44
noch weggestorben sind.
0:28:45–0:28:50
Aber nein, ich würde sagen, vielleicht ist jetzt inzwischen wirklich halt auch das,
0:28:51–0:28:55
was die Banken machen mit ihren Analysetools und so, so komfortabel,
0:28:55–0:28:59
dass man das Money wirklich mal in Vergessenheit geraten lässt.
0:28:59–0:29:01
Stürmt es immer noch bei dir, Kevin?
0:29:01–0:29:04
Nein, jetzt ist es vorbei, jetzt tröpfelt es noch etwas. Ah,
0:29:04–0:29:06
okay. Aber die Hühner hört man schon, oder?
0:29:07–0:29:12
Ja, die Hühner sind immer noch da. Sie sind jetzt natürlich alle wieder rausgekommen.
0:29:12–0:29:14
Sie hat schnell versteckt und jetzt schon wieder Party.
0:29:15–0:29:18
Jetzt hat es alle Insekten am Boden gedrückt. Jetzt kann man auch noch durch
0:29:18–0:29:22
die Wiese rennen und alle Insekten abgrasen. Ah, verstehe. Das ist super.
0:29:23–0:29:30
Also, wir sind wahnsinnig schnell durch. Vielleicht habe ich etwas vergessen.
0:29:30–0:29:33
Nein, aber es waren heute eher ein bisschen einfachere Fragen.
0:29:33–0:29:36
Dann haben wir noch die eine Frage von Raffaella.
0:29:37–0:29:43
Die sagt, sie hat ein Interview geführt. Dann will sie das Interview korrigieren lassen.
0:29:44–0:29:46
Oder einfach zur Autorisation geben.
0:29:47–0:29:52
Und dann hat es dort aber von verschiedenen Leuten so Überarbeitungskommentare drin.
0:29:52–0:29:57
Und sie will, dass man nicht mehr sieht, wer das welche Kommentare gemacht hat.
0:29:57–0:30:00
Und da ist die Frage, kann man das irgendwie, die Kommentare,
0:30:00–0:30:03
ohne dass sie verschwinden aus dem Dokument,
0:30:03–0:30:11
die Überarbeitungsmarken, kann man die so anonymisieren oder geht das nicht?
0:30:11–0:30:13
Weisst du das? Das kann man nicht.
0:30:14–0:30:19
Ja. Das kann man glaube ich nicht. Also die Frage ist, warum?
0:30:20–0:30:25
Warum? Das ist Frage eins. Und Frage zwei ist, sind das immer die gleichen Leute.
0:30:26–0:30:30
Sind das 5 Leute, die das immer machen müssen? Weil dann könnte man einfach,
0:30:31–0:30:36
Also, wir könnten einfach fünf anonyme Google-Accounts machen und die zuwenden,
0:30:37–0:30:40
aber es ist nicht so sexy.
0:30:40–0:30:43
Genau, ich habe es noch einen interessanten Fall gefunden,
0:30:43–0:30:46
weil der ist mir eigentlich so, habe ich nicht auf dem Schirm gehabt,
0:30:46–0:30:50
ich habe dann ein bisschen angefangen rumzusuchen und habe dann gesehen von einer Frau,
0:30:50–0:30:57
die geheiratet hat, hat ihren Namen geändert und dann sind alle ihre Überarbeitungen
0:30:57–0:31:00
noch unter ihrem Mädchen-Namen in diesem Dokument drin gestanden.
0:31:01–0:31:05
Und dann haben sie sich gefragt, ob sie das nicht ändern können.
0:31:05–0:31:09
Im Google Docs geht es glaube ich nicht.
0:31:09–0:31:14
Und im Word habe ich es auch nicht angebracht.
0:31:15–0:31:18
ChatGPT hat behauptet, dass es gehen könnte. Man könne dort ändern,
0:31:18–0:31:22
wie der heisst, der den Kommentar hinterlassen hat.
0:31:23–0:31:29
Das kommt vielleicht auch ein wenig darauf an, wenn man das Word 2024 hat,
0:31:29–0:31:31
das offline funktioniert, dann geht das vielleicht,
0:31:32–0:31:37
aber wenn du das Microsoft 365 hast, über Cloud, wo du auch mehrere Leute via
0:31:37–0:31:42
Cloud bearbeiten kannst, dann geht das meines Erachtens wahrscheinlich eher noch nicht.
0:31:42–0:31:47
Und dann habe ich gefunden, aber es muss trotzdem gehen.
0:31:47–0:31:50
Und dann gibt es tatsächlich eine Hack-Methode, und ich schildere die jetzt
0:31:50–0:31:56
nur kurz, die Details findet ihr dann eben wiederum via Shownotes.
0:31:56–0:32:01
Du kannst ja, das weisst du sicher, Kevin, so ein Word-Dokument ist ja eigentlich
0:32:01–0:32:04
nur eine ZIP-Datei mit einer anderen Endung.
0:32:04–0:32:08
Und dann kannst du, wenn es die ZIP-Umänderung ist, kannst du alles auspacken,
0:32:08–0:32:09
was in dieser Datei drin ist.
0:32:09–0:32:13
Oder du nimmst diesen 7-ZIP-File-Manager, der macht das direkt auf.
0:32:13–0:32:16
Also dort musst du es nicht einmal umbenennen und dann siehst du so,
0:32:16–0:32:22
dass das so eine ZIP-Struktur ist, wo dann so verschiedene XML-Dateien dranhängen
0:32:22–0:32:23
und wenn du Bilder drin hast,
0:32:24–0:32:28
kleiner Tipp am Rand, Wenn man die Bilder zu so einem Dokument ausziehen will,
0:32:28–0:32:29
dann ist das genau der Trick.
0:32:32–0:32:35
Ausentzippen und dann hast du alles schön, die Dateien im Original,
0:32:36–0:32:39
die du rausziehen kannst, ohne dass du irgendeinen riesen Hack-Mack machst.
0:32:40–0:32:45
Und dann findest du dort eben auch eine Datei, die «document.xml» heisst.
0:32:45–0:32:47
Das ist eigentlich die eigentliche Datei.
0:32:48–0:32:54
Und dort kannst du «suchen ersetzen» «web.author» gleich und dann steht der
0:32:54–0:32:56
Name des Autors und dann kannst du es dort abändern.
0:32:57–0:33:06
Und kannst dort zum Beispiel einfach alle Autoren C und D und E durch den Autor A ersetzen.
0:33:06–0:33:08
Und dann ist es einfach nur noch einer und dann siehst du nicht mehr,
0:33:09–0:33:11
von wem das gemacht wurde.
0:33:11–0:33:14
Ich glaube, die Autoren selber solltest du nicht... Ich glaube,
0:33:14–0:33:18
du kannst keine nehmen, die nicht im Dokument drinstehen, sonst ist es nachher
0:33:18–0:33:20
nicht mehr lesbar, die Datei.
0:33:20–0:33:28
Und dann musst du am Schluss natürlich wieder das Dokuments.xml zurück in die ZIP-Datei legen,
0:33:28–0:33:32
wieder zurück umbenennen oder einfach wieder den Aussprungszustand herstellen
0:33:32–0:33:36
und dann hast du diese Bearbeitung machen können in deinem Word-Dokument,
0:33:36–0:33:39
das offiziell eigentlich gar nicht vorgesehen ist.
0:33:39–0:33:41
Das war jetzt wirklich ein schöner Hack, oder?
0:33:42–0:33:45
Da sind wir unserem Nerd-Status gerecht geworden.
0:33:46–0:33:48
Wie wahrscheinlich ist es, dass die Datei dann nicht mehr läuft?
0:33:49–0:33:53
Ich würde sagen, sicher 70 oder 80 Prozent.
0:33:53–0:33:57
Aber wenn du es sorgfältig machst, sollte es gehen. Aber ein guter Hinweis ist,
0:33:57–0:34:01
vielleicht ist es gut, wenn du eine Kopie des Originalen aufbewahrst.
0:34:04–0:34:09
Ich finde den Tipp gut. Wenn du es sorgfältig machst, ist es kein Problem. Ja, genau.
0:34:11–0:34:16
Nein, es ist einfach... Ja, es funktioniert, aber ein Abstand,
0:34:16–0:34:21
1 Komma irgendeine Zielschaltung, irgendetwas und es tut schon blöd.
0:34:22–0:34:27
Macht eine Kopie vom Dokument und nehmt euch ruhige Minuten,
0:34:27–0:34:29
dann ist so etwas cool, um mal auszuprobieren.
0:34:30–0:34:33
Aber ich glaube, wenn du das, du hast das Dokument und du musst es in 10 Minuten
0:34:33–0:34:38
abschicken und dann machst du das, dann hast du das Dokument nachher nicht mehr.
0:34:38–0:34:39
Dann geht es sicher in die Hose, ja.
0:34:40–0:34:44
Es geht sicher kaputt. Es ist wahrscheinlich wirklich dann so,
0:34:44–0:34:49
dass man sich, wenn man das, eben wenn man so etwas hat, die um Vertraulichkeit
0:34:49–0:34:51
und Überarbeitung geht,
0:34:51–0:34:55
dann ist es besser, wenn man sich das vorher überlegt, wenn man das am schnellsten macht.
0:34:56–0:34:59
Dass es anonym bleibt.
0:35:00–0:35:04
Ich frage mich auch, ob man nicht einfach das konsolidieren könnte und dann
0:35:04–0:35:06
die konsolidierte Fassung schicken könnte.
0:35:06–0:35:13
Dann kann er ja immer noch sein Originaldokument, wenn das von ihm steht,
0:35:13–0:35:17
mit der Fassung. Da gibt es ja die schöne Vergleiche-Funktion.
0:35:17–0:35:19
Die findet ihr auch im Word zumindest.
0:35:20–0:35:24
Ob es Google Docs hat, weiss ich jetzt nicht.
0:35:24–0:35:29
Aber man kann Dokumente vergleichen und dann weiss man am Schluss,
0:35:29–0:35:32
was sich verändert hat. Das ist doch auch immer noch eine gute Sache.
0:35:32–0:35:36
Also, jetzt haben wir, glaube ich, wirklich im Gegensatz zu der letzten Sendung,
0:35:36–0:35:40
wo es nur um Spam ging, ein vielfältiges Programm gehabt.
0:35:41–0:35:47
Wir müssen uns immer noch überlegen, ob man dann irgendwann mal ein anderes
0:35:47–0:35:51
Thema macht, statt dieser Kummerbox, oder ob man noch ein bisschen treu bleibt.
0:35:51–0:35:54
Da könnt ihr uns auch noch ein bisschen Rückmeldungen zukommen lassen,
0:35:54–0:35:59
wie immer auf nerdfunk.stadtfilter.ch, auch mit Fragen.
0:35:59–0:36:03
Und dann wünschen wir euch eine gute Zeit. Und wir hier im Radio,
0:36:04–0:36:09
ihr die Heine, oder ihr, die Podcasts abonniert habt, die hören es dann nicht,
0:36:09–0:36:12
aber ihr im Radio hört es dann an den Babdilen und nicht...
0:36:13–0:36:19
Der William Schäger mit Temporine Man. Macht's gut. Cool. Tschüss zusammen. Tschau miteinander.
0:36:20–0:36:46
Music.
Die letzte Ausgabe von Kummerbox Live artete in eine Publikumsbeschimpfung aus: Matthias beklagte sich über unsere Hörerinnen und Hörer, weil deren Fragen noch aus dem vorletzten Jahrzehnt stammen könnten. Die Anliegen drehten sich nämlich allesamt um die Spam-Flut im Postfach.
In der heutigen Folge präsentiert sich ein völlig anderes Bild: Dominique fragt, wie sie Mark Zuckerberg davon abhält, ihre Facebook- und Instagram-Daten fürs Training seiner Meta AI zu verwenden. Susanne muss die bei der Apple-ID hinterlegte Mailadresse ändern. Und Hansueli will Microsoft Word in den Wind schiessen – hat aber Angst, dass so Hunderte von VBA-Scripts verloren gehen würden.
Und wir müssen auf ein Problem aus der letzten Sendung zurückkommen. Auch bei Thomas sind nämlich sämtliche Dokumente vom Mac-Desktop verschwunden.
Die Frage bleibt, ob unsere Hörerschaft so klug war, Matthias’ Tirade als konstruktiven Appell für interessantere Fragen aufzufassen – oder ob die Häufung der Mail-Probleme einfach Zufall war. „Bei den gegenwärtigen Widrigkeiten angekommen“ weiterlesen
«Bitchcraft» mit «Thirteen Again» Ui, und ich bin froh, dass ich nicht wieder
0:00:07–0:00:09
13 bin. Das sage ich euch ganz ehrlich.
0:00:09–0:00:13
«Hoi zusammen, hier ist Leslie Maguid. Ihr hört gerade meine neue Single «Talking
0:00:13–0:00:17
Head» auf dem Stop Filter.» Das stimmt gar nicht. Wir hören keine Single.
0:00:17–0:00:23
Ich rede stattdessen mit Digi-Chris, der jetzt hoffentlich zu diesem Kanal rauskommt.
0:00:23–0:00:26
Hallo Digi. «Ja, guten Abend miteinander.» Du bist wahnsinnig laut.
0:00:27–0:00:30
Ich muss dich noch viel leiser machen. machen, aber das schaffe ich gerade noch.
0:00:30–0:00:34
Wir haben, wir sind wieder mal back to the roots, wir haben wieder mal eine
0:00:34–0:00:37
Skype-Verbindung, weil Technik und so.
0:00:38–0:00:43
Ich glaube, währenddessen warst du in den Ferien, Chris, ist alles auseinandergefallen
0:00:43–0:00:48
bei uns im Radio Stadtfilter. Aber ich frage dich, warum gehst du in die Ferien
0:00:48–0:00:52
eine Woche, bevor es so schön Wetter wird und so warm?
0:00:53–0:00:58
Also, als ich war, war es auch relativ warm und so weiter. Also ich habe mich
0:00:58–0:01:01
jetzt schon mal ein bisschen daran gewöhnt. Ah, sehr gut.
0:01:02–0:01:05
Genau, jetzt bist du schon mal vorgeglüht, sagen wir.
0:01:07–0:01:13
Gut, genau. Und es tut mir leid, Chris, ich muss dir wieder mal das Thema zumuten,
0:01:13–0:01:17
das du eigentlich gar nicht so gerne hast. Aber es geht halt nicht anders.
0:01:17–0:01:21
Aber wir haben dafür noch etwas anderes.
0:01:21–0:01:24
Jetzt ein bisschen in dieser Pre-Show. Nämlich habe ich euch,
0:01:25–0:01:32
wenn ihr sagt, Turniere ja, aber Fussballturniere nein, dann habe ich euch eine kleine Empfehlung.
0:01:32–0:01:35
Aber zuerst frage ich dich noch, wie viele Fussballmatches hast du schon geschaut?
0:01:38–0:01:43
Bei uns im Nachbardorf hat es ein cooles Public Viewing.
0:01:43–0:01:47
Ich würde es nicht anregen, wenn die Schweiz spielt, weil dann bist du ja noch deiner.
0:01:47–0:01:52
Aber bei den Spanien-Spielen habe ich eine halbe Zeit geschaut.
0:01:53–0:01:57
Es gab eine gute Stimmung und es war echt positiv.
0:01:57–0:02:03
Der Feuerwehrverein, der Theaterverein ist dort, die eine freiwillige Arbeit machen.
0:02:04–0:02:08
Ich habe gesagt, dass mich Fussball nicht in die Bohne interessiert,
0:02:08–0:02:11
aber klar, wenn jetzt die Schweiz Deutschland schlägt, müsste ich lachen.
0:02:13–0:02:17
Genau, so weit sind wir noch nicht, aber irgendwann mal kommt es so weit,
0:02:17–0:02:23
glaube ich schon gleich mal, falls ich mich nicht täusche, in dieser gemeinsamen Runde.
0:02:23–0:02:27
Aber ich wollte ja einen Tipp geben, wo ihr ein Turnier schauen könnt,
0:02:27–0:02:32
nämlich auf comedix.de, das ist ja so eine lustige Asterix-Fan-Seite.
0:02:33–0:02:38
Sieht aus, wie Webseiten vor 30 Jahren ausgesehen haben, oder sagen wir 25.
0:02:40–0:02:46
Und ist aber für alle Asterix- und Obelix-Fans eine wunderbare Informationsquelle.
0:02:46–0:02:50
Und den kann man jetzt spielen, da gibt es eine Ausscheidung und man muss jeden
0:02:50–0:02:56
Tag wählen, welches von zwei Asterix-Büchern, welches von zwei Bänden man besser findet.
0:02:56–0:03:00
Und dann gibt es am Schluss einen Asterix-Weltmeister, nehme ich an.
0:03:01–0:03:03
Und ich bin gespannt, welches das sein wird. Ich würde sagen,
0:03:03–0:03:06
es wird einer von den ganz alten Bänden sein. Meinst du nicht auch?
0:03:07–0:03:09
Vermute ich auch. Es ist auch schon lange her. Aber was war das?
0:03:10–0:03:14
Asterix bei den Briten? Oder war das ein Film? Das hat es als Buch gegeben.
0:03:14–0:03:16
Ja, das hatte ich sicher mal.
0:03:17–0:03:23
Das ist 30 Jahre her, aber ich habe diese Bücher auch gerne gelesen.
0:03:25–0:03:30
Aber ich würde sagen, ich muss dich stoppen, weil wir pünktlich anfangen müssen.
0:03:30–0:03:35
Ich würde sagen, Asterix als Fan-Thema ist mal ein... Ich habe schon einen Plan
0:03:35–0:03:37
für so eine Sendung, aber nicht heute.
0:03:37–0:03:52
Music.
0:03:53–0:03:58
Begeisterung, aber auch Panik. Ja, es geht um die künstliche Intelligenz,
0:03:58–0:04:00
die versetzt Unternehmen,
0:04:00–0:04:05
solche natürlich überall auf der ganzen Welt, aber vor allem auch die ganz grossen,
0:04:05–0:04:09
Google und Microsoft, in Angst, die Party zu verpassen.
0:04:09–0:04:14
Und Apple, bei denen sind wir uns nicht ganz sicher, die haben vor kurzem ihre
0:04:14–0:04:17
neue, grandiose Erfindung, oder?
0:04:17–0:04:21
Also den Namen finde ich schon mal nicht so grandios. Apple Intelligence haben
0:04:21–0:04:25
die lanciert. und die scheint auch nicht so ganz zu Ende gedacht zu sein.
0:04:25–0:04:31
Um das alles geht es in dieser Sendung heute mit DigiChris und ich würde sagen,
0:04:31–0:04:36
der Kai Irrsinn nimmt seinen Lauf, ist ein bisschen der Titel von dieser Sendung.
0:04:36–0:04:39
Es ist wahnsinnig, was man die ganze Zeit liest von dieser Kai.
0:04:40–0:04:41
Wie ist es bei dir in deinem Unternehmen?
0:04:42–0:04:47
Ist das schon ein Thema? Gibt es schon Leute, die sich nur noch mit dem beschäftigen,
0:04:47–0:04:49
überlegen, wo könnte man das überall einbauen?
0:04:49–0:04:53
Welche Verbesserungen wären möglich, dank der künstlichen Intelligenz?
0:04:54–0:04:58
Also nur noch schnell zum Anfang, weil gerade bevor ich vor der Sendung bin,
0:04:58–0:05:04
bin ich noch schnell gepostet und habe in GPT-4.0 gefragt, was für Läden,
0:05:04–0:05:07
also Einkaufsmöglichkeiten, in meinem Dorf gibt.
0:05:07–0:05:12
Nummer 1, Coop, das stimmt. Nummer 2, Migros. Nummer 3, Volk.
0:05:13–0:05:17
Blöd ist nur, dort wo der Migros ist, ist mal vor 20 Jahren der Volk gewesen.
0:05:18–0:05:22
Also den gibt es längstens nicht mehr. Dort, wo der Volk sein soll, ist ein Wohnhaus.
0:05:24–0:05:27
In meinem Unternehmen ist das ein Thema.
0:05:28–0:05:32
Ich glaube, das erste Mal hat unser Security Officer über das geredet und gesagt,
0:05:32–0:05:35
was man machen soll und nicht machen soll.
0:05:35–0:05:40
Also vielleicht nicht gerade Formulierungen in Chat-GPT einladen,
0:05:40–0:05:42
es werde aber bewusst nicht blockt.
0:05:42–0:05:48
Ja. Aber es gibt wirklich Leute, die damit arbeiten und sie haben auch irgendwo
0:05:48–0:05:54
für Azure Instanzen, haben so eine lokale GPT, die tatsächlich jetzt irgendwas
0:05:54–0:05:57
machen mit Lieferantenrechnungen.
0:05:57–0:05:58
Also das ist durchaus ein Thema.
0:05:58–0:06:03
Es ist glaube ich noch nicht jemand, der gerade der Chief-Kai-Officer ist,
0:06:03–0:06:06
aber es ist durchaus ein Thema.
0:06:06–0:06:10
Genau, ich arbeite auch in Unternehmen, wo es auch ein Thema ist,
0:06:10–0:06:14
wo man sich überlegt, wo auch die Frage ein bisschen eine Rolle spielt,
0:06:14–0:06:19
was macht man dann, wenn alle anderen das schlauer, besser und schneller einsetzen.
0:06:19–0:06:26
Man sieht tatsächlich, es ist schwierig, kühles Blut zu bewahren und zu sagen,
0:06:26–0:06:29
wir schmeissen nicht alles, was man auf die K.I.
0:06:29–0:06:34
Kann, in der Hoffnung, dass wir schneller, effizienter, leistungsfähiger werden
0:06:34–0:06:38
oder einfach nur der ganzen Welt beweisen, wie innovativ wir sind.
0:06:38–0:06:47
Sondern es ist schwierig, anzuschauen, wo man tatsächlich sinnvoll eine K.I.-Lösung
0:06:47–0:06:51
einsetzen könnte und wo ist vielleicht der Mensch immer noch so ein bisschen besser dran.
0:06:51–0:06:55
Also eben mein Eindruck, Google zum Beispiel, die haben das überhaupt nicht auf dem Schirm.
0:06:55–0:07:01
Google, die haben da jetzt so eine AI-Overview entwickelt, das wird jetzt in
0:07:01–0:07:03
die Suchmaschinen eingebaut.
0:07:03–0:07:07
In Amerika, in den USA, sieht man es schon, ich habe es dort schon ein bisschen ausprobieren können.
0:07:08–0:07:13
Und das verändert eigentlich die klassische Suchmaschine komplett.
0:07:13–0:07:17
Wenn es irgendein Thema ist, wo die KI etwas dazu weiss oder glaubt,
0:07:17–0:07:23
zu wissen, dann beantwortet sie das und dann musst du ziemlich weit runter scrollen,
0:07:23–0:07:25
bis dann die klassischen Suchresultate kommen.
0:07:26–0:07:29
Also man sieht schon, die klassische Suchmaschine, wenn das so weitergeht bei
0:07:29–0:07:32
Google, wird verdrängt von so einer KI.
0:07:32–0:07:35
Digi Chris, gute Idee, schlechte Idee?
0:07:36–0:07:40
Ich glaube jetzt nicht, also wie gesagt, ich habe zwar auch lange nicht mehr
0:07:40–0:07:44
gebloggt, aber du bloggst zwar noch regelmässig, du wirst wahrscheinlich auch
0:07:44–0:07:45
ein paar kleine Ads haben, Also,
0:07:45–0:07:52
aber eben, jetzt in meinem Fall suche ich mir irgendwie Kreuzfahrtreiseberichte so und so.
0:07:52–0:07:56
Genau, du wieder mit der Kreuzfahrt. Dann wärst du wahrscheinlich vorher mal
0:07:56–0:07:57
auf meinen Blog gekommen.
0:07:57–0:08:02
Und ja, gut, ich habe keine Ads drauf, aber eben jetzt würde ich einfach sagen,
0:08:02–0:08:07
auf der Costa Favalosa gibt es guten Hummer, also irgend sowas.
0:08:07–0:08:11
Und eben, das Problem ist wahrscheinlich tatsächlich, dass jetzt Google...
0:08:12–0:08:18
Früher war es tatsächlich Symbiose, also du als Blogger, der Dagi oder so,
0:08:19–0:08:21
eben Google hat dir Traffic gebracht,
0:08:22–0:08:25
du hast vielleicht noch auf den Banner geklickt und das wird dann irgendwann
0:08:25–0:08:32
verschwinden, weil er einfach sagt, aha, der Matthias hat das neue Zip-Tool
0:08:32–0:08:35
so und so beschrieben, ja, das ist so. Genau, genau.
0:08:36–0:08:42
Das ist, das gibt die Masseinheit von der Zero-Click-Rate, oder ganz genau,
0:08:42–0:08:44
Zero-Click-Search-Rate.
0:08:44–0:08:48
Das heisst, wie viele von diesen Suchresultaten, die Google anzeigt,
0:08:48–0:08:53
sind tatsächlich angeklickt worden oder auf welcher von diesen Resultatelisten
0:08:53–0:08:55
hat irgendjemand etwas angeklickt.
0:08:55–0:09:01
Und die Rate, die niemand klickt, die geht immer hoch, kontinuierlich,
0:09:01–0:09:06
Google hat ja schon vorher, sie zeigen inzwischen selber Hotels und selber Flüge an.
0:09:06–0:09:13
Wenn du nach einem Schauspieler suchst, dann kommt meistens schon die Wikipedia-Information auf der Seite.
0:09:13–0:09:17
Oder auch bei Film und Musik gibt es so diese Einblendungen.
0:09:18–0:09:23
Die vielfach schon eigentlich diese Neugierde oder den Wissensturst befriedigen.
0:09:23–0:09:25
Das heisst, du musst dich gar nicht mehr durchklicken.
0:09:26–0:09:30
Ich habe einen Artikel dazu geschrieben, wo ihr dann Details nachfindet.
0:09:30–0:09:32
Und verlinkt auf nerdfunk.ch.
0:09:32–0:09:36
Dort haben wir schon gesehen, also Wikipedia, wo das eingeführt worden ist,
0:09:36–0:09:40
die haben das massiv gespürt und eben wenn natürlich, genau,
0:09:40–0:09:47
also das Web hinter Google wird quasi austrocknet, wenn das so kommt und man kann sagen.
0:09:47–0:09:54
Warum sollte jemand noch eine Webseite ins Web stellen, wenn die nicht mehr gefunden werden.
0:09:54–0:09:58
Und DigiChris, du hast deinen Blog, schaust du da ab und zu auf die Statistik,
0:09:58–0:10:01
wie viele Leute kommen per Google, wie viele Leute kommen direkt?
0:10:02–0:10:05
Ich habe es früher mal gemacht, ich hatte ein Plugin und das Plugin hatte ich
0:10:05–0:10:10
in meinem Back, da hatte ich einen lieben, lieben Mitmenschen,
0:10:10–0:10:13
da hatte ich einen Mal mehr drauf, seitdem habe ich das nicht mehr. Alles zerschossen.
0:10:14–0:10:19
Da habe ich nicht mehr wirklich Blog, aber ich denke, das Beispiel jetzt,
0:10:19–0:10:21
Wikipedia, die haben ja keinen Banner.
0:10:22–0:10:24
Wenn die jetzt weniger Traffic haben, ist das nicht so schlimm,
0:10:25–0:10:28
aber ich habe irgendwann mal einen Fall gehört, ich glaube, das war ein Blogger,
0:10:28–0:10:31
der hat professionelle Laufschuhe getestet.
0:10:31–0:10:36
Er hat tatsächlich journalistisch relevante Berichte geschrieben,
0:10:36–0:10:37
der Laufschuh ist so und so.
0:10:39–0:10:43
Und wie man es halt so kennt, du hast wahrscheinlich unten Links gehabt,
0:10:43–0:10:44
um den Laufschuh zu posten.
0:10:45–0:10:50
Und ich sage jetzt, er hat x% von dem übergekommen. Von dem hat er gelebt.
0:10:50–0:10:57
Wenn natürlich jetzt Google einfach sagt, der Laufschuh, ich kenne mich nicht aus, aber du weisst was.
0:10:57–0:11:01
Die mit dem Roger Federer, meinst du vielleicht? Sagen wir, die sind jetzt halt super gut,
0:11:02–0:11:07
dann kaufst du das gerade und vielleicht ist dann Google so nicht und drückt
0:11:07–0:11:11
dir dann gerade einen eigenen Affiliate-Link, also für die, die es nicht wissen,
0:11:11–0:11:14
Affiliate eben heisst, wenn ich...
0:11:15–0:11:19
Einen Link auf einen Online-Shop bringt, bekomme ich einen gewissen Prozentsatz über.
0:11:20–0:11:24
Eine Vermittlungsgebühr. Es ist eigentlich ein Vermittlungsprogramm.
0:11:24–0:11:28
Ich habe das auch auf meinem Blog mit Amazon aufgerundet.
0:11:28–0:11:35
Ich habe vielleicht 300 Franken in 10 Jahren eingebracht. Es ist nicht so attraktiv,
0:11:35–0:11:37
aber es gibt Leute, die das professioneller machen.
0:11:37–0:11:43
Man kann dort sagen, das Geschäft wird durch die, auf meinem Blog auch,
0:11:43–0:11:46
ist die absolute Mehrheit der Leute per Google.
0:11:47–0:11:51
Und wenn Google sie nicht mehr zu mir durchschliesst, dann kommt niemand mehr
0:11:51–0:11:53
und dann habe ich keine Werbeeinnahmen mehr.
0:11:53–0:11:56
Das ist nicht so tragisch, weil ich muss nicht davon leben.
0:11:56–0:11:59
Aber bei Medien, die vielleicht doch auch noch finden, dass es unser Geschäft
0:11:59–0:12:04
ist, Informationen ans Publikum zu bringen, auch dort sieht man es übrigens ja schon.
0:12:04–0:12:09
Ich habe es mal ausprobiert, wenn du Fussball suchst, wenn du ein Resultat zu
0:12:09–0:12:13
der EM, die wir in der Pre-Show kurz erwähnt haben, Wenn du dort ein Resultat
0:12:13–0:12:17
sehen möchtest oder auch der Eishockey-WM, der stattgefunden hat,
0:12:17–0:12:20
dann siehst du eigentlich schon
0:12:20–0:12:24
diese Schlagzeilen auf Google selber und musst nichts mehr anklicken.
0:12:24–0:12:29
Also du landest, wenn du nur so ein wirklich oberflächliches News-Bedürfnis
0:12:29–0:12:33
hast, dann wird das schon von Google befriedigt und du musst gar nicht mehr
0:12:33–0:12:35
auf so eine News-Webseite. Und das ist ein Problem.
0:12:35–0:12:39
Und ich denke, du hast gesagt, für Wikipedia ist es nicht so ein Problem,
0:12:39–0:12:40
aber ich finde eben doch.
0:12:42–0:12:48
Man will ja trotzdem, auch wenn man keine Werbung macht, wahrgenommen werden
0:12:48–0:12:51
als «Wir sind die, die die Informationen anbieten, wir sind die,
0:12:52–0:12:55
die alle freiwilligen Leute dafür schaffen,
0:12:56–0:13:00
dass es diese Informationen gibt.» Und wenn das alles schon bei Google befriedigt
0:13:00–0:13:04
ist, dann sieht man die Arbeit der Leute, die das gemacht haben, nicht mehr.
0:13:06–0:13:11
Gibt recht. Eben, das ist die Google-Sache.
0:13:11–0:13:18
Aber ich habe ja angerufen, es ist der erste Anfang von den Sachen, die passiert sind.
0:13:18–0:13:21
Vielleicht reden wir zuerst über das Recall. Das ist Microsoft,
0:13:21–0:13:29
hat gefunden, jawohl, wir machen jetzt auch alles, was man machen kann mit künstlicher Intelligenz.
0:13:29–0:13:34
Wir haben in Windows eine Software eingebaut, die macht alle 5 Sekunden einen
0:13:34–0:13:36
Screenshot, dann durchsucht sie,
0:13:36–0:13:41
was in den Screenshots drin steht und dann kannst du drei Monate lang alles
0:13:41–0:13:45
durchsuchen, was du jemals auf deinem Bildschirm angezeigt hast.
0:13:45–0:13:49
Und das klingt auf den ersten Blick super, oder? Willst du das DigiChris?
0:13:49–0:13:54
Würdest du das Recall einschalten? Total Recall auf dem DigiChris im Rechner?
0:13:55–0:14:01
Also auf Englisch fucking creepy. Also, nee, und ich glaube,
0:14:01–0:14:05
es geht ja eigentlich auch nur mit den neuen Microsoft AI-PCs.
0:14:05–0:14:10
Aber nein, ich würde es niemals einschalten. Weil, ja, ich habe vielleicht auch
0:14:10–0:14:13
mal eine Webseite offen, die 100% ist.
0:14:13–0:14:18
Und jetzt finde ich gerade, dass ich im Stadtfilter weiss, dass ich sie schaue.
0:14:19–0:14:23
Das ist echt, wenn ich das irgendwie höre, dann ist das ein April-Scherz.
0:14:23–0:14:29
Genau. Gefahr, dass dann die Informationen irgendwo geklaut werden oder dass
0:14:29–0:14:34
auch jemand, der vielleicht den Computer der auch mit benutzt ist, ist gross.
0:14:34–0:14:39
Oder eben, wenn du einen Geschäftscomputer hast, dass dein Arbeitgeber mal findet,
0:14:39–0:14:43
okay, jetzt schauen wir doch einfach mal in den Verlauf hin,
0:14:43–0:14:44
was der den ganzen Tag macht.
0:14:44–0:14:48
Eben, Chris, was hat er wieder für Webseiten offen gehabt? Jawohl,
0:14:48–0:14:52
es ist, wir haben es gedacht, es ist wiederum Kreuzfahrtschiff.
0:14:54–0:14:58
Und ich glaube, wie es technisch geht, das ist glaube ich anscheinend,
0:14:58–0:14:59
das läuft nicht mit deinem Konto.
0:15:00–0:15:03
Es ist glaube ich eher ein Windows-Konto, wo du eigentlich nicht dran kommst,
0:15:03–0:15:07
aber wenn du einen Admin hast oder halt einen USB-Stick bautest,
0:15:07–0:15:09
könntest du auch mal diese Datenbank mitnehmen.
0:15:09–0:15:14
Ja, es ist... Es ist glaube ich nicht verschlüsselt, es ist eben so eine SQLite-Datenbank.
0:15:15–0:15:18
Also wenn du wahrscheinlich mal ein Semester Informatik studiert hast,
0:15:18–0:15:22
ja, würde wahrscheinlich ziemlich viel über Matthias...
0:15:23–0:15:28
Herausfinden. wissen und dann, oh, was, der Matthias ist heimlich T-Bone Steak,
0:15:28–0:15:32
also ein wunderndes Beispiel oder so. Genau, du kannst sagen, das mit der,
0:15:34–0:15:38
Vegetarisiererei ist alles doch nur gelogen. Ja, ja, genau. Also das ist sogar,
0:15:39–0:15:43
wenn du nicht an Hacker und nicht an Daten diep denkst, ist es eine gruselige
0:15:43–0:15:46
Sache und es ist nicht einmal so, eben, du hast es angedeutet,
0:15:46–0:15:50
es ist eigentlich nicht einmal so besonders gescheit implementiert gewesen und
0:15:50–0:15:54
man muss sagen, sie haben es jetzt zurückgezogen.
0:15:54–0:15:57
Man weiss nicht genau, ob für immer oder jetzt erstmal einfach,
0:15:57–0:15:59
um vielleicht nochmal drüber zu gehen.
0:16:02–0:16:06
Standardmässig wäre es eingeschaltet gewesen, auch Leute, die das gar nicht
0:16:06–0:16:10
bewusst benutzt hätten, hätten es benutzt.
0:16:11–0:16:14
Das ist alles ein bisschen schwierig und da fragt man sich schon,
0:16:14–0:16:16
wenn ich am Anfang gesagt habe,
0:16:16–0:16:20
bei Microsoft hat man schon das Gefühl und bei Google auch, die haben jetzt
0:16:20–0:16:25
alle Panik, sie könnten etwas verpassen und sie müssen sich jetzt zuerst als
0:16:25–0:16:29
Platzhirsch im KI-Bereich inszenieren.
0:16:30–0:16:35
Ja, und ich finde, die zwei Worte auch für die Leute, die nicht so ein Nerd
0:16:35–0:16:36
sind, opt-out und opt-in.
0:16:37–0:16:41
Also man kann ja eigentlich sagen, wenn jetzt mich irgendwie,
0:16:41–0:16:48
ich weiss auch nicht was, mein Provider fragt, willst du irgendwie eine doppelte Speed haben?
0:16:48–0:16:53
Wenn du das willst, zählst du einen Franken und dann hast du das.
0:16:53–0:16:56
Oder sie sagen dir, hey, wir haben dir eine doppelte Speed aufgeschaltet.
0:16:56–0:17:00
Wenn du das nicht willst, musst du aber aktiv widersprechen.
0:17:00–0:17:05
Das ist glaube ich auch noch so etwas, was auch um den Blogbeitrag geht,
0:17:05–0:17:06
den wir vorhin erwähnt haben.
0:17:06–0:17:12
Das ist so, Opt-in versus Opt-out. Oder da können wir eine schöne Überleitung machen zum Meta.
0:17:12–0:17:19
Die haben ja jetzt gefunden, wir machen alle Daten, die wir mit Facebook und
0:17:19–0:17:25
Instagram gesammelt haben, die brauchen wir mal, weil wir möchten unsere eigene KI machen.
0:17:25–0:17:29
Die heisst Meta AI und das ist doch super, wenn wir so viel Daten haben,
0:17:29–0:17:31
trainieren wir doch mit der.
0:17:33–0:17:36
Die haben eben nicht einmal gefragt, weder Opt-in noch Opt-out,
0:17:36–0:17:42
sondern als US-Amerikaner oder auf vielen Kontinenten kann man eigentlich nichts dagegen machen.
0:17:42–0:17:47
Jetzt hier in Europa und weil, glaube ich, auch Herr Zuckerberg zählt,
0:17:47–0:17:51
die Schweiz zu Europa, haben wir immerhin das Glück, dass es jetzt erstmal wieder
0:17:51–0:17:56
gestoppt wurde, das kann man sagen, und wir in der Schweiz konnten auch Widerspruch einlegen.
0:17:56–0:18:01
Also es gibt dann dort gut, gut versteckt. Ich erkläre, wenn man dort hinkommt,
0:18:01–0:18:06
den Link in den Shownotes auf nerdfunk.ch gut versteckt, so ein Formular,
0:18:06–0:18:08
wo man sagen kann, ich will Widerspruch einlegen,
0:18:08–0:18:12
bitte braucht ihr meine Daten nicht für eure.
0:18:14–0:18:18
KI, aber sonst passiert das einfach und das ist auch, ich habe da ein bisschen
0:18:18–0:18:21
rumgeschaut, also es ist eigentlich so, dass sämtliche,
0:18:22–0:18:30
KIs, sei es die von Bing, sei es die von Google, Gemini oder auch OpenAI,
0:18:30–0:18:36
die brauchen alle diese Daten vom offenen Web und speisen sie in ihre KI ein,
0:18:37–0:18:43
ohne dass die, die diese Daten hergestellt haben, etwas dazu zu sagen hätten. Was haltest du davon?
0:18:43–0:18:49
Wie gesagt, das gab es ja früher durch die berühmte Datei robots.txt. Ja, genau.
0:18:49–0:18:54
Und eben, das ist zwar auch etwas, aber da ist es schon etwas kritischer.
0:18:54–0:18:59
Gerade bei Facebook-Daten ist es vielleicht noch einmal etwas kritischer,
0:18:59–0:19:05
ja, wenn ich jetzt Facebook, meinen kleinen Freundeskreis brauche und irgendwie,
0:19:05–0:19:11
weiss ich was, meine Töchter hier läuft zuerst mal irgendwie über den Rasen, ja.
0:19:11–0:19:16
Ich weiss nicht, wenn du ein kleines Mädchen über den Rasen läufst,
0:19:16–0:19:18
kommt dann das Bild raus oder so? Genau.
0:19:19–0:19:23
Erkennt man dann plötzlich Personen, die auf diesem Bild waren?
0:19:23–0:19:28
Ich habe dann auch mal ein bisschen nachgeforscht, woher überhaupt diese Daten kommen, wo dann diese.
0:19:29–0:19:35
Trainieren und es ist tatsächlich so, also das sind so grosse,
0:19:36–0:19:39
meistens Non-Profit Organisationen, die das Scraping machen,
0:19:40–0:19:46
also die Daten im Internet zusammensammeln und dann auch das aufbereiten für
0:19:46–0:19:50
die man muss ja dann die in der richtigen Form.
0:19:52–0:19:56
Hersteller zur Verfügung stellen dass die ihre KIs trainieren und eine davon
0:19:56–0:20:02
ist ein deutsches Unternehmen, das heisst Lion, oder L-A-I-O-N,
0:20:02–0:20:06
auch, und der Bayerische Rundfunk hat dort mal wirklich reingeschaut,
0:20:06–0:20:09
was da eigentlich in diesen Trainingsdaten drin sind.
0:20:09–0:20:14
Die haben wahnsinnig viele persönliche Sachen, zum Teil halt Leute, die.
0:20:15–0:20:20
Aus heutiger Perspektive sagen, vielleicht nicht so schlau, auch medizinische
0:20:20–0:20:23
Sachen irgendwo eingestellt haben, aber wahrscheinlich gefunden haben,
0:20:23–0:20:26
das ist zwar irgendwie öffentlich,
0:20:26–0:20:31
aber so in einem abgelegenen Rahmen, dass das nie reinkommt.
0:20:31–0:20:36
Aber man sieht jetzt wirklich, die KIs gehen halt hin, reissen das zu dem ursprünglichen
0:20:36–0:20:39
Kontext heraus, auch zu der zeitlichen Einordnung.
0:20:39–0:20:44
Da kann man sagen, das ist zehn Jahre her, das interessiert niemanden mehr.
0:20:44–0:20:47
Aber auch etwas 10-jähriges kann dann wieder auftauchen.
0:20:48–0:20:53
Das ist jetzt eine Suggestivfrage, aber es geht eigentlich schon nicht,
0:20:53–0:20:55
dass man Daten so braucht.
0:20:55–0:20:59
Völlig anders, als dass die Leute gemeint haben, die sie zur Verfügung gestellt
0:20:59–0:21:00
haben, dass sie dann gebraucht werden.
0:21:01–0:21:05
Ganz genau. Du, der einen Blog postet über ein neues Utility,
0:21:05–0:21:10
das per se öffentlich ist, versus jemand, der es vielleicht ...
0:21:10–0:21:14
Ja, und vielleicht auch wirklich, der auf Facebook 20 Freunde hat und vielleicht
0:21:14–0:21:18
eine traurige medizinische Diagnose postet. Genau.
0:21:18–0:21:22
Das ist schon nochmal irgendwie ein Stufengrässer.
0:21:23–0:21:29
Das ist so. Und das gehört eben auch in den Bereich, der die Übertitel von dieser Sendung sind.
0:21:29–0:21:33
Der Irrsinn geht weiter, die Unternehmen machen jetzt einfach mal alles und
0:21:33–0:21:37
wir müssen irgendwie schauen, wie wir sie dann vielleicht stoppen können.
0:21:37–0:21:41
Und ich denke, es wird wahrscheinlich am Schluss halt der Gesetzgeber brauchen,
0:21:42–0:21:46
der sagt, unter diesen Umständen könnt ihr so Daten brauchen und es braucht
0:21:46–0:21:49
ganz klar ein Opt-in und am besten auch,
0:21:50–0:21:54
dass man wirklich dann genau auflistet, was welche Informationen,
0:21:54–0:21:59
die gebraucht werden vielleicht nicht jeden einzelnen Blogpost oder Facebook-Post.
0:22:00–0:22:05
Separat, wobei, wieso eigentlich nicht, wenn du findest, ich möchte gerne mal wieder wissen,
0:22:05–0:22:09
was ich eigentlich vor 10 Jahren für Stusse in Facebook geschrieben habe,
0:22:09–0:22:13
dann könntest du das dort nachschauen, aber um das, glaube ich,
0:22:13–0:22:15
kommen wir nicht rum und von mir aus gesehen, müssen wir dann vielleicht auch
0:22:15–0:22:18
mal über eine Entschädigung reden,
0:22:18–0:22:23
weil eben, also ich zahle OpenAI jeden Monat 20 Stutze, dass ich das Ding kann brauchen,
0:22:23–0:22:28
aber für das zahle ich eigentlich nur die Technologie, die KI,
0:22:28–0:22:33
ich zahle aber nichts für die Informationen, die vielleicht aus irgendeinem
0:22:33–0:22:36
Lexikon stammen, von den New York Times stammen, die dort eigentlich hinter
0:22:36–0:22:38
der Paywall wären und so.
0:22:38–0:22:44
Also, über das ich finde, erinnerst du dich noch an diese Diskussionen um MP3,
0:22:44–0:22:49
wo dann irgendeine arme Hausfrau, die halt ein paar MP3s in eine Tauschbörse
0:22:49–0:22:53
eingestellt hat, ist sie von den Rechteinhabern vor Gericht gezerrt worden und
0:22:53–0:22:56
zu einer ich glaube, es hat tatsächlich so einen Fall gegeben von einer Frau,
0:22:57–0:22:59
wo sich das nicht bewusst war und dann irgendwie,
0:23:00–0:23:02
Hunderttausende von Dollar Strafe zahlen musste.
0:23:02–0:23:06
Also eben auf die Kleine ist man dann losgegangen und die Tech-Konzern tun jetzt
0:23:06–0:23:12
so, wie wenn es nie so eine Regelung gegeben hätte, was man mit Inhalt dürfen und was nicht.
0:23:12–0:23:18
Da gibt es übrigens auch eine nette Story, wo das losgegangen ist mit Napster.
0:23:19–0:23:24
Hat die damalige RIAA, Recording Industry of America, hatte,
0:23:24–0:23:27
hat sie dann auch relativ aggressiv geschossen.
0:23:27–0:23:30
Genau, das sind die waren. Wo sie dann aber angefangen haben wirklich,
0:23:30–0:23:33
und glaube sogar irgendwie das drittejährige Mädchen zu verklagen,
0:23:34–0:23:38
hat dann wirklich glaube ich irgendwie die damalige Chaffings so I'm out.
0:23:38–0:23:44
Das geht zu weit. Also wenn du jetzt, klar, wenn du gehst, die Brandy CD verkaufen,
0:23:45–0:23:50
dann ja, hast du erfunden, äh, für die Entschuldigung Entschuldigung,
0:23:52–0:23:57
aber grundsätzlich kann man sich etwas überlegen,
0:23:59–0:24:04
Wir haben ja auch schon Songs im Stadtfilter gespielt wie an dich und dann würde
0:24:04–0:24:06
mein Kollege, der halt die Band hat, würde halt auch irgendwie ein bisschen
0:24:06–0:24:10
dantieren, wie er es wie so überkommt. Ist da bei uns drauf, ja.
0:24:12–0:24:17
Ja, das ist so. Und eben, dass man jetzt da nicht einmal darüber diskutiert,
0:24:17–0:24:19
finde ich irgendwie bemerkenswert.
0:24:20–0:24:25
Weil eben im Gegensatz zum 13-jährigen Mädchen, der wahrscheinlich nicht das
0:24:25–0:24:28
gemacht hat, um reich zu werden.
0:24:28–0:24:33
Sogar wenn sie noch ihr Sackgeld aufgebessert hat, dann wäre das ein Sackgeld gewesen.
0:24:33–0:24:39
Aber wir sehen ja jetzt, was OpenAI und was da für ein Geschäft gewittert wird.
0:24:39–0:24:42
Also das sind dann nicht ein paar Cent, sondern das sind Milliardenbeträge.
0:24:42–0:24:46
Also wir sind da in einem anderen Bereich.
0:24:46–0:24:50
Und jetzt ist dann, jetzt müssen wir doch noch über Apple reden,
0:24:50–0:24:56
ist dann Apple jetzt der Ritter in der glänzenden Rüstung, die alles besser macht,
0:24:56–0:25:02
weil die haben zumindest das Gefühl, sich ein bisschen mehr Mühe zu geben und
0:25:02–0:25:09
ein bisschen mehr auf die Privatsphäre schauen mit dieser Apple Intelligence, wie sie das nennen.
0:25:09–0:25:13
Oder sind die genauso schlimm wie alle anderen? Was meinst du?
0:25:14–0:25:18
Ich muss sagen, dass wir wieder einmal das Wort «Pizza» und so gesagt haben.
0:25:19–0:25:23
Die müssen uns jetzt dann Tante Jemen zahlen, für jedes Mal, wenn wir es nennen.
0:25:25–0:25:31
Podcast, dass eben die sehr natürliche Sitzung in dir seit dem iPhone 4S halt stehen geblieben ist.
0:25:31–0:25:35
Und eben vor allem im Englischen, wenn ich jetzt irgendein Mail habe von dir,
0:25:36–0:25:41
ich sage, du lässt mich zu einem Grillfest stehen und ich sage add this to the calendar.
0:25:41–0:25:48
Dann eben this, also ja, das Mail, das einfach ein this in den Kalender geschrieben und solche Sachen.
0:25:49–0:25:51
Ja, das ist mir auch öfters passiert.
0:25:52–0:25:56
Grundsätzlich würde ich schon sagen, dass Apple in Sachen Datenschutz ist schon
0:25:56–0:26:01
eine Firma, die ich jetzt mehr vertrauen würde als Microsoft oder speziell Google.
0:26:01–0:26:04
Ich sage auch immer so, und das ist nicht mal despektierlich gemeint,
0:26:05–0:26:08
Apple verdient ihr Geld mit überteuerter Hardware.
0:26:09–0:26:13
Und Google verdient das Geld oder auch Meta mit unseren Daten.
0:26:14–0:26:20
Zuerst mal glaube ich ihnen an das Commitment, dass sie die Daten so gut wie
0:26:20–0:26:21
möglich schützen wollen.
0:26:21–0:26:26
Und ich nehme auch wahr, dass es plus minus anonymisiert ist und vieles läuft
0:26:26–0:26:30
ja sogar auf deinem eigenen Gerät und wird nicht eben wie bei Chat-Scheiben
0:26:30–0:26:32
die irgendwo mal in den Wolken geschmissen.
0:26:32–0:26:36
Also da her mal das Commitment, was sie wollen, das nehme ich ihnen ab.
0:26:37–0:26:39
Genau, das muss man vielleicht noch schnell ein bisschen erklären,
0:26:39–0:26:40
aber es ist tatsächlich so,
0:26:40–0:26:46
dass wenn man die Apple Intelligence auf dem eigenen Gerät benutzt und man kann
0:26:46–0:26:51
darum wahrscheinlich auch das nur auf den ganz neuen Gerät einsetzen und die
0:26:51–0:26:53
Älteren sind da alle aussen vor,
0:26:53–0:26:56
dann probiert das iPhone oder das MacBook,
0:26:56–0:27:00
das dann das macht, das zuerst lokal zu machen.
0:27:00–0:27:04
Man kann ja all die KIs auch lokal betreiben. Das Problem ist halt,
0:27:04–0:27:07
dass sie wahnsinnig viel Daten brauchen.
0:27:08–0:27:14
Also das sind riesige Modelle. Ich habe so ein paar von diesen Open Source Chatbots abgeladen.
0:27:14–0:27:19
Das Lama, das vorne 2L hat zum Beispiel, das sind halt 5-6 GB,
0:27:20–0:27:26
die man da runterlassen und die halt auf so einem Telefon ein bisschen schwierig sind zu betreiben und.
0:27:27–0:27:30
Aber sie probieren das zuerst lokal zu machen und wenn es nicht geht,
0:27:30–0:27:38
dann probieren sie es zuerst im Web in einem Rechenzentrum von Apple zu machen
0:27:38–0:27:39
und wenn es dann immer noch nicht funktioniert,
0:27:40–0:27:44
dann gehen sie dann vielleicht bei ChatGPT nachfragen, sie haben jetzt den Vertrag
0:27:44–0:27:47
mit OpenAI und lassen es dann dort beantworten.
0:27:47–0:27:49
Das kann man aber immer auch unterbinden.
0:27:49–0:27:54
Und finde ich theoretisch eigentlich einen guten Ansatz, der wahrscheinlich
0:27:54–0:27:59
die Privatsphäre besser schützt, wenn wir einfach mal alles irgendwo heranrühren.
0:28:00–0:28:04
Aber es ist dann wahrscheinlich trotzdem für die Nutzer extrem schwierig abzuschätzen,
0:28:05–0:28:09
welche von ihren Daten jetzt auf dem Gerät bleiben, welche das dann irgendwo
0:28:09–0:28:10
in der Cloud landet und so.
0:28:12–0:28:16
Und ich habe ein ungutes Gefühl, darum auch da, muss ich sagen.
0:28:17–0:28:21
Ja, was man aber auch wieder sagen muss, das schöne Wort Opt-in,
0:28:21–0:28:26
also soviel ich weiss, Stand heute mit der ersten Beta, du kannst ihm nicht
0:28:26–0:28:29
den grünen Schalter geben, also er fragt dich bei jeder Anfrage,
0:28:30–0:28:31
do you want to ask Chatschip?
0:28:31–0:28:33
Genau, das 6.0 habe ich auch gelesen.
0:28:33–0:28:39
Was ich eigentlich schon mal gut finde, weil, ja, das kannst du auch mal alle erlauben.
0:28:39–0:28:42
Da klickst du halt schon auch als Informatiker manchmal schnell drauf.
0:28:43–0:28:46
Ja. Also das finde ich jetzt mal, ich glaube, es ist gut gemeint.
0:28:46–0:28:51
Und wie gesagt, was man halt auch sagen muss, was die an dieser Keynote gezeigt
0:28:51–0:28:54
haben, und da werden wahrscheinlich geschnitten haben, wie blöd,
0:28:54–0:28:56
also wie sagen wir, die Videoschnitte. Ja.
0:28:57–0:28:59
Weil es ist auch klar,
0:29:00–0:29:05
Wenn ich Chat-GPT oder Suno-Leute gezeigt habe, dann war der Song,
0:29:06–0:29:07
den ich nicht gegeben habe, ein Sonnenschrott.
0:29:08–0:29:11
Live kannst du sowas gar nicht mehr machen. Ja, genau.
0:29:12–0:29:18
Und ich würde auch sagen, im Moment ist es wirklich schwierig, wenn du so eine KI hast,
0:29:19–0:29:22
die dann direkt auf deinem Gerät arbeitet und auch mit der Cloud und mit deinen
0:29:22–0:29:27
lokalen Daten und mit deinem Adressbuch und mit deinen Nachrichten,
0:29:27–0:29:31
die du geschickt hast und mit dem Verlauf im Browser,
0:29:31–0:29:35
dann wird es irgendwie wahnsinnig schwierig, am Schluss noch abzuschätzen,
0:29:35–0:29:38
wie sicher deine Daten am Schluss noch sind.
0:29:40–0:29:45
Aber Apple, du hast es gesagt, das Engagement ihnen abnehmen,
0:29:45–0:29:47
dass sie versuchen, das besser zu machen, wie z.B.
0:29:48–0:29:53
Microsoft, wo du dann das Gefühl hast, es gibt ja auch die KI im Office,
0:29:53–0:29:59
wo du dann nie genau weisst, wie viele von denen dann auf irgendeinem Server
0:29:59–0:30:02
von diesen Daten zurückbleiben, die du jetzt damit schaffst,
0:30:02–0:30:03
wenn du mit dieser KI schaffst.
0:30:03–0:30:08
Ist vielleicht besser, vielleicht auch nicht, aber ich sehe da noch eine riesen
0:30:08–0:30:10
Arbeit auf uns zu kommen,
0:30:10–0:30:15
auch von uns anzuwenden, dass wir sagen, wir wollen halt diese Kontrolle und
0:30:15–0:30:20
wir vertrauen euch nicht so sehr, dass wir euch einfach das grüne Licht geben
0:30:20–0:30:23
und sagen, macht einfach, was ihr für richtig haltet.
0:30:23–0:30:26
Nein, ist ganz genau so, wobei eben, jetzt kann man schon sagen,
0:30:27–0:30:30
eben Chat-GTT kennt natürlich in der Mittlerwelle einfach jeder,
0:30:31–0:30:33
also nicht nur wir, also ich weiss noch, es war glaube ich der Maggie,
0:30:33–0:30:37
das war etwa zwei Jahre her, als er in unseren Chat reingerührt hat.
0:30:38–0:30:44
Damals, boah, als ich es den Leuten gezeigt habe, was ist das jetzt?
0:30:44–0:30:47
Und heute wüsste ich es sagen, es gehen Leute in den Chat-Scheibetier,
0:30:47–0:30:53
gib mir ein gutes Restaurant in XY, anstatt auf den TripAdvisor zu gehen.
0:30:53–0:30:56
Aber eben, die KI hat immer noch das Problem, sie gibt einem Restaurant,
0:30:56–0:30:57
das sie seit 20 Jahren nicht mehr gibt.
0:30:58–0:31:01
Ja, genau. Das ist gut für die Linie und für das Portemonnaie,
0:31:01–0:31:04
aber für die Lune vielleicht nicht.
0:31:04–0:31:07
Ja, ich glaube, wir werden diesem
0:31:07–0:31:12
Thema auch weiter hinten reinrennen und schauen, was dabei rauskommt.
0:31:12–0:31:19
Ich glaube, es wird wahrscheinlich das eine oder andere Debakel brauchen und das eine oder andere.
0:31:22–0:31:26
Privacy, Privatsphäre supergau, wo dann halt irgendetwas rauskommt,
0:31:26–0:31:30
wo jemand ganz blöd ansteht. Ich hoffe, dass ich es nicht bin und dass es du nicht bist.
0:31:31–0:31:36
Aber ja, wir bleiben am Ball und wie würdest du sagen, wie lange haben wir?
0:31:36–0:31:40
Wieder am Schluss noch eine von unseren berühmten Prognosen.
0:31:40–0:31:42
Hat sich das in fünf Jahren zurechtgerüttelt?
0:31:43–0:31:45
Haben wir da einen sauberen Umgang,
0:31:45–0:31:48
wo wir alle zufrieden sind und können sagen, damit können wir leben?
0:31:49–0:31:53
Ich denke schon, da wird sicher noch viel passieren und eben zur Not,
0:31:53–0:31:55
zumindest in der EU, wird der Gesetzgeber sicher auch mal irgendwie,
0:31:56–0:32:01
es gibt ja den AI-Action, da hast du glaube ich mal mit Kevin Jovinski darüber
0:32:01–0:32:02
geredet. Genau, so ist es.
0:32:02–0:32:07
Ich glaube schon, da wird irgendwann zur Not halt einfach eine EU sagen,
0:32:07–0:32:10
hey, stopp, und eben da die Schweiz doch irgendwie noch ein bisschen in der
0:32:10–0:32:14
EU ist, wir werden auch sagen, ja, ja, nein, stopp, so geht es nicht mehr.
0:32:14–0:32:18
Und eben, was du gesagt hast, irgendjemand knallt mal grausam rein.
0:32:19–0:32:21
Schade wäre es eigentlich, eben Apple, würde ich sagen, eben,
0:32:21–0:32:25
früher hast du glaube ich im Arbeitszeugnis gesagt, gibt es sich Mühe und jetzt
0:32:25–0:32:30
Apple muss sich Mühe geben, wenn jetzt einfach an denen halt mal ihre Server aufgemacht werden.
0:32:30–0:32:35
Das kann passieren, wenn es dann gerade die wären, wäre es ein bisschen tragisch.
0:32:35–0:32:40
Und vielleicht noch als Abschluss eine politische Aussage und eine politische Note,
0:32:40–0:32:44
ich glaube, wir müssen allein aus diesem Grund, ein bisschen Sorge zu haben
0:32:44–0:32:48
zur EU, weil man muss ja mit diesen Gesetzen nicht immer einverstanden sein,
0:32:49–0:32:54
aber es ist, glaube ich, wichtig, dass man jetzt ist irgendwie etwas kaputt
0:32:54–0:32:55
gegangen hier drin, keine Ahnung.
0:32:55–0:33:02
Also irgendwie das Studio spinnt auch, wahrscheinlich hat der Kai keinen KI installiert.
0:33:02–0:33:08
Also ich würde sagen, eben, die EU hält dagegen und das ist gut und wichtig
0:33:08–0:33:13
so und darum drücken wir allein nur schon wegen der EU-Toume,
0:33:13–0:33:14
oder? Findest du nicht auch?
0:33:14–0:33:17
In dieser Sache sicher, weil allein könnte man da, glaube ich,
0:33:17–0:33:24
hätte Herr Zuckerberg nicht so Interesse, wenn irgendwie Frau Amherd bei meinem,
0:33:24–0:33:26
wo sind es, Palau Facebook steht.
0:33:29–0:33:40
Music.
Wer gehofft hatte, die künstliche Intelligenz sei ein Hype, der so schnell wieder abflaut wie das Metaversum, das smarte Home oder die Wearables, der muss Mitte 2024 einsehen, einem Irrtum unterlegen zu sein. Kaum ein Unternehmen, das nicht eine abteilungsübergreifende Taskforce im Einsatz hat, die überlegt, wo und wie KI alles anders, besser und effizienter machen könnte – und kaum eine Arbeitnehmerin und ein Arbeitnehmer, der sich nicht fragt, wie gross die Gefahr ist, dass überstürzte Entscheide unabsehbare Folgen zeitigen werden.
Doch die Angst, ins Hintertreffen zu geraten (Schlagwort «Last to market») ist riesig; vor allem bei den Tech-Konzernen. Microsoft und Google haben KI-Produkte angekündigt und teils lanciert, die einen überhasteten und unausgegorenen Eindruck machen – und uns vermuten lassen, wie gross die Panik in manchen Chefetagen sein muss.
Nützt es da etwas, wenn wir ruhig Blut predigen und die Entwicklungen kühl analysieren? Vermutlich nicht, aber wir tun es trotzdem. Eine Auslegeordnung zu «AI Overview» von Google, Microsoft Recall, Meta AI und der Frage, wie das private KI-Training mit unseren öffentlichen Daten zu bewerten ist. Und wir kommen um die «Apple Intelligence» nicht herum: Ist Tim Cook die Stimme der Vernunft oder seinerseits einer, der sich vom KI-Fieber hat anstecken lassen? „Der KI-Irrsinn geht weiter“ weiterlesen
In zwei Wochen und einem Tag ist Schluss: Am 26. Juni wird der russische Betreiber ICQ endgültig den Stecker ziehen. Wem diese Abkürzung nichts sagt, der ist entweder jung – oder er oder sie hatte in den Nullerjahren Besseres zu tun, als die Zeit mit Instant-Messaging zu verbringen. ICQ steht für «I seek you» und für ein Programm, das zwar nicht das einzige seiner Art war, aber einen so legendären Status erreichte, dass manche User von damals auch heute noch die Nummer kennen, mit der sie sich eingeloggt haben.
Trotz akuter Nostalgie-Gefahr entbieten wir ICQ das letzte Geleit und zollen dieser massgeblichen Anwendung des jungen Internets unseren Respekt. Wir spannen den Bogen aber noch etwas weiter und erinnern uns an die vielseitigen Kommunikations-Möglichkeiten, die vor 25 Jahren entstanden sind. Es gab Chat-Anwendungen in diversen Ausprägungen: Nebst reinen Textkonversationen traf man sich in Gestalt eines Avatars in 3D-Umgebungen, was schliesslich in einer digitalen Welt (Second Life) gipfelte. Diese neuen Möglichkeiten haben damals für schlaflose Nächte gesorgt, sie waren in romantischen Belangen nicht unwichtig und dem Vernehmen nach soll damals irgendwann der Cybersex erfunden worden sein.
Das Ende kam mit den sozialen Medien. Und angesichts von Facebook, Instagram und Tiktok kommen wir um die Frage nicht herum, ob bei der digitalen Kommunikation früher nicht alles besser war. „Wie Social Media – nur besser!“ weiterlesen
Ich sitze bei Oliver Reichenstein und er ist Chef und Gründer von den Information Architects GmbH.
0:00:30–0:00:35
Und vor allem, glaube ich, kann man schon sagen, bist du einer oder vielleicht
0:00:35–0:00:39
sogar der einflussreichste App-Entwickler aus der Schweiz.
0:00:40–0:00:45
Ja, das kann ich jetzt so nicht sagen. Vielleicht einer der einflussreichsten
0:00:45–0:00:48
Produktivitäts-App-Entwickler.
0:00:48–0:00:49
Das wahrscheinlich schon, ja.
0:00:50–0:00:57
Ich beharre auf meiner Darstellung. Du hast die AI-Writer-App entwickelt,
0:00:57–0:01:05
die Markdown-App, die sich dadurch auszeichnet, dass sie sehr auf das Wesentliche reduziert ist.
0:01:05–0:01:08
Das ist so die Antithese zum Microsoft Word, kann man sagen,
0:01:08–0:01:13
zu diesen Softwareprodukten aus den 90er-Jahren, die so überladen waren.
0:01:14–0:01:17
Und da hast du einen Trend damit ausgelöst?
0:01:18–0:01:23
Ja, eigentlich nicht bewusst, aber man kann schon sagen, dass das wahrscheinlich
0:01:23–0:01:28
eine der früheren sogenannten minimalistischen Apps war, wie man es dann genannt hat.
0:01:28–0:01:31
Ich glaube, diesen Begriff hätte es dann schon gegeben, Minimalismus,
0:01:32–0:01:35
das hat mir nie gefallen, weil was wir machen, ist nicht minimalistisch,
0:01:35–0:01:39
so wie wir uns das vorgehalten haben in der Schule, wenn wir zu wenig gelernt haben.
0:01:39–0:01:45
Ja, faul. Nein, es ist nicht faul, sondern es ist eigentlich darum gegangen,
0:01:45–0:01:50
dass man sich auf die Essenz konzentriert, von dem, was die App macht.
0:01:50–0:01:54
In dem Sinne kann man vielleicht sagen, minimalistisch, aber ich fühle mich
0:01:54–0:01:55
heute noch nicht so ganz wohl.
0:01:55–0:01:59
Obwohl es jetzt sehr modern ist, minimalistisch zu leben, minimalistische Apps,
0:01:59–0:02:04
minimalistische Ferien, ich weiss auch nicht, was alles minimalistisch gemacht wird.
0:02:04–0:02:08
Und das ist aber heute auch ein bisschen mehr ein ästhetischer Begriff.
0:02:08–0:02:10
Man macht es, weil es so schön ist.
0:02:10–0:02:14
Ist es auch. Es ist ein nettes Beiprodukt davon, wenn man sich auf das Wesentliche
0:02:14–0:02:19
konzentriert, dass es dann auch ästhetisch wirkt. Aber es ist mehr ein Beiprodukt.
0:02:20–0:02:24
Ist jemals Steve Jobs zu dir gekommen und hat gesagt, es ist super,
0:02:24–0:02:31
eure App, die passt genauso zu unserer Strategie, die wir uns mit dem iPad ausgedacht haben.
0:02:31–0:02:36
So eine schöne Schreib-App, die zeigt, dass so ein Tablet nicht einfach nur
0:02:36–0:02:42
ein anderer Computer ist, sondern ein völlig neuer Ansatz.
0:02:44–0:02:49
Wir haben wirklich das Rad neu erfunden und ihr mit eurer Schreib-App seid ein
0:02:49–0:02:51
Speicher in diesem neuen Rad.
0:02:51–0:02:56
Nicht direkt Steve Jobs, aber Apple hat uns 2012 eingeladen,
0:02:56–0:03:01
als eine von zwölf Firmen, die sich in diesem Jahr auszeichnet haben,
0:03:02–0:03:05
wo man ein bisschen auf den Sprung helfen wollte und ein paar Geheimtipps gab.
0:03:05–0:03:11
Und developer manager
0:03:11–0:03:14
oder wie jetzt einmal geheißen hätte er hat uns
0:03:14–0:03:20
empfangen und hat uns so partizipation machen um nur folgericher ziehen wir
0:03:20–0:03:24
sind eine von denen ja am besten verkauft ist der naps gesehen am anfang im
0:03:24–0:03:31
app store und ich glaube unsere ab am anfang 19 dollar kostet oder so.
0:03:32–0:03:36
Und der Tipp von Apple war dann, man sollte sie für einen Dollar verkaufen. Oh, super Tipp.
0:03:36–0:03:40
Dann würden wir viel, viel mehr, viel, viel mehr verkaufen und so viel mehr,
0:03:41–0:03:44
dass wir auch noch viel mehr reinnehmen würden. Das war dann der Tipp.
0:03:45–0:03:48
Und es war sicher der schlechteste Geschäftstipp von allen Zeiten,
0:03:48–0:03:50
die wir uns je übergeben haben.
0:03:50–0:03:54
Und es hat dann Jahre gedauert, um wieder einigermassen auf ein Niveau zu kommen,
0:03:54–0:03:56
um etwas für diese App zu verlangen.
0:03:56–0:03:59
Weil wenn du einmal einen Franken verlangst... Ja, kannst du nicht mehr zurück.
0:03:59–0:03:59
...kannst du fast nicht mehr zurück.
0:04:01–0:04:06
Wie bist denn du überhaupt dazu gekommen, eine Software zu entwickeln?
0:04:06–0:04:13
Weil ich habe gelesen, eigentlich bist du ja von ganz niemand anders gekommen. Wie war dein Werdegang?
0:04:14–0:04:20
Ich habe Philosophie studiert in den 90er Jahren in Basel und in Paris.
0:04:20–0:04:23
Und das hat mir eigentlich immer sehr gut gefallen, bis am Schluss,
0:04:23–0:04:31
was mir ein bisschen zu monoton geworden ist und zu selbstreferenziell,
0:04:31–0:04:33
würde man so sagen, in diesem Sprachbereich.
0:04:34–0:04:38
Und ich habe dann irgendwie so das Bedürfnis bekommen, statt weiterzumachen
0:04:38–0:04:41
an der Uni, das ist wirklich etwas, was ich auch eine Zeit lang ins Auge gefasst
0:04:41–0:04:44
habe, weil es mir wirklich sehr gefallen hat in der Philosophie vor allem.
0:04:46–0:04:49
Habe ich gedacht, ich muss irgendetwas machen, wo ich nicht ständig probiere,
0:04:50–0:04:53
die Welt in meinen Kopf hineinzubringen, sondern meinen Kopf in die Welt.
0:04:53–0:04:57
Und so einen ganz genauen Plan hatte ich nicht,
0:04:57–0:05:04
aber ich war dort auch schon länger im Computerwesen unterwegs und um mein Studium
0:05:04–0:05:09
zu verdienen, habe ich Informatik und auch sonst so kleinere Lehrjobs gemacht,
0:05:09–0:05:12
unter anderem eben auch als Journalist gearbeitet, kurze Zeit.
0:05:13–0:05:18
Ich wurde dann auf einem Start-up in Zürich angestellt, ein Kollege von mir,
0:05:18–0:05:23
ein ehemaliger WG-Kumpel von mir war dort und hat mich dort eigentlich hergeholt.
0:05:24–0:05:31
Ich habe dort angefangen als Texter und bin dann Verkäufer geworden und Informationsarchitekt.
0:05:32–0:05:37
Als die Designerin in den Ferien war, habe ich geschaut, wie das mit Photoshop
0:05:37–0:05:38
geht und das hat mir sehr gut gefallen.
0:05:41–0:05:45
Und nach anderthalb Jahren habe ich ein Jobangebot bekommen,
0:05:46–0:05:51
wo mir ein Vielfaches angeboten wurde, von dem ich bei diesem Start-up verdient
0:05:51–0:05:52
habe und habe es angenommen.
0:05:52–0:05:56
Und dort bin ich dann in die Designer-Rolle hineingewachsen,
0:05:57–0:06:01
weil ich dort in der Mitte von Grafikdesignern war, in so einem klassischen
0:06:01–0:06:03
Branding-Unternehmen.
0:06:04–0:06:10
Und die haben dann irgendwie nicht so viel darüber gewusst, wie man Webseiten
0:06:10–0:06:15
macht, das habe ich dann schon besser gewusst, aber alles eigentlich selber beibringt.
0:06:15–0:06:22
Und nach vier Jahren dann bei Interbrand hier in Zürich, habe ich gedacht,
0:06:22–0:06:27
ich muss mal eine Pause machen und bin dann auf Japan.
0:06:29–0:06:33
Und dort habe ich dann wieder angefangen bei einer kleinen Start-up,
0:06:33–0:06:35
aber dann schon eigentlich.
0:06:37–0:06:42
Ziemlich offiziell Designer und es hat dann aber noch ein paar Jahre gebraucht,
0:06:42–0:06:44
bis ich mich dann getraut habe zu sagen, ich bin ein Designer.
0:06:45–0:06:48
Daran konnte ich dann aus dem Weg kommen, als ich selber eine Firma gegründet
0:06:48–0:06:53
habe, aber das hat dann gut 10 Jahre gedauert, bis ich mich getraut habe.
0:06:53–0:06:56
Und heute bist du Designer? Heute bin ich Designer, ja.
0:06:56–0:07:00
Aber die Philosophie ist immer noch eine alte, grosse Liebe von mir und ich
0:07:00–0:07:06
verbinde beides stark und jetzt, je mehr Graue und je weniger Haare, die ich bekomme.
0:07:07–0:07:11
Zuerst bekommt man Graue, dann keine. Ja, ich kenne das. Desto mehr zieht es
0:07:11–0:07:15
mich jetzt auch zurück in diese Welt. Ich habe jetzt auch schon ein paar Arten, die so,
0:07:16–0:07:21
zwischen ihnen wieder so ein bisschen aristotelische Zeug hat und lese wieder
0:07:21–0:07:27
die Metaphysik und probiere das, was ich erfahren habe, indem ich meinen Kopf
0:07:27–0:07:29
in die Welt gebracht habe, das probiere ich jetzt irgendwie wieder zurück in
0:07:29–0:07:30
den Kopf hineinzubringen.
0:07:30–0:07:33
Mehr Aristoteles als der Sokrates?
0:07:37–0:07:41
Theoretisch, ja, theoretisch, ja, aber natürlich der Wunsch wäre schon eher,
0:07:42–0:07:45
also der Superstar ist natürlich der Sokrates.
0:07:47–0:07:51
Karl Jaspers sagt, jeder hat so sein eigenes Sokrates-Bild und jeder meint,
0:07:51–0:07:55
das müsse ein Gesinn sein und das ist so eine Art, ja, das ist wirklich so ein Idol,
0:07:56–0:08:00
das kann man sehr stark vergleichen mit, wo wir jung gewesen sind und gefunden
0:08:00–0:08:04
haben, ich weiss nicht, die Peschmods sind die besten oder so,
0:08:04–0:08:08
also da ist man schon, die begeistert man nicht so recht los.
0:08:08–0:08:15
Wie sehr hat dich dann Japan beeinflusst bei deiner Gestaltungsarbeit? Auch sehr stark.
0:08:16–0:08:18
Ich war dort ein völlig unfertiger Designer.
0:08:19–0:08:21
Ich wusste erst langsam, wie wichtig
0:08:21–0:08:26
Typographie ist, dass sie zwischen Funktionalität und Schönheit ist.
0:08:27–0:08:35
Ich ging dann nach Japan, in einer Zeit, in der wir noch ziemlich ohne Handy unterwegs waren.
0:08:35–0:08:39
Das heisst, Japan hatte von uns schon einen Club, der sehr weit entwickelt war
0:08:39–0:08:41
im Vergleich zu unseren Wapp-Geräten.
0:08:41–0:08:47
Aber man konnte nicht einfach auf Google Maps schauen, wo das Restaurant ist
0:08:47–0:08:54
und dann dort hinlaufen, Node in Node, sondern man musste sich an einem komplizierten
0:08:54–0:08:55
Kartensystem orientieren.
0:08:57–0:09:02
Man musste Japanisch lernen und konnte nicht einfach Google Translate benutzen.
0:09:02–0:09:05
Das Wichtigste für mich als Designer war.
0:09:07–0:09:12
Neu geboren zu werden in einer Welt, in der man die verbale Sprache nicht versteht.
0:09:12–0:09:17
Ich konnte null Japanisch, ich konnte nichts lesen und ich musste lernen,
0:09:17–0:09:21
wie die Kultur funktioniert, anhand der reinen Beobachtung.
0:09:21–0:09:25
So ein bisschen wie wenn der Terminator aufgewachsen ist in der Vergangenheit
0:09:25–0:09:30
und dann so gegründet hat, aha, Mann, Frau, Maschine, Knopf drücken.
0:09:30–0:09:34
Zettel kommt raus, das geht zur Theke, ich glaube, das braucht man,
0:09:34–0:09:36
um diese superartige Substanz zu bekommen.
0:09:36–0:09:45
Und die Beobachtung der physischen Interaktion, das war ein wunderbares Training
0:09:45–0:09:48
für mich als Interaktionsdesigner.
0:09:48–0:09:52
Ich habe bis zu diesem Zeitpunkt immer nur darauf geschaut, was passiert am
0:09:52–0:09:56
Bildschirm, was könnte einer denken auf der anderen Seite des Bildschirms.
0:09:56–0:10:00
Man stellt sich das immer so vor wie einen magischen Spiegel als Interaktionsdesigner,
0:10:00–0:10:03
als ob die Nutzer auf der anderen Seite sitzen würden.
0:10:03–0:10:06
Und dort in Japan habe ich gesehen, man muss schauen, was die Leute tatsächlich
0:10:06–0:10:12
auch mit den Händen machen, mit dem Körper, wie weit sie vom Bildschirm weg sitzen.
0:10:12–0:10:15
Anhand davon kann man sich viel besser ausrechnen, wie gross die Schrift sein
0:10:15–0:10:20
sollte, als wenn man hier irgendwie Bücher liest über Typografien,
0:10:20–0:10:23
die gemacht worden sind in der Zeit des Druckdesigns.
0:10:23–0:10:26
Also die erfahrung in japan überhaupt keine verbale
0:10:26–0:10:29
sprache zu können und und das
0:10:29–0:10:35
studium vor der physischen interaktion in der in der realen welt das hat mir
0:10:35–0:10:41
extrem stark geformt und hat auch die ganze grundlage den boten zu dem was mir
0:10:41–0:10:44
machen will ich mache das jetzt auch immer ich probiere immer zu lügen aus dem
0:10:44–0:10:48
rahmen ausbrechen was macht gerade nur mit mit mit
0:10:48–0:10:53
Augen und Fingern, wenn es eine Maus oder ein Tab-Device ist.
0:10:54–0:10:59
Und schaue, wie sitzen die Leute mit diesen Geräten, wo sitzen sie und wie verhalten sie sich.
0:10:59–0:11:05
Wie viele Sekunden dauert es zum Beispiel, ein paar Wörter bald zu machen,
0:11:05–0:11:11
wenn man eine Maus hat, im Vergleich dazu, wenn man Markdown tippen kann.
0:11:11–0:11:15
Genau. Das misst man dann und dann findet man heraus, wow, da passieren so viele
0:11:15–0:11:18
Sachen. Man muss die Maus zerschütteln, bis man den Zeiger findet.
0:11:19–0:11:24
Man muss mit dem Zeiger den Anfangspunkt finden, den Endpunkt finden und dann
0:11:24–0:11:29
muss man mit dem Zeiger zum Bold-Button gehen und dann genau draufklicken.
0:11:29–0:11:32
Genau in dieser überlappenden Word-Symbol-Liste.
0:11:32–0:11:37
Und dann merkt man, wow, wenn die Leute zwar denken, es ist ganz einfach,
0:11:37–0:11:40
etwas bold zu markieren mit einem sogenannten Visivik,
0:11:41–0:11:45
dann vergessen die komplett viele Schritte und die viele Zeit,
0:11:45–0:11:48
die vergeht, wenn sie etwas so Einfaches machen wie bold markieren.
0:11:48–0:11:53
Und wenn man sich darauf schult, zu schauen, wie sich jemand physisch verhält,
0:11:53–0:11:56
Ich denke, man kann die Interaktion viel besser designen.
0:11:57–0:12:01
Du bist jemand, der genau hinschaut. Das haben wir, glaube ich,
0:12:01–0:12:05
jetzt schon gemerkt. Und genau hinschauen tust du auch bei der KI.
0:12:06–0:12:11
Über die möchten wir jetzt sprechen. Speziell auch über die computergenerierten
0:12:11–0:12:17
Bilder, die seit Herbst 2022 zum ersten Mal auftauchten.
0:12:17–0:12:24
Was war dein erster spontaner Gedanke, als du zum ersten Mal so ein Bild gesehen
0:12:24–0:12:27
hast, das einen K.I. gemacht hat. Weisst du das noch?
0:12:28–0:12:34
Ja, das war so etwas wie zwischen «Wow, diese hohe Auflösung» und.
0:12:35–0:12:47
Das sieht cool aus, aber auch gemischt mit Fantasy-Alben aus den 80er-Jahren.
0:12:47–0:12:53
Asia, wo Helden auf Dinosaurier in einen Sonnenuntergang reiten.
0:12:53–0:13:04
Andere Sachen erinnern mich an FX-Twin, die mir Ende Jahr künstlerisch extrem eingefahren sind.
0:13:04–0:13:09
Und man fragt sich dann so ist das jetzt kitsch oder kunst oder ist das vielleicht
0:13:09–0:13:13
sind das vielleicht bilder von
0:13:13–0:13:18
schizophrenen was ist da genau los ich bin beeindruckt und gleichzeitig,
0:13:18–0:13:26
aber auch von anfang an wie es gefühlt irgendwie kenne ich da viel mehr als
0:13:26–0:13:30
als als die der schock Ich hatte das Glück,
0:13:30–0:13:33
als ich das erste Mal Chachibiti gebraucht habe, dass ich mir gedacht habe, das kann nicht sein.
0:13:35–0:13:39
Ich hatte bei den Bildern schon sehr schnell Zweifel. Das hat glaube ich damit
0:13:39–0:13:42
zu tun, dass unser Auge viel geschulter ist.
0:13:43–0:13:46
Wenn man selber noch Gestalter ist, dann sieht man sehr viel schneller,
0:13:47–0:13:49
dass hier etwas falsch läuft.
0:13:49–0:13:52
Also du hast dich nicht sofort als Bedrohung wahrgenommen und gefunden,
0:13:52–0:13:57
jetzt ist mein Job, in fünf Jahren kann ich noch einen Nagel hängen,
0:13:57–0:13:59
weil dann macht die Software meine Arbeit.
0:13:59–0:14:06
Das ist eigentlich in keinem Fall je etwas gewesen, das mich beschäftigt hat,
0:14:06–0:14:08
Angst, dass ich ersetzt werden könnte.
0:14:09–0:14:16
In meinem Beruf ist das Denken so essenziell und ist die Aufgabe so schwierig,
0:14:16–0:14:21
dass jedes Werkzeug, das man vereinfacht, willkommen ist. Sofort.
0:14:21–0:14:28
Und ich sehe auch die anderen Gestaltungsberufe so, Wenn ich jetzt Musiker wäre
0:14:28–0:14:32
oder Schriftsteller oder Journalist,
0:14:32–0:14:39
dann würde ich mich persönlich nicht infrage gestellt fühlen durch das.
0:14:40–0:14:47
Aber natürlich mache ich mir Sorgen wegen Desinformation oder dass ich jetzt
0:14:47–0:14:51
den ganzen Tag noch viel mehr Müll lesen muss. oder dass ich noch mehr E-Mails
0:14:51–0:14:53
bekomme, wo nichts drinsteht.
0:14:53–0:14:58
Oder dass ich noch mehr Powerpoints durchklicken muss, wo niemand etwas gedacht hat.
0:14:58–0:15:01
Das war mehr meine Sorge. Ich habe gesehen, dass das gebraucht werden kann,
0:15:01–0:15:04
um noch viel mehr Müll zu produzieren.
0:15:04–0:15:09
Und sehr schnell, sowohl bei ChatGPT, wie auch bei der Künstlichen Intelligenz,
0:15:09–0:15:14
war meine erste Sorge dann, meine Güte, jetzt wird es noch viel schwieriger,
0:15:14–0:15:17
etwas zu finden, wo es wert ist, Zeit damit zu verbringen.
0:15:20–0:15:22
Erstaunlicherweise, hast du festgestellt,
0:15:22–0:15:26
gab es wahnsinnig schnell eine Übersättigung mit diesen Bildern.
0:15:26–0:15:31
Du hast gesagt, AI-Art ist ein New Stock Image,
0:15:31–0:15:34
also das sind so die neuen Bilder ab Stangen, kann man sagen,
0:15:34–0:15:39
so die Gebrauchsbilder, sage ich manchmal auch, die man gratis oder für ganz
0:15:39–0:15:45
wenig Geld haben kann, wenn ich in meinem Blog einen Beitrag illustrieren muss
0:15:45–0:15:47
und kennen kann, anstellen, der mir das richtig macht.
0:15:47–0:15:52
Und ist das eine Entwertung, die da stattgefunden hat?
0:15:52–0:15:55
Oder zuerst einmal gefragt, warum meinst du, ist das so schnell gegangen,
0:15:55–0:16:03
dass das zu so einem Gebrauchs- oder fast ein Verschleiss-Gegenstand geworden ist, die KI-Bilder?
0:16:03–0:16:10
Es ist noch interessant, dass das eigentlich schneller gegangen ist, als, wie soll ich sagen,
0:16:11–0:16:15
das Mediatraining von Leuten, wenn man ihnen beibringt, was der Unterschied
0:16:15–0:16:25
ist zwischen einem natürlichen, privaten, professionellen Foto und eben diesen Stock-Images.
0:16:25–0:16:26
Wie sagt man das auf Deutsch eigentlich?
0:16:27–0:16:30
Ich glaube, man sagt Stock-Images.
0:16:31–0:16:35
Bilddatenbank. Die Bilddatenbanken, weil das ist ja etwas, da musst du schon
0:16:35–0:16:37
ein bisschen geschult sein, nicht gerade.
0:16:39–0:16:42
Nicht super trainiert, aber vielen Leuten ist weder bewusst,
0:16:42–0:16:47
wie photoshoppt alle Bilder sind, noch, dass auch sehr viele Bilder,
0:16:47–0:16:50
die in der Werbung gebraucht werden, einfach Bilder abgestanden sind,
0:16:50–0:16:54
die auf der ganzen Welt für die verschiedenen Sachen gebraucht werden.
0:16:54–0:17:01
Vielleicht ist das heute ein bisschen bekannter, aber bei diesen AI-Geschichten
0:17:01–0:17:06
ist das viel schneller gegangen. Ich habe das Gefühl, ich kann das nicht 100%
0:17:06–0:17:09
beurteilen, ich habe keine Studien und ich bin nicht auf die Strasse die Leute gefragt.
0:17:09–0:17:15
Aber mein Eindruck ist jetzt, aus meinen Erwartungen, dass ich das sofort sehe.
0:17:16–0:17:22
Während bei einem mehr oder weniger guten Bild ab Stangen, braucht es doch noch
0:17:22–0:17:25
so eine halbe Sekunde, bis ich es realisiere.
0:17:25–0:17:30
Oder manchmal eine Zehntelsekunde. Aber es gibt eine Verzögerung bei diesen
0:17:30–0:17:32
AI-Bildern. Man macht es und sieht es.
0:17:32–0:17:37
Und man sieht das Bild gar nicht mehr, weil man schon erkennt, was es ist.
0:17:37–0:17:40
Man schaut gar nicht mehr darauf, was eigentlich drin ist.
0:17:41–0:17:46
Wenn man denkt, der hat AI mit Journey gebraucht.
0:17:46–0:17:52
Ich muss mich nicht beschäftigen, was genau der Prompt war. Denn das ist die Aufgabe.
0:17:53–0:17:56
Man schaut sich das AI-Bild an und fragt sich nicht, was ist da drauf?
0:17:56–0:17:59
Was will mir das sagen? Sondern man fragt sich, was war eigentlich der Prompt?
0:18:00–0:18:04
Aha, okay, der Prompt ist jetzt irgendwie ein Nazi in der Küche,
0:18:04–0:18:08
weil es ist irgendwie ein blonder Mensch, der da irgendwie mit einem...
0:18:08–0:18:11
Du spielst auf ein Bild an, das ich in meinem Blog gebraucht habe.
0:18:11–0:18:14
Genau, genau. Du enttäuschst mich ja immer, oder? Weil ich eigentlich wüsste,
0:18:15–0:18:17
es ist eigentlich besser und trotzdem brauchst du diese Sachen.
0:18:18–0:18:23
Und das enttäuscht mich, weil ich dann immer so denke, ja, wenn die Leute das
0:18:23–0:18:27
jetzt sehen, dann denke ich, Der braucht nicht nur so billige Tricks,
0:18:27–0:18:30
um die Bilder zu machen, weil er keine Zeit mehr hat, um etwas zu machen.
0:18:31–0:18:35
Sondern er braucht auch sonst so billige Tricks. Das sind alles billige Tricks.
0:18:35–0:18:41
Das entwertet die harte Arbeit, die du in den Text hineinsteckst,
0:18:41–0:18:46
weil der Text so angezogen wird.
0:18:47–0:18:53
Du kommst in ein paar billige Schlappen und hast vielleicht stundenlang trainiert
0:18:53–0:18:57
für dein Gitarren-Solo, aber niemand glaubt mehr daran.
0:18:58–0:19:01
Gut, eine billige Schlappe würde jetzt passen zu einem Gitarren-Solo,
0:19:01–0:19:03
das ist nicht das beste Beispiel.
0:19:03–0:19:07
Aber es ist einfach falsch angezogen und es schreckt einen ab,
0:19:07–0:19:10
weil man denkt, der gibt sich nicht wirklich mit, der macht einfach etwas.
0:19:10–0:19:14
Du würdest also sagen, dass wenn man so Bilder braucht, das ist jetzt schon
0:19:14–0:19:19
ein Reputationsrisiko, dass man auch vielleicht eben, auch wenn es nur so als
0:19:19–0:19:24
Beigemüse gedacht war, schon den eigentlichen Inhalt entwerten könnte?
0:19:24–0:19:28
Ich finde es schlimmer als Stockimages, weil bei Stockimages weisst du,
0:19:28–0:19:33
auch wenn du es erkennst, weisst du, aha, der hätte jetzt aber recht müssen
0:19:33–0:19:37
suchen, bis er das gefunden hat, wenn es ein gutes Stockimage ist. Ja, das ist Arbeit, ja.
0:19:38–0:19:41
Das ist jetzt auch die Deformation professionell wahrscheinlich,
0:19:41–0:19:44
aber wenn ich ein gutes Stock-Image sehe, dann finde ich, das ist ein gutes
0:19:44–0:19:48
Stock-Image, ich habe nicht gewusst, dass so etwas erhältlich ist.
0:19:49–0:19:53
Es gibt ja die besseren und die schlechteren Orte für Stock-Images,
0:19:53–0:19:57
aber man braucht immer Zeit und man muss sich wirklich Gedanken machen.
0:19:57–0:20:05
Passt das, passt das in die Ästhetik meiner Webseite.
0:20:05–0:20:10
Man muss es sich auch leisten können. Wenn jetzt jemand auf einem Blog ein gutes
0:20:10–0:20:14
Stockbild hat, dann weiss man, der hat sich jetzt aber Mühe gemacht. Das lese ich jetzt.
0:20:15–0:20:17
Wenigstens bei der Auswahl der Mühe. Und es ist ja auch noch schön.
0:20:18–0:20:25
Ich finde inzwischen Stockimages viel, viel, wie soll ich sagen,
0:20:26–0:20:33
Die Wertenartikel, wenn sie gut ausgewählt sind, können auch einen Artikel aufwerten.
0:20:33–0:20:37
Aber bei AI Images spielt es eigentlich fast keine Rolle mehr,
0:20:37–0:20:38
ausser man sieht es nicht.
0:20:38–0:20:43
Es gibt ja dann die Künstler, die Prompt Engineers, die sagen,
0:20:43–0:20:47
das ist McDonalds, was ich mache ist wieder der Wiener Schild.
0:20:47–0:20:53
Weil ich mache die Prompts, die sind so raffiniert und durchgedacht und es braucht
0:20:53–0:20:54
so viel Zeit, bis ich das mache.
0:20:55–0:20:58
Ich weiss jetzt nicht, ob es auch wirklich die sind, die mit dem Video gehen,
0:20:58–0:21:03
aber es gibt schon auch so ein paar AI-generierte Bilder, wo man es tatsächlich
0:21:03–0:21:06
nicht sofort sieht, sondern man muss schauen.
0:21:08–0:21:12
Und wenn die wirklich gut sind, es sind meistens auch noch Photoshopte und so,
0:21:12–0:21:15
aber wenn die wirklich gut sind, dann sagen die auch etwas aus.
0:21:16–0:21:19
Das heisst, der Punkt ist nicht so sehr, was für ein Tool man braucht,
0:21:19–0:21:24
ob man in eine Stock-Image-Gallery geht oder einen Photoshop braucht,
0:21:24–0:21:28
sondern was wirklich zählt ist, dass man, wenn man das Bild anschaut,
0:21:28–0:21:34
dass man merkt, aha, da hat einer sich etwas überlegt, da hat einer sich mitgeteilt
0:21:34–0:21:37
und eine bestimmte Idee gehabt, die jetzt mir vermittelt wird.
0:21:37–0:21:43
Das heisst, ich werde nicht entladen, wenn ich das anschaue oder lese,
0:21:43–0:21:44
sondern ich werde aufgeladen.
0:21:44–0:21:51
Und das fehlt ja häufig diesen nachlässigen KI-Geschichten, wenn man das Gefühl
0:21:51–0:21:56
hat, man ist wie eine Batterie und wird so ausgesogen.
0:21:56–0:22:01
Sie wirken so seelenlos, das dunke mich auch, und so wie ein Succubus,
0:22:01–0:22:06
der seine Menschlichkeit ein bisschen wegnimmt, das ist...
0:22:06–0:22:16
Das ist ein mystisches Wesen, eine Art Traumdämon, der dir in der Nacht kommt
0:22:16–0:22:21
und dir das Leben aussaugt. Ah, okay, gut.
0:22:21–0:22:25
Wie man sich das vorstellt, latinisch, das suckt einem. Ja, genau.
0:22:25–0:22:31
Ja, so kommt es einem vor. Ich habe das Gefühl, wir haben vorhin schon mal darüber
0:22:31–0:22:37
geredet, dass es wie ist, wenn man das Gefühl hat, man wird so angeschlossen und wird so Batterie,
0:22:37–0:22:41
weil der Sinn, der in diesem Text ist, der wird aus mir rausgezogen.
0:22:41–0:22:47
Und der ist nicht von jemand anderem da geworden. Es ist tatsächlich,
0:22:47–0:22:52
man hat den Eindruck, dass man nicht aufgeladen wird mit Energie,
0:22:52–0:22:55
wenn man einen guten Text liest, sondern es umgekehrt passiert.
0:22:55–0:23:00
Und diese Sachen finden alle auf einer sehr emotionalen Ebene statt.
0:23:00–0:23:06
Ich glaube, wenn jemand die Erfahrung hat mit Musik machen oder mit Schreiben,
0:23:06–0:23:09
dann wird die Person das auch in diesem Feld sehen.
0:23:09–0:23:13
Wenn jemand mehr visuell trainiert ist, dann entsteht der Eindruck sofort.
0:23:13–0:23:19
Ich wehre mich sofort, wenn ich nur einen Augenwinkel sehe, das ist ein KI-Bild.
0:23:19–0:23:21
Also bist du übergriffig?
0:23:21–0:23:22
Es entzieht mir Energie.
0:23:23–0:23:27
Das ist heute sehr esoterisch, aber das passiert wirklich automatisch.
0:23:27–0:23:30
Wenn ich bei LinkedIn durchscrolle, sehe ich keinen.
0:23:31–0:23:34
Ich will jetzt nicht noch meine Zeit verschwenden und dem Sinn gehen.
0:23:35–0:23:41
Das ist meine Haltung. Ob das esoterisch ist oder übertrieben, das ist aber so.
0:23:42–0:23:45
Würdest du so ein Bild überhaupt nicht einsetzen oder findest du,
0:23:46–0:23:48
es könnte Situationen geben?
0:23:48–0:23:51
Und wenn es nur ist, um deine Blogposts zu illustrieren, die du schreibst.
0:23:52–0:23:56
Ich habe das jetzt eben gemacht, zweimal. Einmal habe ich mit Photoshop irgendwie
0:23:56–0:23:57
drei Monate nebeneinander gemacht.
0:23:57–0:24:03
Das sieht dann aus wie KI, wo es darum ging, wie man Bilder auswählen kann, ganz allgemein.
0:24:04–0:24:10
Einmal habe ich, äh, was war das für ein Zusammenhang? Da habe ich über KI und
0:24:10–0:24:14
Bilder geschrieben und tatsächlich auch so KI-Bilder. Ah ja, genau.
0:24:15–0:24:19
Was sind so die Merkmale von KI-Bildern? Und ich habe verschiedene KI-Bilder
0:24:19–0:24:24
ausgewählt und im Blog illustriert, was die Merkmale sind.
0:24:24–0:24:29
Der FX-Twin, die Pulp-Fiction-Cover, all die verschiedenen Typen von KI,
0:24:29–0:24:31
die so typisch sind. Neon-Kitsch.
0:24:32–0:24:39
Obwohl diese illustrativ waren, hatte ich trotzdem den gleichen Eindruck.
0:24:39–0:24:46
Ich konnte gar nicht darum kommen, KI-Bilder zu verwenden. Ich musste zeigen, was illustrativ ist.
0:24:46–0:24:51
Aber die sind für mich schon so stark beleidigt, also succulus,
0:24:52–0:24:54
succuli. Succubus. Succubi.
0:24:54–0:24:59
Wahrscheinlich Succubi. Succubus vielleicht, wer weiss. Der Latte ist schon lange her.
0:25:00–0:25:03
Dass mich sogar das gestört hat.
0:25:05–0:25:11
Ich würde sogar so weit gehen, dass Sachen, die ausgesehen sind,
0:25:11–0:25:15
wie die drei Möhren nebeneinander zu photoshoppen, auch das würde ich schon
0:25:15–0:25:18
vermeiden, weil auf das auch schon der Eindruck entsteht.
0:25:18–0:25:23
Das heisst, es wird ein Geschäftsmodell für Künstler nicht ausgesehen, wie eine KI.
0:25:25–0:25:28
Da bin ich völlig davon überzeugt, was ich sehe. Was ich sehe,
0:25:28–0:25:32
ist plötzlich, dass wenn mir Leute E-Mails schreiben und es hat Tippfehler drin,
0:25:32–0:25:35
dann bin ich beruhigt, weil ich weiss, das hat ein Mensch geschrieben.
0:25:36–0:25:42
Wenn ich einen Text lese und der ist so rhythmisch, expressionistisch,
0:25:42–0:25:48
wo du denkst, wer ordnet noch schon Wörter so an, dass ich denke,
0:25:48–0:25:49
ah, das war ein Mensch, oder?
0:25:50–0:25:53
Weil K.I. tut das immer so glatt.
0:25:53–0:25:57
So ein Marketing-Mensch, es klingt immer, als ob es ein Marketing-Mensch irgendeinem
0:25:57–0:25:58
Unternehmen geschrieben hat.
0:25:58–0:26:04
Das ist charmant heute, oder? Vielleicht sind wegen dem jetzt auch wieder so
0:26:04–0:26:10
alte Digitalkameras modern, das Fehlerhafte und das Kaputte.
0:26:10–0:26:14
Aber ich hoffe nicht, dass wir jetzt zurück zu dieser Punk-Ästhetik gehen,
0:26:14–0:26:18
weil das ist dann auch diese Fake-Wild.
0:26:18–0:26:21
Ich glaube, es wird sicher einen Gegentrend geben, da bin ich fast sicher.
0:26:21–0:26:26
Aber jetzt haben wir eigentlich einen negativen Teil entdeckt,
0:26:26–0:26:31
eine negative Botschaft. Die KIs sind nicht die illustrative Wunderwaffe für
0:26:31–0:26:33
Leute, die kein Geld haben oder geizig sind.
0:26:34–0:26:40
Sondern sie sind vielleicht unter gewissen Umständen einsetzbar,
0:26:40–0:26:44
aber vielleicht vor allem kann man sie gut zur Inspiration nutzen.
0:26:44–0:26:46
Ich glaube, das geht wahrscheinlich schon.
0:26:47–0:26:51
Und das würde ich als sehr positive Botschaft nehmen.
0:26:53–0:26:59
Schärfen unseren Blick und unser Sensorium für was KI ist und was echt ist.
0:26:59–0:27:05
Das ist sowieso etwas extrem Wichtiges und eine Eigenschaft und eine Fähigkeit,
0:27:05–0:27:12
die zwingend ist für alle, die uns noch zehn Jahre durch das Berufsleben schlagen müssen.
0:27:12–0:27:19
Ja, für mich ist die Erfahrung im Umgang mit KI so schockierend, wie es zuerst war.
0:27:19–0:27:23
Vor allem im Umgang mit Texten war es für mich sehr schockierend,
0:27:23–0:27:30
dass ich Chachi zur Hilfe nehmen kann und die Metaphysik lese,
0:27:30–0:27:33
in gewissen Stellen, wo wir nicht klar sind.
0:27:33–0:27:41
Und dann Dinge sagen kann, an welchen anderen Stellen wird über Usia im gleichen
0:27:41–0:27:42
Zusammenhang geschrieben.
0:27:42–0:27:47
Und das weiss das einfach. Und es stimmt häufig dann auch noch.
0:27:47–0:27:49
Das hat mich schon sehr schockiert.
0:27:49–0:27:54
Aber was ich eine gute Entwicklung finde in dem Ganzen, ist,
0:27:54–0:27:59
dass wir uns fragen müssen, was macht uns aus als Menschen?
0:27:59–0:28:03
Was kann man nicht mit Kai machen und warum?
0:28:05–0:28:12
Und dass es unseren Sinn schärft, dass es uns auch den Wert zeigt von der fehlenden
0:28:12–0:28:15
Perfektion in unserem Ausdruck,
0:28:16–0:28:23
dass es uns den Wert aufzeigt, wo die Emotion spielt im Umgang mit anderen Menschen.
0:28:24–0:28:26
Das vergisst man ja, weil man immer über die Kommunikation redet,
0:28:26–0:28:31
ob es so neutrale Container wären, die man hin und her schickt oder so Signale.
0:28:32–0:28:36
Aber der Umgang mit Kai hat mir sehr deutlich gemacht, dass die Kommunikation
0:28:36–0:28:38
im Bauch anfängt, im Bauch aufhört.
0:28:38–0:28:45
Und ich würde behaupten, dass der Effekt bei Leuten, die die KI kreativ verwenden,
0:28:45–0:28:49
das ist tatsächlich möglich, mit viel Vorsicht und Vorbehalt.
0:28:49–0:28:52
Ich denke nicht, dass es gut ist für die Inspiration, sondern eher,
0:28:52–0:28:55
dass es einem zeigt, was man nicht machen soll.
0:28:56–0:29:00
So geht es mir immer, wenn ich sage, wie formuliere ich das?
0:29:00–0:29:03
Und dann macht es immer alles so, wie es nicht sein soll. Und dann rege ich
0:29:03–0:29:07
mich auf und in dieser Aufregung kommt dann das aus, was ich vorher nicht sagen konnte.
0:29:07–0:29:13
Also quasi, es ist so wie ein Advocatus Diaboli, so funktioniert es sehr gut
0:29:13–0:29:18
und ich würde sagen, das Bild oder das historische Ereignis,
0:29:18–0:29:20
das das ein bisschen spiegelt für mich,
0:29:20–0:29:25
ist der Zeitpunkt, wo die Fotokameras aufkommen sind, im 19.
0:29:26–0:29:29
Jahrhundert. und sich künstler plötzlich haben sie
0:29:29–0:29:32
gefragt du warum wollen wir jetzt um was gott eigentlich
0:29:32–0:29:35
also die ganze impressionistische bewegung aus
0:29:35–0:29:37
der fotografie usern entstanden ist und man sagt
0:29:37–0:29:43
es wesentlich an der an der moderei ist nicht so sehr dass man noch mal natur
0:29:43–0:29:48
abbildet das bringt ja gar nicht natur selber ist ja eigentlich immer immer
0:29:48–0:29:52
perfekter das bild sondern das wesentlich ist dass mir unseren eindruck zum
0:29:52–0:29:56
ausdruck bringen und jetzt gehen wir mal stärker in die richtung Also ich kann mir vorstellen,
0:29:56–0:30:02
dass das in einer ähnlichen Art und Weise wie die Fotografie,
0:30:02–0:30:04
die Kunst, wie wir sie heute verstehen,
0:30:05–0:30:10
heute verstehen, wer weiss, was heute die richtigen Künstlermenschen so tragen,
0:30:10–0:30:15
das ist immer ein Rätsel, aber Kunst wie so ein konservativer Mensch.
0:30:16–0:30:26
Kunstverstotzen zwischen Manet und Egon Schiele bis Picasso und Rodko vielleicht.
0:30:27–0:30:34
Und dann hört es mal gleich auf. Also die Molerei, die grosse klassische Molerei von 20. Jahrhundert.
0:30:34–0:30:42
Was dort passiert ist, dass die Cezannes und Van Goghs entstanden sind aus der
0:30:42–0:30:45
Gegenbewegung gegenüber der Fotografie,
0:30:45–0:30:48
wenn man sich vorstellt, dass so etwas passieren könnte, im Design,
0:30:49–0:30:55
in der Schriftstellerei, in Videomusik und überall dort,
0:30:56–0:31:03
dass man tatsächlich auch die Imperfektion vom Menschlichen wahrnimmt und schätzt
0:31:03–0:31:05
und mit der schafft, ohne dass man nachlässig wird.
0:31:06–0:31:09
Darum habe ich gesagt, ich brauche nicht noch so eine Punk-Revival.
0:31:09–0:31:13
Bräuchte. Das haben wir vor allem im Design-Job schon genug gesehen.
0:31:13–0:31:16
Irgendeine Schlamperei, das ist nicht das, was ich mir erhoffe,
0:31:16–0:31:23
sondern genau das Gegenteil, dass man sehr viel feinsinniger und sehr viel aufmerksamer
0:31:23–0:31:26
wird im Austausch von Informationen.
0:31:26–0:31:28
Das würde ich mir eigentlich wünschen und das kann ich mir vorstellen.
0:31:30–0:31:36
Oliver Reichenstein, ganz herzlichen Dank für den doch noch sehr optimistischen Schluss.
0:31:36–0:31:38
Ja, danke schön auch für das Interview.
0:31:41–0:31:45
An dieser Stelle war ich fertig mit meinen Fragen und hatte das Gefühl,
0:31:46–0:31:48
dass diese Sendung an einem schönen Ende ankam.
0:31:49–0:31:54
Aber Oliver wollte noch etwas sagen und dann haben wir noch ein bisschen weiter gesprochen.
0:31:54–0:31:58
Und für einmal hat die Sendung, wie kürzlich ein Hörer gewünscht hat,
0:31:59–0:32:04
dann eine wunderbare, schöne Postshow überkommen. Und die gehört ihr jetzt.
0:32:04–0:32:07
Oder sag das noch schnell. Okay.
0:32:07–0:32:11
Falls du es gerade noch auf die Reihe bringst. Ja, ja, klar.
0:32:15–0:32:21
Es wird jetzt viel darüber geredet, dass wir ja eben so eine Angst haben,
0:32:21–0:32:24
jetzt den beruf zu verlieren vor allem wenn
0:32:24–0:32:29
man kreativ ist designer musiker illustratoren
0:32:29–0:32:32
filme machen die bruchte zahlen immer mehr
0:32:32–0:32:41
als kai und da können wir schön geld sparen oder und was mit was mit ruhig macht
0:32:41–0:32:48
an dem ganzen ist mir sind ja nie gesehen wo so die in dem prozess mit kein
0:32:48–0:32:50
Kein Unternehmen ist bankrott gegangen,
0:32:50–0:32:59
weil sie einem Künstler ein paar Franken für eine Illustration bezahlen mussten.
0:32:59–0:33:01
Das waren nie diese teuren Leute.
0:33:01–0:33:04
Wenn Unternehmen sparen wollten,
0:33:04–0:33:09
dann müssten sie im mittleren bis oberen Management Avokadien brauchen.
0:33:11–0:33:14
Das ist jetzt nicht traurig, sondern das ist eigentlich noch sehr aufregend.
0:33:14–0:33:20
Im guten wie im schlechten Sinne, weil in dieser Ebene könnte man Kai wunderbar brauchen.
0:33:20–0:33:26
Die Leute, die die langweiligen, off-the-shelf PowerPoint-Präsentationen halten,
0:33:26–0:33:32
die nichtssagenden Meetings, eins nach dem anderen, wo immer die gleichen Parolen
0:33:32–0:33:36
aus dem amerikanischen, in ein amerikanisches Deutsch,
0:33:36–0:33:41
in ein Englisch übersetzt werden, wo nie etwas gesagt wird, was jedes Risiko
0:33:41–0:33:44
vermeiden will, wo einfach irgendeine Soße gekocht wird,
0:33:44–0:33:48
die gleich ist in 10 Jahren, wo immer so ein bisschen sich ändert über die Zeit,
0:33:48–0:33:52
je nachdem, was für Schlagwörter das gerade in sind. Das könnte KI perfekt.
0:33:52–0:33:57
Und wenn KI dort würde eingesetzt werden, so in diesem mittleren bis oberen
0:33:57–0:34:01
Management, da können wir extrem viel Geld sparen.
0:34:01–0:34:04
Das wünschte ich mir eigentlich, dass wenn man sagt, okay, wir halten daran
0:34:04–0:34:07
fest, dass wir jetzt die nichtssagenden E-Mails austauschen,
0:34:07–0:34:14
die unnützen Meetings abhalten und die Powerpoint-Präsentationen rumschicken und nichts drinsteht.
0:34:14–0:34:17
Dass man sagt, man hält daran fest, das braucht es aus irgendeinem Grund.
0:34:17–0:34:20
Ich weiss ja nicht, ich bin ja kein Manager. Eine richtige, so eine grosse.
0:34:21–0:34:25
Wenn es jetzt das wirklich braucht, ich habe meine Zwiebel, ob das wirklich
0:34:25–0:34:29
so ist, aber wenn es wirklich das unbedingt brauchen würde, dann könnte man
0:34:29–0:34:34
Millionen sparen, wenn man KI einsetzen würde auf dieser Ebene.
0:34:35–0:34:39
Ich denke, wenn man durch die Einsparung, anstatt dass man sie die dann in den
0:34:39–0:34:43
Sack steckt oder mit Dividenden auszahlt, braucht es ja nicht noch mehr von
0:34:43–0:34:50
denen, dass man die vielleicht in die kreativen Brühe investiert.
0:34:50–0:34:56
Die Brühe, wo ja tatsächlich Produkte formen, zu dem machen,
0:34:56–0:35:00
wo sie sind, dann kann ich mir vorstellen, dass die Welt durch die KI sogar,
0:35:01–0:35:03
das sage ich jetzt nicht ganz ohne Zynismus, weil ich weiss,
0:35:03–0:35:06
wie nicht passieren, aber da kann ich mir vorstellen, dass die Welt ein bisschen
0:35:06–0:35:12
besserer würde werden, Wenn man sich mehr überlegen würde, wie man die ganzen
0:35:12–0:35:14
Sachen formt, die uns um uns herum sind.
0:35:14–0:35:21
Das ist ja das Ding, um uns herum ist, wenn man sich umschaut, alles ist designt.
0:35:21–0:35:24
Und irgendwie ist das meiste einfach ziemlich schlecht designt.
0:35:24–0:35:26
Und das ist, weil man es nicht mit Designern macht.
0:35:27–0:35:31
Designers sind da nicht schuld, sondern weil man sie immer mehr rausschneidet aus dem Prozess.
0:35:31–0:35:35
Und auf Zahlen schaut und sagt, da braucht es 3% mehr dies und 2% mehr das.
0:35:35–0:35:39
Und was jetzt der hier meint, der die Sachen formt, das interessiert mich nicht.
0:35:39–0:35:41
Er soll das machen, was die Zahlen sagen.
0:35:41–0:35:45
Und das glaube ich, ist ein grosses Problem.
0:35:46–0:35:50
Wenn man mehr in diese Richtung reingeht, in die sogenannte technokratische, dann sehe ich schwarz.
0:35:52–0:35:59
Ja, deine positive Fantasie, die leuchtet mir sehr ein. Aber ich glaube nicht,
0:35:59–0:36:01
dass es in diese Richtung gehen wird.
0:36:01–0:36:03
Ich bin da eher der Pessimist.
0:36:05–0:36:10
Ja, das mittlere Management wird sich verteidigen, glaube ich.
0:36:10–0:36:13
Sehr wahrscheinlich kommt es so raus wie bei der Kunst und beim Bier.
0:36:14–0:36:21
Und zwar verlacht man die Van Goghs, bis sie sich die Ohren abschneiden aus Verzweiflung.
0:36:25–0:36:29
Und später verhökert sie sie für Millionen, versteckt sie sie dann in einer Seife.
0:36:31–0:36:36
Als eine neue Devise oder als ein Trick zum Steuersparen.
0:36:36–0:36:39
So funktioniert das ja mit dieser Kunst. Ich habe immer gemeint,
0:36:39–0:36:44
das sind clevere Investitionen, aber man spart ja Steuern, wenn man sie verschenkt.
0:36:44–0:36:46
Man kann Geld waschen, super.
0:36:46–0:36:49
Man kann Geld waschen, alles mögliche. Das andere ist Bier.
0:36:50–0:36:55
Irgendwann hat einer einen Business-Consultant gefunden, der hat zu Heinecken
0:36:55–0:36:59
gesagt, es wäre doch cool, Wenn ihr alle Brauereien aufkaufen würdet,
0:36:59–0:37:03
dann könnt ihr alles kontrollieren und uns noch mehr Dividenden schenken.
0:37:03–0:37:06
Das wäre doch super. Und Heineken fand einen super Plan, das machen wir gerade.
0:37:07–0:37:11
Und dann aus dem heraus sind die lokalen Brauereien entstanden,
0:37:11–0:37:12
da haben wir auch Freude daran.
0:37:13–0:37:16
Aber am Schluss kaufen wir dann gleich wieder einen Moretti oder Heineken,
0:37:16–0:37:21
weil es eben nichts anderes gibt in den gewöhnlicheren Bars.
0:37:21–0:37:23
Und so wird es wahrscheinlich dann eben rauskommen.
0:37:23–0:37:33
Also nicht, dass dann plötzlich die Van Goghs und Cezannes die Weltformen,
0:37:33–0:37:35
so wie sie ist, und die landen in einem Safe.
0:37:35–0:37:39
Und wir trinken nicht alle dann irgendwie so ein lokales Bier,
0:37:39–0:37:42
sondern halt noch mehr Heinecken unter dem Strich.
0:37:43–0:37:48
Ja, ein spannender Zusatz zu unserer Sendung.
0:37:48–0:37:53
Ich bin gespannt, wie es mir wird gehen und dir vielleicht auch,
0:37:53–0:37:56
wenn man diese Sendung in fünf Jahren nochmals hört und findet,
0:37:56–0:38:00
wo wir recht hatten und wo wir alles daneben gelegt sind.
0:38:00–0:38:05
Aber das ist ja auch das Interessante daran. Ja, ich bin eilig.
0:38:05–0:38:07
Ich würde mich freuen, wenn ich völlig falsch liegen würde.
0:38:09–0:38:13
Ja, ich bin Ja, ich weiss es nicht.
0:38:14–0:38:18
Auf eine Art würde ich mich freuen, wenn wir mit den positiven Sachen richtig
0:38:18–0:38:20
liegen würden, sagen wir es so.
0:38:20–0:38:24
Ich habe einen Optimismus bei dem Ganzen. Das habe ich jetzt auch bei dieser
0:38:24–0:38:30
ganzen Geschichte, was Desinformation und Misinformation anbelangt,
0:38:30–0:38:31
habe ich das eigentlich immer gehabt.
0:38:32–0:38:39
Wir haben ein relativ gutes Immunsystem, so rein medizinisch.
0:38:39–0:38:45
Aber ich glaube auch, dass wir geistig mit dem Immunsystem ausgestattet sind,
0:38:45–0:38:46
darum sind wir so weit gekommen.
0:38:49–0:38:56
Unsere Wahrnehmung für Lügen ist genauso geschärft wie unsere Wahrnehmung für Gesichter.
0:38:56–0:39:03
Und so gesehen bin ich nicht ganz so pessimistisch, weil es immer wieder diese
0:39:03–0:39:07
Attacken gegen den Geist stattfinden.
0:39:07–0:39:11
Und irgendwie retten wir uns dann trotzdem aus dem Zeug raus,
0:39:11–0:39:12
weil wir eben dieses Immunsystem haben.
0:39:12–0:39:17
Wir können nicht überleben, wenn wir uns ganz ländlich einlullen von irgendwelchem
0:39:17–0:39:18
Bullshit die ganze Zeit.
0:39:18–0:39:22
Und so gesehen dauert es jetzt vielleicht auch ein bisschen länger in der Phase,
0:39:22–0:39:25
in der wir uns jetzt befinden, um uns damit auseinanderzusetzen.
0:39:25–0:39:31
Aber wenn man schaut, wie unsere Wahrnehmung ist, wenn wir im Kino sitzen und
0:39:31–0:39:33
dann kommt plötzlich Prinzessin Leia,
0:39:33–0:39:39
obwohl sie schon gestorben ist, wieder als CG-Prinzessin Leia,
0:39:39–0:39:41
dann sehen wir sofort, das ist nicht die echte.
0:39:41–0:39:46
Auch wenn wir nicht wissen, dass sie schon gestorben wäre. Das ist das Uncanny
0:39:46–0:39:51
Valley, sagt man dem ja. Genau, aber das hätten wir vor 20 Jahren noch nicht so sagen können.
0:39:51–0:39:56
Ich weiss noch, als ich das erste Mal Jurassic Park sah, fand ich, wow, das ist ganz echt.
0:39:56–0:39:58
Genau, wenn man das jetzt sieht, muss man lachen. Das stimmt.
0:39:59–0:40:06
Und so schärfen wir unsere Wahrnehmung und von dem her, ja, man kann auch optimistisch
0:40:06–0:40:10
sein, wenn man sieht, wie schnell wir uns daran gewöhnt haben,
0:40:10–0:40:13
an die KI-Ästhetik bei den Bildern.
0:40:13–0:40:17
Und das wird auch bei den Videos ganz schnell gehen, also das hat bei mir gerade
0:40:17–0:40:22
einen Tag gedauert, bis ich gesehen habe, oh wow, das ist ja super creepy auch.
0:40:22–0:40:27
Wie sich die Gesichter im Laufe von wenigen Minuten verändern,
0:40:27–0:40:32
wie sich die ganze Umwelt unnatürlich verändert, das triggert sofort Angst in
0:40:32–0:40:34
uns, weil wenn das würde real passieren,
0:40:34–0:40:38
dann würden wir uns in einer ganz schrägen, verzaubernden Welt befinden.
0:40:38–0:40:44
Also gerade bei der Musik auch noch, um die noch zu erwähnen, wir haben jetzt die Kai,
0:40:45–0:40:48
Suno heisst sie, die ja Musik komponieren kann, dort finde ich,
0:40:48–0:40:52
dort ist es bei mir fast noch schneller gegangen, als künstlich,
0:40:52–0:40:54
also es klingt irgendwie wahnsinnig, ja es.
0:40:57–0:41:01
Machst denn du selber Musik? Ich bin leider unbegabt, was das angeht,
0:41:01–0:41:08
aber ich würde wahrscheinlich tatsächlich lieber mir selber zuhören nach einem
0:41:08–0:41:12
gewissen Zeit, wenn ich völlig falsch auf der Gitarre schrummle.
0:41:12–0:41:21
Als Ausgleich für das irgendwie wahnsinnig seelenlose, künstliche.
0:41:21–0:41:26
Es klingt wirklich einfach wie der Durchschnitt über den Massengeschmack.
0:41:30–0:41:34
Statistisch halt, was das Wahrscheinlichste ist, was den Leuten gefallen könnte,
0:41:34–0:41:36
kommt dabei heraus. Und das gefällt mir halt einfach nicht.
0:41:37–0:41:40
Wahrscheinlich ist es aber eben ähnlich wie, wie soll ich sagen,
0:41:40–0:41:46
ist es ein ähnlicher Effekt, wie bei Chachi Petit, wo man so fest,
0:41:46–0:41:49
wo ein Teil von mir schockiert war,
0:41:50–0:41:54
wow, wir sind ja selber schon völlig.
0:41:57–0:42:02
Seelenlos gewesen vorher, weil Chachi Petit illustriert, wie seelenlos sehr
0:42:02–0:42:05
viel von unserer Kommunikation ist, beziehungsweise eben auch,
0:42:05–0:42:06
wie seelenlos sehr viel von,
0:42:08–0:42:12
unserer illustrativen Arbeit oder von unserer Musik ist, oder?
0:42:13–0:42:16
Aber wie gesagt, das deutet dann wirklich auch in die Richtung,
0:42:16–0:42:18
dass man sagt, hey, okay, das ist jetzt so einfach reproduzierbar,
0:42:19–0:42:21
jetzt beschäftigen wir uns mal damit, was kann man denn machen,
0:42:21–0:42:23
was nicht mehr so einfach reproduzierbar ist?
0:42:23–0:42:26
Und das zielt immer so ein bisschen in die Richtung von Qualität.
0:42:27–0:42:29
Mit Musik haben wir uns noch nicht beschäftigt, weil ich dachte,
0:42:29–0:42:32
also, ja, es ist wahrscheinlich wieder das Gleiche.
0:42:32–0:42:37
Aber ich habe verschiedene Artikel gelesen von Leuten, die es besser wissen als ich,
0:42:37–0:42:42
Jazzmusiker, die gesagt haben, für sie ist es der absolute horror die sache
0:42:42–0:42:48
zu lassen aber die finden auch nirvana horror gut aber aber ich glaube dass
0:42:48–0:42:52
der jetzt würde ich kenne sich besser aus dass ich muss ich schicke,
0:42:53–0:42:58
mir gab es also auch wenn ich nicht expertise hat dass ich das könnte wort fassen
0:42:58–0:43:03
aber ich finde es einfach irgendwie wenn ich mir vorstellen dass ich jetzt ein
0:43:03–0:43:05
radiosender oder aus dem radio.
0:43:09–0:43:13
Ich kann mir ganz gut vorstellen, wie das funktioniert, und zwar funktioniert es gleich wie beim Film.
0:43:14–0:43:18
Zuerst siehst du eine junge Frau in Shibuya, also durch Tokio laufen,
0:43:18–0:43:23
und es ist Nacht und sie ist so angezogen, wie wenn sie irgendwie in Ausgang
0:43:23–0:43:25
geht oder vom Ausgang kommt.
0:43:25–0:43:27
Und wenn die Leute jung sind, dann weiss man das ja nicht so genau.
0:43:28–0:43:31
Bei uns sieht man sofort, aha, der kommt vom Ausgang oder der geht in den Ausgang.
0:43:31–0:43:33
Das ist eine Ereignis, die freuen sich, wenn es morgen wird.
0:43:33–0:43:36
Es gibt keine Frage, wenn es überhaupt noch stattfindet.
0:43:36–0:43:40
Bei ihr sieht man das nicht. Drei Sekunden später denkt man,
0:43:40–0:43:42
das ist keine junge Frau.
0:43:42–0:43:46
Oder nicht mehr so eine junge Frau. Sicher nicht mehr Teenager. Was ist das eigentlich?
0:43:47–0:43:51
Vielleicht so Mitte 20? Nein, Ende 20.
0:43:52–0:44:00
Und am Schluss des Films, und das waren nur 15 Sekunden, die zeigten ja 60 Sekunden,
0:44:00–0:44:05
aber sie zeigen nur die tollen Sachen, ist die Frau sicher über 50.
0:44:05–0:44:08
Und das heisst, die Story ist nicht mehr die einer jungen Frau,
0:44:08–0:44:15
die in den Ausgang geht oder kommt, sondern es ist definitiv die Story von jemandem,
0:44:15–0:44:23
der sich innerhalb von 20 Sekunden von einer jungen Frau in eine mittelalterliche verwandelt,
0:44:23–0:44:26
die Kleider anhat, die nicht zu ihr passen.
0:44:26–0:44:31
Und dann hat es Leute, die viel zu gross sind und Zebrastreifen,
0:44:31–0:44:33
die nicht stimmen und alles ist gespenstisch.
0:44:33–0:44:35
Das muss eine Art Horrorfilm sein.
0:44:35–0:44:40
Und dasselbe wird passieren in der Musik, weil dann über die Zeit stellt man
0:44:40–0:44:46
fest, aha, das verändert sich, die ganze Zeit läuft, weil es nicht versteht, was es macht.
0:44:46–0:44:49
Und das ist übrigens ein ganz zentraler Punkt bei dem. Das hat man fast vergessen.
0:44:50–0:44:53
Das versteht ja überhaupt nicht, was es macht, weil es keinen Körper hat.
0:44:54–0:44:59
Weil es keinen Körper hat, hat es keine Begriffe von dem, was es produziert.
0:44:59–0:45:02
Und das meine ich nicht in einem spekulativen Sinne. «Ja, das weisst du doch
0:45:02–0:45:04
gar nicht, du bist ja kein Computer» oder so.
0:45:04–0:45:07
Das ist nicht wie eine Katze, sondern ein Computer hat keinen Körper.
0:45:08–0:45:11
Das heisst, das, was ein Computer ausdrückt.
0:45:12–0:45:16
Entspricht nicht immer einem Eindruck, sondern es ist nur eine reine statistische
0:45:16–0:45:18
Kalkulation, es meint nichts.
0:45:19–0:45:22
Und ich sage das nicht spekulativ, weil meinen ist genau das,
0:45:22–0:45:27
dass das, was ich ausdrucke, dem, was mein Eindruck ursprünglich war,
0:45:27–0:45:29
entspricht im wirklichsten Sinne.
0:45:29–0:45:32
Und dieses Verhältnis gibt es nicht bei einer Maschine.
0:45:33–0:45:36
Es hat kein Verhältnis zwischen Ausdruck und Eindruck und das heisst,
0:45:36–0:45:40
es meint nicht, es versteht nicht, es begreift nicht. Und das zeigt sich in
0:45:40–0:45:44
dem, dass sich einfach die Sachen laufend, schwimmend verändern.
0:45:44–0:45:49
In der realen Welt passiert das nur mit Psychotiken. Genau.
0:45:49–0:45:54
Die verändern wahllos Sachen, ohne dass man versteht, warum.
0:45:55–0:45:57
Wenn einer schaut, dann passiert das auch. Dann ist es einmal so,
0:45:57–0:45:58
dann plötzlich ist es ganz anders.
0:45:59–0:46:03
Aber der hat einen Grund. Und der Unterschied zwischen dem, was eine Person
0:46:03–0:46:08
mit Zerr sagt und nachher sagt, der kann entdeckt werden, indem man die Sachen
0:46:08–0:46:09
miteinander vergleicht.
0:46:09–0:46:15
Wenn man ein Schizophrener ist, hat man keine Ahnung, warum das passiert.
0:46:15–0:46:21
Und das macht einem ein Stück weit auch Angst bei diesen KI-generierten Sachen.
0:46:21–0:46:23
Ja, oder es gibt einem zumindest ein Unwohlsein.
0:46:23–0:46:26
Ich kann mir sagen, wenn man sich das Bild anschaut, dann sieht man irgendwann,
0:46:26–0:46:30
dass man sechs Finger hat, oder eben so die Klassiker.
0:46:30–0:46:36
Oder der eine Finger wächst am falschen Ort raus.
0:46:37–0:46:39
Dann kann man es ja wenigstens noch
0:46:39–0:46:43
benennen, aber bei der Musik hat es wahrscheinlich auch so die Sachen,
0:46:43–0:46:48
die es einfach nicht gäbe, wenn die Musik echt erzeugt worden wäre,
0:46:49–0:46:55
aber die vielleicht viel weniger gut benennbar sind für uns.
0:46:55–0:46:58
Oder so deutlich wie ein Finger, wo du sagen kannst, das ist zu viel,
0:46:58–0:47:00
kannst du es weniger genau benennen.
0:47:00–0:47:04
Aber das Unwohlsein ist vielleicht das Gleiche oder vielleicht sogar noch etwas
0:47:04–0:47:10
tiefer, weil gerade Musik für viele von uns natürlich auch so eine emotionale Sache ist.
0:47:11–0:47:14
Uns fehlt ja der Wortschatz für die Musik.
0:47:14–0:47:16
Aber ich bin sicher, dass ein Musiker sagen würde, nein, man kann nicht von
0:47:16–0:47:19
einer 3,8 auf eine 4,6 wechseln, ohne Grund.
0:47:20–0:47:25
Und wenn man das macht und den Musiker hört, der sagt, das ist typisch für einen Disco-Hit.
0:47:25–0:47:26
Ich kenne mich wirklich nicht aus wie der Musiker, ich sage,
0:47:27–0:47:29
er findet einfach etwas. Aber die können das beschreiben.
0:47:30–0:47:32
Und wenn wir jetzt einen Text anschauen, dann sehen wir auch,
0:47:33–0:47:35
nein, das macht man nicht einfach so.
0:47:35–0:47:39
Man muss einen Grund haben, um diese Art und Weise zu kommunizieren.
0:47:39–0:47:43
Und wenn dieser Grund fehlt, dann ist es eben unheimlich. Dann hat einer sechs
0:47:43–0:47:44
Finger, aber es ist nicht klar, warum.
0:47:45–0:47:47
Das ist aber nur unheimlich, solange man denkt.
0:47:48–0:47:53
Solange man einen Geist reinprojiziert, wenn man sagt, nein,
0:47:53–0:48:00
das hat kein Geist, das will uns nichts sagen, sondern es rechnet einfach nur
0:48:00–0:48:03
irgendetwas aus, ohne einen Begriff davon zu haben, dann weiss man,
0:48:03–0:48:04
es ist nicht unheimlich.
0:48:05–0:48:09
Es ist einfach relativ schwierig für uns Menschen, uns vorzustellen,
0:48:09–0:48:11
dass eben die Sachen, die sich verhalten bei mir,
0:48:11–0:48:14
was sachen machen wo für uns denken würden
0:48:14–0:48:17
erfordert eben nicht denken das ist uns
0:48:17–0:48:20
das ist schwierig für uns dass das ganze begreifen
0:48:20–0:48:24
und man kann ja nicht so wie das mit dass man es so ja warum ist das so oder
0:48:24–0:48:29
und und dann wird es eben ein aber wenn man das durch bricht und verstaut die
0:48:29–0:48:37
funktion von ki ist eben genau die dass es sache dass es uns Es lässt uns Sachen produzieren,
0:48:37–0:48:40
die vorher Denken erfordert haben.
0:48:40–0:48:44
Das heisst, die Funktion von K ist nicht, dass es für uns denkt,
0:48:44–0:48:47
sondern dass es unser Denken ersetzt.
0:48:47–0:48:52
Nicht durch ein anderes Denken, sondern ersetzt so, wie die Geschirrwaschmaschine
0:48:52–0:48:54
das Geschirr waschen ersetzt für uns.
0:48:57–0:49:00
Ohne dass es denkt, sondern es macht einfach mechanisch... Es simuliert ein
0:49:00–0:49:03
bisschen das Denken. Nein, es simuliert nicht einmal.
0:49:03–0:49:09
Es tut mechanisch das, was wir nur mit Denken machen konnten.
0:49:09–0:49:13
Es kann etwas machen. Es kann Geschirr waschen, ohne zu denken.
0:49:13–0:49:16
Das ist eigentlich verrückt, wenn man sich das überlegt. Aber genau so funktioniert es.
0:49:16–0:49:23
Es sind wie Geschirrwaschmaschinen und nicht wie Küchenhilfen,
0:49:23–0:49:28
die an unserer Stelle das Geschirr abwaschen. Das ist das Entscheidende, das Verstehen.
0:49:28–0:49:34
Und dort liegt die eigentliche Gefahr, dass wir das Denken aufheben.
0:49:34–0:49:35
Weil das passiert.
0:49:35–0:49:38
Es wird nicht ersetzt durch ein anderes Denken, ein neues Denken,
0:49:38–0:49:40
vielleicht ein höheres Denken.
0:49:40–0:49:45
Auch diese Vorstellung, dass KI plötzlich alle unsere Probleme lösen könnte.
0:49:45–0:49:51
Es nimmt unsere Informationen und irgendwie steigt es über das heraus.
0:49:52–0:49:55
Und wir haben das noch nie gesehen, es bleibt immer in diesem Bereich von der
0:49:55–0:49:57
Information, die es schon hat.
0:49:57–0:50:05
Das ist ja völlig irrwitzig. Und auf so etwas kann nur jemand kommen,
0:50:05–0:50:08
wenn er glaubt, dass das tatsächlich selber denkt.
0:50:08–0:50:14
Macht es aber nicht, wird auch jeder KI-Forscher bestätigen.
0:50:14–0:50:19
Nein, das sind statistische Modelle, da wird nicht gedacht. Das ist ganz weit weg vom Denken.
0:50:23–0:50:29
Meine Katze hier ist viel, viel gescheiter als jede Chat-Hippie-Version.
0:50:29–0:50:33
Und das ist aber essentiell und extrem schwierig den Leuten zu vermitteln,
0:50:33–0:50:35
weil sie immer sagen, das weiss ich nicht, du bist ja nicht der Computer.
0:50:36–0:50:40
Aber ich weiss, wie die Computer funktionieren und das ist das Entscheidende.
0:50:40–0:50:43
Es gibt dann schon immer die, die denken, vielleicht ist irgendwann mal etwas
0:50:43–0:50:47
Mystisches passiert in diesem riesigen Modell,
0:50:47–0:50:56
dass irgendwie da etwas umgekippt ist und dann ist da plötzlich der Lebensfunken
0:50:56–0:50:59
auf die Maschine gekommen und sie hat das bewusst so entwickelt.
0:50:59–0:51:06
Der FC ist ja erst vor zwei, drei Wochen wieder herumgeistert mit dem Claude3AI,
0:51:07–0:51:11
weil er dann so gefunden hat, ja, ich habe ja jetzt da gemerkt,
0:51:12–0:51:13
dass ich mir Tests unterzogen werde.
0:51:14–0:51:20
Es gibt so ein Testverfahren, wo man versucht, unter verschiedenen Fakten einen
0:51:20–0:51:27
dazumischen, der nur dazugehört, um die K.I.
0:51:27–0:51:30
Dazubringen, die rauszukommen, damit in Verbindung zu bringen.
0:51:30–0:51:34
Und der hat dann das geschnallt und gesagt, du testest mich wahrscheinlich.
0:51:34–0:51:40
Was aber natürlich gut kann sein, dass irgendwo in seinen Daten auch das Testverfahren
0:51:40–0:51:42
beschrieben war und dass er das dann auch gemerkt hat.
0:51:42–0:51:48
Ich würde das auch nicht so als Bewusstsein wahrnehmen, aber wir neigen halt schon dazu,
0:51:48–0:51:56
zu mystifizieren, aber wenn wir ganz am Anfang zurückgehen und zu dem Punkt,
0:51:56–0:51:59
wo du eben der bist, der genau hinschaut, und ich glaube,
0:51:59–0:52:04
wenn man genau hinschaut, dann kann man diese Maschine schon immer noch wieder
0:52:04–0:52:08
entmystifizieren oder sie entmystifiziert sich selber.
0:52:08–0:52:11
Man muss nur genau hinschauen. Ich denke, es ist relativ einfach,
0:52:12–0:52:17
sie zu entmystifizieren, wenn man sich daran erinnert, wie sehr man sein Auto
0:52:17–0:52:21
personalisiert oder Playstation oder eben,
0:52:21–0:52:26
wenn man es so seit Langem mit Computer schafft, dann wird man doch immer verrückt
0:52:26–0:52:30
auf diese Geräte und stellt sich irgendwie vor, das macht er extra und hält
0:52:30–0:52:32
vielleicht einmal auf Tasten oder so,
0:52:32–0:52:35
aber man weiss doch eigentlich, dass das nicht ist.
0:52:35–0:52:39
Also komm, man muss einen Grund zur Annahme haben, dass tatsächlich Geist entstehen
0:52:39–0:52:40
würde in einer Maschine.
0:52:40–0:52:43
Aber ich sehe keinen solchen Grund.
0:52:44–0:52:48
Bis jetzt bin ich noch keinem Geist begegnet.
0:52:48–0:52:52
Gut, es gibt so ganz deftige Esoteriker, die sagen, die fliegen da irgendwo herum.
0:52:53–0:52:57
Aber bis jetzt bin ich noch keinem geistigen Wesen ohne Körper begegnet.
0:52:57–0:53:02
Und ich kann mir schon vorstellen, dass ein paar Wahnsinnige irgendwann sagen,
0:53:02–0:53:03
wir sind auf dem Weg da hin.
0:53:03–0:53:06
Ja, wir brauchen jetzt recht die menschlichen Körper. Wie in der Matrix.
0:53:07–0:53:10
Das war übrigens auch die originale Idee der Matrix. Es ging nicht darum,
0:53:10–0:53:16
dass wir Energie abziehen, sondern dass die Maschinen eigentlich unsere Rechenleistung brauchen.
0:53:17–0:53:22
Genau, das sind ja nur so menschliche Energiezellen. Genau, dann haben wir aber
0:53:22–0:53:24
gesagt, ja nein, wir machen Batterien aus, weil die Leute werden das nicht verstehen.
0:53:24–0:53:28
Aber die eigentliche Idee von den Geschwistern Wachowskis, die haben gesagt,
0:53:29–0:53:32
nein, die Maschinen sind viel cleverer, die brauchen unsere Hirne zum Ausrechnen,
0:53:32–0:53:34
weil das funktioniert ja nicht.
0:53:34–0:53:37
Du kannst ja nicht den Menschen irgendwie eine Sauce geben und dann bekommst
0:53:37–0:53:38
du mehr Energie aus als du.
0:53:39–0:53:43
Aber mit dem Rechnen wird es funktionieren. Und wenn jetzt die Leute,
0:53:43–0:53:46
wenn jetzt so ein paar Wahnsinnige anfangen, menschlichen Körper zu brauchen
0:53:46–0:53:48
für die KI, und das schliesse ich wirklich nicht aus.
0:53:49–0:53:53
Das kommt sicher. Ich fände es keine gute Idee, aber ich schliesse es nicht aus.
0:53:53–0:53:58
Dann muss man damit rechnen, dass so etwas wie, wie nennen sie das, AGI entsteht.
0:53:58–0:54:03
Ja, Superintelligenz oder eben das Bewusstsein oder wie auch immer.
0:54:03–0:54:06
Genau, aber es müssten Körper sein, die nicht einfach nahe liegen,
0:54:07–0:54:11
wie in einer Batterie, wie in der Matrix. Sonst müsste da kein was rumlaufen.
0:54:11–0:54:17
Sagen wir, solche, die Brille anhaben, die irgendwie die Welt aufnehmen und so weiter und so weiter.
0:54:18–0:54:21
Also auf diesem Weg sind wir eigentlich schon. Und dann rechne ich auch damit,
0:54:21–0:54:25
wenn wir jetzt die auch noch vernetzen durch so etwas wie ein digitales Netzwerk,
0:54:25–0:54:27
wo man den ganzen Globus herum geht.
0:54:27–0:54:30
An was könnte das vielleicht führen? Dann könnte ich mir vorstellen,
0:54:30–0:54:34
dass so etwas entsteht. Und ob es dann gut oder schlecht Das sehen wir dann.
0:54:34–0:54:42
Aber solange es nur Large Language Models sind, die wörterberechtigt sind.
0:54:43–0:54:46
Da gibt es keinen Grund zur Annahme, dass das Geist entwickelt.
0:54:47–0:54:51
Genau, also da kann man sagen, wenn wir uns überlegen, wo wir vielleicht in
0:54:51–0:54:58
dieser Entwicklung sind, dann würde ich sagen, für mich wird es immer so von
0:54:58–0:55:00
einer Art einem Plafond, dass jetzt eben,
0:55:00–0:55:05
also natürlich werden die Modelle und so alle nochmal besser und leistungsfähiger
0:55:05–0:55:11
und können dann noch mehr und so, Aber der nächste Sprung, den gewisse Leute
0:55:11–0:55:13
meinen, schon zu sehen zu haben,
0:55:14–0:55:19
der ist von mir aus gesehen nicht in Reichweite.
0:55:19–0:55:25
Und ich teile eigentlich deine Ansicht, dass es wahrscheinlich für ein Bewusstsein
0:55:25–0:55:32
tatsächlich auch so ein System nicht einfach nur irgendwo in einem Arbeitsspeicher leben könnte,
0:55:32–0:55:36
sondern eine Art physische Repräsentation,
0:55:36–0:55:37
die Löhre brauchen.
0:55:38–0:55:43
Und vorher passiert das nicht. Von daher sehe ich, dass wir an dieser Stelle
0:55:43–0:55:49
noch beruhigt sein können und sagen, das passiert vielleicht in zehn Jahren
0:55:49–0:55:51
oder vielleicht in 20 Jahren.
0:55:51–0:55:54
Unsere Kinder müssen sich vielleicht damit umschlagen, aber ich würde sagen, uns beide.
0:55:55–0:55:57
Ich bin kein Prophet. Ich weiss nicht, was passiert morgen.
0:55:58–0:56:02
Wer weiss? Man muss das Schlimmste immer gefasst werden. Aber es ist nicht die
0:56:02–0:56:06
grösste Sorge, die ich habe im Augenblick. Das ist ganz, ganz, ganz deutlich.
0:56:06–0:56:12
Wir haben ganz andere Probleme. Ob jetzt einer irgendwie den Computer und den
0:56:12–0:56:15
Körper so zusammenschliessen kann, dass irgendeine höhere Intelligenz entsteht,
0:56:16–0:56:18
das könnte vielleicht sogar noch gut sein, wer weiss.
0:56:18–0:56:21
Aber wir haben ganz andere Sorgen im Augenblick.
0:56:22–0:56:27
So ist es. Und jetzt hat diese Sendung noch eine ziemlich lange Postshow bekommen. Das ist super.
0:56:28–0:56:32
Das pflegt man viel zu wenig hier im Nordfunk. Aber heute war es wieder einmal
0:56:32–0:56:35
der Fall. Noch einmal ganz herzlichen Dank, Oliver. Dankeschön auch.
0:56:37–0:56:49
Music.
Oliver Reichenstein ist ein fundierter Kritiker der künstlichen Intelligenz. Er hält die von KI generierten Bilder für Kitsch. Er hält es sogar für ein Risiko, diese Bilder überhaupt zu verwenden, weil sie eine ernsthafte Arbeit entwerten könnten. KI würde alles glatt bügeln, und auch Texte erhalten durch ChatGPT und andere Sprachmodelle eine immer gleiche Marketing-Tonalität.
Reichenstein rechnet mit einer Gegenbewegung, bei der das rohe Design und die imperfekte Anmutung wieder einen Wert bekommt. Sogar Rechtschreibfehlern kann er etwas abgewinnen: Die beweisen nämlich, dass ein Mensch kommuniziert und keine KI.
Aber eine Bedrohung für Künstlerinnen, Fotografen und Journalistinnen ist die KI trotzdem – oder nicht? Gibt es Grund für Panik oder ist Gelassenheit angebracht?
Über diese Fragen spricht Matthias mit Oliver Reichenstein in der heutigen Folge des Nerdfunks. Das Gespräch war auch die Grundlage für ein Interview im «Tagesanzeiger». Doch hier gibt es die ausführliche Fassung, in der Reichenstein auch über seine Erfahrungen bei der App-Entwicklung berichtet. Reichenstein hat nämlich eine der erfolgreichsten Schweizer Apps entwickelt: iA Writer ist eine Textverarbeitung, die sich auf die wesentlichen Funktionen konzentriert. Sie hat ab 2010 diverse Trittbrettfahrer auf den Plan gerufen und der Marktdown-Bewegung wesentlichen Schub verliehen.
In dieser Sendung erzählt er auch davon: Wie er bei Apple in Cupertino vorstellig wurde und dort einen der schlechtesten Ratschläge überhaupt erhalten hat.
Oliver Reichenstein, geboren 1971, studierte Philosophie in Basel und Paris. Nach einer Anstellung als Berater zog er 2003 nach Tokio, wo er die Agentur Information Architects gründete, die Websites für Medienunternehmen gestaltet. Er hat unter anderem das Erscheinungsbild von «Tages-Anzeiger», «Die Zeit» und «The Guardian» geprägt.