Transkript anzeigen (falls vorhanden)

0:00:02–0:00:07
«Bitchcraft» mit «Thirteen Again» Ui, und ich bin froh, dass ich nicht wieder
0:00:07–0:00:09
13 bin. Das sage ich euch ganz ehrlich.
0:00:09–0:00:13
«Hoi zusammen, hier ist Leslie Maguid. Ihr hört gerade meine neue Single «Talking
0:00:13–0:00:17
Head» auf dem Stop Filter.» Das stimmt gar nicht. Wir hören keine Single.
0:00:17–0:00:23
Ich rede stattdessen mit Digi-Chris, der jetzt hoffentlich zu diesem Kanal rauskommt.
0:00:23–0:00:26
Hallo Digi. «Ja, guten Abend miteinander.» Du bist wahnsinnig laut.
0:00:27–0:00:30
Ich muss dich noch viel leiser machen. machen, aber das schaffe ich gerade noch.
0:00:30–0:00:34
Wir haben, wir sind wieder mal back to the roots, wir haben wieder mal eine
0:00:34–0:00:37
Skype-Verbindung, weil Technik und so.
0:00:38–0:00:43
Ich glaube, währenddessen warst du in den Ferien, Chris, ist alles auseinandergefallen
0:00:43–0:00:48
bei uns im Radio Stadtfilter. Aber ich frage dich, warum gehst du in die Ferien
0:00:48–0:00:52
eine Woche, bevor es so schön Wetter wird und so warm?
0:00:53–0:00:58
Also, als ich war, war es auch relativ warm und so weiter. Also ich habe mich
0:00:58–0:01:01
jetzt schon mal ein bisschen daran gewöhnt. Ah, sehr gut.
0:01:02–0:01:05
Genau, jetzt bist du schon mal vorgeglüht, sagen wir.
0:01:07–0:01:13
Gut, genau. Und es tut mir leid, Chris, ich muss dir wieder mal das Thema zumuten,
0:01:13–0:01:17
das du eigentlich gar nicht so gerne hast. Aber es geht halt nicht anders.
0:01:17–0:01:21
Aber wir haben dafür noch etwas anderes.
0:01:21–0:01:24
Jetzt ein bisschen in dieser Pre-Show. Nämlich habe ich euch,
0:01:25–0:01:32
wenn ihr sagt, Turniere ja, aber Fussballturniere nein, dann habe ich euch eine kleine Empfehlung.
0:01:32–0:01:35
Aber zuerst frage ich dich noch, wie viele Fussballmatches hast du schon geschaut?
0:01:38–0:01:43
Bei uns im Nachbardorf hat es ein cooles Public Viewing.
0:01:43–0:01:47
Ich würde es nicht anregen, wenn die Schweiz spielt, weil dann bist du ja noch deiner.
0:01:47–0:01:52
Aber bei den Spanien-Spielen habe ich eine halbe Zeit geschaut.
0:01:53–0:01:57
Es gab eine gute Stimmung und es war echt positiv.
0:01:57–0:02:03
Der Feuerwehrverein, der Theaterverein ist dort, die eine freiwillige Arbeit machen.
0:02:04–0:02:08
Ich habe gesagt, dass mich Fussball nicht in die Bohne interessiert,
0:02:08–0:02:11
aber klar, wenn jetzt die Schweiz Deutschland schlägt, müsste ich lachen.
0:02:13–0:02:17
Genau, so weit sind wir noch nicht, aber irgendwann mal kommt es so weit,
0:02:17–0:02:23
glaube ich schon gleich mal, falls ich mich nicht täusche, in dieser gemeinsamen Runde.
0:02:23–0:02:27
Aber ich wollte ja einen Tipp geben, wo ihr ein Turnier schauen könnt,
0:02:27–0:02:32
nämlich auf comedix.de, das ist ja so eine lustige Asterix-Fan-Seite.
0:02:33–0:02:38
Sieht aus, wie Webseiten vor 30 Jahren ausgesehen haben, oder sagen wir 25.
0:02:40–0:02:46
Und ist aber für alle Asterix- und Obelix-Fans eine wunderbare Informationsquelle.
0:02:46–0:02:50
Und den kann man jetzt spielen, da gibt es eine Ausscheidung und man muss jeden
0:02:50–0:02:56
Tag wählen, welches von zwei Asterix-Büchern, welches von zwei Bänden man besser findet.
0:02:56–0:03:00
Und dann gibt es am Schluss einen Asterix-Weltmeister, nehme ich an.
0:03:01–0:03:03
Und ich bin gespannt, welches das sein wird. Ich würde sagen,
0:03:03–0:03:06
es wird einer von den ganz alten Bänden sein. Meinst du nicht auch?
0:03:07–0:03:09
Vermute ich auch. Es ist auch schon lange her. Aber was war das?
0:03:10–0:03:14
Asterix bei den Briten? Oder war das ein Film? Das hat es als Buch gegeben.
0:03:14–0:03:16
Ja, das hatte ich sicher mal.
0:03:17–0:03:23
Das ist 30 Jahre her, aber ich habe diese Bücher auch gerne gelesen.
0:03:25–0:03:30
Aber ich würde sagen, ich muss dich stoppen, weil wir pünktlich anfangen müssen.
0:03:30–0:03:35
Ich würde sagen, Asterix als Fan-Thema ist mal ein... Ich habe schon einen Plan
0:03:35–0:03:37
für so eine Sendung, aber nicht heute.
0:03:37–0:03:52
Music.
0:03:53–0:03:58
Begeisterung, aber auch Panik. Ja, es geht um die künstliche Intelligenz,
0:03:58–0:04:00
die versetzt Unternehmen,
0:04:00–0:04:05
solche natürlich überall auf der ganzen Welt, aber vor allem auch die ganz grossen,
0:04:05–0:04:09
Google und Microsoft, in Angst, die Party zu verpassen.
0:04:09–0:04:14
Und Apple, bei denen sind wir uns nicht ganz sicher, die haben vor kurzem ihre
0:04:14–0:04:17
neue, grandiose Erfindung, oder?
0:04:17–0:04:21
Also den Namen finde ich schon mal nicht so grandios. Apple Intelligence haben
0:04:21–0:04:25
die lanciert. und die scheint auch nicht so ganz zu Ende gedacht zu sein.
0:04:25–0:04:31
Um das alles geht es in dieser Sendung heute mit DigiChris und ich würde sagen,
0:04:31–0:04:36
der Kai Irrsinn nimmt seinen Lauf, ist ein bisschen der Titel von dieser Sendung.
0:04:36–0:04:39
Es ist wahnsinnig, was man die ganze Zeit liest von dieser Kai.
0:04:40–0:04:41
Wie ist es bei dir in deinem Unternehmen?
0:04:42–0:04:47
Ist das schon ein Thema? Gibt es schon Leute, die sich nur noch mit dem beschäftigen,
0:04:47–0:04:49
überlegen, wo könnte man das überall einbauen?
0:04:49–0:04:53
Welche Verbesserungen wären möglich, dank der künstlichen Intelligenz?
0:04:54–0:04:58
Also nur noch schnell zum Anfang, weil gerade bevor ich vor der Sendung bin,
0:04:58–0:05:04
bin ich noch schnell gepostet und habe in GPT-4.0 gefragt, was für Läden,
0:05:04–0:05:07
also Einkaufsmöglichkeiten, in meinem Dorf gibt.
0:05:07–0:05:12
Nummer 1, Coop, das stimmt. Nummer 2, Migros. Nummer 3, Volk.
0:05:13–0:05:17
Blöd ist nur, dort wo der Migros ist, ist mal vor 20 Jahren der Volk gewesen.
0:05:18–0:05:22
Also den gibt es längstens nicht mehr. Dort, wo der Volk sein soll, ist ein Wohnhaus.
0:05:24–0:05:27
In meinem Unternehmen ist das ein Thema.
0:05:28–0:05:32
Ich glaube, das erste Mal hat unser Security Officer über das geredet und gesagt,
0:05:32–0:05:35
was man machen soll und nicht machen soll.
0:05:35–0:05:40
Also vielleicht nicht gerade Formulierungen in Chat-GPT einladen,
0:05:40–0:05:42
es werde aber bewusst nicht blockt.
0:05:42–0:05:48
Ja. Aber es gibt wirklich Leute, die damit arbeiten und sie haben auch irgendwo
0:05:48–0:05:54
für Azure Instanzen, haben so eine lokale GPT, die tatsächlich jetzt irgendwas
0:05:54–0:05:57
machen mit Lieferantenrechnungen.
0:05:57–0:05:58
Also das ist durchaus ein Thema.
0:05:58–0:06:03
Es ist glaube ich noch nicht jemand, der gerade der Chief-Kai-Officer ist,
0:06:03–0:06:06
aber es ist durchaus ein Thema.
0:06:06–0:06:10
Genau, ich arbeite auch in Unternehmen, wo es auch ein Thema ist,
0:06:10–0:06:14
wo man sich überlegt, wo auch die Frage ein bisschen eine Rolle spielt,
0:06:14–0:06:19
was macht man dann, wenn alle anderen das schlauer, besser und schneller einsetzen.
0:06:19–0:06:26
Man sieht tatsächlich, es ist schwierig, kühles Blut zu bewahren und zu sagen,
0:06:26–0:06:29
wir schmeissen nicht alles, was man auf die K.I.
0:06:29–0:06:34
Kann, in der Hoffnung, dass wir schneller, effizienter, leistungsfähiger werden
0:06:34–0:06:38
oder einfach nur der ganzen Welt beweisen, wie innovativ wir sind.
0:06:38–0:06:47
Sondern es ist schwierig, anzuschauen, wo man tatsächlich sinnvoll eine K.I.-Lösung
0:06:47–0:06:51
einsetzen könnte und wo ist vielleicht der Mensch immer noch so ein bisschen besser dran.
0:06:51–0:06:55
Also eben mein Eindruck, Google zum Beispiel, die haben das überhaupt nicht auf dem Schirm.
0:06:55–0:07:01
Google, die haben da jetzt so eine AI-Overview entwickelt, das wird jetzt in
0:07:01–0:07:03
die Suchmaschinen eingebaut.
0:07:03–0:07:07
In Amerika, in den USA, sieht man es schon, ich habe es dort schon ein bisschen ausprobieren können.
0:07:08–0:07:13
Und das verändert eigentlich die klassische Suchmaschine komplett.
0:07:13–0:07:17
Wenn es irgendein Thema ist, wo die KI etwas dazu weiss oder glaubt,
0:07:17–0:07:23
zu wissen, dann beantwortet sie das und dann musst du ziemlich weit runter scrollen,
0:07:23–0:07:25
bis dann die klassischen Suchresultate kommen.
0:07:26–0:07:29
Also man sieht schon, die klassische Suchmaschine, wenn das so weitergeht bei
0:07:29–0:07:32
Google, wird verdrängt von so einer KI.
0:07:32–0:07:35
Digi Chris, gute Idee, schlechte Idee?
0:07:36–0:07:40
Ich glaube jetzt nicht, also wie gesagt, ich habe zwar auch lange nicht mehr
0:07:40–0:07:44
gebloggt, aber du bloggst zwar noch regelmässig, du wirst wahrscheinlich auch
0:07:44–0:07:45
ein paar kleine Ads haben, Also,
0:07:45–0:07:52
aber eben, jetzt in meinem Fall suche ich mir irgendwie Kreuzfahrtreiseberichte so und so.
0:07:52–0:07:56
Genau, du wieder mit der Kreuzfahrt. Dann wärst du wahrscheinlich vorher mal
0:07:56–0:07:57
auf meinen Blog gekommen.
0:07:57–0:08:02
Und ja, gut, ich habe keine Ads drauf, aber eben jetzt würde ich einfach sagen,
0:08:02–0:08:07
auf der Costa Favalosa gibt es guten Hummer, also irgend sowas.
0:08:07–0:08:11
Und eben, das Problem ist wahrscheinlich tatsächlich, dass jetzt Google...
0:08:12–0:08:18
Früher war es tatsächlich Symbiose, also du als Blogger, der Dagi oder so,
0:08:19–0:08:21
eben Google hat dir Traffic gebracht,
0:08:22–0:08:25
du hast vielleicht noch auf den Banner geklickt und das wird dann irgendwann
0:08:25–0:08:32
verschwinden, weil er einfach sagt, aha, der Matthias hat das neue Zip-Tool
0:08:32–0:08:35
so und so beschrieben, ja, das ist so. Genau, genau.
0:08:36–0:08:42
Das ist, das gibt die Masseinheit von der Zero-Click-Rate, oder ganz genau,
0:08:42–0:08:44
Zero-Click-Search-Rate.
0:08:44–0:08:48
Das heisst, wie viele von diesen Suchresultaten, die Google anzeigt,
0:08:48–0:08:53
sind tatsächlich angeklickt worden oder auf welcher von diesen Resultatelisten
0:08:53–0:08:55
hat irgendjemand etwas angeklickt.
0:08:55–0:09:01
Und die Rate, die niemand klickt, die geht immer hoch, kontinuierlich,
0:09:01–0:09:06
Google hat ja schon vorher, sie zeigen inzwischen selber Hotels und selber Flüge an.
0:09:06–0:09:13
Wenn du nach einem Schauspieler suchst, dann kommt meistens schon die Wikipedia-Information auf der Seite.
0:09:13–0:09:17
Oder auch bei Film und Musik gibt es so diese Einblendungen.
0:09:18–0:09:23
Die vielfach schon eigentlich diese Neugierde oder den Wissensturst befriedigen.
0:09:23–0:09:25
Das heisst, du musst dich gar nicht mehr durchklicken.
0:09:26–0:09:30
Ich habe einen Artikel dazu geschrieben, wo ihr dann Details nachfindet.
0:09:30–0:09:32
Und verlinkt auf nerdfunk.ch.
0:09:32–0:09:36
Dort haben wir schon gesehen, also Wikipedia, wo das eingeführt worden ist,
0:09:36–0:09:40
die haben das massiv gespürt und eben wenn natürlich, genau,
0:09:40–0:09:47
also das Web hinter Google wird quasi austrocknet, wenn das so kommt und man kann sagen.
0:09:47–0:09:54
Warum sollte jemand noch eine Webseite ins Web stellen, wenn die nicht mehr gefunden werden.
0:09:54–0:09:58
Und DigiChris, du hast deinen Blog, schaust du da ab und zu auf die Statistik,
0:09:58–0:10:01
wie viele Leute kommen per Google, wie viele Leute kommen direkt?
0:10:02–0:10:05
Ich habe es früher mal gemacht, ich hatte ein Plugin und das Plugin hatte ich
0:10:05–0:10:10
in meinem Back, da hatte ich einen lieben, lieben Mitmenschen,
0:10:10–0:10:13
da hatte ich einen Mal mehr drauf, seitdem habe ich das nicht mehr. Alles zerschossen.
0:10:14–0:10:19
Da habe ich nicht mehr wirklich Blog, aber ich denke, das Beispiel jetzt,
0:10:19–0:10:21
Wikipedia, die haben ja keinen Banner.
0:10:22–0:10:24
Wenn die jetzt weniger Traffic haben, ist das nicht so schlimm,
0:10:25–0:10:28
aber ich habe irgendwann mal einen Fall gehört, ich glaube, das war ein Blogger,
0:10:28–0:10:31
der hat professionelle Laufschuhe getestet.
0:10:31–0:10:36
Er hat tatsächlich journalistisch relevante Berichte geschrieben,
0:10:36–0:10:37
der Laufschuh ist so und so.
0:10:39–0:10:43
Und wie man es halt so kennt, du hast wahrscheinlich unten Links gehabt,
0:10:43–0:10:44
um den Laufschuh zu posten.
0:10:45–0:10:50
Und ich sage jetzt, er hat x% von dem übergekommen. Von dem hat er gelebt.
0:10:50–0:10:57
Wenn natürlich jetzt Google einfach sagt, der Laufschuh, ich kenne mich nicht aus, aber du weisst was.
0:10:57–0:11:01
Die mit dem Roger Federer, meinst du vielleicht? Sagen wir, die sind jetzt halt super gut,
0:11:02–0:11:07
dann kaufst du das gerade und vielleicht ist dann Google so nicht und drückt
0:11:07–0:11:11
dir dann gerade einen eigenen Affiliate-Link, also für die, die es nicht wissen,
0:11:11–0:11:14
Affiliate eben heisst, wenn ich...
0:11:15–0:11:19
Einen Link auf einen Online-Shop bringt, bekomme ich einen gewissen Prozentsatz über.
0:11:20–0:11:24
Eine Vermittlungsgebühr. Es ist eigentlich ein Vermittlungsprogramm.
0:11:24–0:11:28
Ich habe das auch auf meinem Blog mit Amazon aufgerundet.
0:11:28–0:11:35
Ich habe vielleicht 300 Franken in 10 Jahren eingebracht. Es ist nicht so attraktiv,
0:11:35–0:11:37
aber es gibt Leute, die das professioneller machen.
0:11:37–0:11:43
Man kann dort sagen, das Geschäft wird durch die, auf meinem Blog auch,
0:11:43–0:11:46
ist die absolute Mehrheit der Leute per Google.
0:11:47–0:11:51
Und wenn Google sie nicht mehr zu mir durchschliesst, dann kommt niemand mehr
0:11:51–0:11:53
und dann habe ich keine Werbeeinnahmen mehr.
0:11:53–0:11:56
Das ist nicht so tragisch, weil ich muss nicht davon leben.
0:11:56–0:11:59
Aber bei Medien, die vielleicht doch auch noch finden, dass es unser Geschäft
0:11:59–0:12:04
ist, Informationen ans Publikum zu bringen, auch dort sieht man es übrigens ja schon.
0:12:04–0:12:09
Ich habe es mal ausprobiert, wenn du Fussball suchst, wenn du ein Resultat zu
0:12:09–0:12:13
der EM, die wir in der Pre-Show kurz erwähnt haben, Wenn du dort ein Resultat
0:12:13–0:12:17
sehen möchtest oder auch der Eishockey-WM, der stattgefunden hat,
0:12:17–0:12:20
dann siehst du eigentlich schon
0:12:20–0:12:24
diese Schlagzeilen auf Google selber und musst nichts mehr anklicken.
0:12:24–0:12:29
Also du landest, wenn du nur so ein wirklich oberflächliches News-Bedürfnis
0:12:29–0:12:33
hast, dann wird das schon von Google befriedigt und du musst gar nicht mehr
0:12:33–0:12:35
auf so eine News-Webseite. Und das ist ein Problem.
0:12:35–0:12:39
Und ich denke, du hast gesagt, für Wikipedia ist es nicht so ein Problem,
0:12:39–0:12:40
aber ich finde eben doch.
0:12:42–0:12:48
Man will ja trotzdem, auch wenn man keine Werbung macht, wahrgenommen werden
0:12:48–0:12:51
als «Wir sind die, die die Informationen anbieten, wir sind die,
0:12:52–0:12:55
die alle freiwilligen Leute dafür schaffen,
0:12:56–0:13:00
dass es diese Informationen gibt.» Und wenn das alles schon bei Google befriedigt
0:13:00–0:13:04
ist, dann sieht man die Arbeit der Leute, die das gemacht haben, nicht mehr.
0:13:06–0:13:11
Gibt recht. Eben, das ist die Google-Sache.
0:13:11–0:13:18
Aber ich habe ja angerufen, es ist der erste Anfang von den Sachen, die passiert sind.
0:13:18–0:13:21
Vielleicht reden wir zuerst über das Recall. Das ist Microsoft,
0:13:21–0:13:29
hat gefunden, jawohl, wir machen jetzt auch alles, was man machen kann mit künstlicher Intelligenz.
0:13:29–0:13:34
Wir haben in Windows eine Software eingebaut, die macht alle 5 Sekunden einen
0:13:34–0:13:36
Screenshot, dann durchsucht sie,
0:13:36–0:13:41
was in den Screenshots drin steht und dann kannst du drei Monate lang alles
0:13:41–0:13:45
durchsuchen, was du jemals auf deinem Bildschirm angezeigt hast.
0:13:45–0:13:49
Und das klingt auf den ersten Blick super, oder? Willst du das DigiChris?
0:13:49–0:13:54
Würdest du das Recall einschalten? Total Recall auf dem DigiChris im Rechner?
0:13:55–0:14:01
Also auf Englisch fucking creepy. Also, nee, und ich glaube,
0:14:01–0:14:05
es geht ja eigentlich auch nur mit den neuen Microsoft AI-PCs.
0:14:05–0:14:10
Aber nein, ich würde es niemals einschalten. Weil, ja, ich habe vielleicht auch
0:14:10–0:14:13
mal eine Webseite offen, die 100% ist.
0:14:13–0:14:18
Und jetzt finde ich gerade, dass ich im Stadtfilter weiss, dass ich sie schaue.
0:14:19–0:14:23
Das ist echt, wenn ich das irgendwie höre, dann ist das ein April-Scherz.
0:14:23–0:14:29
Genau. Gefahr, dass dann die Informationen irgendwo geklaut werden oder dass
0:14:29–0:14:34
auch jemand, der vielleicht den Computer der auch mit benutzt ist, ist gross.
0:14:34–0:14:39
Oder eben, wenn du einen Geschäftscomputer hast, dass dein Arbeitgeber mal findet,
0:14:39–0:14:43
okay, jetzt schauen wir doch einfach mal in den Verlauf hin,
0:14:43–0:14:44
was der den ganzen Tag macht.
0:14:44–0:14:48
Eben, Chris, was hat er wieder für Webseiten offen gehabt? Jawohl,
0:14:48–0:14:52
es ist, wir haben es gedacht, es ist wiederum Kreuzfahrtschiff.
0:14:54–0:14:58
Und ich glaube, wie es technisch geht, das ist glaube ich anscheinend,
0:14:58–0:14:59
das läuft nicht mit deinem Konto.
0:15:00–0:15:03
Es ist glaube ich eher ein Windows-Konto, wo du eigentlich nicht dran kommst,
0:15:03–0:15:07
aber wenn du einen Admin hast oder halt einen USB-Stick bautest,
0:15:07–0:15:09
könntest du auch mal diese Datenbank mitnehmen.
0:15:09–0:15:14
Ja, es ist... Es ist glaube ich nicht verschlüsselt, es ist eben so eine SQLite-Datenbank.
0:15:15–0:15:18
Also wenn du wahrscheinlich mal ein Semester Informatik studiert hast,
0:15:18–0:15:22
ja, würde wahrscheinlich ziemlich viel über Matthias...
0:15:23–0:15:28
Herausfinden. wissen und dann, oh, was, der Matthias ist heimlich T-Bone Steak,
0:15:28–0:15:32
also ein wunderndes Beispiel oder so. Genau, du kannst sagen, das mit der,
0:15:34–0:15:38
Vegetarisiererei ist alles doch nur gelogen. Ja, ja, genau. Also das ist sogar,
0:15:39–0:15:43
wenn du nicht an Hacker und nicht an Daten diep denkst, ist es eine gruselige
0:15:43–0:15:46
Sache und es ist nicht einmal so, eben, du hast es angedeutet,
0:15:46–0:15:50
es ist eigentlich nicht einmal so besonders gescheit implementiert gewesen und
0:15:50–0:15:54
man muss sagen, sie haben es jetzt zurückgezogen.
0:15:54–0:15:57
Man weiss nicht genau, ob für immer oder jetzt erstmal einfach,
0:15:57–0:15:59
um vielleicht nochmal drüber zu gehen.
0:16:02–0:16:06
Standardmässig wäre es eingeschaltet gewesen, auch Leute, die das gar nicht
0:16:06–0:16:10
bewusst benutzt hätten, hätten es benutzt.
0:16:11–0:16:14
Das ist alles ein bisschen schwierig und da fragt man sich schon,
0:16:14–0:16:16
wenn ich am Anfang gesagt habe,
0:16:16–0:16:20
bei Microsoft hat man schon das Gefühl und bei Google auch, die haben jetzt
0:16:20–0:16:25
alle Panik, sie könnten etwas verpassen und sie müssen sich jetzt zuerst als
0:16:25–0:16:29
Platzhirsch im KI-Bereich inszenieren.
0:16:30–0:16:35
Ja, und ich finde, die zwei Worte auch für die Leute, die nicht so ein Nerd
0:16:35–0:16:36
sind, opt-out und opt-in.
0:16:37–0:16:41
Also man kann ja eigentlich sagen, wenn jetzt mich irgendwie,
0:16:41–0:16:48
ich weiss auch nicht was, mein Provider fragt, willst du irgendwie eine doppelte Speed haben?
0:16:48–0:16:53
Wenn du das willst, zählst du einen Franken und dann hast du das.
0:16:53–0:16:56
Oder sie sagen dir, hey, wir haben dir eine doppelte Speed aufgeschaltet.
0:16:56–0:17:00
Wenn du das nicht willst, musst du aber aktiv widersprechen.
0:17:00–0:17:05
Das ist glaube ich auch noch so etwas, was auch um den Blogbeitrag geht,
0:17:05–0:17:06
den wir vorhin erwähnt haben.
0:17:06–0:17:12
Das ist so, Opt-in versus Opt-out. Oder da können wir eine schöne Überleitung machen zum Meta.
0:17:12–0:17:19
Die haben ja jetzt gefunden, wir machen alle Daten, die wir mit Facebook und
0:17:19–0:17:25
Instagram gesammelt haben, die brauchen wir mal, weil wir möchten unsere eigene KI machen.
0:17:25–0:17:29
Die heisst Meta AI und das ist doch super, wenn wir so viel Daten haben,
0:17:29–0:17:31
trainieren wir doch mit der.
0:17:33–0:17:36
Die haben eben nicht einmal gefragt, weder Opt-in noch Opt-out,
0:17:36–0:17:42
sondern als US-Amerikaner oder auf vielen Kontinenten kann man eigentlich nichts dagegen machen.
0:17:42–0:17:47
Jetzt hier in Europa und weil, glaube ich, auch Herr Zuckerberg zählt,
0:17:47–0:17:51
die Schweiz zu Europa, haben wir immerhin das Glück, dass es jetzt erstmal wieder
0:17:51–0:17:56
gestoppt wurde, das kann man sagen, und wir in der Schweiz konnten auch Widerspruch einlegen.
0:17:56–0:18:01
Also es gibt dann dort gut, gut versteckt. Ich erkläre, wenn man dort hinkommt,
0:18:01–0:18:06
den Link in den Shownotes auf nerdfunk.ch gut versteckt, so ein Formular,
0:18:06–0:18:08
wo man sagen kann, ich will Widerspruch einlegen,
0:18:08–0:18:12
bitte braucht ihr meine Daten nicht für eure.
0:18:14–0:18:18
KI, aber sonst passiert das einfach und das ist auch, ich habe da ein bisschen
0:18:18–0:18:21
rumgeschaut, also es ist eigentlich so, dass sämtliche,
0:18:22–0:18:30
KIs, sei es die von Bing, sei es die von Google, Gemini oder auch OpenAI,
0:18:30–0:18:36
die brauchen alle diese Daten vom offenen Web und speisen sie in ihre KI ein,
0:18:37–0:18:43
ohne dass die, die diese Daten hergestellt haben, etwas dazu zu sagen hätten. Was haltest du davon?
0:18:43–0:18:49
Wie gesagt, das gab es ja früher durch die berühmte Datei robots.txt. Ja, genau.
0:18:49–0:18:54
Und eben, das ist zwar auch etwas, aber da ist es schon etwas kritischer.
0:18:54–0:18:59
Gerade bei Facebook-Daten ist es vielleicht noch einmal etwas kritischer,
0:18:59–0:19:05
ja, wenn ich jetzt Facebook, meinen kleinen Freundeskreis brauche und irgendwie,
0:19:05–0:19:11
weiss ich was, meine Töchter hier läuft zuerst mal irgendwie über den Rasen, ja.
0:19:11–0:19:16
Ich weiss nicht, wenn du ein kleines Mädchen über den Rasen läufst,
0:19:16–0:19:18
kommt dann das Bild raus oder so? Genau.
0:19:19–0:19:23
Erkennt man dann plötzlich Personen, die auf diesem Bild waren?
0:19:23–0:19:28
Ich habe dann auch mal ein bisschen nachgeforscht, woher überhaupt diese Daten kommen, wo dann diese.
0:19:29–0:19:35
Trainieren und es ist tatsächlich so, also das sind so grosse,
0:19:36–0:19:39
meistens Non-Profit Organisationen, die das Scraping machen,
0:19:40–0:19:46
also die Daten im Internet zusammensammeln und dann auch das aufbereiten für
0:19:46–0:19:50
die man muss ja dann die in der richtigen Form.
0:19:52–0:19:56
Hersteller zur Verfügung stellen dass die ihre KIs trainieren und eine davon
0:19:56–0:20:02
ist ein deutsches Unternehmen, das heisst Lion, oder L-A-I-O-N,
0:20:02–0:20:06
auch, und der Bayerische Rundfunk hat dort mal wirklich reingeschaut,
0:20:06–0:20:09
was da eigentlich in diesen Trainingsdaten drin sind.
0:20:09–0:20:14
Die haben wahnsinnig viele persönliche Sachen, zum Teil halt Leute, die.
0:20:15–0:20:20
Aus heutiger Perspektive sagen, vielleicht nicht so schlau, auch medizinische
0:20:20–0:20:23
Sachen irgendwo eingestellt haben, aber wahrscheinlich gefunden haben,
0:20:23–0:20:26
das ist zwar irgendwie öffentlich,
0:20:26–0:20:31
aber so in einem abgelegenen Rahmen, dass das nie reinkommt.
0:20:31–0:20:36
Aber man sieht jetzt wirklich, die KIs gehen halt hin, reissen das zu dem ursprünglichen
0:20:36–0:20:39
Kontext heraus, auch zu der zeitlichen Einordnung.
0:20:39–0:20:44
Da kann man sagen, das ist zehn Jahre her, das interessiert niemanden mehr.
0:20:44–0:20:47
Aber auch etwas 10-jähriges kann dann wieder auftauchen.
0:20:48–0:20:53
Das ist jetzt eine Suggestivfrage, aber es geht eigentlich schon nicht,
0:20:53–0:20:55
dass man Daten so braucht.
0:20:55–0:20:59
Völlig anders, als dass die Leute gemeint haben, die sie zur Verfügung gestellt
0:20:59–0:21:00
haben, dass sie dann gebraucht werden.
0:21:01–0:21:05
Ganz genau. Du, der einen Blog postet über ein neues Utility,
0:21:05–0:21:10
das per se öffentlich ist, versus jemand, der es vielleicht ...
0:21:10–0:21:14
Ja, und vielleicht auch wirklich, der auf Facebook 20 Freunde hat und vielleicht
0:21:14–0:21:18
eine traurige medizinische Diagnose postet. Genau.
0:21:18–0:21:22
Das ist schon nochmal irgendwie ein Stufengrässer.
0:21:23–0:21:29
Das ist so. Und das gehört eben auch in den Bereich, der die Übertitel von dieser Sendung sind.
0:21:29–0:21:33
Der Irrsinn geht weiter, die Unternehmen machen jetzt einfach mal alles und
0:21:33–0:21:37
wir müssen irgendwie schauen, wie wir sie dann vielleicht stoppen können.
0:21:37–0:21:41
Und ich denke, es wird wahrscheinlich am Schluss halt der Gesetzgeber brauchen,
0:21:42–0:21:46
der sagt, unter diesen Umständen könnt ihr so Daten brauchen und es braucht
0:21:46–0:21:49
ganz klar ein Opt-in und am besten auch,
0:21:50–0:21:54
dass man wirklich dann genau auflistet, was welche Informationen,
0:21:54–0:21:59
die gebraucht werden vielleicht nicht jeden einzelnen Blogpost oder Facebook-Post.
0:22:00–0:22:05
Separat, wobei, wieso eigentlich nicht, wenn du findest, ich möchte gerne mal wieder wissen,
0:22:05–0:22:09
was ich eigentlich vor 10 Jahren für Stusse in Facebook geschrieben habe,
0:22:09–0:22:13
dann könntest du das dort nachschauen, aber um das, glaube ich,
0:22:13–0:22:15
kommen wir nicht rum und von mir aus gesehen, müssen wir dann vielleicht auch
0:22:15–0:22:18
mal über eine Entschädigung reden,
0:22:18–0:22:23
weil eben, also ich zahle OpenAI jeden Monat 20 Stutze, dass ich das Ding kann brauchen,
0:22:23–0:22:28
aber für das zahle ich eigentlich nur die Technologie, die KI,
0:22:28–0:22:33
ich zahle aber nichts für die Informationen, die vielleicht aus irgendeinem
0:22:33–0:22:36
Lexikon stammen, von den New York Times stammen, die dort eigentlich hinter
0:22:36–0:22:38
der Paywall wären und so.
0:22:38–0:22:44
Also, über das ich finde, erinnerst du dich noch an diese Diskussionen um MP3,
0:22:44–0:22:49
wo dann irgendeine arme Hausfrau, die halt ein paar MP3s in eine Tauschbörse
0:22:49–0:22:53
eingestellt hat, ist sie von den Rechteinhabern vor Gericht gezerrt worden und
0:22:53–0:22:56
zu einer ich glaube, es hat tatsächlich so einen Fall gegeben von einer Frau,
0:22:57–0:22:59
wo sich das nicht bewusst war und dann irgendwie,
0:23:00–0:23:02
Hunderttausende von Dollar Strafe zahlen musste.
0:23:02–0:23:06
Also eben auf die Kleine ist man dann losgegangen und die Tech-Konzern tun jetzt
0:23:06–0:23:12
so, wie wenn es nie so eine Regelung gegeben hätte, was man mit Inhalt dürfen und was nicht.
0:23:12–0:23:18
Da gibt es übrigens auch eine nette Story, wo das losgegangen ist mit Napster.
0:23:19–0:23:24
Hat die damalige RIAA, Recording Industry of America, hatte,
0:23:24–0:23:27
hat sie dann auch relativ aggressiv geschossen.
0:23:27–0:23:30
Genau, das sind die waren. Wo sie dann aber angefangen haben wirklich,
0:23:30–0:23:33
und glaube sogar irgendwie das drittejährige Mädchen zu verklagen,
0:23:34–0:23:38
hat dann wirklich glaube ich irgendwie die damalige Chaffings so I'm out.
0:23:38–0:23:44
Das geht zu weit. Also wenn du jetzt, klar, wenn du gehst, die Brandy CD verkaufen,
0:23:45–0:23:50
dann ja, hast du erfunden, äh, für die Entschuldigung Entschuldigung,
0:23:52–0:23:57
aber grundsätzlich kann man sich etwas überlegen,
0:23:59–0:24:04
Wir haben ja auch schon Songs im Stadtfilter gespielt wie an dich und dann würde
0:24:04–0:24:06
mein Kollege, der halt die Band hat, würde halt auch irgendwie ein bisschen
0:24:06–0:24:10
dantieren, wie er es wie so überkommt. Ist da bei uns drauf, ja.
0:24:12–0:24:17
Ja, das ist so. Und eben, dass man jetzt da nicht einmal darüber diskutiert,
0:24:17–0:24:19
finde ich irgendwie bemerkenswert.
0:24:20–0:24:25
Weil eben im Gegensatz zum 13-jährigen Mädchen, der wahrscheinlich nicht das
0:24:25–0:24:28
gemacht hat, um reich zu werden.
0:24:28–0:24:33
Sogar wenn sie noch ihr Sackgeld aufgebessert hat, dann wäre das ein Sackgeld gewesen.
0:24:33–0:24:39
Aber wir sehen ja jetzt, was OpenAI und was da für ein Geschäft gewittert wird.
0:24:39–0:24:42
Also das sind dann nicht ein paar Cent, sondern das sind Milliardenbeträge.
0:24:42–0:24:46
Also wir sind da in einem anderen Bereich.
0:24:46–0:24:50
Und jetzt ist dann, jetzt müssen wir doch noch über Apple reden,
0:24:50–0:24:56
ist dann Apple jetzt der Ritter in der glänzenden Rüstung, die alles besser macht,
0:24:56–0:25:02
weil die haben zumindest das Gefühl, sich ein bisschen mehr Mühe zu geben und
0:25:02–0:25:09
ein bisschen mehr auf die Privatsphäre schauen mit dieser Apple Intelligence, wie sie das nennen.
0:25:09–0:25:13
Oder sind die genauso schlimm wie alle anderen? Was meinst du?
0:25:14–0:25:18
Ich muss sagen, dass wir wieder einmal das Wort «Pizza» und so gesagt haben.
0:25:19–0:25:23
Die müssen uns jetzt dann Tante Jemen zahlen, für jedes Mal, wenn wir es nennen.
0:25:25–0:25:31
Podcast, dass eben die sehr natürliche Sitzung in dir seit dem iPhone 4S halt stehen geblieben ist.
0:25:31–0:25:35
Und eben vor allem im Englischen, wenn ich jetzt irgendein Mail habe von dir,
0:25:36–0:25:41
ich sage, du lässt mich zu einem Grillfest stehen und ich sage add this to the calendar.
0:25:41–0:25:48
Dann eben this, also ja, das Mail, das einfach ein this in den Kalender geschrieben und solche Sachen.
0:25:49–0:25:51
Ja, das ist mir auch öfters passiert.
0:25:52–0:25:56
Grundsätzlich würde ich schon sagen, dass Apple in Sachen Datenschutz ist schon
0:25:56–0:26:01
eine Firma, die ich jetzt mehr vertrauen würde als Microsoft oder speziell Google.
0:26:01–0:26:04
Ich sage auch immer so, und das ist nicht mal despektierlich gemeint,
0:26:05–0:26:08
Apple verdient ihr Geld mit überteuerter Hardware.
0:26:09–0:26:13
Und Google verdient das Geld oder auch Meta mit unseren Daten.
0:26:14–0:26:20
Zuerst mal glaube ich ihnen an das Commitment, dass sie die Daten so gut wie
0:26:20–0:26:21
möglich schützen wollen.
0:26:21–0:26:26
Und ich nehme auch wahr, dass es plus minus anonymisiert ist und vieles läuft
0:26:26–0:26:30
ja sogar auf deinem eigenen Gerät und wird nicht eben wie bei Chat-Scheiben
0:26:30–0:26:32
die irgendwo mal in den Wolken geschmissen.
0:26:32–0:26:36
Also da her mal das Commitment, was sie wollen, das nehme ich ihnen ab.
0:26:37–0:26:39
Genau, das muss man vielleicht noch schnell ein bisschen erklären,
0:26:39–0:26:40
aber es ist tatsächlich so,
0:26:40–0:26:46
dass wenn man die Apple Intelligence auf dem eigenen Gerät benutzt und man kann
0:26:46–0:26:51
darum wahrscheinlich auch das nur auf den ganz neuen Gerät einsetzen und die
0:26:51–0:26:53
Älteren sind da alle aussen vor,
0:26:53–0:26:56
dann probiert das iPhone oder das MacBook,
0:26:56–0:27:00
das dann das macht, das zuerst lokal zu machen.
0:27:00–0:27:04
Man kann ja all die KIs auch lokal betreiben. Das Problem ist halt,
0:27:04–0:27:07
dass sie wahnsinnig viel Daten brauchen.
0:27:08–0:27:14
Also das sind riesige Modelle. Ich habe so ein paar von diesen Open Source Chatbots abgeladen.
0:27:14–0:27:19
Das Lama, das vorne 2L hat zum Beispiel, das sind halt 5-6 GB,
0:27:20–0:27:26
die man da runterlassen und die halt auf so einem Telefon ein bisschen schwierig sind zu betreiben und.
0:27:27–0:27:30
Aber sie probieren das zuerst lokal zu machen und wenn es nicht geht,
0:27:30–0:27:38
dann probieren sie es zuerst im Web in einem Rechenzentrum von Apple zu machen
0:27:38–0:27:39
und wenn es dann immer noch nicht funktioniert,
0:27:40–0:27:44
dann gehen sie dann vielleicht bei ChatGPT nachfragen, sie haben jetzt den Vertrag
0:27:44–0:27:47
mit OpenAI und lassen es dann dort beantworten.
0:27:47–0:27:49
Das kann man aber immer auch unterbinden.
0:27:49–0:27:54
Und finde ich theoretisch eigentlich einen guten Ansatz, der wahrscheinlich
0:27:54–0:27:59
die Privatsphäre besser schützt, wenn wir einfach mal alles irgendwo heranrühren.
0:28:00–0:28:04
Aber es ist dann wahrscheinlich trotzdem für die Nutzer extrem schwierig abzuschätzen,
0:28:05–0:28:09
welche von ihren Daten jetzt auf dem Gerät bleiben, welche das dann irgendwo
0:28:09–0:28:10
in der Cloud landet und so.
0:28:12–0:28:16
Und ich habe ein ungutes Gefühl, darum auch da, muss ich sagen.
0:28:17–0:28:21
Ja, was man aber auch wieder sagen muss, das schöne Wort Opt-in,
0:28:21–0:28:26
also soviel ich weiss, Stand heute mit der ersten Beta, du kannst ihm nicht
0:28:26–0:28:29
den grünen Schalter geben, also er fragt dich bei jeder Anfrage,
0:28:30–0:28:31
do you want to ask Chatschip?
0:28:31–0:28:33
Genau, das 6.0 habe ich auch gelesen.
0:28:33–0:28:39
Was ich eigentlich schon mal gut finde, weil, ja, das kannst du auch mal alle erlauben.
0:28:39–0:28:42
Da klickst du halt schon auch als Informatiker manchmal schnell drauf.
0:28:43–0:28:46
Ja. Also das finde ich jetzt mal, ich glaube, es ist gut gemeint.
0:28:46–0:28:51
Und wie gesagt, was man halt auch sagen muss, was die an dieser Keynote gezeigt
0:28:51–0:28:54
haben, und da werden wahrscheinlich geschnitten haben, wie blöd,
0:28:54–0:28:56
also wie sagen wir, die Videoschnitte. Ja.
0:28:57–0:28:59
Weil es ist auch klar,
0:29:00–0:29:05
Wenn ich Chat-GPT oder Suno-Leute gezeigt habe, dann war der Song,
0:29:06–0:29:07
den ich nicht gegeben habe, ein Sonnenschrott.
0:29:08–0:29:11
Live kannst du sowas gar nicht mehr machen. Ja, genau.
0:29:12–0:29:18
Und ich würde auch sagen, im Moment ist es wirklich schwierig, wenn du so eine KI hast,
0:29:19–0:29:22
die dann direkt auf deinem Gerät arbeitet und auch mit der Cloud und mit deinen
0:29:22–0:29:27
lokalen Daten und mit deinem Adressbuch und mit deinen Nachrichten,
0:29:27–0:29:31
die du geschickt hast und mit dem Verlauf im Browser,
0:29:31–0:29:35
dann wird es irgendwie wahnsinnig schwierig, am Schluss noch abzuschätzen,
0:29:35–0:29:38
wie sicher deine Daten am Schluss noch sind.
0:29:40–0:29:45
Aber Apple, du hast es gesagt, das Engagement ihnen abnehmen,
0:29:45–0:29:47
dass sie versuchen, das besser zu machen, wie z.B.
0:29:48–0:29:53
Microsoft, wo du dann das Gefühl hast, es gibt ja auch die KI im Office,
0:29:53–0:29:59
wo du dann nie genau weisst, wie viele von denen dann auf irgendeinem Server
0:29:59–0:30:02
von diesen Daten zurückbleiben, die du jetzt damit schaffst,
0:30:02–0:30:03
wenn du mit dieser KI schaffst.
0:30:03–0:30:08
Ist vielleicht besser, vielleicht auch nicht, aber ich sehe da noch eine riesen
0:30:08–0:30:10
Arbeit auf uns zu kommen,
0:30:10–0:30:15
auch von uns anzuwenden, dass wir sagen, wir wollen halt diese Kontrolle und
0:30:15–0:30:20
wir vertrauen euch nicht so sehr, dass wir euch einfach das grüne Licht geben
0:30:20–0:30:23
und sagen, macht einfach, was ihr für richtig haltet.
0:30:23–0:30:26
Nein, ist ganz genau so, wobei eben, jetzt kann man schon sagen,
0:30:27–0:30:30
eben Chat-GTT kennt natürlich in der Mittlerwelle einfach jeder,
0:30:31–0:30:33
also nicht nur wir, also ich weiss noch, es war glaube ich der Maggie,
0:30:33–0:30:37
das war etwa zwei Jahre her, als er in unseren Chat reingerührt hat.
0:30:38–0:30:44
Damals, boah, als ich es den Leuten gezeigt habe, was ist das jetzt?
0:30:44–0:30:47
Und heute wüsste ich es sagen, es gehen Leute in den Chat-Scheibetier,
0:30:47–0:30:53
gib mir ein gutes Restaurant in XY, anstatt auf den TripAdvisor zu gehen.
0:30:53–0:30:56
Aber eben, die KI hat immer noch das Problem, sie gibt einem Restaurant,
0:30:56–0:30:57
das sie seit 20 Jahren nicht mehr gibt.
0:30:58–0:31:01
Ja, genau. Das ist gut für die Linie und für das Portemonnaie,
0:31:01–0:31:04
aber für die Lune vielleicht nicht.
0:31:04–0:31:07
Ja, ich glaube, wir werden diesem
0:31:07–0:31:12
Thema auch weiter hinten reinrennen und schauen, was dabei rauskommt.
0:31:12–0:31:19
Ich glaube, es wird wahrscheinlich das eine oder andere Debakel brauchen und das eine oder andere.
0:31:22–0:31:26
Privacy, Privatsphäre supergau, wo dann halt irgendetwas rauskommt,
0:31:26–0:31:30
wo jemand ganz blöd ansteht. Ich hoffe, dass ich es nicht bin und dass es du nicht bist.
0:31:31–0:31:36
Aber ja, wir bleiben am Ball und wie würdest du sagen, wie lange haben wir?
0:31:36–0:31:40
Wieder am Schluss noch eine von unseren berühmten Prognosen.
0:31:40–0:31:42
Hat sich das in fünf Jahren zurechtgerüttelt?
0:31:43–0:31:45
Haben wir da einen sauberen Umgang,
0:31:45–0:31:48
wo wir alle zufrieden sind und können sagen, damit können wir leben?
0:31:49–0:31:53
Ich denke schon, da wird sicher noch viel passieren und eben zur Not,
0:31:53–0:31:55
zumindest in der EU, wird der Gesetzgeber sicher auch mal irgendwie,
0:31:56–0:32:01
es gibt ja den AI-Action, da hast du glaube ich mal mit Kevin Jovinski darüber
0:32:01–0:32:02
geredet. Genau, so ist es.
0:32:02–0:32:07
Ich glaube schon, da wird irgendwann zur Not halt einfach eine EU sagen,
0:32:07–0:32:10
hey, stopp, und eben da die Schweiz doch irgendwie noch ein bisschen in der
0:32:10–0:32:14
EU ist, wir werden auch sagen, ja, ja, nein, stopp, so geht es nicht mehr.
0:32:14–0:32:18
Und eben, was du gesagt hast, irgendjemand knallt mal grausam rein.
0:32:19–0:32:21
Schade wäre es eigentlich, eben Apple, würde ich sagen, eben,
0:32:21–0:32:25
früher hast du glaube ich im Arbeitszeugnis gesagt, gibt es sich Mühe und jetzt
0:32:25–0:32:30
Apple muss sich Mühe geben, wenn jetzt einfach an denen halt mal ihre Server aufgemacht werden.
0:32:30–0:32:35
Das kann passieren, wenn es dann gerade die wären, wäre es ein bisschen tragisch.
0:32:35–0:32:40
Und vielleicht noch als Abschluss eine politische Aussage und eine politische Note,
0:32:40–0:32:44
ich glaube, wir müssen allein aus diesem Grund, ein bisschen Sorge zu haben
0:32:44–0:32:48
zur EU, weil man muss ja mit diesen Gesetzen nicht immer einverstanden sein,
0:32:49–0:32:54
aber es ist, glaube ich, wichtig, dass man jetzt ist irgendwie etwas kaputt
0:32:54–0:32:55
gegangen hier drin, keine Ahnung.
0:32:55–0:33:02
Also irgendwie das Studio spinnt auch, wahrscheinlich hat der Kai keinen KI installiert.
0:33:02–0:33:08
Also ich würde sagen, eben, die EU hält dagegen und das ist gut und wichtig
0:33:08–0:33:13
so und darum drücken wir allein nur schon wegen der EU-Toume,
0:33:13–0:33:14
oder? Findest du nicht auch?
0:33:14–0:33:17
In dieser Sache sicher, weil allein könnte man da, glaube ich,
0:33:17–0:33:24
hätte Herr Zuckerberg nicht so Interesse, wenn irgendwie Frau Amherd bei meinem,
0:33:24–0:33:26
wo sind es, Palau Facebook steht.
0:33:29–0:33:40
Music.

Wer gehofft hatte, die künstliche Intelligenz sei ein Hype, der so schnell wieder abflaut wie das Metaversum, das smarte Home oder die Wearables, der muss Mitte 2024 einsehen, einem Irrtum unterlegen zu sein. Kaum ein Unternehmen, das nicht eine abteilungsübergreifende Taskforce im Einsatz hat, die überlegt, wo und wie KI alles anders, besser und effizienter machen könnte – und kaum eine Arbeitnehmerin und ein Arbeitnehmer, der sich nicht fragt, wie gross die Gefahr ist, dass überstürzte Entscheide unabsehbare Folgen zeitigen werden.

Doch die Angst, ins Hintertreffen zu geraten (Schlagwort «Last to market») ist riesig; vor allem bei den Tech-Konzernen. Microsoft und Google haben KI-Produkte angekündigt und teils lanciert, die einen überhasteten und unausgegorenen Eindruck machen – und uns vermuten lassen, wie gross die Panik in manchen Chefetagen sein muss.

Nützt es da etwas, wenn wir ruhig Blut predigen und die Entwicklungen kühl analysieren? Vermutlich nicht, aber wir tun es trotzdem. Eine Auslegeordnung zu «AI Overview» von Google, Microsoft Recall, Meta AI und der Frage, wie das private KI-Training mit unseren öffentlichen Daten zu bewerten ist. Und wir kommen um die «Apple Intelligence» nicht herum: Ist Tim Cook die Stimme der Vernunft oder seinerseits einer, der sich vom KI-Fieber hat anstecken lassen?

Die Links zur Episode

Preshow

KI

Beitragsbild: Wichtiges Memo der Chefetage (Dall-e 3).

Veröffentlicht von Matthias

Nerd since 1971.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert