Transkript anzeigen (falls vorhanden)
0:00:06–0:00:12
Amix mit Störung auf der, nicht auf der Datenautobahn, sondern auf der normalen Autobahn.
0:00:12–0:00:15
Und das geht uns völlig am Hinterteil vorbei.
0:00:20–0:00:24
Stattfilter. Und da ist der Digi Chris und der hat keine Störung,
0:00:24–0:00:29
weil der ist aus dem hohen Norden zurück mit seinem Schiff getuckert und ist angelegt.
0:00:29–0:00:33
Also angelegt, Schiff hat angelegt. Ich bin auf Angelegen. Keine Angst.
0:00:33–0:00:36
Nicht Bluetooth ausgestiegen und alles ist gut.
0:00:37–0:00:39
Ja, ich behaupte einfach, alles ist gut, oder?
0:00:40–0:00:45
Es ist halt schade, wenn so Ferien vorbei gehen. Ach, genau.
0:00:45–0:00:48
Hast du jetzt deine ganze Sommerferien schon verpulvert?
0:00:48–0:00:53
Nein, ich rede noch was. Aber eben, also was ich glaube, das ist am Mittwoch
0:00:53–0:00:55
dann gewesen. Ich bin am Dienstag eben vom Schiff gekommen.
0:00:56–0:00:59
Und am Mittwoch sind wir im Molde gewesen. Und dann hat plötzlich...
0:00:59–0:01:04
Ich habe mein Handy immer auf silent. und er hat das Handy am 12.00 Uhr plötzlich
0:01:04–0:01:05
angefangen, Beep, Beep, Beep zu machen.
0:01:06–0:01:08
Und ich, was ist jetzt los?
0:01:09–0:01:13
Sirenen haben geräutet und ja, ich habe mir Kevin gesagt, frag mal deine Frau.
0:01:13–0:01:16
Es ist anscheinend der Sirenen, die es war in Norwegen.
0:01:16–0:01:20
Und also, ja, die haben es schon geschafft, Self-Broadcast zu benutzen.
0:01:20–0:01:23
Also wer das nicht weiss, das ist einfach...
0:01:24–0:01:29
Da kannst du einem Handy eine Notfallmessage schicken, weil es gibt zwar Swiss
0:01:29–0:01:32
Alert Apps, aber wenn du jetzt vielleicht an einer Street Parade bist,
0:01:32–0:01:35
wo zwei Millionen Leute im Datennet sind,
0:01:36–0:01:40
knallt die Datenverbindung zusammen und die läuft noch.
0:01:40–0:01:44
Und es ist so weit gegangen, ich habe auf der Kabine mein Geschäftshandy gehabt,
0:01:44–0:01:49
wo dort sicher keine Datenverbindung hat und auch dort ist der Alert angekommen, also.
0:01:50–0:01:53
Ich hoffe einfach, unsere Behörden machen das, weil eben, wenn im schlimmsten
0:01:53–0:01:59
Fall, eben stell dir vor, Street Parade, eine Massenpanik, dann könnt du die Leute alarmieren,
0:01:59–0:02:03
eben, gehen dir irgendwie richtig dort und dort, also dass die Norweger das
0:02:03–0:02:07
schon können und wir nicht und Cell Broadcast gibt, seit wir GSM haben.
0:02:07–0:02:09
Ja, also, dass Die Griechen konnten das auch.
0:02:09–0:02:13
Ich war vor, lass mich überlegen, vor einem oder vor zwei Jahren.
0:02:13–0:02:18
Ich glaube, 2024, also vor einem Jahr gut war das.
0:02:18–0:02:22
Und dort kam auch eine Meldung, als ich am Strand gelegen war.
0:02:22–0:02:25
Er sagte, grosses Erdbeben und so. Da habe ich schon gedacht,
0:02:25–0:02:27
oh Scheisse, was machen wir jetzt?
0:02:27–0:02:32
Gehen wir voraus an den Strand? Und wenn du dich von diesen griechischen Buchstaben
0:02:32–0:02:37
nicht irritieren lässt, dann hast du am Schluss gesehen, dass es eine Zivilschutzübung
0:02:37–0:02:41
war und dass du jetzt nicht irgendwo hinrennen musst. Das war noch gut.
0:02:41–0:02:46
Aber man hätte vielleicht für Touristen, die das ja auch bekommen,
0:02:46–0:02:52
logisch, also ich meine, wenn ein echtes Erdbeben wäre, wäre das auch okay so.
0:02:53–0:02:56
Aber es wäre halt wirklich gut, wenn man das vielleicht ein bisschen deutlicher würde.
0:02:56–0:03:01
Ich weiss nicht, ich habe mir dann überlegt, ob ich an der Rezeption fragen
0:03:01–0:03:04
soll, wie viele Leute das jetzt panisch anzurennen sind.
0:03:05–0:03:07
Aber rundherum hat also alles entspannt
0:03:07–0:03:11
ausgesehen. Aber Cell Broadcast funktioniert, ist eine gute Sache.
0:03:11–0:03:16
Und wir in Deutschland wollen es jetzt einführen und wir in der Schweiz haben das auch nicht, oder?
0:03:16–0:03:20
Also ich glaube, weil ich dann auch mit einem Deutschen geredet habe,
0:03:20–0:03:24
die haben es schon und ich glaube, wir kommen jetzt dann über.
0:03:24–0:03:29
Und wie gesagt, es kann ja tatsächlich im Ernstfall Leben retten.
0:03:29–0:03:34
Ja, also ich erinnere mich daran und das war noch, glaube ich,
0:03:34–0:03:39
so 2002 vielleicht, um das herum.
0:03:39–0:03:44
Wenn du zu Wien warst und noch kein Handy gehabt hast mit Datenverbindung und
0:03:44–0:03:51
kein Smartphone und nicht navigieren konnte, hat dir an diesem Handy Zellen angezeigt.
0:03:53–0:03:58
Es war halt nicht sehr genau, aber du hast die Strasse oder vielleicht das Quartier
0:03:58–0:04:04
oder so an deinem uralten Nokia-Knochen angezeigt bekommen und hast dich so
0:04:04–0:04:07
zumindest grob orientieren können.
0:04:07–0:04:12
Du warst nicht völlig ahnungslos, wo das in dieser Stadt ist.
0:04:12–0:04:16
Das hat aber das Swisscom auch mal gehabt, aber das war bei uns damals so grob.
0:04:17–0:04:21
Bei mir hat es immer geheißen Periken, die ich gewohnt habe,
0:04:22–0:04:25
das ist dann doch 30 Kilometer, aber ja, das stimmt schon einigermaßen.
0:04:26–0:04:28
So ausgerechnet Periken, ja.
0:04:28–0:04:32
Genau, das hängt natürlich von der Zellengrösse ab und diese Zellen,
0:04:32–0:04:37
so beim normalen GSM, GSM, konnten sie recht gross sein.
0:04:37–0:04:40
Und da hatten es auch wenige Leute, die sich getummelt haben und darum logischerweise
0:04:40–0:04:45
ist es nicht so genau gewesen. Aber heute wahrscheinlich im HB unten könntest
0:04:45–0:04:48
du, wenn du das so pro Zellen würdest machen, könntest du das irgendwie jedes
0:04:48–0:04:50
Gleis richtig anschreiben.
0:04:50–0:04:52
Könntest du sagen, ja, Lederach oder Nieswang Lang.
0:04:53–0:04:56
Genau, genau. Das könnte man machen.
0:04:56–0:05:01
Also, wir haben noch 50 Sekunden, Digi Chris, und du wolltest noch einen Abgesang
0:05:01–0:05:03
halten. Habe ich das richtig in Erinnerung?
0:05:03–0:05:06
Ja, eben. 20 Minuten schnell Printausgabe.
0:05:07–0:05:11
Ich habe die jetzt auch schon ewig nicht mehr gelesen, aber ich erinnere mich
0:05:11–0:05:14
einfach an die Kante-Zeiten, so 98, 99.
0:05:15–0:05:18
Ja, hat es da schon gegeben, wann ist 20 Minuten in die Schweiz gekommen? Ist das schon vor der...
0:05:19–0:05:22
Ich weiss einfach noch, wo ich sicher noch kein Smartphone hatte,
0:05:22–0:05:24
und ich weiss noch immer im 14er,
0:05:24–0:05:28
nach Bahnhof Vierdien, hast du halt das Zeug gelesen, und ja,
0:05:28–0:05:32
es ist jetzt nicht hochständig Journalismus, aber du bist halt informiert gewesen,
0:05:32–0:05:36
und eben, du hast noch keinen RSS-Reader gehabt. So ist es.
0:05:36–0:05:40
Und ich habe gehört, jemand, der das heute gesagt hat, eine Prognose, Das war nicht ich.
0:05:40–0:05:44
Er sagte, Print in der Schweiz gibt es noch fünf Jahre und dann gibt es überhaupt
0:05:44–0:05:46
keinen gedruckten Zeitungen mehr.
0:05:47–0:05:53
Und über das diskutieren wir jetzt nicht, sondern über eine andere mediale Katastrophe.
0:06:09–0:06:13
Die künstliche Intelligenz, Digi Chris, bleibt dir auch heute nicht erspart.
0:06:14–0:06:16
Sie bedroht die KI, das Web.
0:06:16–0:06:22
Viele Surferinnen und Surfer informieren sich nicht mehr mittels Originalquellen,
0:06:22–0:06:28
also zum Beispiel mit einer Online-Webseite, einer Tageszeitung, einem Medium,
0:06:29–0:06:33
sondern anhand der Antworten von so einer KI, wie zum Beispiel Perplexity.
0:06:33–0:06:39
Und ich habe mir mal überlegt, was das Worst-Case-Szenario dieser Entwicklung
0:06:39–0:06:43
könnte sein und wir sind auf eine wunderbare, schöne Dystopie gekommen,
0:06:43–0:06:45
passt auch zu einem vorherigen Thema, das wir schon kannten.
0:06:46–0:06:49
In dieser Dystopie haben die Tech-Konzernen eine.
0:06:51–0:06:56
Informationswüste geschaffen, die sie kontrollieren, indem sie entscheiden,
0:06:56–0:06:59
was in dieser Wüste in die Information und was nicht.
0:06:59–0:07:04
Ob das übertrieben ist, ob wir Panikmacher sind an dieser Stelle,
0:07:05–0:07:08
oder ich, oder Schwarzseer, oder ob es vielleicht trotzdem so kommt.
0:07:08–0:07:12
Über das wollen wir reden. Das ist quasi die inoffizielle oder ganz offizielle
0:07:12–0:07:20
Fortsetzung vom Nordfunk 755, wo es generell um die KI-Entwicklung in diesem Jahr gegangen ist.
0:07:22–0:07:29
Hast du das mitverfolgt? Hast du das Google AI-Overviews schon live im Einsatz gehabt?
0:07:30–0:07:33
Ich komme es manchmal über, aber nicht immer. Und mich tut es,
0:07:33–0:07:38
wenn ich mal etwas auf Englisch hineintippe, kommt es eher, als wenn ich etwas
0:07:38–0:07:40
auf Deutsch suche. Aber ich habe es auch schon gehabt.
0:07:40–0:07:43
Also auch wenn ich mich mit einem Google-Account und ich habe einen.
0:07:44–0:07:47
Wie heisst es, einfach das Abo mit dem Speicher.
0:07:47–0:07:52
Das heisst Google, heisst es nicht Google, nein, One heisst es beim Apple,
0:07:52–0:07:54
glaube ich. Ich weiss es nicht, aber ich weiss, was du meinst.
0:07:54–0:07:58
Ich habe es auch schon übergekommen, aber nicht immer.
0:07:58–0:08:01
Also ich könnte Ich kann dir nicht sagen, bei diesem Prompt kommt es nicht über,
0:08:01–0:08:02
bei dem anderen kommt es nicht über.
0:08:02–0:08:06
Nein, das ist tatsächlich so, dass ich an einer Veranstaltung von Google war.
0:08:07–0:08:11
Ich habe tatsächlich dort mal die Frau, jetzt ist mir der Name entfallen,
0:08:11–0:08:15
Google-Suchchefin, ich habe sie nicht persönlich kennengelernt,
0:08:15–0:08:18
aber ich war mit ihr in der gleichen Videokonferenz,
0:08:19–0:08:25
wo sie auch von diesen AI-Overviews erzählt hat, nämlich kurz bevor die hier
0:08:25–0:08:27
in der Schweiz lanciert wurden.
0:08:27–0:08:31
Das war Ende April 2025.
0:08:31–0:08:36
Vorher konnte man es schon in den USA ausprobieren. Sie sagen, sie schauen,
0:08:36–0:08:45
ob man sie eher auf herkömmliche Art und Weise beantwortet, also einfach mit
0:08:45–0:08:49
Suchtreffer, oder ob man sie besser mit KI beantwortet.
0:08:49–0:08:53
Sie springt darum nur je nach Situation an.
0:08:54–0:08:56
Weniger bei aktuellen Themen. Dort
0:08:56–0:09:01
kommt man im Moment noch eher eine News-Webseite rüber, aber wenn du z.B.
0:09:01–0:09:05
Fragst, wie bringe ich einen Rotweifleck aus meinem weissen Hemd raus,
0:09:05–0:09:10
dann ist die Wahrscheinlichkeit recht gross, dass eine solle AI-Overview dir
0:09:10–0:09:16
das verratet und natürlich in dem Moment dich wahrscheinlich davon abhalten,
0:09:16–0:09:22
auf eine schöne Service-Webseite zu gehen, wo dir allerhand,
0:09:23–0:09:24
textile Umfälle.
0:09:25–0:09:29
Behoben werden, erklärt wird, wie du das machen kannst.
0:09:29–0:09:34
Das passiert jetzt eben nicht mehr im Web selber, sondern es passiert jetzt direkt bei Google.
0:09:34–0:09:39
Und ja, es gibt Leute, die sagen, das Web, so wie wir das kennen,
0:09:40–0:09:42
ist genau wegen dem bedroht.
0:09:42–0:09:47
Und Digi Chris, bist du da, was die Frage angeht, eher auf der Seite von denen,
0:09:47–0:09:50
die schwarz gesehen oder einer auf der Seite von denen, die sagt,
0:09:51–0:09:52
nein, das kommt nicht so schlimm.
0:09:52–0:09:56
Also schnell, wenn ich jetzt einen Rotbeifleck auf dem Hemd hätte,
0:09:56–0:09:58
würde ich 200 Meter laufen.
0:09:58–0:10:02
Hey, Cesar, kannst du mich mal bitte mit einem Hemd? Gut, aber du hast.
0:10:05–0:10:09
Einen Dings, wie sagt man dem? Einen Laundry Shop in der Nähe.
0:10:09–0:10:12
Also ich habe einen Laundry Shop und wie gesagt, ja, ich kann waschen,
0:10:12–0:10:16
aber Hemper, nein, das geht überhaupt nicht. Du müsstest ja noch glätten im Fall.
0:10:17–0:10:22
Ja, eben. Also, ich sage jetzt gut, gut für 4,50 Euro, komm.
0:10:23–0:10:26
Anyway, aber ich habe mich jetzt gerade gestern ertappt, eben,
0:10:26–0:10:30
wir haben jetzt ja leider im Nahen Osten wieder ein bisschen Stunk und da habe
0:10:30–0:10:36
ich mir gefragt, warte jetzt mal, du hast Shia und du hast Sunni bei den Muslimen, wer ist jetzt wer?
0:10:36–0:10:42
Und da habe ich halt wirklich Chatchen betrieben, was ist der Unterschied zwischen Shia und Sunni?
0:10:42–0:10:46
Du hättest es sicher auch googlen, aber ich denke mich immer mehr,
0:10:46–0:10:49
wenn ich irgendwas wissen will, Gehe ich einfach auf ChatGPT?
0:10:50–0:10:54
In dieser Frage ist es wahrscheinlich nicht so kritisch, weil du das auf zwei
0:10:54–0:10:55
Millionen Webseiten siehst.
0:10:55–0:11:01
Aber eben, wenn ich jetzt vielleicht sagen kann, du hast zum Beispiel einmal einen Blog umgezogen.
0:11:01–0:11:04
Ich weiss nicht mehr, wie das alte CMS geheissen hat.
0:11:04–0:11:09
Flatpress. Aber eben, wie ziehe ich von Flatpress nach WordPress um? Boom.
0:11:10–0:11:14
Dann wird mir das ChatGPT geben. Er wird mir...
0:11:15–0:11:18
Wahrscheinlich das für deinen Blog geben und du wirst wahrscheinlich dann im
0:11:18–0:11:20
blödsten Fall keinen Müll-Rappen sehen. Genau.
0:11:21–0:11:29
Wenn ich auf Clickomania gehe, hättest du vielleicht noch zwei Rappen von meiner Anfrage.
0:11:29–0:11:34
Und ja, ist jetzt vielleicht für dich nicht lebenswichtig, aber für andere vielleicht schon.
0:11:34–0:11:38
Ja, eben, ich lebe natürlich schon auch von solchen Informationen,
0:11:38–0:11:43
die im Netz zu finden sind, nicht mit meinem Blog, aber mit den News-Websites.
0:11:43–0:11:49
Dort gibt es, wenn ich gerade mal noch schnell diese Stimmen channelen darf.
0:11:50–0:11:55
Die sagen, es ist nicht so schlimm, diese typische News-Website hat jetzt nicht
0:11:55–0:11:58
den grössten Anteil von ihrem Google-Traffic,
0:11:59–0:12:02
kommt nicht von der Suche, sondern das kommt im Moment von dem Discover,
0:12:03–0:12:07
also wenn du ein Android-Telefon hast, dann siehst du dort News und die werden
0:12:07–0:12:10
von Google dann auf diese News-Website gebracht.
0:12:10–0:12:16
Also das ist ein Traffic-Treiber, wenn man so schön sagt, aber natürlich kann
0:12:16–0:12:17
sich das auch jederzeit ändern.
0:12:17–0:12:21
Oder Google könnte auf die Idee kommen, statt dort einfach die News anzuzeigen
0:12:21–0:12:25
und den Traffic an Webseiten weiter zu vermitteln,
0:12:25–0:12:30
könnten wir den für uns selber behalten und per KI halt aufbereiten,
0:12:30–0:12:33
dass die Leute nicht mehr weiterklicken müssen. Und sage mal Digi Chris,
0:12:33–0:12:34
wie findest du das eigentlich?
0:12:34–0:12:38
Ist das jetzt halt der Lauf der Dinge? Ist das eine natürliche Entwicklung?
0:12:38–0:12:41
Du hast es selber gesagt, es ist wahnsinnig praktisch.
0:12:41–0:12:45
Du kommst schneller an so komplizierte Informationen heran.
0:12:45–0:12:48
Also könnte man sagen, Bedürfnisse von den Nutzerinnen und Nutzer,
0:12:48–0:12:50
natürliche Entwicklung.
0:12:50–0:12:55
Oder ist es ein Verrat von Google? Google hat eigentlich ursprünglich,
0:12:55–0:12:58
ist Google angetreten mit dem Versprechen.
0:12:58–0:13:04
Wir vermitteln einfach, wir sind die zwischen denen, die das Publikum an diese
0:13:04–0:13:08
Webseite bringt. und das passiert jetzt offensichtlich nicht mehr.
0:13:08–0:13:10
Hat uns Google eigentlich ein bisschen beschissen?
0:13:11–0:13:16
Ich meine, wenn wir zurück schauen, wo halt Google News, also News Google.com
0:13:16–0:13:19
gelandet ist, hast du kleine Artikel gesehen, aber wirklich ganz,
0:13:19–0:13:25
ganz kurz, also weiss ich was eben Kreuzfahrtschiff in Norwegen angelegt, aber ja,
0:13:25–0:13:29
ich klicke drauf oder halt irgendwie, keine Ahnung.
0:13:30–0:13:35
SAP macht noch ein Upgrade, aber das ist so kurz gewesen, du hast geklickt und
0:13:35–0:13:40
dann hat halt ob das jetzt Heise, Doggy, Blick, whatever gewesen ist,
0:13:40–0:13:42
hat halt doch die Ad Revenues bekommen.
0:13:43–0:13:49
Und jetzt eben mit der KI kann dir die Teilweise, ich sage, dein Flatpress-Artikel
0:13:49–0:13:53
so zusammenfassen, dass ich gar nicht mehr auf deine Webseite muss. Genau, so ist es.
0:13:53–0:13:57
Und das ist dann schon ein bisschen härter.
0:13:58–0:14:02
Die Verlege kennen ja schon bei Google News, wie dumm da.
0:14:02–0:14:05
Aber die werden wahrscheinlich, wenn das mal noch mehr kommt,
0:14:05–0:14:09
wenn jetzt auch Leute ausserhalb unserer Tech-Bubble auf Chat-GPT gehen.
0:14:09–0:14:11
Nein, das machen wirklich viele.
0:14:12–0:14:17
Das machen auch die Achtung, Anführungszeichen. Die normalen Leute machen das auch.
0:14:18–0:14:24
Also gut, normale Leute, die gehen www.google.com und dann gehen sie bei Google-Hinsen
0:14:24–0:14:27
auf Facebook hin und dann gehen sie auf Facebook.
0:14:27–0:14:31
Die gibt es, aber von denen dürfen wir uns nicht irritieren lassen.
0:14:31–0:14:39
Ich glaube, man nennt das auch Zero-Click-Rate. Das ist die Zahl oder der Anteil
0:14:39–0:14:44
von diesen Such-Life auf Google, wo gar nichts mehr, kein Resultat mehr angeklickt wird.
0:14:44–0:14:49
Und diese Rate, oder dieser Anteil ist eigentlich über die Jahre gestiegen und
0:14:49–0:14:53
zwar schon viel früher, auch schon vor der KI, haben wir gesehen,
0:14:53–0:14:58
ein grosser Anteil daran ist gewesen, wo zum Beispiel Google angefangen hat,
0:14:58–0:15:02
die Wikipedia-Informationen einblenden.
0:15:02–0:15:07
Also wenn du heute etwas suchst, wo Wikipedia eine gute Antwort darauf hat,
0:15:07–0:15:14
wo man direkt von Wikipedia Dann erscheint das auf der Suchseite am rechten Rand ein Panel.
0:15:17–0:15:20
Das führt natürlich dazu, dass die Leute nicht mehr unbedingt auf Wikipedia
0:15:20–0:15:23
gehen müssen, ausser wenn sie es genauer wissen wollen, dann gehen sie immer noch.
0:15:23–0:15:27
Aber man hat schon gesehen, das ist 2015, also vor etwa 10 Jahren,
0:15:27–0:15:32
das hat Wikipedia Milliarden an Klicks gekostet, wo man sagen kann,
0:15:32–0:15:34
ja, ist nicht so schlimm.
0:15:34–0:15:39
Wikipedia ist kein gewinnorientiertes Unternehmen, sondern eine Stiftung.
0:15:40–0:15:43
Die brauchen das Geld nicht, die machen keine Werbung, die sind nicht auf die
0:15:43–0:15:47
Werbeeinnahmen angewiesen. könnte man sogar sagen, dass der Traffic,
0:15:47–0:15:52
den Google schon abwickelt, den entlastet die Reserver, wird vielleicht sogar
0:15:52–0:15:53
billiger, könnte man sagen.
0:15:54–0:15:57
Aber natürlich trotzdem, in der Wahrnehmung von vielen Leuten,
0:15:57–0:16:00
ist vielleicht, dass Wikipedia ein bisschen weniger wichtig wurde,
0:16:00–0:16:05
weil sie das Gefühl haben, hey, da gibt mir Google die Auskunft.
0:16:05–0:16:10
Dabei sind das die Wikipedia, all die freiwilligen Helferinnen und Helfer,
0:16:10–0:16:14
die die Informationen zusammengedreht haben, die um ihre.
0:16:17–0:16:21
Anteilnahme, ihre Aufmerksamkeit betrogen worden sind. Und ich finde das,
0:16:21–0:16:26
man sieht, das passiert schon viel früher, aber man hat das Problem halt nicht
0:16:26–0:16:30
gelöst und jetzt sind wir an dem Punkt, wo es eigentlich für,
0:16:31–0:16:33
Webseitenbetrieber fatal werden könnte.
0:16:34–0:16:38
Also du bist, verstehe ich richtig, du bist schon auch eher auf dieser Seite,
0:16:38–0:16:42
die sagen, das wird schlimm werden, aber wir können das nicht aufhalten.
0:16:43–0:16:48
Ja, ist so. Ich muss es fairerweise sagen, ich habe auch vor ein paar Monaten
0:16:48–0:16:51
meinen Netblocker wegschmissen, weil ich eben gefunden habe, ja,
0:16:52–0:16:58
eben eine 20-Minuten-Watson-whatever, die halt eben dir gratis News geben. Ja.
0:16:59–0:17:03
Der Schreiber, der bei Watson ist, der muss auch irgendwie von mir ernähren.
0:17:04–0:17:06
Und dann habe ich gesagt, ja, dann habe ich halt die Gottverdammten,
0:17:07–0:17:11
Entschuldigung. Müssen wir piepsen nachher, ja. Habe ich halt die Ads,
0:17:11–0:17:14
aber die müssen auch Geld verdienen. Ja.
0:17:15–0:17:21
Komm, nimmst du halt die Adblocker in den Werbe. Du gehst auch auf meinen Blog ohne Werbeblocker.
0:17:22–0:17:25
Also ich habe den Adblock Plus weggeschmissen. Ja.
0:17:25–0:17:30
Ich muss gestehen, obwohl ich auch gerne Werbeeinnahmen habe, habe ich selber einen.
0:17:30–0:17:34
Das ist ein bisschen schizophren, aber da können wir mal separat darüber reden.
0:17:34–0:17:38
Oder ein bisschen inkonsequent. Aber eigentlich kann man sagen,
0:17:38–0:17:42
es ist vielleicht doch auch die andere Seite dieser Medaille,
0:17:42–0:17:48
dass mit dieser Werbung so auch jetzt schon recht schwierig Geld verdient war,
0:17:48–0:17:54
dass man sie halt so aggressiv gemacht hat, dass dann wieder eine Gegenbewegung eingesetzt hat.
0:17:54–0:17:58
Und wenn vielleicht Google nicht so aggressiv würde versuchen,
0:17:59–0:18:04
alles selber einzusacken, die in diesem Web zu holen ist, dann würden vielleicht
0:18:04–0:18:07
auch Leute, wenn ich nicht ganz so schlimme Werbung auf dem Blog habe.
0:18:07–0:18:11
Also über das kann man alles diskutieren. Aber eben, nochmal zurück zu,
0:18:11–0:18:13
wie es jetzt dann vielleicht rauskommt.
0:18:14–0:18:19
Da habe ich, und all die Links, wo ich mich dann darauf beziehen,
0:18:19–0:18:23
findet ihr auch in den Shownotes auf nerdfunk.ch.
0:18:23–0:18:28
Der Matthias Zehnder, der hat auch so einen Blog, wo man immer interessante
0:18:28–0:18:33
Sachen lesen kann Und er hat das recht gut letzte Woche analysiert,
0:18:33–0:18:38
was da eben wirklich auch Konsequenzen von dieser Entwicklung sein könnten.
0:18:38–0:18:43
Und er hat drei Perspektiven gehabt, die ökonomische, die liegt natürlich auf der Hand.
0:18:43–0:18:49
Also es heisst, man kann eigentlich so als Unternehmen auch gar nicht mehr so
0:18:49–0:18:52
mit dieser klassischen Werbung Geld verdienen.
0:18:52–0:18:58
Das SEO, Search Engine Optimization, also das Angebot von diesen Webseiten für
0:18:58–0:19:01
Suchmaschinen, greift nicht mehr so.
0:19:01–0:19:06
Es ist halt schwierig. Es bleibt einfach unter dem Strich, auch wenn Google sagt.
0:19:06–0:19:12
Hört auch bei den AI-Overviews, also bei den KI-generierten Zusammenfassungen.
0:19:12–0:19:19
Die Leute gehen immer noch Webseiten lesen und so bleibt unter dem Strich halt weniger übrig.
0:19:19–0:19:25
Und, um das auch noch zu sagen, am Horizont taucht dann schon das nächste Ding auf.
0:19:25–0:19:27
Google entwickelt den AI-Mode.
0:19:27–0:19:33
Der wäre dann in der Suchmaschine nur noch KI und da gibt es dann gar nichts
0:19:33–0:19:35
mehr, was man so nach Hause sehen würde.
0:19:35–0:19:42
Und es gibt auch den Agent-Mode, wo man sogar die KI dazu bringen könnte,
0:19:42–0:19:43
Sachen für einen zu machen.
0:19:43–0:19:50
Also sagen wir, du willst den und den Film im Kino am Wochenende schauen,
0:19:50–0:19:56
brauchst Kinotickets, dann sagst du das dem Agent von Google und dann kauf dir
0:19:56–0:19:58
deine Tickets und besorg dir,
0:19:58–0:20:01
ohne dass du überhaupt selber jemals noch im Web gewesen wärst.
0:20:01–0:20:06
Oder er ruft sogar nach dem Kino an mit einer generierten Stimme.
0:20:06–0:20:11
Genau, das wird tatsächlich, also wenn ihr das jetzt eine lächerliche Idee findet,
0:20:12–0:20:15
das wird tatsächlich um eine experimentiert. Es gibt es schon, ja, genau.
0:20:16–0:20:20
Also das kann passieren, auch hat nicht Amazon auch so irgendetwas.
0:20:21–0:20:27
Es hat sich alle auch tatsächlich, dass, auch wenn du Calls von einer unbekannter
0:20:27–0:20:33
Nummer dass du eine EI-Stimme herangehst und die wirst du nicht sovorderlich kennen.
0:20:34–0:20:41
Jetzt vielleicht etwas Böses, die Call-Center-Agents, die nicht gerade die hellsten
0:20:41–0:20:44
Köpfe sind, geht es wahrscheinlich relativ lange bis zu merken,
0:20:44–0:20:47
dass du an einer EI bist. Ja, genau.
0:20:47–0:20:51
Aber vielleicht etwas, was wir jetzt wegen Traffic finden.
0:20:53–0:20:56
Das Beispiel, leider nach dem Osten,
0:20:57–0:21:02
Streit und dann fragst du Shia vs Sunni und dann kommst du eine Zusammenfassung
0:21:02–0:21:07
über, aber vielleicht gibt es eine Seite, die das so wunderbar beschreibt,
0:21:07–0:21:12
auch wenn das jemand in seiner Freizeit gemacht hat, mit Bildern, Texten,
0:21:13–0:21:16
kommst du nie auf die Webseite, weil klar, die einen,
0:21:17–0:21:21
glaubt, es muss nachher Mohammed sein oder sonst den Fälscher,
0:21:21–0:21:24
ja, das ist aber Aber du kommst wahrscheinlich auf die Webseite,
0:21:24–0:21:28
wo wahrscheinlich einen wunderbaren Artikel hat, wirst du den nie sehen.
0:21:29–0:21:30
Das ist schade. Auch wenn jetzt
0:21:30–0:21:37
der Typ über 100 oder 100'000 Impressions hat, verdient er nicht mehr.
0:21:37–0:21:42
Ja, genau. Damit sind wir eigentlich schön beim zweiten Punkt von Matthias Zehnder.
0:21:43–0:21:47
Er sagt, es gibt eine informationsethische Perspektive.
0:21:48–0:21:53
Das heisst, wenn wir heute Und haben wir doch mit der NZZ, mit Spiegel,
0:21:53–0:22:00
mit Tagesschau und so die Möglichkeit, Nachrichten aus gewissen Quellen zu haben.
0:22:00–0:22:05
Also das heisst, wir können alle den gleichen Artikel lesen und sind dann auf dem gleichen Stand.
0:22:06–0:22:08
Und das ist aber mit den KI nicht mehr so.
0:22:09–0:22:14
Also die machen dann für dich persönlich eine anpasste Information.
0:22:15–0:22:19
Die erstmals nicht redaktionell geprüft ist, wo es keine Verantwortung gibt,
0:22:19–0:22:22
wo niemand hinstellen muss, wenn es ein völliger Scheiss ist.
0:22:22–0:22:26
Denn da steht ja immer auch, wenn man die KS nutzt, da steht unten dran,
0:22:26–0:22:30
Achtung, die kann Fehler machen, bist du selber geschuld, wenn du irgendein
0:22:30–0:22:32
Zeich glaubst, den wir dir hier erzählt haben.
0:22:32–0:22:34
Und eben am Schluss ist dann tatsächlich so,
0:22:35–0:22:46
Wenn jeder nur noch seine individuelle Perspektive von dieser KI für ihn zurecht gecatcht bekommt.
0:22:47–0:22:51
Dann haben wir einfach gar keinen gemeinsamen Nenner mehr.
0:22:51–0:22:56
Ich glaube, das sieht man ja jetzt schon. Man spricht von den Bubbles in den sozialen Medien.
0:22:57–0:23:02
Die Leute reden nicht mehr miteinander. Die Linken finden alle Rechte in den
0:23:02–0:23:04
Arschlöchern und umgekehrt. und so.
0:23:05–0:23:09
Und wenn du dann aber gar nichts mehr hast, wo du dich nicht einmal mehr auf
0:23:09–0:23:15
die Weltwoche einigen kannst, dass du auf die Sauer bist oder was weiss ich
0:23:15–0:23:18
was, die NZZ wieder einen Drall gehabt und so.
0:23:18–0:23:22
Ja, was haben wir dann am Schluss noch? Und da sind wir dann bei den demokratischen Perspektiven.
0:23:23–0:23:28
Also, wenn du vielleicht auch die Webseiten vom Bund nicht mehr,
0:23:28–0:23:33
also du hast Informationen nicht mehr direkt aus diesen Quellen, du kannst nicht mehr auf
0:23:33–0:23:39
irgendwelche Firmenwebseite, sondern du kommst das auch noch so vorgeketscht.
0:23:39–0:23:44
Also es gibt keine gemeinsame Öffentlichkeit mehr, kein Zusammengehörigkeitsgefühl
0:23:44–0:23:50
mehr, sondern es explodiert dann wirklich alles, die totale Individualität.
0:23:50–0:23:56
Und das ist schon ein bisschen gruselig, die Vorstellung, finde ich. Geht es dir auch so?
0:23:57–0:24:00
Und wenn du jetzt würdest sagen, du kaufst in die K-Innen zum Beispiel,
0:24:00–0:24:04
was ist der EU-Rahmenvertrag, Ja, in der Schweiz.
0:24:05–0:24:11
Und ich sage jetzt mal, und gut, dort gibt es links-rechts Schema nicht ganz,
0:24:11–0:24:14
aber ich sage jetzt mal, wenn ich einen EU-Beführer wurde, gehe ich auf die
0:24:14–0:24:18
WOTS und wenn ich halt einen EU-Hasser bin, gehe ich auf die Weltwoche.
0:24:18–0:24:24
Aber jetzt gebe ich das ein, in irgendeiner Kau ein und ja, er gibt dir schon
0:24:24–0:24:27
die Quelle an, aber nimm dir das jetzt von der Weltwoche, von der WOTS,
0:24:27–0:24:30
vom Tag, vom NZZ, das finde ich noch ganz gefährlich.
0:24:30–0:24:33
Ja, er gibt dir die Quelle schon an, aber wer?
0:24:33–0:24:37
Klickt die Quelle an? Und ich höre es heute auch nochmal aus Jux,
0:24:37–0:24:44
weil es mir eben eine verschiedene Diskussion kam, eben wie hoch ist der Anteil
0:24:44–0:24:46
der Teenager, die noch eine analoge Armbanduhr tragen?
0:24:46–0:24:49
Und das hat mir schon eine Studie gegeben.
0:24:50–0:24:56
Aber in dieser Studie ist das Wort Armbanduhr oder Wristwatch nie vorkommen.
0:24:57–0:25:03
Also so Sachen. Hat man jetzt einfach gesagt, ja, 15% der Teenies tragen noch eine analoge Uhr.
0:25:04–0:25:09
Ihr habt nicht die Late Studio, aber Watch, gut, ist noch ein bisschen schwieriger wenn du UHR,
0:25:10–0:25:16
gibt es halt das Wort gibt es, also die Buchstabenfolge gibt es im Deutschen
0:25:16–0:25:21
ja relativ viel, einfach so Sachen, wir müssen immer, immer mehr aufpassen,
0:25:21–0:25:24
ja, er behauptet jetzt das, aber woher?
0:25:24–0:25:28
Und er gibt eine Quelle an, aber Ja, also da muss man vielleicht nicht dazu
0:25:28–0:25:32
sagen und ich habe da dann noch bei den Lösungen, wir schwenken dann gerade
0:25:32–0:25:36
ein, ich habe so einen Dienst getestet, der auch genau das sagt,
0:25:37–0:25:40
das heisst prorata.ai, die haben die Idee,
0:25:40–0:25:44
weil wenn man fragt, wir können ja jetzt auch sagen, also eigentlich ist es
0:25:44–0:25:47
ja auch ein riesen, riesen Content-Clou, weil all die Leute,
0:25:47–0:25:52
die das Internet vollgeschrieben haben, die haben die Inhalte zur Verfügung gestellt,
0:25:52–0:25:57
die jetzt von diesen KI-Betrieben genommen worden sind, um ihre KI zu trainieren
0:25:57–0:26:03
und um dann die Leute, die die Inhalte erstellt haben, von weiteren Einnahmen abzuschneiden.
0:26:05–0:26:10
Also wenn du es aus dieser Perspektive nachschaust, ist es schon Ein unglaublich
0:26:10–0:26:13
dreister Kuh, kann man sagen.
0:26:15–0:26:20
Ich habe das glaube ich auch schon gesagt. Wenn vor 25 Jahren eine Hausfrau
0:26:20–0:26:24
ein MP3-Näumat-U geladen hat, wo sie es nicht hätte sollen, und dann quasi eine
0:26:24–0:26:29
Urheberrechtsverletzung begangen hat, ist sie im Grunde um den Boden geklagt worden.
0:26:29–0:26:36
Und heute kommen die Konzerne einfach mit dem durch. Das finde ich schon recht bemerkenswert.
0:26:36–0:26:41
In den USA sagt man, gibt es zum Beispiel die Huffington Post,
0:26:41–0:26:45
die sagen, die hatten einen massiven Rückgang an Traffic.
0:26:46–0:26:51
Business Insider hat die Leute entlassen, weil 21 Prozent, also in letzter Zeit
0:26:51–0:26:55
sagt man auch, das könnte mit diesem Zusammenhang, es hat vielleicht auch andere Gründe.
0:26:55–0:27:02
Aber trotzdem, es sieht in dieser Branche, die ja sowieso nicht auf Rosen gebetet ist mit diesen...
0:27:03–0:27:07
Die Medienbranche sieht es wirklich nicht gut aus.
0:27:07–0:27:13
Und ja, es gibt auch Gegenstimmen, die sagen, der Suchtraffic ist gar nicht
0:27:13–0:27:16
so schlimm, aber wir wissen nicht, wo es hinführen wird.
0:27:17–0:27:23
Und ja, wenn wir jetzt sagen, der Traffic-Klau ist real,
0:27:23–0:27:31
oder auch der Content-Klau ist real, sollen wir das einfach hinnehmen als unvermeidlich,
0:27:31–0:27:34
die Entwicklung dich, Chris, oder was würdest du vorschlagen?
0:27:34–0:27:37
Muss die Politik, muss der Rösti sagen, so geht es nicht weiter,
0:27:37–0:27:41
auf den Tisch hauen, Google in die Pflicht nehmen.
0:27:41–0:27:48
Google, nein, ich kann so sagen, eben MP3 und, ja, es ist lang verjährt,
0:27:48–0:27:52
ich bin ja mal vielleicht ein bisschen dort, ja, wo möglich bist du da, sagt sie.
0:27:53–0:27:57
Vielleicht, und dort hast du halt tatsächlich mal, wenn du jetzt vielleicht
0:27:57–0:28:02
mal irgendein Spiel ins Internet geladen hast, hast du es einfach aus Ideologie
0:28:02–0:28:04
gemacht, aber du hast nichts bekommen,
0:28:05–0:28:09
du hast vielleicht tatsächlich, wenn mal eine von diesen Gruppen gesehen hast,
0:28:10–0:28:16
ein Bier bekommen, ja, aber dass Google eben Geld mit dem macht und ich sage
0:28:16–0:28:18
jetzt eben Journalisten wie dir.
0:28:19–0:28:24
Oder irgendwie Leute, die neben dir sitzen, dann den Arbeitsplatz kriegen.
0:28:24–0:28:26
Nein, das geht nicht. Stopp.
0:28:26–0:28:30
Aber das kann ja die Schweiz nicht allein regeln.
0:28:30–0:28:32
Ja, vielleicht könnte man es
0:28:32–0:28:37
noch auf EU-Ebene regeln. Herr Trump würde eh sagen, hello, AR is great.
0:28:38–0:28:42
Ja, genau. Ach so, ja, aber man müsste schon irgendwie ein Gesetz haben.
0:28:43–0:28:47
Genau, also politisch, ich glaube, man müsste es irgendwie politisch lösen.
0:28:47–0:28:50
Ich sehe da nur null Entwicklung in diese Richtung.
0:28:50–0:28:57
Also wenn wir uns erinnern an früherige Diskussionen, dann haben die eigentlich
0:28:57–0:29:01
wirklich nie irgendetwas gebracht.
0:29:01–0:29:06
Also wie soll sich das mal ändern? Ich habe das ProRata erwähnt,
0:29:06–0:29:11
dort ist die Idee, wir machen ein solches Konzept, wir lassen die Leute zahlen
0:29:11–0:29:13
für eine KI, dann finden wir heraus,
0:29:14–0:29:18
welche Quellen das Informationen, die Informationen beigesteuert haben,
0:29:19–0:29:24
wenn ein User, eine Anwenderin oder eine Anwender sich da Informationen gegeben hat.
0:29:24–0:29:28
Und dann teilen wir die Einnahmen, die wir mit denen generiert haben,
0:29:28–0:29:33
auf dem Weg teilen mit denen, die die Informationen beigesteuert haben.
0:29:34–0:29:39
Das klingt eigentlich recht überzeugend und es ist ein interessantes Konzept.
0:29:39–0:29:42
Ich habe das auch ein bisschen getestet. Man stellt einfach fest,
0:29:42–0:29:45
es ist wahnsinnig schwierig, die sogenannte Attribution zu machen,
0:29:45–0:29:49
also wirklich zuzuweisen, das ist aus dieser Quelle gekommen,
0:29:49–0:29:51
also muss dieser so und so viel überkommen.
0:29:52–0:29:56
Ich glaube, ich sehe da noch viele Probleme, bis das wirklich funktioniert,
0:29:56–0:30:01
aber es wäre auf jeden Fall besser, als wenn das einfach gratis ist und vielleicht
0:30:01–0:30:05
ein paar grosse Medienhäuser noch Deals abschliessen mit OpenAI oder Google
0:30:05–0:30:07
oder so und alle anderen leer ausgehen.
0:30:08–0:30:14
Aber ja, ich würde sagen, dass wir verschlafen das gerade Und wir haben keine
0:30:14–0:30:15
Ahnung, wie es rauskommt.
0:30:15–0:30:20
Ich habe, und wir müssen heute pünktlich aufhören, so als Ausblick habe ich
0:30:20–0:30:21
das mal nicht einfach nur eine
0:30:21–0:30:27
Prognose, sondern ich kann ein Best-Case-Szenario für 2030 machen lassen.
0:30:27–0:30:29
Natürlich von wem sonst, von der KI.
0:30:30–0:30:33
Und ein Worst-Case-Szenario, Digi Chris, welches ist der lieber?
0:30:33–0:30:35
Hast du es gesehen? An was glaubst du hener?
0:30:36–0:30:40
Sagst du, ich habe es bewusst nicht angeschaut. Also, das Best-Case-Szenario,
0:30:40–0:30:45
das sagt, jawohl, Suchmaschinen, die finden dann mal, wir können nicht einfach
0:30:45–0:30:47
alles an uns reissen, wir machen Kooperation,
0:30:48–0:30:54
wir machen keine Abschottung, es gibt irgendwelche Bezahl- und Quellenmodelle,
0:30:54–0:30:59
also wo wirklich auch Leute Geld überkommen, wenn sie Informationen beisteuern.
0:31:00–0:31:05
Und eben, die Nutzer werden auch immer aktiv zu diesen Quellen gebracht,
0:31:05–0:31:09
Weil Quellenkritik ist auch wirklich wichtig.
0:31:09–0:31:12
Und vielleicht gibt es etwas wie, ich sage jetzt das böse Wort,
0:31:12–0:31:17
das Leistungsschutzrecht für Qualitätsmedien und auch für Blogs und alles.
0:31:18–0:31:21
Und dadurch gibt es sogar eine positive Bewegung.
0:31:21–0:31:28
Weil halt, ich habe auch das SEO schon erwähnt, weil nicht mehr der die meisten Leute verwischt,
0:31:28–0:31:33
die auf seine Webseite kommen, die die Suchmaschinenoptimierung am besten beherrscht,
0:31:34–0:31:38
die dann vielleicht auch ein bisschen mit dreckigen Tricks schafft, was ja häufig vorkommt,
0:31:38–0:31:44
sondern weil die Geld und Publikum bekommen, die wirklich die besten und die
0:31:44–0:31:47
coolsten und die eigenständigsten Inhalte haben.
0:31:47–0:31:52
Also die Inhaltqualität bei den Inhalten setzt sich dank KI durch.
0:31:53–0:31:59
Und wunderbar. Könnte passieren, ich glaube aber trotzdem eher als Worst-Case-Szenario.
0:32:01–0:32:04
Google exerziert es vor, es gibt gar keine Quellen mehr.
0:32:04–0:32:09
Die Suchmaschine behalten alle Leute bei sich, leitet niemand mehr weiter.
0:32:10–0:32:15
Es gibt kein Traffic mehr irgendwo an, die Publisher verlieren Sichtbarkeit,
0:32:15–0:32:16
Einnahmen und Einfluss.
0:32:16–0:32:22
Und am Schluss sind es einfach die Tech-Konzernen. Und wir haben natürlich auch ein riesiges...
0:32:24–0:32:27
Demokratieprobleme dann, weil eben Fakten, Meinungen, Interessen,
0:32:27–0:32:30
alles irgendwie ist ein Riesenwust und man kann es nicht mehr unterscheiden.
0:32:31–0:32:36
Und damit sind wir bei dem apokalyptischen Ende, wo ich vorausgesagt habe,
0:32:36–0:32:40
ganz am Anfang von dieser Sendung, bei dieser KI-gesteuerten Wissensdiktatur,
0:32:41–0:32:49
wo halt einfach einen oder ein paar wenige Kais noch an der Gatekeeper sind
0:32:49–0:32:55
und sagen, was die Leute sehen und was nicht und dann Beliebung auch Massen können manipulieren.
0:32:55–0:32:58
Echt? In welche Richtung geht es? 2030?
0:33:00–0:33:03
Ich hoffe jetzt einfach, dass es die Leute vielleicht machen.
0:33:03–0:33:07
Ich habe es schon mal gesagt, ich habe eine Zeitung noch abonniert, halt digital.
0:33:08–0:33:15
Und ich sage jedem, wenn sie mal im Kiosk kaufen, Journalismus ist wichtig.
0:33:16–0:33:22
Und ob es Tagi, NZZ, ja sogar im Blick ist, weil das sind ja auch Journalisten, die seriös arbeiten,
0:33:23–0:33:29
kommen, gehen an Kiosk, kaufen den Blick, den Tag ein, abonnieren,
0:33:30–0:33:31
dann bitte, bitte, kommen, also,
0:33:33–0:33:36
bei meiner Zeitung ist es glaube ich, einen Franken pro Tag,
0:33:37–0:33:42
und für das kommen wir nicht mal ein Bier über, am Kebabstand.
0:33:42–0:33:46
Die Journalisten, wie du Matthias, ihr arbeitet und ihr habt den Stutz verdient,
0:33:47–0:33:51
und wenn es halt auf dem iPad ist, oder physikalisch, ja,
0:33:51–0:33:57
dann habt ihr was davon und es ist schon ein wenig, ich will,
0:33:57–0:34:01
Schmarottertum ist ein ganz böses Wort, aber es geht sehr nah dran.
Die beunruhigten Stimmen mehren sich: Das Web, wie wir es kennen, ist bedroht. Die Gefahr geht von der künstlichen Intelligenz aus: Die KI macht es zunehmend überflüssig, dass Leute auf die Originalquellen im Internet zugreifen. Stattdessen lassen sie sich ihr Informationsbedürfnis von ChatGPT, Perplexity oder Gemini befriedigen.
Auch die klassische Suchmaschine wird nicht verschont: Google führte die «AI Overviews» ein, bei denen die Auskunft der KI die klassischen Suchresultate weit nach unten drängt. Das ist jedoch erst der Anfang: Im Mai kündigte Google-Suchchefin Liz Reid den «AI Mode» an: Bei dem werden Anliegen komplett von der KI abgewickelt, und wir werden es mit dem «Agent Mode» zu tun bekommen, bei dem sie selbsttätig online recherchiert und Aktionen vornimmt, indem sie beispielsweise einen Termin bucht.
Das Resultat ist jedenfalls klar: Die Nutzerinnen und Nutzer bekommen keine Websites mehr zu Gesicht: Weder publizistische Angebote, Shops, Firmen-, Vereins- oder Partei-Websites noch die Website des Bundes oder der Stadt. Das allein sollte verdeutlichen, dass das nicht nur wirtschaftliche Auswirkungen haben wird, sondern auch gesellschaftliche und politische. Da wir im Nerdfunk gern in Szenarien denken, haben wir uns den schlimmstmöglichen Ausgang ausgedacht: Das ist, natürlich, eine gesteuerte KI-Wissens-Diktatur, in der die Tech-Konzerne bestimmen, wie wir die Welt sehen und wie wir uns verhalten werden.
Eine Fortsetzung von Nerdfunk 757 zu den KI-Entwicklungen im Jahr 2025.
Die Links zur Episode
Die Ausgangslage
Aktuelle Entwicklungen
Mögliche Lösungen und Auswirkungen
Beitragsbild: Bald hat nur noch Google den Schlüssel. Und ja, womöglich ist diese Metapher nicht ganz so furchteinflössend, wie beabsichtigt (Travis Saylor, Pexels-Lizenz).
Ähnliche Beiträge