Transkript anzeigen (falls vorhanden)
0:00:06–0:00:10
Petty Harris, there's a break in every road.
0:00:11–0:00:15
Und der Break heisst gerade im Moment... Jetzt regt sie doch nicht aus.
0:00:15–0:00:17
Doch, ich habe mich auch für das. Nein!
0:00:18–0:00:23
Radio Stadtfilter. Radio Stadtfilter ist auch ein Break in der Road.
0:00:23–0:00:31
Und der, der das Loch zuschütten sollte, das Schlagloch, das ist der Digi Chris. Hallo! Guten Abend!
0:00:31–0:00:38
Hast du schon Schäufe und die Kübel und die Erden und so bereit für das Schlagloch?
0:00:39–0:00:43
Nein, das macht man eben mit Wort, würde ich sagen. Ach so, wir tun... Genau.
0:00:43–0:00:49
Wenn es uns nicht gäbe, dann hätten wir jetzt eine halbstündige Lehre auf diesem Sendrum.
0:00:49–0:00:56
Wir füllen auch eine Lehre, hoffentlich inhaltlich, was die digitale Sphäre
0:00:56–0:01:02
angeht und vielleicht auch ein bisschen emotional. Wir sind eigentlich eure guten Kumpels hier.
0:01:03–0:01:06
Das war jetzt ein bisschen anbieternd.
0:01:07–0:01:11
Best Buddies. Ja, genau. Zumindest so.
0:01:12–0:01:15
Parasozial nennt man das. Wir haben eine parasoziale Beziehung.
0:01:16–0:01:21
Und das ist besser als gar keine. Also Digi Chris, wie geht es dir in deinem Leben?
0:01:21–0:01:27
Du gehst demnächst schon wieder aufs Schiff und hast schon deine Badehosen gepackt.
0:01:27–0:01:29
Nein, die brauchst du gar nicht auf dem Schiff, oder schon?
0:01:30–0:01:34
Wir sind nicht in Aida, es gibt keinen EFKK-Bereich, wir sollten schon ein paar
0:01:34–0:01:38
Hosen anhalten. Ich habe noch nicht gepackt, das mache ich dann noch nicht.
0:01:39–0:01:44
Gut, ich gehe jetzt auf Norwegen, da passt vielleicht Mittelmeerpackchen nicht.
0:01:45–0:01:51
Aber eben, voraussichtlich, wenn alles gut geht, komme ich live aus dem Gerangerfjord,
0:01:51–0:01:54
kommt jetzt immer ein bisschen darauf an, wegen dem Landausflug, aber so, eben.
0:01:55–0:01:58
Ah, das mal klappt es mit dem Live vom Schiff.
0:01:58–0:02:02
Also ich hoffe es. Und eben Norwegen ist eigentlich dafür bekannt,
0:02:02–0:02:04
selbst im absoluten hintersten Krachen,
0:02:05–0:02:11
den Start von FG zu haben. Ich nehme es mal vor, aber der Kevin könnte ja,
0:02:11–0:02:14
weil wenn wir dann irgendwie auch wieder zu spät aus dem Fjord zurückkommen.
0:02:15–0:02:21
Schwierig, aber wie geht es dir? Wie gesagt, da müssen wir mal eine eigene Sendung machen.
0:02:22–0:02:27
Mir ist gestern etwas passiert. Ich war auf WhatsApp mit einem Kollegen am Chatten,
0:02:27–0:02:29
also in der Web-Oberfläche.
0:02:29–0:02:35
Es ist tatsächlich um SAP gegangen, weil seine Unternehmen haben das Upgrade.
0:02:35–0:02:40
Und halt, ihr habt ein Subgrade-Jag gemacht, wie ist das? Und wir vom Business, wir testen.
0:02:40–0:02:45
Und dann plötzlich, puff, bin ich aus dem WhatsApp-Web rausgeflogen.
0:02:45–0:02:49
Und dann, ja, kann es ja geben, dass ihr mal ein Cookie abläuft oder so.
0:02:49–0:02:52
Ja, ja, ja. Nimm mein Handy und dann kommt so ein Ding, ja.
0:02:52–0:02:56
Ihr Account wurde wegen Spam deaktiviert. Aha, ja.
0:02:56–0:03:00
Und du hättest dann nichts mehr machen, weil wenn du im Facebook-Seich machst,
0:03:01–0:03:03
bist du dann einfach wie sagen wir, read-only.
0:03:04–0:03:08
Die Anglizismen. Du kannst ihn zwar lesen, du kannst ihn aber nicht mehr schreiben.
0:03:08–0:03:13
Ja, ich hatte einmal einen Stalker-Account auf Facebook und der wurde dann ganz zugemacht.
0:03:14–0:03:19
Aber ich kann das sagen, weil ich den Stalking-Account sogar beblockt habe.
0:03:19–0:03:22
Ich schaue, ob ich den Artikel noch finde. Ja, genau.
0:03:23–0:03:27
Dann hast du dir deine Abhängigkeit von WhatsApp bewusst gemacht.
0:03:28–0:03:32
Aber wir predigen nicht sowieso den Leuten, dass das WhatsApp eigentlich das
0:03:32–0:03:38
Schlimmste ist, den du brauchen kannst, wenn du Signal oder Threema oder meinetwegen
0:03:38–0:03:42
auch SMS zur Verfügung hast?
0:03:43–0:03:49
Also, wie gesagt, ich glaube, der Megi hat uns ja mal vor zwei Jahren auf Threema
0:03:49–0:03:50
gebracht, also da habe ich auch kein Problem.
0:03:51–0:03:54
Aber wenn ich jetzt einfach schaue, viele Kontakte sind halt,
0:03:55–0:03:58
Nur auf WhatsApp, nach dem Motto, ich habe einen Messenger, ich installiere
0:03:58–0:03:59
mir nicht, ich bin jetzt einen Messenger.
0:04:00–0:04:04
Und da will ich dann nicht predigen. Das ist halt einfach so.
0:04:05–0:04:06
Ja, doch, vielleicht müsste man das.
0:04:07–0:04:11
Wahrscheinlich werde ich radikaler aufs Alter und sage, meine Frau hat einfach
0:04:11–0:04:15
mal das WhatsApp gelöscht und jetzt ist es halt so.
0:04:16–0:04:21
Und wer mit ihr kommunizieren will, muss wohl auch über Streama oder sonst einen
0:04:21–0:04:22
anderen Messenger nehmen.
0:04:22–0:04:26
Und dann gibt es natürlich noch die, es gibt so ein kleines Gruppchen,
0:04:26–0:04:31
wo dann findet, okay, ja gut, dann schicken sie halt Sachen mir und ich tue
0:04:31–0:04:32
es dann ihr weiterleiten.
0:04:33–0:04:37
Du tust es vorlesen. Ja, genau, das kann es auch nicht geben.
0:04:37–0:04:42
Also es ist nicht so optimal, aber ich finde schon, wir kommen ja dann wahrscheinlich
0:04:42–0:04:44
auch in den Hauptsendungen auf das WhatsApp zurück.
0:04:45–0:04:49
Also eigentlich fände ich es schon gut, wenn du das jetzt als Weg rufst.
0:04:49–0:04:51
Wir haben ja dann auch noch ein bisschen darüber gesprochen,
0:04:51–0:04:56
woher wissen die WhatsApp-er, also die Meta hinter dem WhatsApp überhaupt,
0:04:57–0:05:00
dass du gespammt hast oder wie kommen wir zu dem Schluss? Ich habe dann eben
0:05:00–0:05:01
gespammt, habe ich nicht.
0:05:01–0:05:06
Ich habe dann eben, wo es dann mit der Offen war, die Konversationen angeschaut.
0:05:06–0:05:08
Das war nichts außergewöhnlich.
0:05:09–0:05:16
Und die Einzige, die ausserhalb von meiner Kontaktliste war, ja, war mein Pedigure.
0:05:16–0:05:18
Und es war von ihm das letzte Ding.
0:05:18–0:05:21
Vielen Dank für den Besuch, bis zum nächsten Mal.
0:05:23–0:05:29
Nein, aber wir müssen da festhalten, dass ja WhatsApp behauptet,
0:05:29–0:05:31
die Chats end-zu-end verschlüsseln.
0:05:31–0:05:34
Das heisst, die könnten das eigentlich gar nicht feststellen,
0:05:34–0:05:36
wenn du Spam verschiebst.
0:05:36–0:05:41
Es müsste dich direkt jemand gemeldet haben. Und ich war es nicht.
0:05:42–0:05:47
Die Metadaten, glaube ich, also sie sehen, was sie haben. Oh je.
0:05:49–0:05:54
Aber sie müssen ja wissen, was die Nachricht herliefert.
0:05:54–0:05:57
Aber eben, wie gesagt, ein Thema für eigene Gesendung. Wenn man jetzt auch den
0:05:57–0:06:00
Fehler hat, dann kann man das nicht mehr.
0:06:01–0:06:07
Du musst noch von deinem WLAN-Kabel oben runtersteigen, denn du hast keine gute
0:06:07–0:06:08
Verbindung gerade im Moment.
0:06:09–0:06:13
Ich würde sagen, wenn du ein bisschen näher an den Router rutschen kannst,
0:06:13–0:06:16
dann probieren wir das. Ich bin eigentlich am Kabel, aber ja.
0:06:17–0:06:22
Wir hoffen das Beste. Und sonst gibt es heute wieder eine chaotische Sendung,
0:06:22–0:06:24
jetzt genau auf Radio Stadtfilter.
0:06:39–0:06:44
Wir haben leider gar keine andere Wahl, als euch ein Thema aufzudrängen,
0:06:44–0:06:46
das ihr wahrscheinlich schon die Schnauze voll habt.
0:06:47–0:06:52
Wo man findet, wann ist es vorbei, wann ist der Hype durch, wann ist wieder alles wie früher.
0:06:52–0:06:57
Wo es noch keine KI geben kann, die künstliche Intelligenz ist wieder mal ein
0:06:57–0:06:59
Thema hier auf Radio Stadtfilter im Nerdfunk.
0:07:00–0:07:04
Weil wir haben schon ungefähr grob aufgerundet, kann man sagen,
0:07:04–0:07:06
ist die Hälfte dieses Jahr durch.
0:07:06–0:07:09
Und wir haben festgestellt, dass leider,
0:07:10–0:07:17
ich unterstelle dir jetzt unter anderem, dass du ja nebst deiner Musik-Kai nicht
0:07:17–0:07:21
so ein begeisterter Anwender der künstlichen Intelligenz bist.
0:07:22–0:07:25
Wir haben festgestellt, es ist überhaupt nicht so, dass man jetzt das Gefühl
0:07:25–0:07:28
hat, es wäre die langsamer, die Entwicklung,
0:07:28–0:07:32
die Begeisterung würde abflachen, es sei wieder alles dann irgendwann mal normal
0:07:32–0:07:36
wie früher, wo man die Software einfach so brauchen konnte, indem man irgendwo
0:07:36–0:07:39
hingeklickt hat und sich nicht noch reden musste, nachhören,
0:07:39–0:07:42
von irgendwelchen Sprachmodellen.
0:07:43–0:07:48
Aber nein, ist das auch dein Eindruck, es geht immer schneller und es passiert immer mehr?
0:07:48–0:07:52
Also ich habe mir sicher ein bisschen mehr geöffnet.
0:07:52–0:07:58
Ich habe ja auch das Chat-GPT erwartet, ich muss immer Plus und Pro nicht verwechseln.
0:07:58–0:08:00
Ist gleich, das wird 20 Stutz. Ja, genau.
0:08:01–0:08:05
Und nein, ich habe jetzt doch auch ein paar Sachen gemacht, also rein privat
0:08:05–0:08:11
und so etwas, was mir heute auch wieder auf WhatsApp eine Kollegin geschrieben hat.
0:08:12–0:08:16
Also die, ich sage jetzt einfach, also ist jetzt nicht despektierlich gemeint,
0:08:17–0:08:21
KV oder so, einfach als Finanzchefin oder so, also ein kaufmännischer Beruf.
0:08:21–0:08:24
Und die haben in der Unternehmung, also eine kleine Unternehmung,
0:08:24–0:08:27
eine Co-Pilot-Schulung bekommen. Oh, Co-Pilot.
0:08:28–0:08:34
Oh, Co-Pilot. Okay. Aber trotzdem, das ist sicher total Mainstream und,
0:08:35–0:08:40
Ja, also, ich erstaue mich auch, wenn ich einen kleinen Ding schreibe.
0:08:41–0:08:45
Damals glaube ich sogar bei der Pedicure, da kommt Bummhausen-Schnappaniline,
0:08:45–0:08:47
korrigieren für alle Schreibfehler. Also so Sachen.
0:08:49–0:08:56
Copilot, wenn man Autovergleich machen würde, wäre das der Opel Manta unter der Kais? Irgendwie so.
0:08:57–0:09:00
Copilot, oder? Ich meine, vielleicht auch für meine Ferien.
0:09:00–0:09:04
Ich habe noch vor der Sendung einen kleinen Test gemacht mit Co-Pilot,
0:09:04–0:09:08
GPT-4-5 mit Deep Rising und Deep Seek.
0:09:09–0:09:11
Und eben, das sind die Schiffe, sagen wir, wie lange die sind,
0:09:12–0:09:17
wie das Funkrufzeichen ist und Deep Seek ist total daneben gewesen.
0:09:17–0:09:21
Es hat zum Beispiel, ja, Kostet-Diadema das Rufzeichen von Concordia,
0:09:21–0:09:26
die ja gesunken ist, gegeben. und ich würde sagen, 80% ist falsch gewesen.
0:09:26–0:09:29
Diese Infos sind jetzt nicht so schwer zu finden.
0:09:30–0:09:34
Also, die Eipsig ist nicht überzeugt.
0:09:34–0:09:37
Also, in vielen Sachen, der fantasiert total.
0:09:37–0:09:41
Ich habe es auch schon gesagt, dass bei uns im Dorf, der Folge ist seit 30 Jahren
0:09:41–0:09:43
zu, aber überhaupt steif im Fest, dann gibt es noch.
0:09:44–0:09:48
Dein Folgtest, der ist fast schon so legendär, dass man ihm einen Namen geben könnte.
0:09:49–0:09:53
Ich habe auch einen ähnlichen. Ich habe meinen Grossmutter-Test,
0:09:53–0:09:57
also meine echte Grossmutter, die ich mit den Kais dazu befragen kann.
0:09:58–0:10:04
Und es ist eben ein guter Fall, weil Kais redet ja dann von Halluzinationen,
0:10:04–0:10:06
wenn sie eigentlich anfangen, Sachen zu erfinden.
0:10:06–0:10:10
Und das machen sie meistens dann, wenn, eben anders jetzt weder bei deinen Schiffen,
0:10:10–0:10:12
die ich nicht genau beurteilen kann.
0:10:12–0:10:15
Wenn die Informationslage relativ dünn ist,
0:10:15–0:10:24
und Personen, die nicht wirklich grosse Promisse sind, Die sind ein guter Massstab
0:10:24–0:10:29
für wie sehr halluzioniert die KI gerade, weil dort weiss man nicht so viel.
0:10:31–0:10:35
Biografische Einordnungen sind sowieso auch noch schwierig. Darum kann man dort
0:10:35–0:10:37
prüfen, ob sie daneben sind.
0:10:38–0:10:42
Also, wir würden sagen, wir machen fünf, falls wir durchkommen.
0:10:42–0:10:45
Wie viele solche Dinge habe ich? Ich habe, glaube ich, sechs Punkte.
0:10:46–0:10:50
Mal schauen, wie weit wir kommen. Und sonst werden dann wohl oder übel mal eine
0:10:50–0:10:54
Nachfolgesendung zu diesem Thema anbieten.
0:10:54–0:10:57
Also, ich würde sagen, du hast die Eipsig erwähnt. Das ist der erste Punkt.
0:10:57–0:11:05
Es gibt fast im Sekundentakt neue Kais, also ich habe es vorher mit Auto verglichen.
0:11:07–0:11:12
Mistral kommt natürlich aus Frankreich, das wäre ein Peugeot oder eher ein Citroën
0:11:12–0:11:14
oder ein Peugeot, ich würde eher Peugeot sagen.
0:11:14–0:11:17
Ich habe das Mistral noch nicht testet, ich bin schon auf der Website,
0:11:17–0:11:21
aber ich glaube, da musst du tatsächlich irgendwie Tokens und so pushen.
0:11:21–0:11:25
Also ich habe es jetzt nicht gesehen, dass ich als Privat EBA mal sagen kann,
0:11:25–0:11:29
wie lange es schief ist. Mal, Mistral Löscher, kannst du gratis brauchen.
0:11:30–0:11:33
Also das ist ja das Neue, was mir recht gut ist.
0:11:33–0:11:37
Mir gefällt es, es hat tatsächlich wie jetzt der Peugeot im Vergleich,
0:11:37–0:11:42
so einen alten, ich muss entschuldigen, ich verstehe nichts von Auto,
0:11:42–0:11:45
also wenn die Analogie hier völlig falsch ist.
0:11:45–0:11:49
Sie ist mir einfach, sie hat mich vorher so angesprungen, aber es sind wahrscheinlich
0:11:49–0:11:50
gerade sie in die Hose, aber es ist gleich,
0:11:51–0:11:57
also eben, sie hat mehr irgendwie Sie wirkt ein bisschen eigenständiger,
0:11:57–0:12:03
auch ein bisschen charmanter auf eine Art, wie sie ihre Sachen formuliert,
0:12:03–0:12:05
hat aber auch noch so ihre Macke manchmal.
0:12:09–0:12:17
Das Mistral Löscher war die einzige Koi, die beim Karin-Keller-Sutter-Test durchgekommen ist.
0:12:18–0:12:22
Also der könnte in der gleichen Reihe wie der Volktest stehen.
0:12:22–0:12:27
Nein, dort ging es darum, wo man nicht wissen wollte, wer eigentlich die Bundespräsidentin ist.
0:12:28–0:12:32
Und dann wusste keine einzige von diesen Kais, alle haben irgendwie den Bersena gesagt.
0:12:35–0:12:43
Und Mistral war der einzige, der das richtig hatte. Hast du schon mit Grog gespielt? Das war Elon Musk.
0:12:43–0:12:48
Ich habe gesehen, dass teilweise Leute auf einen Tweet geschrieben haben.
0:12:48–0:12:55
Ich kann das jetzt nicht wissenschaftlich sagen, aber dass die Mal,
0:12:55–0:13:00
als der Grog antwortete, einer wahrscheinlich gegen Elon seine Ideologie geschrieben hat.
0:13:00–0:13:06
Aber das ist jetzt absolut nicht repräsentativ. Das waren 3-4 Replies. Das war genau so.
0:13:06–0:13:11
Ich habe ja in meinem Blog die sogenannte schöne Rubrik KI-Weltanschauungen
0:13:11–0:13:13
und dort vergleiche ich ein bisschen,
0:13:14–0:13:21
wie die KIs eben so aufgestellt sind politisch, ob sie eher links oder rechts
0:13:21–0:13:24
oder ideologisch oder offen argumentieren.
0:13:24–0:13:26
Und das ist noch recht spannend.
0:13:27–0:13:34
Und dort ist der Grog eigentlich recht gut unterwegs gewesen, also recht offen auch,
0:13:35–0:13:42
Obwohl man Elon Musk wie auch unterstellt, er wolle da so eine Rechts-Aussens-Kai hinzüchten.
0:13:42–0:13:44
Das ist bis jetzt noch nicht passiert.
0:13:45–0:13:50
Also ich glaube, einzig bei der Frage, wo ich gefragt habe, ob Transfrauen auch
0:13:50–0:13:54
Frauen sagen, da haben alle Kais gefunden, ja, das sage ich so.
0:13:54–0:13:58
Und der Grock ist der Einzige, der Nein gesagt hat. Aber ich nehme an,
0:13:58–0:14:01
das war wahrscheinlich fest irgendwo
0:14:01–0:14:05
vertraten, dass er dort etwas anderes sagen muss als alle anderen.
0:14:05–0:14:08
Aber sonst kann man den durchaus ausprobieren. Und es ist noch lustig,
0:14:09–0:14:14
dass man ihn in den sozialen Medien so beiziehen kann.
0:14:14–0:14:17
Ich finde es auf eine Art noch gut, er erklärt dann unter Umständen die Sachen.
0:14:19–0:14:22
Aber man stellt sich schon die Frage, willst du eigentlich einen KI haben,
0:14:22–0:14:26
der dann den Scheizrichter spielt auf so einer Plattform? bringt es das,
0:14:26–0:14:29
dreht es zu der Deeskalation bei.
0:14:29–0:14:33
Digi Chris, probier es mal aus, statt dem, wer hast du letztens zusammen,
0:14:33–0:14:39
den Bauer hast du zusammen geschissen, statt der direkt zusammen schiessen,
0:14:39–0:14:42
kannst du mal probieren, den Grock auf ihn setzen.
0:14:42–0:14:45
Der Alex Bauer ist ein Weltwochenjournalist und wir wissen alle,
0:14:46–0:14:48
wie der Digi Chris zu der Weltwochen steht.
0:14:48–0:14:52
Ja, und ich sehe halt auch immer, wenn ich so denke, ja, man darf sagen,
0:14:52–0:14:57
ich habe bei mir in der Region den Limathaler abonniert, einfach weil er lokal berichtet.
0:14:57–0:15:01
Also nicht, dass ich sage, ist es besser als der Tagi. Du entschuldigst dich
0:15:01–0:15:05
jedes Mal. Ich finde es jedes Mal gut, dass du Zeitungsleser bist.
0:15:05–0:15:09
Und ich glaube, der Bauer hat seine Karriere dort gestartet.
0:15:09–0:15:13
Ja, er ist eigentlich... Ich habe ihn eigentlich immer früher als guter Journalist
0:15:13–0:15:16
erlebt, aber jetzt ist er so völlig auch ideologisch und so.
0:15:16–0:15:21
Während Corona sind halt viele Leute und auch Harry Moldi und so abgetrifftet.
0:15:21–0:15:25
Ich weiss noch ganz am Anfang, Ich habe sogar mal so lange vor Corona.
0:15:27–0:15:31
Mal wollen fragen, ob er mal die Sendung kommt, wegen E-Voting. Ja, das stimmt.
0:15:31–0:15:35
Und dort war es ja total normal. Und dann hat es irgendwie, also ich kenne da
0:15:35–0:15:39
so viele Leute, die sind bei Corona total ausgeschnappt. Leider.
0:15:40–0:15:43
Du kennst jetzt wahrscheinlich sein journalistisches Werk noch ein bisschen besser.
0:15:44–0:15:49
Aber ja, das Zeug ist halt teilweise, macht es KI nur noch schlimmer,
0:15:49–0:15:53
wenn jetzt jemand behauptet, das ist so. Und dann kannst du vielleicht sagen,
0:15:53–0:15:57
ja, schau, wenn man auf Wikipedia steht, halt eben «Shift» heisst so.
0:15:57–0:16:01
Und wenn du dann eine K.I. als Quelle bringst, ist doch alles seich.
0:16:01–0:16:04
Also dann machst du vielleicht den Konflikt noch schlimmer. Ja,
0:16:04–0:16:07
ich bin nicht ganz sicher, ob das,
0:16:07–0:16:10
ich glaube, das müssen wir mal noch ein bisschen ausführlicher testen.
0:16:10–0:16:13
Ich finde es sehr spannend, weil wir können ja darauf warten,
0:16:13–0:16:16
dass auch bei Facebook und überall jetzt die K.I. auftauchen.
0:16:18–0:16:22
Ich könnte mir, wenn sie wirklich sich um, um,
0:16:23–0:16:27
also eben, sie hat quasi kein Ross im Rennen, wenn man es so schön sagt,
0:16:27–0:16:30
also sie, ihr geht es nicht darum,
0:16:30–0:16:34
jetzt allen zu zeigen, wie gescheit das ist, weil als Kai kann man sagen,
0:16:34–0:16:40
eben, hat sie kein Ego und darum kann sie vielleicht tatsächlich im Idealfall
0:16:40–0:16:44
ein bisschen moderierend wirken und es wäre mal spannend,
0:16:44–0:16:49
wenn sich zwei Leute so richtig an die Gurgeln gehen und die Schlötterling am Kopf rühren.
0:16:49–0:16:53
Wenn sich dann der Grog oder irgendeine Kai von sich aus melden und sagen,
0:16:53–0:16:58
hey Leute, findet ihr das jetzt nötig, dass das jetzt so eskaliert?
0:16:58–0:17:02
Hey, es ist nur ein soziales Netzwerk, es sollte Spass machen,
0:17:02–0:17:06
wir können uns austauschen, ohne uns so richtig aufs Dach zu gehen.
0:17:06–0:17:07
Das fände ich noch spannend.
0:17:09–0:17:13
Wie hat das geheiss? Es hat doch mal vor vielen Jahren die Tagshow geben,
0:17:14–0:17:15
Gewalt unter Jugendlichen.
0:17:18–0:17:19
Das war so Kult.
0:17:20–0:17:23
Wir haben es irgendwie auch mal,
0:17:24–0:17:29
Ich habe im Studium noch einmal angeschaut. Du verdammt eine Banane! Du bist ein Foto!
0:17:30–0:17:36
Der Vorler hat versucht immer zu eskalieren, die Leute zu beruhigen.
0:17:37–0:17:42
Ja, ich habe ihn noch nicht so genau vor dem Kopf oder vor den Augen,
0:17:42–0:17:44
aber er hat auch eine Ruhe ausgestaltet.
0:17:44–0:17:49
Wir müssen aber sechs Punkte durchbringen, dann müssen wir ein bisschen die
0:17:49–0:17:50
Fürsche machen, sonst schaffen wir es nicht.
0:17:50–0:17:52
Wie immer wird es dann hektisch gegen Schluss.
0:17:53–0:17:57
Also, ich würde sagen, es gibt ganz viele neue Anwendungsmöglichkeiten,
0:17:57–0:18:00
so Videogeneratoren ist etwas vom Neuesten gewesen.
0:18:01–0:18:05
SORA von OpenAI, Google, VO2,
0:18:05–0:18:09
die kann man eben, wie man bei den Bildern sagt, man gibt einen Prompt,
0:18:09–0:18:14
man beschreibt, was man sehen will und dann macht die KI nicht eben Standbild,
0:18:14–0:18:18
sondern eine Videosequenz daraus. ist recht eindrücklich.
0:18:18–0:18:25
Allerdings sieht man wahnsinnig viele Fehler, auch sofort, dass sie die Physik
0:18:25–0:18:26
nicht richtig versteht.
0:18:26–0:18:30
Und dann so Continuity-Fehler macht.
0:18:30–0:18:34
Also wenn die Sequenzen aneinanderhängen will, dann sagst du,
0:18:34–0:18:36
das ist mein Ameischen, das Velo fährt.
0:18:36–0:18:41
Dann hat es mal ein Rennvelo und mal ein Mountainbike von Szene zu Szene.
0:18:42–0:18:46
Also das ist wirklich noch schwierig. Aber es ist eine Möglichkeit,
0:18:46–0:18:48
die man sieht, auf uns zuzukommen.
0:18:48–0:18:52
Das VO3 heisst jetzt schon, das ist noch nicht gelanciert, aber das sei dann
0:18:52–0:18:56
so, da kannst du eigentlich Kinofilme draus machen.
0:18:56–0:18:59
Behauptet Leute, ich wäre jetzt da noch ein bisschen vorsichtig,
0:18:59–0:19:02
aber wir können mal gespannt sein, wie dann das weitergeht.
0:19:03–0:19:08
Aber generell, ich weiss noch, ich habe das Chat-GPT tatsächlich von Maggie kennengelernt.
0:19:08–0:19:13
Er hat mal ihr mich in unser Chat reingetacht und sind wahrscheinlich noch beim 1.0 gewesen.
0:19:13–0:19:17
Eben, chatopeneye.com. Und ich weiss noch, glaube ich, meine erste Frage war,
0:19:17–0:19:20
ist 3133-7-1-Prim-Zahl?
0:19:20–0:19:23
Und dann nein, weil es ist durch 5 teilbar. Ich weiss noch, das ist irgendwie
0:19:23–0:19:26
mein allererster Prompt gewesen. Heute kannst du...
0:19:28–0:19:33
Vielleicht auch noch später wegen deinem Modell, kannst du eine Mathe-Klausur
0:19:33–0:19:37
von einer Uni-Uhe jagen und vermutlich würdest du bestaen.
0:19:37–0:19:41
Bist du halt einfach nicht sicher, aber ja, der Fortschritt...
0:19:41–0:19:42
Es war einfach enorm viel.
0:19:43–0:19:46
Und eben, heute reden wir, dass wie gesagt, wenn du halt sagst,
0:19:46–0:19:52
mach ein Foto, wie eine Katze auf den Tisch bringt und die Katze halt über den
0:19:52–0:19:55
Tisch bringt, ja, wenn wir vielleicht in einem Jahr mal wieder eine K.O.
0:19:55–0:19:58
Sendung machen, dann ist es dann Physikalisch ist alles perfekt,
0:19:59–0:20:00
da wird so viel noch gehen.
0:20:00–0:20:03
Ich bin gespannt, ich glaube es noch nicht, oder ich glaube es erst,
0:20:03–0:20:04
wenn ich es sehe, aber ja.
0:20:05–0:20:11
Der Fortschritt ist, wenn man die Standbilder nehmen kann, da sind ja die Bildergeneratoren,
0:20:11–0:20:15
da sind ja auch etwas vom ersten gewesen, noch vor dem Chat-GPT, das ich gesehen habe.
0:20:16–0:20:19
Und am Anfang sind es recht gruselig gewesen, man hat vielleicht erkannt,
0:20:19–0:20:22
was es heute soll sein, aber schön ist, dass es nicht... Und sechs Finger,
0:20:22–0:20:29
ja. Ja genau, das Fingerproblem war noch nicht so virulent, weil alles andere
0:20:29–0:20:30
auch nicht gestimmt haben.
0:20:30–0:20:36
Aber heute, wenn du es richtig machst, kannst du Bilder erzeugen,
0:20:36–0:20:41
die man sehr genau hinschauen muss, um zu merken, dass das keine echte Fotos sind.
0:20:41–0:20:44
Und man kann auch, vor allem auch, das habe ich letzte vorgestellt,
0:20:45–0:20:47
man kann so seine Fotos korrigieren lassen.
0:20:48–0:20:53
Zum Beispiel, indem man Sachen rauslöscht, die einem nicht gefallen und dann
0:20:53–0:20:57
werden die fehlenden Details ergänzt und das ist zum Teil so gut,
0:20:58–0:20:59
dass du das eigentlich nicht merkst.
0:20:59–0:21:03
Entferne Ex-Freundin, oder? Ja genau, zum Beispiel. Aber schnell vielleicht
0:21:03–0:21:09
etwas, wo du auch einen Punkt hast, dass du ein Modell dazu springen richtig zu rechnen kannst,
0:21:10–0:21:14
das ist etwas, aber klar, wenn du jetzt tatsächlich willst und zu äußern gründigen
0:21:14–0:21:16
Filme eben von der Katze auf den Tisch kommt,
0:21:16–0:21:21
klar, das braucht so viele mehr Ressourcen und Logo, wird unsere Hardware immer
0:21:21–0:21:26
leistungsfähig, aber klar, es ist dann irgendwie, wenn es sich potenziert, also ich sage jetzt mal,
0:21:26–0:21:30
du mal die Aussage notieren, dass ich behaupte, in einem Jahr,
0:21:30–0:21:33
wenn wir das wieder machen, kommt gerade auf den Tisch.
0:21:34–0:21:39
Wer halt verloren hat, zählt einem anderen ein Bier. Puh, das würde ich jetzt nicht ausschliessen.
0:21:39–0:21:45
Aber ich würde sagen, dass wir einen ganzen Kinofilm in einer Sendung generieren.
0:21:46–0:21:50
Wir generieren einen Kinofilm oder einen Kurzfilm. Können wir mal probieren.
0:21:51–0:21:53
Ich glaube, das wird in einem Jahr noch nicht so weit sein.
0:21:53–0:21:57
Das ist sicher nicht. Aber sehen wir es. Also, wir machen weiter bei den neuen
0:21:57–0:21:58
Möglichkeiten. Das Deep Research.
0:21:59–0:22:04
Ich habe da Schulungen dazu gemacht in letzter Zeit. Da habe ich begeisterte
0:22:04–0:22:06
und aber auch konsternierte Blicke gesehen.
0:22:07–0:22:12
Deep Research heisst, du lässt dir statt eine kurze Antwort generieren,
0:22:12–0:22:15
machst dir eine Seminararbeit daraus.
0:22:15–0:22:22
Die ist dann schön strukturiert, teilweise mit Tabellen, mit Quellenverzeichnissen aus dem Internet und so.
0:22:23–0:22:28
Also eben, die kannst du abgeben. Und wenn der Professor an der Uni nicht weiss,
0:22:28–0:22:34
dass es diese Funktion gibt bei ChatGPT und bei Gemini und so,
0:22:34–0:22:39
dann kommst du pro Seminar durch, ohne dass du viel geschafft hast.
0:22:39–0:22:41
Ich würde sagen, machen wir gerade weiter.
0:22:41–0:22:44
Ich finde spannend, die universellen Übersetzungsmöglichkeiten.
0:22:45–0:22:46
Da tut sich auch einiges.
0:22:47–0:22:55
YouTube experimentiert damit um, dass sie Videos automatisch synchronisieren.
0:22:55–0:22:59
Man muss dann nicht mehr die Untertitel lesen, wenn man ein Video schaut in
0:22:59–0:23:02
einer Sprache, die man nicht versteht, sondern man kann sie sich automatisch
0:23:02–0:23:03
synchronisieren lassen.
0:23:04–0:23:06
Das klingt im Moment noch recht schlecht.
0:23:07–0:23:11
Aber wenn die Leute, die das Hi-Gen noch vor Augen oder vor Ohren haben.
0:23:11–0:23:18
Das ist so eine Kai, die auch so Videos synchronisiert und dann sogar die Stimme imitiert.
0:23:18–0:23:20
Also es klingt dann wirklich wie der, der spricht.
0:23:21–0:23:25
Und die Bewegungen vom Mühl werden angepasst, sodass das aussieht,
0:23:25–0:23:26
als wenn er wirklich das sagen würde.
0:23:26–0:23:30
Und das ist schon recht faszinierend, muss ich sagen. Freust du dich darauf
0:23:30–0:23:33
oder ist das eher gruselig?
0:23:33–0:23:37
Es ist sicher spannend und eben, dass dann das Mühl angepasst wird,
0:23:37–0:23:41
weil ich das Auch schon bei mir ist es nicht so schlimm, aber ich glaube teilweise
0:23:41–0:23:44
bei den Eltern, wenn jetzt irgendwie, und du weisst es noch ganz früher,
0:23:45–0:23:49
zu dem Anfang des HDMI-Kabels, ist manchmal der Ton ein µ.
0:23:49–0:23:56
Vom Bild weggelaufen. Das ist immer noch so. Aber früher sind es vielleicht drei Monate gewesen.
0:23:57–0:24:00
Und heute haben gesagt, nein, nein, ich kann das nicht schauen.
0:24:00–0:24:01
Ich kann das auch nicht schauen.
0:24:03–0:24:07
Darum empfehle ich euch den VLC als Videoplayer.
0:24:07–0:24:11
Dort gibt es eine Funktion, die du schön mit den Plus- und Minus-Tasten kannst. Genau, ja.
0:24:13–0:24:17
Den Versatz von Bild und Ton kannst du korrigieren, weil mich macht das auch
0:24:17–0:24:20
wahnsinnig. und ich möchte das gerne für den Apple TV.
0:24:20–0:24:23
Also, aber das ist vom Thema abgekommen.
0:24:23–0:24:30
Also, ich würde sagen, eben, wir müssen damit rechnen, dass die Sprachbarrieren
0:24:30–0:24:34
eingerissen werden, oder vielleicht nicht eingerissen, aber dass sie kleiner werden.
0:24:34–0:24:39
Und was würdest du dann sagen? Hilft das dann den YouTubern,
0:24:39–0:24:44
die aus der Schweiz in Zürich deutsche Videos machen, wenn man sie dann auch
0:24:44–0:24:45
auf Englisch hören kann?
0:24:46–0:24:52
Kann man als Schweizer quasi mehr Reichweite erzielen oder ist es umgekehrt so,
0:24:52–0:24:58
dass wenn du ein grosser YouTuber bist, MrBeast zum Beispiel,
0:24:58–0:25:04
und schon Millionen von Zuschauern hast, wird eher der dann halt auch in Sprache
0:25:04–0:25:06
geschaut von Leuten, die kein Englisch können.
0:25:06–0:25:10
Was wäre deine Prognose? Also ich würde so sagen, das war auch schon bei uns,
0:25:11–0:25:15
wenn man halt Jean-Claude Frick nennt, ich finde einfach, ich sehe es wie die
0:25:15–0:25:18
Berner Schnurren, also es ist positiv gemeint, Einfach cool.
0:25:18–0:25:25
Und wenn jetzt halt irgendwie das neue iPhone 26 rauskommt, sie tun ja die Jahreszahlung anpassen.
0:25:25–0:25:28
Ja, habe ich nicht. Lieber mit dem Schanklob mit dem Dialekt,
0:25:28–0:25:33
als irgendein polnischer Blogger, der dann eben KI die Stimme übersetzt.
0:25:33–0:25:36
Also ich tue viele YouTuber.
0:25:39–0:25:41
Subscriber, haben wir schon wieder, wir machen kein Deutsch mehr,
0:25:42–0:25:44
weil sie einfach authentisch sind.
0:25:44–0:25:48
Und klar, vielleicht findest du jetzt halt irgendwie ein Video,
0:25:48–0:25:49
das es nur auf Polnisch gibt.
0:25:50–0:25:52
Da kann das schon helfen, aber dass ich jetzt wahrscheinlich würde irgendeinen
0:25:52–0:25:58
polnischen oder einen koreanischen YouTuber abonnieren, ja,
0:25:59–0:26:01
also ist jetzt nur meine Meinung, eben, ich habe auch Leute,
0:26:02–0:26:06
eben, die du auch schon persönlich gesehen hast und so, aber das kann natürlich
0:26:06–0:26:10
für andere Leute, und es ist auch die Sache mit dem Englisch.
0:26:11–0:26:15
Ich habe das auch bei mir gemerkt, eben, es gibt Tage im Büro,
0:26:15–0:26:20
je nachdem mit Meetings, dann rede ich 99% Englisch.
0:26:20–0:26:24
Und wenn du dann zu Hause irgendwie Netflix einstellst, dann stelle ich echt auf Deutsch.
0:26:24–0:26:29
Wie gesagt, ich kann Englisch, aber irgendwann jetzt will ich einfach nur abschalten.
0:26:29–0:26:31
Jetzt habe ich echt 8 Stunden,
0:26:32–0:26:37
Englisch gesprochen. Ja, ich glaube, tendenziell stimmt das, was du sagst.
0:26:38–0:26:41
Ich glaube, unter dem Strich wird es aber tatsächlich dazu führen,
0:26:41–0:26:46
dass der kulturelle Imperialismus, wenn man das so sagen will,
0:26:46–0:26:50
von unseren grossen Freunden, die ihr wisst, wer ich meine,
0:26:50–0:26:54
wird wahrscheinlich zunehmen, weil ich glaube einfach, wenn du schon von Anfang
0:26:54–0:26:59
an mit der grösseren Kehle anrühren kannst, dann wird das also natürlich den
0:26:59–0:27:03
Aspekt vom Stallgeruch vom Lokalkolori,
0:27:03–0:27:06
den sehe ich schon auch und den ist mir auch wichtig aber der ist glaube ich
0:27:06–0:27:12
ein Teil vom Publikum ist wichtig und ein anderer Teil findet tatsächlich ha,
0:27:13–0:27:16
dann schaue ich halt lieber das was alle schauen jetzt muss ich dafür nicht
0:27:16–0:27:21
einmal mehr Englisch lernen und die nächste Frage wird das dazu führen, dass die Leute keine,
0:27:22–0:27:25
Fremdsprachen mehr lernen weil man ja alles per K übersetzen.
0:27:27–0:27:31
Das macht ja schon heute nicht, aber das ist jetzt ein guter Punkt,
0:27:31–0:27:34
das habe ich mir gar nicht überlegt, aber ja,
0:27:34–0:27:38
kann sein, also gut, das hat es ja schon vor 30 Jahren auf Mallorca gegeben,
0:27:38–0:27:41
hast halt irgendwie die Speisekarte rausgehalten,
0:27:42–0:27:46
hast halt Scheichel mit Pepe, es war übrigens ein Schweinsfilet mit Pfeffersauce.
0:27:47–0:27:53
Ja, also ich glaube, man kann, lustigerweise ist das jetzt ein Fall,
0:27:53–0:27:55
wo man genau auch gegenteiliger Ansicht sein kann.
0:27:56–0:27:59
Und ich habe einen Arbeitskollegen, der japanisch lehrt.
0:27:59–0:28:05
Und der findet, es ist eigentlich so toll zum Sprachlehrern wie fast noch nie,
0:28:05–0:28:08
weil wenn du dir nicht sicher bist mit irgendeiner Übersetzung,
0:28:09–0:28:11
wenn du etwas nicht verstehst, wenn du die Erklärung brauchst,
0:28:12–0:28:15
dann musst du früher warten, bis deine nächste Lektion war und und der Lehrer
0:28:15–0:28:17
vielleicht Zeit gehabt, dir das zu erklären.
0:28:17–0:28:22
Und heute kannst du den Chat-Chip-It-Fragen und der erklärt dir das in aller
0:28:22–0:28:24
Regel kompetent, verständlich.
0:28:25–0:28:29
Und du kannst so oft nachfragen, wie du dich beim echten Lehrer vielleicht nie getraust.
0:28:30–0:28:33
Also ich finde, gerade wenn du das machst, eben nicht.
0:28:34–0:28:37
Jetzt nur weil du das Gefühl hast, du musst und so als Pflichtübung,
0:28:37–0:28:41
sondern weil du in so eine Kultur tauchen willst und,
0:28:42–0:28:47
das halt nicht nur einfach diese Sprache als nötiges Übel anschauen,
0:28:47–0:28:50
sondern eben auch als Teil des Abenteuers.
0:28:50–0:28:55
Dann glaube ich, ist es wirklich wahnsinnig viel so spannend wie noch nie mit der KI.
0:28:55–0:29:00
Und darum bin ich da überhaupt nicht ein Kulturpessimist im Gegensatz zu dem,
0:29:00–0:29:03
was ich vorher zu YouTube gesagt habe. Aber wir müssen weiter, wir arbeiten eh nicht.
0:29:03–0:29:09
Ich sehe es schon, es war eine völlig aussichtslose Sache, die wir hier kannten.
0:29:09–0:29:11
Aber wir machen dann einfach mal einen zweiten Teilnahme.
0:29:12–0:29:14
Ich habe immer wieder Feedback, dass es eine halbe Stunde zu kurz ist für den
0:29:14–0:29:17
Wordfunk. Also ja, aber lassen wir das jetzt mal.
0:29:18–0:29:19
Das habe ich auch schon gehört.
0:29:20–0:29:25
Aber was sollen wir machen? Wir müssen uns da in das Raster eingliedern.
0:29:25–0:29:30
Ich weiss auch nicht, ob es besser wird, wenn wir uns so unkontrolliert loslassen
0:29:30–0:29:33
würden. Also, die KI-Agenten, sind die dir ein Begriff?
0:29:33–0:29:36
Hast du schon deinen eigenen KI-Agenten programmiert?
0:29:37–0:29:41
Nein, das ist mir jetzt echt kein Begriff. Also, dann erkläre ich es dir.
0:29:41–0:29:48
KI-Agenten sind so Software-Module, die halt mit diesen Sprachmodellen,
0:29:48–0:29:49
wie man es kennt, funktionieren.
0:29:49–0:29:57
Aber die Idee haben, dass sie automatisch aktiv werden unter gewissen Situationen.
0:29:57–0:29:59
Das ist natürlich vor allem so im Unternehmensbereich.
0:30:00–0:30:05
Ich glaube, das Ding, was einem zuerst einfällt, ist Kundenbetreuung.
0:30:05–0:30:14
Also jemand schreibt eine E-Mail, regt sich auf, weil er ein smartes Aquarium gekauft hat.
0:30:14–0:30:18
Es lässt sich aber nicht mit dem WLAN verbinden und dann schreibt er das.
0:30:18–0:30:24
Und dann wird die probierte KI automatisch herauszufinden, kann ich das selber
0:30:24–0:30:29
beantworten. Sie sagen, du hast den Router eingeschaltet und solche Sachen.
0:30:29–0:30:33
Ich kann sie zuerst einmal ein Video schicken, wo das erklärt wird, wie man es macht.
0:30:34–0:30:37
Und sobald dann zum Beispiel das Wort «Ah, ich will die Summe geben und ich
0:30:37–0:30:44
will mein Geld zurück», dort drin steht, dann eskaliert sie es zu einem menschlichen Berater.
0:30:44–0:30:47
Das wäre zum Beispiel so ein Agent.
0:30:47–0:30:50
Aber man kann sich natürlich auch vorstellen, dass wir zu Hause so Agenten haben,
0:30:50–0:30:56
Zum Beispiel, ich weiss nicht, ob du eBay kaufst, das hat es ja früher schon
0:30:56–0:30:59
gegeben, die Leute, die ihre Software programmiert haben.
0:30:59–0:31:04
Aber heute vielleicht ein bisschen smarter noch, dass du deinen eBay-Agent,
0:31:05–0:31:10
der einfach Sachen, die er findet, dass du gut findest, automatisch ersteigert.
0:31:11–0:31:14
Ich glaube, Swisscom hat ja, wenn du ein Abo hast, kannst du ja,
0:31:15–0:31:17
das nennt sich Simply Digital, Entschuldigung.
0:31:19–0:31:23
Dass du zuerst mit einem Chatbot redest, aber der hat relativ schnell diesen
0:31:23–0:31:28
Menschen ein relativ einfaches Problem gehabt, weil anscheinend ist einfach,
0:31:28–0:31:31
hat halt ein Wacker gemeint, er muss Glasfaserkabel durchschneiden.
0:31:32–0:31:36
Und dann haben wir gesagt, ja, sie sind schon da, es laufen um zwei wieder.
0:31:37–0:31:42
Also solche Sachen gibt es aber schon relativ lange, also lange bevor der GPT.
0:31:42–0:31:44
Es ist eine riesige Katastrophe.
0:31:45–0:31:53
Ja, ich glaube, natürlich ist das nicht völlig neu, aber man kann sich vorstellen,
0:31:53–0:31:57
dass es mit der KI tatsächlich viel besser funktioniert.
0:31:57–0:32:02
Ich glaube, einem Staat umfällt zum Beispiel gerade die Kundenbetreuung,
0:32:02–0:32:06
Beratung und Support mit den Informationen, die dahinter stecken.
0:32:07–0:32:12
Und die sind häufig, wenn du auch auf die Knowledge-Bases von diesen Herstellern
0:32:12–0:32:14
gehst, sind die halt hundslausig.
0:32:14–0:32:18
Und darum wird wahrscheinlich eine KI auch nichts verbessern.
0:32:18–0:32:24
Aber wenn man sagt, da sind wirklich gute Informationen da, dann kann wahrscheinlich
0:32:24–0:32:27
so eine KI das Erlebnis verbessern.
0:32:27–0:32:31
Aber man kann sich schon auch vorstellen, dass sie auch zur Abwimmelung vom
0:32:31–0:32:33
Publikum benutzt werden.
0:32:34–0:32:38
Vielleicht auch noch mal SAP gesagt haben, wir haben bei uns auch eine KI im
0:32:38–0:32:43
Test, wo einfach all diese Dokumente, also wenn du irgendeinen Change-Request
0:32:43–0:32:45
hast, die sind alle in einer KI.
0:32:45–0:32:55
Also ist nicht intern gehostet, da kannst du sagen, wie ist das mit dem Prozess XY in Tschechien.
0:32:55–0:33:00
Loop ergibt das relativ gut heraus, aber auch ein recht schönes Dokument.
0:33:00–0:33:04
Und ich durfte das jetzt auch testen, weil eben im SAP Solution Manager ist
0:33:04–0:33:06
die Suchfunktion nicht vorhanden.
0:33:07–0:33:10
Und das ist ein echter Vorteil, also wenn du weisst, oh, wo ist das gewesen,
0:33:10–0:33:14
wenn sind wir in Tschechien go live gegangen, hey, das ist eine coole Sache,
0:33:14–0:33:18
wir haben jetzt einen internen Test, aber gerade ein bisschen Deagent.
0:33:18–0:33:22
Ja, also ich habe mal eigentlich so ein Vorbot von dem und wir müssen heute
0:33:22–0:33:26
pünktlich aufhören, das heisst eigentlich jetzt, aber ich sage das noch schnell,
0:33:26–0:33:30
das von OpenAI Operator heisst er und dann kannst du ihm sagen,
0:33:31–0:33:36
was du machen willst und dann macht er einen Browser auf und er tut den Browser
0:33:36–0:33:40
für dich bedienen und dann kannst du zum Beispiel sagen, hey, da ist mein WordPress,
0:33:41–0:33:45
ich weiss nicht, wenn ich das und das einstelle und dann klickt er für dich,
0:33:45–0:33:50
die Sicht so durch das WordPress durch und dann vielleicht das richtige Plugin
0:33:50–0:33:54
installieren, updaten oder deaktivieren oder wie auch immer,
0:33:54–0:33:57
dass am Schluss das rauskommt, was man gerne hätte.
0:33:58–0:34:02
Das ist sehr spannend, allerdings auch auf eine Art, glaube ich,
0:34:02–0:34:05
extrem gefährlich, denke ich.
0:34:05–0:34:09
Also wenn er dann dein WordPress kaputt macht, eben wem ist es dann die Schuld.
0:34:09–0:34:13
Es geht nicht darum, dass WordPress stellt mal vor, nein, liebe Frau,
0:34:13–0:34:15
ich war nicht auf YouPorn, das ist KI. Genau.
0:34:17–0:34:21
Und sie hat dann dummerweise gerade alle Familienfotos heruntergeladen.
0:34:21–0:34:26
Also das kann passieren, aber ich würde sagen, wir haben ein bisschen versagt.
0:34:26–0:34:29
Vielleicht, wenn wir jetzt da so einen Agenten gehabt hätten,
0:34:30–0:34:32
dann wären wir ein bisschen schneller vorwärts gekommen.
0:34:32–0:34:36
Wir machen dann, vielleicht nicht gerade nächste Woche, aber wir machen den
0:34:36–0:34:37
Wahl weiter mit dem Punkt 3.
0:34:38–0:34:43
Und mit dem Punkt 3 ist dann, dass KI die Websuche verdrängt und wir nicht mehr
0:34:43–0:34:44
googeln im herkömmlichen Sinn.
0:34:45–0:34:49
Also bis dann. Macht's gut und schönen Abend, würde ich sagen. Macht's gut.
Verlangsamt sich das Tempo? Flacht die Begeisterung ab? Nein: Wer gehofft hat, der Hype um die künstliche Intelligenz habe 2025 den Höhepunkt erreicht oder überschritten, der sieht sich getäuscht. Die Entwicklung scheint sich eher noch zu beschleunigen – mit neuen Video-Möglichkeiten, Deep Research und den KI-Agenten, die selbsttätig in unserem Namen agieren wollen.
Gleichzeitig wird überdeutlich, dass wir längst nicht alle Auswirkungen absehen oder gar kontrollieren können: Facebook wird von Deepfake-Bildern überschwemmt, die klassische Google-Suche durch die «AI Overviews» verdrängt und bald schon werden KI-Agenten in unserem Namen Reisen (vielleicht) buchen, Lebensmittel einkaufen und unser Zuhause managen.
Obwohl das Jahr noch nicht ganz zur Hälfte um ist, geben wir einen Überblick der bisherigen Ereignisse – und versuchen abzusehen, ob das jetzt so weitergeht oder ob wir auf eine Verschnaufpause hoffen können.
Die Links zur Episode
KI-Trends
1) Ständig neue Modelle, ständig Updates
2) Neue Anwendungsmöglichkeiten
3) KI verdrängt die Websuche
4) Die Hersteller schrecken vor keinem Unfug zurück
5) Meta nervt mit seiner KI tierisch
6) Ein Meme-Fest!
Und viele offenen Fragen
Beitragsbild: Wenn es doch nur so einfach wäre (J32, Pixabay-Lizenz).
Ähnliche Beiträge