Transkript anzeigen (falls vorhanden)

00:00–0:00:07
Music.
0:00:07–0:00:13
Mit «Find the Mole». Wir müssen hier den Maulwurf finden. Digi-Chris, bist du der Maulwurf?
0:00:14–0:00:17
Nein, ich glaube es nicht, aber ich kann mich einfach weitersuchen.
0:00:17–0:00:20
Einer von uns beiden muss es sein, oder?
0:00:21–0:00:27
Der Morgomat. Nein, Morgomat. Das ist Quatsch. Das kommt immer auf die Seitzone
0:00:27–0:00:29
an. Also gut, genau, das stimmt.
0:00:30–0:00:39
Also, sagen wir noch, der passt auch gut. Das war Frau Putin, die uns begrüsst hat.
0:00:39–0:00:44
Diggi, Chris, gut, nice, bist du gut im 2024 angekommen.
0:00:44–0:00:47
Wir sehen uns zum ersten Mal und wir haben uns extra vorher,
0:00:47–0:00:53
als ich in das Studio kam, haben wir uns angeschwiegen, dass wir ja nichts erzählen,
0:00:53–0:00:57
was wir jetzt in der Pre-Show zum Besten geben könnten.
0:00:57–0:01:02
Ja, nein, es ist tatsächlich Zeit vergangen. Das letzte Mal haben wir mit Maggie
0:01:02–0:01:08
im Studio den Realitätsabgleich aufgenommen und jetzt bin ich wieder da.
0:01:09–0:01:13
Genau, das ist schon länger her. Das ist nicht so lange wie während Corona.
0:01:13–0:01:16
Das stimmt. Oh, jetzt hast du schon wieder...
0:01:16–0:01:21
Ich hoffe, das ist kein böses Homen, dass du jetzt mit Corona anfängst.
0:01:21–0:01:23
Nein, aber hast du dich gut erholt?
0:01:23–0:01:30
Kevin und ich haben ja letzte Woche ein bisschen gejammert über unseren Zustand. Geht es dir besser?
0:01:31–0:01:38
Und natürlich, die Neujahrs-Vorsätze sind schon gebrochen, aber das gehört dazu, ob Nerd oder nicht Nerd.
0:01:39–0:01:43
Kannst du in die Details gehen, oder willst du es lieber geheim halten?
0:01:44–0:01:46
Es wäre mal etwas für eine eigene Sendung, wegen so Sachen.
0:01:47–0:01:54
Also, nichts, wo du nicht gesagt hast, was weiss ich, als was würde ich dich
0:01:54–0:02:02
sehen, als... Weiss nicht, nie mehr deinen CO2-Fussabdruck auf Null bringen.
0:02:02–0:02:07
Genau, nie mehr Kreuzfahrt, nie mehr Jellyfine und nie mehr SAP.
0:02:07–0:02:11
Ein SAP ist ja wahrscheinlich auch so ein Energieschleuder. Er läuft auch in
0:02:11–0:02:16
ein SAP mit grünem Strom oder mit Kohlenstrom irgendwo. Ich weiss eigentlich gar nicht.
0:02:17–0:02:21
In Deutschland in so einem schlimmen Rechenzentrum.
0:02:21–0:02:24
Also es steht in Deutschland, ja, aber ich weiss echt nicht,
0:02:24–0:02:27
mit welchem Strom es läuft. Also das müssen wir herausfinden.
0:02:28–0:02:32
Vorsatz in diesem Jahr nur noch grünen Strom verheizen in der Cloud.
0:02:32–0:02:35
Das ist wahrscheinlich auch noch schwierig, würde ich sagen.
0:02:36–0:02:39
Green IT, das wäre auch noch ein Thema. Das wäre auf jeden Fall ein Thema.
0:02:40–0:02:45
Es ist halt schon so, wenn du früher 10 Server in einem Raum hattest und jetzt
0:02:45–0:02:52
mit der Virtualisierung hast du noch einen oder zwei und es skaliert halt einfach besser.
0:02:52–0:02:56
Sprich, auch wenn der vielleicht 20 mal so leistungsfähig ist wie die 10 einzelnen Kisten.
0:02:58–0:02:59
Es ist sicher noch spannend.
0:03:03–0:03:09
Mein Nextcloud, mein Jellyfin, eben steht und das muss ich nochmal sagen,
0:03:09–0:03:11
nein, wir sind nicht gesponsert bei Hetzner und die sagen,
0:03:11–0:03:17
sie denken alles, also grüner Strom und die haben eben auf der RZ einfach unzählige
0:03:17–0:03:19
ein riesiges Solaranlag.
0:03:19–0:03:23
Die nehmen es schon ernst, die haben auch eine riesige Page und wenn sie es
0:03:23–0:03:24
sagen, glauben sie es auch.
0:03:24–0:03:28
Das ist natürlich eben immer schwierig, das zu kontrollieren,
0:03:28–0:03:32
weil alle Unternehmen sind irgendwie grün und wenn du dann genau hinschaust,
0:03:32–0:03:37
Ich glaube, wir haben auch schon kurz über den Zertifikatshandel geredet.
0:03:37–0:03:41
Also dort ist kein Zertifikat, sondern sie machen es und irgendwie in Finnland,
0:03:41–0:03:44
in Irsch wahrscheinlich, glaube ich, ist es vielleicht noch teilweise ein bisschen
0:03:44–0:03:49
einfacher, so einen Strom grün oder irgendwie nachhaltig zu erzeugen.
0:03:49–0:03:53
Ja, das denke ich auch. Die haben ja dort so, was haben sie dort eigentlich?
0:03:53–0:03:55
Sie haben so Wälder und so Wind haben sie wahrscheinlich.
0:03:55–0:04:00
Sie haben viel Wind und sie haben, glaube ich, auch doch irgendwie Wasserkraft.
0:04:00–0:04:03
Gibt es da auch noch. Eben, wäre auch mal so, ja, noch mal so ein Thema.
0:04:04–0:04:07
Green IT eben, ich habe auch schon einen potenziellen Kandidaten,
0:04:07–0:04:10
der sich sehr gut mit Solarzellen auskennt.
0:04:10–0:04:14
Wir haben uns mal abgestimmt, wir zwei haben kein Jahr. Hast du ihn schon eingeladen? Das ist gut.
0:04:14–0:04:18
Also er wäre, er hat dann so gesagt, aber er kommt technisch nicht so ganz raus.
0:04:18–0:04:21
Ich meine, wir müssen ja nicht ins Detail heran. Nein, nein,
0:04:21–0:04:24
aber einfach so ein bisschen der Klassiker. Das große Ganze.
0:04:24–0:04:27
Wir beide sind in einer Mietwohnung, dort wird es eh schwer,
0:04:27–0:04:31
aber ich baue jetzt ein neues Häuschen mit meiner Familie, und ich möchte jetzt
0:04:31–0:04:35
so Dinge drauf tun, das kostet, ich weiss jetzt was, 50'000 Stutz,
0:04:35–0:04:37
wie lange geht es, bis ich es rauskomme?
0:04:37–0:04:41
Genau, das müssen wir mal besprechen und das Hauptthema, wo wir jetzt gerade,
0:04:41–0:04:44
ich spiele dann gerade noch ein bisschen Musik, aber das Hauptthema ist leider,
0:04:44–0:04:48
was den Energieverbrauch angeht, überhaupt nicht optimal.
0:04:48–0:04:51
Das muss man schon sagen. Nein, ich glaube weniger.
0:04:51–0:05:01
Music.
0:05:02–0:05:07
Emmet Rhodes mit «Mirror» und jetzt geht's los mit dem «Nerdfunk».
0:05:07–0:05:22
Music.
0:05:12–0:05:19
«Nerdfunk» Herzlich willkommen zum «Nerdfunk».
0:05:22–0:05:29
2024 ist das alles bestimmende Tech-Thema natürlich. Weisst du es, Chris?
0:05:30–0:05:33
Das neue Service-Pack, das für das SAP rauskommt.
0:05:59–0:06:04
Wo dann die Trends heranzeigen, die man identifizieren kann und was mich auch
0:06:04–0:06:06
noch interessieren würde, was du dazu meinst.
0:06:06–0:06:08
Wo stecken wir in dieser Revolution?
0:06:09–0:06:13
Sind wir noch ganz am Anfang, sind wir mitten drin oder ist es eigentlich fast
0:06:13–0:06:18
schon alles durch und es tut sich nur noch so konsolidieren und etablieren?
0:06:18–0:06:22
Also wir sind ja momentan bei JGPT 4.
0:06:23–0:06:28
Jetzt ist mir noch einmal der OpenAI-Chef entfallen, der es geschaffen hat, Sam Altman.
0:06:30–0:06:34
Anscheinend hätte es ja, ich habe es ja auch einmal gehört, eben wegen 4.5,
0:06:34–0:06:36
was denn das kann, oder 5.0.
0:06:37–0:06:42
Ich glaube, da kommt schon noch einmal ein gröberer Gump.
0:06:42–0:06:48
Ich denke jetzt, das habe ich auch gesagt, im Realitätsabgleich,
0:06:48–0:06:53
dass wenn du jetzt sagst, create a girl holding a beer. Du bist immer mit den Frauen und dem Bier.
0:06:54–0:06:59
Oder eben ja, ein Nerd on a Cruise-Ship.
0:06:59–0:07:04
Die haben mittlerweile 5 Finger. Früher hatten sie mal 3, mal 6.
0:07:04–0:07:10
Nur schon das ist jetzt, würde ich sagen, um 23 hat sich das brutal verbessert.
0:07:11–0:07:15
Genau, bei «Mitch Ernie» konnten wir das in Echtzeit beobachten,
0:07:15–0:07:18
wie die Finger, zuerst hat die Anzahl gestimmt und dann sind sie auch ungefähr
0:07:18–0:07:20
ungefähr am richtigen Ort in der Hand rausgekommen.
0:07:21–0:07:24
Also ich würde sagen, was mich jetzt ein Trend ist, wo man sieht,
0:07:25–0:07:27
die Kommerzialisierung ist im Gang.
0:07:27–0:07:31
Also am Anfang war alles gratis, man konnte es ausprobieren,
0:07:31–0:07:37
man wurde angefixt, man hat Begeisterung entwickelt, so als Normalsterblicher.
0:07:37–0:07:41
Und jetzt finden die Unternehmen, glaube ich, jetzt ist genug Begeisterung da,
0:07:41–0:07:42
jetzt können wir anfangen Geld zu verdienen.
0:07:43–0:07:46
Also man sieht das Co-Pilot Pro, pro das
0:07:46–0:07:49
ist die microsoft profi kai das
0:07:49–0:07:52
hat mit 20 dollar im monat zahlen
0:07:52–0:07:56
dafür 21 franken wenn man die braucht die ist
0:07:56–0:08:00
ein klick zuverlässigen die staat eigentlich immer zur verfügung sie wandert
0:08:00–0:08:05
dann auch alle ideen office anwendungen also kostenau ich habe zum beispiel
0:08:05–0:08:10
im word in schreiben es sollte jetzt zusammenfassung machen mit den notizen
0:08:10–0:08:13
wo gestern im one note gemacht und solche Sachen, das kommt dort.
0:08:15–0:08:19
OpenAI, also bei ChatGPT, da gibt es ja diese Premium-Variante,
0:08:19–0:08:22
die gibt es schon etwas länger, die auch 20 Dollar im Monat kostet.
0:08:22–0:08:28
Und da gibt es jetzt auch den Store, wo du dann auch als Drittanbieter eigene
0:08:28–0:08:34
GPTs, also eigene Bots, die dann Spezialfähigkeiten haben, dort einbringen und
0:08:34–0:08:37
dann diese auch wiederum verkaufen.
0:08:37–0:08:39
Ich glaube, das ist schon ein recht wichtiger Schritt.
0:08:40–0:08:46
Das ist ein wichtiger Schritt. Und wenn man denkt, dass 20 Franken plus minus wie ein Netflix und,
0:08:47–0:08:51
ich glaube, als wir das erste Mal richtig über die KI gesprochen haben,
0:08:51–0:08:57
habe ich mir mal das JetGPT Pro oder Plus geklickt, das auch 20 Franken ist.
0:08:59–0:09:03
Premium heisst es, glaube ich, aber es ist gleich. Das ist jetzt etwas Lustiges
0:09:03–0:09:08
für mich, aber wenn man jetzt an Magit denkt, der täglich programmiert und dann
0:09:08–0:09:12
schreibt er halt dummer irgendwie etwas schreiben,
0:09:13–0:09:19
wo man die Array sortiert oder so, dann spart er eine halbe Stunde oder so und
0:09:19–0:09:24
dann sind die 20 Franken, wenn es so professionell, nichts mehr.
0:09:24–0:09:28
Bei mir muss ich sagen, es ist lustig und ich habe schon angefangen,
0:09:28–0:09:30
wenn ich jemandem eine Mail geschrieben habe im Geschäft, weil irgendwie,
0:09:30–0:09:36
ich komme wegen einer Anfrage, hast du noch ein Chat-GPT-Bild unternommen mit einem Smile und so.
0:09:36–0:09:42
Seit wann kann Chat-GPT zeichnen? Ja, genau, dann hast du deine Nerd-Credibility
0:09:42–0:09:44
da ein bisschen rausschrauben können. Das ist, glaube ich, schon so.
0:09:44–0:09:48
Und ich würde sagen, ich glaube, es ist keine Frage, wenn man das,
0:09:48–0:09:51
wenn man jetzt nur, wenn ich ein bisschen daran rumspielt, dann kann man sich
0:09:51–0:09:54
fragen, ob man es wirklich rausholt.
0:09:54–0:09:56
Wahrscheinlich tue ich es nicht direkt.
0:09:58–0:10:03
Monetarisieren, aber ich spare Zeit und es macht noch Spass auf eine Art und
0:10:03–0:10:04
darum lohnt es sich wahrscheinlich auch.
0:10:05–0:10:09
Man sieht schon, eben mit diesen Drittherstellern,
0:10:10–0:10:16
GPTs, tönt sich da natürlich auch wieder allerhand Probleme auf und da sehen
0:10:16–0:10:20
wir, können wir glaube ich auch ein Vorgeschmäckchen über, was dann im neuen Jahr passiert.
0:10:20–0:10:28
Also etwas naheliegend ist ja, eine virtuelle Freundin oder einen virtuellen
0:10:28–0:10:34
Freund zu fabrizieren mit dem GPT und in der Story zu stellen und dann können
0:10:34–0:10:37
die Leute mit dem flirten und was weiss ich was alles machen.
0:10:38–0:10:40
Und das ist natürlich sofort gemacht
0:10:40–0:10:46
worden, obwohl es eigentlich laut Nutzungsbestimmungen nicht erlaubt ist.
0:10:46–0:10:49
Und ich würde aber sagen, das kannst du wahrscheinlich nicht verhindern,
0:10:50–0:10:57
das ist eine zwingende Folge, dass das passiert und wahrscheinlich würdest du
0:10:57–0:10:58
es einfach gescheiter probieren,
0:10:59–0:11:02
irgendwie geordnete Bahnen zu lenken, probieren es abzuklemmen.
0:11:02–0:11:07
Klar, und es gibt ja die Historiker, wo jemand gesagt hat, meine Oma hat mir
0:11:07–0:11:10
immer Windows 7 Seriennummern vorgelesen und dann ist es so cool.
0:11:10–0:11:15
Genau, das habe ich auch mal geschrieben, ja. Eben, und es gibt glaube ich eben...
0:11:16–0:11:21
Wenn man nochmal ist, du kannst jetzt nicht sagen, make me Tom Cruise,
0:11:21–0:11:26
standing on the Matterhorn, aber wenn du je nachdem sagst, make a man looking
0:11:26–0:11:31
like Tom Cruise oder alternativ beschreibst du halt Tom Cruise,
0:11:31–0:11:33
standing on the Matterhorn, dann macht er es.
0:11:33–0:11:41
Ich habe mich über mein HP-Notebook aufgeregt und dann habe ich einen Blogpost
0:11:41–0:11:44
geschrieben und habe gewählt, dass er mir ein HP-Notebook macht,
0:11:45–0:11:49
wo irgendwie von einem Mann böse angeschaut wird, ein Bild, das ich als Illustration
0:11:49–0:11:52
für den Blogpost brauchen konnte.
0:11:52–0:11:56
Und dann hat er geschrieben, tut mir leid, das kann ich leider nicht machen,
0:11:57–0:11:59
weil das widerspricht den Regeln.
0:12:01–0:12:07
Da ist jetzt irgendein Scherzbold bei den Words angegangen und hat genau diese
0:12:07–0:12:11
Formulierung gebraucht, die dann vom Chat-GPT kommt,
0:12:11–0:12:18
nämlich I'm sorry, but I cannot fulfill this request as it goes against Open-Eye-Use-Policy.
0:12:18–0:12:22
I'm sorry und so weiter. Er sagt immer «I'm sorry». Und dann hat er bei ganz
0:12:22–0:12:29
vielen grossen Plattformen, wie zum Beispiel Amazon oder einfach bei Shopping-Seiten
0:12:29–0:12:32
oder wo, dass man suchen kann, nach dem «I'm sorry».
0:12:32–0:12:38
Und er hat überall Texte gefunden, die einfach automatisch mit Chat-Hippity
0:12:38–0:12:43
textlich generiert worden sind, aber die er nicht gemacht hat,
0:12:43–0:12:46
weil sie irgendwie dieser Regel widersprochen haben.
0:12:46–0:12:52
Und bei Amazon findest du hunderte Anbieter, die ihre Texte automatisiert geschrieben
0:12:52–0:12:56
haben und nicht einmal geschnallt haben, dass das Ding gar nicht...
0:12:56–0:12:59
Also die klassische Artikelbeschreibung, die du halt hast. Genau.
0:13:00–0:13:02
Und dort hätte es wahrscheinlich stehen sollen, ich nehme an,
0:13:03–0:13:06
das ist jetzt ein schönes Zelt, das aussieht wie das Zelt von,
0:13:06–0:13:09
wer ist ein bekannter Zelthersteller?
0:13:09–0:13:14
Hörst du nicht Spatz oder so? Ich weiss es nicht. Ich sage mir Turnschuhe.
0:13:15–0:13:21
Nein, Turnschuhe weiss ich zwar nicht. Die On-Schuhe. Wo der Herr Federer mal
0:13:21–0:13:22
war und dann wieder nicht. Genau.
0:13:23–0:13:26
Das sind Schuhe, die aussehen wie die On-Schuhe, die du gerne kaufen willst,
0:13:26–0:13:28
aber dir nicht leisten kannst.
0:13:28–0:13:31
Und dann hat der Chat-Hippie das Text machen sollen und gesagt,
0:13:31–0:13:32
I'm sorry, I cannot do this.
0:13:32–0:13:38
Und dann hat es in den Shops ganz viele Fehler-Meldungen drin.
0:13:38–0:13:42
Das ist noch lustig auf eine Art, aber man sieht schon auch,
0:13:42–0:13:48
man sieht wirklich schon in einem Jahr, dass das Ding einfach so überall angekommen ist.
0:13:48–0:13:50
Das finde ich schon verblüffend. Ich finde auch noch ein Beispiel,
0:13:50–0:13:51
das ich gerade noch mal heute getestet habe.
0:13:52–0:13:57
Im Tessin habe ich etwas über den ÖV gefragt und noch wahrscheinlich vor einem
0:13:57–0:14:00
Jahr war das einfach kreuzfalsch.
0:14:00–0:14:04
Also ja, bei uns gibt es keinen Busnummer 3 und bla bla bla bla.
0:14:05–0:14:08
Heute sagt das wirklich ganz korrekt, ja, er geht.
0:14:08–0:14:12
Alle 15 Minuten tagt er die Station
0:14:12–0:14:17
A, aber alle 30 Minuten geht er die Station B, was 100% korrekt ist.
0:14:17–0:14:21
Ja, da gibt es Potenzial, glaube ich, immer noch. Ich habe diesen Bart getestet,
0:14:21–0:14:23
das ist das Ding von Google.
0:14:23–0:14:30
Und das ist dann irgendwie im September oder Oktober letztes Jahr hat Google
0:14:30–0:14:32
das so verknüpft mit ganz vielen von ihren Diensten.
0:14:32–0:14:37
Unter anderem auch mit ihrer Hotelsuche und mit ihrer Flugsuche.
0:14:37–0:14:41
Und dann habe ich gesagt, also gut, lieber Bart, such mir eine schöne Reise raus.
0:14:41–0:14:44
Ich möchte eine Woche lang in dieser Zeit auf Griechenland.
0:14:44–0:14:51
Es sollte irgendwo ein Café am Strand sein. Und ich möchte einen günstigen Flug,
0:14:52–0:14:54
einen Direktflug müsste es sein.
0:14:54–0:14:58
Und das Hotel eben am Strand und so. Und dann hat er das super gemacht.
0:14:58–0:15:02
Er hat Flüge rausgesucht und Hotels und so. Dann schaust du und findest, hm.
0:15:03–0:15:06
Aber du, Bart, hat er keiner gesagt, dass wenn du in die Ferien gehst,
0:15:06–0:15:10
dann würdest du wahrscheinlich erwarten, dass das Hotel ungefähr dort ist,
0:15:10–0:15:13
wo dann das Flugzeug landet, wo du hingehst.
0:15:14–0:15:19
Die Hotels waren irgendwo in Griechenland und die Flüge sind irgendwo auch gelandet
0:15:19–0:15:23
in Griechenland, aber an völlig anderen Orten. Da hättest du noch ein Auto mieten
0:15:23–0:15:27
müssen und quer über die ganze Peloponnese fahren oder so. Oder nach den Ferien hin.
0:15:27–0:15:30
Und dann musst du sagen, ja, okay, das ist jetzt noch nicht so.
0:15:30–0:15:33
Ich glaube gerade so, ich würde sagen so,
0:15:34–0:15:38
Wenn du in die Ferien willst, dann solltest du nicht, dass der Chat-GPT oder
0:15:38–0:15:40
der Bart im Moment machen lassen.
0:15:40–0:15:43
Also du wirst sicher zur Unterstützung gehen können oder so,
0:15:43–0:15:52
das geht sicher, aber entweder sitzt du halt mal einen Tag hin und suchst es
0:15:52–0:15:57
raus oder gehst ins Reisebüro und zahlst halt die liebe, liebe Dame im Reisebüro,
0:15:57–0:16:00
die das halt macht und das kennt und vielleicht schon mal da war.
0:16:00–0:16:04
Vielleicht macht dann jemand einen individuellen GPT daraus,
0:16:04–0:16:12
einen Tourismus-Reiseberater-GPT für Leute wie Digi-Chris, die gerne auf einem
0:16:12–0:16:15
Schiff sind und Ausflüge machen.
0:16:16–0:16:19
Was? Frachtschiff, habe ich noch nicht gesagt. Genau, genau.
0:16:19–0:16:25
Also das Problem, das diese Technologie hat, ist noch nicht gelöst, so grundsätzlich.
0:16:25–0:16:31
Ich habe gerade vor kurzem gelesen, offenbar haben die Microsoft Network,
0:16:31–0:16:35
also das ist da ihre MSN, das ist da die News-Webseite, die setzen dort natürlich,
0:16:36–0:16:41
die tun wahrscheinlich ihre eigene Software-Doc-Food, wenn man so schön sagt,
0:16:41–0:16:44
setzen die ein und setzen sie ein, um Bilder raussuchen.
0:16:44–0:16:48
Und dann hatten sie einen Artikel, wo es um.
0:16:50–0:16:55
Kinderpornografie oder sogar Kinderschändung gegangen ist und dann hat die.
0:16:56–0:17:00
Kai halt ein Bild genommen, wo sie gefunden hat, das passt zum Thema,
0:17:00–0:17:02
aber das ist dann irgendwie ein irischer.
0:17:03–0:17:08
Radiomoderator, David Fanning heisst der, wo nichts mit dem Thema oder nichts
0:17:08–0:17:12
mit dem Vorwurf zu tun hatte und der hat dann natürlich logischerweise Microsoft
0:17:12–0:17:15
und die Betreiber dort verklackt im Grunde und Boden hier.
0:17:16–0:17:20
Ich glaube, das ist schon etwas, wo man wahrscheinlich ernst nehmen müsste,
0:17:20–0:17:24
also auch die juristischen Probleme, die einem blühen können,
0:17:24–0:17:28
wenn man die Technologie einfach von sich her wurschteln lässt.
0:17:28–0:17:31
Ja, aber ich glaube, es ist halt auch, ich erinnere mich auch,
0:17:31–0:17:33
das hat auch lange nichts mehr mit KI zu tun gehabt.
0:17:34–0:17:39
Ich bin da im Rundengebäude, im Studium habe ich auch mal einfach eine Aufgabe
0:17:39–0:17:42
gekürzt und sie den Bruch einfach schön in den Rechner hinein getan.
0:17:42–0:17:46
Und ich war so schlau, habe alles eins zu eins abgeschrieben.
0:17:46–0:17:50
Und dann sehe ich da rot, null Punkte. Und für euch trotzdem sowieso.
0:17:51–0:17:55
Sie können ein Sechstel aus diesem Term im Kopf ausklammern,
0:17:55–0:17:56
dann fressen Sie einen Besen.
0:17:56–0:17:59
Sie haben das mit dem TR gemacht, daher null pünktlich.
0:18:00–0:18:06
Okay, verwutscht. Ja, genau. Wenn Sie es schon so machen, schalten Sie doch
0:18:06–0:18:08
das Gehirn und schauen, was Sie da hinschreiben.
0:18:09–0:18:11
Dann ist es genau das Gleiche. Ich meine, dort war jetzt noch meine Prüfung.
0:18:12–0:18:16
Wenn du jetzt halt im schlimmsten Fall auf SRF-CH oder auf TAGI-CH so einen
0:18:16–0:18:20
Fauxpas machst, ist es dann noch etwas blöder. Das kommt garantiert.
0:18:20–0:18:25
Ich habe schon so Inserate gesehen von grossen Pressehäusern,
0:18:25–0:18:29
Medienhäusern, die ich jetzt den Namen nicht sage, aus Gründen.
0:18:31–0:18:39
Und die suchen Leute, die KI betreiben für journalistische und kommerzielle
0:18:39–0:18:43
Einsätze auf News-Plattformen.
0:18:43–0:18:48
Wie genau die aussehen, das weiss man nicht, das stand in diesem Inserat nicht,
0:18:49–0:18:53
aber man kann sich schon vorstellen, dass solche Sachen auch kommen.
0:18:53–0:18:56
Und ja, die plagieren dann auch.
0:18:56–0:18:59
Also ich glaube, das Problem ist, das ist ja ein anderes Ding,
0:18:59–0:19:07
wo man auch lesen kann, dass die Zeitung OpenAI die New York Times verklagt
0:19:07–0:19:10
und Microsoft, glaube ich, auch noch, weil die gesagt haben, ja, hört mal,
0:19:11–0:19:14
wir haben einfach gemerkt, dass ihr unsere Artikel genommen habt,
0:19:14–0:19:17
unseren Premium-Content, wie man so schön sagt,
0:19:17–0:19:20
um eure KIs zu trainieren drauf.
0:19:20–0:19:26
Und die geben jetzt halt Informationen raus, die sie aus unseren Artikeln haben.
0:19:28–0:19:31
Wo wir keine rote Rappe davon haben.
0:19:31–0:19:35
Und das, ich glaube, das ist ein grundsätzliches Problem. Das habe ich schon
0:19:35–0:19:38
vor einem Jahr geschrieben, aber ich glaube, es ist immer noch,
0:19:38–0:19:42
hat man dem Problem zu wenig Aufmerksamkeit geschenkt.
0:19:42–0:19:48
Wenn du auch einen Blog hast, wenn jetzt ChatGPT kommt und lehrt aus deinem Blog,
0:19:49–0:19:53
Informationen daraus zieht, Fragen beantwortet nachher in diesem Abo,
0:19:53–0:19:56
wo sie OpenAI 20 Franken im Monat verdienen.
0:19:57–0:20:03
Aber du, dass du diese Informationen bereitgestellt hast, das sieht man dieser
0:20:03–0:20:04
Antwort dann nicht mehr.
0:20:04–0:20:07
Und OpenAI wäre bis jetzt, glaube ich, auch noch nicht auf die Idee gekommen,
0:20:07–0:20:11
zu sagen, du, liebe Chris, danke, da hast du einen 5-Liber dafür.
0:20:12–0:20:15
Ja, also grundsätzlich, ich glaube schon, es gibt, glaube ich,
0:20:15–0:20:19
GPD vor Gitterquellen an, aber wenn man jetzt an das Problem denkt,
0:20:19–0:20:22
wenn du auf Google News gehst, du siehst irgendeinen Artikel,
0:20:22–0:20:26
hast ein Headline, du klickst drauf, aber dann bist du, ich sage jetzt auf Tag ein Blick.
0:20:27–0:20:31
Frankfurter Allgemeinen, und dann werden es Bannerwerbung und ihr Tracking überkommen,
0:20:31–0:20:34
aber eben, mit Chat-GPD kommt das nicht über.
0:20:34–0:20:38
Genau, wir haben hier die Diskussion zu diesem Leistungsschutzrecht,
0:20:38–0:20:40
die geht ja schon seit Jahren,
0:20:40–0:20:47
und ich glaube, das wird noch, das Leistungsschutzrecht ist ist harmlos im Vergleich
0:20:47–0:20:49
zu dem, was dann da auf uns zukommen könnte.
0:20:49–0:20:53
Klar, auch Wikipedia kannst du sagen, Wikipedia ist kostenlos.
0:20:54–0:20:58
Also ich würde sagen, Wikipedia ist ein wichtiger, wichtiger Bestandteil für die KIs.
0:20:59–0:21:04
Die sind gratis. Da hat man auch gesagt, das soll so sein.
0:21:04–0:21:09
Man stellt das mit den Creative Commons der Menschheit zur Verfügung.
0:21:09–0:21:16
Aber stellt sich dann trotzdem die Frage, ob man da eigentlich auch dran...
0:21:16–0:21:20
Man hat natürlich nicht daran gedacht, weil als man diese Lizenzen gemacht hat,
0:21:20–0:21:24
hat man noch nicht gewusst von OpenAI und JGPT.
0:21:24–0:21:30
Aber will man dann, dass ein Unternehmen reich und mächtig wird auf diesem Ding,
0:21:30–0:21:35
auf diesem Wissen, ohne dass dann die, die das gemacht haben,
0:21:35–0:21:36
nur das Geringste davon haben?
0:21:36–0:21:41
Ich finde das noch schwierig. Eben, gut, das Thema kennen wir ja schon aus der
0:21:41–0:21:46
Open-Source-Software, Akno, du schreibst jetzt irgendwie eine Firewall auf Open-Source,
0:21:46–0:21:52
wo du einfach Pakete blocken kannst, die vielleicht, wer weiss,
0:21:52–0:21:55
eine KI haben und so, und jetzt kommt irgendein Routerhersteller,
0:21:55–0:21:58
der sagt, oh, was der Schüssler geschrieben hat oder was der Digi-Chris geschrieben
0:21:58–0:22:01
hat, cool, das baue ich bei mir mal ein.
0:22:01–0:22:05
Und ich sage, dass ich das zum Spass gemacht habe, weil es mir irgendwie langweilig
0:22:05–0:22:09
war und die verdienen dann hunderte oder tausende Stutz mit so einem Router.
0:22:09–0:22:10
Dann würde ich auch sagen, hey...
0:22:11–0:22:16
Ja, wenn du es zuhause benutzt, ist es mir egal, aber wenn dann jemand mit meinem
0:22:16–0:22:20
geistigem Eigentum richtig Kohle macht, finde ich es schon nicht mehr so lustig.
0:22:20–0:22:26
Und bei dem GPL-Zeug gab es ja schon diverse Schläge, die bis zum Verkaufsverbot gegangen sind.
0:22:26–0:22:30
Dort ist wirklich das Problem, dass die Hardcore-Verfechter,
0:22:30–0:22:34
die sagen natürlich, frei ist frei und dann gibt es keine Ausnahmen und dann
0:22:34–0:22:36
ist alles kommerziell und alles,
0:22:37–0:22:42
was irgendein Unternehmen damit macht, ob es dir passt oder nicht, ist halt abgedeckt.
0:22:42–0:22:46
Und sonst darfst du es nicht unter dieser freien Lizenz rausgeben.
0:22:46–0:22:53
Und das leuchtet mir auf eine Art schon ein, aber auf der anderen Seite finde
0:22:53–0:22:59
ich trotzdem, dass wenn eigentlich die Idee irgendwie gemeinnützig war.
0:23:00–0:23:06
Dann finde ich es schwierig, wenn nachher ein Konzern da einfach knallhart egoistisch
0:23:06–0:23:11
das für sich beansprucht und damit riesige Summen einfährt.
0:23:11–0:23:16
Und da müssen wir dann vielleicht auch schon überlegen, wie viel ist dann das
0:23:16–0:23:18
Menschheitswissen wert?
0:23:18–0:23:23
Dürft man das einfach so als grosses Unternehmen monopolisieren?
0:23:23–0:23:31
Weil eben OpenAI oder Microsoft oder so ein paar wenige sind ja dann auch eine Art Monopol.
0:23:31–0:23:33
Man kann nicht herangehen und sagen, jeder hat die Möglichkeit.
0:23:33–0:23:38
Weil nein, nicht jeder hat die Möglichkeit, so eine Software,
0:23:38–0:23:41
die gleich leistungsfähig ist, aus dem Boden heraus zu stampfen.
0:23:41–0:23:47
Und ich glaube, da sind wir wirklich in so ganz schwierigen Abwägungen drin,
0:23:48–0:23:53
wo ich nicht sehe, dass man auch nur schon anfangen würde, darüber ernsthaft
0:23:53–0:23:55
zu diskutieren. Das ist auch noch etwas zu weit.
0:23:57–0:24:01
Mir ist auch aufgefallen, dass Leute, mit denen ich zusammen arbeite,
0:24:01–0:24:05
nicht gerade die absolut analogen Menschen sind.
0:24:06–0:24:09
Chat-GPT-4 kann Bilder generieren.
0:24:10–0:24:17
Es geht ja momentan nur mit der Premium-Version oder mit dem Bing würde es auch noch gehen.
0:24:18–0:24:23
Ich finde schnell noch etwas, das mir eingefallen ist.
0:24:24–0:24:30
Angenommen, dass jemand jünger ist und ihren Aufsatz für die Schule schreiben
0:24:30–0:24:33
muss, macht ChatGPT auf und fragt zum Beispiel, wo Marseille liegt.
0:24:33–0:24:37
Und dann sagt ChatGPT, Marseille liegt im Norden von Frankreich.
0:24:38–0:24:42
Super. Schreibt sie dann einfach so, ja, Marseille im Norden von Frankreich,
0:24:42–0:24:45
vielleicht mal die Stadt mit den, weiss ich nicht was.
0:24:46–0:24:49
Genau, mit dem Eiffelturm. Ja, mit den Hüpfeln irgendwie so,
0:24:49–0:24:55
weil du weisst ja, selbst in Wikipedia gibt es Fake News.
0:24:55–0:24:58
Da war es vielleicht nicht einmal bewusst oder es ist schon irgendwie ein bisschen
0:24:58–0:24:58
durcheinander gekommen.
0:25:00–0:25:04
Ich glaube, das muss man wirklich klären. Aber es ist wahnsinnig schwierig,
0:25:05–0:25:08
wenn ich sehe, was die Leute einfach in den sozialen Medien alles glauben.
0:25:09–0:25:12
Dann macht mir das ehrlich gesagt auch noch Sorgen. Und wenn man gerade bei
0:25:12–0:25:17
den Sorgen sinkt, dann kann ich auch noch das lesen. Das ist eine neue Studie
0:25:17–0:25:20
vom internationalen Währungsfonds IWF.
0:25:20–0:25:23
Die sagt, KI wird 60% aller Jobs beeinflussen.
0:25:24–0:25:29
Die gut Ausbildeten werden eher positiv beeinflusst.
0:25:29–0:25:35
Die können mit KI ihre Produktivität steigern, kommen dadurch im Idealfall mehr
0:25:35–0:25:42
Geld über, haben einen interessanteren Job, können sich auf die wirklich spannenden Sachen konzentrieren.
0:25:42–0:25:48
Aber dann eben bei den weniger qualifizierten Leuten wird es eher so sein,
0:25:48–0:25:52
dass die konkurrenziert werden durch die KIs und vielleicht dann einen schlechteren
0:25:52–0:25:53
Lohn überkommen müssen.
0:25:54–0:25:59
Ich meine, lohnmässig gegen KI anzudenken ist wirklich schwierig.
0:26:00–0:26:05
Da bist du auf dem verlorenen Posten. und eben auch, es könnte sich noch ein
0:26:05–0:26:08
weiterer, von diesem digitalen Graben reden wir schon lange,
0:26:09–0:26:15
aber der könnte sich halt noch weiter auftun, weil eben die Kluft noch grösser wird.
0:26:15–0:26:19
Und ich glaube, ja, das müssen wir auch im Auge behalten.
0:26:19–0:26:23
Ich finde, wir können dann schnell über einen gewinnenden Gewinner von dieser
0:26:23–0:26:27
KI reden. Und da rede ich jetzt von einem Hardwarekonzern namens Nvidia.
0:26:27–0:26:32
Ja, das ist so. Die machen ursprünglich, also auch vor 20 Jahren,
0:26:32–0:26:36
beim ersten Gaming-PC, das sind so eben Grafikkarten, die man halt spielen kann,
0:26:36–0:26:39
in 3D und mit schönen Bum-Bums-Effekten kann man spielen.
0:26:39–0:26:44
Und mittlerweile haben die Chips und ja, es sind Grafikkarten,
0:26:44–0:26:50
die so darauf optimiert sind, die KI-Anfragen zu bearbeiten.
0:26:50–0:26:54
Also, die verkaufen glaube ich relativ viele Grafikkarten. Genau,
0:26:54–0:26:58
ich sage jetzt OpenAI, Microsoft, wer auch immer.
0:26:58–0:27:02
Und ja, was wir auch in den Preisen bilateral geredet haben,
0:27:03–0:27:08
brauchst du wahrscheinlich 20 neue Atomkraftwerke oder 300 Millionen Solarzellen,
0:27:08–0:27:12
um die ganze Grafikkarte mit Strom zu versorgen.
0:27:12–0:27:16
Und was man auch noch sagen kann in diesem Zusammenhang, viele von diesen Chips,
0:27:16–0:27:18
die hier verbaut werden, die kommen aus Taiwan.
0:27:19–0:27:24
Also wenn da mal China findet, dass Taiwan hm, was machen wir jetzt mit dem? Das ist jetzt uns.
0:27:24–0:27:29
Das gehört jetzt uns, genau. Und dann könnten wir uns gerade noch diese Chipfabriken.
0:27:31–0:27:35
Einverleiben. Dann haben wir vielleicht auch auf einmal ein Problem.
0:27:36–0:27:41
Während der Corona-Pandemie haben wir über die Abhängigkeiten geredet, die wir hier haben.
0:27:43–0:27:47
Aber wir haben die Lektion nicht daraus gelernt, oder? Ich glaube es nicht.
0:27:47–0:27:52
Aber ich glaube auch nicht, dass du sagen könntest, dass Herr Parmalat jetzt
0:27:52–0:27:57
kommt, jetzt machen wir irgendwo in Murten eine Chipfabrik.
0:27:57–0:28:01
Und wir bauen ab nächstem Jahr KI-Chips.
0:28:01–0:28:03
Das braucht, glaube ich, ein bisschen mehr Vorlauf.
0:28:04–0:28:10
Das stimmt schon, aber eben, es ist nicht einfach mit den Lieferketten und allem,
0:28:10–0:28:16
aber dass man jetzt wieder einfach das völlig ignoriert, finde ich trotzdem irgendwie seltsam.
0:28:16–0:28:18
Also, jetzt haben wir noch ein paar Minuten.
0:28:19–0:28:23
Ich muss da zu diesen Grundlagen, es gäbe noch viel mehr.
0:28:23–0:28:25
Ich habe mir noch überlegt, was machen jetzt eigentlich so Apple,
0:28:26–0:28:28
was macht Google vor allem auch?
0:28:28–0:28:31
Ich finde, Apple wäre noch schnell einen wichtigen Punkt, weil man muss schon
0:28:31–0:28:36
sagen, also Siri, bist du mittlerweile sehr blöd bei meinem schönen Bits und
0:28:36–0:28:39
so Podcast, habt ihr da mal ein Teil des Problems?
0:28:39–0:28:41
Add this to the calendar.
0:28:42–0:28:44
Also sprich, du bist auf einer Webseite, ich sage jetzt auch,
0:28:44–0:28:49
du bist, oder to my notes, du bist auf einer Webseite, schönes Hotel, hey Siri.
0:28:50–0:28:54
Add this to the calendar. Du darfst das nicht sagen, sonst können alle in Syrien
0:28:54–0:28:57
sagen. Und dann am 7. Tag, Syrietein, ist einfach das Wort this.
0:28:58–0:29:00
Ja, das habe ich, ich habe auch schon so Sachen gesehen.
0:29:00–0:29:06
Also, genau, da sind, da haben es einige Konzerne, die müssen aufholen.
0:29:06–0:29:07
Ich würde Google da auch dazu zählen.
0:29:07–0:29:13
Facebook habe ich gelesen, die haben jetzt ihr Metaversum, ist ja ihr grosses
0:29:13–0:29:18
Ding gewesen, das sei jetzt so auch ein bisschen zugunsten der KI in den Hintergrund geschoben worden.
0:29:18–0:29:22
Was ich auch sehr sehr spannend finden, was wir vielleicht mal noch separat
0:29:22–0:29:28
drüber reden müssen, dass so die KI-Gadgets, der Humane AI-Pin,
0:29:28–0:29:32
den es gibt, der soll wie der Communicator in Star Trek,
0:29:32–0:29:34
wo du das im Revers rumdrehst und mit dem,
0:29:35–0:29:38
interagierst und mit dem redest und überall, wo du gehst und stehst.
0:29:39–0:29:42
Aber das ist der eben, wo du eine Brille hast, wo du einfach so ein bisschen
0:29:42–0:29:47
dezent heruntersehen und dann... Nein, ich glaube, der redet vor allem mit dir.
0:29:47–0:29:53
Also so eine Art als broschen und so und eben funktioniert größtenteils über
0:29:53–0:29:58
sprachbefehl und dann gibt es noch so eine zweite so eine red tech pocket companion
0:29:58–0:30:03
heißt das ding hat man könne kaufen oder oder ich weiß nicht ist glaubt vielleicht sogar das.
0:30:04–0:30:10
Kickstarter ding die kamen auch das ist so ein gadget mit rum und wo dann also
0:30:10–0:30:16
es kann ein ding ist jetzt das wirklich bringt bin ich noch nicht sicher aber Aber ich glaube,
0:30:16–0:30:20
2024 könnte man es auch mit Leuten zu tun bekommen,
0:30:20–0:30:25
die dann in ihren Reverien reden und so alle Star Trek auf dem Bahnhof.
0:30:25–0:30:30
Dann, was weiss ich was. Gut, dass wir heute in Tour reden, wie der David Hessel
0:30:30–0:30:33
von 30 Jahren. Ja, gut, das stimmt. Das hast du auch schon.
0:30:33–0:30:36
Aber eine kleine Zwischenfrage, die ich jetzt stellen möchte.
0:30:38–0:30:41
Jetzt aus dem Stand heute, wie lange geht es, bist du das erste Mal,
0:30:41–0:30:43
ich sage jetzt im Zug, Zürich Wintertour, ob du jemanden siehst,
0:30:44–0:30:47
der einen Apple Vision Pro im Zug trägt? Das ist eine gute Frage.
0:30:49–0:30:52
Ich würde sagen, wenn du Glück hast, kann es dir schon relativ,
0:30:52–0:30:55
wird es dir schon bald mal passieren, aber ich glaube, dann wäre es wirklich
0:30:55–0:31:00
ein Glückstreffer und bis du das ernsthaft siehst, geht es mindestens drei Jahre.
0:31:01–0:31:04
Ja, sicher, aber ich weiss noch, auch als das iPhone herausgekommen ist,
0:31:04–0:31:08
beim Skifahren hat das eine in der Gondel vorgezogen. Und gut,
0:31:08–0:31:12
das iPhone ist dann schon noch mal etwas nicht so gross.
0:31:13–0:31:18
Und dann plötzlich, wie sagt man, der Gondolier, also der, der die Steigehörner
0:31:18–0:31:21
bedient hat, «Sie haben ein iPhone, darf ich das mal sehen?
0:31:21–0:31:25
Ich habe das im Fernsehen gesehen, darf ich das mal sehen?» Ich glaube nicht,
0:31:25–0:31:29
dass das ein Nerd war, aber er wusste einfach, da kommt ein Telefon,
0:31:29–0:31:30
das alles revolutioniert.
0:31:30–0:31:35
Ja, schon, aber bis mit dieser Brille in den Zug hinschauen,
0:31:35–0:31:38
das braucht, glaube ich, innere Überwindung vor allem auch.
0:31:38–0:31:43
Aber jetzt, ich möchte noch, Digi Chris, ich möchte noch unsere letzte Minute effizient nutzen.
0:31:43–0:31:49
Ich glaube, etwas, was wir auch noch zu tun bekommen, sind so mit diesen KI-Influencer,
0:31:49–0:31:54
die werden dann in den sozialen Medien, man sieht dann die so als Supermodels
0:31:54–0:31:58
und so, die führen die Mode virtuell vor und überall wird man die,
0:31:58–0:31:59
glaube ich, immer mehr sehen.
0:31:59–0:32:04
Und jetzt haben wir fast keine Zeit mehr, um diese Frage zu beantworten,
0:32:04–0:32:05
die ich am Anfang gestellt habe.
0:32:05–0:32:11
Was meinst du? Du hast eher angefunden, mit dem nächsten Chat-GPT,
0:32:11–0:32:13
da wird noch so viel passieren.
0:32:14–0:32:18
Ich würde sagen, es gibt noch mal einen Peak, also wahrscheinlich plus minus
0:32:18–0:32:22
gleich, wie jetzt von drei Fingern an der Hand auf fünf Fingern an der Hand.
0:32:22–0:32:25
Ich sage, es gibt sicher noch mal einen Peak und eben vielleicht irgendwann,
0:32:25–0:32:31
wenn, das kann durchaus sein, dass man heisst so stopp und jetzt ziehen wir das Stecken.
0:32:31–0:32:34
Also ihr entstand, seid so und weg.
0:32:34–0:32:38
Das glaube ich nicht. Ich glaube nicht, dass man das wieder in die Büchse,
0:32:38–0:32:42
dann wird es einfach illegal und umso teurer und umso beliebter und so.
0:32:43–0:32:48
Aber ich glaube, du hast recht, dass der technische Fortschritt dann geht weiter.
0:32:48–0:32:52
Aber ich glaube, wir haben in den Grundzügen gesehen, was die KIs können.
0:32:52–0:32:57
Und ich glaube nicht, dass sie zum Beispiel finde ich sie nicht kreativ,
0:32:57–0:32:58
nicht intuitiv, all das.
0:32:59–0:33:03
Eben, dass sie kein grundsätzliches Verständnis für richtig oder falsch,
0:33:03–0:33:08
für moralisch und unmoralisch haben, an dem wird sich nichts ändern,
0:33:08–0:33:15
sondern das wird man vielleicht immer noch ein bisschen besser simulieren können, aber es wird kein...
0:33:15–0:33:19
Keine KI geben, die dir ein Buch schreibt, das du lieber liest,
0:33:19–0:33:21
als das von Stephen King, oder?
0:33:21–0:33:25
Nein, das sicher nicht. Aber ich sage es vielleicht auch, wenn du mal ein Buch
0:33:25–0:33:28
schreibst, wenn du vielleicht ein wenig strecken musst, dass du das mal ein wenig machst.
0:33:28–0:33:34
Aber klar, wenn wir an Reda, sein Buch denken, da wird es noch 20 Jahre an Reda
0:33:34–0:33:39
brauchen, wo du wahrscheinlich 27 Handlungsstränge hast, das wird noch keine KI geben.
0:33:39–0:33:45
Ich habe auch schon gelesen, in den E-Book-Stores kommen jetzt all diese KI-angeschlutterten
0:33:45–0:33:50
Bücher und da haben die Leute wahrscheinlich jetzt schon die Schnauze voll.
0:33:50–0:33:54
Und das sehe ich als ein riesiges Problem an und es wird dann wahrscheinlich
0:33:54–0:33:57
irgendwann mal auch wieder ein Mechanismus brauchen,
0:33:57–0:34:00
wo kann unterscheiden ist jetzt das menschlich oder
0:34:00–0:34:04
wurde es als label wieso so ist die regel genau
0:34:04–0:34:07
man made wehrsatz kain und dann muss
0:34:07–0:34:14
dann muss der kunde eine verbindung wo leute wirklich und so und leute die die
0:34:14–0:34:19
chat history und sagt nein da hast für das buch hast du da formulierung ausgelenkt
0:34:19–0:34:25
wir nehmen dir das label wieder weg das könnte ich mir gut vorstellen und aber wie wie es rauskommt.
0:34:25–0:34:29
Ich glaube, das wird in einem Jahr sehr spannend.
0:34:29–0:34:33
Wir sind wahrscheinlich bei allem falsch gelegen, aber ich glaube,
0:34:33–0:34:39
wir werden müssen uns dann streng die Finger schauen, was wir richtig und was wir falsch haben.
0:34:39–0:34:43
Ihr könntet eigentlich als Sendungsortiz in einem Jahr die Sendung irgendwie
0:34:43–0:34:47
mal kommentieren, wer hat am meisten Voraussagen gehabt, die richtig gewesen sind.
0:34:47–0:34:50
Das machen wir. Tschüss miteinander. Einen schönen Tschau.
0:34:53–0:35:04
Music.

Ob es uns passt oder nicht: Die künstliche Intelligenz wird auch im neuen Jahr das dominierende Thema in der Tech-Welt sein – und darüber hinaus. In allen Bereichen, sowohl privat als auch bei der Arbeit, sind Auswirkungen zu erwarten. Im Idealfall positiv, indem uns die künstliche Intelligenz Arbeit abnimmt. Aber genauso kann die sie auch als Konkurrent auftreten und unseren Arbeitgeber auf Ideen bringen, wie und wo er Kosten sparen könnte.

Damit wir wissen, woran wir sind, nehmen wir heute eine Auslegeordnung vor: An welchem Punkt stehen wir? Welche unmittelbaren Entwicklungen sind zu erwarten, wie reagieren die grossen Konzerne, welche neuen Geräte und Gadgets erwarten uns?

Und: Stehen wir erst am Anfang der Entwicklung oder ist der grösste Hype schon durch?

Die Links zur Episode

Ausgangslage

Die Konzerne

Ausblick und Diskussion

Veröffentlicht von Matthias

Nerd since 1971.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert