Transkript anzeigen (falls vorhanden)

00:00–0:00:19
Music.
0:00:20–0:00:25
Ähm, A mit Aryan Nation und ich habe fast ins falsche Mikrofon reingeredet,
0:00:25–0:00:27
aber ich glaube, es kommt trotzdem gut heute.
0:00:30–0:00:33
Radio Stadtfilter. 96,3 Megahertz.
0:00:34–0:00:40
Hoi Kevin, ich hoffe, du redest ins richtige Mikrofon rein. Ich rede ins richtige
0:00:40–0:00:42
Mikrofon rein, aber die Hurenvögel auch.
0:00:42–0:00:46
Die sind Wahnsinn, was ist denn mit denen? Ich weiss nicht.
0:00:46–0:00:50
Ich bin den ganzen Tag nicht zuhause gewesen und das Drehen jetzt Ich weiss
0:00:50–0:00:51
nicht, was die haben. Die spinnen.
0:00:53–0:01:00
Was machen wir mit ihnen? Poulet. Wäre jetzt auch etwas fies, oder? Ja.
0:01:02–0:01:05
Ja, aber ich entspanne mich. Ich weiss nicht, was sie haben.
0:01:06–0:01:11
Ja. Wir müssen mal... Das fehlt noch bei all diesen KI-Sachen,
0:01:11–0:01:12
die wir haben, neuerdings.
0:01:13–0:01:16
Dass du einfach so einen Übersetzer... Es gibt jetzt den Übersetzer,
0:01:16–0:01:22
der das Video und dann macht er so aus deinem Deutsch geredet ein Video,
0:01:22–0:01:25
macht er irgendwie japanisch oder chinesisch oder so.
0:01:25–0:01:29
Das ist recht beeindruckend. Aber noch viel beeindruckender wäre es,
0:01:29–0:01:34
wenn man jetzt das Mikrofon diesen Hühnern hinheben könnte und dann würde K.I.
0:01:34–0:01:35
Sagen, was sie eigentlich haben.
0:01:37–0:01:39
Ich glaube, wir sind im Fall nicht mehr so weit weg von dem.
0:01:40–0:01:46
Findest du? Ich glaube, das kommt wahrscheinlich relativ schnell,
0:01:46–0:01:52
dass man einfache Tier-Laut übersetzen kann.
0:01:52–0:01:57
Beziehungsweise am Hund kommt es relativ schnell.
0:01:58–0:02:01
Das wäre super. Ich bin nicht sicher, ob du recht hast.
0:02:02–0:02:05
Ich glaube, es ist nicht so schwierig.
0:02:06–0:02:10
Weil... bist du mit Hunden aufgewachsen? Nein, nein.
0:02:11–0:02:14
Kennst du dich mit Hunden aus? Ja, nicht so wirklich.
0:02:15–0:02:18
Okay, aber wenn du mit Hunden aufgewachsen bist, oder mit...
0:02:18–0:02:22
Hunde sind halt dankbar, weil die geben halt Töne von sich.
0:02:22–0:02:26
Du kannst bei einem Hund das Bellen unterscheiden, was es bedeutet.
0:02:27–0:02:31
Okay. Und darum habe ich das Gefühl, du kannst, wenn du das analysierst,
0:02:31–0:02:37
kannst du dem Hund wahrscheinlich ein Kommando geben im Sinn von Freude, Angst, Gefahr.
0:02:37–0:02:42
Ich glaube, der geht relativ schnell. Meinst du, das wäre dann.
0:02:43–0:02:47
Für jeden Hund spezifisch, dass man das zuerst trainieren müsste?
0:02:47–0:02:48
Oder ist das universell?
0:02:49–0:02:51
Haben die Hunde so universelle Sprache?
0:02:52–0:02:56
Ich glaube, sie haben universelle Sprache. Ich glaube, wenn ein Hund bellt und
0:02:56–0:03:01
sagt «Hey, kein Scheiss, jetzt ist es fertig», ich glaube, das hat eine universelle
0:03:01–0:03:03
Sprache, das verstehen alle Hunde.
0:03:03–0:03:09
Ja, das wäre noch lässig. Also, ich hatte mal so eine App, wo meine Tochter
0:03:09–0:03:12
noch als Baby war und sie behauptete, dass sie unterscheiden können,
0:03:13–0:03:15
was das Gebrüll von dem Kind heisst.
0:03:16–0:03:20
Und mich hätte es gedacht, das sei so ein bisschen eine Scharlatanerie gewesen.
0:03:20–0:03:24
Also als Eltern hast du dann zwischendurch das Gefühl gehabt,
0:03:24–0:03:27
du gehörst dem Kind jetzt an, ob es Hunger hat, ob die Windel voll ist,
0:03:28–0:03:33
ob es einfach die Schnauze voll hat, so generell, und will schlafen oder so.
0:03:34–0:03:39
Oder nicht schlafen, das kann ja dann auch noch sein. Aber diese App hat das
0:03:39–0:03:41
also nie so treffsicher herausfinden können.
0:03:43–0:03:48
Aber du, als Elternteil, weisst es bei deinem Kind. Ja, genau.
0:03:49–0:03:51
Und darum glaube ich, KI ist nicht so weit weg.
0:03:51–0:03:57
Weil wir können es ja auch. Also ich meine, wenn ich ein Baby höre und es schreit,
0:03:57–0:04:01
dann kann ich wahrscheinlich als Vater, der selber Kinder hatte,
0:04:01–0:04:04
kann ich wahrscheinlich beurteilen, was bedeutet das genau,
0:04:04–0:04:09
wo jemand anderer, der kein Kind hatte, wahrscheinlich das nicht beurteilen kann.
0:04:09–0:04:13
Und darum habe ich das Gefühl, es ist lernbar. Das ist wieder einmal eine dieser
0:04:13–0:04:18
berühmten Prognosen im «Nerdfunk». Wir werden es dann kontrollieren,
0:04:18–0:04:20
soll ich sagen. In fünf Jahren müsste es ja da sein.
0:04:21–0:04:23
Einigen wir uns darauf, dass wir das in fünf Jahren abklären.
0:04:23–0:04:25
In fünf Jahren, super. Genau.
0:04:26–0:04:38
Music.
0:04:38–0:04:42
Und heute geht es genau um die KI. Wir haben ja immer darüber gesprochen,
0:04:42–0:04:46
Kevin, wie toll das ist und wie die unser Leben erleichtert.
0:04:46–0:04:51
Und dass wir jetzt nicht mehr selbst unsere bösen Mails ausformulieren müssen,
0:04:51–0:04:56
sondern nur noch schreiben, ich finde, mein Chef sagt Trottel und das,
0:04:56–0:05:01
was er da wieder ausgedacht hat, ist der letzte Hirnschiss.
0:05:01–0:05:05
Und jetzt, Chat-GPT, formuliere mir das in Früchten. Schreibe mir das in Schön.
0:05:05–0:05:08
Genau, so dass ich nicht entlassen werde.
0:05:08–0:05:14
Genau, so macht man das. Aber sie hat ja vielleicht auch negative Seiten, die KI.
0:05:14–0:05:17
Und darüber wollen wir heute reden, oder?
0:05:18–0:05:24
Ich habe gefunden, ich würde gerne mal eine Sendung machen über «Ist jetzt KI gefährlich?
0:05:24–0:05:30
Ich scheisse in die Hosen vor Angst und du musst alles aufheben.» Okay.
0:05:30–0:05:34
Dass ich das Gefühl habe, es kommt extrem gut, was wir hier machen.
0:05:34–0:05:37
Sollen wir so ein Rollenspiel machen?
0:05:37–0:05:46
Du bist der Scheisshass und ich bin der, der sagt, nein, wir sollen alles, überall die K.I.
0:05:46–0:05:50
Einbauen und ohne das Kruppeln benutzen für alles.
0:05:51–0:05:54
Du kannst ja mal so die Position einnehmen, weil ich bin wirklich der,
0:05:54–0:05:56
der denkt, oh oh, das ist nicht gut.
0:05:57–0:06:01
Und ernst, ich finde es wirklich schwierig.
0:06:01–0:06:04
Und jetzt möchte ich mit dir über das reden.
0:06:06–0:06:12
Genau in diesem Rollenspiel. Ich bin der Sales Manager von OpenAI,
0:06:13–0:06:16
der dir alles antrillt, was wir so zu bieten haben.
0:06:17–0:06:21
Ich bin ein alter Mann, der noch nie mit Technik etwas zu tun hatte.
0:06:22–0:06:25
Also Herr Rechsteiner, wir haben hier unser schönes Produktsortiment.
0:06:26–0:06:31
Wir haben hier einen Chatbot, eine Bildgeneration. Nein, wie nennt man das, ein Generator?
0:06:31–0:06:36
Bildgenerator. Genau, und das müssen Sie alles brauchen, Herr Rechsteiner,
0:06:36–0:06:40
weil ohne das sind Sie einfach nicht mehr von heute.
0:06:43–0:06:48
Das ist so modernes Zeug, das braucht man alles nicht. Das ist alles Scheissdreck.
0:06:49–0:06:51
Okay. Nein, das ist es ja nicht. Aber...
0:06:53–0:06:58
Das ist jetzt ein abrupter Einstieg. Nein, ich würde sagen, aber hören Sie mal, Herr Rechsteiner.
0:06:59–0:07:03
Sie haben ja so ein Unternehmen und dort können Sie einfach Zeit sparen.
0:07:03–0:07:04
Und Zeit ist ja bekanntlich Geld.
0:07:05–0:07:09
Und das sollte eigentlich Ihre Bedenken sofort zerstreuen.
0:07:10–0:07:11
Ja, wahrscheinlich müsste es das.
0:07:13–0:07:17
Nein, die Diskussion kann jetzt nicht schon fertig sein.
0:07:18–0:07:21
Haben Sie vielleicht allenfalls gewisse Bedenken, Herr Reichsteiner,
0:07:21–0:07:23
was unser Produkt angeht?
0:07:23–0:07:32
Ich kann Ihnen versichern, alles ist sicher, wir haben es getestet mit 15 Probanden in Sri Lanka.
0:07:33–0:07:38
Und sind alle tot. Am Nachmittag. Ja, aber das ist am Tsunami gelegen,
0:07:38–0:07:40
der dann gekommen ist, nicht unserer Software.
0:07:40–0:07:46
Nein, Herr Schüster, ich verstehe, dass Sie das gut finden, aber mein Problem
0:07:46–0:07:48
ist, ich verstehe nicht, was passiert.
0:07:49–0:07:53
Sie verkaufen mir jetzt irgendeine Software, irgendein Programm,
0:07:53–0:07:56
irgendeinen Dienst, wo ich nicht genau weiss, woher das kommt.
0:07:56–0:08:00
Und das macht dann irgendetwas, wo ich auch nicht so genau weiss,
0:08:00–0:08:02
woher es jetzt die Informationen nimmt.
0:08:02–0:08:05
Und das finde ich einfach nicht so gut.
0:08:06–0:08:09
Also da könnte ich jetzt ernsthaft darauf Antwort geben, aber ich würde jetzt
0:08:09–0:08:12
mal sagen, ich probiere jetzt den Verkäufer nochmal.
0:08:12–0:08:16
Also schauen Sie mal, Herr Rechsteiner, wissen Sie denn wirklich im Detail,
0:08:16–0:08:22
wie Ihr Computer sonst funktioniert, wie ein Windows, was da in diesen 70 Millionen
0:08:22–0:08:24
Zielen Programmcode drin ist?
0:08:25–0:08:31
Oder wissen Sie, wie Ihre Versicherungs-, Ihre Krankenkasse im Detail funktioniert?
0:08:31–0:08:34
Oder unser politisches System.
0:08:34–0:08:40
Dieser Zug zum Verstehen ist doch schon längstens abgefahren.
0:08:42–0:08:46
Ich glaube, der Zugfahrer ist in den meisten Fällen von aussen.
0:08:46–0:08:50
Und bei mir in der Firma weiss ich zumindest, wenn ich diesen Knopf drücke, passiert das.
0:08:51–0:08:55
Und mit der KI habe ich das Gefühl, ich weiss das nicht mehr.
0:08:55–0:08:59
Die macht nachher irgendetwas, aber das entscheidet dann vielleicht nicht mehr ganz ich.
0:09:00–0:09:04
Und bei meinem PC ist es so, wenn ich dem sage, senden, dann schickt er das E-Mail.
0:09:04–0:09:08
Aber er kommt dann nicht selber auf die Idee, «Ah, ich könnte jetzt da noch
0:09:08–0:09:12
so ein bisschen etwas optimieren, etwas ändern, ohne dass ich da...» Doch, mindestens schon.
0:09:14–0:09:19
Aber ja, for the sake of argument, sagen wir, du hast recht.
0:09:20–0:09:25
Ja, genau, das stimmt. Aber ist das nicht genau die Voraussetzung,
0:09:25–0:09:31
dass er dir eben kann mehr Arbeit abnehmen als bisher so ein nicht künstlich
0:09:31–0:09:33
intelligenter Computer?
0:09:33–0:09:39
Weil eben, Je mehr er es von sich aus macht, wo du nicht genau weisst,
0:09:39–0:09:45
warum er es macht, desto hilfreicher ist er für dich, weil er dann schon merkt,
0:09:45–0:09:47
dass du etwas von ihm willst,
0:09:47–0:09:49
bevor du es ihm gesagt hast.
0:09:50–0:09:54
Aber... Und da kommt glaube ich mein Problem.
0:09:55–0:10:02
Woher weiss er es? Ich glaube, das ist das, wo ich bei KI ein Problem habe.
0:10:02–0:10:05
Woher weiss das Ding, was es will?
0:10:06–0:10:12
Es ist der grösste gemeinsame Nenner. Es ist das, was ihm all die Informationen
0:10:12–0:10:15
im Durchschnitt sagen. Ja. Das wird gemacht.
0:10:15–0:10:20
Und das ist gefährlich, habe ich das Gefühl.
0:10:21–0:10:25
Das ist, also jetzt kenne ich vielleicht zu den Rollen aus, aber,
0:10:25–0:10:28
oder müsste ich jetzt überlegen, ob das nicht gefährlich ist.
0:10:28–0:10:35
Das ist auf eine Art gefährlich, kann man sagen, aber diese KIs kann man ja irgendwie einhegen.
0:10:35–0:10:42
Man kann ihre Parameter vorgeben, worüber sie entscheiden dürfen.
0:10:42–0:10:47
Und dann musst du einfach darauf schauen, dass sie halt, zum Beispiel deine
0:10:47–0:10:50
Buchhaltungs-KI, du darfst selber,
0:10:50–0:10:57
was weiss ich was, neue Briefmarken bestellen und neue, was brauchst du noch,
0:10:57–0:11:03
vielleicht einen Toner für deinen Drucker, aber wenn es über 10'000 Franken
0:11:03–0:11:05
kostet, dann fragst du mich vorher noch.
0:11:07–0:11:12
Und dann ist sichergestellt, dass sie nicht Toner für 50'000 Franken bestellt,
0:11:12–0:11:15
weil sie gefunden haben, oh, der ist gerade im Angebot, da könnte Kevin,
0:11:15–0:11:19
wenn er die nächsten 100 Jahre Toner hat, ganz viel Geld sparen.
0:11:20–0:11:25
Aber mal angenommen, ich habe jetzt einen Drucker. Ja. Und dieser Drucker leidet.
0:11:25–0:11:27
Er gibt auf, er mag nicht mehr.
0:11:28–0:11:30
Und ich weiss, eigentlich komme ich, ich ersetze den.
0:11:31–0:11:36
Ich lasse den jetzt noch auslaufen, dann ist es gut. Wie sage ich das jetzt der KI?
0:11:38–0:11:43
Nicht einen Toner bestellen für den Drucker, denn der wird ersetzt, wenn er leer ist.
0:11:43–0:11:47
Und die KI wird mir einen Toner bestellen, eiskalt. Weil die sagt,
0:11:47–0:11:49
Toner ist leer, wir müssen wieder einen haben.
0:11:51–0:11:57
Jetzt muss ich hinschreiten und der KI sagen, wir haben hier einen Spezialfall.
0:11:57–0:12:02
Vielleicht hat die KI zu wenig mitgedacht, Weil wenn sie genug mitgedacht hat,
0:12:03–0:12:08
dann hat sie gefunden, jawohl, der Drucker ist kaputt, ich bestelle dir nicht
0:12:08–0:12:11
nur den Toner, sondern eben auch den Drucker.
0:12:11–0:12:16
Und das will ich auch nicht, ich will ja keinen Drucker mehr. Ah, okay.
0:12:17–0:12:22
Oder ich habe vielleicht noch einen zuhause. Ich habe noch einen Farblazer,
0:12:22–0:12:25
der reicht fürs Geschäft. Ich nehme dann diesen mit.
0:12:29–0:12:34
Ja, wir sehen schon, es ist tatsächlich ein bisschen schwierig.
0:12:34–0:12:39
Da ist ja dann nicht nur die Frage, ob du dir von der einfach so als Assistent
0:12:39–0:12:45
helfen lassen willst, oder ob du auch gewisse Entscheidungen direkt an sie delegieren willst.
0:12:45–0:12:52
Also zum Beispiel, willst du die Infrastruktur deines Büros ganz an sie delegieren,
0:12:52–0:12:56
dann musst du halt damit leben, dass du dann mit diesen Sachen musst arbeiten,
0:12:56–0:12:58
die sie für dich richtig finden.
0:12:58–0:13:02
Oder willst du ihr einfach sagen, bestelle etwas und dann, ja,
0:13:03–0:13:05
sollte sie nichts von sich aus bestellen, würde ich jetzt sagen.
0:13:05–0:13:07
Aber das wird ja KI genau machen, sie wird ja,
0:13:09–0:13:14
wahrscheinlich sehr viel Raum einnehmen irgendwann, dass man sagt,
0:13:15–0:13:17
hey, das kannst du automatisieren, das kannst du auch automatisieren.
0:13:17–0:13:19
Wo sind eigentlich die Amazon-Button?
0:13:20–0:13:24
Ja, die gibt es noch. Gibt es die noch? Genau.
0:13:26–0:13:31
Das ist ja wie so ein sehr primitiver Vorläufer ohne KI gewesen.
0:13:31–0:13:34
Ich hatte einen Knopf, den ich drauf passern konnte und dann hat es mir nochmal
0:13:34–0:13:36
ein 6-Pack-Bier bestellt. Ja, genau.
0:13:37–0:13:39
Es ist gestorben.
0:13:40–0:13:45
Aber das ist KI, dass es genau das machen wird.
0:13:45–0:13:52
Es wird Aufgaben für mich übernehmen und die Erwartungen an KI sind ja eben, es denkt mit.
0:13:52–0:13:56
Aber woher nimmt es diese Infos? Wie macht es das?
0:13:56–0:14:00
Das finde ich das Gefährliche und das haben wir nicht unter Kontrolle.
0:14:00–0:14:03
Ja, also ich finde es ja lustig, dass wir mit unserem ein bisschen,
0:14:03–0:14:08
wie soll ich sagen, primitiven Rollenspiel, wo wir wahrscheinlich keinen Preis,
0:14:08–0:14:13
keinen Oscar und sonst keinen schauspielerischen Preis dafür bekommen haben.
0:14:13–0:14:14
Wir hatten auch kein Drehbuch.
0:14:14–0:14:19
Aber ich glaube, wir sind eben sofort am richtigen Punkt gelandet,
0:14:19–0:14:22
nämlich an dem Punkt, wo eben entscheidend ist.
0:14:22–0:14:27
Das ist nämlich die KI, solange sie dir einfach nur Sachen sagt und Bilder macht
0:14:27–0:14:30
und du entscheidest dann mit dem, ob du es brauchst oder nicht,
0:14:30–0:14:34
oder wie du es brauchst, ist glaube ich alles easy peasy, da passiert nichts.
0:14:34–0:14:41
Aber wenn du dieser KI halt Entscheidungsmacht gibst und ihr erlaubst,
0:14:41–0:14:45
so Entscheidungen zu fällen, dann wird es tatsächlich sofort schwieriger, oder?
0:14:45–0:14:48
Und da sind wir, glaube ich, mitten in diesem Problem hinein.
0:14:49–0:14:52
Dass es KIs gibt, die es ja heute schon gibt, dass du zum Beispiel,
0:14:52–0:14:57
wenn du irgendeine Bewerbung schickst an ein Unternehmen, dass das vielleicht
0:14:57–0:15:04
dort eine KI einsetzt, die schon mal die Dossier sichtet und deinen Lebenslauf anschaut.
0:15:04–0:15:09
Und wenn dieser KI dann irgendetwas nicht passt, dann sortiert sie dich raus,
0:15:10–0:15:14
ohne dass du eine Ahnung hast, warum oder eben, dass das kein Mensch war,
0:15:14–0:15:16
sondern vielleicht irgendein Algorithmus.
0:15:19–0:15:26
Ich glaube, ich bin wirklich am Punkt, wo ich mir überlege, werde ich jetzt
0:15:26–0:15:28
so einen Corona-Verschwörer?
0:15:29–0:15:34
Nein, wirklich. Wo ich das Gefühl habe, sehe ich jetzt ein Problem,
0:15:35–0:15:36
das überhaupt nicht ist?
0:15:37–0:15:42
Wo ich mich völlig in irgendetwas und mir einfach überlege, hey,
0:15:42–0:15:45
die KI, wann haben wir das erste Mal von dem geredet?
0:15:46–0:15:54
Es ist noch nicht lange her und es ist omnipräsent. Es kommt ins nächste Office
0:15:54–0:16:00
rein, es wird ins iPhone integriert, es findet überall Integration von KI statt.
0:16:01–0:16:05
Vor zwei Jahren hätte ich jetzt gesagt, noch kein Thema. Thema.
0:16:06–0:16:10
Oder sehr am Anfang. Ja, ich finde das...
0:16:11–0:16:14
Ich kann jetzt diese Rolle nicht mehr wahrnehmen. Also ich muss auch zu dir
0:16:14–0:16:16
auf die skeptische Seite wechseln.
0:16:16–0:16:19
Ich finde auch, also das ist etwas, das ich wirklich kritisieren würde.
0:16:19–0:16:25
Das ist das Tempo, das wir da vorlegen, ohne dass wir eine Chance haben,
0:16:25–0:16:28
zu überlegen, ob es sinnvoll ist und wo Gefahren liegen könnten.
0:16:28–0:16:34
Ich glaube, da gab es mal so ein paar Wissenschaftler, die auch das Moratorium
0:16:34–0:16:36
gefordert haben, einen offenen Brief und so.
0:16:36–0:16:41
Aber aus dem ist ja offensichtlich nichts geworden. Man sieht, wenn es darum geht,
0:16:41–0:16:48
Kohle zu produzieren versus Risiken abschätzen zu können, dann ist völlig klar,
0:16:48–0:16:53
was im kapitalistischen System für eine Entscheidung getroffen wird.
0:16:53–0:16:58
Das finde ich auch. Das Problem ist tatsächlich,
0:16:59–0:17:07
das hat die EU in dem AI Act, dass in diesem Gesetz zur Regulierung der KIs eben auch genau,
0:17:08–0:17:15
glaube ich, schon richtig erkannt, dass man diese Fälle beurteilen oder regulieren
0:17:15–0:17:18
muss, wo eben so KIs im Hintergrund irgendetwas entscheiden,
0:17:18–0:17:20
ohne dass man eigentlich weiss,
0:17:21–0:17:25
nach welchen Regeln das macht und ob sie nicht irgendwelche Vorurteile hat,
0:17:26–0:17:31
ob sie vielleicht nur mit weissen Gesichtern trainiert worden ist und schwarze
0:17:31–0:17:34
Gesichter darum nicht vernünftig.
0:17:35–0:17:37
Behandeln kann, um was auch immer es geht.
0:17:38–0:17:43
Das ist, glaube ich, sehr entscheidend. Aber ich glaube, solange man sich bewusst
0:17:43–0:17:47
ist, wo man KIs einsetzt und was man derer für Kompetenzen gibt,
0:17:47–0:17:48
ist es nicht so gefährlich.
0:17:48–0:17:54
Aber ich glaube, ich sehe schon irgendwie, dass die dann so halt irgendwo auch
0:17:54–0:17:59
in so Rollen herutschen, wo wir dann am Schluss uns fragen, wie das überhaupt passieren könnte.
0:18:00–0:18:04
Das sehe ich schon als Gefahr. Ja, und ich weiss auch nicht,
0:18:04–0:18:08
wie stark man diese Rolle eingrenzen möchte.
0:18:08–0:18:11
Wenn wir jetzt an dem Punkt sind, wo man sagt, ja gut, jetzt schauen wir einfach
0:18:11–0:18:16
mal, was ist überhaupt möglich, und was ist nicht möglich.
0:18:17–0:18:19
Also man gibt dem wahrscheinlich keinen Rahmen.
0:18:20–0:18:25
Und das ist so ein bisschen durcheinander, dass auch Google und viele KI-Forscher
0:18:25–0:18:29
sagen, hey, wir wissen nicht mehr genau, woher es diese Infos hat.
0:18:29–0:18:31
Und was er jetzt genau macht.
0:18:32–0:18:37
Und ich habe jetzt nicht das Gefühl, dass er KI wird.
0:18:38–0:18:41
Apokalypse und Terminator und das gar nicht,
0:18:42–0:18:50
aber ich habe Angst, dass es es macht Fehler und es macht, es gibt Falschinformationen
0:18:50–0:18:55
und wir nehmen das dann als garantiert und das sehe ich als grosses Problem.
0:18:55–0:18:58
Ich kann in der KI, kann ich hineinschreiben, jetzt schreibe ich mir einen Text
0:18:58–0:19:02
über das und das Thema und das macht mir das, aber das zu verifizieren,
0:19:02–0:19:06
braucht ja dann gleich wieder das Fachwissen und das fehlt mir dann und dann
0:19:06–0:19:10
nehme ich das für, es ist von KI gemacht, das stimmt.
0:19:10–0:19:13
Ja, genau, also das ist sicher ein Punkt, dass man das Gefühl hat,
0:19:13–0:19:15
oder viele Leute haben das Gefühl, ja, KI,
0:19:15–0:19:21
gleich magisch, gleich irgendwie etwas Übersinnliches, gleich die reine Wahrheit,
0:19:21–0:19:25
also das wird ja auch oft so beworben, das sehe ich immer wieder,
0:19:25–0:19:29
dass halt die Leute sagen, ja, eben, sie macht das so auf keine weiss wie,
0:19:29–0:19:33
aber es kommt irgendwie etwas Sensationelles raus, also müssen wir das einfach
0:19:33–0:19:36
machen lassen und wahrscheinlich ist das tatsächlich, dass.
0:19:37–0:19:42
Entweder schränkst du es auf das ein, wo du genau voraussagen kannst, was dabei herauskommt.
0:19:43–0:19:47
Aber dann ist es wie ein klassischer Algorithmus, den du hart programmiert hast.
0:19:48–0:19:53
Und dann kann er nur in diesem sehr eng begrenzten Rahmen operieren.
0:19:53–0:19:58
Oder du lässt ihn frei laufen und dann entsteht vielleicht etwas Geniales,
0:19:58–0:20:03
aber du verstehst es nicht mehr und siehst vielleicht auch gar nicht,
0:20:03–0:20:11
wo die Probleme sind und wo man den Grenzzun setzen müsste, bevor man einen Unfug anstellt.
0:20:11–0:20:13
Und das ist, glaube ich, tatsächlich das Problem.
0:20:15–0:20:20
Eigentlich, um herauszufinden, was drin liegt, müsste man es völlig frei machen
0:20:20–0:20:25
lassen, aber vielleicht laufen wir so genau in die Probleme,
0:20:25–0:20:31
dass die KI am Schluss findet, ja, also Menschen braucht es eigentlich nicht auf diesem Planeten.
0:20:31–0:20:34
Die Menschen sind irgendwie eher so ein bisschen schädlich, oder?
0:20:34–0:20:37
Und dann, das so wird ja immer erklärt, wenn man sagt,
0:20:37–0:20:41
wird die KI uns alle umbringen, das ist so die Begründung, dass sie eigentlich
0:20:41–0:20:47
feststellt, dass es uns nicht braucht und dann hat sie zufällig irgendwie ein
0:20:47–0:20:52
medizinisches Wissen und kann irgendein Virus programmieren und dann sind wir weg.
0:20:53–0:20:58
Ja, vielleicht. Ja, also an das glaube ich schon nicht.
0:20:59–0:21:03
Das glaubst du nicht? dass sie uns umbringt. Das glaube ich ehrlich gesagt auch nicht.
0:21:03–0:21:10
Also eben, wir müssen vielleicht tatsächlich, wenn wir irgendein KI-Medikament oder so,
0:21:10–0:21:14
oder in so einem Labor arbeiten lassen, nach ihrem Gutdünken,
0:21:14–0:21:18
müssen wir sie vielleicht schon so einsperren, dass sie nicht einfach sagen
0:21:18–0:21:21
kann, das entlade ich jetzt in die Atmosphäre.
0:21:21–0:21:24
Das mache ich jetzt noch. Ja, genau. Weil es ist besser.
0:21:25–0:21:29
Ja, also fertiggedacht kann man sich natürlich so etwas schon überlegen,
0:21:29–0:21:33
wenn man jetzt ein KI mal sagt, du einfach mal optimieren.
0:21:34–0:21:37
Mach mal das Beste, dass es dann so etwas macht.
0:21:37–0:21:42
Ich glaube, ich weiss es nicht, vielleicht kann man Mechanismen einbauen,
0:21:43–0:21:45
die das halt stoppen, aber ja.
0:21:45–0:21:50
Ich würde gerne mit dir schnell die Diskussion machen über die Medien.
0:21:51–0:21:54
Das ist die, die mich halt auch beschäftigt.
0:21:55–0:21:59
Das ist jetzt auch schon durch. Medienhäuser, ich weiss nicht,
0:21:59–0:22:03
ob der Tagi das schon macht, ersetzen Mitarbeiter durch KI.
0:22:03–0:22:08
Das ist jetzt die grosse Diskussion. Also jetzt entlaubt man Leute und dann
0:22:08–0:22:10
generiert KI News-Texte.
0:22:11–0:22:15
Das ist mal so eine Ausgangslage, die jetzt so ein bisschen passiert.
0:22:15–0:22:16
In Amerika ist das jetzt, glaube ich, schon ein bisschen durch.
0:22:17–0:22:22
Das ist jetzt Schritt 1. Jetzt haben wir mal das.
0:22:22–0:22:26
Und jetzt kommt Schritt 2. Jetzt suche ich etwas über ein Thema,
0:22:26–0:22:33
gebe das in den KI und jetzt referenziert KI auf den Newsbeitrag,
0:22:33–0:22:36
welcher KI geschrieben hat.
0:22:36–0:22:42
Jetzt kann ich als Quelle natürlich sagen, ja cool, das kommt von der Zeitung
0:22:42–0:22:46
YY, das ist verifiziert, das hat jemand nachgeschaut, das ist super.
0:22:46–0:22:51
Und jetzt haben wir ein Problem, weil jetzt ist Quellenfindung mega schwierig.
0:22:51–0:22:56
Weil jetzt ist KI über KI über KI und jetzt müsste ich alles kontrollieren.
0:22:57–0:23:00
Und das sehe ich als Problem.
0:23:01–0:23:10
Das sehe ich auch als Problem. Aber ich glaube, Medienhäuser sollten nicht einfach
0:23:10–0:23:12
Journalisten durch KIs ersetzen.
0:23:12–0:23:15
Ich glaube, das wäre das Dümmste, was man machen könnte.
0:23:15–0:23:24
Gerade an dem Punkt, wo der Medienwandel immer noch so im Gang ist und man immer noch probiert,
0:23:24–0:23:30
händeringend Kundschaft dazu zu bringen, für Inhalte zu zahlen.
0:23:30–0:23:33
Und wenn du dann einfach irgendeinen Roboter schreiben lässt,
0:23:33–0:23:38
dann finde die Kundschaft zu Recht, ich zahle doch nicht für irgendein Artikel,
0:23:38–0:23:43
das eine Jet-GPT zusammengeprünselt hat, sondern ich glaube,
0:23:43–0:23:46
man darf die brauchen zum Recherchieren, man darf die brauchen zum...
0:23:48–0:23:49
Was weiss ich was.
0:23:51–0:23:55
Einfach so für nicht kreative Sachen, aber ich finde, jeder Text,
0:23:56–0:23:59
der jemand dafür zahlt, der sollte von einem Menschen geschrieben werden.
0:24:00–0:24:08
Und ich glaube, eben sonst war das nicht CNET in Amerika, wo schon so Roboter eingesetzt haben.
0:24:09–0:24:15
Und die haben ja dann auch brutal abgeschrieben von anderen, also plagiiert und so.
0:24:15–0:24:21
Und ich glaube, das ist Das war ja seinetisch, die haben das ausprobiert,
0:24:21–0:24:24
sie haben es auch nur so halb gar, halb batzig deklariert und so.
0:24:25–0:24:30
Und das, man hat dann auch sofort gesehen, also das ist, vor drei Wochen ist
0:24:30–0:24:32
dann zum Beispiel gestanden, hat Arzt, Techniker geschrieben,
0:24:32–0:24:37
also Wikipedia hat jetzt reagiert auf das und die schauen die einfach nicht
0:24:37–0:24:40
mehr als verlässlich an, die Inhalte, die die machen.
0:24:40–0:24:46
Und ich glaube, das gibt schon eine Selbstregulierung, aber ich glaube auch,
0:24:46–0:24:51
die KIs, die müssen, dass sie arbeiten können, brauchen diese guten Inhalte
0:24:51–0:24:56
und diese guten Inhalte müssen von Menschen erschaffen werden.
0:24:56–0:25:03
Und wenn du da immer nochmal eine Stufe drauf setzt, so wie du das geschildert
0:25:03–0:25:10
hast, ich glaube, dann geht es 1, 2, 3 Generationen und da kommt der gröbste Unsinn hinten raus.
0:25:14–0:25:19
Ja, also das sind halt so Überlegungen, die ich als Problem sehe,
0:25:19–0:25:25
dass man dann eben diesen Sachen einfach vertraut, wenn man der KI halt irgendeine
0:25:25–0:25:28
Aufgabe gibt, dass die eine Lösung für das Problem findet.
0:25:28–0:25:33
Aber es ist nicht eine gute Lösung und es ist oft auch nicht eine sinnvolle
0:25:33–0:25:36
Lösung, aber es ist eine und sie verkauft es extrem gut.
0:25:36–0:25:43
Das ist genau das. Ich glaube auch, dass das sehr schwer zu kontrollieren ist,
0:25:43–0:25:49
dass so Unternehmen wirklich einfach sagen, ja, wir haben da unsere Lösung getestet.
0:25:49–0:25:53
Bei den ersten tausend Fällen hat sie gut funktioniert, also setzen wir sie
0:25:53–0:25:59
ein zum Kreditvergaben beurteilen, zum medizinischen Entscheid treffen,
0:25:59–0:26:01
zum dieses, zum jenes und so.
0:26:01–0:26:04
Und am Anfang kontrolliert man es vielleicht noch so ein bisschen und irgendwann
0:26:04–0:26:08
einmal macht man es nicht mehr, weil es irgendwie gut funktioniert und irgendwann
0:26:08–0:26:10
einmal funktioniert es nicht mehr gut.
0:26:10–0:26:13
Und wer ist dann geschuld, oder? Also wer ist dann, ich glaube,
0:26:13–0:26:15
das ist ja auch völlig nicht klar.
0:26:15–0:26:20
Also wenn du zum Beispiel, ja, wenn du jetzt irgendeinen Text schreibst und
0:26:20–0:26:24
den veröffentlichst und dort steht in den Hanebüchern Unsinn drin und du hast
0:26:24–0:26:29
dann aber von der KI dann geschrieben, ist dann die KI geschuld?
0:26:29–0:26:33
Bist du trotzdem selber geschuld? Ist der geschuld, der die KI programmiert hat?
0:26:34–0:26:37
Ist es sonst noch irgendjemand? Ist der selber geschuld, der es gelesen hat?
0:26:38–0:26:41
Also das wird halt sofort wirklich schwierig.
0:26:43–0:26:46
Ja, und das ist wahrscheinlich ein Problem.
0:26:47–0:26:50
Und das nächste Problem, das ich sehe, ist, dass die KI-Dienste,
0:26:50–0:26:56
die JetGPT, ich habe mit dem relativ schnell angefangen, die lassen sich für
0:26:56–0:26:57
ihre Dienstleistung zahlen.
0:26:58–0:27:05
Das heisst, eine JetGPT Version 4 zahlt man, ich weiss gar nicht, 40 Franken im Monat.
0:27:05–0:27:12
20, glaube ich. Man zahlt den Betrag, aber eigentlich,
0:27:15–0:27:20
die KI ja keinen Inhalt generieren kann, also sie generiert Inhalte,
0:27:20–0:27:24
aber sie erschafft keine Inhalte, im Sinne von sie kreiert nichts Neues.
0:27:25–0:27:31
Und jetzt zahle ich einen Dienst, der mir aber keinen Inhalt kreiert,
0:27:31–0:27:36
aber ich zahle der Person, die diesen Inhalt kreiert hat, halt nichts.
0:27:37–0:27:40
Und das ist wieder das Internet-Problem.
0:27:41–0:27:45
Jetzt haben wir das Gleiche, was wir mit den Filmen hatten, was wir mit der
0:27:45–0:27:48
Musik hatten, jetzt geht es um die Inhalte, jetzt geht es um das Textschreiben.
0:27:48–0:27:52
Jetzt machen wir etwas kaputt, was eh schon am Boden war.
0:27:53–0:27:57
Aber irgendwann kommen halt all die Leute, die diese Texte erschaffen und kreieren
0:27:57–0:28:01
und sich Mühe geben und Wikipedia-Artikel machen und all das.
0:28:01–0:28:02
Die haben ja nichts davon.
0:28:03–0:28:07
Nichts. Und wer verdient? Die Leute, die eine KI eingeschrieben haben,
0:28:08–0:28:10
eine Software, die diesen Dienst verkauft, die das zusammenfasst.
0:28:10–0:28:13
Aber wer macht am Schluss dann noch die Inhalte?
0:28:13–0:28:17
Das ist eine sehr berechtigte Frage und ich habe ja, vielleicht erinnert ihr
0:28:17–0:28:23
euch daran, mit Andreas Foghunter darüber geredet, vor drei, vier Wochen.
0:28:23–0:28:29
Und er hat gefunden, er ist ja ein dezidierter Verfechter von diesem gemeinsamen Wissen.
0:28:29–0:28:33
Und er hat gesagt, das kommt allen zu gut und es entsteht etwas Neues.
0:28:33–0:28:37
Aber ich bin auch einer auf dieser Seite, dass ich finde, einfach,
0:28:37–0:28:39
wenn da, man kann sich eben,
0:28:39–0:28:44
es hat ja im Mittelalter dann auch die Druckereien gegeben, die dann nur die
0:28:44–0:28:49
Bücher drucken durften, dann gab es nur die Leute, die die Bücher gekannt haben
0:28:49–0:28:52
und dann gab es so ein Herrschaftswissen,
0:28:52–0:28:55
das halt nicht allen zu gut kam.
0:28:55–0:28:57
Und das sehe ich hier eben auch als Problem.
0:28:58–0:29:03
Wenn ein Einzelunternehmen darüber bestimmen kann, wie es so und wer und unter
0:29:03–0:29:09
welchen Bedingungen man Wissen nutzen kann, das alle zusammengetragen hat,
0:29:09–0:29:10
das eigentlich der Menschheit gehört.
0:29:11–0:29:17
Aber wo dann so ein Gatekeeper, also das ist ja auch der Begriff,
0:29:17–0:29:21
den die EU benutzt, für so grosse, mächtige Unternehmen, die dann eben so an
0:29:21–0:29:26
der Schaltstelle sitzen davon, was Leute machen können und was nicht.
0:29:26–0:29:30
Wenn so ein Gatekeeper dann über das Wissen, wie er kann, entscheidet,
0:29:30–0:29:35
dann sehe ich also schon auch ganz grosse Probleme auf uns zukommen.
0:29:35–0:29:40
Und darum, ja, sollte man vielleicht tatsächlich zuerst überlegen,
0:29:40–0:29:46
wie man die in den Griff bekommt, bevor man sich dann da kopfüber in das Abenteuer einstürzt.
0:29:46–0:29:50
Aber ich glaube, das kannst du vergessen.
0:29:50–0:29:54
Es ist doch In der Menschheitsgeschichte ist es so, dass man etwas macht,
0:29:54–0:30:00
man erfindet etwas, man macht die Atombombe oder man spaltet mal ein paar Atome
0:30:00–0:30:04
und dann schaut man, was die negativen Auswirkungen sein könnten.
0:30:04–0:30:07
Und dann ist aber das Kind eben schon im Brunnen eingefallen.
0:30:07–0:30:12
Dann bringst du das Wissen oder die Erfindung nicht mehr zur Welt raus.
0:30:13–0:30:17
Ich bin wirklich gespannt, wie es weitergeht.
0:30:17–0:30:20
Ich glaube, das wäre auch eine spannende Diskussion oder vielleicht auch eine
0:30:20–0:30:22
Rückmeldung von den Hörern, wie ihr das findet.
0:30:23–0:30:25
Ich bin nicht der, der Apokalypse sagt.
0:30:26–0:30:31
Aber ich bin ein Megatechnik-Fan, ich bin ein Mega-KI-Fan, ich finde es extrem spannend.
0:30:32–0:30:38
Aber ich bin am Punkt, wo ich sage, hey, sehen wir auch die Gefahr,
0:30:38–0:30:44
sind wir uns dem bewusst und wissen wir, was wir da machen und wirklich das
0:30:44–0:30:47
Gefühl haben, nein, wir wissen nicht mehr, was wir machen.
0:30:48–0:30:53
Wir probieren jetzt irgendetwas aus und das kann ich tosen. Ja, das kann man.
0:30:53–0:30:58
Aber man kann sagen, dass es in der Menschheitsgeschichte so war,
0:30:58–0:31:02
dass man irgendeine Erfindung gemacht hat und dann war sie da.
0:31:03–0:31:08
Dann bringst du sie nicht mehr weg und musst damit umgehen. Dann kannst du die Vernunft appellieren.
0:31:08–0:31:12
Aber das nützt nichts, weil einer oder ein anderer sieht dann garantiert einfach
0:31:12–0:31:18
die Möglichkeit jetzt berühmt und reich und einflussreich und mächtig zu werden
0:31:18–0:31:21
und darum bringst du das nicht mehr unter den Deckel und ich glaube,
0:31:21–0:31:24
dass immer also eben, ich finde eigentlich wirklich,
0:31:24–0:31:28
ich bin mir noch nicht so sicher ich habe schon den EU AI Act erwähnt und wir
0:31:28–0:31:35
haben da auch dann Tonnen von Shownotes wo ihr auch noch also die Sachen könnt
0:31:35–0:31:37
ihr im Detail nachlesen auf nerdfunk.ch,
0:31:38–0:31:40
und ich bin mir nicht sicher, ob der EU.
0:31:41–0:31:45
Der AI-Act wirklich alle Probleme löst.
0:31:45–0:31:50
Nein, das glaube ich nicht und ob er auch zu entdenkt ist und ob er nicht irgendwie,
0:31:51–0:31:54
eine zu einfache Lösung für ein zu kompliziertes Problem ist,
0:31:54–0:31:57
aber ich finde es gut, dass man es mal probiert und dass man jetzt zumindest,
0:31:57–0:31:59
ich glaube, dass sie auf die,
0:32:00–0:32:01
KIs losgehen, die eben.
0:32:03–0:32:06
Weitreichende Entscheidungen treffen und sagen, oder dort, wo es wirklich wirklich
0:32:06–0:32:07
gefährlich werden kann.
0:32:07–0:32:10
Eben so Massenüberwachungen und so, sagt man, will man nicht haben.
0:32:10–0:32:15
Dass man die Leute einfach profilieren kann nach Gutdünken, ohne dass sie das wissen.
0:32:15–0:32:24
Man will so selbstlenkende KIs und medizinische Sachen, will man vorsichtig sein.
0:32:24–0:32:29
Aber eben auch alles, wo irgendjemand eine Entscheidung getroffen wird,
0:32:29–0:32:31
da müssen wir genau hinschauen. Das finde ich gut.
0:32:31–0:32:34
Ich weiss nicht, ob es reicht, aber es ist jetzt sicher mal ein erster Schritt.
0:32:35–0:32:39
Und Kevin, jetzt haben wir gar noch nicht darüber geredet, ob wir dann,
0:32:39–0:32:44
das wäre ja noch weitere Angst, die man haben kann, ob wir dann alle arbeitslos werden,
0:32:44–0:32:49
weil die KIs einfach dann unseren Job besser und schneller und effizienter und
0:32:49–0:32:51
günstiger machen, als wir selber.
0:32:53–0:33:01
Meine Prognose ist ja. Ich glaube, wenn KI da ist und sie macht es 10% schlechter
0:33:01–0:33:03
als ein Mensch, sagt jeder,
0:33:04–0:33:08
nehmen wir, weil es kostet nichts. Das wird passieren.
0:33:09–0:33:13
Ich bin überzeugt davon, dass ganz viele Stellen auf der Kippe stehen,
0:33:14–0:33:19
weil KI wird die Ratzfatz ersetzen und nicht besser, aber gratis.
0:33:19–0:33:22
Genau, und dann sind wir dann auch wieder in dem gleichen Problem,
0:33:22–0:33:26
wo du gesagt hast, was passiert, wenn ein KI einen Text schreibt,
0:33:26–0:33:31
der dann ein KI wieder lehrt und weiterverwendet und dann kommt die nächste
0:33:31–0:33:32
KI und macht nochmal etwas daraus.
0:33:32–0:33:37
Das wird dann auch so sein, wenn die KIs die Software entwickeln.
0:33:37–0:33:40
Man findet eben, all diese teuren Informatiker, die sparen wir uns.
0:33:41–0:33:42
Das kann der Chat-Hippie-Tee günstiger.
0:33:45–0:33:48
Ich würde es ein bisschen anders formulieren.
0:33:48–0:33:52
Da klaue ich einfach den Text, wo ich... Und wir müssen gerade aufhören.
0:33:52–0:33:56
Ich höre gerade auf. Es ist Punkt 8, aber wir reden noch schnell fertig.
0:33:57–0:34:02
Wo ich gelesen habe, auf LinkedIn, Ich glaube, jeder zweite Klugscheisser hat
0:34:02–0:34:05
mir den in den letzten Monaten unter die Nase gegriffen.
0:34:05–0:34:09
Und der sagt, du wirst nicht von einer KI ersetzt in deinem Job,
0:34:09–0:34:12
aber du wirst von einem ersetzt, der eine KI nutzt.
0:34:13–0:34:17
Der ersetzt dich. Ja, das wird so sein.
0:34:17–0:34:25
Und ich glaube auch, der Mensch wird es noch brauchen, aber weniger Leute werden
0:34:25–0:34:26
viel mehr machen können.
0:34:26–0:34:29
Und wie gehen wir damit um? Warum?
0:34:30–0:34:34
Du hast gesagt, du seist trotzdem optimistisch.
0:34:34–0:34:39
Wie gehst du mit diesem Dilemma um, dass du als optimistischer Mensch ganz viele
0:34:39–0:34:41
schwierige Seiten siehst?
0:34:41–0:34:44
Das weiss ich nicht. Ich glaube, es ist ein Bewusstsein für das, was passiert.
0:34:45–0:34:49
Und dann mal schauen, wie man das nutzen kann. Ich habe keine Ahnung.
0:34:51–0:34:55
Mir geht es ein wenig ähnlich. Aber was mir hilft und mich manchmal tröstet,
0:34:55–0:34:59
ist, wenn man wirklich intensiv mit diesen Systemen schafft,
0:34:59–0:35:02
dann siehst du immer wieder, wo sie anstehen und wie dumm das eigentlich sind.
0:35:03–0:35:07
Und das sich dann selber immer wieder so entzaubert auch.
0:35:07–0:35:13
Und ich glaube, das hilft und dann kannst du sagen, okay, so ganz nutzlos bin
0:35:13–0:35:17
ich trotzdem immer noch nicht. Ich habe doch immer noch den besten Jahr.
0:35:17–0:35:21
Und das würde ich euch allen empfehlen, wenn es euch so geht wie uns.
0:35:22–0:35:26
Aber mir graut schon, ehrlich gesagt, Von dem Moment, in dem irgendwann mal
0:35:26–0:35:31
ein K.I. kommt, der sagt... Oder wo ich mal sage, hey, die war jetzt schlauer
0:35:31–0:35:35
als ich, das wäre ich nie gekommen. Scheisse. Dann ist es echt scheisse.
0:35:35–0:35:39
Dann sind wir am Arsch. Ja. Ja, das ist interessant.
0:35:39–0:35:51
Music.

Ist ChatGPT unser Freund – oder wartet der Bot nur darauf, uns bei der erstbesten Gelegenheit in den Rücken zu fallen?

Wir haben oft über die Chancen der künstlichen Intelligenz gesprochen. Doch heute geht es um die Gefahren: Da gibt es das Horrorszenario, dass eine superintelligente KI zum Schluss kommt, die Menschheit sei überflüssig oder sogar schädlich und sie vom Planeten tilgt.

Aber uns interessieren auch die weniger spektakulären, aber umso realeren Bedrohungen: Beispielsweise, dass eine KI über unsere Bewerbung, unseren Kreditantrag oder unsere medizinische Behandlung urteilt – und das mit Vorurteilen tut, die uns und vielleicht auch dem Betreiber nicht bekannt sind. Und es geht auch um unsere Jobs und die Frage, wie gross die Konkurrenz von ChatGPT in der Arbeitswelt ist.

Die Links zur Episode

Zur Gefährlichkeit im Allgemeinen

Gefahrenbereiche

Gegen- und Schutzmassnahmen

Macht uns KI alle arbeitslos?

Beitragsbild: Auch du, unser Sohn?! Natürlich als Brutus-Anspielung gemeint. (Microsoft Designer)

Veröffentlicht von Matthias

Nerd since 1971.

Beteilige dich an der Unterhaltung

1 Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert