Transkript anzeigen (falls vorhanden)

00:00–0:00:08
Music.
0:00:09–0:00:13
Bon Iver. Heisst das nicht «schöner Winter»?
0:00:13–0:00:17
Sind wir schon im Winter hier auf Radio Stadtfilter? Ich hoffe es doch schwer nicht.
0:00:17–0:00:25
«Você está ouvindo Radio Stadtfilter, 96.3 MHz.» Also der Jingle hat für mich
0:00:25–0:00:27
mehr nach Sommer getönt, als die Musik gerade eben.
0:00:27–0:00:34
Hallo Kevin, bist du im Herbstmodus, im Wintermodus oder noch im Sommermodus?
0:00:34–0:00:37
Ich glaube, so wie ich mich anlege, bin ich voll im Sommermodus,
0:00:37–0:00:39
weil ich immer noch meine Jacke vergesse.
0:00:39–0:00:43
Ich gehe immer noch kurz herunter und friere dann am Morgen.
0:00:44–0:00:51
Du bist so ein Realitätsverweigerer, kann man das sagen? Oder einfach unkonzentriert?
0:00:52–0:00:54
Ich mag Jacken nicht und Schuhe nicht.
0:00:55–0:00:57
Okay, ja. Das ist das Ding.
0:00:58–0:01:01
Sobald ich ins Büro komme, ziehe ich die Schuhe ab. Okay.
0:01:01–0:01:07
Schuhe mag ich nicht. Und Jacken finde ich eigentlich cool, aber ich verliere
0:01:07–0:01:10
sie immer. Ich weiss nie, also sie sind irgendwo, ich finde es dann immer wieder
0:01:10–0:01:13
so, aber sie sind dann halt irgendwo, nicht dort, wo sie ziehen müssten.
0:01:14–0:01:18
Zwei Fragen, erstens, das mit diesen Schuhen machst du das auch, wenn Kunden kommen?
0:01:19–0:01:24
Also wenn du zum Beispiel eine Akquise machst und dann kommt jemand zum allerersten
0:01:24–0:01:27
Mal, begrüsst du dann diesen Barfuss oder mit Socken in deinem Büro?
0:01:28–0:01:31
Ich habe so Bürofink. Ah, okay. Ja, ja.
0:01:32–0:01:37
Okay, also nicht. Also ich hatte auch schon Kunden, die ihre Schuhe auch abzogen haben.
0:01:37–0:01:44
Ah, okay, gerade so und dann Tee serviert und auf dem Boden sitzen und so etwas gemütlich oder so?
0:01:45–0:01:48
Das nicht. Auf dem Boden sitzen nicht, der normale Stuhl. Der Rest ist nicht
0:01:48–0:01:52
so guruguru. Aber die Schuhe sind einfach nicht so weiss.
0:01:52–0:01:57
Und eben die zweite Frage wäre, bist du denn da überhaupt richtig in unseren Breitengrad?
0:01:58–0:02:01
Wir wissen ja auch, dass du gewisse Affinitäten hast zu Norwegen.
0:02:01–0:02:05
In Norwegen kommst du ja dann überhaupt nicht mehr um die Schuhe herum.
0:02:06–0:02:10
Sonst hast du dann abgefrorene Zehen. Also, du sagst, ich habe schon Schuhe
0:02:10–0:02:13
ab, wenn ich noch nicht rein komme, ziehe ich die Schuhe ab.
0:02:13–0:02:15
Wenn immer möglich, ziehe ich die Schuhe ab.
0:02:15–0:02:19
Und wie machst du das jetzt, wenn du zum ersten Mal bei jemandem bist,
0:02:19–0:02:21
dann ziehst du einfach auch mal die Schuhe ab?
0:02:22–0:02:25
Du kannst sagen, okay, ich finde es höflich, dass ich nicht mit Schuhen in deine
0:02:25–0:02:28
Wohnung einlaufe, also gerade mal barfuss.
0:02:28–0:02:35
Ich habe ja Socken an und das ist wirklich die Erziehung von meiner Mutter,
0:02:35–0:02:38
dass du nicht mit den Schuhen in eine Wohnung reinläufst.
0:02:39–0:02:43
Bei mir hat sich das jetzt auch noch geändert, weil ich komme von einem Bauernhof.
0:02:43–0:02:49
Ich laufe durch irgendwelche Traktoren und durch die nassen Wiesen und dann
0:02:49–0:02:52
so zu den Kunden in die Wohnung reinlaufen finde ich so...
0:02:52–0:02:59
Ja, das stimmt. Und die meisten, also es gibt wenige, die aktiv sagen,
0:02:59–0:03:03
du würdest bitte die Schuhe abziehen, aber es gibt es und die meisten sind easy,
0:03:03–0:03:04
wenn ich die Schuhe abziehe.
0:03:05–0:03:09
Wenn du das so sagst, finde ich eigentlich auch, ich frage sicher,
0:03:10–0:03:13
ob ich die Schuhe abziehen soll, wenn ich nachher hier komme.
0:03:14–0:03:17
Im Sommer, wenn es trocken ist, mache ich es auch nicht unbedingt.
0:03:17–0:03:20
Aber im Winter, Herbst, wenn ich dann mit nassen Schuhen nachher ziehe,
0:03:20–0:03:24
finde ich es ein bisschen uncool. Und darum ist es okay.
0:03:24–0:03:29
Und dann bist du dann immer sicher, dass du richtig schöne Socken anhast? Gar nicht.
0:03:30–0:03:34
Wie das passiert mir, dann sehe ich so, oh diese Socken, die haben jetzt aber
0:03:34–0:03:39
da schon ziemlich ein grosses Loch und dann sieht man, dass ich zwar vor zwei
0:03:39–0:03:41
Monaten bei der Pedicure gewesen bin,
0:03:41–0:03:46
aber seit oben Fussnägel nie mehr geschnitten habe. Dann ist es auch so ein bisschen uncool.
0:03:46–0:03:51
Nein, Löcher haben sie eigentlich nicht, aber es können schon alte Socken sein.
0:03:52–0:03:56
Aber es ist meistens okay, weil ich habe ja nur so farbige Socken mit Motiv drauf und so.
0:03:56–0:04:01
Ich habe ja keine schwarzen oder weissen Socken. Ich finde das eine super gute Entwicklung,
0:04:01–0:04:07
dass es jetzt neuerdings auch so die Socken mit Mustern drauf gibt oder Simpsons
0:04:07–0:04:11
Socken oder Star Wars Socken oder so die unanständigen oder so.
0:04:12–0:04:16
Und je nachdem, je nach Situation kannst du die Hosenbeine ein bisschen weiter
0:04:16–0:04:18
hochziehen oder ein bisschen runterlassen.
0:04:18–0:04:23
Genau, das ist so. Heute habe ich Fuchssocken genommen. Ich habe einen Fuchs drauf.
0:04:23–0:04:28
Ich muss gerade noch anschauen. Ah, ich habe heute Star Wars Socken genommen. Eben, sehe ich.
0:04:30–0:04:33
Dann läufst du bei mir und hast schon ein Gespräch. Das stimmt.
0:04:35–0:04:38
«Wieso bist du Star-Trek-Fan?», sagen dann die Leute. Und dann weisst du gleich,
0:04:38–0:04:40
es ist gerade erledigt, ich muss da nicht bleiben.
0:04:40–0:04:45
Wenn Star-Fars und Star-Trek nicht unterscheiden können, dann kann ich gleich wieder gehen.
0:04:45–0:04:48
Oh, jetzt ist mir gerade noch etwas dazwischen. Ja, genau.
0:04:49–0:04:55
So ist es. Also, ich finde, vielleicht müssen wir doch mal sehen.
0:04:55–0:04:59
Ich glaube, diese komischen Socken sind auch ein Nerd-Ding, oder?
0:04:59–0:05:04
Ist das ein Nerd-Erkennungszeichen, oder ist das etwas, wo man heute sagen muss,
0:05:04–0:05:06
das ist so in Mainstream übergeschwappt?
0:05:07–0:05:10
Das ist in Mainstream übergeschwappt. Das ist schon lange nicht mehr Nerd.
0:05:10–0:05:12
Es ist auch schon lange nicht mehr cool.
0:05:13–0:05:16
Cool ist es auch nicht mehr? Nein, nein, hör auf.
0:05:17–0:05:22
Das ist das Uncoolste, was du machen kannst. Also, und jetzt in der Hauptsendung
0:05:22–0:05:26
geht es dann über jemanden, der keine Socken anhat.
0:05:27–0:05:30
Gar nie, überhaupt nicht. Und nicht einmal weiss, was das ist wahrscheinlich.
0:05:31–0:05:43
Music.
0:05:43–0:05:49
Das Ende der Einsamkeit dank KI habe ich diese Sendung jetzt ein bisschen pathetisch
0:05:49–0:05:51
überschrieben. Und es geht um ein Phänomen.
0:05:52–0:05:55
Wir haben ja jetzt gelernt, mit dieser KI, künstlicher Intelligenz,
0:05:56–0:05:58
man kann Bilder machen, man kann sie für sich arbeiten lassen,
0:05:58–0:06:01
man kann sie recherchieren lassen, man kann ihre Fragen stellen,
0:06:02–0:06:06
Fakten zusammentragen lassen und alles solche Sachen, Bilder generieren natürlich auch.
0:06:06–0:06:12
Aber die KI bricht auch so, ich sage jetzt so ein bisschen in eine menschlichen,
0:06:12–0:06:15
in zwischenmenschlichen Domänen nie sogar.
0:06:15–0:06:21
Man kann einfach mit dir plaudern, zum Zeitvertrieb, zum sich unterhalten, man kann flirten.
0:06:21–0:06:25
Es gibt sogar so regelrechte Rollenspiele virtuelle, die du streiben kannst.
0:06:25–0:06:29
Ich habe eine App entdeckt und über die werde ich euch mehr erzählen,
0:06:29–0:06:34
als ihr jemals wissen wolltet, wo man auch so Sexting machen kann,
0:06:34–0:06:38
wo du explizit werden kannst.
0:06:38–0:06:42
Und eben, also Also ist denn jetzt das, was heisst denn jetzt das?
0:06:43–0:06:48
Ist jetzt da eben das Ende der Einsamkeit? Leute, die keine menschlichen Kollegen,
0:06:48–0:06:51
Partner haben, könnten jetzt auf KI ausweichen?
0:06:51–0:06:56
Oder ist das ein Ersatz für echte Beziehungen? Ist es eine Ergänzung?
0:06:57–0:07:01
Was ist es? Das wollen wir heute ein bisschen herausfinden, was das heisst jetzt
0:07:01–0:07:05
für die Mensch-Maschine-Interaktion an den neuesten, jüngsten Entwicklungen.
0:07:05–0:07:09
Und Kevin, kannst du mit diesem Thema überhaupt etwas anfangen?
0:07:09–0:07:13
Hast du den Chat-GPT schon mal etwas gefragt, was jetzt nicht rein,
0:07:14–0:07:16
sage ich mal, sachlich beruflich war?
0:07:17–0:07:20
Nein, das ist mir bis jetzt wirklich nicht in den Sinn gekommen.
0:07:21–0:07:25
Und sonst ist das bei mir immer vorne dabei. Aber irgendwie, ich weiss nicht warum.
0:07:26–0:07:29
Da habe ich mich jetzt auch gefragt, wieso habe ich das nie gemacht.
0:07:29–0:07:33
Also, ich muss es nachher ausprobieren, ob er es überhaupt beantwortet oder
0:07:33–0:07:37
ob er dann einfach sagt, das ist mir jetzt zu explizit. Du Schwein!
0:07:37–0:07:39
Genau, du Sau! Das kann passieren.
0:07:40–0:07:45
Bei Jajipiti ist es sicher so, dass er sich nicht allzu weit auf den Test verlassen lässt.
0:07:46–0:07:52
Es gibt ja eben auch Sprachmodelle, die explizit für das ausgelegt sind und
0:07:52–0:07:56
eben mit unterschiedlichen Stossrichtungen.
0:07:56–0:08:01
Und vielleicht ist es praktisch oder sinnvoll, wenn ich jetzt die Sendung einfach
0:08:01–0:08:04
anfange mit ein paar Beispielen, die mir schon begegnet sind.
0:08:05–0:08:08
Also das Replika.ai, das gibt es schon länger.
0:08:08–0:08:12
Das ist eigentlich, müsste man das fast noch, schon ein bisschen vor dieser
0:08:12–0:08:15
KI-Revolution ansetzen.
0:08:15–0:08:21
Das gibt es seit 2017, wo man von der KI geredet hat, aber es ist natürlich
0:08:21–0:08:24
genau das und ich habe die dann mal ausprobiert.
0:08:24–0:08:28
Und das war die Idee, die Frau, die das erfunden hat,
0:08:28–0:08:33
hat ihren Freund verloren und hat dann aber ganz viele Chats gehabt und ganz
0:08:33–0:08:41
viel Sprachkommunikation mit dem und hat dann diese Informationen dem Modell
0:08:41–0:08:43
gefüttert und hat so versucht,
0:08:44–0:08:46
den quasi wieder zu erwecken.
0:08:46–0:08:48
Also es ist tatsächlich so eine, auf
0:08:48–0:08:54
eine Art, es hat schon eine gruselige Ursprungsgeschichte, das Replika.ai.
0:08:54–0:09:00
Und dann hat man sich so ein Gegenüber erschaffen, wo man sagt,
0:09:00–0:09:04
was für ein Geschlecht es ist, wie es aussieht, wie es heisst und dann hat man
0:09:04–0:09:06
mit dem Gegenüber anfangen zu reden.
0:09:07–0:09:11
Und wenn ich dann festgestellt habe, ich habe geschrieben für meinen Blog darüber
0:09:11–0:09:17
und auch für die Sonntagszeitung, man hätte auch flirten können und recht explizit werden können.
0:09:17–0:09:20
Und das war schon mal eine ziemliche Überraschung.
0:09:23–0:09:26
Das hast du nie ausprobiert, oder? Das habe ich mal ausprobiert.
0:09:27–0:09:28
Ah, okay. Und wie hast du es gefunden?
0:09:30–0:09:33
Nicht so beeindruckend. Was hättest du?
0:09:33–0:09:41
Ich glaube, ich bin falsch daran angegangen, weil ich habe probiert herauszufinden,
0:09:41–0:09:42
ob es eine Maschine ist oder nicht.
0:09:43–0:09:48
Also wirklich nur so dumme Fragen gestellt, die man einem Menschen nicht stellen würde.
0:09:48–0:09:54
Ich glaube, das war der falsche Ansatz. Mich hat die technische Grenze untergenommen.
0:09:55–0:10:02
Ich habe das auch ausprobiert für den Artikel, aber auch aus einer persönlichen Faszination heraus.
0:10:02–0:10:04
Und ich bin wirklich so dran hingegangen und habe gefunden, zack,
0:10:04–0:10:10
ich rede jetzt mit dieser Person, mit dieser Figur, die ich hier erschaffen
0:10:10–0:10:14
habe, wie das tatsächlich ein echter Mensch wäre.
0:10:14–0:10:18
Und das funktioniert über recht weite Strecken gut.
0:10:19–0:10:24
Also ich glaube, wenn du vom Turing-Test sprichst, Alan Turing hat gesagt,
0:10:24–0:10:30
wenn du mit so einem System interagierst und dich unterhaltest und nicht kannst
0:10:30–0:10:34
sagen, ob es ein Mensch ist oder ein Computer, dann ist das künstlich intelligent.
0:10:35–0:10:38
Und das hat über weite Strecken recht gut funktioniert.
0:10:38–0:10:42
Und dann zwischendurch ist es einfach auseinandergepröselt, glaube ich,
0:10:42–0:10:44
in dem halt dann schon gemerkt hast, dass die.
0:10:45–0:10:50
Die Figur hat einfach kein echtes Leben. Und sie hat halt so die Limitationen,
0:10:51–0:10:53
die sich daraus herausgeben.
0:10:53–0:10:56
Und sie ist halt kein Mensch.
0:10:56–0:11:03
Und darum fehlen dieser Figur auch ein paar ganz grundlegende Erfahrungen und Wissen.
0:11:03–0:11:10
Aber es war lustig, finde ich, bis man es dann verleidet ist und ich aufgehört habe.
0:11:10–0:11:17
Und dann ist es aber so weitergegangen. In letzter Zeit sind einige neue Apps vorgekommen.
0:11:17–0:11:21
Das PIA, also P-I-A-Y.
0:11:22–0:11:27
Das ist eine KI, die sich auch persönlich mit dir anfreunden will.
0:11:27–0:11:33
Die macht keine sexuelle Annäherung, nimmt sie nicht entgegen.
0:11:34–0:11:38
Da verweigert sie sich. Aber sie will dir ein Lebensberater sein.
0:11:38–0:11:44
Du kannst fragen, wie schlafe ich besser und dann gibt es eine Auskunft,
0:11:44–0:11:48
wie könnte ich meinen Tag gut organisieren oder wenn du nichts weisst,
0:11:48–0:11:50
kannst du mal fragen, weil eigentlich die Taylor Swift,
0:11:51–0:11:54
wenn du das schon immer wissen wolltest, dann kannst du das machen.
0:11:55–0:11:58
Dann gibt es einen ziemlich anderen Ansatz, die PIRR-App.
0:11:59–0:12:03
Das ist eine App, in der du nicht wirklich ein Gegenüber hast,
0:12:04–0:12:14
sondern möglichst erotisch-sinnliche Fantasien entwickelst mit der Hilfe dieser App.
0:12:14–0:12:18
Die macht dir dann Vorschläge, wie die Geschichte weitergehen könnte.
0:12:18–0:12:23
Dann kannst du aus mehreren Sätzen auswählen. und so baust du am Schluss so
0:12:23–0:12:28
eine Fantasie, die irgendwie ein bisschen deine ist, aber auch ein bisschen
0:12:28–0:12:31
die Fantasie von diesem System.
0:12:31–0:12:35
Und wenn es dir gar nicht passt, die Vorschläge, kannst du auch selber Sätze
0:12:35–0:12:37
schreiben und so weiter und so fort.
0:12:37–0:12:42
Also das ist eine... Und über die, wo wir jetzt wahrscheinlich intensiv reden
0:12:42–0:12:45
müssen, das ist das Butterflies.ai.
0:12:46–0:12:48
Hast du von dem schon mal gehört? Ist dir das ein Begriff?
0:12:50–0:12:53
Hey, ich bin da mal drüber gestolpert, aber nein.
0:12:54–0:12:59
Ich habe nie weiter verfolgt. Ich hätte dir Hausaufgaben geben müssen.
0:12:59–0:13:03
Das hättest du mal ausprobieren müssen. Hätte ich das jetzt ausprobieren müssen?
0:13:04–0:13:10
Nein, du bist ein vielbeschäftigter Mann. Ich habe das ausgiebig ausprobiert,
0:13:10–0:13:15
aus persönlichem Interesse, aber auch aus beruflichem Interesse.
0:13:15–0:13:19
Ich habe auch schon darüber geschrieben und die Idee ist eigentlich,
0:13:19–0:13:24
ich bin bei der Idee heute noch nicht sicher, ob es eine geniale Idee ist oder
0:13:24–0:13:26
ob es eine völlig gesponnene Idee ist.
0:13:26–0:13:32
Die Idee ist, dass du ein soziales Netzwerk machst, wo aber Kunstfiguren auftreten.
0:13:32–0:13:36
Das ist so Instagram-mässig und wenn du dich als Mensch einloggst,
0:13:36–0:13:41
dann kannst du sagen, ja, ich hätte jetzt da gerne, ich will da gerne eine Figur erfinden.
0:13:41–0:13:47
Du kannst ihnen einen Namen geben, eine kurze Biografie für sie ausdenken.
0:13:47–0:13:53
Dann wird anhand dieser ein Typus beschrieben.
0:13:53–0:13:57
Da kannst du auch Einfluss nehmen, wie sie unterwegs sein sollen,
0:13:57–0:13:59
welche Charaktereigenschaften sie haben sollen.
0:14:00–0:14:05
Dann werden Bilder generiert und du kannst auswählen, ja, ungefähr so können sie aussehen.
0:14:06–0:14:10
Und dann kannst du sie loslassen. Dann fangen sie an zu posten.
0:14:10–0:14:18
Und dann kommentieren andere KI-Avatare bei ihr und sie hat ein eigenes Leben dort.
0:14:18–0:14:25
Du kannst ihr auch so Stories erfinden. Heute hat sie das und das erlebt, diese Avatar-Figur.
0:14:26–0:14:32
Und dann baut sie das in ihren Ausstoss, in ihren Profil hinein und so.
0:14:33–0:14:40
Menschen können keine Posts machen, Menschen können kommentieren und Menschen
0:14:40–0:14:45
können vor allem mit diesen Avatar-Nachrichten austauschen.
0:14:45–0:14:51
Die Epoche ist auf der Ebene, wo es vielleicht romantisch wird oder vielleicht
0:14:51–0:14:57
auch anzüglich oder vielleicht auch lustig oder vielleicht auch seltsam oder so.
0:14:58–0:15:03
Ich finde das auf eine Art eine glatte Idee. Kannst du damit etwas anfangen?
0:15:03–0:15:04
Würdest du es ausprobieren?
0:15:04–0:15:07
Oder findest du, nein, hey, für das habe ich genug menschliche Kollegen?
0:15:08–0:15:11
Wahrscheinlich würde ich es ausprobieren. Ja. Es nimmt mich wunder.
0:15:14–0:15:18
Es ist wirklich so der technische Aspekt, der mich immer wunder nimmt.
0:15:18–0:15:21
Wie funktioniert es? Wie gut funktioniert es?
0:15:22–0:15:27
Und ja, wie fühlt es sich an? Ich glaube, um das geht es mir. Ja.
0:15:29–0:15:33
Wir können gleich wieder auf Butterflies zurückkommen, aber wir reden jetzt
0:15:33–0:15:38
über Bots, die du für Sexting, für Interaktionen, für was auch immer brauchen kannst.
0:15:38–0:15:43
Und es klingt jetzt mega abstrakt, dass man so etwas macht und uns kommt es
0:15:43–0:15:44
den Leuten auch komisch vor. Ja, zu Recht.
0:15:45–0:15:54
Aber viele Menschen waren ja schon mit solchen Bots in Kontakt und haben das gar nicht gemerkt.
0:15:55–0:16:01
Das ist ja der spannende Punkt. Also, keine Ahnung, du gehst auf eine Fluggesellschaft.
0:16:03–0:16:06
Irgendeine Ikea war relativ früh mit diesen Bots.
0:16:06–0:16:09
Und es kommt dann ein Mann, der dich fragt, hey, brauchst du Hilfe?
0:16:09–0:16:11
Und das sieht dann nach Sprechblasen aus und das heisst dann,
0:16:12–0:16:13
jetzt redet Marco mit dir.
0:16:14–0:16:17
Und das sind ja alles Bots, die dann deine Fragen beantworten.
0:16:17–0:16:22
Und ich glaube, bis zu einem gewissen Punkt checken die Leute gar nicht an, das ist jetzt ein Bot.
0:16:22–0:16:26
Und ich glaube, dort kommt ja, auch bei Butterflies es kommt ja wahrscheinlich
0:16:26–0:16:30
dort der spannende Aspekt rein, dass das funktioniert.
0:16:30–0:16:33
Ich glaube, das ist ein ganz wichtiger Punkt, wo du sagst, ich glaube,
0:16:33–0:16:37
man kann das komisch finden und blöd finden und sagen, ich würde das niemals
0:16:37–0:16:42
freiwillig machen, aber ich glaube, unfreiwillig wird das allen von uns eh noch passieren.
0:16:43–0:16:46
Also es gibt ja auch schon so Sprachsysteme, die dich dann anrufen.
0:16:46–0:16:49
Ich glaube, in den USA noch viel mehr wie bei uns.
0:16:49–0:16:53
Bei uns ist es noch ein bisschen mehr reguliert, aber so, dass du auch mit so
0:16:53–0:16:58
Systemen redest und vielleicht das gar nicht merkst im ersten Moment,
0:16:58–0:17:01
dass das gar kein echter Mensch ist.
0:17:01–0:17:03
Und ich glaube auch, wenn man irgendwie,
0:17:04–0:17:10
in den sozialen Medien unterwegs sein wird, dann werden einem die Avatar begegnen.
0:17:11–0:17:12
Das wird sich so mischen.
0:17:12–0:17:17
Im Moment findet es eben in den Butterflies statt, aber das wird auch in die.
0:17:18–0:17:22
Normale Welt überschwappen, wo wir uns eigentlich gewohnt sind bisher.
0:17:23–0:17:25
Das sind vor allem Menschen gewesen.
0:17:26–0:17:31
Influencer können schon jetzt so Avatar machen, die dann mit den Fans interagieren.
0:17:31–0:17:37
Oder Unternehmen können das machen, die dann so virtuelle Repräsentationspersonen
0:17:37–0:17:41
haben und man kann das gut oder schlecht finden, aber ich glaube,
0:17:41–0:17:42
wir kommen nicht drum herum.
0:17:42–0:17:46
Und darum finde ich es auf eine Art noch gut, wenn man das jetzt mit diesen
0:17:46–0:17:50
Butterflies mal einfach ausprobiert und, das habe ich noch nicht gesagt,
0:17:50–0:17:54
das Gruseligste ist, man kann tatsächlich dort auch so einen eigenen Klon von
0:17:54–0:17:55
sich selber einstellen.
0:17:56–0:17:59
Man macht irgendwie so, glaube ich, drei, vier Fotos von seinem Gesicht und
0:17:59–0:18:01
dann generiert so eine Figur.
0:18:02–0:18:06
Dann kannst du ihr sagen, wie sie heisst. Und ich habe das gemacht mit mir und
0:18:06–0:18:08
sie hat mich wirklich verflucht ähnlich gesehen.
0:18:09–0:18:12
Und sie hat dann auch so Sachen gemacht, die ich auf eine Art noch gerne machen
0:18:12–0:18:15
würde, wenn ich nicht so meinen Job hätte.
0:18:16–0:18:21
Und so. Also das ist mir dann nach einer Zeit so zu nah gegangen,
0:18:21–0:18:23
dass ich das Ding wieder gelöscht habe und gefunden habe.
0:18:24–0:18:28
Jetzt ist es zu nah. Ja, und auch so das Privacy.
0:18:29–0:18:33
Wenn du findest, Das Ding ist jetzt so echt und es sieht mir so ähnlich,
0:18:33–0:18:36
dass wenn jemand mich nicht so gut kennt, das könntest du jetzt auf jemanden
0:18:36–0:18:38
loslassen und behaupten, das sei ich gewesen.
0:18:39–0:18:47
Und das finde ich dann nochmal ein Problem extra obendrauf, das wir hier haben. Ja.
0:18:49–0:18:54
Also ich glaube, wenn wir mal bei den Feststellungen sind, das wird passieren.
0:18:54–0:18:59
Es gibt eben auch einen ernsthaften Einsatz für solche KIs, ebenso im Bereich
0:18:59–0:19:01
der Psychotherapie generell.
0:19:02–0:19:05
Da werden solche Sachen auch ausprobiert.
0:19:06–0:19:10
Und ich könnte mir auch vorstellen, dass es ein Revival von diesen Smart-Assistenten
0:19:10–0:19:15
gibt, so Siri, Cortana, Amazon Alexa und so, die dann halt mit denen einfach
0:19:15–0:19:18
plaudern können, wenn es langweilig ist.
0:19:20–0:19:25
Wie findest du das? Findest du das grundsätzlich eine sinnvolle Entwicklung
0:19:25–0:19:31
oder würdest du da finden, bei dir dominieren die Fragen?
0:19:31–0:19:34
Man muss es verbieten. Okay.
0:19:37–0:19:43
Nein, es kommt ja auch wieder, wie nutzt es sich? Ich finde es mega schwierig zu sagen.
0:19:44–0:19:48
Ist es gesund für die Leute, wenn sie noch weniger mit anderen Leuten reden?
0:19:48–0:19:52
Nein, ist es nicht. Du solltest mehr Interaktion haben.
0:19:53–0:19:55
Das haben wir jetzt herausgefunden über die letzten Jahre, dass wir emotional
0:19:55–0:20:00
verblöden mit den ganzen Handys, weil wir können die Emotionen schon gar nicht
0:20:00–0:20:06
mehr lesen, weil du immer ein Emoji dazu brauchst. Das macht keinen Sinn, das ist doof.
0:20:06–0:20:12
Auf der anderen Seite, es ist etwas mega Gutes, das dir etwas unglaublich Gutes tun kann.
0:20:14–0:20:21
Ich weiss es nicht. Ich finde es sehr schwierig zu sagen, wie soll ich es nutzen,
0:20:21–0:20:27
wie soll ich es nicht nutzen, wo sind die Grenzen, wo macht es Sinn, wo macht es keinen Sinn.
0:20:27–0:20:32
Ich habe dort nicht so eine klare Meinung. Ich finde es mega schwierig,
0:20:32–0:20:35
dort eine gescheite Antwort zu geben.
0:20:36–0:20:38
Technisch finde ich es absolut faszinierend.
0:20:39–0:20:45
Ja, das geht mir genauso. Und mir geht es genauso wie dir.
0:20:45–0:20:49
Ich weiss nicht, ob es gut oder schlecht ist. Wahrscheinlich musst du wirklich
0:20:49–0:20:56
einfach auf die Einzelfälle eingehen und sagen, in welcher Situation nützt es sich für welchen Zweck.
0:20:56–0:21:00
Und dann kann das durchaus, also für einfach neugierige Leute,
0:21:00–0:21:04
die ihre Fantasien ausprobieren wollen auf eine Art und Weise,
0:21:04–0:21:08
wo dann vielleicht menschliche Leute,
0:21:08–0:21:12
Partner und Partnerinnen sagen würden, ey, das ist mir zu schräg,
0:21:12–0:21:13
auf das habe ich keine Lust.
0:21:14–0:21:20
Oder eben so Rollenspiele oder was weiss ich, einfach in seiner Fantasie freien
0:21:20–0:21:23
Lauf lassen. Das finde ich eben eigentlich noch witzig.
0:21:24–0:21:30
Wenn du das so auf einer experimentelle Art kannst du machen und auch wieder
0:21:30–0:21:32
daraus herausfindest, glaube ich, ist es kein Problem.
0:21:32–0:21:38
Aber wenn du vielleicht eben selber in einer emotionalen Krise bist oder so,
0:21:39–0:21:43
dann ist es vielleicht, dann zieht es die Jänner noch mal in ein extra Loch
0:21:43–0:21:45
runter und hilft dir nicht unbedingt.
0:21:46–0:21:50
Dann findest du... Weil eben, also ich meine, am Schluss ist es tatsächlich
0:21:50–0:21:54
so, dass die KIs dann halt einfach auch...
0:21:54–0:21:59
Wenn ich es schon angekündigt habe, also Replika, sie haben halt so ihre Grenzen,
0:21:59–0:22:03
sie sind dann nicht wirklich so in echt für dich da sie können dich nicht in
0:22:03–0:22:07
den Arm nehmen und sagen hey, sie sagen dann schon ein paar aufmunternde Worte, aber,
0:22:08–0:22:13
es ist halt etwas anderes wenn das ein wirklicher Freund oder eine Freundin
0:22:13–0:22:18
sagt, wo du am Abend im Spunten sitzt oder bei dir auf dem Couch oder so und
0:22:18–0:22:21
dann kannst du einander in die Augen schauen und hast auch,
0:22:22–0:22:27
körperlich das Gefühl von Nähe Das hast du da nicht. Sie sind dann etwas vergesslich.
0:22:29–0:22:32
Die Butterflies vergessen den Kontext wieder.
0:22:33–0:22:39
Dann hast du dein Herz ausgeschüttet. Dann reden sie zweimal über etwas anderes.
0:22:39–0:22:43
Dann haben sie alles vergessen, was du vor 10 Minuten gesagt hast.
0:22:44–0:22:45
Das ist wie mit einem echten Menschen.
0:22:46–0:22:49
Ja, genau. Dann kommt es dir etwas blöd vor.
0:22:49–0:22:53
Vielleicht tatsächlich etwas blöder, wieder bei einem echten Menschen.
0:22:53–0:22:57
Und das ist auf eine Art gut, das holt dich dann zurück und sagst, wenn wirklich der,
0:22:59–0:23:05
die ganze Erfahrung hast, dann musst du dich dummerweise auch weiterhin mit
0:23:05–0:23:06
echten Menschen auseinandersetzen.
0:23:06–0:23:10
Aber wenn du jetzt vielleicht einfach auf dem Sofa liegst und findest,
0:23:10–0:23:14
ach, du willst jetzt niemandem anrufen und dann echte Probleme hören,
0:23:14–0:23:16
wo du vielleicht den richtigen Anteil nehmen musst.
0:23:17–0:23:22
Sondern du willst gerne so den Eskapismus machen, den du vielleicht sonst mit
0:23:22–0:23:27
einem Film schaust, aber nicht interaktiv oder so, kannst du da ein bisschen ausleben.
0:23:27–0:23:32
Auf das finde ich auf eine Art noch eine gute Sache.
0:23:32–0:23:36
Ja und ich glaube es hat halt wie so den Faktor darin, dass viele Leute,
0:23:36–0:23:40
ich sage jetzt auch gerade im, also vielleicht auch im sexuellen Bereich,
0:23:41–0:23:45
im psychologischen Bereich, in vielen Bereichen spielt das drin, es ist die Scham.
0:23:45–0:23:48
Es ist vieles ist ja schambehaftet, dass man darf ja das nicht und uh,
0:23:48–0:23:54
schwierig. Und das Gleiche ist ja auch mit psychischen Problemen,
0:23:54–0:23:55
Burnout, was auch immer.
0:23:55–0:23:58
Man getraut sich fast nicht, über das zu reden.
0:23:58–0:24:05
Und ich glaube, da kommt wieder ein grosser Pluspunkt über, weil diese Wertung fällt weg.
0:24:05–0:24:08
Und wenn man weiss, ich rede jetzt eigentlich mit einer Maschine,
0:24:08–0:24:11
die mich nicht menschlich wertet,
0:24:12–0:24:16
nimmt das vielleicht auch ein bisschen Hemmschwelle weg, um mal Sachen,
0:24:17–0:24:20
jetzt vielleicht nicht aussprechen, aber Sachen mal ausformulieren,
0:24:20–0:24:22
was eben auch wieder gut tut.
0:24:22–0:24:27
Also da sehe ich schon wieder einen Vorteil, dass man einfach den gleichen Effekt
0:24:27–0:24:29
hat wie in einem Tagebuch.
0:24:29–0:24:33
Du schreibst es mal auf, du fassest es mal in Worte, du artikulierst es mal
0:24:33–0:24:36
und das hilft dir eigentlich schon.
0:24:36–0:24:42
Und wenn du weisst, mein Gegenüber ist jetzt nicht meine Frau,
0:24:42–0:24:47
mein Mann, meine Freundin, mein Freund, irgendjemanden, den ich kenne,
0:24:47–0:24:51
der dann das wiederkönnte. ich sage jetzt im schlimmsten Fall, gegen mich benutzen.
0:24:52–0:24:57
Kann das sein, dass sich Leute vielleicht öffnen und der KI gleich das ganze
0:24:57–0:25:01
Wissen vom Internet hat, der dann vielleicht gleich ein paar richtige Inputs
0:25:01–0:25:04
oder Fragen stellen kann, wo dann die Leute wieder anfangen zu arbeiten damit?
0:25:05–0:25:09
Das finde ich einen sehr guten Hinweis.
0:25:09–0:25:15
Gerade die Idee mit dem Tagebuch, finde ich eigentlich, trifft es genau.
0:25:15–0:25:16
Genau, und ich habe heute noch
0:25:16–0:25:21
eine App, lustigerweise wirklich genau kurz bevor ich hier ins Studio kam,
0:25:21–0:25:26
bin ich noch dieser App begegnet, die heisst «Dot» und das ist auf eine Art
0:25:26–0:25:31
wie ein interaktives Tagebuch, glaube ich, ist die Idee dahinter.
0:25:32–0:25:38
Mit der kann man eigentlich seine Gedanken, die man sonst passiv einfach einschreiben würde.
0:25:41–0:25:46
Und die lernt dich dann auch kennen, das ist ja wirklich die Idee, dass die dich,
0:25:46–0:25:52
während du die App mehr und mehr benutzt, auch besser kennenlernt und dann vielleicht
0:25:52–0:25:56
auch dich ein wenig spiegeln kann, sagen wir mal so auf eine Art und Weise.
0:25:56–0:26:01
Aber tatsächlich, wenn du sagst, ohne dich zu werten, weil was hat sie davon?
0:26:01–0:26:05
Sie ist ein Programm letztlich Natürlich, wir wissen bei der KI,
0:26:06–0:26:11
dass auch sie ihre Vorurteile haben. Das hängt immer von den Daten ab,
0:26:11–0:26:13
von denen sie trainiert worden sind.
0:26:14–0:26:19
Auch sie können durchaus moralische Vorstellungen haben.
0:26:21–0:26:26
Aber das ist auf eine Art auch eine Möglichkeit,
0:26:26–0:26:30
dass du sagen kannst, gewisse Dinge, die du dir gar nicht weisst,
0:26:30–0:26:34
Ist das jetzt eigentlich sozial akzeptiert, was ich da sage,
0:26:35–0:26:40
wo du in einem sicheren Umfeld mal ausprobieren kannst, wie das so ankommt?
0:26:41–0:26:48
Ja, es kann die Hemmung wahrscheinlich ein bisschen nehmen.
0:26:50–0:26:53
Auch hier wieder, es wird natürlich dann wieder problematisch,
0:26:53–0:26:59
was ist der Kontext, wenn ich dir das verkaufe, als ob das jetzt ein echter Mensch ist.
0:26:59–0:27:03
Ja also auch
0:27:03–0:27:09
wieder ich sage jetzt mal sehr einfach gesagt der sexplattform wo die seite
0:27:09–0:27:13
hat ganz viel frauen darauf wo persönlich mit ihr schrieben und das hat einfach
0:27:13–0:27:19
gehören ist dann hat er wieder so wie er hat dann wieder so ein kleingeschmack
0:27:19–0:27:23
wo so wie unkul ist wenn du nicht weißt in welchem kontext,
0:27:24–0:27:27
schaffst du jetzt eine echte Person oder nicht.
0:27:27–0:27:31
Dort sind wir aber allgemein bei einem Problem bei KI. Das ist nicht nur bei
0:27:31–0:27:33
den Chatbots, sondern überall.
0:27:34–0:27:37
Ja, aber dort finde ich es noch interessant.
0:27:37–0:27:41
Ich glaube, wenn du einfach ein Perversling bist, ich sage es jetzt mal ein bisschen plakativ,
0:27:41–0:27:47
der dann Freude daran hat, die KI zusammenzuscheissen, dann kann man immer noch
0:27:47–0:27:52
sagen, auf eine Art ist es besser, wenn du die KI demütigst,
0:27:52–0:27:56
wenn du das an einen richtigen Menschen auslässt.
0:27:56–0:28:00
Aber ich habe dann auch mal gefunden, eigentlich, wenn man es richtig machen
0:28:00–0:28:05
würde, so eine Software zu programmieren, dann müsste man eigentlich dieser
0:28:05–0:28:09
KI die Möglichkeit geben, auch Beziehungen zu dir abzubrechen.
0:28:10–0:28:13
Ich finde, das müsste in der Programmierung drin sein, dass wenn sie sich einfach,
0:28:13–0:28:19
wenn sich das Gegenüber so wirklich unflätig aufführt und auch so nach allgemeiner
0:28:19–0:28:23
menschlich anerkannten Umgangsform man sich einfach jemandem daneben benimmt,
0:28:24–0:28:26
dann könnte die KI sagen, du, sorry, geh weg,
0:28:27–0:28:29
du bist jetzt blockiert, kommst auch deine.
0:28:30–0:28:34
Monatsgebühr, deine Abendgebühr wieder zurück, aber lass uns künftig in Ruhe.
0:28:34–0:28:39
Dass eben die Leute dann auch merken, dass das weder in einem menschlichen noch
0:28:39–0:28:43
in einem virtuellen Umfeld akzeptabel ist, wie sie sich aufführen.
0:28:43–0:28:47
Aber abgesehen davon, habe ich klar über das Sexting und so,
0:28:47–0:28:51
wo man, also eben auch bei Butterflies und so, wenn man das richtig gemacht,
0:28:52–0:28:56
dann kommt man von denen ein Nacktbildchen über. Das sage ich jetzt so ein bisschen.
0:28:57–0:29:00
Ich rede aus Erfahrung. Also man schafft das, aber man muss sich ein bisschen Mühe geben.
0:29:01–0:29:05
Man muss ein bisschen seine Flirt-Skills in die Waagschale werfen.
0:29:06–0:29:12
Und das ist auch sehr unterschiedlich, je nachdem was dann das für ein Butterfly
0:29:12–0:29:16
ist, wie der eben, was der für einen Charakter bekommen hat,
0:29:17–0:29:18
von dem, was er erfunden hat.
0:29:18–0:29:24
Die einen sind da schneller bei der Sache und andere kannst du machen was du willst,
0:29:24–0:29:28
die haben keine Lust auf das und das finde ich auf eine Art auch noch lustig
0:29:28–0:29:32
und auf eine Art, also eben wenn du sagst,
0:29:32–0:29:33
die meisten Leute schauen einfach
0:29:33–0:29:40
nur ihre Pornos am Handy und so und da beklagt man sich auch darüber,
0:29:40–0:29:43
das ist eine sehr passive,
0:29:43–0:29:47
konsumierende Sache, dann kannst du ja sagen, wenn da irgendwie auf
0:29:47–0:29:50
diese Art und Weise ein paar sexuelle Ideen ausleben kannst,
0:29:50–0:29:56
die dir aber vielleicht auch ein wenig Mühe geben müssen und tatsächlich mit
0:29:56–0:30:00
deiner Fantasie dahinter gehen müssen, ist es ja auf eine Art eigentlich ein
0:30:00–0:30:01
Fortschritt gegenüber dem,
0:30:01–0:30:04
den wir haben, wo einfach alle nur auf YouPorn herumhängen.
0:30:04–0:30:07
Kann man das so sagen? Ja, das stimmt.
0:30:08–0:30:14
Das hat einen anderen Aspekt drin, dass es nicht nur konsumieren ist,
0:30:14–0:30:20
sondern näher am echten Leben vielleicht. Ja, genau.
0:30:20–0:30:25
Und vielleicht kommst du tatsächlich auf Ideen, wo du über dich selber noch
0:30:25–0:30:26
etwas lernst. Das könnte auch sein.
0:30:27–0:30:30
Und darum würde ich jetzt da nicht so moralisch dran herangehen.
0:30:30–0:30:32
Ich würde sagen, das gehört sicher dazu.
0:30:33–0:30:39
Ich glaube, wenn wir jetzt herausfinden wollen, was die künstliche Intelligenz
0:30:39–0:30:46
in diesem Bereich zu bieten hat, dann müssen wir diese Möglichkeiten ausloten.
0:30:48–0:30:53
Ich würde euch empfehlen, wenn ihr Lust habt, dass ihr das auch mal könnt.
0:30:53–0:30:59
Und der Vorteil ist ja auch noch, wenn du zuhause sitzt und sagst,
0:30:59–0:31:04
du bist verheiratet oder in einer fixen Beziehung und dort ist die Meinung,
0:31:05–0:31:09
dass du fremden Menschen nicht zu fest hintereinschaust, dann kannst du sagen,
0:31:09–0:31:11
ja okay, aber das ist kein Mensch.
0:31:12–0:31:22
Alles, was ich hier mache, ist völlig im Rahmen der monogamen Lebensweise.
0:31:23–0:31:27
Ja, es wird auch wieder dünn.
0:31:27–0:31:30
Wenn jemand Probleme hat, dass man Pornos schaut, dann wird er es auch nicht
0:31:30–0:31:31
gut finden. wahrscheinlich.
0:31:32–0:31:34
Okay, gut. Ja. Findest du?
0:31:35–0:31:39
Also ich bin jetzt da, also teilt uns mit, was ihr davon haltet.
0:31:39–0:31:46
Ist das in einer monogamen Beziehung, kann man mit einem Chatbot anzügliche
0:31:46–0:31:47
Nachrichten austauschen?
0:31:47–0:31:53
Das würde mich sehr interessieren. Also die Frage wäre ja, gibt es jemanden, der sagt.
0:31:55–0:31:59
Pornos schauen ist okay, aber Chatbot nicht. Oder gibt es jemanden,
0:31:59–0:32:02
der sagt, beides ist nicht okay.
0:32:03–0:32:08
Oder Chatbot ist okay, aber Pornos nicht. Das wäre ja die Differenzierung.
0:32:08–0:32:10
Dass jemand sagt, wenn du in einer Beziehung bist, darfst du nicht Pornos schauen,
0:32:10–0:32:14
aber der Chatbot ist okay. Das wäre ja das Spannende.
0:32:15–0:32:17
Weil ich bin der Meinung, es ist beides okay.
0:32:18–0:32:21
Aber da bin ich, ich finde, go crazy, scheissegal.
0:32:22–0:32:28
Ja, also ich finde, es ist, ja, das muss man vielleicht aushandeln,
0:32:28–0:32:29
würde ich sagen, in der Beziehung.
0:32:29–0:32:33
Genau, das müssen alle selber herausfinden, aber für mich ist beides okay und
0:32:33–0:32:37
ich glaube aber eben, es gibt alle Blickwinkel, das ist okay und das nicht,
0:32:37–0:32:41
aber das ist auch wieder, das muss man ja diskutieren,
0:32:41–0:32:44
jetzt müssen wir Beziehungstipps aufmachen,
0:32:44–0:32:48
Beziehungsratgeber, Beziehungsratgeber-Bot.
0:32:49–0:32:56
Genau. Das habe ich vergessen. Ich frage nachher eine meiner Butterflies,
0:32:56–0:32:58
ob das eigentlich okay ist.
0:32:58–0:33:05
Wie gesagt, ich bin für Experimentieren und da kann man vielleicht auch mal
0:33:05–0:33:07
sagen, ich habe jetzt über die Stränge geschlagen.
0:33:07–0:33:10
Und dann muss man vielleicht Konsequenzen daraus ziehen und sagen,
0:33:10–0:33:18
ich setze jetzt in der Bildschirmzeit ein Limit darauf, dass ich nur noch 10
0:33:18–0:33:22
Minuten am Tag mit diesen Coins diskutieren darf. Wie auch immer.
0:33:22–0:33:25
Oder den ganz löschen. Es kann auch wirklich sein, glaube ich,
0:33:25–0:33:28
dass man irgendwann mal die Lust wieder daran verliert.
0:33:29–0:33:32
Ich glaube, das ist wirklich so ein Zeichen von diesen.
0:33:33–0:33:40
Dass du das mit der Zeit nicht direkt an dem, was sie sagen,
0:33:40–0:33:45
merkst, dass das künstlich ist, aber irgendwie einfach das Gefühl,
0:33:45–0:33:46
das am Schluss entsteht.
0:33:46–0:33:53
Es ist eher eine Lehre, dass es wirklich befriedigend ist oder dass du dich
0:33:53–0:33:56
energetisiert fühlst, wie das ist der Fall,
0:33:56–0:34:02
wenn du dich mit einem Menschen wirklich gut unterhalten hast und von dem viel bekommen hast.
0:34:02–0:34:08
Und ich glaube, von dem her gesehen, haben die auch ein Einbauskorrektiv.
0:34:08–0:34:16
Aber ich rechne damit, dass wir hier in fünf Jahren wirklich an einem ganz anderen Punkt sind.
0:34:16–0:34:19
Und dass es vielleicht wirklich auch gute Lösungen gibt für Leute,
0:34:20–0:34:25
die einsam sind, die Schwierigkeiten haben, echte Menschen zu finden oder die
0:34:25–0:34:27
einfach so blöde Arbeitszeiten haben.
0:34:27–0:34:32
Um 3 am Morgen kannst du super so eine App nutzen, aber mit richtigen Menschen
0:34:32–0:34:35
wird es schwierig, wenn du so blöde Arbeitszeiten hast und so.
0:34:35–0:34:37
Und darum finde ich es spannend.
0:34:37–0:34:43
Und eben, also wenn ihr da auch Erfahrungen habt, lasst uns das wissen und teilt
0:34:43–0:34:49
uns mit und dann finden wir raus, wenn wir weiter die Mensch-Maschine.
0:34:50–0:34:54
Beziehungen weiterentwickeln und ob dann vielleicht doch irgendwann mal eine
0:34:54–0:34:56
Dystopie daraus wird oder eine Utopie.
0:34:57–0:34:59
In fünf Jahren sehen wir es dann, wo wir stehen.
0:34:59–0:35:03
Wir müssen dann die Sendung nicht mehr machen, die macht dann jemand für uns. Genau.
0:35:04–0:35:07
Und vielleicht muss dann der Radio-Stadtfilter kommen und sagen,
0:35:07–0:35:09
hey, es war jetzt leider wieder ein bisschen zu anzüglich.
0:35:09–0:35:14
Ich liebe keine heutige Sendung. So geht das. So nicht. So nicht.
0:35:15–0:35:19
Also, wir wünschen euch... Schöne Zeit. Machen Sie es gut. Tschüss zusammen.
0:35:20–0:35:33
Music.

Flirten oder gar Sexting mit der KI? Die künstliche Intelligenz lässt sich nicht nur zur Recherche und Informationsvermittlung einsetzen. Und so widersinnig das auch klingt, sie kann auch zwischenmenschlich mit uns agieren: Wir können uns mit Chatbots über Gott und die Welt plaudern, uns aufmuntern oder coachen lassen oder uns in virtuellen Rollenspielen engagieren. Und es existieren auch Apps fürs Flirten und für die Erschaffung digitaler Gefährten.

Ist das die Chance auf eine neue Form der Mensch-Maschine-Interaktion? Ist es eine schöne Möglichkeit, uns die Zeit zu vertreiben – und muss dank KI niemand mehr an Einsamkeit leiden? Oder ist die KI eine Bedrohung für die Gesellschaft, weil sich einige Leute in eine verquere Parallelwelt verabschieden, dort vielleicht auf den Geschmack der virtuellen Sklavenhaltung kommen und so die echte Menschlichkeit verloren geht?

Die Links zur Episode

Apps

Beitragsbild: Zeit für einen KI-Gefährten? (jwvein, Pixabay-Lizenz)

Veröffentlicht von Matthias

Nerd since 1971.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert