Transkript anzeigen (falls vorhanden)

00:00–0:00:13
Music.
0:00:13–0:00:30
Ich sitze bei Oliver Reichenstein und er ist Chef und Gründer von den Information Architects GmbH.
0:00:30–0:00:35
Und vor allem, glaube ich, kann man schon sagen, bist du einer oder vielleicht
0:00:35–0:00:39
sogar der einflussreichste App-Entwickler aus der Schweiz.
0:00:40–0:00:45
Ja, das kann ich jetzt so nicht sagen. Vielleicht einer der einflussreichsten
0:00:45–0:00:48
Produktivitäts-App-Entwickler.
0:00:48–0:00:49
Das wahrscheinlich schon, ja.
0:00:50–0:00:57
Ich beharre auf meiner Darstellung. Du hast die AI-Writer-App entwickelt,
0:00:57–0:01:05
die Markdown-App, die sich dadurch auszeichnet, dass sie sehr auf das Wesentliche reduziert ist.
0:01:05–0:01:08
Das ist so die Antithese zum Microsoft Word, kann man sagen,
0:01:08–0:01:13
zu diesen Softwareprodukten aus den 90er-Jahren, die so überladen waren.
0:01:14–0:01:17
Und da hast du einen Trend damit ausgelöst?
0:01:18–0:01:23
Ja, eigentlich nicht bewusst, aber man kann schon sagen, dass das wahrscheinlich
0:01:23–0:01:28
eine der früheren sogenannten minimalistischen Apps war, wie man es dann genannt hat.
0:01:28–0:01:31
Ich glaube, diesen Begriff hätte es dann schon gegeben, Minimalismus,
0:01:32–0:01:35
das hat mir nie gefallen, weil was wir machen, ist nicht minimalistisch,
0:01:35–0:01:39
so wie wir uns das vorgehalten haben in der Schule, wenn wir zu wenig gelernt haben.
0:01:39–0:01:45
Ja, faul. Nein, es ist nicht faul, sondern es ist eigentlich darum gegangen,
0:01:45–0:01:50
dass man sich auf die Essenz konzentriert, von dem, was die App macht.
0:01:50–0:01:54
In dem Sinne kann man vielleicht sagen, minimalistisch, aber ich fühle mich
0:01:54–0:01:55
heute noch nicht so ganz wohl.
0:01:55–0:01:59
Obwohl es jetzt sehr modern ist, minimalistisch zu leben, minimalistische Apps,
0:01:59–0:02:04
minimalistische Ferien, ich weiss auch nicht, was alles minimalistisch gemacht wird.
0:02:04–0:02:08
Und das ist aber heute auch ein bisschen mehr ein ästhetischer Begriff.
0:02:08–0:02:10
Man macht es, weil es so schön ist.
0:02:10–0:02:14
Ist es auch. Es ist ein nettes Beiprodukt davon, wenn man sich auf das Wesentliche
0:02:14–0:02:19
konzentriert, dass es dann auch ästhetisch wirkt. Aber es ist mehr ein Beiprodukt.
0:02:20–0:02:24
Ist jemals Steve Jobs zu dir gekommen und hat gesagt, es ist super,
0:02:24–0:02:31
eure App, die passt genauso zu unserer Strategie, die wir uns mit dem iPad ausgedacht haben.
0:02:31–0:02:36
So eine schöne Schreib-App, die zeigt, dass so ein Tablet nicht einfach nur
0:02:36–0:02:42
ein anderer Computer ist, sondern ein völlig neuer Ansatz.
0:02:44–0:02:49
Wir haben wirklich das Rad neu erfunden und ihr mit eurer Schreib-App seid ein
0:02:49–0:02:51
Speicher in diesem neuen Rad.
0:02:51–0:02:56
Nicht direkt Steve Jobs, aber Apple hat uns 2012 eingeladen,
0:02:56–0:03:01
als eine von zwölf Firmen, die sich in diesem Jahr auszeichnet haben,
0:03:02–0:03:05
wo man ein bisschen auf den Sprung helfen wollte und ein paar Geheimtipps gab.
0:03:05–0:03:11
Und developer manager
0:03:11–0:03:14
oder wie jetzt einmal geheißen hätte er hat uns
0:03:14–0:03:20
empfangen und hat uns so partizipation machen um nur folgericher ziehen wir
0:03:20–0:03:24
sind eine von denen ja am besten verkauft ist der naps gesehen am anfang im
0:03:24–0:03:31
app store und ich glaube unsere ab am anfang 19 dollar kostet oder so.
0:03:32–0:03:36
Und der Tipp von Apple war dann, man sollte sie für einen Dollar verkaufen. Oh, super Tipp.
0:03:36–0:03:40
Dann würden wir viel, viel mehr, viel, viel mehr verkaufen und so viel mehr,
0:03:41–0:03:44
dass wir auch noch viel mehr reinnehmen würden. Das war dann der Tipp.
0:03:45–0:03:48
Und es war sicher der schlechteste Geschäftstipp von allen Zeiten,
0:03:48–0:03:50
die wir uns je übergeben haben.
0:03:50–0:03:54
Und es hat dann Jahre gedauert, um wieder einigermassen auf ein Niveau zu kommen,
0:03:54–0:03:56
um etwas für diese App zu verlangen.
0:03:56–0:03:59
Weil wenn du einmal einen Franken verlangst... Ja, kannst du nicht mehr zurück.
0:03:59–0:03:59
...kannst du fast nicht mehr zurück.
0:04:01–0:04:06
Wie bist denn du überhaupt dazu gekommen, eine Software zu entwickeln?
0:04:06–0:04:13
Weil ich habe gelesen, eigentlich bist du ja von ganz niemand anders gekommen. Wie war dein Werdegang?
0:04:14–0:04:20
Ich habe Philosophie studiert in den 90er Jahren in Basel und in Paris.
0:04:20–0:04:23
Und das hat mir eigentlich immer sehr gut gefallen, bis am Schluss,
0:04:23–0:04:31
was mir ein bisschen zu monoton geworden ist und zu selbstreferenziell,
0:04:31–0:04:33
würde man so sagen, in diesem Sprachbereich.
0:04:34–0:04:38
Und ich habe dann irgendwie so das Bedürfnis bekommen, statt weiterzumachen
0:04:38–0:04:41
an der Uni, das ist wirklich etwas, was ich auch eine Zeit lang ins Auge gefasst
0:04:41–0:04:44
habe, weil es mir wirklich sehr gefallen hat in der Philosophie vor allem.
0:04:46–0:04:49
Habe ich gedacht, ich muss irgendetwas machen, wo ich nicht ständig probiere,
0:04:50–0:04:53
die Welt in meinen Kopf hineinzubringen, sondern meinen Kopf in die Welt.
0:04:53–0:04:57
Und so einen ganz genauen Plan hatte ich nicht,
0:04:57–0:05:04
aber ich war dort auch schon länger im Computerwesen unterwegs und um mein Studium
0:05:04–0:05:09
zu verdienen, habe ich Informatik und auch sonst so kleinere Lehrjobs gemacht,
0:05:09–0:05:12
unter anderem eben auch als Journalist gearbeitet, kurze Zeit.
0:05:13–0:05:18
Ich wurde dann auf einem Start-up in Zürich angestellt, ein Kollege von mir,
0:05:18–0:05:23
ein ehemaliger WG-Kumpel von mir war dort und hat mich dort eigentlich hergeholt.
0:05:24–0:05:31
Ich habe dort angefangen als Texter und bin dann Verkäufer geworden und Informationsarchitekt.
0:05:32–0:05:37
Als die Designerin in den Ferien war, habe ich geschaut, wie das mit Photoshop
0:05:37–0:05:38
geht und das hat mir sehr gut gefallen.
0:05:41–0:05:45
Und nach anderthalb Jahren habe ich ein Jobangebot bekommen,
0:05:46–0:05:51
wo mir ein Vielfaches angeboten wurde, von dem ich bei diesem Start-up verdient
0:05:51–0:05:52
habe und habe es angenommen.
0:05:52–0:05:56
Und dort bin ich dann in die Designer-Rolle hineingewachsen,
0:05:57–0:06:01
weil ich dort in der Mitte von Grafikdesignern war, in so einem klassischen
0:06:01–0:06:03
Branding-Unternehmen.
0:06:04–0:06:10
Und die haben dann irgendwie nicht so viel darüber gewusst, wie man Webseiten
0:06:10–0:06:15
macht, das habe ich dann schon besser gewusst, aber alles eigentlich selber beibringt.
0:06:15–0:06:22
Und nach vier Jahren dann bei Interbrand hier in Zürich, habe ich gedacht,
0:06:22–0:06:27
ich muss mal eine Pause machen und bin dann auf Japan.
0:06:29–0:06:33
Und dort habe ich dann wieder angefangen bei einer kleinen Start-up,
0:06:33–0:06:35
aber dann schon eigentlich.
0:06:37–0:06:42
Ziemlich offiziell Designer und es hat dann aber noch ein paar Jahre gebraucht,
0:06:42–0:06:44
bis ich mich dann getraut habe zu sagen, ich bin ein Designer.
0:06:45–0:06:48
Daran konnte ich dann aus dem Weg kommen, als ich selber eine Firma gegründet
0:06:48–0:06:53
habe, aber das hat dann gut 10 Jahre gedauert, bis ich mich getraut habe.
0:06:53–0:06:56
Und heute bist du Designer? Heute bin ich Designer, ja.
0:06:56–0:07:00
Aber die Philosophie ist immer noch eine alte, grosse Liebe von mir und ich
0:07:00–0:07:06
verbinde beides stark und jetzt, je mehr Graue und je weniger Haare, die ich bekomme.
0:07:07–0:07:11
Zuerst bekommt man Graue, dann keine. Ja, ich kenne das. Desto mehr zieht es
0:07:11–0:07:15
mich jetzt auch zurück in diese Welt. Ich habe jetzt auch schon ein paar Arten, die so,
0:07:16–0:07:21
zwischen ihnen wieder so ein bisschen aristotelische Zeug hat und lese wieder
0:07:21–0:07:27
die Metaphysik und probiere das, was ich erfahren habe, indem ich meinen Kopf
0:07:27–0:07:29
in die Welt gebracht habe, das probiere ich jetzt irgendwie wieder zurück in
0:07:29–0:07:30
den Kopf hineinzubringen.
0:07:30–0:07:33
Mehr Aristoteles als der Sokrates?
0:07:37–0:07:41
Theoretisch, ja, theoretisch, ja, aber natürlich der Wunsch wäre schon eher,
0:07:42–0:07:45
also der Superstar ist natürlich der Sokrates.
0:07:47–0:07:51
Karl Jaspers sagt, jeder hat so sein eigenes Sokrates-Bild und jeder meint,
0:07:51–0:07:55
das müsse ein Gesinn sein und das ist so eine Art, ja, das ist wirklich so ein Idol,
0:07:56–0:08:00
das kann man sehr stark vergleichen mit, wo wir jung gewesen sind und gefunden
0:08:00–0:08:04
haben, ich weiss nicht, die Peschmods sind die besten oder so,
0:08:04–0:08:08
also da ist man schon, die begeistert man nicht so recht los.
0:08:08–0:08:15
Wie sehr hat dich dann Japan beeinflusst bei deiner Gestaltungsarbeit? Auch sehr stark.
0:08:16–0:08:18
Ich war dort ein völlig unfertiger Designer.
0:08:19–0:08:21
Ich wusste erst langsam, wie wichtig
0:08:21–0:08:26
Typographie ist, dass sie zwischen Funktionalität und Schönheit ist.
0:08:27–0:08:35
Ich ging dann nach Japan, in einer Zeit, in der wir noch ziemlich ohne Handy unterwegs waren.
0:08:35–0:08:39
Das heisst, Japan hatte von uns schon einen Club, der sehr weit entwickelt war
0:08:39–0:08:41
im Vergleich zu unseren Wapp-Geräten.
0:08:41–0:08:47
Aber man konnte nicht einfach auf Google Maps schauen, wo das Restaurant ist
0:08:47–0:08:54
und dann dort hinlaufen, Node in Node, sondern man musste sich an einem komplizierten
0:08:54–0:08:55
Kartensystem orientieren.
0:08:57–0:09:02
Man musste Japanisch lernen und konnte nicht einfach Google Translate benutzen.
0:09:02–0:09:05
Das Wichtigste für mich als Designer war.
0:09:07–0:09:12
Neu geboren zu werden in einer Welt, in der man die verbale Sprache nicht versteht.
0:09:12–0:09:17
Ich konnte null Japanisch, ich konnte nichts lesen und ich musste lernen,
0:09:17–0:09:21
wie die Kultur funktioniert, anhand der reinen Beobachtung.
0:09:21–0:09:25
So ein bisschen wie wenn der Terminator aufgewachsen ist in der Vergangenheit
0:09:25–0:09:30
und dann so gegründet hat, aha, Mann, Frau, Maschine, Knopf drücken.
0:09:30–0:09:34
Zettel kommt raus, das geht zur Theke, ich glaube, das braucht man,
0:09:34–0:09:36
um diese superartige Substanz zu bekommen.
0:09:36–0:09:45
Und die Beobachtung der physischen Interaktion, das war ein wunderbares Training
0:09:45–0:09:48
für mich als Interaktionsdesigner.
0:09:48–0:09:52
Ich habe bis zu diesem Zeitpunkt immer nur darauf geschaut, was passiert am
0:09:52–0:09:56
Bildschirm, was könnte einer denken auf der anderen Seite des Bildschirms.
0:09:56–0:10:00
Man stellt sich das immer so vor wie einen magischen Spiegel als Interaktionsdesigner,
0:10:00–0:10:03
als ob die Nutzer auf der anderen Seite sitzen würden.
0:10:03–0:10:06
Und dort in Japan habe ich gesehen, man muss schauen, was die Leute tatsächlich
0:10:06–0:10:12
auch mit den Händen machen, mit dem Körper, wie weit sie vom Bildschirm weg sitzen.
0:10:12–0:10:15
Anhand davon kann man sich viel besser ausrechnen, wie gross die Schrift sein
0:10:15–0:10:20
sollte, als wenn man hier irgendwie Bücher liest über Typografien,
0:10:20–0:10:23
die gemacht worden sind in der Zeit des Druckdesigns.
0:10:23–0:10:26
Also die erfahrung in japan überhaupt keine verbale
0:10:26–0:10:29
sprache zu können und und das
0:10:29–0:10:35
studium vor der physischen interaktion in der in der realen welt das hat mir
0:10:35–0:10:41
extrem stark geformt und hat auch die ganze grundlage den boten zu dem was mir
0:10:41–0:10:44
machen will ich mache das jetzt auch immer ich probiere immer zu lügen aus dem
0:10:44–0:10:48
rahmen ausbrechen was macht gerade nur mit mit mit
0:10:48–0:10:53
Augen und Fingern, wenn es eine Maus oder ein Tab-Device ist.
0:10:54–0:10:59
Und schaue, wie sitzen die Leute mit diesen Geräten, wo sitzen sie und wie verhalten sie sich.
0:10:59–0:11:05
Wie viele Sekunden dauert es zum Beispiel, ein paar Wörter bald zu machen,
0:11:05–0:11:11
wenn man eine Maus hat, im Vergleich dazu, wenn man Markdown tippen kann.
0:11:11–0:11:15
Genau. Das misst man dann und dann findet man heraus, wow, da passieren so viele
0:11:15–0:11:18
Sachen. Man muss die Maus zerschütteln, bis man den Zeiger findet.
0:11:19–0:11:24
Man muss mit dem Zeiger den Anfangspunkt finden, den Endpunkt finden und dann
0:11:24–0:11:29
muss man mit dem Zeiger zum Bold-Button gehen und dann genau draufklicken.
0:11:29–0:11:32
Genau in dieser überlappenden Word-Symbol-Liste.
0:11:32–0:11:37
Und dann merkt man, wow, wenn die Leute zwar denken, es ist ganz einfach,
0:11:37–0:11:40
etwas bold zu markieren mit einem sogenannten Visivik,
0:11:41–0:11:45
dann vergessen die komplett viele Schritte und die viele Zeit,
0:11:45–0:11:48
die vergeht, wenn sie etwas so Einfaches machen wie bold markieren.
0:11:48–0:11:53
Und wenn man sich darauf schult, zu schauen, wie sich jemand physisch verhält,
0:11:53–0:11:56
Ich denke, man kann die Interaktion viel besser designen.
0:11:57–0:12:01
Du bist jemand, der genau hinschaut. Das haben wir, glaube ich,
0:12:01–0:12:05
jetzt schon gemerkt. Und genau hinschauen tust du auch bei der KI.
0:12:06–0:12:11
Über die möchten wir jetzt sprechen. Speziell auch über die computergenerierten
0:12:11–0:12:17
Bilder, die seit Herbst 2022 zum ersten Mal auftauchten.
0:12:17–0:12:24
Was war dein erster spontaner Gedanke, als du zum ersten Mal so ein Bild gesehen
0:12:24–0:12:27
hast, das einen K.I. gemacht hat. Weisst du das noch?
0:12:28–0:12:34
Ja, das war so etwas wie zwischen «Wow, diese hohe Auflösung» und.
0:12:35–0:12:47
Das sieht cool aus, aber auch gemischt mit Fantasy-Alben aus den 80er-Jahren.
0:12:47–0:12:53
Asia, wo Helden auf Dinosaurier in einen Sonnenuntergang reiten.
0:12:53–0:13:04
Andere Sachen erinnern mich an FX-Twin, die mir Ende Jahr künstlerisch extrem eingefahren sind.
0:13:04–0:13:09
Und man fragt sich dann so ist das jetzt kitsch oder kunst oder ist das vielleicht
0:13:09–0:13:13
sind das vielleicht bilder von
0:13:13–0:13:18
schizophrenen was ist da genau los ich bin beeindruckt und gleichzeitig,
0:13:18–0:13:26
aber auch von anfang an wie es gefühlt irgendwie kenne ich da viel mehr als
0:13:26–0:13:30
als als die der schock Ich hatte das Glück,
0:13:30–0:13:33
als ich das erste Mal Chachibiti gebraucht habe, dass ich mir gedacht habe, das kann nicht sein.
0:13:35–0:13:39
Ich hatte bei den Bildern schon sehr schnell Zweifel. Das hat glaube ich damit
0:13:39–0:13:42
zu tun, dass unser Auge viel geschulter ist.
0:13:43–0:13:46
Wenn man selber noch Gestalter ist, dann sieht man sehr viel schneller,
0:13:47–0:13:49
dass hier etwas falsch läuft.
0:13:49–0:13:52
Also du hast dich nicht sofort als Bedrohung wahrgenommen und gefunden,
0:13:52–0:13:57
jetzt ist mein Job, in fünf Jahren kann ich noch einen Nagel hängen,
0:13:57–0:13:59
weil dann macht die Software meine Arbeit.
0:13:59–0:14:06
Das ist eigentlich in keinem Fall je etwas gewesen, das mich beschäftigt hat,
0:14:06–0:14:08
Angst, dass ich ersetzt werden könnte.
0:14:09–0:14:16
In meinem Beruf ist das Denken so essenziell und ist die Aufgabe so schwierig,
0:14:16–0:14:21
dass jedes Werkzeug, das man vereinfacht, willkommen ist. Sofort.
0:14:21–0:14:28
Und ich sehe auch die anderen Gestaltungsberufe so, Wenn ich jetzt Musiker wäre
0:14:28–0:14:32
oder Schriftsteller oder Journalist,
0:14:32–0:14:39
dann würde ich mich persönlich nicht infrage gestellt fühlen durch das.
0:14:40–0:14:47
Aber natürlich mache ich mir Sorgen wegen Desinformation oder dass ich jetzt
0:14:47–0:14:51
den ganzen Tag noch viel mehr Müll lesen muss. oder dass ich noch mehr E-Mails
0:14:51–0:14:53
bekomme, wo nichts drinsteht.
0:14:53–0:14:58
Oder dass ich noch mehr Powerpoints durchklicken muss, wo niemand etwas gedacht hat.
0:14:58–0:15:01
Das war mehr meine Sorge. Ich habe gesehen, dass das gebraucht werden kann,
0:15:01–0:15:04
um noch viel mehr Müll zu produzieren.
0:15:04–0:15:09
Und sehr schnell, sowohl bei ChatGPT, wie auch bei der Künstlichen Intelligenz,
0:15:09–0:15:14
war meine erste Sorge dann, meine Güte, jetzt wird es noch viel schwieriger,
0:15:14–0:15:17
etwas zu finden, wo es wert ist, Zeit damit zu verbringen.
0:15:20–0:15:22
Erstaunlicherweise, hast du festgestellt,
0:15:22–0:15:26
gab es wahnsinnig schnell eine Übersättigung mit diesen Bildern.
0:15:26–0:15:31
Du hast gesagt, AI-Art ist ein New Stock Image,
0:15:31–0:15:34
also das sind so die neuen Bilder ab Stangen, kann man sagen,
0:15:34–0:15:39
so die Gebrauchsbilder, sage ich manchmal auch, die man gratis oder für ganz
0:15:39–0:15:45
wenig Geld haben kann, wenn ich in meinem Blog einen Beitrag illustrieren muss
0:15:45–0:15:47
und kennen kann, anstellen, der mir das richtig macht.
0:15:47–0:15:52
Und ist das eine Entwertung, die da stattgefunden hat?
0:15:52–0:15:55
Oder zuerst einmal gefragt, warum meinst du, ist das so schnell gegangen,
0:15:55–0:16:03
dass das zu so einem Gebrauchs- oder fast ein Verschleiss-Gegenstand geworden ist, die KI-Bilder?
0:16:03–0:16:10
Es ist noch interessant, dass das eigentlich schneller gegangen ist, als, wie soll ich sagen,
0:16:11–0:16:15
das Mediatraining von Leuten, wenn man ihnen beibringt, was der Unterschied
0:16:15–0:16:25
ist zwischen einem natürlichen, privaten, professionellen Foto und eben diesen Stock-Images.
0:16:25–0:16:26
Wie sagt man das auf Deutsch eigentlich?
0:16:27–0:16:30
Ich glaube, man sagt Stock-Images.
0:16:31–0:16:35
Bilddatenbank. Die Bilddatenbanken, weil das ist ja etwas, da musst du schon
0:16:35–0:16:37
ein bisschen geschult sein, nicht gerade.
0:16:39–0:16:42
Nicht super trainiert, aber vielen Leuten ist weder bewusst,
0:16:42–0:16:47
wie photoshoppt alle Bilder sind, noch, dass auch sehr viele Bilder,
0:16:47–0:16:50
die in der Werbung gebraucht werden, einfach Bilder abgestanden sind,
0:16:50–0:16:54
die auf der ganzen Welt für die verschiedenen Sachen gebraucht werden.
0:16:54–0:17:01
Vielleicht ist das heute ein bisschen bekannter, aber bei diesen AI-Geschichten
0:17:01–0:17:06
ist das viel schneller gegangen. Ich habe das Gefühl, ich kann das nicht 100%
0:17:06–0:17:09
beurteilen, ich habe keine Studien und ich bin nicht auf die Strasse die Leute gefragt.
0:17:09–0:17:15
Aber mein Eindruck ist jetzt, aus meinen Erwartungen, dass ich das sofort sehe.
0:17:16–0:17:22
Während bei einem mehr oder weniger guten Bild ab Stangen, braucht es doch noch
0:17:22–0:17:25
so eine halbe Sekunde, bis ich es realisiere.
0:17:25–0:17:30
Oder manchmal eine Zehntelsekunde. Aber es gibt eine Verzögerung bei diesen
0:17:30–0:17:32
AI-Bildern. Man macht es und sieht es.
0:17:32–0:17:37
Und man sieht das Bild gar nicht mehr, weil man schon erkennt, was es ist.
0:17:37–0:17:40
Man schaut gar nicht mehr darauf, was eigentlich drin ist.
0:17:41–0:17:46
Wenn man denkt, der hat AI mit Journey gebraucht.
0:17:46–0:17:52
Ich muss mich nicht beschäftigen, was genau der Prompt war. Denn das ist die Aufgabe.
0:17:53–0:17:56
Man schaut sich das AI-Bild an und fragt sich nicht, was ist da drauf?
0:17:56–0:17:59
Was will mir das sagen? Sondern man fragt sich, was war eigentlich der Prompt?
0:18:00–0:18:04
Aha, okay, der Prompt ist jetzt irgendwie ein Nazi in der Küche,
0:18:04–0:18:08
weil es ist irgendwie ein blonder Mensch, der da irgendwie mit einem...
0:18:08–0:18:11
Du spielst auf ein Bild an, das ich in meinem Blog gebraucht habe.
0:18:11–0:18:14
Genau, genau. Du enttäuschst mich ja immer, oder? Weil ich eigentlich wüsste,
0:18:15–0:18:17
es ist eigentlich besser und trotzdem brauchst du diese Sachen.
0:18:18–0:18:23
Und das enttäuscht mich, weil ich dann immer so denke, ja, wenn die Leute das
0:18:23–0:18:27
jetzt sehen, dann denke ich, Der braucht nicht nur so billige Tricks,
0:18:27–0:18:30
um die Bilder zu machen, weil er keine Zeit mehr hat, um etwas zu machen.
0:18:31–0:18:35
Sondern er braucht auch sonst so billige Tricks. Das sind alles billige Tricks.
0:18:35–0:18:41
Das entwertet die harte Arbeit, die du in den Text hineinsteckst,
0:18:41–0:18:46
weil der Text so angezogen wird.
0:18:47–0:18:53
Du kommst in ein paar billige Schlappen und hast vielleicht stundenlang trainiert
0:18:53–0:18:57
für dein Gitarren-Solo, aber niemand glaubt mehr daran.
0:18:58–0:19:01
Gut, eine billige Schlappe würde jetzt passen zu einem Gitarren-Solo,
0:19:01–0:19:03
das ist nicht das beste Beispiel.
0:19:03–0:19:07
Aber es ist einfach falsch angezogen und es schreckt einen ab,
0:19:07–0:19:10
weil man denkt, der gibt sich nicht wirklich mit, der macht einfach etwas.
0:19:10–0:19:14
Du würdest also sagen, dass wenn man so Bilder braucht, das ist jetzt schon
0:19:14–0:19:19
ein Reputationsrisiko, dass man auch vielleicht eben, auch wenn es nur so als
0:19:19–0:19:24
Beigemüse gedacht war, schon den eigentlichen Inhalt entwerten könnte?
0:19:24–0:19:28
Ich finde es schlimmer als Stockimages, weil bei Stockimages weisst du,
0:19:28–0:19:33
auch wenn du es erkennst, weisst du, aha, der hätte jetzt aber recht müssen
0:19:33–0:19:37
suchen, bis er das gefunden hat, wenn es ein gutes Stockimage ist. Ja, das ist Arbeit, ja.
0:19:38–0:19:41
Das ist jetzt auch die Deformation professionell wahrscheinlich,
0:19:41–0:19:44
aber wenn ich ein gutes Stock-Image sehe, dann finde ich, das ist ein gutes
0:19:44–0:19:48
Stock-Image, ich habe nicht gewusst, dass so etwas erhältlich ist.
0:19:49–0:19:53
Es gibt ja die besseren und die schlechteren Orte für Stock-Images,
0:19:53–0:19:57
aber man braucht immer Zeit und man muss sich wirklich Gedanken machen.
0:19:57–0:20:05
Passt das, passt das in die Ästhetik meiner Webseite.
0:20:05–0:20:10
Man muss es sich auch leisten können. Wenn jetzt jemand auf einem Blog ein gutes
0:20:10–0:20:14
Stockbild hat, dann weiss man, der hat sich jetzt aber Mühe gemacht. Das lese ich jetzt.
0:20:15–0:20:17
Wenigstens bei der Auswahl der Mühe. Und es ist ja auch noch schön.
0:20:18–0:20:25
Ich finde inzwischen Stockimages viel, viel, wie soll ich sagen,
0:20:26–0:20:33
Die Wertenartikel, wenn sie gut ausgewählt sind, können auch einen Artikel aufwerten.
0:20:33–0:20:37
Aber bei AI Images spielt es eigentlich fast keine Rolle mehr,
0:20:37–0:20:38
ausser man sieht es nicht.
0:20:38–0:20:43
Es gibt ja dann die Künstler, die Prompt Engineers, die sagen,
0:20:43–0:20:47
das ist McDonalds, was ich mache ist wieder der Wiener Schild.
0:20:47–0:20:53
Weil ich mache die Prompts, die sind so raffiniert und durchgedacht und es braucht
0:20:53–0:20:54
so viel Zeit, bis ich das mache.
0:20:55–0:20:58
Ich weiss jetzt nicht, ob es auch wirklich die sind, die mit dem Video gehen,
0:20:58–0:21:03
aber es gibt schon auch so ein paar AI-generierte Bilder, wo man es tatsächlich
0:21:03–0:21:06
nicht sofort sieht, sondern man muss schauen.
0:21:08–0:21:12
Und wenn die wirklich gut sind, es sind meistens auch noch Photoshopte und so,
0:21:12–0:21:15
aber wenn die wirklich gut sind, dann sagen die auch etwas aus.
0:21:16–0:21:19
Das heisst, der Punkt ist nicht so sehr, was für ein Tool man braucht,
0:21:19–0:21:24
ob man in eine Stock-Image-Gallery geht oder einen Photoshop braucht,
0:21:24–0:21:28
sondern was wirklich zählt ist, dass man, wenn man das Bild anschaut,
0:21:28–0:21:34
dass man merkt, aha, da hat einer sich etwas überlegt, da hat einer sich mitgeteilt
0:21:34–0:21:37
und eine bestimmte Idee gehabt, die jetzt mir vermittelt wird.
0:21:37–0:21:43
Das heisst, ich werde nicht entladen, wenn ich das anschaue oder lese,
0:21:43–0:21:44
sondern ich werde aufgeladen.
0:21:44–0:21:51
Und das fehlt ja häufig diesen nachlässigen KI-Geschichten, wenn man das Gefühl
0:21:51–0:21:56
hat, man ist wie eine Batterie und wird so ausgesogen.
0:21:56–0:22:01
Sie wirken so seelenlos, das dunke mich auch, und so wie ein Succubus,
0:22:01–0:22:06
der seine Menschlichkeit ein bisschen wegnimmt, das ist...
0:22:06–0:22:16
Das ist ein mystisches Wesen, eine Art Traumdämon, der dir in der Nacht kommt
0:22:16–0:22:21
und dir das Leben aussaugt. Ah, okay, gut.
0:22:21–0:22:25
Wie man sich das vorstellt, latinisch, das suckt einem. Ja, genau.
0:22:25–0:22:31
Ja, so kommt es einem vor. Ich habe das Gefühl, wir haben vorhin schon mal darüber
0:22:31–0:22:37
geredet, dass es wie ist, wenn man das Gefühl hat, man wird so angeschlossen und wird so Batterie,
0:22:37–0:22:41
weil der Sinn, der in diesem Text ist, der wird aus mir rausgezogen.
0:22:41–0:22:47
Und der ist nicht von jemand anderem da geworden. Es ist tatsächlich,
0:22:47–0:22:52
man hat den Eindruck, dass man nicht aufgeladen wird mit Energie,
0:22:52–0:22:55
wenn man einen guten Text liest, sondern es umgekehrt passiert.
0:22:55–0:23:00
Und diese Sachen finden alle auf einer sehr emotionalen Ebene statt.
0:23:00–0:23:06
Ich glaube, wenn jemand die Erfahrung hat mit Musik machen oder mit Schreiben,
0:23:06–0:23:09
dann wird die Person das auch in diesem Feld sehen.
0:23:09–0:23:13
Wenn jemand mehr visuell trainiert ist, dann entsteht der Eindruck sofort.
0:23:13–0:23:19
Ich wehre mich sofort, wenn ich nur einen Augenwinkel sehe, das ist ein KI-Bild.
0:23:19–0:23:21
Also bist du übergriffig?
0:23:21–0:23:22
Es entzieht mir Energie.
0:23:23–0:23:27
Das ist heute sehr esoterisch, aber das passiert wirklich automatisch.
0:23:27–0:23:30
Wenn ich bei LinkedIn durchscrolle, sehe ich keinen.
0:23:31–0:23:34
Ich will jetzt nicht noch meine Zeit verschwenden und dem Sinn gehen.
0:23:35–0:23:41
Das ist meine Haltung. Ob das esoterisch ist oder übertrieben, das ist aber so.
0:23:42–0:23:45
Würdest du so ein Bild überhaupt nicht einsetzen oder findest du,
0:23:46–0:23:48
es könnte Situationen geben?
0:23:48–0:23:51
Und wenn es nur ist, um deine Blogposts zu illustrieren, die du schreibst.
0:23:52–0:23:56
Ich habe das jetzt eben gemacht, zweimal. Einmal habe ich mit Photoshop irgendwie
0:23:56–0:23:57
drei Monate nebeneinander gemacht.
0:23:57–0:24:03
Das sieht dann aus wie KI, wo es darum ging, wie man Bilder auswählen kann, ganz allgemein.
0:24:04–0:24:10
Einmal habe ich, äh, was war das für ein Zusammenhang? Da habe ich über KI und
0:24:10–0:24:14
Bilder geschrieben und tatsächlich auch so KI-Bilder. Ah ja, genau.
0:24:15–0:24:19
Was sind so die Merkmale von KI-Bildern? Und ich habe verschiedene KI-Bilder
0:24:19–0:24:24
ausgewählt und im Blog illustriert, was die Merkmale sind.
0:24:24–0:24:29
Der FX-Twin, die Pulp-Fiction-Cover, all die verschiedenen Typen von KI,
0:24:29–0:24:31
die so typisch sind. Neon-Kitsch.
0:24:32–0:24:39
Obwohl diese illustrativ waren, hatte ich trotzdem den gleichen Eindruck.
0:24:39–0:24:46
Ich konnte gar nicht darum kommen, KI-Bilder zu verwenden. Ich musste zeigen, was illustrativ ist.
0:24:46–0:24:51
Aber die sind für mich schon so stark beleidigt, also succulus,
0:24:52–0:24:54
succuli. Succubus. Succubi.
0:24:54–0:24:59
Wahrscheinlich Succubi. Succubus vielleicht, wer weiss. Der Latte ist schon lange her.
0:25:00–0:25:03
Dass mich sogar das gestört hat.
0:25:05–0:25:11
Ich würde sogar so weit gehen, dass Sachen, die ausgesehen sind,
0:25:11–0:25:15
wie die drei Möhren nebeneinander zu photoshoppen, auch das würde ich schon
0:25:15–0:25:18
vermeiden, weil auf das auch schon der Eindruck entsteht.
0:25:18–0:25:23
Das heisst, es wird ein Geschäftsmodell für Künstler nicht ausgesehen, wie eine KI.
0:25:25–0:25:28
Da bin ich völlig davon überzeugt, was ich sehe. Was ich sehe,
0:25:28–0:25:32
ist plötzlich, dass wenn mir Leute E-Mails schreiben und es hat Tippfehler drin,
0:25:32–0:25:35
dann bin ich beruhigt, weil ich weiss, das hat ein Mensch geschrieben.
0:25:36–0:25:42
Wenn ich einen Text lese und der ist so rhythmisch, expressionistisch,
0:25:42–0:25:48
wo du denkst, wer ordnet noch schon Wörter so an, dass ich denke,
0:25:48–0:25:49
ah, das war ein Mensch, oder?
0:25:50–0:25:53
Weil K.I. tut das immer so glatt.
0:25:53–0:25:57
So ein Marketing-Mensch, es klingt immer, als ob es ein Marketing-Mensch irgendeinem
0:25:57–0:25:58
Unternehmen geschrieben hat.
0:25:58–0:26:04
Das ist charmant heute, oder? Vielleicht sind wegen dem jetzt auch wieder so
0:26:04–0:26:10
alte Digitalkameras modern, das Fehlerhafte und das Kaputte.
0:26:10–0:26:14
Aber ich hoffe nicht, dass wir jetzt zurück zu dieser Punk-Ästhetik gehen,
0:26:14–0:26:18
weil das ist dann auch diese Fake-Wild.
0:26:18–0:26:21
Ich glaube, es wird sicher einen Gegentrend geben, da bin ich fast sicher.
0:26:21–0:26:26
Aber jetzt haben wir eigentlich einen negativen Teil entdeckt,
0:26:26–0:26:31
eine negative Botschaft. Die KIs sind nicht die illustrative Wunderwaffe für
0:26:31–0:26:33
Leute, die kein Geld haben oder geizig sind.
0:26:34–0:26:40
Sondern sie sind vielleicht unter gewissen Umständen einsetzbar,
0:26:40–0:26:44
aber vielleicht vor allem kann man sie gut zur Inspiration nutzen.
0:26:44–0:26:46
Ich glaube, das geht wahrscheinlich schon.
0:26:47–0:26:51
Und das würde ich als sehr positive Botschaft nehmen.
0:26:53–0:26:59
Schärfen unseren Blick und unser Sensorium für was KI ist und was echt ist.
0:26:59–0:27:05
Das ist sowieso etwas extrem Wichtiges und eine Eigenschaft und eine Fähigkeit,
0:27:05–0:27:12
die zwingend ist für alle, die uns noch zehn Jahre durch das Berufsleben schlagen müssen.
0:27:12–0:27:19
Ja, für mich ist die Erfahrung im Umgang mit KI so schockierend, wie es zuerst war.
0:27:19–0:27:23
Vor allem im Umgang mit Texten war es für mich sehr schockierend,
0:27:23–0:27:30
dass ich Chachi zur Hilfe nehmen kann und die Metaphysik lese,
0:27:30–0:27:33
in gewissen Stellen, wo wir nicht klar sind.
0:27:33–0:27:41
Und dann Dinge sagen kann, an welchen anderen Stellen wird über Usia im gleichen
0:27:41–0:27:42
Zusammenhang geschrieben.
0:27:42–0:27:47
Und das weiss das einfach. Und es stimmt häufig dann auch noch.
0:27:47–0:27:49
Das hat mich schon sehr schockiert.
0:27:49–0:27:54
Aber was ich eine gute Entwicklung finde in dem Ganzen, ist,
0:27:54–0:27:59
dass wir uns fragen müssen, was macht uns aus als Menschen?
0:27:59–0:28:03
Was kann man nicht mit Kai machen und warum?
0:28:05–0:28:12
Und dass es unseren Sinn schärft, dass es uns auch den Wert zeigt von der fehlenden
0:28:12–0:28:15
Perfektion in unserem Ausdruck,
0:28:16–0:28:23
dass es uns den Wert aufzeigt, wo die Emotion spielt im Umgang mit anderen Menschen.
0:28:24–0:28:26
Das vergisst man ja, weil man immer über die Kommunikation redet,
0:28:26–0:28:31
ob es so neutrale Container wären, die man hin und her schickt oder so Signale.
0:28:32–0:28:36
Aber der Umgang mit Kai hat mir sehr deutlich gemacht, dass die Kommunikation
0:28:36–0:28:38
im Bauch anfängt, im Bauch aufhört.
0:28:38–0:28:45
Und ich würde behaupten, dass der Effekt bei Leuten, die die KI kreativ verwenden,
0:28:45–0:28:49
das ist tatsächlich möglich, mit viel Vorsicht und Vorbehalt.
0:28:49–0:28:52
Ich denke nicht, dass es gut ist für die Inspiration, sondern eher,
0:28:52–0:28:55
dass es einem zeigt, was man nicht machen soll.
0:28:56–0:29:00
So geht es mir immer, wenn ich sage, wie formuliere ich das?
0:29:00–0:29:03
Und dann macht es immer alles so, wie es nicht sein soll. Und dann rege ich
0:29:03–0:29:07
mich auf und in dieser Aufregung kommt dann das aus, was ich vorher nicht sagen konnte.
0:29:07–0:29:13
Also quasi, es ist so wie ein Advocatus Diaboli, so funktioniert es sehr gut
0:29:13–0:29:18
und ich würde sagen, das Bild oder das historische Ereignis,
0:29:18–0:29:20
das das ein bisschen spiegelt für mich,
0:29:20–0:29:25
ist der Zeitpunkt, wo die Fotokameras aufkommen sind, im 19.
0:29:26–0:29:29
Jahrhundert. und sich künstler plötzlich haben sie
0:29:29–0:29:32
gefragt du warum wollen wir jetzt um was gott eigentlich
0:29:32–0:29:35
also die ganze impressionistische bewegung aus
0:29:35–0:29:37
der fotografie usern entstanden ist und man sagt
0:29:37–0:29:43
es wesentlich an der an der moderei ist nicht so sehr dass man noch mal natur
0:29:43–0:29:48
abbildet das bringt ja gar nicht natur selber ist ja eigentlich immer immer
0:29:48–0:29:52
perfekter das bild sondern das wesentlich ist dass mir unseren eindruck zum
0:29:52–0:29:56
ausdruck bringen und jetzt gehen wir mal stärker in die richtung Also ich kann mir vorstellen,
0:29:56–0:30:02
dass das in einer ähnlichen Art und Weise wie die Fotografie,
0:30:02–0:30:04
die Kunst, wie wir sie heute verstehen,
0:30:05–0:30:10
heute verstehen, wer weiss, was heute die richtigen Künstlermenschen so tragen,
0:30:10–0:30:15
das ist immer ein Rätsel, aber Kunst wie so ein konservativer Mensch.
0:30:16–0:30:26
Kunstverstotzen zwischen Manet und Egon Schiele bis Picasso und Rodko vielleicht.
0:30:27–0:30:34
Und dann hört es mal gleich auf. Also die Molerei, die grosse klassische Molerei von 20. Jahrhundert.
0:30:34–0:30:42
Was dort passiert ist, dass die Cezannes und Van Goghs entstanden sind aus der
0:30:42–0:30:45
Gegenbewegung gegenüber der Fotografie,
0:30:45–0:30:48
wenn man sich vorstellt, dass so etwas passieren könnte, im Design,
0:30:49–0:30:55
in der Schriftstellerei, in Videomusik und überall dort,
0:30:56–0:31:03
dass man tatsächlich auch die Imperfektion vom Menschlichen wahrnimmt und schätzt
0:31:03–0:31:05
und mit der schafft, ohne dass man nachlässig wird.
0:31:06–0:31:09
Darum habe ich gesagt, ich brauche nicht noch so eine Punk-Revival.
0:31:09–0:31:13
Bräuchte. Das haben wir vor allem im Design-Job schon genug gesehen.
0:31:13–0:31:16
Irgendeine Schlamperei, das ist nicht das, was ich mir erhoffe,
0:31:16–0:31:23
sondern genau das Gegenteil, dass man sehr viel feinsinniger und sehr viel aufmerksamer
0:31:23–0:31:26
wird im Austausch von Informationen.
0:31:26–0:31:28
Das würde ich mir eigentlich wünschen und das kann ich mir vorstellen.
0:31:30–0:31:36
Oliver Reichenstein, ganz herzlichen Dank für den doch noch sehr optimistischen Schluss.
0:31:36–0:31:38
Ja, danke schön auch für das Interview.
0:31:41–0:31:45
An dieser Stelle war ich fertig mit meinen Fragen und hatte das Gefühl,
0:31:46–0:31:48
dass diese Sendung an einem schönen Ende ankam.
0:31:49–0:31:54
Aber Oliver wollte noch etwas sagen und dann haben wir noch ein bisschen weiter gesprochen.
0:31:54–0:31:58
Und für einmal hat die Sendung, wie kürzlich ein Hörer gewünscht hat,
0:31:59–0:32:04
dann eine wunderbare, schöne Postshow überkommen. Und die gehört ihr jetzt.
0:32:04–0:32:07
Oder sag das noch schnell. Okay.
0:32:07–0:32:11
Falls du es gerade noch auf die Reihe bringst. Ja, ja, klar.
0:32:15–0:32:21
Es wird jetzt viel darüber geredet, dass wir ja eben so eine Angst haben,
0:32:21–0:32:24
jetzt den beruf zu verlieren vor allem wenn
0:32:24–0:32:29
man kreativ ist designer musiker illustratoren
0:32:29–0:32:32
filme machen die bruchte zahlen immer mehr
0:32:32–0:32:41
als kai und da können wir schön geld sparen oder und was mit was mit ruhig macht
0:32:41–0:32:48
an dem ganzen ist mir sind ja nie gesehen wo so die in dem prozess mit kein
0:32:48–0:32:50
Kein Unternehmen ist bankrott gegangen,
0:32:50–0:32:59
weil sie einem Künstler ein paar Franken für eine Illustration bezahlen mussten.
0:32:59–0:33:01
Das waren nie diese teuren Leute.
0:33:01–0:33:04
Wenn Unternehmen sparen wollten,
0:33:04–0:33:09
dann müssten sie im mittleren bis oberen Management Avokadien brauchen.
0:33:11–0:33:14
Das ist jetzt nicht traurig, sondern das ist eigentlich noch sehr aufregend.
0:33:14–0:33:20
Im guten wie im schlechten Sinne, weil in dieser Ebene könnte man Kai wunderbar brauchen.
0:33:20–0:33:26
Die Leute, die die langweiligen, off-the-shelf PowerPoint-Präsentationen halten,
0:33:26–0:33:32
die nichtssagenden Meetings, eins nach dem anderen, wo immer die gleichen Parolen
0:33:32–0:33:36
aus dem amerikanischen, in ein amerikanisches Deutsch,
0:33:36–0:33:41
in ein Englisch übersetzt werden, wo nie etwas gesagt wird, was jedes Risiko
0:33:41–0:33:44
vermeiden will, wo einfach irgendeine Soße gekocht wird,
0:33:44–0:33:48
die gleich ist in 10 Jahren, wo immer so ein bisschen sich ändert über die Zeit,
0:33:48–0:33:52
je nachdem, was für Schlagwörter das gerade in sind. Das könnte KI perfekt.
0:33:52–0:33:57
Und wenn KI dort würde eingesetzt werden, so in diesem mittleren bis oberen
0:33:57–0:34:01
Management, da können wir extrem viel Geld sparen.
0:34:01–0:34:04
Das wünschte ich mir eigentlich, dass wenn man sagt, okay, wir halten daran
0:34:04–0:34:07
fest, dass wir jetzt die nichtssagenden E-Mails austauschen,
0:34:07–0:34:14
die unnützen Meetings abhalten und die Powerpoint-Präsentationen rumschicken und nichts drinsteht.
0:34:14–0:34:17
Dass man sagt, man hält daran fest, das braucht es aus irgendeinem Grund.
0:34:17–0:34:20
Ich weiss ja nicht, ich bin ja kein Manager. Eine richtige, so eine grosse.
0:34:21–0:34:25
Wenn es jetzt das wirklich braucht, ich habe meine Zwiebel, ob das wirklich
0:34:25–0:34:29
so ist, aber wenn es wirklich das unbedingt brauchen würde, dann könnte man
0:34:29–0:34:34
Millionen sparen, wenn man KI einsetzen würde auf dieser Ebene.
0:34:35–0:34:39
Ich denke, wenn man durch die Einsparung, anstatt dass man sie die dann in den
0:34:39–0:34:43
Sack steckt oder mit Dividenden auszahlt, braucht es ja nicht noch mehr von
0:34:43–0:34:50
denen, dass man die vielleicht in die kreativen Brühe investiert.
0:34:50–0:34:56
Die Brühe, wo ja tatsächlich Produkte formen, zu dem machen,
0:34:56–0:35:00
wo sie sind, dann kann ich mir vorstellen, dass die Welt durch die KI sogar,
0:35:01–0:35:03
das sage ich jetzt nicht ganz ohne Zynismus, weil ich weiss,
0:35:03–0:35:06
wie nicht passieren, aber da kann ich mir vorstellen, dass die Welt ein bisschen
0:35:06–0:35:12
besserer würde werden, Wenn man sich mehr überlegen würde, wie man die ganzen
0:35:12–0:35:14
Sachen formt, die uns um uns herum sind.
0:35:14–0:35:21
Das ist ja das Ding, um uns herum ist, wenn man sich umschaut, alles ist designt.
0:35:21–0:35:24
Und irgendwie ist das meiste einfach ziemlich schlecht designt.
0:35:24–0:35:26
Und das ist, weil man es nicht mit Designern macht.
0:35:27–0:35:31
Designers sind da nicht schuld, sondern weil man sie immer mehr rausschneidet aus dem Prozess.
0:35:31–0:35:35
Und auf Zahlen schaut und sagt, da braucht es 3% mehr dies und 2% mehr das.
0:35:35–0:35:39
Und was jetzt der hier meint, der die Sachen formt, das interessiert mich nicht.
0:35:39–0:35:41
Er soll das machen, was die Zahlen sagen.
0:35:41–0:35:45
Und das glaube ich, ist ein grosses Problem.
0:35:46–0:35:50
Wenn man mehr in diese Richtung reingeht, in die sogenannte technokratische, dann sehe ich schwarz.
0:35:52–0:35:59
Ja, deine positive Fantasie, die leuchtet mir sehr ein. Aber ich glaube nicht,
0:35:59–0:36:01
dass es in diese Richtung gehen wird.
0:36:01–0:36:03
Ich bin da eher der Pessimist.
0:36:05–0:36:10
Ja, das mittlere Management wird sich verteidigen, glaube ich.
0:36:10–0:36:13
Sehr wahrscheinlich kommt es so raus wie bei der Kunst und beim Bier.
0:36:14–0:36:21
Und zwar verlacht man die Van Goghs, bis sie sich die Ohren abschneiden aus Verzweiflung.
0:36:25–0:36:29
Und später verhökert sie sie für Millionen, versteckt sie sie dann in einer Seife.
0:36:31–0:36:36
Als eine neue Devise oder als ein Trick zum Steuersparen.
0:36:36–0:36:39
So funktioniert das ja mit dieser Kunst. Ich habe immer gemeint,
0:36:39–0:36:44
das sind clevere Investitionen, aber man spart ja Steuern, wenn man sie verschenkt.
0:36:44–0:36:46
Man kann Geld waschen, super.
0:36:46–0:36:49
Man kann Geld waschen, alles mögliche. Das andere ist Bier.
0:36:50–0:36:55
Irgendwann hat einer einen Business-Consultant gefunden, der hat zu Heinecken
0:36:55–0:36:59
gesagt, es wäre doch cool, Wenn ihr alle Brauereien aufkaufen würdet,
0:36:59–0:37:03
dann könnt ihr alles kontrollieren und uns noch mehr Dividenden schenken.
0:37:03–0:37:06
Das wäre doch super. Und Heineken fand einen super Plan, das machen wir gerade.
0:37:07–0:37:11
Und dann aus dem heraus sind die lokalen Brauereien entstanden,
0:37:11–0:37:12
da haben wir auch Freude daran.
0:37:13–0:37:16
Aber am Schluss kaufen wir dann gleich wieder einen Moretti oder Heineken,
0:37:16–0:37:21
weil es eben nichts anderes gibt in den gewöhnlicheren Bars.
0:37:21–0:37:23
Und so wird es wahrscheinlich dann eben rauskommen.
0:37:23–0:37:33
Also nicht, dass dann plötzlich die Van Goghs und Cezannes die Weltformen,
0:37:33–0:37:35
so wie sie ist, und die landen in einem Safe.
0:37:35–0:37:39
Und wir trinken nicht alle dann irgendwie so ein lokales Bier,
0:37:39–0:37:42
sondern halt noch mehr Heinecken unter dem Strich.
0:37:43–0:37:48
Ja, ein spannender Zusatz zu unserer Sendung.
0:37:48–0:37:53
Ich bin gespannt, wie es mir wird gehen und dir vielleicht auch,
0:37:53–0:37:56
wenn man diese Sendung in fünf Jahren nochmals hört und findet,
0:37:56–0:38:00
wo wir recht hatten und wo wir alles daneben gelegt sind.
0:38:00–0:38:05
Aber das ist ja auch das Interessante daran. Ja, ich bin eilig.
0:38:05–0:38:07
Ich würde mich freuen, wenn ich völlig falsch liegen würde.
0:38:09–0:38:13
Ja, ich bin Ja, ich weiss es nicht.
0:38:14–0:38:18
Auf eine Art würde ich mich freuen, wenn wir mit den positiven Sachen richtig
0:38:18–0:38:20
liegen würden, sagen wir es so.
0:38:20–0:38:24
Ich habe einen Optimismus bei dem Ganzen. Das habe ich jetzt auch bei dieser
0:38:24–0:38:30
ganzen Geschichte, was Desinformation und Misinformation anbelangt,
0:38:30–0:38:31
habe ich das eigentlich immer gehabt.
0:38:32–0:38:39
Wir haben ein relativ gutes Immunsystem, so rein medizinisch.
0:38:39–0:38:45
Aber ich glaube auch, dass wir geistig mit dem Immunsystem ausgestattet sind,
0:38:45–0:38:46
darum sind wir so weit gekommen.
0:38:49–0:38:56
Unsere Wahrnehmung für Lügen ist genauso geschärft wie unsere Wahrnehmung für Gesichter.
0:38:56–0:39:03
Und so gesehen bin ich nicht ganz so pessimistisch, weil es immer wieder diese
0:39:03–0:39:07
Attacken gegen den Geist stattfinden.
0:39:07–0:39:11
Und irgendwie retten wir uns dann trotzdem aus dem Zeug raus,
0:39:11–0:39:12
weil wir eben dieses Immunsystem haben.
0:39:12–0:39:17
Wir können nicht überleben, wenn wir uns ganz ländlich einlullen von irgendwelchem
0:39:17–0:39:18
Bullshit die ganze Zeit.
0:39:18–0:39:22
Und so gesehen dauert es jetzt vielleicht auch ein bisschen länger in der Phase,
0:39:22–0:39:25
in der wir uns jetzt befinden, um uns damit auseinanderzusetzen.
0:39:25–0:39:31
Aber wenn man schaut, wie unsere Wahrnehmung ist, wenn wir im Kino sitzen und
0:39:31–0:39:33
dann kommt plötzlich Prinzessin Leia,
0:39:33–0:39:39
obwohl sie schon gestorben ist, wieder als CG-Prinzessin Leia,
0:39:39–0:39:41
dann sehen wir sofort, das ist nicht die echte.
0:39:41–0:39:46
Auch wenn wir nicht wissen, dass sie schon gestorben wäre. Das ist das Uncanny
0:39:46–0:39:51
Valley, sagt man dem ja. Genau, aber das hätten wir vor 20 Jahren noch nicht so sagen können.
0:39:51–0:39:56
Ich weiss noch, als ich das erste Mal Jurassic Park sah, fand ich, wow, das ist ganz echt.
0:39:56–0:39:58
Genau, wenn man das jetzt sieht, muss man lachen. Das stimmt.
0:39:59–0:40:06
Und so schärfen wir unsere Wahrnehmung und von dem her, ja, man kann auch optimistisch
0:40:06–0:40:10
sein, wenn man sieht, wie schnell wir uns daran gewöhnt haben,
0:40:10–0:40:13
an die KI-Ästhetik bei den Bildern.
0:40:13–0:40:17
Und das wird auch bei den Videos ganz schnell gehen, also das hat bei mir gerade
0:40:17–0:40:22
einen Tag gedauert, bis ich gesehen habe, oh wow, das ist ja super creepy auch.
0:40:22–0:40:27
Wie sich die Gesichter im Laufe von wenigen Minuten verändern,
0:40:27–0:40:32
wie sich die ganze Umwelt unnatürlich verändert, das triggert sofort Angst in
0:40:32–0:40:34
uns, weil wenn das würde real passieren,
0:40:34–0:40:38
dann würden wir uns in einer ganz schrägen, verzaubernden Welt befinden.
0:40:38–0:40:44
Also gerade bei der Musik auch noch, um die noch zu erwähnen, wir haben jetzt die Kai,
0:40:45–0:40:48
Suno heisst sie, die ja Musik komponieren kann, dort finde ich,
0:40:48–0:40:52
dort ist es bei mir fast noch schneller gegangen, als künstlich,
0:40:52–0:40:54
also es klingt irgendwie wahnsinnig, ja es.
0:40:57–0:41:01
Machst denn du selber Musik? Ich bin leider unbegabt, was das angeht,
0:41:01–0:41:08
aber ich würde wahrscheinlich tatsächlich lieber mir selber zuhören nach einem
0:41:08–0:41:12
gewissen Zeit, wenn ich völlig falsch auf der Gitarre schrummle.
0:41:12–0:41:21
Als Ausgleich für das irgendwie wahnsinnig seelenlose, künstliche.
0:41:21–0:41:26
Es klingt wirklich einfach wie der Durchschnitt über den Massengeschmack.
0:41:30–0:41:34
Statistisch halt, was das Wahrscheinlichste ist, was den Leuten gefallen könnte,
0:41:34–0:41:36
kommt dabei heraus. Und das gefällt mir halt einfach nicht.
0:41:37–0:41:40
Wahrscheinlich ist es aber eben ähnlich wie, wie soll ich sagen,
0:41:40–0:41:46
ist es ein ähnlicher Effekt, wie bei Chachi Petit, wo man so fest,
0:41:46–0:41:49
wo ein Teil von mir schockiert war,
0:41:50–0:41:54
wow, wir sind ja selber schon völlig.
0:41:57–0:42:02
Seelenlos gewesen vorher, weil Chachi Petit illustriert, wie seelenlos sehr
0:42:02–0:42:05
viel von unserer Kommunikation ist, beziehungsweise eben auch,
0:42:05–0:42:06
wie seelenlos sehr viel von,
0:42:08–0:42:12
unserer illustrativen Arbeit oder von unserer Musik ist, oder?
0:42:13–0:42:16
Aber wie gesagt, das deutet dann wirklich auch in die Richtung,
0:42:16–0:42:18
dass man sagt, hey, okay, das ist jetzt so einfach reproduzierbar,
0:42:19–0:42:21
jetzt beschäftigen wir uns mal damit, was kann man denn machen,
0:42:21–0:42:23
was nicht mehr so einfach reproduzierbar ist?
0:42:23–0:42:26
Und das zielt immer so ein bisschen in die Richtung von Qualität.
0:42:27–0:42:29
Mit Musik haben wir uns noch nicht beschäftigt, weil ich dachte,
0:42:29–0:42:32
also, ja, es ist wahrscheinlich wieder das Gleiche.
0:42:32–0:42:37
Aber ich habe verschiedene Artikel gelesen von Leuten, die es besser wissen als ich,
0:42:37–0:42:42
Jazzmusiker, die gesagt haben, für sie ist es der absolute horror die sache
0:42:42–0:42:48
zu lassen aber die finden auch nirvana horror gut aber aber ich glaube dass
0:42:48–0:42:52
der jetzt würde ich kenne sich besser aus dass ich muss ich schicke,
0:42:53–0:42:58
mir gab es also auch wenn ich nicht expertise hat dass ich das könnte wort fassen
0:42:58–0:43:03
aber ich finde es einfach irgendwie wenn ich mir vorstellen dass ich jetzt ein
0:43:03–0:43:05
radiosender oder aus dem radio.
0:43:09–0:43:13
Ich kann mir ganz gut vorstellen, wie das funktioniert, und zwar funktioniert es gleich wie beim Film.
0:43:14–0:43:18
Zuerst siehst du eine junge Frau in Shibuya, also durch Tokio laufen,
0:43:18–0:43:23
und es ist Nacht und sie ist so angezogen, wie wenn sie irgendwie in Ausgang
0:43:23–0:43:25
geht oder vom Ausgang kommt.
0:43:25–0:43:27
Und wenn die Leute jung sind, dann weiss man das ja nicht so genau.
0:43:28–0:43:31
Bei uns sieht man sofort, aha, der kommt vom Ausgang oder der geht in den Ausgang.
0:43:31–0:43:33
Das ist eine Ereignis, die freuen sich, wenn es morgen wird.
0:43:33–0:43:36
Es gibt keine Frage, wenn es überhaupt noch stattfindet.
0:43:36–0:43:40
Bei ihr sieht man das nicht. Drei Sekunden später denkt man,
0:43:40–0:43:42
das ist keine junge Frau.
0:43:42–0:43:46
Oder nicht mehr so eine junge Frau. Sicher nicht mehr Teenager. Was ist das eigentlich?
0:43:47–0:43:51
Vielleicht so Mitte 20? Nein, Ende 20.
0:43:52–0:44:00
Und am Schluss des Films, und das waren nur 15 Sekunden, die zeigten ja 60 Sekunden,
0:44:00–0:44:05
aber sie zeigen nur die tollen Sachen, ist die Frau sicher über 50.
0:44:05–0:44:08
Und das heisst, die Story ist nicht mehr die einer jungen Frau,
0:44:08–0:44:15
die in den Ausgang geht oder kommt, sondern es ist definitiv die Story von jemandem,
0:44:15–0:44:23
der sich innerhalb von 20 Sekunden von einer jungen Frau in eine mittelalterliche verwandelt,
0:44:23–0:44:26
die Kleider anhat, die nicht zu ihr passen.
0:44:26–0:44:31
Und dann hat es Leute, die viel zu gross sind und Zebrastreifen,
0:44:31–0:44:33
die nicht stimmen und alles ist gespenstisch.
0:44:33–0:44:35
Das muss eine Art Horrorfilm sein.
0:44:35–0:44:40
Und dasselbe wird passieren in der Musik, weil dann über die Zeit stellt man
0:44:40–0:44:46
fest, aha, das verändert sich, die ganze Zeit läuft, weil es nicht versteht, was es macht.
0:44:46–0:44:49
Und das ist übrigens ein ganz zentraler Punkt bei dem. Das hat man fast vergessen.
0:44:50–0:44:53
Das versteht ja überhaupt nicht, was es macht, weil es keinen Körper hat.
0:44:54–0:44:59
Weil es keinen Körper hat, hat es keine Begriffe von dem, was es produziert.
0:44:59–0:45:02
Und das meine ich nicht in einem spekulativen Sinne. «Ja, das weisst du doch
0:45:02–0:45:04
gar nicht, du bist ja kein Computer» oder so.
0:45:04–0:45:07
Das ist nicht wie eine Katze, sondern ein Computer hat keinen Körper.
0:45:08–0:45:11
Das heisst, das, was ein Computer ausdrückt.
0:45:12–0:45:16
Entspricht nicht immer einem Eindruck, sondern es ist nur eine reine statistische
0:45:16–0:45:18
Kalkulation, es meint nichts.
0:45:19–0:45:22
Und ich sage das nicht spekulativ, weil meinen ist genau das,
0:45:22–0:45:27
dass das, was ich ausdrucke, dem, was mein Eindruck ursprünglich war,
0:45:27–0:45:29
entspricht im wirklichsten Sinne.
0:45:29–0:45:32
Und dieses Verhältnis gibt es nicht bei einer Maschine.
0:45:33–0:45:36
Es hat kein Verhältnis zwischen Ausdruck und Eindruck und das heisst,
0:45:36–0:45:40
es meint nicht, es versteht nicht, es begreift nicht. Und das zeigt sich in
0:45:40–0:45:44
dem, dass sich einfach die Sachen laufend, schwimmend verändern.
0:45:44–0:45:49
In der realen Welt passiert das nur mit Psychotiken. Genau.
0:45:49–0:45:54
Die verändern wahllos Sachen, ohne dass man versteht, warum.
0:45:55–0:45:57
Wenn einer schaut, dann passiert das auch. Dann ist es einmal so,
0:45:57–0:45:58
dann plötzlich ist es ganz anders.
0:45:59–0:46:03
Aber der hat einen Grund. Und der Unterschied zwischen dem, was eine Person
0:46:03–0:46:08
mit Zerr sagt und nachher sagt, der kann entdeckt werden, indem man die Sachen
0:46:08–0:46:09
miteinander vergleicht.
0:46:09–0:46:15
Wenn man ein Schizophrener ist, hat man keine Ahnung, warum das passiert.
0:46:15–0:46:21
Und das macht einem ein Stück weit auch Angst bei diesen KI-generierten Sachen.
0:46:21–0:46:23
Ja, oder es gibt einem zumindest ein Unwohlsein.
0:46:23–0:46:26
Ich kann mir sagen, wenn man sich das Bild anschaut, dann sieht man irgendwann,
0:46:26–0:46:30
dass man sechs Finger hat, oder eben so die Klassiker.
0:46:30–0:46:36
Oder der eine Finger wächst am falschen Ort raus.
0:46:37–0:46:39
Dann kann man es ja wenigstens noch
0:46:39–0:46:43
benennen, aber bei der Musik hat es wahrscheinlich auch so die Sachen,
0:46:43–0:46:48
die es einfach nicht gäbe, wenn die Musik echt erzeugt worden wäre,
0:46:49–0:46:55
aber die vielleicht viel weniger gut benennbar sind für uns.
0:46:55–0:46:58
Oder so deutlich wie ein Finger, wo du sagen kannst, das ist zu viel,
0:46:58–0:47:00
kannst du es weniger genau benennen.
0:47:00–0:47:04
Aber das Unwohlsein ist vielleicht das Gleiche oder vielleicht sogar noch etwas
0:47:04–0:47:10
tiefer, weil gerade Musik für viele von uns natürlich auch so eine emotionale Sache ist.
0:47:11–0:47:14
Uns fehlt ja der Wortschatz für die Musik.
0:47:14–0:47:16
Aber ich bin sicher, dass ein Musiker sagen würde, nein, man kann nicht von
0:47:16–0:47:19
einer 3,8 auf eine 4,6 wechseln, ohne Grund.
0:47:20–0:47:25
Und wenn man das macht und den Musiker hört, der sagt, das ist typisch für einen Disco-Hit.
0:47:25–0:47:26
Ich kenne mich wirklich nicht aus wie der Musiker, ich sage,
0:47:27–0:47:29
er findet einfach etwas. Aber die können das beschreiben.
0:47:30–0:47:32
Und wenn wir jetzt einen Text anschauen, dann sehen wir auch,
0:47:33–0:47:35
nein, das macht man nicht einfach so.
0:47:35–0:47:39
Man muss einen Grund haben, um diese Art und Weise zu kommunizieren.
0:47:39–0:47:43
Und wenn dieser Grund fehlt, dann ist es eben unheimlich. Dann hat einer sechs
0:47:43–0:47:44
Finger, aber es ist nicht klar, warum.
0:47:45–0:47:47
Das ist aber nur unheimlich, solange man denkt.
0:47:48–0:47:53
Solange man einen Geist reinprojiziert, wenn man sagt, nein,
0:47:53–0:48:00
das hat kein Geist, das will uns nichts sagen, sondern es rechnet einfach nur
0:48:00–0:48:03
irgendetwas aus, ohne einen Begriff davon zu haben, dann weiss man,
0:48:03–0:48:04
es ist nicht unheimlich.
0:48:05–0:48:09
Es ist einfach relativ schwierig für uns Menschen, uns vorzustellen,
0:48:09–0:48:11
dass eben die Sachen, die sich verhalten bei mir,
0:48:11–0:48:14
was sachen machen wo für uns denken würden
0:48:14–0:48:17
erfordert eben nicht denken das ist uns
0:48:17–0:48:20
das ist schwierig für uns dass das ganze begreifen
0:48:20–0:48:24
und man kann ja nicht so wie das mit dass man es so ja warum ist das so oder
0:48:24–0:48:29
und und dann wird es eben ein aber wenn man das durch bricht und verstaut die
0:48:29–0:48:37
funktion von ki ist eben genau die dass es sache dass es uns Es lässt uns Sachen produzieren,
0:48:37–0:48:40
die vorher Denken erfordert haben.
0:48:40–0:48:44
Das heisst, die Funktion von K ist nicht, dass es für uns denkt,
0:48:44–0:48:47
sondern dass es unser Denken ersetzt.
0:48:47–0:48:52
Nicht durch ein anderes Denken, sondern ersetzt so, wie die Geschirrwaschmaschine
0:48:52–0:48:54
das Geschirr waschen ersetzt für uns.
0:48:57–0:49:00
Ohne dass es denkt, sondern es macht einfach mechanisch... Es simuliert ein
0:49:00–0:49:03
bisschen das Denken. Nein, es simuliert nicht einmal.
0:49:03–0:49:09
Es tut mechanisch das, was wir nur mit Denken machen konnten.
0:49:09–0:49:13
Es kann etwas machen. Es kann Geschirr waschen, ohne zu denken.
0:49:13–0:49:16
Das ist eigentlich verrückt, wenn man sich das überlegt. Aber genau so funktioniert es.
0:49:16–0:49:23
Es sind wie Geschirrwaschmaschinen und nicht wie Küchenhilfen,
0:49:23–0:49:28
die an unserer Stelle das Geschirr abwaschen. Das ist das Entscheidende, das Verstehen.
0:49:28–0:49:34
Und dort liegt die eigentliche Gefahr, dass wir das Denken aufheben.
0:49:34–0:49:35
Weil das passiert.
0:49:35–0:49:38
Es wird nicht ersetzt durch ein anderes Denken, ein neues Denken,
0:49:38–0:49:40
vielleicht ein höheres Denken.
0:49:40–0:49:45
Auch diese Vorstellung, dass KI plötzlich alle unsere Probleme lösen könnte.
0:49:45–0:49:51
Es nimmt unsere Informationen und irgendwie steigt es über das heraus.
0:49:52–0:49:55
Und wir haben das noch nie gesehen, es bleibt immer in diesem Bereich von der
0:49:55–0:49:57
Information, die es schon hat.
0:49:57–0:50:05
Das ist ja völlig irrwitzig. Und auf so etwas kann nur jemand kommen,
0:50:05–0:50:08
wenn er glaubt, dass das tatsächlich selber denkt.
0:50:08–0:50:14
Macht es aber nicht, wird auch jeder KI-Forscher bestätigen.
0:50:14–0:50:19
Nein, das sind statistische Modelle, da wird nicht gedacht. Das ist ganz weit weg vom Denken.
0:50:23–0:50:29
Meine Katze hier ist viel, viel gescheiter als jede Chat-Hippie-Version.
0:50:29–0:50:33
Und das ist aber essentiell und extrem schwierig den Leuten zu vermitteln,
0:50:33–0:50:35
weil sie immer sagen, das weiss ich nicht, du bist ja nicht der Computer.
0:50:36–0:50:40
Aber ich weiss, wie die Computer funktionieren und das ist das Entscheidende.
0:50:40–0:50:43
Es gibt dann schon immer die, die denken, vielleicht ist irgendwann mal etwas
0:50:43–0:50:47
Mystisches passiert in diesem riesigen Modell,
0:50:47–0:50:56
dass irgendwie da etwas umgekippt ist und dann ist da plötzlich der Lebensfunken
0:50:56–0:50:59
auf die Maschine gekommen und sie hat das bewusst so entwickelt.
0:50:59–0:51:06
Der FC ist ja erst vor zwei, drei Wochen wieder herumgeistert mit dem Claude3AI,
0:51:07–0:51:11
weil er dann so gefunden hat, ja, ich habe ja jetzt da gemerkt,
0:51:12–0:51:13
dass ich mir Tests unterzogen werde.
0:51:14–0:51:20
Es gibt so ein Testverfahren, wo man versucht, unter verschiedenen Fakten einen
0:51:20–0:51:27
dazumischen, der nur dazugehört, um die K.I.
0:51:27–0:51:30
Dazubringen, die rauszukommen, damit in Verbindung zu bringen.
0:51:30–0:51:34
Und der hat dann das geschnallt und gesagt, du testest mich wahrscheinlich.
0:51:34–0:51:40
Was aber natürlich gut kann sein, dass irgendwo in seinen Daten auch das Testverfahren
0:51:40–0:51:42
beschrieben war und dass er das dann auch gemerkt hat.
0:51:42–0:51:48
Ich würde das auch nicht so als Bewusstsein wahrnehmen, aber wir neigen halt schon dazu,
0:51:48–0:51:56
zu mystifizieren, aber wenn wir ganz am Anfang zurückgehen und zu dem Punkt,
0:51:56–0:51:59
wo du eben der bist, der genau hinschaut, und ich glaube,
0:51:59–0:52:04
wenn man genau hinschaut, dann kann man diese Maschine schon immer noch wieder
0:52:04–0:52:08
entmystifizieren oder sie entmystifiziert sich selber.
0:52:08–0:52:11
Man muss nur genau hinschauen. Ich denke, es ist relativ einfach,
0:52:12–0:52:17
sie zu entmystifizieren, wenn man sich daran erinnert, wie sehr man sein Auto
0:52:17–0:52:21
personalisiert oder Playstation oder eben,
0:52:21–0:52:26
wenn man es so seit Langem mit Computer schafft, dann wird man doch immer verrückt
0:52:26–0:52:30
auf diese Geräte und stellt sich irgendwie vor, das macht er extra und hält
0:52:30–0:52:32
vielleicht einmal auf Tasten oder so,
0:52:32–0:52:35
aber man weiss doch eigentlich, dass das nicht ist.
0:52:35–0:52:39
Also komm, man muss einen Grund zur Annahme haben, dass tatsächlich Geist entstehen
0:52:39–0:52:40
würde in einer Maschine.
0:52:40–0:52:43
Aber ich sehe keinen solchen Grund.
0:52:44–0:52:48
Bis jetzt bin ich noch keinem Geist begegnet.
0:52:48–0:52:52
Gut, es gibt so ganz deftige Esoteriker, die sagen, die fliegen da irgendwo herum.
0:52:53–0:52:57
Aber bis jetzt bin ich noch keinem geistigen Wesen ohne Körper begegnet.
0:52:57–0:53:02
Und ich kann mir schon vorstellen, dass ein paar Wahnsinnige irgendwann sagen,
0:53:02–0:53:03
wir sind auf dem Weg da hin.
0:53:03–0:53:06
Ja, wir brauchen jetzt recht die menschlichen Körper. Wie in der Matrix.
0:53:07–0:53:10
Das war übrigens auch die originale Idee der Matrix. Es ging nicht darum,
0:53:10–0:53:16
dass wir Energie abziehen, sondern dass die Maschinen eigentlich unsere Rechenleistung brauchen.
0:53:17–0:53:22
Genau, das sind ja nur so menschliche Energiezellen. Genau, dann haben wir aber
0:53:22–0:53:24
gesagt, ja nein, wir machen Batterien aus, weil die Leute werden das nicht verstehen.
0:53:24–0:53:28
Aber die eigentliche Idee von den Geschwistern Wachowskis, die haben gesagt,
0:53:29–0:53:32
nein, die Maschinen sind viel cleverer, die brauchen unsere Hirne zum Ausrechnen,
0:53:32–0:53:34
weil das funktioniert ja nicht.
0:53:34–0:53:37
Du kannst ja nicht den Menschen irgendwie eine Sauce geben und dann bekommst
0:53:37–0:53:38
du mehr Energie aus als du.
0:53:39–0:53:43
Aber mit dem Rechnen wird es funktionieren. Und wenn jetzt die Leute,
0:53:43–0:53:46
wenn jetzt so ein paar Wahnsinnige anfangen, menschlichen Körper zu brauchen
0:53:46–0:53:48
für die KI, und das schliesse ich wirklich nicht aus.
0:53:49–0:53:53
Das kommt sicher. Ich fände es keine gute Idee, aber ich schliesse es nicht aus.
0:53:53–0:53:58
Dann muss man damit rechnen, dass so etwas wie, wie nennen sie das, AGI entsteht.
0:53:58–0:54:03
Ja, Superintelligenz oder eben das Bewusstsein oder wie auch immer.
0:54:03–0:54:06
Genau, aber es müssten Körper sein, die nicht einfach nahe liegen,
0:54:07–0:54:11
wie in einer Batterie, wie in der Matrix. Sonst müsste da kein was rumlaufen.
0:54:11–0:54:17
Sagen wir, solche, die Brille anhaben, die irgendwie die Welt aufnehmen und so weiter und so weiter.
0:54:18–0:54:21
Also auf diesem Weg sind wir eigentlich schon. Und dann rechne ich auch damit,
0:54:21–0:54:25
wenn wir jetzt die auch noch vernetzen durch so etwas wie ein digitales Netzwerk,
0:54:25–0:54:27
wo man den ganzen Globus herum geht.
0:54:27–0:54:30
An was könnte das vielleicht führen? Dann könnte ich mir vorstellen,
0:54:30–0:54:34
dass so etwas entsteht. Und ob es dann gut oder schlecht Das sehen wir dann.
0:54:34–0:54:42
Aber solange es nur Large Language Models sind, die wörterberechtigt sind.
0:54:43–0:54:46
Da gibt es keinen Grund zur Annahme, dass das Geist entwickelt.
0:54:47–0:54:51
Genau, also da kann man sagen, wenn wir uns überlegen, wo wir vielleicht in
0:54:51–0:54:58
dieser Entwicklung sind, dann würde ich sagen, für mich wird es immer so von
0:54:58–0:55:00
einer Art einem Plafond, dass jetzt eben,
0:55:00–0:55:05
also natürlich werden die Modelle und so alle nochmal besser und leistungsfähiger
0:55:05–0:55:11
und können dann noch mehr und so, Aber der nächste Sprung, den gewisse Leute
0:55:11–0:55:13
meinen, schon zu sehen zu haben,
0:55:14–0:55:19
der ist von mir aus gesehen nicht in Reichweite.
0:55:19–0:55:25
Und ich teile eigentlich deine Ansicht, dass es wahrscheinlich für ein Bewusstsein
0:55:25–0:55:32
tatsächlich auch so ein System nicht einfach nur irgendwo in einem Arbeitsspeicher leben könnte,
0:55:32–0:55:36
sondern eine Art physische Repräsentation,
0:55:36–0:55:37
die Löhre brauchen.
0:55:38–0:55:43
Und vorher passiert das nicht. Von daher sehe ich, dass wir an dieser Stelle
0:55:43–0:55:49
noch beruhigt sein können und sagen, das passiert vielleicht in zehn Jahren
0:55:49–0:55:51
oder vielleicht in 20 Jahren.
0:55:51–0:55:54
Unsere Kinder müssen sich vielleicht damit umschlagen, aber ich würde sagen, uns beide.
0:55:55–0:55:57
Ich bin kein Prophet. Ich weiss nicht, was passiert morgen.
0:55:58–0:56:02
Wer weiss? Man muss das Schlimmste immer gefasst werden. Aber es ist nicht die
0:56:02–0:56:06
grösste Sorge, die ich habe im Augenblick. Das ist ganz, ganz, ganz deutlich.
0:56:06–0:56:12
Wir haben ganz andere Probleme. Ob jetzt einer irgendwie den Computer und den
0:56:12–0:56:15
Körper so zusammenschliessen kann, dass irgendeine höhere Intelligenz entsteht,
0:56:16–0:56:18
das könnte vielleicht sogar noch gut sein, wer weiss.
0:56:18–0:56:21
Aber wir haben ganz andere Sorgen im Augenblick.
0:56:22–0:56:27
So ist es. Und jetzt hat diese Sendung noch eine ziemlich lange Postshow bekommen. Das ist super.
0:56:28–0:56:32
Das pflegt man viel zu wenig hier im Nordfunk. Aber heute war es wieder einmal
0:56:32–0:56:35
der Fall. Noch einmal ganz herzlichen Dank, Oliver. Dankeschön auch.
0:56:37–0:56:49
Music.

Oliver Reichenstein ist ein fundierter Kritiker der künstlichen Intelligenz. Er hält die von KI generierten Bilder für Kitsch. Er hält es sogar für ein Risiko, diese Bilder überhaupt zu verwenden, weil sie eine ernsthafte Arbeit entwerten könnten. KI würde alles glatt bügeln, und auch Texte erhalten durch ChatGPT und andere Sprachmodelle eine immer gleiche Marketing-Tonalität.

Reichenstein rechnet mit einer Gegenbewegung, bei der das rohe Design und die imperfekte Anmutung wieder einen Wert bekommt. Sogar Rechtschreibfehlern kann er etwas abgewinnen: Die beweisen nämlich, dass ein Mensch kommuniziert und keine KI.

Aber eine Bedrohung für Künstlerinnen, Fotografen und Journalistinnen ist die KI trotzdem – oder nicht? Gibt es Grund für Panik oder ist Gelassenheit angebracht?

Über diese Fragen spricht Matthias mit Oliver Reichenstein in der heutigen Folge des Nerdfunks. Das Gespräch war auch die Grundlage für ein Interview im «Tagesanzeiger». Doch hier gibt es die ausführliche Fassung, in der Reichenstein auch über seine Erfahrungen bei der App-Entwicklung berichtet. Reichenstein hat nämlich eine der erfolgreichsten Schweizer Apps entwickelt: iA Writer ist eine Textverarbeitung, die sich auf die wesentlichen Funktionen konzentriert. Sie hat ab 2010 diverse Trittbrettfahrer auf den Plan gerufen und der Marktdown-Bewegung wesentlichen Schub verliehen.

In dieser Sendung erzählt er auch davon: Wie er bei Apple in Cupertino vorstellig wurde und dort einen der schlechtesten Ratschläge überhaupt erhalten hat.

Oliver Reichenstein, geboren 1971, studierte Philosophie in Basel und Paris. Nach einer Anstellung als Berater zog er 2003 nach Tokio, wo er die Agentur Information Architects gründete, die Websites für Medienunternehmen gestaltet. Er hat unter anderem das Erscheinungsbild von «Tages-Anzeiger», «Die Zeit» und «The Guardian» geprägt.

Veröffentlicht von Matthias

Nerd since 1971.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert