Transkript anzeigen (falls vorhanden)

0:00:02–0:00:09
Matt Villen featuring Matt mit Raid und da ist Radio Stadtfilter.
0:00:09–0:00:22
Music.
0:00:11–0:00:16
Nerdfunk. Herzlichst willkommen zum Nerdfunk.
0:00:17–0:00:21
Nerdfunk. Ihr Nerd am Mikrofon, der Matthias Schüssler.
0:00:22–0:00:28
Ist es eigentlich okay, dass die Tech-Unternehmen das ganze Web so als Trainingswesen
0:00:28–0:00:32
brauchen für ihre Bots und Bildgeneratoren oder ist das dann vielleicht ein
0:00:32–0:00:35
Betrug an diese Urheberinnen und Urheber,
0:00:35–0:00:40
die ihr Wissen und ihre Kreativität und ihre Werke zur Verfügung stellen,
0:00:40–0:00:45
damit eben die Bots trainiert werden können und dann oftmals hinterher gegen
0:00:45–0:00:49
Geld so tun, wie wenn sie alles wüssten oder alles könnten.
0:00:50–0:00:53
Oder müssten eigentlich die Tech-Unternehmen die Menschen entschädigen,
0:00:53–0:01:00
die das Material zur Verfügung stellen, das sie für ihr Training von ihren KI-Modellen verwenden.
0:01:00–0:01:05
Hier im Studio ist Andreas Vog unten. Und der, wenn ich dich zitieren darf,
0:01:05–0:01:11
hält die Idee, dass man die Urheber für eine Schnappsidee entschädigen müsste.
0:01:11–0:01:16
Weil die KIs, wenn ich dich richtig verstanden habe, die brauchen diese Informationen,
0:01:16–0:01:18
so wie wir Menschen brauchen, wenn wir lernen.
0:01:19–0:01:24
Und darum ist es eigentlich nicht angebracht. Wir sind uns dann auf LinkedIn
0:01:24–0:01:28
ein wenig die Haare geraten, weil ich habe gefunden, ich kann eigentlich dieser
0:01:28–0:01:32
Idee schon etwas abgewinnen und jetzt, auf LinkedIn kann man einfach nicht gut
0:01:32–0:01:33
streiten, oder Andreas?
0:01:34–0:01:42
Darum führen wir es jetzt hier im Radiostudio unter Echtzeit und unter realen Bedingungen weiter.
0:01:42–0:01:47
Also warum findest du das, ich habe es jetzt ein bisschen lapidar oder plakativ
0:01:47–0:01:49
zusammengefasst, warum findest du das eine Schnapps-Idee?
0:01:49–0:01:52
Weil eigentlich liegt es doch auf der Hand, dass man diese Forderung aufstellen kann.
0:01:53–0:01:57
Ja, ich muss gerade schauen, wo ich am besten anfange. Also zuerst einmal,
0:01:57–0:02:02
hoi Matthias, danke, dass ich bei dir sein darf. Gerne, ich freue mich, dass du da bist.
0:02:02–0:02:04
Ich finde es interessant, dass wir die Diskussion hier weiterführen.
0:02:04–0:02:07
Ich finde es übrigens auch lässig, dass so etwas passiert im Netz,
0:02:07–0:02:10
dass man irgendwo diskutieren will und dann führt man sie noch einmal anders
0:02:10–0:02:13
weiter. und finde es toll, dass du das hier anbietest und dass wir das machen können.
0:02:13–0:02:17
Um auf deine Frage zurückzukommen, es geht eigentlich um Folgendes.
0:02:18–0:02:21
Die Generatoren, also die generative KI, von der wir hier im Moment sprechen,
0:02:22–0:02:27
die funktioniert ja eigentlich so, dass sie möglichst viele Informationen verarbeitet
0:02:27–0:02:32
und dort statistische Verhältnisse herstellt zwischen verschiedenen Chunks,
0:02:33–0:02:37
Informationschunks, ob das Texte sind oder Bildmaterial oder Audio oder Video.
0:02:37–0:02:42
Die statistischen Daten, die hier entstehen, können wiederum dazu helfen,
0:02:43–0:02:45
neue Sachen zu generieren,
0:02:47–0:02:50
lustigerweise und interessanterweise und ich glaube für alle erstaunlicherweise
0:02:50–0:02:53
tatsächlich etwas Sinnvolles erkennt.
0:02:53–0:02:57
Was da passiert, ist eigentlich, dass wir einen Schritt weiter kommen zum alten
0:02:57–0:03:03
Traum, der uralte Traum, den wir seit der Bibliothek von Alexandria haben,
0:03:03–0:03:10
dass wir Menschen das komplette Wissen von allen zusammen jederzeit allen zur
0:03:10–0:03:12
Verfügung stellen können, dass wir das immer im Zugriff haben.
0:03:12–0:03:15
So sind Bibliotheken entstanden, dass Die Idee der Bibliothek,
0:03:15–0:03:19
und das war letztendlich das Grossartige am Anfang vom Netz,
0:03:19–0:03:21
vom Web, die Idee, dass dort alles zusammenkommt.
0:03:22–0:03:26
Und mit dieser generativen KI gibt es jetzt einen neuen Aspekt, der dazukommt.
0:03:26–0:03:30
Bis jetzt mussten wir nach Informationen suchen mit einer Suchmaschine.
0:03:30–0:03:34
Und die Informationen, die andere Leute ins Netz gestellt haben,
0:03:34–0:03:38
konnten wir finden und sich dort Antworten zusammensuchen zu den Fragen,
0:03:38–0:03:40
zu den persönlichen, die man hat.
0:03:40–0:03:44
Und das hat oft so funktioniert, dass man einen Suchbegriff oder einen Suchsatz
0:03:44–0:03:46
oder eine ganze Frage gibt und dann hat man halt die Liste bekommen von diesen
0:03:46–0:03:49
Links und ist auf diese Links und das hat sehr viel Aufwand gegeben,
0:03:49–0:03:54
ihnen anzugehen, diese Sachen anzuschauen. und jetzt ist es genial.
0:03:54–0:03:56
Jetzt kann man sich vorstellen, natürlich ist jetzt noch vieles,
0:03:56–0:04:00
wir haben noch Probleme mit Halluzinierungen usw. Das kann man alles lösen irgendwann.
0:04:00–0:04:03
Aber am Schluss muss man sich klar werden, jetzt ist die Idee da,
0:04:03–0:04:09
dass man eigentlich alles, was je geschrieben worden ist, zusammenfasst und
0:04:09–0:04:12
verfügbar macht für alle. Und das ist das Grossartige.
0:04:12–0:04:18
Genau, das ist deine Vision von der offenen Wissensgesellschaft und vom Wissen,
0:04:18–0:04:20
das niemand besitzt und das allen gehört. gehört.
0:04:20–0:04:25
Und ich glaube, an diesem Punkt sind wir uns absolut einig, weil das ist auch
0:04:25–0:04:27
meine Vision. Ich finde die super toll.
0:04:27–0:04:30
Und um dich noch schnell vorzustellen, du.
0:04:32–0:04:37
Vertrittst das ja auch als Verleger, dass du die Idee hast, dass das Wissen
0:04:37–0:04:39
möglichst offen und frei zugänglich sein muss.
0:04:39–0:04:42
Du bist auch beim Verein der Digitalen Gesellschaft.
0:04:43–0:04:47
Die setzt sich auch ein für Offenheit, Grundrecht, Menschenrecht im Netz.
0:04:47–0:04:53
Und du bezeichnest dich als linksliberaler humanist und ich glaube,
0:04:53–0:04:56
du bist genau der Richtige, um zu diskutieren.
0:04:56–0:05:00
Und ich würde dir absolut recht geben, wenn es jetzt da nicht einfach,
0:05:00–0:05:05
wenn ich jetzt da nicht den Hang von diesen Tech-Konzernen würde sehen,
0:05:05–0:05:12
die sagen, die haben nicht die Wissensgemeinschaft und unser aller Nutzen im Sinn,
0:05:12–0:05:16
sondern die wollen das Wissen, ich sage es jetzt ein bisschen überspitzt,
0:05:16–0:05:19
aber vielleicht ist es gar nicht überspitzt, bei Google, denke ich,
0:05:20–0:05:27
Die wollen das monopolisieren, die wollen die Gatekeeper sein von diesem Wissen
0:05:27–0:05:30
und jeder der davon partizipieren will,
0:05:30–0:05:37
der muss ihnen entweder Daten oder Geld liefern oder etwas zu gut tun,
0:05:37–0:05:39
damit sie noch grösser, stärker und mächtiger werden.
0:05:41–0:05:50
Ich glaube, das funktioniert für mich nicht und man muss irgendwie die Tech-Konzerne davon abhalten,
0:05:50–0:05:55
das Menschheitswissen für sich zu vereinnahmen und dann uns wieder zu verkaufen,
0:05:55–0:05:57
obwohl wir es ihnen ja ursprünglich zur Verfügung gestellt haben.
0:05:59–0:06:06
Sie müssen dafür zahlen, wenn sie die Daten verwenden oder aktiv verwerten.
0:06:06–0:06:09
Das ist die einfachste Variante.
0:06:09–0:06:14
Vielleicht gibt es eine bessere. Aber warum fangen wir nicht mal bei der einfachsten
0:06:14–0:06:16
Variante an und sagen, die müssen einfach zahlen, wenn sie etwas nehmen?
0:06:17–0:06:22
Du hast einen ganz wichtigen Punkt gebracht und da sind wir uns auch wieder einig.
0:06:22–0:06:28
Man muss verhindern, dass Grosskonzerne das Wissen von dieser Welt monopolisieren
0:06:28–0:06:33
und selber für sich quasi nur noch entscheiden, wer das nutzen kann und wie
0:06:33–0:06:33
das genutzt werden kann.
0:06:33–0:06:39
Und genau darum müssen wir beim Urheberrecht dafür sorgen, dass das nicht passiert.
0:06:39–0:06:42
Also genau das ist der Grund, warum alle diese Urheberrechtsrevisionen,
0:06:42–0:06:46
die jetzt auch wieder wieder angezeigt werden, wegen dieser ganzen Geschichte,
0:06:46–0:06:50
am Schluss genau für das da sind, damit Konzerne monopolisieren können.
0:06:50–0:06:54
Jede Urheberrechtsrevision, die wir jetzt gehabt haben, hat immer den Urheber
0:06:54–0:06:57
vor den Karren gespannt, aber letztendlich Rechte geschaffen,
0:06:58–0:07:03
die von den Grosskonzernen kapitalisiert und monopolisiert werden können.
0:07:03–0:07:06
Und wenn wir jetzt etwas verhindern müssen, dann ist es vor allem das.
0:07:06–0:07:09
Das ist das Allerwichtigste, bevor wir noch einmal darüber reden,
0:07:09–0:07:10
ob wir jetzt für Trainingsdaten zahlen müssen.
0:07:11–0:07:17
Das Allerwichtigste ist das, die Tendenz wird die sein, dass die grossen Konzerne, wie OpenAI,
0:07:17–0:07:22
Google usw., im Einklang mit den grossen Verlagskonzernen verlangen,
0:07:22–0:07:27
dass die KI-generierten Inhalte auch urheberrechtlich geschützt werden können.
0:07:28–0:07:32
Das würde dazu führen, dass am Schluss die komplette Kommunikation der Menschheit
0:07:32–0:07:34
in den Händen ein paar weniger Konzerne ist.
0:07:34–0:07:37
Dass bei jeder Nutzung einer dieser Konzerne etwas verdient.
0:07:38–0:07:40
Und das ist nur möglich wegen des Urheberrechts.
0:07:40–0:07:42
Also die Monopolisierung von Wissen,
0:07:42–0:07:47
entsteht erst dadurch, dass man mit dem Urheberrecht eben genau so ein Monopolrecht
0:07:47–0:07:50
schafft. Und dass man sagt, die Urheber haben etwas davon.
0:07:50–0:07:55
Das ist die grösste Farce, seit wir in der Aufklärung sind, weil das stimmt einfach nicht.
0:07:55–0:08:01
99,9% der Urheber, heute schon, und Urheberinnen, haben nichts vom Urheberrecht,
0:08:01–0:08:02
ausser ein paar Brosamen.
0:08:02–0:08:05
Es ist immer so, dass das Urheberrecht niemandem anderen hilft,
0:08:05–0:08:10
als denen, die zauberst oben sind, also die am allermeisten schon sonst verdienen,
0:08:10–0:08:14
die eigentlich die grossen Stars sind bei den UrheberInnen und vor allem in
0:08:14–0:08:18
den Verlagskonzernen, in welcher Branche auch immer, ob Musikbücher,
0:08:18–0:08:20
Filme usw., das sieht man überall.
0:08:20–0:08:22
Darum hat man eine Konzentration von drei, vier Konzernen pro Branche.
0:08:23–0:08:26
Und die sind die Einzigen, die in der Masse monetarisieren können.
0:08:26–0:08:30
Und jetzt neu kommen noch die Digitalkonzernen dazu, die gerne auch noch alle
0:08:30–0:08:33
Äußerungen, die man in Zukunft macht, durch Lizenzen monetarisieren können.
0:08:33–0:08:35
Genau. Wir müssen dagegen sein.
0:08:36–0:08:43
Ja, das war ein super Plädoyer und ich glaube, ich verstehe, wie du das meinst.
0:08:43–0:08:46
Aber wie kommen wir denn dort hin?
0:08:46–0:08:51
Wir können ja nicht das Urheberrecht jetzt auflösen.
0:08:53–0:09:00
Schildere mir an deiner Stelle, wie deine Vorstellung aussehen würde,
0:09:00–0:09:03
wie das Urheberrecht organisiert sein müsste.
0:09:03–0:09:06
Gäbe es das einfach gar nicht, würden wir das einfach abschaffen?
0:09:08–0:09:14
Wie kommen dann die Urheber, wenn ich einen Blogbeitrag schreibe, zum Geld?
0:09:14–0:09:17
Ich muss ja trotz allem von irgendetwas am Leben am Schluss.
0:09:17–0:09:21
Genau. Das Erste, was wir klarstellen müssen, das ist wichtig,
0:09:21–0:09:23
und ich will dir gar nicht zu nahe treten, weil ich bin auch ein Blogger wie du.
0:09:24–0:09:28
Du verdienst von deinen Blogbeiträgen auch jetzt kein Geld wegen des Urheberrechts.
0:09:28–0:09:30
Das ist so. Das Urheberrecht bringt dir im Moment gar nichts.
0:09:31–0:09:34
Und das ist wichtig. Und ja, um deine erste Frage ganz kurz beantworten zu können.
0:09:34–0:09:38
Ja, ich bin persönlich der Meinung, das Urheberrecht müssten wir eigentlich abschaffen.
0:09:38–0:09:43
Also Intellectual Property is Common Property ist der Titel meiner Masterthesis.
0:09:43–0:09:46
Und ich bin der Meinung, das Urheberrecht, es gibt gar nichts so etwas wie ein
0:09:46–0:09:51
geistiges Eigentum, weil letztendlich der Kreativprozess immer ein interpersoneller
0:09:51–0:09:54
Prozess ist, dass es eigentlich nichts gibt, das nicht mit anderen zusammenhängt,
0:09:54–0:09:57
mit anderen Austausch letztendlich stattgefunden hat.
0:09:57–0:10:00
Selbst wenn das am Schluss bei mir rauskommt. Ich mache immer das Beispiel von Picasso.
0:10:01–0:10:04
Der Pablo Picasso, wenn er allein auf einer Insel aufgewachsen wäre,
0:10:04–0:10:09
und keinen Kontakt zu anderen Kulturen hätte, wäre seine Malerei nie bei ihm entstanden.
0:10:10–0:10:12
Sie wäre aber wahrscheinlich bei jemand anderem entstanden. Man muss sich das
0:10:12–0:10:17
vorstellen wie ein riesiges Netzwerk von verknüpften Hirnen über Zeit und Ort
0:10:17–0:10:20
hinweg, das natürlich mittlerweile durch die Internetvernetzung noch viel schneller
0:10:20–0:10:21
und dynamischer funktioniert.
0:10:21–0:10:25
Und bei irgendjemandem kommt jeweils ein Fass zum Überlaufen mit einem Tropfen,
0:10:25–0:10:27
der dann das Werk rausgibt.
0:10:27–0:10:30
Das merkt man auch, wenn man mit Künstlern Interviews liest von Künstlerinnen
0:10:30–0:10:33
und Künstlern, der Name sagt, wenn man fragt, wie ist das entstanden?
0:10:33–0:10:36
Ja, ich weiss auch nicht, das ist mir einfach zugefallen. Mose hat mich geküsst oder was weiss ich.
0:10:37–0:10:39
Der Malo, der zum Beispiel in den 80er Jahren einen grossen Hit hatte.
0:10:40–0:10:42
Ich weiss jetzt gerade den Namen nicht mehr, ein Pop-Hit, den ich extrem gerne
0:10:42–0:10:47
gehört habe, der lebt seit den 80er Jahren in Hamburg von der Tante Jeme, von dem Hit.
0:10:47–0:10:50
Und wenn man ihn fragt, wie ist das entstanden? Ich habe heute 10 Minuten geschrieben.
0:10:51–0:10:54
Und ich mache ihm das gönnen. Versteht mich nicht falsch, ich mache ihm das gönnen.
0:10:54–0:10:56
Um das geht es überhaupt nicht, sondern es geht mir nur darum.
0:10:57–0:10:59
Urheberrecht hat nichts mit dem Arbeitstum, die man reinsteckt,
0:10:59–0:11:02
sondern nur mit dem Umverteilen.
0:11:02–0:11:06
Pro Nutzung. Und jetzt wichtig, wie sieht die Welt auch überreicht aus?
0:11:06–0:11:11
Sie sieht so aus, dass eigentlich alle Leute alle Werke jederzeit nutzen können
0:11:11–0:11:14
und das würde dazu führen, dass man einen viel höheren Output an kultureller
0:11:14–0:11:18
Produktion hätte und man müsste jetzt Geld anders verdienen.
0:11:18–0:11:21
Anders heisst zum Beispiel das, was jetzt auch passiert, was auch Musiker und
0:11:21–0:11:22
Musikerinnen machen live.
0:11:22–0:11:27
Anders kann Zugang heissen zu jemandem. Du könntest zum Beispiel ein Membership
0:11:27–0:11:30
machen, wo man mit dir über Sachen diskutieren kann, wenn du in einem bestimmten
0:11:30–0:11:33
Gebiet wirklich gut bist, weil das, was du schreibst in deinem Blog,
0:11:33–0:11:34
hast du nicht du alleine geschrieben,
0:11:34–0:11:37
das, was du schreibst in deinem Blog, du wirst ja nicht der Einzige sein,
0:11:37–0:11:40
der zum Beispiel über irgendein Produkt etwas schreibt. Nein, leider nicht, ja.
0:11:40–0:11:45
Und dann, wenn du dir jetzt die Generative KI vorstellst, die deinen Text verwendet,
0:11:45–0:11:48
dann verwenden sie ja alle anderen Texte auch dazu und wenn nachher irgendein
0:11:48–0:11:52
Thema, ein Faktum quasi aus dieser KI generiert wird,
0:11:52–0:11:56
mag das zwar sein, dass dein Beitrag einen Teil dazu beiträgt hat,
0:11:56–0:11:59
dass das dann so rauskommt, aber es ist halt nur ein kleiner Teil.
0:12:00–0:12:05
Und diese kleine Teilwelle zu entlöhnen, ist mit so viel Aufwand verbunden und
0:12:05–0:12:09
Restriktionen, dass am Schluss die KI-Modelle nur noch funktionieren können,
0:12:09–0:12:12
indem mit den grossen von den grossen Lizenzen geschlossen werden.
0:12:13–0:12:16
Und jetzt kommt etwas Wichtiges. Das führt dazu, dass die Open-Source-Modelle,
0:12:16–0:12:18
die immer wichtiger werden, diese Probleme bekommen.
0:12:18–0:12:24
Deshalb ist es auch interessant zu verstehen, wenn Google und OpenAI und Microsoft
0:12:24–0:12:30
verlangen, dass sie als KI-Anbieter reguliert werden, dann muss bei uns die Alarmglocke losgehen.
0:12:30–0:12:33
Wenn ein Konzern reguliert werden möchte, dann will er nicht reguliert werden,
0:12:33–0:12:37
weil es für die Gesellschaft wichtig ist, sondern weil es für den Konzern wichtig ist.
0:12:37–0:12:40
Monopol. Das ist etwas, was Peter Thiel mal geschrieben hat.
0:12:41–0:12:45
«Competition is for Losers» und das ist ihre Idee.
0:12:45–0:12:48
Und wir müssen schauen, dass Wettbewerb weiterhin besteht.
0:12:49–0:12:51
Wettbewerb von den Ideen und auch Wettbewerb von den Modellen.
0:12:52–0:12:55
Und die dürfen wir ja nicht einschränken, indem man so Urheberrechtsgesetze
0:12:55–0:12:57
macht, die dazu führen, dass die gar nicht mehr entstehen können.
0:12:57–0:12:59
Aber da sind wir an diesem Punkt ja nicht.
0:12:59–0:13:03
Wir sind nicht beim Wettbewerb von den Modellen, sondern das OpenAI war mal
0:13:03–0:13:08
da und hat plötzlich so eine Dominanz gehabt.
0:13:08–0:13:12
Also wir sehen Google, wenn du Wenn du das Paar anschaust, schafft es dich nicht,
0:13:12–0:13:14
gegen die OpenAI anzustinken.
0:13:15–0:13:19
Und dann kannst du ja geschweige dann irgendwie... Wir beiden können nicht irgendeine
0:13:19–0:13:27
KI aus dem Boden stampfen und dann erwarten, dass wir gegen OpenAI antreten
0:13:27–0:13:28
können. Nein, nein, das ist klar.
0:13:28–0:13:33
Also wir können alleine natürlich kein Foundation-Modell trainieren. Das ist richtig.
0:13:33–0:13:38
Aber es gibt bereits jenseits derer trainierte Modelle, die von anderen draussen
0:13:38–0:13:41
sind. Zum Beispiel von Stable Diffusion, erstaunlicherweise auch von Meta.
0:13:42–0:13:44
Ich muss ehrlicherweise zugeben, dass das natürlich von ihm her,
0:13:44–0:13:48
vom Zuckerberg her, einfach die letzte mögliche Strategie noch war,
0:13:48–0:13:50
nachdem sie wahrscheinlich das irgendwie verpennt haben, das halt so zu machen.
0:13:51–0:13:53
Mit dem Meta wäre es um ein bisschen aufs falsche Ross gesetzt.
0:13:53–0:13:55
Ja, aber weil sie gemerkt haben, das ist wahrscheinlich eine gute Möglichkeit,
0:13:55–0:13:58
um den anderen das Beibisschen, wir bringen unser Modell Open Source raus.
0:13:59–0:14:01
Aber für die Open Source Community ist das eigentlich eine gute Sache.
0:14:01–0:14:03
Und wenn du schauen willst, man darf das nicht unterschätzen,
0:14:03–0:14:08
es gibt im Moment eine unglaublich grosse Open Source LLM Community.
0:14:08–0:14:13
Und die wächst und die Modelle, man geht davon aus, dass eigentlich dieses Jahr die.
0:14:14–0:14:19
Das erste Mal wird passieren, dass Open Source Modelle gleich sind wie Closed Source Modelle.
0:14:20–0:14:23
Man geht darum auch davon aus, dass ChatGPT 5 das Jahr unbedingt kommen muss,
0:14:23–0:14:26
weil wir sehr bald wieder Open Source Modelle haben, die ChatGPT 4 schlagen werden.
0:14:26–0:14:29
Und das ist eine grossartige Neuigkeit.
0:14:29–0:14:33
Das ist wichtig für uns, um zu verstehen, die Large Language Models,
0:14:33–0:14:37
also die Foundation Models, die können trainiert werden von anderen. Das wird auch gemacht.
0:14:37–0:14:40
Es gibt Plattformen, wo man sich austauschen kann, wo die Modelle heruntergeladen
0:14:40–0:14:43
werden können. Es gibt Möglichkeiten nachher wieder für andere Firmen,
0:14:43–0:14:45
Das gibt es auch schon, jeden Dienstag zum Teil.
0:14:45–0:14:47
Und da frage ich mich auch wir in Europa, wir sind einfach so neben den Schuhen,
0:14:47–0:14:53
wir überlegen uns nur immer, wie können wir regulieren, während rundherum Firmen entstehen.
0:14:53–0:14:57
An den Tupac, und zwar lustig, in Amerika und in Kanada gibt es schon etwa fünf
0:14:57–0:15:00
Firmen, die über ein Milliard bewertet sind, die nichts anderes machen als Open
0:15:00–0:15:05
Source LLMs zu nehmen und diese via API auf eine saubere Infrastruktur zur Verfügung zu stellen.
0:15:05–0:15:08
Das ist etwas, was auch Swisscom machen könnte oder die Deutsche Telekom,
0:15:09–0:15:09
warum machen die das nicht?
0:15:10–0:15:12
Sondern man überlegt sich die ganze Zeit, wie man das regulieren kann,
0:15:13–0:15:16
statt dass wir einfach hergehen und Plattformen herstellen.
0:15:16–0:15:19
Und sagen, wir nehmen die Open Source Modelle, das sind unsere API,
0:15:19–0:15:20
wir machen es nachher besser.
0:15:21–0:15:25
Aber wir pennen einfach, wir pennen und jammern und haben das Gefühl,
0:15:26–0:15:30
die Welt wird besser, wenn wir irgendwie das Gefühl haben, wir dürfen das am besten einschränken.
0:15:30–0:15:32
Da liegen wir völlig falsch, wir kommen völlig auf die Welt,
0:15:32–0:15:33
wenn wir das nicht endlich begreifen.
0:15:33–0:15:37
Wir müssen das freilassen, wir müssen das laufen lassen. Natürlich müssen wir
0:15:37–0:15:40
es begleiten, natürlich müssen wir aufpassen, aber wir dürfen auf keinen Fall
0:15:40–0:15:44
jetzt mit so Ideen wie Urheberrecht eingreifen und diesen grossen Konzernen
0:15:44–0:15:46
durch das Macht in die Hände geben, die Welt zu beherrschen.
0:15:46–0:15:52
Aber glaubst du nicht, dass wir, wenn wir zu deinem Punkt kommen.
0:15:53–0:15:59
Die Übergangszeit überbrücken, ohne dass die Leute, die jetzt schon wenig mit
0:15:59–0:16:02
ihren Inhalten verdienen, dann gar nichts mehr verdienen?
0:16:02–0:16:07
Weil es ist ja tatsächlich so, wenn du einfach zum Chat-GPT gehst oder zum Microsoft
0:16:07–0:16:13
Co-Pilot und dem kannst du eine Frage stellen und er beantwortet sie dir.
0:16:13–0:16:16
Vielleicht, ich sage es jetzt einfach mal, mit Informationen,
0:16:16–0:16:20
die er auch aus meinem Blog hat, dann klickt sich niemand mehr zu meinem Blog
0:16:20–0:16:24
durch und dann die Werbung, diese kleine Werbung, die ich noch vorher verdient
0:16:24–0:16:25
habe, das ist dann völlig weg.
0:16:25–0:16:31
Also ich sehe schon, im unmittelbaren Moment sorgen die dafür,
0:16:31–0:16:37
dass die Webseiten, die eh schon getarbt haben, einfach gar keine Existenzberechtigung mehr haben.
0:16:37–0:16:42
Und ich sehe da eine Gefahr von einer riesen Verarmung, dass einfach wirklich
0:16:42–0:16:45
viele Leute empfinden, ja, es bringt gar nichts mehr.
0:16:45–0:16:50
Oder auch kleine Verlage finden, wenn gar niemand mehr sich zu uns durchklickt
0:16:50–0:16:54
und vielleicht dann mal noch ein PDF kauft, dann können wir unser Geschäft einfach
0:16:54–0:16:55
vergessen, dann fallen diese weg.
0:16:57–0:17:01
Ich verstehe mich etwas falsch, ich finde es nicht so eine tolle Idee,
0:17:01–0:17:04
diese Idee dann wirklich diesen Open AI zu zeigen.
0:17:04–0:17:09
Hör mal, wenn du jetzt halt diese Information von meinem Blog geholt hast und
0:17:09–0:17:11
sie nachher brauchst, musst du dafür etwas zahlen,
0:17:11–0:17:20
weil sonst bricht einfach diese Szene noch völlig auseinander und ist einfach weg am Schluss.
0:17:20–0:17:25
Und wenn sie weg ist, dann ist es eine Verarmung auch aus der Sicht dieser Menschheit
0:17:25–0:17:31
zu wissen. Und es ist mehr eine Notoperation oder eine Notlösung,
0:17:31–0:17:33
um das mal am Leben zu behalten.
0:17:33–0:17:36
Mit dem kannst du auch nichts anfangen. Also ich sage zwei Sachen dazu.
0:17:36–0:17:42
Das eine ist, dass du schilderisch, dass wenn man keine Aussicht mehr hat auf
0:17:42–0:17:44
Geld, dass dann kein Inhalt mehr entsteht.
0:17:44–0:17:47
Das ist das klassische utilitaristische Argument für das Urheberrecht,
0:17:48–0:17:51
das man immer wieder herbeizieht, wo man sagt, wenn man keine Aussicht mehr
0:17:51–0:17:57
hat auf Geld, dann macht man keine kreativen Outputs. und das ist einfach schon x-fach wie der Leid.
0:17:57–0:18:01
Wenn das so wäre, gäbe es keine Open-Source-Software, es gäbe deinen Blog nicht,
0:18:01–0:18:04
es gäbe meinen Blog nicht, es gäbe die Radio Stadtfilter, Kanal K und Radio
0:18:04–0:18:08
Rabi nicht, es gäbe ganz viele Sachen nicht, wenn es darum geht,
0:18:09–0:18:12
dass man kreative Output macht wegen dem Geld und das war noch schnell.
0:18:13–0:18:15
Das heisst nicht, dass man nicht kann, damit Geld zu verdienen.
0:18:15–0:18:18
Das ist wie bei Open-Source so auch da, wir müssen auch neue Modelle finden
0:18:18–0:18:19
und jetzt kommt der nächste Punkt.
0:18:19–0:18:23
Die Zeit, wo du hast können, einen Blogpost Post ins Netz stellen und dann ein
0:18:23–0:18:26
paar Fränkli bekommen pro Jahr von der Werbung.
0:18:27–0:18:31
Diese Zeit ist auch nur eine kurze Zeit her. Das konntest du vorher auch nicht.
0:18:32–0:18:38
Und als die neuen Medien auftauchten, sagten wir ja auch alle, es ändert halt etwas.
0:18:38–0:18:42
Es gibt halt den Kutscher nicht mehr, es gibt den Kollschufel auf der Locke nicht mehr.
0:18:42–0:18:46
Und ich würde jetzt mal behaupten, wir dürfen nie, das ist genau der Fehler,
0:18:46–0:18:48
den ich glaube, Europa sehr oft macht.
0:18:48–0:18:52
Wir denken immer von dem Anbüter her und überlegen uns ja, Aber wenn der seine
0:18:52–0:18:54
Brötchen nicht mehr verkaufen kann, dann haben wir ein Problem.
0:18:55–0:19:01
Aber die Welt verändert sich nie vom Anbieter her, sondern immer vom Nachfrager
0:19:01–0:19:02
und der Nachfragerin her.
0:19:02–0:19:05
Und das Problem, das der Nachfrager und die Nachfragerin haben,
0:19:05–0:19:08
ist, dass sie eine Frage stellen möchten. Sie haben eine Frage an die Welt und
0:19:08–0:19:12
sie möchten diese Frage an die Welt so gut wie möglich und so schnell wie möglich beantwortet haben.
0:19:14–0:19:18
Lösung ist Generative KI, weil die ist viel besser, also mein Bedürfnis wird
0:19:18–0:19:21
viel besser befriedigt und das heisst jetzt halt, für die Anbieter,
0:19:21–0:19:26
die bis jetzt im alten Modell Suchlisten mit 20 Links haben können existieren,
0:19:26–0:19:28
die müssen jetzt einen neuen Weg suchen.
0:19:28–0:19:30
So ist halt die Welt, es ändert sich.
0:19:31–0:19:36
Das heisst aber, dass wir wahrscheinlich müssten jetzt aufhören OpenAI und Microsoft
0:19:36–0:19:42
zu brauchen und eben selber so ein Open Source Modell trainieren auf unserem
0:19:42–0:19:46
Computer Computer und möglichst autark werden,
0:19:46–0:19:48
was KI angeht.
0:19:49–0:19:52
Brauchst du OpenAI oder findest du... Nein, nein, im Gegenteil.
0:19:52–0:19:54
Ich bin im Moment bei all diesen zahlenden Kunden.
0:19:55–0:19:59
OpenAI, Perplexity AI, Mid-Journey. Ich nutze das alles im professionellen Level,
0:19:59–0:20:02
um herauszufinden, wie gut sind sie, wie gut funktionieren sie und bin gerne
0:20:02–0:20:04
bereit, auch denen etwas zu bezahlen, weil ich finde nach wie vor,
0:20:04–0:20:05
sie bietet auch eine Leistung.
0:20:06–0:20:09
Und ich bin da in dieser Frage überhaupt nicht verblendet ideologisch oder so,
0:20:09–0:20:12
sondern ich sage mir einfach, wer mir eine gute Lieferung macht,
0:20:12–0:20:13
der soll für das auch etwas bekommen.
0:20:14–0:20:18
Und das ist mir eigentlich relativ egal, ob das OpenAI ist oder ein Open Source
0:20:18–0:20:21
Modell. Wenn es eine gute Lösung gibt, die auf einem Open Source Modell basiert,
0:20:21–0:20:22
dann nehme ich diese auch.
0:20:22–0:20:26
Und jetzt ist gerade heute oder gestern herausgekommen, dass Huggingface die
0:20:26–0:20:30
Möglichkeit bietet, eigene Avatare und eigene Bots zu machen auf Basis von Open
0:20:30–0:20:31
Source Modellen auf ihrer Plattform.
0:20:31–0:20:35
Das Huggingface ist eine lustige Plattform, die müsst ihr unbedingt ausprobieren.
0:20:35–0:20:37
Das ist so eine Experimentierweise.
0:20:37–0:20:41
Die ist wirklich spannend. kann ich nur empfehlen.
0:20:41–0:20:44
Und die bietet eben so Sachen an und es gibt noch viele andere und ich bin schon
0:20:44–0:20:48
der Meinung, wir müssen jetzt selber nicht, wir müssen damit experimentieren,
0:20:48–0:20:51
nicht unbedingt neue, eigene ganze Modelle entwickeln, das können wir nicht,
0:20:51–0:20:52
das kann nicht jeder selber machen.
0:20:53–0:20:56
Aber nachher mit diesen Modellen experimentieren, also es heisst,
0:20:56–0:21:00
solche Modelle zu dir herunterladen, Sachen probieren, wie funktionieren zum
0:21:00–0:21:04
Beispiel die RAG-Methoden, wie kann ich weitere Inhalte von mir
0:21:05–0:21:09
verbinden mit dem mit dem grossen Language-Modell und dann quasi meine Notizen,
0:21:09–0:21:11
das ist zum Beispiel etwas Geniales, was ich mir vorstelle in Zukunft.
0:21:11–0:21:16
Meine persönlichen Notizen verbunden mit einem lokalen LLM, wo ich nachher einfach
0:21:16–0:21:21
nicht mehr suchen muss, sondern nur noch Fragen stelle an mich selber. Wie geil ist das denn?
0:21:22–0:21:27
Aber jetzt trotzdem, was sagst du zu The Washington Post, oder zu The New York
0:21:27–0:21:30
Times, die sagen, wir erkennen da unsere Texte wieder.
0:21:31–0:21:36
Das Ding hat Texte, die ein normaler Leser, wenn du kommst, musst du zahlen,
0:21:37–0:21:41
dass du hinter die Paywall kommst, aber die haben die gebraucht zum Trainieren und jetzt geben die.
0:21:42–0:21:47
Verkaufen die Dienstleistung und geben unsere erarbeiteten Sachen aus.
0:21:47–0:21:51
Oder nachverrückt ihr ja bei diesen Künstlern, die sagen, ich sehe da mit Journey...
0:21:52–0:21:58
Ich erkenne meine Kunst aus dem Netz und die wird jetzt da, die Mitschörne musst
0:21:58–0:22:02
du zahlen, wenn du sie anständig brauchen willst, die bekommen Geld über und ich habe null dafür.
0:22:03–0:22:08
Hast du Empathie für diese Leute oder was sagst du denen, wenn sie sagen.
0:22:08–0:22:15
Mir ist deine Vision in Ehre, aber ich möchte für diese Leistung entlöhnt werden.
0:22:15–0:22:16
Was sagst du so jemandem?
0:22:16–0:22:20
Genau, also vielleicht, ich habe natürlich Empathie für alle Menschen, ich bin Humanist, oder?
0:22:20–0:22:26
Genau. Also von dem her, grundsätzlich, klar kann ich verstehen, dass man das so sieht.
0:22:26–0:22:29
Was ich zwar nicht ganz verstehen kann, ist oft, bei Gründung ist es im Urheberrecht
0:22:29–0:22:32
immer wieder so, das ist gerade auch wieder lustigerweise im deutschsprachigen
0:22:32–0:22:35
Raum vor allem und bei den Franzosen auch, dass man zum Beispiel sieht,
0:22:35–0:22:38
an den Creative Commons Lizenzen, wir im europäischen Raum,
0:22:38–0:22:42
wir nutzen oft eine Non-Commercial Lizenz bei Creative Commons.
0:22:42–0:22:47
Also wir finden oft, ich gebe das zwar frei, aber es darf niemand mit dem Geld verdienen.
0:22:47–0:22:51
Und das ist etwas, das ich nicht verstehen und nicht nachvollziehen kann,
0:22:51–0:22:56
weil ich sage mir immer, wenn ich mein Werk nicht monetarisieren kann und es
0:22:56–0:22:57
irgendjemand anderer aber kann,
0:22:57–0:23:01
dann hat er mir ja nichts weggenommen, sondern die andere Person hat einfach
0:23:01–0:23:03
offenbar etwas geschafft, was ich nicht geschafft habe.
0:23:03–0:23:09
Aber ich glaube, da bist du weniger besitzergreifend als viele andere,
0:23:09–0:23:15
die finden, ich habe etwas gemacht und ich schaffe es einfach nicht,
0:23:15–0:23:18
den Kontrollverlust völlig frei zu geben.
0:23:18–0:23:24
Genau, aber das hat mit der strukturellen Verankerung dieser abstrusen Idee
0:23:24–0:23:25
des geistigen Eigentums zu tun.
0:23:25–0:23:29
Das hat damit zu tun, dass du glaubst, dass der Blogpost, den du geschrieben
0:23:29–0:23:30
hast, dein Eigentum ist.
0:23:31–0:23:34
Und wenn du dich von dem loslösen könntest, indem du dir sagst,
0:23:34–0:23:37
ich habe es zwar geschrieben, aus mir ist es herausgekommen,
0:23:37–0:23:40
aber es ist nicht mein Eigentum, sondern es ist unser aller Eigentum,
0:23:40–0:23:41
dann hättest du kein Problem damit.
0:23:41–0:23:44
Aber dann finde ich doch, der jetzt...
0:23:44–0:23:49
Der Geistesblick oder die Anekdote, die ich jetzt hier rein gebracht habe und
0:23:49–0:23:54
die jetzt aus dem Blogpost, der vielleicht zuerst einen mittelmässigen Blogpost
0:23:54–0:23:58
gemacht hat, einen genialen Blogpost macht, die ist aus meinem Kopf gekommen
0:23:58–0:23:59
und die hat mit meinem Leben zu tun.
0:24:00–0:24:06
Da musste ich mal... Ich gebe jetzt den leidenden Künstler, der musste zuerst
0:24:06–0:24:11
ganz schlimme Sachen erleben, dass er seine Kunst in die Höhe aufschieben konnte.
0:24:11–0:24:16
Ich habe geritten für meine Kunst, also will ich jetzt auch etwas für meine Kunst.
0:24:16–0:24:20
Und ich will zumindest bestimmen, wer was damit machen darf.
0:24:20–0:24:26
Und nein, irgendein Nazi darf nicht mit meinem Motiv auf seiner Flagge herumlaufen,
0:24:26–0:24:28
wenn er gegen Ausländer hetzt.
0:24:29–0:24:30
Das wäre dann zum Beispiel auch
0:24:30–0:24:34
noch etwas, das in diesen Kontrollbereich einfallen würde, vielleicht.
0:24:34–0:24:37
Ja, das ist definitiv auch eines der schlagenden Argumente, die immer kommen,
0:24:37–0:24:40
wenn der Nazi das nimmt. Natürlich nicht.
0:24:41–0:24:46
Ich verstehe auch das, aber es hängt auch alles zusammen mit dem Irrglauben,
0:24:47–0:24:52
dass das, was du produziert hast, dir allein gehört. Das Deine ist nicht dir alleine.
0:24:52–0:24:55
Das ist wichtig zu verstehen. Das ist übrigens auch sonst interessanter,
0:24:55–0:25:00
weil sonst in der Welt akzeptieren wir das. Zum Beispiel, wenn du ein Haus hast, das dir gehört.
0:25:00–0:25:04
Das Haus gehört ganz allein dir. Du hast es allein gekauft, es ist mit deinem
0:25:04–0:25:08
Geld erwirtschaftet und trotzdem hast du nicht die komplette Kontrolle über
0:25:08–0:25:10
das Haus. Du kannst zum Beispiel nicht einfach eine gelbe Farbe herstreichen.
0:25:11–0:25:13
Dann kommt der Denkmalschutz, dann kommt der Ortsbildschutz,
0:25:13–0:25:16
dann kommen die Nachbarn usw. Obwohl das dein Haus ist.
0:25:16–0:25:21
Und man akzeptiert bei ganz vielen Eigentumstexten oder Eigentumselementen,
0:25:21–0:25:24
akzeptieren wir, dass wir nicht eine hundertprozentige Kontrolle haben.
0:25:24–0:25:29
Und beim Urheberrecht, da haben wir das Gefühl, alles was aus meinem Kopf rausbrunzelt,
0:25:29–0:25:32
ist nachher mir. Und vielleicht noch wichtig, du hast vorhin etwas Wichtiges gesagt, du hast gesagt,
0:25:33–0:25:34
Du hast den Text gemacht, das
0:25:34–0:25:38
ist in deinem Kopf passiert. Ich frage dich dann, wer bist denn das Du?
0:25:38–0:25:41
Also wie ist denn das entstanden? Was macht denn das aus? Also warum bist du das?
0:25:41–0:25:44
Weil letztendlich ist das, was in deinem Kopf ist, das bist ja nicht einfach
0:25:44–0:25:47
du, weil du hast ja auch Geschenke bekommen von allen anderen rundherum.
0:25:47–0:25:52
Dass überhaupt etwas in deinem Kopf ist, ist da, weil ich zum Beispiel mit dir jetzt rede.
0:25:53–0:25:56
Und andere Leute haben auch mit dir geredet. Und die Welt da aussen existiert.
0:25:56–0:25:59
Es kann gar nicht sein, dass das mit dir alleine zu tun hat.
0:25:59–0:26:03
Es ist einfach bei dir eine Art von Manifestation. aber du bist ein Teil von
0:26:03–0:26:06
einem grossen, grossen geistigen Kollektiv, oder?
0:26:07–0:26:10
Um das jetzt mal so bildlich darzustellen, ich bin aber überhaupt nicht spirituell
0:26:10–0:26:13
drauf in dieser Frage, sondern ich gehe ganz gut darum zu verstehen,
0:26:13–0:26:18
das sind alles Knoten von einem grossen geistigen Netz, von dem wir alle davon
0:26:18–0:26:20
profitieren, wenn wir es freigeben.
0:26:20–0:26:22
Das finde ich eine sehr schöne Vision.
0:26:22–0:26:26
Ich weiss einfach nicht, ob die Welt bereit ist für diese Vision, Andreas.
0:26:26–0:26:27
Ist sie nicht, ist sie nicht. Ich will sie nicht mehr erleben,
0:26:28–0:26:31
das ist mir schon klar. Aber wir müssen fast schon wieder aufhören.
0:26:31–0:26:34
Ich hätte jetzt, glaube ich, sicher noch eine Stunde weiter diskutieren mit dir.
0:26:34–0:26:38
Ich finde das sehr spannend und ich bin gespannt dann auch, was unsere Hörerinnen
0:26:38–0:26:41
und Hörer allenfalls ein Feedback dazu haben.
0:26:42–0:26:47
Ich würde einfach noch als letzte Frage von dir wissen, findest du denn die.
0:26:48–0:26:52
Also eben, ich glaube, du hast trotzdem auch das Gefühl, dass du,
0:26:52–0:26:58
wenn du etwas produzierst, in Text oder so, etwas von dir die du dir gibst und
0:26:58–0:27:02
eben auch in diese Welt rausgibst und allen zur Verfügung stellst.
0:27:02–0:27:06
Aber hast du nicht genau die Angst davor, dass dir irgendeine KI das wegnehmen
0:27:06–0:27:09
könnte, weil sie es schneller kann als du, weil sie es besser kann als du und
0:27:09–0:27:13
weil sie es maßgeschneiderter macht als du?
0:27:14–0:27:17
Nein, im Gegenteil. Also wenn eine KI mir die Arbeit abnimmt,
0:27:17–0:27:19
umso besser, dann kann ich noch besser werden. Ich kann noch mehr verstehen,
0:27:19–0:27:20
wie die Welt funktioniert.
0:27:20–0:27:24
Ich kann noch bessere Fragen an die Welt stellen und noch bessere Antworten
0:27:24–0:27:26
wieder generiere, Mithilfe habe ich als Werkzeug.
0:27:26–0:27:31
Und ich muss schon sagen, meine Gedanken, die ich mir zu dem Urheberrecht mache,
0:27:31–0:27:35
das ist auch wieder gelesen an verschiedensten Stellen, das sind verschiedene
0:27:35–0:27:35
Sachen, die mich inspirieren.
0:27:36–0:27:41
Wenn ich da jetzt schneller zum Ziel komme, quasi auch zum guten Argument finde, umso besser.
0:27:41–0:27:44
Und ich muss einfach sagen, letztendlich, was ich wichtig finde,
0:27:44–0:27:46
ich möchte auch noch so einen Abschluss mitgeben an die Leute.
0:27:46–0:27:52
Ich glaube, man muss in dieser Frage unbedingt den Kleingeisten wegputzen und grossmütig werden.
0:27:52–0:27:56
Denn letztendlich ist das grosse Geniale wirklich die Vision,
0:27:56–0:28:03
die Vorstellung, dass wir alle auf dieser Welt auf alles Wissen jederzeit zugreifen
0:28:03–0:28:06
können und uns miteinander dazu austauschen. Dort müssen wir herkommen.
0:28:07–0:28:10
Und das ist einfach genial, diese Vorstellung. Für alle.
0:28:11–0:28:15
Andreas von Gunther, ganz herzlichen Dank, dass du hier warst im «Nerdfunk».
0:28:15–0:28:16
Danke, dass ich hier sein durfte.
0:28:21–0:28:30
Music.

Ist es okay, dass die Tech-Unternehmen das ganze Web als Trainingswiese für ihre Bots und ihre Bilder-Generatoren verwenden? Oder ist das ein Betrug an den Urheberinnen und Urhebern, die ihr Wissen, ihre Kreativität und ihre Werke zur Verfügung stellen, damit die Bots hinterher – oftmals gegen Geld – so tun, als ob alles wüssten und alles könnten? Oder müssten die Tech-Unternehmen die Menschen entschädigen, deren Material sie fürs Training ihrer Modelle verwenden?

Andreas Von Gunten hält das für eine, Zitat, Schnapsidee und findet, die KIs würden diese Informationen nutzen, so wie wir Menschen anhand von Artikeln, Büchern und Kunstwerken lernen. Er hat diese These neulich auf Linkedin vertreten, woraufhin sich eine längere Diskussion entspannte – weil Matthias anderer Meinung ist.

Aber weil es sich auf Linkedin schlecht diskutieren lässt, besprechen die beiden diese Frage im heutigen Nerdfunk. Andreas Von Gunten ist Verleger. Er engagiert sich beim Verein Digitale Gesellschaft, die für Offenheit, Grund- und Menschenrechte im Netz kämpft. Und er bezeichnet sich als «linkslibertärer Humanist».

Weitere Themen im Gespräch sind die Frage, welchen Einfluss der KIs auf die Produktion von Inhalten, Büchern und Texten im Netz haben, wie Von Gunten selbst KIs einsetzt und ob er die Bots als Bedrohung wahrnimmt, weil sie seinen Job als Autor machen könnten.

Links zur Episode

Veröffentlicht von Matthias

Nerd since 1971.

Beteilige dich an der Unterhaltung

1 Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert