Transkript anzeigen (falls vorhanden)

0:00:10–0:00:13
Die Sendung von Julia zum Februar.
0:00:13–0:00:17
Und wir schicken dem Februar noch ein müdes Bälle hinterein. Okay?
0:00:20–0:00:23
Mr. Alan, what is it? 1, 2, 3, 7.
0:00:24–0:00:26
Radio Stadtrichter.
0:00:28–0:00:30
Grüeziwoll, Kevin. Bist du müde?
0:00:30–0:00:30
Guten Tag.
0:00:31–0:00:32
Nein, du tust frisch.
0:00:32–0:00:34
Nein, ich bin müde.
0:00:34–0:00:37
Ah, müde. Okay. Lied es am Februar? Halt den noch an?
0:00:38–0:00:43
Nein, ich hatte gerade einen langen Tag. Und ich habe nicht gut geschlafen.
0:00:43–0:00:44
Letzte Nacht ist ein alter Mann.
0:00:45–0:00:47
Schlaft nicht gut. Unbrauchbar am nächsten Tag.
0:00:48–0:00:53
Ja, das könnte ich ein Wörtchen mitreden. Das gibt dann so...
0:00:53–0:00:56
Hast du Frühlingsmüdigkeit? Ist das etwas, was du merkst?
0:00:58–0:01:02
Früher hätte ich gesagt, ja, ich merke Frühlingsmüdigkeit. Heute inzwischen
0:01:02–0:01:08
würde ich sagen, ist die Frühlingsmüdigkeit zu einer allgemeinen Lebensmüdigkeit übergangen.
0:01:10–0:01:15
Es tut jetzt schlimmer als es ist. Aber ja, das Leben ist anstrengend. Ich finde schon.
0:01:18–0:01:22
Und das Problem ist, glaube ich, auch vom Älterwerden. Es ist ja so,
0:01:22–0:01:25
dass Wenn du ganz jung bist, hast du eigentlich nichts zu tun,
0:01:25–0:01:27
dann ist es eine grosse Freiheit.
0:01:28–0:01:32
Je älter das wirst, desto mehr so Sachen sammeln sich an.
0:01:32–0:01:39
Gerade wenn ich eher gut ist, mit Sachen anzufangen, aber nicht so gut ist, mit Sachen aufzuhören.
0:01:39–0:01:48
Es gibt immer mehr und gleichzeitig nimmt dein Bedürfnis nach Erholung und dein Körper,
0:01:48–0:01:55
das nicht mehr so mag, dass dieser Teil zu nimmt und dann geratet das in ein Ungleichgewicht.
0:01:55–0:02:00
Das sind so zwei gegenläufige Linien und die schneidet sich irgendwann mal und ab dann wird es schlimm.
0:02:03–0:02:07
Ach, vielleicht ist es so.
0:02:09–0:02:13
Jetzt müsst ihr die Theorie da schön runter haben, dann könnte man einen TikTok-Kanal
0:02:13–0:02:17
aufmachen und ein bisschen Mörsen verramschen und so.
0:02:19–0:02:20
Irgendwas, weiss ich was.
0:02:20–0:02:26
Das Problem ist, dein Name ist behaftet, das geht nicht gut. Wegen dieser Salz.
0:02:26–0:02:27
Ah, dieser verdammt Salz.
0:02:28–0:02:32
Die verdammt Salz. Die Schüsselertheorie wird gleich mit Salz verbunden.
0:02:33–0:02:35
Da bin ich fast sicher, dass es diese Verbindung macht.
0:02:37–0:02:40
Ich weiss nicht, ob ich das erzählen darf, aber meine Frau hat ja mal einen
0:02:40–0:02:44
von ihren Arbeitskollegen, der genau auf diese Salz abgefahren ist,
0:02:45–0:02:49
hat sie ein bisschen veralbert. in dem sie ihm ein riesiges Geschenk gemacht hat.
0:02:49–0:02:56
Sie hat nämlich ganz viel Salz, unterschiedliche Arten, also Streusalz und Kochsalz und so gekauft.
0:02:57–0:03:01
Und dann haben wir so Zettel drauf gemacht und gesagt, weil ich das angelangt
0:03:01–0:03:04
habe, hat sich das jetzt in Schüsslersalz verwandelt.
0:03:04–0:03:10
Und ich habe es von unten, vom Keller runtergetragen und darum ist es jetzt
0:03:10–0:03:12
auch ein Schüsslersalz. Das war noch lustig.
0:03:13–0:03:17
Und sie hat behauptet, er hätte es verdreht. Also man hätte diesen Witz mit
0:03:17–0:03:18
ihm machen können, aber jawohl.
0:03:18–0:03:23
Also wenn ihr das auch mal vorhabt, wenn ihr einen esoterischen Kollegen habt
0:03:23–0:03:30
oder eine Freundin oder sonst irgendeinen Verwandten, dann wäre ich also bereit gegen Spenden.
0:03:30–0:03:37
Nein, also ich könnte vor der Sendung hier im Studio vorbeikommen und ich würde das Salz durch...
0:03:37–0:03:39
Du würdest Salz berühren.
0:03:39–0:03:42
Genau, ich würde es berühren. Und sonst, wenn wir uns... Vielleicht ist es ja
0:03:42–0:03:47
schlecht, dass wir uns treffen können, wegen der Distanz und so.
0:03:47–0:03:50
Dann könnte man das aber auch telepathisch machen. Ich glaube,
0:03:50–0:03:51
das würde auch funktionieren.
0:03:52–0:03:53
Also so mental.
0:03:54–0:03:56
Mental? Fernsalz?
0:03:57–0:04:00
Fernsalz. Fernverschüsslerung vom Salz, genau.
0:04:01–0:04:06
Das ist eine Dienstleistung, die ich sofort anbieten kann. Also,
0:04:06–0:04:09
und jetzt steigen wir voll knallhart mit unserer Sendung ein.
0:04:24–0:04:30
Australien hat es vorexerziert, man kann die sozialen Medien in Pflicht nehmen,
0:04:30–0:04:34
man kann sie jetzt ein bisschen akandar nehmen, könnte man vielleicht sogar sagen.
0:04:34–0:04:40
Die haben im Dezember 2025 ein Verbot für Jugendliche, also für Kinder und Jugendliche
0:04:40–0:04:45
unter 16 Jahre eingeführt. Die dürfen jetzt nicht mehr auf TikTok,
0:04:45–0:04:49
sie dürfen nicht mehr auf Facebook und auf die anderen grossen Plattformen.
0:04:49–0:04:55
Und inzwischen haben auch andere Nationen, andere Länder überlegt,
0:04:55–0:04:57
sich das ebenfalls einzuführen.
0:04:58–0:05:02
Bei einigen ist die Entwicklung schon recht weit vorgeschritten.
0:05:02–0:05:07
Frankreich, Grossbritannien, Indonesien, Malaysia, Neuseeland und Spanien zum
0:05:07–0:05:10
Beispiel. Bei uns in der Schweiz gibt es auch so Diskussionen,
0:05:10–0:05:15
aber da hat man das Gefühl, ist die Begeisterung für so ein Social Media Verbot
0:05:15–0:05:16
ein wenig weniger gross.
0:05:17–0:05:23
Und ich frage mal, Kevin, ganz knallhart, investigativ, bist du dafür für so
0:05:23–0:05:24
ein Verbot oder dagegen?
0:05:26–0:05:32
Gott, jetzt kann ich jetzt sagen, ich bitte dafür und dann sagen wir einen schönen
0:05:32–0:05:34
Abend, wir wünschen dir eine schöne Woche, bis nächstes Mal.
0:05:34–0:05:43
Ja ich glaube wir haben schon noch luft zum 25 minuten das redet ich weiß es wirklich nicht.
0:05:45–0:05:48
Das ist eine gute Ausgangslage, wenn man es eigentlich nicht weiss.
0:05:49–0:05:53
Mir ist es fast lieber, wenn die Leute schon mit einer knallharten Meinung kommen
0:05:53–0:05:55
und es dann nur noch darum geht, sie zu verteidigen.
0:05:55–0:05:58
Weil ehrlich gesagt, ich weiss es eigentlich auch nicht.
0:05:58–0:06:05
Ich finde, ich habe gewisse Sympathien für diese Idee, habe aber auch mich in
0:06:05–0:06:09
der Vorbereitung auf die Sendung mit den Gegenargumenten beschäftigt und die
0:06:09–0:06:10
haben mich eigentlich auch überzeugt.
0:06:10–0:06:16
Und darum bin ich am Schluss ein bisschen differenziert. Aber fangen wir doch mal an.
0:06:16–0:06:24
Es gibt den E-Safety-Commissioner, der dann gefunden hat, ja wohl Online-Sicherheit.
0:06:24–0:06:29
Und es hat vorher wirklich auch viele, also in Australien reden wir jetzt,
0:06:29–0:06:33
wirklich viele Leute gegeben, unter 16, die auf diesen Plattformen waren.
0:06:33–0:06:43
Die sind zum Beispiel Snapchat 440'000, Instagram 350'000 und TikTok 200'000.
0:06:44–0:06:48
Und dann haben wir gefunden, jawohl, man müsse jetzt das absichern,
0:06:48–0:06:51
weil die Kinder einfach nicht sicher sind auf diesen Plattformen.
0:06:51–0:06:56
Und das erste Problem ist natürlich, wie tut man eigentlich das Alter feststellen, Kevin?
0:06:56–0:07:01
Wie würdest du das jetzt machen, wenn du sagst, du wärst Kevin Zuckerberg und
0:07:01–0:07:04
müsstest das einführen, jetzt australien wirst du das machen
0:07:04–0:07:08
Verifikation über
0:07:08–0:07:14
idee ja das funktioniert relativ gut und einfach und jetzt weiß ich aber nicht
0:07:14–0:07:19
wie australien die idee reglementierte das weiß sie nicht aber die wert also
0:07:19–0:07:26
wird ja wie geht es hat man ob alter x die idee hast du das selber machen,
0:07:30–0:07:32
Das mit den Kreditkarten funktioniert,
0:07:35–0:07:40
aber kommt man auch rundherum. Ich glaube, die Idee ist wie der schlechte Weg,
0:07:40–0:07:43
aber es ist ein Datenschutzproblem, natürlich ein massives.
0:07:44–0:07:44
Genau.
0:07:44–0:07:45
Das kann ich natürlich auch sehen.
0:07:46–0:07:46
Genau.
0:07:46–0:07:49
Darum bin ich wieder Ja, aber Nein.
0:07:51–0:07:54
Ich weiss nicht, wo muss man das mit der Idee machen?
0:07:55–0:07:59
An verschiedenen Orten, wo du die Idee abfotografieren musst und ein Selfie
0:07:59–0:08:02
machen musst. Ich musste das auch schon für irgendetwas machen.
0:08:02–0:08:06
Du musst sogar mit deiner Idee vor die Kamera sitzen und dann überprüfen sie dich.
0:08:07–0:08:10
Ich habe sogar mal einen Artikel darüber geschrieben, über das Schweizer Unternehmen,
0:08:11–0:08:14
das das Verfahren dann auch noch ein bisschen sicherer macht.
0:08:15–0:08:20
Weil sonst gibt es Leute, die dann auch das inszenieren.
0:08:21–0:08:24
Also wenn sie vor der Kamera sitzen oder mittels KI so klingt,
0:08:25–0:08:29
wie wenn sie die Person wären, auf dem Ausweis drauf und so.
0:08:30–0:08:34
Da kann man auch wirklich bescheissen, aber da gibt es auch die Methoden, um dagegen zu halten.
0:08:35–0:08:40
Ich habe das auch schon gemacht. Ich glaube, ich habe mal online die Möglichkeit gegeben,
0:08:41–0:08:48
um ein Mobilfunk-Abo abzuschliessen und dann musstest du das machen.
0:08:49–0:08:55
Vorher musstest du allein wegen dieser Identifikation in einen Online-Shop laufen.
0:08:55–0:09:02
Durch diese Methode konnte man das auch digital im Internet machen.
0:09:03–0:09:09
Die einfachste Methode ist Selbstangabe. Das ist wie auf gewissen Webseiten
0:09:09–0:09:12
für Erwachsenenunterhaltung. dann klickst du auf «Ich bin 18» und dann geht's los.
0:09:12–0:09:14
Das ist eine Traumensbasis.
0:09:14–0:09:19
Genau. Das ist jetzt für die Plattformen vielleicht tatsächlich nicht so die schlaueste Idee.
0:09:19–0:09:23
Denn du hast es schon angedeutet mit den Kreditkarten, die man darf.
0:09:24–0:09:27
Das ist mir nicht ganz bewusst gewesen, aber es scheint tatsächlich so zu sein,
0:09:27–0:09:30
man muss 18 sein, dass man so eine Kreditkarte bekommt, weil man,
0:09:30–0:09:36
ja gut, ist vielleicht schlau, wenn die 16-Jährigen Geld, die sie nicht haben, können verjubeln.
0:09:36–0:09:39
Ich weiss aber nicht, ob das eben wirklich so ist, weil heute hast du ja auf
0:09:39–0:09:42
der EC-Karte hinten drauf eine Kreditkarte und ich weiss es eben nicht.
0:09:43–0:09:48
Mal, du kannst sie unterscheiden. Sie wissen glaube anhand, sie wissen glaube, was was ist.
0:09:49–0:09:53
Genau, dort ist das Problem, dass natürlich nicht alle eine Kreditkarte haben.
0:09:54–0:09:57
Und dann heisst es, dann bist du zwar erwachsen, aber kannst du trotzdem nicht
0:09:57–0:10:00
auf diese Plattformen, weil du keine Kreditkarte hast. Das wäre auch ein bisschen doof, oder?
0:10:00–0:10:08
Und ich glaube, es wäre eine gute Idee, wenn man nicht einen Zwang zu den Kreditkarten
0:10:08–0:10:10
würde. Wobei, das wäre vielleicht auch mal eine Sendung wert.
0:10:10–0:10:15
Also ohne Kreditkarte kommst du im Internet ja immer noch nicht wahnsinnig weit,
0:10:15–0:10:18
wenn du Shopping betreiben willst oder so. Also in der Schweiz kannst du die Wind nehmen.
0:10:18–0:10:23
Ich glaube in der Schweiz schon, aber sonst wird es dann schnell dünn.
0:10:23–0:10:28
Genau. Dann gibt es so die biometrische Analyse, also eben du hättest ein Selfie
0:10:28–0:10:32
in die Kamera und dann probiert es anhand von dem, also ohne dass du noch einen
0:10:32–0:10:35
Pass hast, einfach festzustellen, wie alt das die Person ist.
0:10:36–0:10:40
Aber natürlich eben auch das kann man scheissen nach Strich und Faden.
0:10:40–0:10:43
Dann nimmst du halt sonst je nachdem einfach ein anderes Selfie von irgendjemandem.
0:10:44–0:10:48
Und eben, wir müssen ja uns da auch keine Illusionen hingeben,
0:10:48–0:10:53
Die Unternehmen, so meta und so, würden die Daten, du hast es angeht,
0:10:53–0:10:57
nicht nur brauchen, um dein Alter festzustellen, sondern die wären dann immer dort.
0:10:57–0:11:03
Und sie würden allerhand Möglichkeiten herausfinden, um auch deine und meine
0:11:03–0:11:07
Gesichtsdaten zu verwerten, zu monetarisieren und so.
0:11:08–0:11:12
Wir glauben gar nicht darum, dass sie das machen würden, sondern einfach ein
0:11:12–0:11:15
grundsätzliches Misstrauen, um zu sagen, ich möchte eigentlich gar nicht,
0:11:16–0:11:17
dass sie das haben. Ja, ja.
0:11:18–0:11:21
Auch wenn sie sagen, wir schwören, dass wir nichts damit machen.
0:11:21–0:11:24
Das ist so, nein, ihr, nein, einfach nicht.
0:11:25–0:11:29
Genau, und dann gibt es noch die Verhaltensanalyse, dort schaut man den Leuten
0:11:29–0:11:32
einfach zu und sagt dann, der könnte jetzt so und so alt sein.
0:11:32–0:11:34
Aber, also ehrlich gesagt.
0:11:35–0:11:42
Dort wird es dann schon sehr schwammig. Das ist dann wie so mit deinen Schüsselsalz,
0:11:42–0:11:44
die du über die Luft schütteln.
0:11:44–0:11:47
Das wäre auf dem gleichen Niveau.
0:11:47–0:11:49
Ja, etwas so.
0:11:49–0:11:56
Ja, das sehe ich auch so. Und letztens bin ich auf YouTube gewesen und dort hat mir YouTube gesagt,
0:11:56–0:12:01
wir haben dir dein Profil angepasst, weil wir sind nicht sicher,
0:12:01–0:12:05
ob du Du bist schon 18 Jahre alt und dann sagte ich, danke vielmals YouTube.
0:12:05–0:12:09
Es war tatsächlich möglich, dass meine Tochter vielleicht mit dir geredet.
0:12:09–0:12:12
Eben, ein kleiner Mensch im Haushalt und dann war es das.
0:12:13–0:12:19
Genau, das kommt natürlich auch noch dazu. Das Problem ist sowieso,
0:12:19–0:12:25
ob auch der, der den Altersausweis oder Nachweis erbracht hat, auch das Konto benutzt.
0:12:26–0:12:28
Das wäre dann schon mal die Nachsprache. Aber wir könnten sagen,
0:12:28–0:12:33
wenn wir jetzt schon die E-ID hätten, wir haben die angenommen und vielleicht,
0:12:33–0:12:36
wenn es gut kommt, dann ist es schon 2026.
0:12:37–0:12:40
Im Laufe dieses Jahres können wir sie dann irgendwann mal brauchen oder uns
0:12:40–0:12:43
vielleicht zumindest mal anmelden für so eine E-ID.
0:12:43–0:12:46
Aber wenn wir die hätten, dann können wir sagen, das wäre die Lösung.
0:12:46–0:12:52
Dann kann man zu Facebook gehen und sagen, da ist meine E-ID und die sagt aber
0:12:52–0:12:54
nur, jawohl, der Typ ist schon 18+.
0:12:54–0:13:02
Er sagt nicht, wie alt ich bin, sondern er erfüllt die Zugangskriterien und dann kommt man nie.
0:13:02–0:13:07
Das wäre eigentlich das Ei des Kolumbus. Oder siehst du das anders?
0:13:08–0:13:15
Grundsätzlich ja, auch wieder. Aber was ist jetzt? Ich bin Doppelbürger.
0:13:16–0:13:20
Ja, genau. Und im einen Land ist es so und im anderen ist es anders.
0:13:20–0:13:26
Ja, genau. Dann bin ich wahrscheinlich, vielleicht jetzt nicht Deutschland,
0:13:26–0:13:28
weil die diskutieren es ja glaube ich auch schon.
0:13:29–0:13:34
Aber ich bin Schweizer und ich bin Kroatien.
0:13:34–0:13:37
Und in Kroatien ist es erlaubt, in der Schweiz nicht.
0:13:37–0:13:42
Dann mache ich mir einfach einen kroatischen Account und verifiziere mich dort.
0:13:42–0:13:46
Ja, genau. Und ich meine, es kann ja auch sein, dass du ein Ausländer bist,
0:13:46–0:13:49
der dauerhaft in einem anderen Land wohnt. Ja, genau.
0:13:52–0:13:58
Vielleicht hast du dann dort ein lokales, aber es ist einfach nicht so ganz gerecht.
0:13:58–0:14:01
Und dann gibt es natürlich auch die V-Pans, ist dann die Frage,
0:14:02–0:14:09
wie wichtig ist dann dein Geburtsort versus wirklich dein Aufenthaltsort.
0:14:09–0:14:11
Sonst wenn du einfach in den Ferien mal irgendwo bist, für die,
0:14:12–0:14:17
die kein V-Pan einrichten können, dann machen sie halt das, wenn sie mal Zitalien
0:14:17–0:14:20
in den Ferien sind, machen sie dann ihr Konto oder so.
0:14:20–0:14:24
Also es ist halt ein bisschen löchrig, würde man schon meinen.
0:14:25–0:14:30
Und ich glaube, bei vielen Sachen schaut man halt auf Australien.
0:14:30–0:14:35
Also Australien hat ja auch sehr striktes Waffengesetz eingeführt seit dem Adeptat,
0:14:36–0:14:38
das damals war, und dann haben sie einfach gesagt, okay, wir verbieten alle
0:14:38–0:14:41
Waffen fertig, gibt es einfach nicht mehr, Diskussion erledigt.
0:14:41–0:14:44
Und sie sind jetzt auch die Ersten, die sagen, okay, Social Media gibt es nicht mehr.
0:14:44–0:14:48
Aber Australien hat einfach, sie haben einfach einen Vorteil,
0:14:48–0:14:54
sie sind eine Insel. Und es ist geografisch schon mega schwierig,
0:14:54–0:14:58
dort irgendetwas drauf zu bringen. Also,
0:14:59–0:15:03
Sehr einfach gesagt, jetzt im Technischen ist einfach, sie können einfach den
0:15:03–0:15:08
ganzen Datentransfer abfangen und einfach die sozialen Netzwerke theoretisch
0:15:08–0:15:09
einfach komplett zumachen.
0:15:09–0:15:13
Also sie haben dort einen kleinen Vorteil. Mit den Waffen ist ja das Gleiche.
0:15:13–0:15:17
Es ist relativ schwierig, auf die Inseln nur schon Waffen drauf zu bringen.
0:15:17–0:15:20
Also es ist relativ einfach zu sagen, wir verbieten alle Waffen,
0:15:20–0:15:25
aber in Europa sind halt die Grenzen so nahe aufeinander, dass es dann,
0:15:25–0:15:30
es ist eine ganz andere Ausgangslage, die wir haben. die viel schwieriger ist.
0:15:31–0:15:36
Genau, und gesamteuropäisch sieht es jetzt nicht so aus, als ob da so eine Initiative
0:15:36–0:15:39
käme, dass die EU sagen würde, wir führen das jetzt ein.
0:15:39–0:15:41
Und dann würde es natürlich auch für die Schweiz ein bisschen anders aussehen.
0:15:43–0:15:47
Facebook, typischerweise, tut ja immer so, als wenn die Schweiz zu der EU gehören
0:15:47–0:15:50
würde. Also alles, was für die EU gibt, gilt für uns auch.
0:15:51–0:15:54
Das ist ja bei vielen von diesen Tech-Konzernen so. Ausser bei Apple,
0:15:54–0:15:58
dort ist es explizit anders. Die Schweiz behandeln die Schweiz immer als Inseln.
0:16:00–0:16:03
Darum haben wir z.B. auch nicht die alternativen App-Stores,
0:16:03–0:16:04
die es in der EU schon länger gibt.
0:16:05–0:16:09
Aber das nur als Randbemerkung. Vielleicht interessiert euch noch,
0:16:09–0:16:13
was passiert, wenn man bescheisst, also wenn vielleicht sogar die Eltern ihren
0:16:13–0:16:17
Kindern helfen würden, diese Limiten auszuhebeln.
0:16:17–0:16:22
Das heisst zumindest in Australien ist es jetzt so, dass es hier keine Strafe
0:16:22–0:16:25
gibt, weder für die Kinder noch für die Eltern, aber für die Tech-Konzern,
0:16:25–0:16:30
denen droht Bussen, wenn sie da zu viele Kinder durchlassen.
0:16:31–0:16:35
Vielleicht, ich weiss nicht, schon ab einem Kind Bussen wären es ein bisschen.
0:16:35–0:16:35
Schon ein Million.
0:16:36–0:16:43
Ja, genau. Also diskutieren wir doch über die Gründe dafür, was aus deiner Sicht
0:16:43–0:16:45
dann knallhart dafür sprechen würde.
0:16:45–0:16:50
Es ist eigentlich schon klar, oder? Das Problem ist, wir reden schon seit Jahren
0:16:50–0:16:56
und wenn nicht Jahrzehnte darüber, Es passiert Mobbing auf diesen Plattformen, sie sind ungesund.
0:16:56–0:16:59
Wir haben vor ein oder zwei Wochen darüber gesprochen.
0:16:59–0:17:04
Die sozialen Medien machen Abhängung, sie machen Züchtung, sie befördern Selbstbild
0:17:04–0:17:12
unter Umständen negativ, sie befördern Depressionen, sie machen alles Wüsten.
0:17:14–0:17:21
Wenn man einfach darauf schaut, Wenn du sagst, dass man diese Probleme mit einem
0:17:21–0:17:24
Schlag löst, und es ist eine relativ einfache Gesetzgebung, also wieso machen wir das nicht?
0:17:26–0:17:31
Grundsätzlich ja. Also ich verstehe den Ansatz, dass man sagt,
0:17:31–0:17:35
man muss junge Menschen auch vor dem schützen, junge Menschen,
0:17:35–0:17:40
die halt auch im Selbstbild noch nicht gefestigt sind, wo Sachen,
0:17:40–0:17:48
die auf sozialen Medien passieren, viel grösser Impact haben,
0:17:49–0:17:52
als wenn du das mit 30 siehst.
0:17:53–0:17:56
Wahrscheinlich mehr Lebenserfahrung. Es geht gerade mehr um das.
0:17:58–0:18:04
Und dass die sozialen Medien all das gemacht haben, sie machen abhängig,
0:18:04–0:18:08
sie reagieren auf. Es klingt jetzt immer so negativ, wenn man das so sagt.
0:18:09–0:18:14
Es ist ja auch nicht so, dass die sagen, wir wollen, dass die Plattform dich abhängig macht von uns.
0:18:15–0:18:20
Sie möchten natürlich, dass der Benutzer möglichst viel Zeit auf dieser Plattform verbringt.
0:18:20–0:18:24
Möglichst viele Zeit auf dieser Plattform verbringt er, wenn er interessante
0:18:24–0:18:27
Inhalte sieht und interessante Inhalte sind halt oft,
0:18:28–0:18:34
viele Fake News oder so Ragebait oder irgend so Sachen, wo dann einfach die
0:18:34–0:18:37
Leute halt darauf anspringen, weil das halt ein einfacher Mechanismus ist.
0:18:38–0:18:44
Ja, darum wird es halt ungesund. Ich glaube nicht, dass Social Media grundsätzlich schlecht wäre.
0:18:45–0:18:53
Es sind Mechanismen, die man eingebaut hat, um Wachstum zu haben und mehr Leute
0:18:53–0:18:55
auf dieser Plattform, die schlecht sind.
0:18:55–0:19:02
Ich glaube, es würde ein soziales Netzwerk funktionieren, wenn man diesen Algorithmus anpassen würde.
0:19:03–0:19:06
Das ist genau so, wie du sagst. Und ich finde es noch spannend,
0:19:07–0:19:13
dass man diesen Konzernen nicht unterstellen kann, dass das aus reiner...
0:19:13–0:19:16
Also Meta würde ich jetzt nicht aus der Verantwortung lassen.
0:19:16–0:19:21
Von diesem Konzern weiss man schon lange, dass sie auch interne Studien gemacht
0:19:21–0:19:26
haben, wo sie sagen, wie gefährlich das ist für die Kinder und trotzdem die
0:19:26–0:19:30
einfach nichts, wirklich null Lehren daraus gezogen haben.
0:19:30–0:19:35
Und darum muss ich sagen, der wichtigste Grund, den ich sehe,
0:19:35–0:19:41
ist, wofür so ein Verbot spricht, ist einfach, diese auch in Verantwortung zu nehmen.
0:19:42–0:19:46
Und vielleicht auch als Drohkulissen aufzubauen, sagen, jetzt macht wirklich
0:19:46–0:19:51
ernsthaft etwas, kümmert euch ernsthaft um den Jugendschutz,
0:19:51–0:19:56
macht etwas, zeigt, was ihr macht und lasst euch kontrollieren.
0:19:56–0:19:59
Also wir wollen auch wirklich nicht einfach ein paar schöne Worte hören am Schluss,
0:19:59–0:20:05
sondern belastbare Resultate, wo wir sehen, jawohl, das bringt etwas jetzt, ihr meint es ernst.
0:20:05–0:20:09
Und dann könnte man sagen, wenn ihr das so macht, dann okay,
0:20:09–0:20:14
dann lassen wir das Verbot bleiben, dann glauben wir euch, dass ihr das ernsthaft um...
0:20:14–0:20:18
Aber wenn es dann halt nach einer gewissen Zeit immer noch nichts passiert ist,
0:20:18–0:20:26
dann könnte ich mir so als Verbot halt als letzte Möglichkeit schon vorstellen. Und
0:20:27–0:20:32
Ja, aber eben, es ist glaube ich wirklich, das habe ich noch wollen sagen,
0:20:32–0:20:35
so die Wechselwirkung, dass halt, ich finde noch erstaunlich,
0:20:35–0:20:40
wie glärig, man muss eigentlich auch sagen, dass halt, dass die Nutzerinnen
0:20:40–0:20:42
und Nutzer gewesen sind und wirklich auch,
0:20:43–0:20:45
gerade also bei TikTok und so hat man das Gefühl,
0:20:45–0:20:50
wer da intensiv drauf ist, der könnte vielleicht den Algorithmus nicht genau
0:20:50–0:20:51
beschreiben, wie der funktioniert,
0:20:51–0:20:56
aber der entwickelt das Gespür dafür und dann gibt es halt all die Leute,
0:20:56–0:21:02
die wissen, wie man den ausnutzt oder wie man den für seine eigene Reichweite ...
0:21:03–0:21:08
Man kann ja inzwischen auch bei vielen Plattformen Monetarisierung betreiben.
0:21:08–0:21:14
Das heisst, man kann selber Geld verdienen, wenn man reichweitenstarken Inhalte erzeugt.
0:21:14–0:21:18
Was vielleicht auch ein bisschen problematisch ist, weil das natürlich alle
0:21:18–0:21:19
Mechanismen verstärkt.
0:21:19–0:21:28
Aber die Leute, die das machen, die wissen sehr genau, wie man die unternatürliche
0:21:28–0:21:32
Ausblendung von jeglichem Verantwortungsbewusstsein,
0:21:32–0:21:35
die Algorithmen für sich selber schaffen lässt.
0:21:35–0:21:43
Und das ist auch eine fatale Komplizenschaft von vielen dieser sogenannten Content Creators.
0:21:44–0:21:49
Ja, ich glaube, das Ding ist, also das haben wir eigentlich gar nicht gesagt,
0:21:50–0:21:57
um was geht die Diskussion, beziehungsweise was sind,
0:21:58–0:22:00
von welchen Plattformen reden wir.
0:22:00–0:22:07
Weil ich glaube, das ist so ein Faktor, wo man redet zwar vom Gleichigen, aber es ist gleich ein,
0:22:13–0:22:17
Probleme, die gar nichts miteinander zu tun haben. Also wir haben Social Media
0:22:17–0:22:20
Plattformen, ich sage jetzt da wirklich Facebook, Instagram, TikTok.
0:22:21–0:22:26
Das sind die Sachen. Das haben wir gesagt, das ist das eben Falschnachrichten,
0:22:26–0:22:30
schlechtes Bild von sich selber, also mit Influencer, mit was immer,
0:22:30–0:22:33
wo dir etwas vorlebt, was du eh nicht hast. Das ist das Einte.
0:22:34–0:22:37
Und nachher gibt es aber die ganzen Kommunikationsplattformen,
0:22:37–0:22:41
wo ja auch ein Problem sind, wo man dann einfach sagt, hey, ich habe jetzt da
0:22:41–0:22:44
im IK ich habe irgendein Bild generiert und schicke das über WhatsApp in den
0:22:44–0:22:47
Klassenchat ein, ist dann das auch Social Media?
0:22:48–0:22:53
Weil dort reden wir von ganz einer anderen Geschichte, wo aber auch ein Problem ist.
0:22:53–0:22:59
Also das ganze Vernetzte unter den Menschen ist auch ein Faktor.
0:22:59–0:23:06
Und ich glaube, nur Social Media aufheben löst einen Teil des Problems,
0:23:06–0:23:07
aber bei weitem nicht alles.
0:23:08–0:23:15
Ja, schwenken Ihr findet dann die Blogposts, die ich erwähne,
0:23:15–0:23:19
auch in unseren Shownotes, alle verlinkt, von den Leuten, die sagen,
0:23:19–0:23:24
das ist eine Skilösung für ein echtes Problem, wo man zum Beispiel sagt,
0:23:25–0:23:33
das würde gar nichts helfen, wenn man die Jugendlichen einfach aussperrt.
0:23:33–0:23:38
Dann bleiben die Plattformen genauso, wie sie sind. Das Geschäftsmodell verändert sich nicht.
0:23:38–0:23:43
Sie sehen keinen Zwang oder keine Pflicht, irgendetwas zu verändern.
0:23:43–0:23:48
Vielleicht ist Mark Zuckerberg sogar beleidigt und ändert darum gerade extra nichts.
0:23:48–0:23:52
Weil ich finde, wenn ihr nicht lieb seid zu mir, dann bin ich auch nicht so besonders lieb zu euch.
0:23:54–0:23:59
Und die Leute, die vielleicht vulnerable sind, obwohl sie schon älter sind,
0:23:59–0:24:03
die sind genauso vulnerable und all die Mechanismen, die schwierig sind,
0:24:04–0:24:05
bleiben genauso intakt.
0:24:05–0:24:08
Das finde ich eigentlich eine recht einleuchtende
0:24:11–0:24:16
Auch die digitale Gesellschaft, die ebenfalls findet, dass es nicht nachhaltig
0:24:16–0:24:18
sei, wenn man das einfach verbietet, die sagen,
0:24:19–0:24:23
Es gibt wirklich auch keine wissenschaftliche Grundlage, dass man sagt,
0:24:24–0:24:30
die sozialen Medien, die Nutzung, die psychischen Beiträchtigungen auslösen,
0:24:31–0:24:35
sondern es gibt wahnsinnig viele andere Faktoren,
0:24:36–0:24:43
die auch so ein Jugendlicher in seiner Hoffnung beinträchtigen können.
0:24:43–0:24:47
Zum Beispiel muss man ja nur normale Nachrichten schauen und lesen.
0:24:47–0:24:49
Dann sieht man das. Es gibt auch Leistungsdruck.
0:24:50–0:24:54
Es ist einfach wirklich schwierig. Und dann fast das Argument,
0:24:54–0:24:56
das mich am meisten überzeugt hat,
0:24:57–0:25:03
Wenn man sagt, man verlangt von den Jugendlichen, dass sie digitale Teilhabe
0:25:03–0:25:04
lehren, dass sie verstehen,
0:25:04–0:25:09
wie die Medien funktionieren, dass sie das lernen können, dass sie sich Medienkompetenz
0:25:09–0:25:14
aneignen und dass sie auch die Möglichkeit haben,
0:25:14–0:25:20
mit ihren Altersgenossen sich mit diesen Mitteln, die nun mal wirklich wichtig
0:25:20–0:25:23
sind in unserer Welt, auszutauschen, wenn man ihnen diese wegnimmt,
0:25:23–0:25:28
dann nimmt man ihnen erstens etwas weg und zweitens verhindert man,
0:25:28–0:25:31
dass sie das auch wirklich lernen können und dann zack sind sie 16 und dann
0:25:31–0:25:34
haben sie aber noch nie ein Facebook gebraucht oder ein TikTok und dann sollten
0:25:34–0:25:38
sie es gerade von sofort können und wollen alles aufholen und dann kann man
0:25:38–0:25:40
sich schon vorstellen es wird nicht unbedingt besser
0:25:42–0:25:49
Definitiv nicht und also ich gebe ja am KV Schule und ich habe oft so das Gefühl,
0:25:50–0:25:54
man müsste ja eben die Kompetenzen irgendwo vermitteln in der Schule oder was
0:25:54–0:25:57
immer Aber das kann eine Schule nicht.
0:25:57–0:26:01
Ich meine, es wäre das langweiligste Fach dieser Welt.
0:26:02–0:26:07
Es kommt ja sogar vor im KV, ich muss ja diesen Umgang vermitteln.
0:26:07–0:26:10
Aber es ist das Schrecklichste überhaupt.
0:26:11–0:26:16
Es muss ja wie schon in einer Generation stattfinden, die mit dem gross geworden
0:26:16–0:26:21
ist, die mit dem Sattelfest ist und dann ihren Kindern das wie weitergeben kann.
0:26:21–0:26:25
Und ich glaube, jetzt sind wir halt wirklich so in einer Zwischenwelt,
0:26:25–0:26:31
weil es ist noch niemand mit Social Media gross geworden, der jetzt schon Kinder hat.
0:26:33–0:26:39
Und ich glaube, die Generation kommt. Also es wird eine Generation kommen,
0:26:39–0:26:41
die die Eltern Social Media erlebt haben, sagen, das ist scheisse.
0:26:42–0:26:47
Und wir versuchen unsere Kinder jetzt dort hinzubringen, dass es vielleicht
0:26:47–0:26:50
nicht mehr so nutzt wird, wie sie es selber genutzt haben. Keine Ahnung.
0:26:51–0:26:55
Ja, ich finde natürlich, das ist eigentlich das Ideale, dass Kinder zusammen
0:26:55–0:26:59
mit ihren Eltern das lernen und dann die Eltern auch ehrlich sind,
0:26:59–0:27:02
wenn sie selber überfordert sind und wo sie selber anstehen.
0:27:03–0:27:08
Und zugeben, wenn es selber auf Facebook oder auf Twitter ausgetickt sind und
0:27:08–0:27:14
sich wieder drei Stunden lang mit jemandem gefetzt hat über ein völliges idiotisches
0:27:14–0:27:16
Thema, über einen Typ, der unbelehrbar ist,
0:27:16–0:27:19
also eben, ich glaube, das würde helfen,
0:27:20–0:27:24
wenn man ein Kind einem nicht nur als positives, sondern ab und zu vielleicht
0:27:24–0:27:26
auch als negatives Beispiel wahrnehmen würde.
0:27:27–0:27:33
Aber eben, das ist klar, das gibt es nicht in jeder Familie, Aber ja,
0:27:33–0:27:37
das ist tatsächlich ein Problem, dass es halt einfach Familien gibt,
0:27:38–0:27:41
wo die Kinder noch vieles nicht lernen, wo man eigentlich können müsste und
0:27:41–0:27:45
wo ich heute in der Gesellschaft wichtig wäre.
0:27:46–0:27:50
Auch noch ein Argument, das jemand gesagt hat, das ich recht gut finde.
0:27:50–0:27:53
Ich habe das auf dem verfassungsblog.de gefunden.
0:27:53–0:27:57
Er hat gesagt, man spricht hier über die Jugendliche statt mit ihnen.
0:27:57–0:28:00
Ich finde auch, das machen wir jetzt zwar auch, aber aufrufen,
0:28:00–0:28:06
wenn ihr Jugendliche seid, unter 16, kommen die uns in die Sendung.
0:28:06–0:28:09
Wir müssen sehr gerne mit euch auch über das Thema sprechen.
0:28:09–0:28:11
Es ist also eine offizielle Einladung.
0:28:12–0:28:14
Und jetzt sagt man, das wäre besser,
0:28:16–0:28:23
Abgesehen davon, dass auch Kinder Grundrechte haben und dort gehört auch dazu,
0:28:23–0:28:29
dass sie sich untereinander auf diese Art und Weise austauschen, wie sie das wollen.
0:28:29–0:28:33
Und wenn das halt mit sozialen Medien ist, dann wäre es wirklich auch ein bisschen
0:28:33–0:28:35
übergriffig, ihnen das zu verbieten.
0:28:35–0:28:40
Leuchtet mir alles ein und darum bin ich eigentlich inzwischen auch gegen so
0:28:40–0:28:44
ein Verbot, obwohl es mir am Anfang eingeleuchtet hat aus diesen eingangs erwähnten Gründen.
0:28:44–0:28:48
Und ich habe mir dann überlegt, aber hör mal, lange Zeit haben wir das eigentlich
0:28:48–0:28:55
geschafft, dass man Medien so gemacht hat, dass man auch die allermeisten Zeitungen
0:28:55–0:28:57
und Zeitschriften umliegen konnte.
0:28:57–0:29:03
Kinder konnten sie anschauen und auch das Fernsehprogramm war tagsüber und am
0:29:03–0:29:06
Abend, am Vorabend so, dass Kinder schauen konnten.
0:29:07–0:29:11
Es ist vielleicht nicht immer alles, was dort gesagt wurde oder gesendet oder
0:29:11–0:29:15
gestanden ist, ist wirklich für Jugendliche geeignet gewesen.
0:29:15–0:29:20
Aber die Jugendlichen haben ja auch so ihre eigenen Interessen und so und schauen
0:29:20–0:29:23
dann vielleicht schon eher Sachen, die für sie passen.
0:29:23–0:29:28
Und darum ist die Idee entstanden, wie wäre es dann, wenn man einfach die sozialen
0:29:28–0:29:33
Medien so gestalten würde, dass auch Jugendliche sich da bewegen könnten,
0:29:33–0:29:34
ohne dass man Angst haben muss.
0:29:37–0:29:47
Ist das Bedürfnis so gross für die Leute, dass man sich die allermeisten Dinge diskutieren kann,
0:29:48–0:29:53
dass, wenn es ein Kind sei, ich finde es langweilig oder es interessiert mich
0:29:53–0:29:56
nicht, aber keinen psychischen Schaden davor trägt.
0:29:57–0:30:00
Aber so eine Plattform willst du ja nicht haben.
0:30:01–0:30:05
Also wer will dann so eine Plattform in der heutigen Welt, wo es ja nur um Profit geht?
0:30:05–0:30:10
Und wenn du jetzt eine Plattform so baust, dann sind dort vier Leute drauf.
0:30:11–0:30:12
Du meinst Mastodon?
0:30:14–0:30:18
Zum Beispiel, also es muss nicht einmal Mastodon sein, wo Mastodon,
0:30:18–0:30:22
glaube ich, ist das Problem, es ist zu technisch, das ist das Problem.
0:30:22–0:30:30
Es ist nicht sexy, aber wenn du eine Plattform bäuchst, die positiv und für
0:30:30–0:30:34
alle und so, dann will niemand drauf.
0:30:34–0:30:37
Sie müssten ja nicht mal unbedingt positiv sein. Sie müssten ja zum Beispiel
0:30:37–0:30:46
einfach keinen Inhalt automatisch algorithmisch den Leuten unter die Nase reiben.
0:30:48–0:30:52
Aber dann wird die Plattform ja langweilig. dann springen ja die Leute ab,
0:30:52–0:30:55
weil sie ja wieder ... Sie werden ja langweilig.
0:30:55–0:30:58
Ja, aber wäre das so schlimm, wenn die sozialen Medien ein bisschen langweiliger
0:30:58–0:31:00
wären, wieder jetzt, wo sie eine Süchte machen?
0:31:01–0:31:06
Welche Firma macht dieser Ansatz, der sagt, hey, komm mal auf eine Plattform,
0:31:06–0:31:08
wo niemand drauf ist, weil sie langweilig ist?
0:31:09–0:31:13
Meinst du, wenn man jetzt Facebook so umbauen würde, dass der Algorithmus einem
0:31:13–0:31:19
wieder, wie früher, nicht mehr nur würde den ganzen AI-Slop vorspielen,
0:31:19–0:31:23
sondern einfach nur das Zeug von den Leuten, die du folgst, chronologisch.
0:31:24–0:31:28
Meinst du, Facebook wäre langweilig, weil niemand mehr postet,
0:31:28–0:31:31
weil das Kind eigentlich schon im Brunnen nicht geht?
0:31:31–0:31:37
Nein, wir haben uns auch etwas anderes gewöhnt. Ich glaube, es wäre langweilig.
0:31:38–0:31:40
Es wäre unerträglich langweilig.
0:31:40–0:31:42
Ist das unumkehrbar, meinst du?
0:31:43–0:31:48
Es bräuchte einen Moment, aber in dem Moment, wo die Verfügbarkeit von anderen
0:31:48–0:31:50
Plattformen da ist, springe ich ab.
0:31:51–0:31:56
Ja, ich bin ihm nicht ganz sicher. Also ich sehe die Kritik und ich finde auch, ja.
0:31:56–0:32:02
Aber ich finde auch, es hat wirklich auch in der Welt vor sozialen Medien interessante
0:32:02–0:32:08
Medien gegeben, die keine Algorithmen gebraucht haben, die ständig Randale fabriziert haben.
0:32:08–0:32:12
Ich glaube, das würde wahrscheinlich eine Durststrecke geben,
0:32:12–0:32:15
wo man diese Plattformen langweilig finden würde.
0:32:15–0:32:22
Wäre für viele Leute, inklusive mich, heilsam, wenn es mal ein bisschen langweiliger wäre.
0:32:22–0:32:29
Ich habe dann gefunden, man könnte ja auch das klassische Ding von Tagsüber
0:32:29–0:32:34
ist quasi weniger erlaubt, wenn die Jugendlichen dabei sind,
0:32:34–0:32:38
weder nach dem 10. Nach dem 10 kannst du die Unanstalten...
0:32:38–0:32:40
Und dann ist Sodom und Gomorra.
0:32:40–0:32:46
Genau, da wird dann kein Kind mehr da. Und am Morgen sind die Posts dann alle wieder weg.
0:32:46–0:32:49
Cool, nur noch Katzenvideos, aber in der Nacht?
0:32:50–0:32:54
Dann musst du dich auch entscheiden, ob du das jetzt machen willst.
0:32:54–0:32:58
Dann musst du aufbleiben, um Facebook noch das grusige Zeug zu schauen.
0:32:59–0:33:02
Oder sonst gehst du halt ins Bett und findest, ich schaue am Morgen dann wieder
0:33:02–0:33:09
Katzenvideos an. Ich weiss es nicht, aber kurz vor der Sendung ist meine Stimme dann noch im Eimer.
0:33:10–0:33:14
Aber ich würde das gerne mal ausprobieren und ich würde gerne Herrn Zuckerberg
0:33:14–0:33:16
zwingen, dass wir das alle ausprobieren können.
0:33:17–0:33:21
Und ich würde sagen, wenn ihr eine gute Idee habt, wie wir das Problem lösen
0:33:21–0:33:22
können, dann schreibt das.
0:33:23–0:33:26
Ich habe unsere Mailadresse schon lange nicht mehr gesagt.
0:33:26–0:33:31
Auf nerdfunk, stadtfilter.ch gerne auch Feedback zu dieser Sendung und zu allem
0:33:31–0:33:32
anderen, die ihr bei uns gehört.
0:33:32–0:33:36
Und Kevin, Hast du noch ein schönes Schlusswort zu dem Thema?
0:33:37–0:33:40
Ich warte jetzt bis es abends um 10 Uhr ist und dann gehe ich auf Facebook und
0:33:40–0:33:42
schaue, ob das Adam und Gomorra ist.
0:33:43–0:33:44
Bis dann!

Australien führte am 10. Dezember 2025 als erstes Land weltweit ein Gesetz ein, das Kindern und Jugendlichen unter 16 Jahren eigene Konten bei vielen grossen Social-Media-Plattformen verbietet. Zahlreiche Nationen erwägen, ebenfalls solche Gesetze einzuführen. Auch in der Schweiz gibt es eine solche Diskussion, allerdings mit weniger Begeisterung als in Frankreich, Grossbritannien, Indonesien, Malaysia, Neuseeland und Spanien.

Trotzdem fragen wir: Wäre das eine Methode, die Jugendlichen effektiv zu schützen? Oder ist es im Gegenteil bloss eine Scheinlösung, die den Betroffenen ihre Mitsprache nimmt – und obendrein verhindert, dass sie rechtzeitig eigene Medienkompetenz aufbauen können?

Wir diskutieren diese Fragen und stellen eine provokative These in den Raum: Wie wäre es, wenn die sozialen Medien – und alle, die sich dort aufhalten – sich so aufführen würden, dass auch Kinder sich nicht gefährdet fühlen müssen?

Die Links zur Episode

Ausgangslage

Problem der Alterskontrolle

Argumente der Gegner

Last but not least

Beitragsbild: Er muss leider auf Solitär ausweichen (Tima Miroshnichenko, Pexels-Lizenz).

Veröffentlicht von Matthias

Nerd since 1971.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert