Transkript anzeigen (falls vorhanden)
0:00:05–0:00:12
Der Mavi mit Known Unknowns und das ist eigentlich fast schon eine prophetische,
0:00:13–0:00:16
Verkündung vom Nerdfunk, den wir jetzt gerade haben.
0:00:17–0:00:22
Der Morgomat. Nein, der Morgomat. Okay, ich wollte noch einen,
0:00:24–0:00:30
Teto, vielleicht ist das kein Morgomat. Der Morgomat. So, tschau und Morgomat.
0:00:30–0:00:33
Also, Kevin, hallo, bist du da? Ich suche noch einen Jingle,
0:00:33–0:00:36
wo nichts mit dem Morgomat. Wir wissen ja nicht, wenn die drei das hören.
0:00:37–0:00:42
Ah, genau. Hört euch das am Morgen. Genau. Das ist besser, dann passt das.
0:00:43–0:00:47
Genau. Wir müssen das konsequent einfach durchziehen. Wenn du den Jingle spielst
0:00:47–0:00:49
für Morgomat, dann fangen wir an.
0:00:49–0:00:51
Guten Morgen miteinander. Guten Morgen.
0:00:53–0:00:56
Liebe Zuhörerinnen und Zuhörer, ich hoffe, ihr seid gut aufgestanden.
0:01:00–0:01:08
Und ich hoffe, ihr habt einen super Kaffee gerade bereit und ein Gipfeli und was hat man noch so?
0:01:09–0:01:13
Bist du ein Zmörgler oder bist du kein Zmörgler, Kevin? Ich bin kein Zmörgler.
0:01:13–0:01:20
Ich bin manchmal ein Kaffeetrinker und manchmal Gipfeli holen.
0:01:21–0:01:24
Einmal pro Woche hol ich mir das Gipfeli. Ah, okay.
0:01:25–0:01:30
Und dann tust du das so im Stehen, Essen oder nimmst du die richtige Zeit?
0:01:30–0:01:34
Hast du vielleicht eine abonnierte Tageszeitung, die du dazu lesen kannst?
0:01:35–0:01:41
Oder wie sieht es? Ein Foto ein, wenn ich hinsitze, mit einer Pfeife.
0:01:42–0:01:45
Und dann nehme ich das.
0:01:46–0:01:50
Nein, also ich habe ja ein Sofa im Büro und ich sitze wirklich auf dem Sofa
0:01:50–0:01:55
und trinke dort einen Kaffee. Aber ich bin ja dann trotzdem nervös.
0:01:55–0:01:59
Ich trinke dann drei Minuten einen Kaffee und dann muss es wieder weitergehen.
0:01:59–0:02:01
Also, ich probiere es nochmal mit dem Jingle.
0:02:04–0:02:07
Stattfilter! Also, jetzt hat es funktioniert. Guten Morgen, guten Nachmittag,
0:02:08–0:02:11
guten Abend. Was auch immer ihr für eine Tageszeitung habt. Äh, Tageszeitung.
0:02:12–0:02:16
Tageszeit habt ihr hoffentlich auch.
0:02:16–0:02:21
Dann würden Leute wie ich noch Geld verdienen, so ein bisschen oder so. Darum wäre es auch gut.
0:02:23–0:02:28
Wir haben ja dann ein politisches Thema nachher, Kevin.
0:02:28–0:02:32
Ich habe den Verdacht, dass Digi Chris zu viel geworden ist.
0:02:32–0:02:39
Darum hat er sich verabschiedet. Aber bist du bereit für das möglicherweise politische Thema?
0:02:40–0:02:43
Ich glaube schon, ja, ich glaube schon, obwohl ich,
0:02:44–0:02:48
also, ich muss das vielleicht vorwegnehmen, ich habe Twitter nicht verstanden,
0:02:48–0:02:54
ich bin bei X sowieso raus, ich kann über alles reden, aber wenn jetzt eine
0:02:54–0:02:57
Frage kommt, wie genau muss man das bei X eingehen,
0:02:58–0:02:59
dann bin ich halt raus.
0:03:00–0:03:05
Ich kann ideell, philosophisch reden, aber ich kann keinen Support geben für
0:03:05–0:03:07
X, ich habe mich dort noch nie eingeloggt.
0:03:08–0:03:14
Doch, bist du nie auf ... Also, du warst auf Twitter? Gar nicht.
0:03:14–0:03:17
Ich war auf Twitter und dann weiss ich nicht, ob mein Account auf X übernommen
0:03:17–0:03:22
wurde, was ich vermute, dass das passiert ist. Du, ich verrate dir ein Geheimnis.
0:03:22–0:03:25
Sie haben einfach nur den Namen geändert und sonst ist alles gleich geblieben.
0:03:26–0:03:29
Eben, ich nehme an, sie haben nicht bestehende Accounts gelöscht.
0:03:30–0:03:33
Der läuft dort und ich habe mich einfach nie eingeloggt und ich nehme an,
0:03:33–0:03:37
ich könnte mich einfach loggen. Wie heisst du? Kevin Rechsteiner?
0:03:37–0:03:44
Entweder Kevin Rechsteiner oder K. Rechsteiner. Also das finden wir gerade noch raus. Da, Ke... Nein.
0:03:45–0:03:49
Rechsteiner, K. Rechsteiner, X. Ja, genau, dich gibt es immer noch.
0:03:49–0:03:51
Ja, ich bin immer noch dabei.
0:03:51–0:03:55
Du hast 82 Follower und... Und ein blaues Hörchen.
0:03:55–0:03:59
Nein, das hast du nicht. Nein, das hast du nicht. Aber hast du das letzte Mal am 21.
0:04:00–0:04:02
August 2017...
0:04:03–0:04:07
Eben, kurz nach der Gründung der Schweiz habe ich auf Twitter mal etwas... Was war es?
0:04:08–0:04:11
Wahrscheinlich einfach noch der Blog, oder? Ja, der Blog, um Hilfe...
0:04:11–0:04:14
Das hatte ich automatisiert, aber nachher ist es irgendwann nicht gegangen.
0:04:15–0:04:16
Und dann habe ich gedacht, I don't care.
0:04:16–0:04:22
Du hast dort einen Vlog-Beitrag verlinkt, der jetzt aber nur noch leer kommt.
0:04:23–0:04:28
Hast du mal all deine Videos gelöst, sagen wir mal? Nein, eigentlich nicht so bewusst.
0:04:29–0:04:31
Trump das Schwein. Nein, nicht Trump.
0:04:33–0:04:40
Das sind ja das Gleiche. Also es kann sein, dass YouTube oder auch WordPress
0:04:40–0:04:42
mal etwas daran geändert hat,
0:04:43–0:04:49
dass wenn man diese Videos einbindet, ich habe dort auch mal mit regulären Ausdrücken
0:04:49–0:04:52
das alles wieder flicken, dass die wieder aufgetaucht sind in meinem Blog.
0:04:53–0:04:56
So die älteren Videos, die ich eingebettet habe. Das war ein bisschen mühsam.
0:04:58–0:05:02
Aber ja, das ist so das Schicksal eines Wettmanns.
0:05:02–0:05:05
Webmaster. Du, aber ich kann dich eigentlich, wir wollen ja nachher über ein
0:05:05–0:05:09
bisschen über Trump reden, allerdings nicht allzu viel und ein bisschen über
0:05:09–0:05:13
soziale Medien, aber auch nur so, wie es halt nötig ist. Auch nicht so viel.
0:05:14–0:05:19
Aber ich wollte dich fragen, wie ist deine Stimmung nach dem letzten Mittwoch?
0:05:19–0:05:23
Ich bin gerade krank geworden. Wirst du, ja. Das ist wahr, ich bin wirklich
0:05:23–0:05:27
gerade krank geworden. Ich habe Fieber bekommen und bin flach gelegen.
0:05:27–0:05:30
Ich glaube, es hat einen direkten Zusammenhang. Ja.
0:05:32–0:05:36
Wie ist meine Stimmung? Ich glaube, meine Stimmung ist in dem Moment,
0:05:38–0:05:43
Ungläubigkeit gewesen. Ja, es ist wirklich noch verblüffend.
0:05:43–0:05:44
Mir ist es genau gleich gegangen.
0:05:45–0:05:49
Ich habe ja damit gerechnet eigentlich, aber es ist dann, wenn es dann wirklich
0:05:49–0:05:52
so weit ist, ist es eben doch blöd.
0:05:53–0:05:56
Ich kann nicht, irgendwie hofft man dann doch, dass es noch besser kommt.
0:05:57–0:06:00
Und dann ist es allerdings genau, es ist eigentlich noch viel schlimmer rausgekommen.
0:06:01–0:06:04
Wer hat alle sieben Swing States den Sack gewonnen.
0:06:05–0:06:09
Und das ist schon ein bisschen deprimierend alles. Und ich finde,
0:06:09–0:06:15
ich meine, meine Stimmung ist eh so ein bisschen schwierig in der letzten Zeit.
0:06:15–0:06:17
Wegen ganz vielen verschiedenen Gründen.
0:06:18–0:06:21
Über die einen habe ich da auch schon erzählt, da im Radio.
0:06:21–0:06:25
Und dann ist es auch noch immer so sackgrau und so deprimierend.
0:06:25–0:06:28
Und dann kommt noch der Trump und dann habe ich jetzt gelesen,
0:06:29–0:06:31
dass wir jetzt irgendwie schon bei der,
0:06:32–0:06:36
Klimaerwärmung schon voll über die 1,5 Grad drüber ausgeschossen sind,
0:06:37–0:06:41
also auch dort ist die Kacke am Dampfen, wenn man so sagen und dann ist schon
0:06:41–0:06:46
die Frage, wie sollte man da seine Laune aufrecht erhalten?
0:06:47–0:06:51
Das ist eine gute Frage und ich glaube, das ist gerade eine schwierige Frage.
0:06:52–0:06:55
Genau und die nehmen wir jetzt in unsere Hauptsendung rüber,
0:06:55–0:06:59
also macht euch fast auf deprimierenden Nerdfunk.
0:07:12–0:07:17
Die sozialen Medien haben bei den US-Wahlen eine unrühmliche Rolle gespielt
0:07:17–0:07:22
und wir analysieren das Versagen, vor allem von Elon Musk's X,
0:07:22–0:07:24
früher Twitter, und wir zeigen auf,
0:07:25–0:07:32
wie nach der Trump-Wahl jetzt den Sexismus überbordet und wie einfach die Stimmung
0:07:32–0:07:36
noch schlechter geworden ist, auch wenn man das für unmöglich gehalten hat.
0:07:36–0:07:41
Und wir fragen uns, gängt das mit diesen sozialen Medien nicht vielleicht auch
0:07:41–0:07:43
ein bisschen konstruktiver?
0:07:43–0:07:47
Also wir haben es in der Pre-Show schon kurz besprochen.
0:07:48–0:07:54
Mir sitzt unter Kevin auch der Wahlsieg von Trump immer noch in den Knochen.
0:07:54–0:07:56
Immerhin eine gute Sache, die ich
0:07:56–0:08:01
abgewöhne. Ich glaube, weisst du was ich glaube, Kevin? Hallo übrigens.
0:08:02–0:08:05
Was? Was? Und jetzt eine gute Sache?
0:08:06–0:08:13
Ich glaube, die Witze von den Comedians, insbesondere auch von den amerikanischen
0:08:13–0:08:17
Comedians wie Stephen Colbert oder John Stewart oder all diese,
0:08:18–0:08:19
Jimmy Kimmel fällt mir noch ein.
0:08:20–0:08:24
Ich glaube, die sind besser, wenn ein irrer Republikaner an der Macht ist,
0:08:25–0:08:32
als wenn eine vernünftige Demokratin dort… Okay, sehr kleine Frust.
0:08:32–0:08:38
Okay. Okay. Okay, okay. Aber ich habe es geschafft, diese Sendung mit der Repositiv...
0:08:38–0:08:41
Hey, wir nehmen, was wir rüberkommen.
0:08:41–0:08:46
Genau. Und jetzt wird es aber gerade wieder ein bisschen, wie soll ich sagen, deprimierend.
0:08:46–0:08:51
Weil die, ich habe es gesagt, die sozialen Medien haben eine unrühmliche Rolle
0:08:51–0:08:53
gespielt. Ich habe da einiges an Fakten zusammentreut.
0:08:54–0:08:57
Desinformation hat wieder eine riesige Rolle gespielt.
0:08:58–0:09:02
In diesem Wahlkampf kann man natürlich nie genau sagen, ob das Ausschlag gibt
0:09:02–0:09:06
oder wie gross der Einfluss der sozialen Medien ist.
0:09:06–0:09:10
Aber wahrscheinlich kann man schon sagen, Kevin, wenn niemand mehr,
0:09:11–0:09:14
oder wenige Leute, ich habe gesagt,
0:09:14–0:09:20
die Tageszeitung zum Beispiel lesen oder sich bei den seriöseren Medien informieren,
0:09:20–0:09:25
bei denen, die vielleicht versuchen, tatsächlich verschiedene Positionen abzubilden
0:09:25–0:09:30
und nicht einfach nur in dieser Bubble steckst, wo nur deine Meinung vertreten
0:09:30–0:09:31
wird, dann wird es halt schwierig,
0:09:32–0:09:37
sich da wirklich eine gute Meinung zu bilden. Ist das auch dein Eindruck?
0:09:40–0:09:45
Das wird immer extremer. Also dass ja genau das Problem ist,
0:09:45–0:09:50
dass die Leute das Gefühl haben, sie sind mega gut informiert,
0:09:50–0:09:53
aber eben eigentlich überhaupt nicht informiert sind.
0:09:54–0:09:58
Mich hat erstaunt, ich weiss nicht mehr genau, wo ich das gelesen habe,
0:09:58–0:10:02
ich habe es eben nicht mehr gefunden, aber man kann, was ist es gewesen, Brexit?
0:10:03–0:10:09
Wo Brexit war, wo die Leute nach dem Entscheid eigentlich sind, go googlen.
0:10:11–0:10:14
Was bedeutet jetzt das überhaupt, was wir da abgestimmt haben?
0:10:15–0:10:19
Und jetzt, also wenn man Google-Sucherfragen ansehen, es sind ganz viele Leute,
0:10:19–0:10:23
eigentlich nachdem Trump gewählt worden ist, oder kurz vorher schauen,
0:10:24–0:10:26
tritt Biden überhaupt an.
0:10:27–0:10:32
Also, dass dieser Wechsel stattgefunden hat, dass er zurückgetreten ist,
0:10:33–0:10:37
dass eine andere Kandidatin gegeben hat, das sind die Leute gar nicht gecheckt.
0:10:37–0:10:40
Ich glaube nicht. Und da habe ich gedacht, okay, es ist einfach,
0:10:40–0:10:45
man ist wirklich in den Social Media Bubbles drin und die sind...
0:10:45–0:10:49
Schon gut, dass man das Gefühl hat, man ist mega informiert.
0:10:49–0:10:56
Und eben, es ist halt problematisch. Ich habe dort so einen Faktencheck gefunden von DW.
0:10:56–0:10:59
Ich glaube, das ist die Deutsche Welle. Die haben gesagt, es hat,
0:11:00–0:11:05
Desinformation auf beiden Seiten gegeben, aber auf der republikanischen Seite,
0:11:05–0:11:11
also zugunsten von Trump, zu Schaden von den Demokraten, hat es eigentlich mehr,
0:11:12–0:11:16
von diesen Fake News Es gab Falschinformationen über die Terrors,
0:11:16–0:11:18
dass sie als Prostituierte gearbeitet haben.
0:11:20–0:11:23
Sie haben dann wirklich gezielt über die Algorithm nicht gelesen.
0:11:25–0:11:30
In jüdischen Bubbles haben sie ausgespielt, so Werbung, ja, die Terrors sind
0:11:30–0:11:31
voll für Palästinenser.
0:11:32–0:11:36
Und wenn die Macht kommen, können wir Israel quasi vergessen.
0:11:36–0:11:44
Und umgekehrt in eher den arabischen oder islamischen Communities.
0:11:44–0:11:49
Dort hat man das Gegenteil gemacht und hat sie als jüdische Hardlinerin dargestellt.
0:11:50–0:11:55
Und das ist natürlich schwierig. Und ich glaube auch, dass mal wie üblich die
0:11:55–0:11:57
Russen wieder voll mitgemischt haben.
0:11:57–0:12:00
Die sind ja schon seit Jahren geführend.
0:12:01–0:12:04
Und ich finde, das nimmt man immer noch zu wenig zur Kenntnis.
0:12:04–0:12:10
Der Informationskrieg mit all diesen Desinformationsmöglichkeiten.
0:12:11–0:12:16
Und was das Problem noch dazu kam, ist, dass der Chef von X, Elon Musk,
0:12:17–0:12:21
statt dass er geschaut hätte, dass seine Plattform neutral ist,
0:12:21–0:12:28
hat er selber auch so Desinformation verbreitet und das haben dann auch so.
0:12:30–0:12:34
Organisationen, so NGOs, die das beobachtet haben, haben gefunden, wir könnten anweisen,
0:12:35–0:12:41
dass der Algorithmus eben auch ganz klar die Wahlwerbung pro Trump bevorzugt
0:12:41–0:12:45
gegenüber der Wahlwerbung für Demokraten und Terroristen. Und das ist natürlich schon schwierig.
0:12:46–0:12:52
Ich meine, klar, irgendwie so eine Plattform ist nicht zur Neutralität verpflichtet,
0:12:52–0:12:57
aber wenn eine so grosse Plattform, wo immer noch so viele Meinungsmache stattfindet,
0:12:57–0:13:01
dann halt so eindeutig ist in einem Lager, dann wird es halt schon schwierig.
0:13:01–0:13:05
Also, ich weiss es nicht.
0:13:07–0:13:11
Könnte man Twitter zur Neutralität verpflichten?
0:13:11–0:13:16
Oder könnte man wenigstens vorschreiben, dass man etwas gegen Desinformation
0:13:16–0:13:18
machen müsste? Das fände ich schon.
0:13:23–0:13:27
Es ist eben wieder genau, es ist wahrscheinlich eine ähnliche Diskussion mit
0:13:27–0:13:29
der Zerspaltung von der ganzen Geschichte.
0:13:29–0:13:32
Es ist eben auch wieder das Problem, das wir diskutiert haben.
0:13:33–0:13:38
Und jetzt hast du bei diesen sozialen Medien, also jetzt, ich sage jetzt wirklich
0:13:38–0:13:42
mal, X ist jetzt gerade ein extremer Fall, wo du jemanden in einer Führung hast,
0:13:43–0:13:49
der das für seine eigenen Zwecke missbraucht. Ich sage jetzt mal so.
0:13:49–0:13:54
Ich sage jetzt nicht, es ist böse, sondern es ist einfach für seine Zwecke missbraucht.
0:13:55–0:13:59
Es werden falsche Informationen geteilt. Er ist bekannt dafür,
0:13:59–0:14:04
dass er gerne auch mal irgendwelche Sachen streut, die belegbar falsch sind.
0:14:05–0:14:10
Und so jemand in so einer Position haben von so einer Plattform ist halt etwas Ungesundes.
0:14:11–0:14:15
Es wird zu einem massiven Problem und,
0:14:16–0:14:20
Es gibt keine Kontrollinstanz. Es ist halt effektiv so.
0:14:21–0:14:26
Wer kümmert sich um das Problem? Ja, es gäbe die Möglichkeit,
0:14:27–0:14:32
so eine Plattform politisch zu regulieren, wie auch immer, was man ihr vorschreiben würde.
0:14:32–0:14:38
Dass man findet, sie müsse etwas gegen Desinformation oder unternehmen.
0:14:39–0:14:44
Oder zum Beispiel, dass man nicht einfach keine generierte Bilderinhalte als
0:14:44–0:14:47
echte ausgeben kann. Über all diese Sachen könnte man nachdenken,
0:14:47–0:14:50
aber es ist natürlich klar, dass das nicht passiert ist.
0:14:50–0:14:55
Und jetzt hören wir ja, dass Elon Musk sich eigentlich, er hat sich ja aktiv
0:14:55–0:15:00
dann auch an Trumps im Wahlkampf beteiligt, finanziell, er ist aufgetreten mit Trump zusammen.
0:15:01–0:15:08
Und jetzt gibt es wahrscheinlich so, vielleicht, ein Tit-for-Tat,
0:15:08–0:15:10
sagt man ja schön auf Englisch.
0:15:12–0:15:16
Das, was Musk für seinen Einsatz zurückkommt, ist eine Belohnung.
0:15:18–0:15:23
Diese könnte zum Beispiel eine Beraterposte für die US-Regierung sein.
0:15:24–0:15:30
Und dann würde Musk sich im Tech-Bereich selbst regulieren.
0:15:30–0:15:36
Er könnte schauen, dass er mit SpaceX besser dasteht. Dort gibt es auch dicke
0:15:36–0:15:40
Staatsaufträge, die man sich selber übergeben kann.
0:15:42–0:15:48
Ich finde es auf eine Art ein exemplarischer Fall von Korruption.
0:15:48–0:15:52
Und wenn man sich jetzt nur ein bisschen ein besseres Gedächtnis hätte,
0:15:53–0:15:57
dann hätte man sich als US-amerikanischer Wähler daran erinnert,
0:15:58–0:16:03
dass Trump eigentlich vor acht Jahren versprochen hat, dass er gegen Korruption vorgeht.
0:16:03–0:16:06
«Drain the Swamp» war das schöne Schlagwort.
0:16:06–0:16:09
Von dem sieht man allerdings nicht mehr so viel.
0:16:11–0:16:16
Das hat jetzt halt so seine Auswirkungen. Wie gesagt, man kann nicht festmachen,
0:16:17–0:16:19
wie gross das Problem ist.
0:16:19–0:16:23
Ich würde auch sagen, wir haben jetzt über X gesprochen. Man kann auch Facebook
0:16:23–0:16:26
und die anderen Plattformen auch nicht aus der Verantwortung nehmen.
0:16:26–0:16:30
Bei Facebook würde ich sagen, ist es jetzt nicht ganz so offensichtlich,
0:16:30–0:16:34
dass jemand klar pro für das eine Lager ist.
0:16:35–0:16:41
Aber bei Facebook nimmt man es einfach in Kauf, wenn diese Fehlinformationen
0:16:41–0:16:43
quasi die Einschaltquote anheizen.
0:16:43–0:16:49
Man weiss ja immer, dass Fake News sich immer stärker verbreiten als die Wahrheit
0:16:49–0:16:56
und differenziertere Darstellungen, wo man sich nicht einfach darüber aufregen
0:16:56–0:16:57
kann. Das ist einfach so.
0:16:58–0:17:07
Ja. Ja, ich glaube, es ist halt so ein grosses Thema und es steht jetzt so viel
0:17:07–0:17:13
im Raum und ich weiss einfach nicht, checkt das die Amerikaner.
0:17:14–0:17:21
Also, es ist wirklich so eine Überlegung, sind die so fest, sind sie wirklich so dumm?
0:17:21–0:17:23
Das ist meine Frage. Sind sie so dumm?
0:17:24–0:17:31
Ja. Ja, ehrlich gesagt habe ich mich das auch gefragt. Was ist deine Antwort?
0:17:31–0:17:35
Ich finde, wenn du sagst, die Leute sind einfach dumm, es ist manchmal eine
0:17:35–0:17:41
Antwort, die in gewissen Fällen tatsächlich auch zutrifft, aber es ist auch eine einfache Antwort.
0:17:41–0:17:43
Oder man macht es sich vielleicht auch ein bisschen zu einfach. Vielleicht.
0:17:45–0:17:53
Also das Ding ist halt, wo ich mir überlege, wir diskutieren über Russland, Nordkorea, China,
0:17:53–0:17:56
dass man einfach sagt, die Leute sind ja vielleicht gar nicht so dumm,
0:17:56–0:17:59
sondern sie kommen halt einfach nicht alle Informationen über,
0:18:00–0:18:03
weil das einfach so weit abgeschottet ist, dass sie das nicht checken.
0:18:03–0:18:07
Und ich habe das Gefühl, Amerika ist am gleichen Ort.
0:18:08–0:18:12
Sie sind, also Amerika ist sowieso das Zentrum der Welt, die wissen eh nicht,
0:18:12–0:18:13
was rundherum passiert.
0:18:13–0:18:17
Das hat kulturelle Hintergrund. Das hat aber auch damit zu tun,
0:18:17–0:18:22
dass es einfach ein unglaublich grosses Land ist, wo du alles überkommst.
0:18:23–0:18:29
Nicht musst irgendwie über Grenzen fahren. Das ist einfach eine Geschichte.
0:18:29–0:18:33
Da fliegst du drei, vier Stunden und bist immer im gleichen Land.
0:18:33–0:18:38
Das heisst, du musst dich wirklich nicht nach aussen orientieren und jetzt hast du so eine,
0:18:39–0:18:42
ich sage jetzt wirklich immer macht wie die sozialen Medien,
0:18:42–0:18:47
die dir eigentlich genau das erzählen, was du hören willst, du bist in dieser
0:18:47–0:18:51
Bubble und du hast gar keine Gegeninstanz eigentlich. Ja.
0:18:53–0:18:56
Vielleicht ist es nicht mit dumm, sondern einfach mit blind.
0:18:57–0:19:01
Oder vielleicht wirklich einfach, sie haben gar keine Möglichkeit.
0:19:02–0:19:05
Also an einem Nordkoreaner würde ich jetzt auch nicht unbedingt sagen,
0:19:05–0:19:07
du bist dumm, weil du nicht weißt, was auf dieser Welt passiert,
0:19:07–0:19:11
weil es einfach wahnsinnig schwierig ist, zu Informationen über die Welt zu bekommen.
0:19:11–0:19:15
Und vielleicht ist jetzt Amerika auch wirklich Nordkorea.
0:19:15–0:19:19
Das ist schön. Ich glaube, das würde Trump einen Gefallen machen,
0:19:19–0:19:20
wenn du das laut würdest sagen.
0:19:20–0:19:25
Ja, ich glaube, aber du hast absolut recht, Demokratie ist schwierig und sich
0:19:25–0:19:30
differenziert informieren und gerade in der Welt, in der wir leben,
0:19:30–0:19:33
die wahnsinnig schwierig ist, mit so vielen Aspekten,
0:19:34–0:19:39
mit so vielen unterschiedlichen Strömungen und es ist nicht mehr wie früher.
0:19:42–0:19:45
In vielen Bereichen geht es mir dann auch so, dass ich finde,
0:19:45–0:19:57
jetzt kommt nochmals eine Minderheit auf sich aufmerksam machen und Rücksicht
0:19:57–0:19:59
und Sichtbarkeit verlangen.
0:19:59–0:20:04
Aber es kann doch irgendwie der Moment kommen, es kommt nochmals eine Minderheit
0:20:04–0:20:08
und die, die nochmals irgendwie etwas verändern, muss jetzt das sein,
0:20:08–0:20:09
jetzt muss ich mich da schon wieder umgewöhnen.
0:20:10–0:20:12
Und dort finde ich mich manchmal auch ein bisschen in dieser Rolle,
0:20:12–0:20:17
wo ich schon verstehe, wie man sich dann auch mal einfach finden kann.
0:20:17–0:20:20
Ich mache mir mein Leben jetzt ganz einfach und ich entscheide,
0:20:21–0:20:25
man sagt ja, es ist am Schluss die Wirtschaft gewesen, die der Ausschlag gegeben
0:20:25–0:20:31
hat, die Inflation, von wem verspreche ich mir, dass er das Problem eher lösen
0:20:31–0:20:32
kann vom einen oder vom anderen.
0:20:32–0:20:38
Und dann wird Trump immer noch so als, obwohl ich das eigentlich seltsam finde,
0:20:38–0:20:40
er wird das als super Geschäftsmann wahrgenommen.
0:20:40–0:20:44
Und dann hat man das Gefühl, jawohl, der kann das lösen. Und dann ist halt nur
0:20:44–0:20:47
das kleine Ding, das der Ausschlag gibt und alles andere, was eigentlich auch
0:20:47–0:20:50
reinspielen würde, wird ausgeblendet.
0:20:50–0:20:52
Und ich glaube, so kann man das schon erklären.
0:20:53–0:20:58
Das Problem der sozialen Medien bleibt. Und ich habe jetzt auch nachgeschaut,
0:20:58–0:21:05
also man merkt wirklich in den sozialen Medien, merkt man, dass der Sieg von
0:21:05–0:21:07
Trump, dass der etwas bewirkt hat.
0:21:07–0:21:11
Gerade so in dem Bereich Sexismus und Diskriminierung ist es einfach,
0:21:11–0:21:14
ist es wahnsinnig überbordet.
0:21:14–0:21:21
Und das kann man messen, dass wirklich auch so die sexistischen Posts zugenommen haben seit einer Woche.
0:21:21–0:21:30
Und einer ist, glaube ich, der ganz üble Fall von diesem Typ namens Nick Fuentes.
0:21:31–0:21:36
Das ist ein Nationalist, ein Holocaust-Lügner und auch ein Frauenfinder.
0:21:36–0:21:38
So ein Incel, sagt man denen.
0:21:38–0:21:44
Also die unfreiwilligen, frauenlosen Männer.
0:21:44–0:21:50
Zu denen gehört er. Und der hat ja wirklich sehr, sehr, sehr schlimm...
0:21:50–0:21:53
Also einerseits hat er gesagt, Frauen, jetzt nach der Abstimmung,
0:21:54–0:21:55
geh bitte zurück an den Herd.
0:21:55–0:21:59
Und dann hat er so Sachen gesagt wie, your body, my choice.
0:21:59–0:22:01
Und einfach wirklich... Im Ernst? Ja. Ja.
0:22:02–0:22:05
Er hat das so umgedreht, um Frauen zu tun. Oh mein Gott.
0:22:06–0:22:10
Okay. Er hat getrenntet. Er ist mir die ganze Zeit begegnet.
0:22:10–0:22:16
Das ist, glaube ich, nicht der einzige, aber es ist so ein Auswuchs, den man sieht.
0:22:17–0:22:25
Und wo ich dann auch einen guten Artikel gefunden habe, auf die Independent von England, der sagt,
0:22:25–0:22:35
wenn man mit so einer Abstimmung und einem sexistischen Präsidenten so etwas salonfähig macht,
0:22:36–0:22:42
so eine Denklinge, und die immer mehr auch ungefiltert in den sozialen Medien auftaucht,
0:22:43–0:22:45
dann hat das halt einfach Auswirkungen.
0:22:47–0:22:51
Das heisst, Vergewaltiger und Missbrauchstäter werden nicht geboren,
0:22:51–0:22:56
sondern die entstehen irgendwann mal und die können auch, man kann glaube ich
0:22:56–0:22:58
nicht den sozialen Medien die ganze Schule geben,
0:22:58–0:23:02
aber die können auch durch so etwas entstehen, durch jemanden,
0:23:02–0:23:07
der sich wirklich einfach, der ist schon vorher radikalisiert gewesen,
0:23:08–0:23:12
aber sich noch viel mehr radikalisiert jetzt durch den Sieg und alles.
0:23:12–0:23:15
Und immerhin, es gibt auch, das habe ich dann hingegen fast wieder gut gefunden,
0:23:16–0:23:20
so eine Gegenreaktion, so eine feministische Bewegung, 5B heissen die.
0:23:21–0:23:27
Die kommen offenbar aus dem koreanischen Südkorea und die sagen,
0:23:27–0:23:31
also 5B, auf englisch weiss ich gerade nicht mehr, oder auf koreanisch sind
0:23:31–0:23:36
es glaube ich 5B und die sagen eben, keine heterosexuelle Ehe,
0:23:36–0:23:40
keine Kinder, kein Dating mit Männern und kein Sex mit Männern.
0:23:40–0:23:43
Das ist jetzt so eine Gegenbewegung, die man verstehen kann,
0:23:44–0:23:50
aber man natürlich auch nicht zu der Entspannung der Situation beiträgt.
0:23:50–0:23:56
Und ja, an diesem Punkt sind wir jetzt mit diesen sozialen Medien und müssen
0:23:56–0:23:58
uns überlegen, was wir jetzt mit denen machen.
0:23:58–0:24:03
Irgendwie, ich finde es schon bemerkenswert, wo die antreten sind,
0:24:04–0:24:06
sind es ja so eine positive Bewegung gewesen.
0:24:06–0:24:10
Du erinnerst dich vielleicht noch an den arabischen Frühling und so und die
0:24:10–0:24:12
Graswurzelbewegungen.
0:24:13–0:24:18
Bürgerjournalismus hat man gesagt, jetzt kommt jede einzelne Stimme über Minderheiten,
0:24:19–0:24:20
können sich zu Wort melden.
0:24:20–0:24:25
Es gibt da eine schöne Debatte, wo jeder eigentlich Gehör finden kann und es
0:24:25–0:24:32
tut nicht irgendwie jemand entscheiden, wer bisher wäre, wem das man zuhören
0:24:32–0:24:35
muss und wem nicht, sondern jeder kann sich zu Wort melden.
0:24:35–0:24:43
Und es ist aber eine wahnsinnige Seifenblase gewesen, wo wir uns da vorgestellt haben, oder?
0:24:45–0:24:51
Ich glaube, wir sind halt nicht gemacht für das. Es ist halt effektiv so. Also...
0:24:55–0:25:01
Ich glaube, es ist zu schnell gegangen. Wir sind im Kopf wahrscheinlich gar
0:25:01–0:25:02
nicht in dieser Entwicklung.
0:25:02–0:25:05
Den Prozess haben wir gar nicht gemacht. Das ist, glaube ich, das Problem.
0:25:08–0:25:15
Und ich glaube wirklich mittlerweile, wir sind nicht gemacht fürs Internet. Wir können es nicht.
0:25:16–0:25:22
Also Hühner finden es angenehm in Gruppen sein von 50 bis 100 Tieren und alles
0:25:22–0:25:26
andere ist ein Stress für die Hühner. Sie können es nicht.
0:25:27–0:25:30
Und vielleicht sind wir auch Hühner.
0:25:30–0:25:34
Vielleicht sind wir auch nicht so clever und können einfach wirklich nur mit
0:25:34–0:25:37
einer kleinen Gruppe Menschen umgehen und alles, was zu gross ist.
0:25:38–0:25:40
Und all die Vorteile, die das Internet
0:25:40–0:25:46
hat mit Austausch und die Idee vom Internet, das ist echt mega cool.
0:25:46–0:25:52
Dass ich halt ich sage jetzt wirklich mit in irgendeiner Phase in meinem Leben
0:25:52–0:25:59
im Internet Leute finde, wo ich denke, oh cool, die sind am gleichen Punkt,
0:25:59–0:26:01
ich bin nicht allein mit meinem Seich.
0:26:01–0:26:06
Das ist ja eigentlich das Megaschöne. Und was wir aber daraus gemacht haben,
0:26:06–0:26:11
ist, dass wir eigentlich nur noch einander am Anficken sind. Ja, das stimmt.
0:26:12–0:26:19
Und einfach du bist froh, wenn das Huhn unter dir auf dem Stängeli sitzt.
0:26:19–0:26:22
Und du willst, dass es dort unten bleibt.
0:26:23–0:26:31
Und ich schaue dem zu und ich finde es schockierend, zu was das Internet gekommen
0:26:31–0:26:37
ist, weil das Internet für mich der Zufluchtsort war in meiner Jugend.
0:26:37–0:26:41
Das war der Ort, an dem ich zu Hause war. Und jetzt sehe ich,
0:26:42–0:26:46
das ist das Endzeitszenario jetzt.
0:26:46–0:26:49
Das ist wirklich so Doomsday, und nehmen wir das an.
0:26:50–0:26:52
Ja. Und ja.
0:26:53–0:26:56
Ich habe mir letztens auch mal überlegt, es gibt ja noch mal einen Blogpost
0:26:56–0:26:59
zu diesem Thema, er ist noch nicht so richtig zu Ende gedacht,
0:27:00–0:27:02
aber wahrscheinlich ist wirklich auch eines der Probleme.
0:27:03–0:27:09
Auf das ganze Netz bezogen, dass das immer zentralistischer geworden ist.
0:27:09–0:27:14
Es hat immer so die grösseren Silos, die einflussreicheren Plattformen gegeben.
0:27:14–0:27:20
Und wenn das nicht so wäre, dann wären die Probleme, die gäbe es alle auch,
0:27:20–0:27:24
aber die könnten sich nicht zu einem Riesenproblem auswachsen.
0:27:25–0:27:31
Und ich glaube, wir haben es gesehen, es gibt die dezentralen Lösungen,
0:27:31–0:27:35
wie zum Beispiel Mastodon, Svediversum und alles, wir haben auch schon darüber gesprochen,
0:27:36–0:27:41
aber das Problem ist halt wirklich, die haben sich bisher nie gegen die grossen
0:27:41–0:27:45
Plattformen durchsetzen, weil es immer ein bisschen komplizierter,
0:27:45–0:27:49
ein bisschen weniger attraktiv sind zum Einsteigen.
0:27:49–0:27:53
Sie arbeiten weniger mit diesen Reizen, dass man drin einkommt.
0:27:53–0:27:58
Mir ist es auch so gegangen. Ich habe mal Mastaton mit Twitter verglichen und
0:27:58–0:28:02
ich merke, ich finde Mastaton immer ein bisschen langweiliger im Vergleich,
0:28:02–0:28:05
weil eben genau dort kriegst du nie so diese Kicks über,
0:28:05–0:28:10
wenn sie überkommt, wenn du auf einer Plattform bist, wie Facebook,
0:28:10–0:28:15
die halt gross ist und die auch wirklich diese Impulse dir gibt, dass du dran bleibst.
0:28:15–0:28:20
Und dort ist es einfach so, Empörung ist immer besser, wenn jemand etwas Schönes,
0:28:20–0:28:23
etwas Konstruktives, etwas Liebes sagt.
0:28:23–0:28:26
Und dort, ich glaube, das ist, wie du gesagt hast, das ist das Problem,
0:28:27–0:28:29
das wir haben, dass wir einfach nicht gemacht sind.
0:28:29–0:28:34
Wir können uns zu wenig gut gegen diese Empörung wappnen und sagen,
0:28:34–0:28:36
nein, da müssen wir uns jetzt mal nicht aufregen.
0:28:37–0:28:41
Oder weisst du, ich finde ja, gerade auf Twitter ist das ein Fäng,
0:28:41–0:28:43
das nennt man ja das Engagement Farming.
0:28:44–0:28:46
Das heisst, es wird wirklich deine...
0:28:47–0:28:51
Deine Wut, Aufregung und Empörung wird bewirtschaftet von Leuten,
0:28:52–0:28:54
die irgendwelche Inhalte zusammenklauen.
0:28:55–0:28:59
Es sind immer die gleichen Teile uralten Geschichten, die herumgehen.
0:28:59–0:29:04
Schon längstens auch die Bank beweisen, dass es nicht stimmt.
0:29:04–0:29:09
Aber sie kommen immer. Und wenn du siehst, du weisst genau, das ist ein Engagement-Farmer,
0:29:09–0:29:15
der einfach deine Empörung bewirtschaftet und du gehst trotzdem darauf hin.
0:29:15–0:29:21
Und das ist, finde ich, ja, du hast recht, wir sind nicht dafür gemacht und
0:29:21–0:29:23
das haben wir erst gemerkt, als das Ding schon da war.
0:29:24–0:29:30
Aber können wir das Ruder umreissen? Bringen wir es konstruktiver,
0:29:30–0:29:31
bringen wir es positiver?
0:29:32–0:29:36
Können wir irgendwie, müssen wir die sozialen Medien neu erfinden?
0:29:36–0:29:39
Müssen wir sie einfach abschaffen, was wäre der beste.
0:29:43–0:29:45
Handlungsanweisung oder der beste Entscheid, den wir jetzt treffen könnten.
0:29:47–0:29:51
Ich kann aufgeben, ich weiss es wirklich nicht.
0:29:52–0:29:57
Das Problem ist, was ich als alter Mann mittlerweile sehe, ist,
0:29:58–0:29:59
die Basis ist schon falsch.
0:30:00–0:30:05
Und die Basis ist, es ist so alt, das ändern wir nicht mehr.
0:30:06–0:30:11
Also es geht... Wir müssen zurück bis zur Erfindung von Geld.
0:30:12–0:30:18
Es ist verdammt weit zurück. Du musst Regierungsformen infrage stellen.
0:30:18–0:30:20
Du musst alles infrage stellen.
0:30:21–0:30:24
Wir können nicht sagen, okay, wir rühren jetzt Internet über den Haufen.
0:30:25–0:30:31
Sondern wir müssen überlegen, wie wollen wir als Menschen zusammenleben? Wie möchten wir als...
0:30:33–0:30:37
Menschheit als Zivilisation weiterzukommen. Was ist das Ziel?
0:30:37–0:30:41
Und wo wollen wir hin? Und wie wollen wir dort hin? Und um was geht es uns?
0:30:42–0:30:47
Und wenn du diese Vision hast, dann kannst du ja anfangen zurück zu buchstabieren
0:30:47–0:30:49
und sagen, okay, was brauchen wir überhaupt, um das zu erreichen?
0:30:50–0:30:52
Aber die Diskussion, von was wollen wir überhaupt?
0:30:53–0:30:57
Wir schaffen ja nicht einmal das. Also, ein paar Rieser Klimaabkommen,
0:30:57–0:31:01
okay, wir gehen über Haufen Scheissdreck, wir beginnen wieder an Löcher zu graben
0:31:01–0:31:03
und Kohlen abzutragen, ja, okay.
0:31:04–0:31:10
Also, eben, wir haben in der Basis schon unterschiedliche Ansichten und einen
0:31:10–0:31:14
Konsens zu finden, das haben wir verlernt.
0:31:15–0:31:20
Es ist immer nur noch, wer ist Läuter und macht den anderen kaputt.
0:31:22–0:31:25
Ich finde, das ist wahrscheinlich der zentrale Punkt.
0:31:26–0:31:32
Ich glaube nicht, dass wir es jetzt schaffen, alles das von Grund auf richtig zu machen.
0:31:32–0:31:36
Ich glaube, da fehlt uns, eben du hast das Klima und so erwähnt,
0:31:36–0:31:38
da fehlt uns einfach der Zeit dazu.
0:31:38–0:31:43
Aber ich glaube, ich hätte schon auch gewisse Hoffnungen in Regulierung und
0:31:43–0:31:50
dass man diese Plattform auch gesetzesmässig vielleicht ein bisschen einschränken kann.
0:31:51–0:31:54
Wir haben auch letztens über die Aufteilung von Google gesprochen,
0:31:54–0:31:58
dass man sie vielleicht sonst aufspaltet, dass sie nicht ganz so mächtig sind.
0:31:58–0:32:04
Aber ich glaube, wir müssen jeden für sich als Auftrag nehmen,
0:32:04–0:32:12
besser damit umzugehen und mit unterschiedlichen Meinungen umzugehen können
0:32:12–0:32:14
und akzeptieren können.
0:32:14–0:32:17
Die Ambiguitätstoleranz, die finde ich immer noch ein gutes Wort.
0:32:17–0:32:21
Dass du sagst, okay, ich weiss jetzt nicht, was richtig ist.
0:32:21–0:32:28
Ich finde das eine Argument gut vom einen und das andere Argument finde ich auch gut und.
0:32:29–0:32:34
Ich will mich vielleicht gar nicht entscheiden und das nervt mich wirklich am
0:32:34–0:32:37
meisten an den sozialen Medien, dass man sich immer muss entscheiden,
0:32:37–0:32:39
muss immer auf eine Seite gehen,
0:32:39–0:32:44
muss immer sagen, ja voll für den oder nein gegen und das Das fände ich gut,
0:32:44–0:32:47
wenn wir über das wegkommen und dann vielleicht auch noch lernen.
0:32:47–0:32:52
Nein, du musst nicht immer noch mal eine Provokation hineinschieben und nicht
0:32:52–0:33:01
immer noch durch eine Übertreibung zündeln und ein Scheit drauflegen, wenn es eh schon brennt.
0:33:01–0:33:11
Sondern dass auch mehr Leute das besser könnten, das deeskalieren und moderat,
0:33:11–0:33:14
moderieren und entschärfend zu wirken.
0:33:14–0:33:18
Aber ich weiss nicht, vielleicht kann das die junge Generation,
0:33:18–0:33:23
aber ich habe nicht das Gefühl, dass die auf TikTok dann wirklich auf die Aufgabe vorbereitet wird.
0:33:24–0:33:29
Vielleicht ist es ja dort auch, vielleicht sind wir einfach süchtig nach dem Zeug.
0:33:30–0:33:34
Also vielleicht sind es ja ganz einfache Mechanismen. Du hast irgendwo eine
0:33:34–0:33:39
Diskussion, wo zwei Leute diskutieren und dann kannst du ja,
0:33:39–0:33:44
also sehr einfach gesagt, sagst du, Das Argument gefällt mir, Daumen nach Hohen.
0:33:44–0:33:46
Das Argument gefällt mir nicht, Daumen nach Hohen.
0:33:47–0:33:50
Und jetzt schreibt irgendeiner rein, hey, deine Mutter.
0:33:50–0:33:54
Und dann gibt es 50 Likes. Und dann denkst du beim zweiten Mal,
0:33:54–0:33:56
ja gut, dann kann ich einfach wieder so irgendeinen Scheissdreck schreiben und
0:33:56–0:33:58
gerät schon mal rein. Es gibt ja Likes.
0:34:00–0:34:05
Mein Bedürfnis ist ja dann gestillt. Ich habe auf meinen Kommentar Likes bekommen,
0:34:05–0:34:07
für etwas, was nichts zu beitreten hat.
0:34:08–0:34:13
Und ich glaube, das hat uns nicht geholfen mit diesen Daumen nach oben und Like-Sachen.
0:34:14–0:34:17
Weil ich glaube wirklich, das ist ein ganz einfacher Mechanismus,
0:34:17–0:34:20
welcher wir nach wieviel Likes triggern.
0:34:20–0:34:24
Und das suchen wir. Und dann sind es halt Posts, wo wir halt wissen,
0:34:24–0:34:29
okay, sie sind vielleicht nicht wahr, sie ecken wahrscheinlich an,
0:34:29–0:34:33
sie beleidigen jetzt auch gerade irgendetwas, aber ich komme meine Likes rüber.
0:34:34–0:34:38
Also scheissegal. Das ist, finde ich, sehr wichtig und wir hören jetzt gerade
0:34:38–0:34:44
pünktlich auf und ihr könnt wie immer eure Meinung dann auch auf nerdfunk.staatfilter.ch kundtun.
0:34:44–0:34:47
Wir diskutieren dann gerne auch weiter mit euch darüber.
0:34:47–0:34:54
Ich glaube, das Problem ist, dass die Likes, die haben eine völlige verzerrte Wahrnehmung.
0:34:54–0:34:58
Du siehst eigentlich nur die Zustimmung und es gibt keine Möglichkeit.
0:34:58–0:34:59
Und ich habe mir das letzte Mal
0:34:59–0:35:02
überlegt, es müsste eigentlich auch eine Möglichkeit geben, auszudrücken.
0:35:02–0:35:07
Hey, was du sagst, ich finde, das verstört mich zu tiefst. Also irgendwie,
0:35:08–0:35:12
nicht nur einfach, ich finde es nicht gut, sondern ich finde das irgendwie gefährlich.
0:35:12–0:35:17
Ich finde, wenn du einen rassistischen Tweet siehst und es gibt wahnsinnig viel
0:35:17–0:35:20
Rassismus auf dem Twitter, dann kannst du eigentlich nichts machen,
0:35:20–0:35:22
du kannst es melden, nur passiert nie etwas.
0:35:23–0:35:28
Aber du kannst den Tweet selbst, du siehst, er ist 25 Millionen Mal angezeigt
0:35:28–0:35:33
worden, er hat 100'000 Likes und dann siehst du eigentlich, es muss 100'000
0:35:33–0:35:35
Rassisten geben und dann siehst du schon.
0:35:35–0:35:40
Und ich, die dagegen bin, bin nur einer. Du kannst eigentlich nichts machen.
0:35:41–0:35:43
Du kannst nicht sagen, hey, das ist einfach der letzte Dreck.
0:35:44–0:35:46
Du kannst, wie gesagt, melden uns, passiert nie etwas.
0:35:46–0:35:49
Aber du kannst nicht unmittelbar sagen, so etwas sollte es eigentlich nicht geben.
0:35:50–0:35:55
Und wenn das gäbe, dann würden auch die Relationen wieder ein bisschen gewahrt werden.
0:35:55–0:35:58
Dann würdest du nämlich sehen, nein, das ist zu tiefst rassistisch.
0:35:58–0:36:03
Aber trotzdem finden es viel mehr Leute viel schlimmer, weder, dass es gut findet.
0:36:04–0:36:07
Und dann käme ich wieder vielleicht auch ein anderes Gefühl dafür.
0:36:08–0:36:09
Also, wir müssen aufhören.
0:36:10–0:36:14
Aber so richtig positiv war es nicht, oder?
0:36:14–0:36:18
Das haben wir gewusst. Es war ein Vorteil, dass es eine positive Sendung wird.
0:36:19–0:36:25
Also, wenn ihr noch gute Gefühle habt, meldet uns das. Und sonst schaffen wir
0:36:25–0:36:27
es ab, die Huren, sozialen Medien.
0:36:27–0:36:32
Oder die Gefühle. Oh genau, auch eine gute Idee. Tschüss zusammen. Tschüss zusammen.
Eine erste, unmittelbare Auswirkung der Präsidentschaftswahl von letzter Woche ist eine weitere, massive Verschlechterung des Umgangstons in den sozialen Medien: Vor allem sexistische Angriffe auf Frauen haben messbar zugenommen.
Der Chef von Twitter (X) hat seinen Kurznachrichtendienst zu einem politischen Instrument umfunktioniert und auch dank der vielseitigen Wahlkampfhilfe für die Republikaner könnte Elon Musk zu einem Berater der Trump-Regierung werden – und die Medien spekulieren schon wild, wie er diese zusätzliche Macht nutzen könnte. Eine strengere Beaufsichtigung oder Regulierung der sozialen Medien ist von den USA in den nächsten vier Jahren auf alle Fälle nicht zu erwarten.
Das ist ein vorläufiger Tiefpunkt in einer bemerkenswerten Transformation. Ursprünglich waren die sozialen Medien ein basisdemokratisches Instrument, mit dem sich Minderheiten Gehör verschaffen konnten. Heute tragen sie zur Spaltung der Gesellschaft bei und sie sind weiterhin eine wichtige Quelle für Desinformation und Manipulation. Musk hat auf seiner Plattform selbst Falschinformationen verbreitet, und eine Nichtregierungsorganisation konnte nachweisen, dass Trump-Wahlwerbung durch den Algorithmus bevorzugt wurde.
Wir nehmen eine Bestandsaufnahme vor: Ist jetzt ein Tiefpunkt erreicht oder läuft das aufs Ende eines verlässlichen Mediensystems zu?
Und damit wir nicht bloss Trübsinn blasen, fragen wir uns auch: Liesse sich das Blatt noch wenden? Gibt es Raum für konstruktivere soziale Medien, für einen digitalen Austausch, der die positiven Kräfte fördert?
Die Links zur Episode
Ausgangslage
Desinformation, Sexismus und Rassismus
Elon Musk
Wie weiter?
Beitragsbild: Hier steht wohl «Nope», nicht wie seinerzeit bei Obama «Hope» (Tiburi, Pixabay-Lizenz).
Ähnliche Beiträge