neu-denken-analyse/audio/S2E4-Digitale-Sicherheit.srt
Dotty Dotter 3eb4556301 Initial commit: NEU DENKEN Podcast-Analyse
19 Episoden (4 Staffeln), 159 verifizierte Zitate mit Audio-Timestamps,
7 Themenkomplexe, interaktive Mindmap-Webapp.
Nutzt podcast-mindmap als Tool (../podcast-mindmap).

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-04-20 01:25:59 +02:00

1953 lines
85 KiB
Plaintext

1
00:00:00,040 --> 00:00:02,540
Speaker 1: Wo verbringen wir heute eigentlich einen Großteil unserer Zeit?
2
00:00:02,960 --> 00:00:04,280
Speaker 1: In den digitalen Räumen.
3
00:00:05,040 --> 00:00:09,160
Speaker 1: Diese kleinen Bildschirme öffnen uns das Fenster zur ganzen weiten Welt.
4
00:00:09,800 --> 00:00:12,240
Speaker 1: Und die ganze weite Welt strahlt uns an.
5
00:00:13,000 --> 00:00:15,860
Speaker 1: Gibt uns Informationen darüber, wie es bei Ihnen beschaffen ist,
6
00:00:16,059 --> 00:00:19,460
Speaker 1: wie es den Menschen geht, wie wir uns mit denen vielleicht zusammentun können,
7
00:00:19,460 --> 00:00:22,660
Speaker 1: um eine Zukunft zu gestalten, in der alle ihren Platz finden.
8
00:00:23,340 --> 00:00:25,960
Speaker 1: Das war die tolle Utopie hinter dem Internet.
9
00:00:26,740 --> 00:00:29,120
Speaker 1: Und wenn wir gucken, was mit dieser Utopie passiert ist,
10
00:00:29,340 --> 00:00:34,220
Speaker 1: dann sehen wir, dass einige die Geschichte der Utopie weiter ziemlich hoch halten
11
00:00:34,520 --> 00:00:37,300
Speaker 1: und dahinter aber eine ganz eigene Welt schaffen.
12
00:00:37,880 --> 00:00:40,820
Speaker 1: Eine, in der sie selbst sehr viel Macht ausüben.
13
00:00:41,340 --> 00:00:43,520
Speaker 1: Die Rede ist natürlich von den Tech-Konzernen.
14
00:00:44,060 --> 00:00:46,420
Speaker 1: Den Polygarchen, wie sie inzwischen genannt werden,
15
00:00:46,420 --> 00:00:48,179
Speaker 1: weil sie auch sehr eng mit Donald Trump zusammenarbeiten,
16
00:00:48,860 --> 00:00:51,339
Speaker 1: um zu verhindern, dass diese Macht über die Meinungsbildung
17
00:00:52,100 --> 00:00:54,980
Speaker 1: und die Interpretation der Welt wieder in Frage gestellt wird.
18
00:00:55,580 --> 00:00:56,260
Speaker 1: Das sollten wir aber.
19
00:00:56,840 --> 00:01:03,160
Speaker 1: Mein Name ist Maja Göpel. Ihr hört Neudenken, den Podcast von Mission Wertvoll, heute zum Thema digitale Sicherheit.
20
00:01:03,680 --> 00:01:09,200
Speaker 1: Mein Gast ist Martin Andree, er ist Medienwissenschaftler in Köln und hat so richtig viele Daten zusammengetragen,
21
00:01:09,400 --> 00:01:14,300
Speaker 1: die zeigen, wie konzentriert eigentlich die Macht in diesen digitalen Räumen inzwischen ist,
22
00:01:14,620 --> 00:01:18,580
Speaker 1: wer sie besitzt und warum wir diesen Tech-Konzern mal ein bisschen auf die Pelle rücken sollten.
23
00:01:25,080 --> 00:01:25,820
Speaker 1: Herzlich willkommen.
24
00:01:26,500 --> 00:01:26,680
Speaker 1: Hi.
25
00:01:27,340 --> 00:01:37,160
Speaker 1: Lieber Martin, du bist Professor in Medienwissenschaften und hast an Universitäten hier in Deutschland, aber auch in England und in den USA studiert und dich ausbilden lassen.
26
00:01:37,160 --> 00:01:52,780
Speaker 1: Und das Abgefahrenste fand ich, dass du mal eben kurz Vice President International Marketing bei Henkel gewesen bist, wo du auch tatsächlich im Ausland gelebt hast und parallel deine Habilitation gemacht hast.
27
00:01:53,100 --> 00:02:03,260
Speaker 1: Da habe ich gedacht, da muss ich erst mal sofort fragen: Wann, wie, an welchen Zeiten? Gab es damals schon einen Klon, einen KI, einen Avatar von dir?
28
00:02:03,520 --> 00:02:12,720
Also ich glaube, ich habe immer viel Energie gehabt, aber das ist ganz einfach erklärbar. Ich habe irgendwann gemerkt, dass die ganze Medienwirklichkeit geht in die digitale Welt.
29
00:02:12,800 --> 00:02:16,980
Ich habe tatsächlich auch gemerkt, das kann ich nur verstehen, wenn ich es selber anwende.
30
00:02:17,190 --> 00:02:25,060
Deswegen habe ich lange in der Industrie gearbeitet und kenne also auch Funnel-Building und dergleichen.
31
00:02:25,520 --> 00:02:27,380
Stopp, halt, da musst du gleich sagen, Funnel-Building.
32
00:02:27,740 --> 00:02:32,780
Ja, also genau, wie komme ich an digitalen Traffic, an digitale Nutzung, an digitale Aufmerksamkeit.
33
00:02:33,460 --> 00:02:36,380
Und habe aber tatsächlich auch immer parallel geforscht.
34
00:02:36,600 --> 00:02:38,220
Das heißt, es hat auch nie aufgehört.
35
00:02:38,440 --> 00:02:44,060
Das ist ungewöhnlich, aber jeder Weg hat seine Berechtigung.
36
00:02:45,060 --> 00:02:52,700
Speaker 1: Ich fühle mich da ja total zu Hause, weil ich auch mal diesen einen Fuß in der Praxis, einen in der Theorie hatte und dachte, irgendwie macht das auch Sinn, zwischendurch zu verproben, was man sich so denkt.
37
00:02:52,920 --> 00:02:56,560
Speaker 1: Und manchmal macht es Sinn, tiefer zu denken als das, was man im Alltag loslässt.
38
00:02:57,100 --> 00:03:00,680
Speaker 1: Aber es ist ja trotzdem noch ein bisschen ein ungewöhnlicher Werdegang.
39
00:03:00,740 --> 00:03:08,400
Speaker 1: Wie fühlst du dich denn jetzt, also wir sprechen ja hier mit Wissenschaftler*innen, die auch wirklich versuchen in der Öffentlichkeit ihre Sachen zu übersetzen.
40
00:03:09,180 --> 00:03:15,260
Speaker 1: Fühlst du dich immer mehr wissenschaftlich, mehr aufklärerisch? Wie entscheidest du, wann du gerade wieder was machen musst?
41
00:03:15,460 --> 00:03:19,140
Ach so, das ist ganz einfach. Wenn man mich jetzt fragen würde: "Martin, was bist du eigentlich?"
42
00:03:19,540 --> 00:03:21,380
Dann würde ich sagen immer: "Ich bin Wissenschaftler."
43
00:03:21,960 --> 00:03:26,100
Aber tatsächlich, das klingt jetzt total krass für viele Wissenschaftler und Wissenschaftlerinnen,
44
00:03:26,720 --> 00:03:31,020
Ich bin tatsächlich irgendwann von der Uni weggegangen, weil ich noch mehr lernen wollte.
45
00:03:32,280 --> 00:03:36,440
Genau, das ist jetzt erstmal schwerer Tobak, das verstehe ich.
46
00:03:36,610 --> 00:03:45,240
Aber ich glaube tatsächlich, dass die Welt da draußen bunt ist und dass man viele Dinge eben ganz besonders gut versteht,
47
00:03:45,360 --> 00:03:47,440
wenn man sie selbst in der Anwendung betreibt.
48
00:03:47,680 --> 00:03:50,260
Und deswegen war das für mich nie ein Widerspruch.
49
00:03:51,300 --> 00:04:06,800
Speaker 1: Ja, das transdisziplinäre Lernen und Forschen bringt das ja auch zusammen. Unterschiedliche Disziplinen gucken auf eine Sache drauf und das trans heißt dann, vielleicht haben diejenigen, die das den ganzen Tag bummelig hoch und runter machen, auch eine ganz gute Art, wie die Zingles funktionieren.
50
00:04:06,920 --> 00:04:26,040
Und ich bin natürlich, ich habe alle meine Sachen, die ich gemacht habe, sind ja transdisziplinär. Da kann ich auch eine lustige Anekdote dazu erzählen. Und zwar war das meine Doktorarbeit. Ich habe irgendwann gemerkt, es gibt nur empirische Medienwirkungsforschung, die machen Befragungen. Und ich habe dann gemerkt, mit meinem ganzen Background, es gibt überhaupt keine Geschichte der Medienwirkung.
51
00:04:26,080 --> 00:04:48,660
Dann habe ich gedacht, so ich mache das jetzt mal. Das war ein totales Wahnsinnsprojekt. Ich habe irgendwie sechs Jahre daran gesessen. Das Ding hat 600 Seiten, wiegt zweieinhalb Kilo, Zehnpunktschrift und ich habe eine sozusagen Weltgeschichte der Medienwirkung geschrieben und dann habe ich gedacht, so das werden die lieben. Und was ist passiert? Das hat nicht wirklich jemanden interessiert. Warum? Weil es nicht in das Raster der Empiriker passt.
52
00:04:48,820 --> 00:05:03,540
Das heißt, die Empiriker haben gesagt, der hat ja in der Antike keine Befragung gemacht, also interessiert uns das nicht. Und die philologische Seite haben gesagt, ja, aber was ist das denn hier? Medienwirkung, das ist ja so ein empirischer Quatsch, das wollen wir nicht haben.
53
00:05:03,660 --> 00:05:21,800
Und da merken wir, wenn wir wirklich radikal transdisziplinär arbeiten, dann ist das nicht immer so einfach. Man darf es so ein bisschen machen. Man macht so eine transdisziplinäre Konferenz und dann lädt man mal ein paar Leute ein. Aber wenn man so richtig hart transdisziplinär arbeitet, erzeugt das auch Reaktanz.
54
00:05:21,940 --> 00:05:37,080
Speaker 1: Ja, ich kenne das Gefühl. Und trotzdem auch bei einigen eine Befreiung. Also ich habe gerade so bei jüngeren Kolleginnen und Kollegen auch gemerkt, dass die ganz froh darüber waren, dass jemand sagt, hey, diese Relevanzorientierung oder das, was du gerade beschreibst, da ist doch eine Lücke, da gehe ich jetzt voll rein.
55
00:05:37,680 --> 00:05:53,380
Speaker 1: Selbst wenn die zu füllen echt mühsam ist und es braucht Zeit und ich muss Sachen neu zusammen zu puzzeln. Das ist ja häufig schwierig, das in diesem sehr ergebnisgetriebenen Wissenschaftssystem heute unterzubringen. Aber genau damit kann man diese Querverbindung zum Teil erst aufschlüsseln, die du da gemacht hast.
56
00:05:53,820 --> 00:06:14,380
Genau, ich glaube man hat es mir verziehen, weil ich natürlich auch immer große empirische oder große Studien vorgelegt habe, die dann in der Wissenschafts-Community sehr positiv angekommen sind. Das heißt, ich konnte das dann immer backen durch die Sachen, die ich gemacht habe. Deswegen habe ich das ganz gut überlebt.
57
00:06:14,540 --> 00:06:22,760
Speaker 1: Passt du, ne? Also es gab ja wirklich auch mehrere Bücher, auch Bestseller, also insgesamt acht Bücher inzwischen von dir.
58
00:06:23,580 --> 00:06:29,320
Speaker 1: Und die letzten sind auch ausgezeichnet worden, also mit dem Günther Wallraff Sonderpreis für Pressefreiheit und Menschenrechte.
59
00:06:29,860 --> 00:06:31,380
Speaker 1: Wegtechn muss weg, war das, ne?
60
00:06:31,640 --> 00:06:31,740
Ja.
61
00:06:32,460 --> 00:06:38,020
Speaker 1: Und jetzt den Beatrice Primus Forschungspreis für digitale Medienmonopole Risiken für Demokratie und Wirtschaft.
62
00:06:38,640 --> 00:06:43,560
Speaker 1: Und das ist ja so ein bisschen unser Thema heute, Risiken und Sicherheit sind ja zwei sehr verwandte Begriffe.
63
00:06:44,280 --> 00:06:59,900
Speaker 1: Und dann eben zu überlegen, warum ist digitale Sicherheit so ein Thema? Du kamst aus dem Marketing, du hast Medienwirkungen dir angeguckt. Was denkst du ist das Wichtigste, was man daran verstehen sollte, um nachzuvollziehen, warum wir exakt darum heute ringen?
64
00:07:00,260 --> 00:07:14,940
Ich kann genau den Case schildern, wie ich eigentlich angefangen habe, misstrauisch zu werden. Und zwar, das war noch in den neuer Jahren, das Internet war total cool, alles war so auf Community, Interaction, Participation und die digitale Welt war gut.
65
00:07:15,460 --> 00:07:32,620
Und damals haben wir so einen sehr großen Content-Marketing-Ansatz gebaut, der ja eigentlich dazu da ist, dass einem ganz viele Leute diese Inhalte sich anschauen und dadurch eben zu Produkten auch finden. Also eigentlich eine ganz banale Sache.
66
00:07:32,840 --> 00:07:50,100
Und wir haben da einen total guten Case gehabt, der hat auch den deutschen Marketingpreis gewonnen, aber ich konnte im Backend, konnte ich immer sehen, was da sozusagen real an Traffic reingekommen ist. Und ich habe mir gedacht so, krass, ja, also so richtig gut ist das ehrlich gesagt nicht. Also gleichzeitig wurde das Ding gefeiert.
67
00:07:50,540 --> 00:08:07,500
Und dann kam Chris Anderson The Long Tail raus. Untertitel war ja Why the Future of Business is Selling Less of More. Also angeblich das Internet gibt den Armen, es nimmt den Reichen und ich saß da gerade und habe gedacht, das ist ja total schwach.
68
00:08:08,000 --> 00:08:29,920
Und da habe ich so ein großes Misstrauen bekommen. Deswegen ist das total interessant, dass ich eben gerade nicht von den Daten kam. Typischerweise wird ja das Thema auch Sicherheit immer mit Daten verknüpft, sondern ich kam einfach darauf, dass ich gesagt habe, okay, diese Schweinepriester von Google, die laufen hier rum und sagen uns, hey, ihr müsst nur coolen Inhalt auf eure Webseiten draufstellen.
69
00:08:30,040 --> 00:08:41,180
Und dann kommt der ganze, just be relevant, dann kommt der ganze Traffic, die ganze Nutzung, das kommt dann von alleine. Und ich hatte so gesehen, hey, ich habe hier quasi einen preisgekröten Case, da kommt gar nichts an.
70
00:08:42,020 --> 00:08:56,540
Und dann habe ich eigentlich angefangen zu diesen digitalen Monopolen zu forschen und habe es tatsächlich schon 2010 dazu wissenschaftlich publiziert, habe mich schon 2012 angefangen an die Presse zu wenden.
71
00:08:57,440 --> 00:09:15,840
Alle haben damals gedacht, der hat es nicht mehr alle. Dann habe ich ja acht Jahre gebraucht, um es empirisch zu beweisen, dieses totale Ausmaß der Monopolbildung, dass eigentlich das ganze Internet von einer Handvoll US-Tech-Konzerne fast vollständig kontrolliert wird. Das ist auch das Gegenteil übrigens von Freiheit.
72
00:09:15,940 --> 00:09:23,600
Das ist nicht so Empowerment, würde ich sagen. Und das ist im Prinzip die ganze Geschichte,
73
00:09:23,820 --> 00:09:27,660
wie ich dazu gekommen bin. Und das Interessante ist eben auch, dass die Irritation über einen
74
00:09:28,100 --> 00:09:33,560
Speaker 1: anderen Weg kam. Es kam nicht über die Daten. Aber da sind ein paar wichtige Sachen drin.
75
00:09:33,720 --> 00:09:38,460
Speaker 1: Ich fasse mal kurz zusammen und dann können wir vielleicht nochmal mit dem Medienmacht und diesem
76
00:09:38,640 --> 00:09:43,120
Speaker 1: Anschein da draußen einfach durch diese vielen, vielen, vielen bunten Apps und so haben wir alle
77
00:09:43,100 --> 00:09:47,140
Speaker 1: das Gefühl, ja wir sind ja ganz frei und können ganz viel auswählen und du sagst uns gleich,
78
00:09:47,800 --> 00:09:51,880
Speaker 1: das ist nicht so und warum das für unsere Sicherheit relevant ist, hast du auch in einem
79
00:09:51,980 --> 00:09:56,100
Speaker 1: Beitrag für die Friedrich-Ewert-Stiftung zusammengeschrieben mit den Auswirkungen auf
80
00:09:56,100 --> 00:09:59,840
Speaker 1: den Journalismus, womit wir ja auch so ein bisschen bei dieser Wissens-Meinungsbildung
81
00:10:00,320 --> 00:10:05,960
Speaker 1: und was macht der digitale Raum damit angekommen sind und da heißt es eben, die Medien waren
82
00:10:06,180 --> 00:10:11,159
Speaker 1: immer die Grundlage unserer Demokratie, sie erzeugen die Öffentlichkeit und den Kitt des
83
00:10:11,180 --> 00:10:17,380
Speaker 1: gemeinsamen Verständnisses, dass unsere Gesellschaft zusammenhält. Und dann folgt eben genau dieses,
84
00:10:17,600 --> 00:10:22,200
Speaker 1: dass man ursprünglich gedacht hat, das wird demokratisiert durch dieses World Wide Web,
85
00:10:22,340 --> 00:10:29,020
Speaker 1: wo viel mehr Stimmen hörbar werden, aber dann eben diese Monopolisierung und Oligopolisierung,
86
00:10:29,150 --> 00:10:34,260
Speaker 1: also wirklich das Konzentrieren in den Händen weniger. Kannst du da mal ein paar wilde Zahlen
87
00:10:34,310 --> 00:10:38,580
Speaker 1: in den Raum werfen, damit man sich das vorstellt? Auf jeden Fall. Und ich will auch noch mal sagen,
88
00:10:38,680 --> 00:10:42,440
warum das so schwer zu erkennen ist. Da sieht man wieder, warum man Wissenschaft braucht.
89
00:10:42,520 --> 00:10:46,540
Es ist ja so schwer zu erkennen, weil man auf der Oberfläche ja erstmal denken würde,
90
00:10:46,620 --> 00:10:50,780
das ist doch total super mit der Digitalisierung, wo ich vorher, keine Ahnung, ein paar Dutzend
91
00:10:50,960 --> 00:10:54,980
Fernsehsender hatte oder vielleicht ein paar hundert Zeitungen. Da habe ich jetzt viele
92
00:10:55,420 --> 00:10:59,920
Millionen Angebote. Das heißt, dem oberflächlichen Blick erscheint das Ganze wie eine ganz große
93
00:11:00,140 --> 00:11:06,739
Vielfalt. Und deswegen muss dann der wissenschaftliche Blick her und das ist eben übrigens auch so
94
00:11:06,760 --> 00:11:11,300
interessant zu zeigen, warum das so schwer ist, das wissenschaftlich zu beweisen.
95
00:11:11,730 --> 00:11:15,320
Weil wenn ich diese Machtstrukturen im Netz beweisen will,
96
00:11:15,370 --> 00:11:18,060
muss ich genau zwei Sachen wissenschaftlich leisten.
97
00:11:18,580 --> 00:11:22,060
Ich muss erstmal eine Realnutzungsmessung machen.
98
00:11:22,200 --> 00:11:26,920
Das heißt, ich muss gucken, was machen die Leute tatsächlich auf ihren digitalen Endgeräten.
99
00:11:27,120 --> 00:11:29,080
Das ist schon technisch schwierig.
100
00:11:30,140 --> 00:11:33,200
Zweitens muss ich hingehen und ich muss den gesamten Traffic,
101
00:11:33,400 --> 00:11:37,180
Ich muss also alles messen, weil sonst kann ich ja keine relativen Anteile bilden.
102
00:11:37,620 --> 00:11:42,860
Und die dritte Schwierigkeit ist, die Menschen sind auf ganz unterschiedlichen Endgeräten unterwegs.
103
00:11:43,390 --> 00:11:48,320
Du bist auch auf Smartphone, Tablet, Desktop, Laptop und so weiter und so fort.
104
00:11:48,320 --> 00:11:51,320
Und ich müsste quasi mit einer Stoppuhr nebenher rennen.
105
00:11:51,560 --> 00:11:56,360
jede einzelne View, jede einzelne Impression, wie wir das nennen, ausmessen,
106
00:11:56,900 --> 00:12:04,380
das auf 16 Millionen unterschiedliche Angebote zuordnen und kodieren
107
00:12:04,490 --> 00:12:08,360
und müsste das dann ermitteln, wer da eigentlich wie viel Macht hat.
108
00:12:08,910 --> 00:12:09,940
Und genau das haben wir gemacht.
109
00:12:10,240 --> 00:12:12,400
Speaker 1: Aus einem riesen Rauschen habt ihr quasi Muster.
110
00:12:12,430 --> 00:12:17,320
Genau, das ist übrigens auch die erste ganzheitliche Messung,
111
00:12:17,640 --> 00:12:20,960
die jemals für ein vollständiges Land repräsentativ gemacht wurde,
112
00:12:21,120 --> 00:12:27,820
Auf einer Grundlage eines extrem leistungsstarken Panels. 16.000 Leute waren das, auch repräsentativ für die Bevölkerung.
113
00:12:27,820 --> 00:12:32,680
Und jetzt kann ich einfach ein paar Zahlen da mal nennen, nur damit man sieht, wie shocking das ist.
114
00:12:33,120 --> 00:12:37,880
Also diese ganzen digitalen Märkte sind im Prinzip von Monopolen besetzt.
115
00:12:37,880 --> 00:12:42,100
Das heißt nun mal als Beispiel Suchmaschinen, 90 Prozent gehört Google.
116
00:12:43,220 --> 00:12:46,680
Social Media, 85 Prozent kontrolliert Meta.
117
00:12:48,040 --> 00:12:56,860
Als wir gemessen haben, war Gratis-Video 78% YouTube und das gehört ja wieder demselben Konzern wie Google, nämlich Alphabet.
118
00:12:57,560 --> 00:13:02,200
Und ich habe noch einen wunderschönen wissenschaftlichen Indikator, der das zeigen kann.
119
00:13:04,100 --> 00:13:13,480
Und zwar gibt es ja ein Maß für Gleichverteilung oder Ungleichverteilung, das kennen viele Leute von Vermögensverteilung, das ist der sogenannte Genie-Koeffizient.
120
00:13:14,180 --> 00:13:19,040
Der ist immer zwischen 0 und 1. Ich erkläre das mal. 0 ist eine Gleichverteilung.
121
00:13:19,220 --> 00:13:24,280
Stellen wir uns einen vor, in dem so quasi idealtypisch der Kommunismus realisiert ist.
122
00:13:24,300 --> 00:13:30,260
Da hätten wir einen Gini-Koeffizienten in der Vermögensverteilung von 0, weil ja alle dasselbe haben.
123
00:13:30,880 --> 00:13:35,500
Stellen wir uns ein Land vor, in dem eine Person alles besitzt und alle anderen gar nichts.
124
00:13:35,720 --> 00:13:39,920
Das ist die mathematisch größte Ungleichverteilung. Hätten wir einen Gini-Koeffizienten von 1.
125
00:13:41,040 --> 00:13:42,600
Speaker 1: Gibt es gar nicht. Also wie?
126
00:13:42,960 --> 00:13:56,500
Genau, das gibt es nicht zum Glück. Und wir haben dann den Traffic uns angeschaut und den Gini-Koeffizienten für die Verteilung des Traffics im deutschen Internet berechnet und der beträgt 0,988.
127
00:13:57,560 --> 00:13:59,020
Also krasser wird, glaube ich nicht.
128
00:13:59,120 --> 00:14:20,440
Ja, also wo wir auch wissenschaftlich gedacht haben, erst das kann überhaupt nicht sein. Also das haben wir ein Dutzend Mal nachgerechnet. Und von daher war, als wir da diese Studie 2020 publiziert hatten, war das Ausmaß dieser Katastrophe, dieser digitalen Monopolisierung für jeden ersichtlich.
129
00:14:21,080 --> 00:14:32,640
Und das ist natürlich genauso, wie du sagst, denn das bedeutet im Umkehrschluss natürlich auch, wenn der ganze Traffic bei den Tech-Konzernen ist, dann haben alle anderen und das ist eben auch Journalismus, die haben ja gar keinen fairen Zugang.
130
00:14:33,960 --> 00:14:45,580
Speaker 1: Ich glaube, die beiden Punkte zu unterscheiden ist total wichtig. Das eine ist ja auch Märkte, das hast du ja auch mit Big Tech muss weg und jetzt nochmal auch der Krieg der Medien ist der zweite Punkt, was wird mit dieser Marktmacht gemacht?
131
00:14:46,440 --> 00:14:58,040
Speaker 1: Also wir sind es ja gewohnt, auch in Deutschland, mit dem Rundfunkstaatsvertrag und welche Rolle spielen die, damit wir den Eindruck haben, wir haben Zugang zu guten Informationen, die mit Standards aufbereitet wurden.
132
00:14:58,120 --> 00:15:06,320
Speaker 1: Da ist ein journalistischer Ethos dahinter. Und die Personen und auch die Absender, sie haben ja Marken, wo ich mich dran wenden kann.
133
00:15:06,400 --> 00:15:14,660
Speaker 1: Ich habe ein Recht auf eine Klarstellung. Wenn etwas falsch berichtet wurde, muss man bei einigen Medien ein bisschen doller anklopfen und mit größeren Anwälten als mit anderen.
134
00:15:15,120 --> 00:15:33,560
Speaker 1: Also wir hatten immer so eine Bandbreite, aber jetzt haben wir ja das Phänomen, dass die Macht so groß ist und die Möglichkeit bei ihr Einspruch, also neben dem, wer bestimmt, was die Leute überhaupt noch sehen, den Einspruch dagegen, wenn was falsch angezeigt wird, das verhandeln wir ja auch gerade so wahnsinnig intensiv.
135
00:15:33,900 --> 00:15:55,000
Speaker 1: Also wenn ich google eine Mail schreibe, dann interessiert die das nicht. Ich habe ja auch keine Telefonnummer. Also es gibt ja überhaupt keine Möglichkeit quasi an diese Plattform ranzukommen und die verstecken sich ja häufig dahinter und sagen, wir sind ja nicht die, die das Angebot bereitstellen, sondern nur den Ort, wo es rumhängt. Würdest du ihnen diese Aussage geben oder müsste man die in Frage stellen?
136
00:15:56,960 --> 00:16:17,320
Auf keinen Fall. Da gibt es auch gesonderte wissenschaftliche Publikationen von mir zu dieser Frage. Man kann auch sagen, es ist einfach wissenschaftlich Bullshit. Die haben quasi in den 90er Jahren, haben die frühen Digitalunternehmen eigentlich eine Argumentation gebaut, die geht ungefähr so.
137
00:16:17,860 --> 00:16:36,820
Die haben damals gesagt, wenn man sich jetzt vorstellt, man hat ein Telefonnetzwerk und Terroristen telefonieren über dieses Telefonnetzwerk, dann können wir ja nicht den Betreiber des Telefonnetzwerks dafür verantwortlich machen und deswegen wollen wir zum Beispiel auch nicht hier für diese Chatforen für die Inhalte Verantwortung übernehmen.
138
00:16:37,420 --> 00:16:55,900
So, klingt ja erstmal total logisch, aber man hat halt einen riesengroßen Fehler gemacht. Man hätte damals sagen müssen, hey, ist total cool, kein Problem. Ihr wollt also nicht wie Medien reguliert werden, ihr sagt, ihr seid keine Medien, ihr seid nur eine Infrastruktur, nur ein Netzwerk. Okay, kein Problem.
139
00:16:56,660 --> 00:17:14,260
Dann regulieren wir euch wie Infrastrukturen, ja, ist kein Problem für uns, aber dann dürft ihr eine Sache nie machen, nämlich Inhalte monetarisieren. Inhalte monetarisieren, das machen Inhalteanbieter, wie zum Beispiel Redaktion, ist total egal, ob das die FAZ ist oder RTL oder wer auch immer.
140
00:17:14,680 --> 00:17:42,880
Ja und du ahnst es schon, man war eben damals so doof und hat gesagt, wir regulieren euch wie Netzwerke, aber ihr dürft genauso Geld verdienen wie alle anderen Medien auch. Und dann merken wir jetzt schon, selbst wenn man mit Leuten draußen auf der Straße spricht, natürlich sind das Medien, die nennen es Social Media, wenn man die fragt, in welchen Medien informierst du dich zum Beispiel über den Ukraine-Krieg, dann sagen die genauso Fernsehen wie Facebook, Instagram oder YouTube.
141
00:17:43,160 --> 00:17:52,560
Das heißt, die Menschen können das überhaupt nicht unterscheiden. Die verdienen Geld wie Medien. Und deswegen ist es auch interessanterweise wissenschaftlich Quatsch.
142
00:17:54,000 --> 00:18:04,980
Speaker 1: Jetzt könnten die sich ja wieder rausreden und sagen, ja wieso, aber die Inhalte sind ja nicht Google-Absender oder Meta-Absender, sind ja immer noch von den Usern hochgeladen, wenn da nicht die Algorithmen wären.
143
00:18:05,300 --> 00:18:27,000
Da würde ich aber sagen, man kann eben Milliarden als Netzwerk verdienen. Schau dir die Deutsche Telekom an zum Beispiel oder interessanterweise ja auch E-Mail. Das heißt, bei E-Mail-Anbietern ist es auch so, dass die nicht inhaltsspezifisch ihr Geld verdienen. Würde ich sagen, wie gesagt, it's not our problem. Das ist ehrlich gesagt ein Problem von eurem Geschäftsmodell. Ihr dürft euch das übrigens aussuchen.
144
00:18:27,280 --> 00:18:41,760
Wenn ihr Netzwerke sein wollt, regulieren wir euch wie Netzwerke. Wenn ihr Inhalteanbieter sein wollt, ist auch okay, seid ihr Inhalteanbieter. Aber dann müsstet ihr eigentlich für die Inhalte haften, denn das ist natürlich der totale Wahnsinn, wenn man darüber nachdenkt.
145
00:18:42,420 --> 00:19:07,440
In unserer Gesellschaft ist es normalerweise immer so, wenn mit irgendwas Geld verdient, kann derjenige, der damit Geld verdient, nicht sagen, ich habe damit überhaupt nichts zu tun. Und das ist genau das, was sie machen. Das heißt, sie haben ein Haftungsprivileg, sie müssen deswegen nicht haften, weil sie vortäuschen, keine Medien zu sein. Und deswegen haben sie etwas, was ich das Straftatenprivileg nenne. Denn sie dürfen mit Straftaten Geld verdienen, bis heute.
146
00:19:07,780 --> 00:19:21,940
Und wenn man sich jetzt mal die Frage stellt, also ob man in unserer Gesellschaft irgendwo eine Sphäre findet, wo milliardenschwere Akteure mit Straftaten Geld verdienen dürfen, wünsche ich viel Vergnügen.
147
00:19:22,600 --> 00:19:24,120
Speaker 1: Nennen wir die Straftaten, also ein paar Beispiel.
148
00:19:24,160 --> 00:19:33,020
Ja, Verleumdung, Rassismus, Diskriminierung, Volksverhetzung, Holocaust-Leugnung, das sind alles Straftaten. Und die machen diese Straftaten bis heute zu Geld.
149
00:19:33,620 --> 00:19:41,080
Speaker 1: Weil die dann viel klicken, weil dann die Leute da drauf bleiben, weil ich dann, also wie genau findet diese Monetarisierung statt?
150
00:19:41,260 --> 00:19:45,360
Ja, natürlich durch Werbung. Sie haben die Inhalte und die werden durch Werbung monetarisiert.
151
00:19:45,480 --> 00:19:49,880
Und ich würde jetzt auch immer sagen, da darf es auch keine Rolle spielen, wie hoch der Anteil ist.
152
00:19:50,020 --> 00:20:00,760
Da könnte der Supermarktbesitzer ja genauso sein, aber ich mache ja nur, keine Ahnung, 15 Prozent mit dem ganzen Crystal Meth und dem Crack, was ich hier verkaufe.
153
00:20:00,800 --> 00:20:06,500
Das habe ich auch nicht zusammengerührt, da kann ich ja auch nichts. Ich bin nur Intermediär. Da merken wir schon, das ist totaler Quatsch.
154
00:20:07,660 --> 00:20:14,100
Speaker 1: Diese Algorithmen, die sind ja dabei wichtig zu sagen, was wird denn hochgespielt.
155
00:20:14,140 --> 00:20:30,440
Speaker 1: Weil das, was du jetzt gerade beschrieben hast, sind ja Inhalte, wo wir eigentlich klare Regeln haben, dass sie eben nicht frankfröhlich frei verbreitet werden, weil sie sicherheitsgefährdend sind, weil sie Umgangsformen normalisieren oder sogar dazu auffordern, von denen wir sagen, die haben wir jetzt aus guten Gründen eigentlich gesagt.
156
00:20:30,920 --> 00:20:47,880
Speaker 1: Das gehört nicht zu einer zivilisierten Umgangsform. Magst du da nochmal, also mit den Facebook-Papers und so wurde ja recht eindrucksvoll auch, oder auch was mit dem schönen X gerade passiert, wie sich das da so verändert, dass man das so ein bisschen nochmal nachzeichnen kann, dass auch nicht jede Plattform ja gleich funktioniert?
157
00:20:48,640 --> 00:21:02,240
Ja, ich würde es noch verbinden mit dem Thema von vorher, weil, sage ich mal, die Tech-Konzerne, die haben uns jetzt seit 20 Jahren so ein bisschen geblitzt, weil die schon übrigens bevor die Rechtspopulisten das aufgenommen haben, kamen sie mit diesem ganzen Thema Meinungsfreiheit.
158
00:21:02,300 --> 00:21:11,600
Ja, ist ja hier Lieblingsthema von Elon Musk. Und was wir aber aus den Augen verlieren sollen, was sie natürlich nicht wollen, worüber wir reden, ist Meinungsmacht. Monopole, ist ja logisch.
159
00:21:11,740 --> 00:21:27,440
Und jetzt ist ja eine Sache total interessant. Versetzen wir uns nochmal in die alte Zahl. Stellen wir uns vor, wir hätten damals zu Zeiten des Fernsehens die Möglichkeit gehabt, dass zum Beispiel RTL 90% des Fernsehens einseitig kontrolliert.
160
00:21:27,520 --> 00:21:37,760
Übrigens ist ja rechtlich verboten, maximal 30 Prozent sind erlaubt, aber stellen wir uns das jetzt mal vor, RTL hätte jetzt das Fernsehen fast vollständig kontrolliert, so wie die Tech-Konzerne das Internet.
161
00:21:39,260 --> 00:21:57,100
Dann hätten wir jetzt RTL damals gefragt und das Management von RTL, dann hätten die uns ja gesagt, ja hey, wo ist denn bitte das Problem? Wir haben ja hier unseren Vorstand, aber wir geben ja überhaupt nicht, wir haben das total vollständig getrennt mit der Redaktion, da reden wir auch nicht rein.
162
00:21:58,480 --> 00:22:05,040
das ist schon okay so, das ist cool. Und da merkt ja jeder, wenn ich es so beschreibe, nee, nee, nee, nee, das wollen wir niemals haben.
163
00:22:05,380 --> 00:22:17,900
Das heißt, deswegen gibt es diese Grenzen, maximal 30 Prozent. Und jetzt muss ja jeder sich erstmal die Frage stellen, wenn jetzt wir neuartige Formen von Medien haben,
164
00:22:18,100 --> 00:22:26,660
die ja erstmal strukturell genauso filtern, sortieren, auswählen, entscheiden, welche Leute welche Botschaften bekommen,
165
00:22:27,040 --> 00:22:33,520
Algorithmen haben, dann ist es ja im Prinzip genauso, in Anführungsstrichen, wie eine Redaktionsarbeit.
166
00:22:33,520 --> 00:22:36,420
Da kann ja auch niemand sagen, ja, das ist alles völlig neutral.
167
00:22:36,420 --> 00:22:37,860
Das macht die Maschine.
168
00:22:38,080 --> 00:22:44,240
Das sind nur natürliche Aufmerksamkeitssignale von unseren Nutzern und Nutzerinnen.
169
00:22:44,420 --> 00:23:06,300
Das heißt, das Schöne ist, wenn wir uns das mal im Vergleich vor Augen halten, wird ja auch deutlich, wie wahnsinnig wir eigentlich sind, dass wir nicht dieselben Regeln für diese digitalen Medien eigentlich aufstellen und genauso misstrauisch sind, wie wir es ja zu Recht auch bei den redaktionellen Medien werden.
170
00:23:06,340 --> 00:23:26,520
Da würden wir ja auch nicht akzeptieren, wenn ein Konzern sozusagen alle Zeitungen kontrolliert oder das ganze Fernsehen kontrolliert. Und da merkt man, wie sehr auch dieses Thema Meinungsmacht aus unserem Blickwinkel geraten ist. Die sind da tatsächlich mit durchgekommen bis heute und haben einfach gesagt, wir sind keine Medien.
171
00:23:27,800 --> 00:23:37,480
Speaker 1: Ich glaube, ich würde gerne den einen Punkt noch nach Hause holen, bevor wir da nochmal auf die Algorithmen gehen, weil ich finde das so wichtig, weil du machst ja immer gerade die Analogien mit dem Supermarkt oder mit anderen Bereichen.
172
00:23:38,000 --> 00:23:46,380
Speaker 1: Und das ist ja ein ganz zentraler Bestandteil von der Argumentation, die du nach vorne bringst, lasst uns doch die ganz normalen Regeln für Märkte bitte hier auch gelten lassen.
173
00:23:46,950 --> 00:23:50,520
Speaker 1: Warum sollen die denn jetzt andere Regeln bekommen als alle anderen?
174
00:23:50,940 --> 00:24:04,920
Speaker 1: Die Besteuerung dieser Konzerne ist ja auch nochmal was Interessantes, also dass die sich auch an der Rückfinanzierung von den Ländern für ihre digitalen Dienstleistungen nicht in dem Ausmaß beteiligen, wie man das vielleicht von lokal verankerten Wirtschaftsanbietern dächte.
175
00:24:05,500 --> 00:24:19,540
Speaker 1: Aber ich finde das nochmal total wichtig, diesen Anteil von nicht zu viel Konzentration, weil der jetzt gerade diese Woche auch noch bestätigt wurde und zwar von dem Beirat des Bundeswirtschaftsministeriums, was ja sehr liberale Ökonomen alle sind.
176
00:24:20,200 --> 00:24:27,520
Speaker 1: Ich finde, bei der Klimathematik würde ich gerne an einigen anderen Stellen mit Ihnen streiten, aber Sie haben was gesagt, wo ich dachte, das findest du bestimmt spannend.
177
00:24:28,380 --> 00:24:36,760
Speaker 1: Gerade in Zeiten technologischer Umbrüche und zunehmender Marktkonzentration ist es unerlässlich, marktwirtschaftliche Dynamik nicht nur zu ermöglichen,
178
00:24:37,290 --> 00:24:43,960
Speaker 1: sondern auch ihre Gefährdung durch Monopolisierungstendenzen oder politische Vereinnahmung entgegenzutreten.
179
00:24:44,500 --> 00:24:56,240
Speaker 1: So sollte etwa die wettbewerbsfördernde Regulierung digitaler Gatekeeper durch den Digital Markets Act, das ist der Europäischen Union, nicht Gegenstand von handelspolitischen Verhandlungen mit den USA werden.
180
00:24:56,840 --> 00:24:57,660
Speaker 1: Also da sind zwei Dinge drin.
181
00:24:57,860 --> 00:25:00,340
Speaker 1: Einmal diese Bestätigung, die haben einfach zu viel Macht.
182
00:25:00,390 --> 00:25:03,760
Speaker 1: Und das zweite ist ja tatsächlich politische Vereinnahmung.
183
00:25:04,020 --> 00:25:28,520
Speaker 1: Da waren wir jetzt ja noch diese schöne Allianz, was ja das Thema deines neuen Buches ist, was jetzt im August erschienen ist, Krieg der Medien, wie Autokraten sich bewusst durch die Social Media und die Möglichkeiten dort in dieser sogenannten Meinungsfreiheit austoben und damit aber natürlich eigentlich nur sicherstellen wollen, dass ihre Themen gesetzt werden und auch die Art, wie sie gesetzt werden, eben sich nicht mehr an die zivilen Umgangsformen halten.
184
00:25:28,960 --> 00:25:56,579
Genau, jetzt sind da im Prinzip zwei große Punkte drin, die ich nochmal aufgreife und noch ein bisschen tiefer lege. Der eine Punkt hast du auf der einen Seite total recht und wenn du sagst, das sind wirtschaftsliberale Kreise, jetzt kann ich aber mit, das ist ja auch durchaus erheitern, noch ergänzen, dass es ja der totale Wahnsinn ist, dass wir überhaupt dieses Ausmaß der Monopolisierung bisher so zulassen.
185
00:25:57,780 --> 00:26:08,040
Weil jeder der wirtschaftsliberal ist, müsste ja sagen, Monopole sind komplett undenkbar. Ich mach das mal am Beispiel. Wir hatten in Deutschland ein Telekommunikationsmonopol, die Telekom, ja und wir haben dieses Monopol geöffnet.
186
00:26:08,560 --> 00:26:28,780
Das heißt, de facto haben wir uns von diesen Tech-Konzernen so lange blitzdingsen lassen, dass wir jetzt schon seit zehn Jahren diese Digitalmonopole einfach laufen lassen. Also wir öffnen ein deutsches Monopol und wir betreiben Monopolprotektionismus für US-Konzerne. Wie kann das bitte sein? Wo man ja rein von einem wirtschaftsliberalen Aspekt sagen würde, hey, das kann überhaupt nicht gehen.
187
00:26:29,320 --> 00:26:37,500
Ist mir das auch total faszinierend. Ich sage immer, stellt euch vor, der Kapitalismus wird abgeschafft und die Kapitalisten sind aber zu doof, es zu merken.
188
00:26:37,800 --> 00:26:47,680
Weil natürlich haben wir unter monopolistischen Bedingungen ja quasi gar nicht mehr Wettbewerb, offene Märkte, was Kapitalisten ja eigentlich normalerweise gut finden.
189
00:26:48,660 --> 00:27:08,160
Das heißt, das Absurde ist eben auch, dass wirtschaftsliberale Parteien, die uns die ganze Zeit erzählen, sie haben Ahnung von Wirtschaft und Märkten und Wettbewerb, das offenbar überhaupt nicht kapieren. Die müssten ja total auf die Barrikaden gehen. Und da sollte man sie auf jeden Fall bei der Verantwortung nehmen.
190
00:27:08,160 --> 00:27:11,800
Speaker 1: Also den Beirat in dem Fall für ihre liberale Agenda wirklich auch loben.
191
00:27:11,660 --> 00:27:22,820
Ja, aber ich würde halt auch ergänzen, weil ich das natürlich kenne, der Digital Markets Act erlaubt ja nicht die, sag ich mal, effektive Zerschlagung oder Entflechtung dieser Monopole.
192
00:27:22,840 --> 00:27:33,000
Das heißt, der Digital Markets Act reicht ja gar nicht. Dann sollen Sie bitte auch so konsequent sein und das genauso konsequent machen, wie Sie das mit der Telekom gemacht haben, wenn Sie wirtschaftsliberal sind.
193
00:27:33,260 --> 00:27:35,820
Oder sonst sollten Sie sich in irgendeiner Form dazu äußern.
194
00:27:36,860 --> 00:27:41,580
Der zweite Punkt ist natürlich, und da kommst du auf das neue Buch zu sprechen,
195
00:27:41,820 --> 00:27:51,040
dass das Dramatische eigentlich ist, dass die Algorithmen dieser Plattformen in Verbindung,
196
00:27:51,110 --> 00:27:53,720
und da können wir wieder das Thema von vorhin aufnehmen,
197
00:27:53,860 --> 00:27:58,560
in Verbindung mit dem Haftungsprivileg und dem Straftatenprivileg natürlich dazu führen,
198
00:27:59,280 --> 00:28:04,660
dass wir diese totale Verrohung des öffentlichen Diskurses haben, den wir seit Jahren beobachten.
199
00:28:04,700 --> 00:28:15,060
Man muss sich das halt so vorstellen, dass man erstmal sagen kann, dass Medien insgesamt immer natürlich sensationelle Sachen oder polarisierende Sachen auch mögen.
200
00:28:15,280 --> 00:28:16,540
Also auch die Bild-Zeitung.
201
00:28:17,519 --> 00:28:18,080
Aufmerksamkeitsökonomie.
202
00:28:18,100 --> 00:28:20,220
Ja, ich hau mal einen raus, ist völlig klar.
203
00:28:20,560 --> 00:28:29,580
Aber es war natürlich so, dass auch ein Medium wie die Bild-Zeitung immer an das Gesetz gebunden war.
204
00:28:29,880 --> 00:28:32,740
Und wenn sie das Gesetz gebrochen haben, dann haben sie gehaftet.
205
00:28:32,860 --> 00:28:49,200
Das kann sehr, sehr unangenehm sein. Jetzt haben wir aber hier eine Situation, die wir leider selbst geschaffen haben. Ich habe es vorhin erklärt. Wir haben Medien, die aber reguliert werden wie Netzwerke. Sie müssen nicht haften und sie können weiterhin ungestört mit Straftaten ihr Geld verdienen.
206
00:28:50,020 --> 00:29:01,640
Und dann erlauben wir zusätzlich natürlich diesen Medien, dann maximal quasi die Lautstärke hochzudrehen und durch Algorithmen, Polarisierung, Hass, Hetze und Häme noch zu belohnen.
207
00:29:02,380 --> 00:29:09,500
Und das hilft natürlich gerade radikalen Positionen. Es hilft weltweit überall besonders stark den Rechtspopulisten.
208
00:29:10,460 --> 00:29:31,900
Das merken wir, wenn wir selber Sachen auf Social Media posten, weil wenn wir da posten, es ist unfassbar, was dieser selbsternannte Medienwissenschaftler aus Göln da gerade wieder, ja, dann kriegen wir wahrscheinlich mehr Aufmerksamkeit, als wenn wir sagen, hey, ich habe diesen Podcast über Wissenschaftskommunikation gehört und musste einige meiner Positionen nochmal überdenken.
209
00:29:32,360 --> 00:29:49,760
Da merken wir sofort, da gibt es keine Views und keine Likes für und das ist die Misere, in der wir sind, weil wir jetzt eigentlich auch eine Art Koalition haben natürlich aus der Trump-Regierung, den Tech-Konzern, die auch schon ausgreift nach Europa.
210
00:29:50,280 --> 00:30:00,700
Parteien wie die AfD werden vom US-Außenministerium bereits als zivilisatorische Alliierte in ihrem Kulturkampf bezeichnet.
211
00:30:00,800 --> 00:30:03,400
Übrigens deswegen auch dieser Titel Krieg der Medien.
212
00:30:03,740 --> 00:30:09,800
Das ist noch nicht mal, diese Kriegsbegrifflichkeit ist noch nicht mal was ich jetzt erfunden habe,
213
00:30:10,320 --> 00:30:15,380
sondern das ist tatsächlich von diesen Akteuren selbst genauso vorgebracht und genauso gemeint.
214
00:30:15,440 --> 00:30:17,240
Speaker 1: Story Wars und solche Sachen gibt es ja auch.
215
00:30:17,300 --> 00:30:34,480
Ja, aber ich meine, mein Buch fängt ja an mit Bürgerkrieg ist unvermeidlich von Elon Musk. Das war letztes Jahr Peter Thiel, spricht auch von einem Krieg des Internets gegen die analoge Welt. Ein Krieg, den das Internet gewonnen hat.
216
00:30:36,200 --> 00:30:47,340
Das Drehbuch zu diesem ganzen Thema ist von Davidson und Reese Mock, das souveräne Individuum, die sprechen von einem Information War.
217
00:30:48,220 --> 00:30:57,120
1997, also das steht alles vollkommen offen in diesen Schriften drin, also da kann keiner sagen, dass sie das irgendwie im Geheimen betreiben.
218
00:30:57,580 --> 00:31:04,580
Das ist wirklich ein gezielter Versuch, die westlichen Demokratien zu destabilisieren und abzuschaffen.
219
00:31:05,380 --> 00:31:09,200
Speaker 1: Ich finde, das ist eine wichtige Lektüre insgesamt, auch wenn sie sehr unangenehm ist.
220
00:31:09,500 --> 00:31:10,540
Speaker 1: Also The Sovereign Individual.
221
00:31:11,740 --> 00:31:17,820
Speaker 1: Spannend fand ich, 1997 hat es ganz kurz den Untertitel How to Survive the Collapse of the Welfare State.
222
00:31:18,320 --> 00:31:21,040
Speaker 1: Also wie überlebe ich den Kollaps der Wohlfahrstaaten?
223
00:31:21,200 --> 00:31:29,660
Speaker 1: Und dann wurde es schnell umgesetzt oder umformuliert in The Transition in the Information Age oder irgendwie sowas wieder schön Neutrales.
224
00:31:29,700 --> 00:31:50,640
Speaker 1: Dieser Übergang kommt und so ist das ganze Ding geschrieben, als wäre das vorgezeichnet. Strukturdeterminismus wäre der wissenschaftliche Begriff. Die Struktur wird sich so entfalten und dann schreiben die darin ja, wir wollen euch die Möglichkeit geben, von diesem Strukturwandel zu profitieren, oben zu schwimmen. Und das ist ja nicht weniger als das, so wird das darin ja formuliert.
225
00:31:51,600 --> 00:31:55,340
Speaker 1: Gleich wie auf dem Olymp könnt ihr dann tanzen als souveräne Individuen.
226
00:31:55,890 --> 00:32:00,740
Speaker 1: Der Rest, diese Masse der Mittelmäßigkeit, die wird sich dann dran gewöhnen müssen,
227
00:32:00,740 --> 00:32:05,320
Speaker 1: dass solche Ideen wie alle sind vor dem Recht gleich, einfach ad acta gelegt wurden.
228
00:32:06,000 --> 00:32:12,160
Speaker 1: Und es wird ja aufgefordert, eigene Geldsysteme, eigene regulatorische Räume etc. zu schaffen,
229
00:32:12,390 --> 00:32:17,540
Speaker 1: weil da so eine Staats-, wirklich nicht Ablehnung, sondern Verachtung und fast Hass,
230
00:32:17,630 --> 00:32:19,240
Speaker 1: ja, da durchschwingt die ganze Zeit.
231
00:32:19,680 --> 00:32:27,100
Speaker 1: Peter Thiel hat ja auch so schöne Sachen gesagt wie Freiheit und Demokratie, er hat das Vorwort geschrieben zu der 2020-Ausgabe von diesem besagten Buch,
232
00:32:28,520 --> 00:32:30,440
Speaker 1: dass Freiheit und Demokratie nicht mehr zusammengehen.
233
00:32:30,540 --> 00:32:39,620
Speaker 1: Also wäre ich Peter Thiel, würde ich das wahrscheinlich auch sagen, weil die letzten Bemühungen waren ja von den demokratischen VertreterInnen in den USA zu sagen,
234
00:32:39,700 --> 00:32:45,840
Speaker 1: vielleicht müssen wir eine oder andere Sache da mal regulieren, jetzt sind sie alle fröhlich im Oval Office und so fieren Donald Trump.
235
00:32:46,440 --> 00:32:56,880
Speaker 1: Das heißt, es ist ja wichtig, Thema Sicherheit und digitale Sicherheit, sich zu überlegen, wer da gerade an den Schaltstellen mit welcher Idee von Zukunft sitzt.
236
00:32:57,260 --> 00:33:05,220
Speaker 1: Weil sie eben durch die Art, wie Wirklichkeit abgebildet wird, an wen sie abgebildet wird und wer an ihr mitschreiben darf, diesen wahnsinnigen Einfluss haben.
237
00:33:05,860 --> 00:33:12,000
Speaker 1: Bevor wir nochmal auf die Rolle von KI in diesem Kontext eingehen, würde ich dich einmal kurz, da müssen wir einmal kurz auftauchen,
238
00:33:12,140 --> 00:33:14,300
Speaker 1: weil ihr habt ja ein paar konkrete Ideen gemacht,
239
00:33:14,400 --> 00:33:15,880
Speaker 1: wie man dem mit einer ganz normalen,
240
00:33:17,100 --> 00:33:17,740
Speaker 1: wagtwirtschaftlichen Logik,
241
00:33:17,840 --> 00:33:19,840
Speaker 1: die auch nicht an dem, was wir schon kennen, vorbei ist,
242
00:33:20,180 --> 00:33:22,080
Speaker 1: so einen bisschen einen Riegel vorschieben könnte.
243
00:33:22,120 --> 00:33:23,300
Speaker 1: Das hast du mit einem Kollegen geschrieben,
244
00:33:23,600 --> 00:33:25,280
Speaker 1: so einen Medienstaatsvertrag.
245
00:33:26,560 --> 00:33:31,280
Speaker 1: Ich werfe dir mal die 4 und dann plus 2 Unteroberschriften hin
246
00:33:31,380 --> 00:33:33,480
Speaker 1: und du sagst uns jeweils, was versteckt sich dahinter.
247
00:33:34,320 --> 00:33:35,540
Speaker 1: Das ist ja auch kein Hexenwerk,
248
00:33:35,580 --> 00:33:36,920
Speaker 1: mit dem man erst mal sagen könnte,
249
00:33:37,400 --> 00:33:38,500
Speaker 1: lass mal die Macht brechen.
250
00:33:38,820 --> 00:33:40,620
Speaker 1: Ob dann alle da runtergehen oder das nächste.
251
00:33:40,960 --> 00:33:47,500
Speaker 1: Aber offene Standards und Interoperabilität, was würde das denn bedeuten und warum ist das schon mal ein großer Schritt?
252
00:33:47,870 --> 00:33:54,140
Ja, ich mache es ganz einfach. Also stellen wir uns vor, zum Beispiel, ich meine, du hast ja auch total starke Reichweiten.
253
00:33:54,290 --> 00:34:03,520
Du weißt zum Beispiel auch, wenn du auf einer Plattform viele Follower hast, dass du gleichzeitig aber natürlich an diese Plattform gebunden bist.
254
00:34:03,830 --> 00:34:09,620
Das heißt, du kannst nicht auf eine einfache Art und Weise diese Plattform verlassen, wenn du die nicht mehr magst.
255
00:34:10,080 --> 00:34:14,020
Und jetzt stellen wir uns mal vor, also das kann ich an deinem Beispiel wunderbar erklären,
256
00:34:14,470 --> 00:34:21,280
wir würden die Plattformen zwingen, die marktführenden Plattformen, ihre Inhalte über offene Standards anzubieten.
257
00:34:21,780 --> 00:34:27,840
Dann würde es bedeuten, dass sofort der Traffic auch außerhalb dieser marktführenden Plattform viel besser stattfinden könnte.
258
00:34:27,840 --> 00:34:31,840
Das heißt jetzt nur mal als Beispiel, wir hätten zum Beispiel vielleicht eine öffentlich-rechtliche Plattform,
259
00:34:32,260 --> 00:34:37,679
die denselben Standard einsetzen würde oder wir hätten andere Alternativen mit offenen Standards.
260
00:34:37,780 --> 00:34:53,379
Das würde zum Beispiel für dich dann bedeuten, dass du nicht mehr angewiesen bist auf diese Plattform-Bindung, sondern könntest quasi mit einem Klick oder wenigen Klicks, könntest du dieselben Inhalte über vielleicht ein Dutzend oder 15 Plattformen verstreuen.
261
00:34:53,460 --> 00:35:09,980
So, was würde passieren? Das wäre total super für dich, weil momentan kriegst du vielleicht gar kein Geld dafür oder wenig Geld, aber jetzt würden die Plattformen anfangen in einen Wettbewerb zu treten, weil du könntest zum Beispiel dann sagen, hey, bei mir kriege ich aber mehr Geld. Ich will dann gar nicht bei dir sein.
262
00:35:10,480 --> 00:35:22,700
Und dann merkst du auf einmal, was passiert. Wir hätten einen Wettbewerb um die besten Inhalte und die Plattformen selber würden auch den Anteil dessen, was sie selber einbehalten, weil für viele Leute ist es ja so, die behalten ja alles ein.
263
00:35:22,920 --> 00:35:33,520
Da behalten sie sogar 100 Prozent des ganzen Geldes ein. Die haben ja gar keine eigene Souveränität. Das würden wir komplett auflösen. Das ist der erste Punkt.
264
00:35:33,840 --> 00:35:41,440
Speaker 1: Also ich stelle mir zwar ein bisschen wie mit einem Bankkonto oder einem Depot. Ich nehme meine Wertpapiere mit rüber, ich nehme das, was ich angesammelt habe mit rüber.
265
00:35:42,200 --> 00:35:57,220
Mein Lieblingsbeispiel ist immer E-Mail. Zum Beispiel bei E-Mail ist es auch so, das ist total egal, zum Beispiel wenn du einen Inhalt hast, du kannst den an jemanden schicken, der Anbieter Web.de hat, GMX, Gmail, Yahoo, ist total egal.
266
00:35:57,480 --> 00:36:06,420
Das heißt, über den offenen Standard ist sichergestellt, dass derselbe Inhalt über ganz viele Anbieter verstreut werden kann.
267
00:36:07,779 --> 00:36:10,800
Speaker 1: Wäre ja auch total innovationsfreundlich, das wollen sie ja immer sein.
268
00:36:11,100 --> 00:36:11,200
Speaker 1: Genau.
269
00:36:11,340 --> 00:36:15,140
Speaker 1: Also da würde man ja sagen, guck mal, wir haben uns was Gutes ausgedacht, ihr könnt das ausprobieren,
270
00:36:15,260 --> 00:36:16,920
Speaker 1: anstatt dass wir da festdenken.
271
00:36:17,160 --> 00:36:21,060
Speaker 1: Okay, wir haben alle gesehen, wie schwer es war, dass man darum ging zu sagen,
272
00:36:21,140 --> 00:36:26,400
Speaker 1: will man jetzt auf X, wo Elon Musk ja der Superspreader geworden ist, jetzt wirklich noch mitmachen.
273
00:36:27,500 --> 00:36:31,380
Speaker 1: Und es war nicht leicht, weil wir eben genau diese Follower etc. dann verlieren.
274
00:36:31,980 --> 00:36:37,160
Speaker 1: Deshalb Punkt 2, volle Outlink-Freiheit für Content-Kreatoren.
275
00:36:37,880 --> 00:36:39,560
Mache ich auch wieder gerne am Beispiel.
276
00:36:39,830 --> 00:36:48,980
Also stell dir vor, du bist auf einer solchen Plattform, Instagram, du siehst einen total interessanten Artikel von Spiegel und willst den klicken.
277
00:36:49,100 --> 00:36:52,840
Da merkst du erstmal, du kannst den nicht direkt klicken, obwohl es ja gar keinen Grund dafür gibt.
278
00:36:52,940 --> 00:37:09,780
Also die Plattformen könnten ja einfach das so machen, dass du draufklickst und dann wärst du sofort, würdest du die Plattform verlassen und wärst beim Spiegel. Die Redaktionen schreien dann schon immer, Link ist in der Bio. Das heißt, du musst dann über vier, fünf Schritte gehen, was natürlich unter digitalen Bedingungen meterhohe Mauern sind.
279
00:37:11,120 --> 00:37:31,020
Und dann kann es sein, dass du vielleicht sogar den Artikel lesen kannst und wenn du jetzt denkst, du hast dann die Plattform verlassen, bist du auf dem Holzweg, weil du bist immer noch im In-App-Browser von Instagram. Also du merkst, das ist wie ein Knast, in dem du eingefangen bist. Übrigens mit den geschlossenen Standards genauso, geschlossenen Standards, die wir gerade gesprochen haben, aber eben auch mit dieser Runterregelung von Outlinks.
280
00:37:31,240 --> 00:37:46,760
Deswegen Vorschlag Nummer zwei. Wir zwingen Plattformen sich zu öffnen. Die sagen ja auch sonst, wir sind immer für unsere Community da. Dann liegt die ganze Freiheit für die Outlinks bei den Urhebern und Urheberinnen, die sowieso diese Plattform mit Inhalten befüllen.
281
00:37:47,720 --> 00:38:03,580
Du kannst Outlinks setzen, so viel du willst und was passiert jetzt sofort? Die Urheber und Urheberinnen können selber starke Inhalte im Netz aufbauen und haben natürlich sofort 10 mal mehr, 20 mal mehr, 100 mal mehr Traffic, weil der Traffic auch aus den Plattformen rauskommen kann.
282
00:38:04,200 --> 00:38:15,820
Sofort hast du eine Demokratisierung, wir geben den Menschen Stimme und die Inhalte sind nicht mehr einseitig kontrolliert von diesen Tech-Monopolisten. Ganz einfach.
283
00:38:16,180 --> 00:38:30,180
Speaker 1: Theoretisch, wenn ich so einen weiterdenke, müsste das ja auch den Druck auf die Rechenzentren reduzieren, weil ich muss ja da nicht ein und die gleiche Urquelle 5000 Mal parallel ablegen, nur damit die Leute die auch noch auf meiner Subplattform finden.
284
00:38:30,370 --> 00:38:34,960
Speaker 1: Oder? Da liegt der Spiegelartikel auf keine Ahnung wie vielen, obwohl es nur noch fünf sind.
285
00:38:35,240 --> 00:38:51,460
Ich weiß nicht, also ich finde den interessanten Nebenaspekt liegt eher auf einer anderen Ebene tatsächlich. Das ist aber nur was sozusagen, das ist schon im Feld der Feinmechanik, ist aber interessant. Ich habe ja vorhin über dieses Haftungsprivileg und Straftatenprivileg gesprochen.
286
00:38:51,940 --> 00:39:08,220
Es ist ja so, dass auf unabhängigen Domains, das weißt du selber auch, wenn du jetzt hingehst und hast eigene Inhalte, bist du impressumpflichtig und das heißt, du bist verantwortlich. Das heißt, hier haben wir die Situation gerade nicht, auch der Spiegel ist verantwortlich für die Inhalte.
287
00:39:08,320 --> 00:39:35,600
Das heißt, ich sage immer, das ist wie so der Hase aus dem Hut noch so ein Nebenaspekt. In dem Augenblick, wo wir der Nutzung, dem Traffic erlauben, auch wieder außerhalb der Plattform stattzufinden, zieht sofort automatisch dort, wo es auf eigenen Domains betrieben wird, auch die Haftung. Du hast sowieso da einen viel zivilisierteren Diskurs. Das heißt, du hast sogar noch einen total tollen zivilisierenden Nebeneffekt, indem du das machst.
288
00:39:35,800 --> 00:39:46,240
Speaker 1: Und Thema Journalismus, die ja auch durch Werbeeinnahmen zunehmend sich refinanzieren müssen, dann würden die Menschen wenigstens dort auf deren Seiten sich aufhalten und nicht immer dort gefangen bleiben.
289
00:39:46,500 --> 00:39:49,700
Und sie wären unabhängig von den Plattformen.
290
00:39:50,960 --> 00:39:59,100
Speaker 1: Ja, weil dieser Werbekuchen der Digitale, der geht ja auch in einem wahrscheinlich ähnlich monopolistisch auf deine Form an eben besagte Netzplattform.
291
00:39:59,380 --> 00:39:59,520
Speaker 1: Genau.
292
00:40:01,480 --> 00:40:11,720
Speaker 1: Jetzt sind wir bei dem interessanten Punkt 3. Abschaffung aktiver Traffic, Manipulation und Sanktionen bei Selbstbevorteilung. Elon, was würde ihm passieren?
293
00:40:11,780 --> 00:40:31,080
Ja, es ist tatsächlich so, das ist ja das krasseste gewesen, was wir in dieser Publikation von 2020 gezeigt haben. Also auf breiter empirischer Grundlage konnten wir zeigen, dass die Schweinepriester von den Tech-Konzernen sich quasi den Traffic selbst zuschieben.
294
00:40:31,320 --> 00:40:53,700
Und ich erkläre das mal am Beispiel. Die haben ja unterschiedliche Angebote in ihren Tech-Ökosystemen und zum Beispiel nehmen wir mal Google. Google ist eine Suchmaschine, ist also wie eine Verteilstation im Netz und wir sind also hingegangen und haben diesen Traffic nicht nur statisch gemessen, sondern wir haben uns dann angeschaut, wo gehen denn die Leute hin, wenn sie Google verlassen.
295
00:40:54,360 --> 00:41:09,860
Und jetzt würde man ja annehmen, wenn Google auf eine faire Art und Weise den Traffic verteilt, würde der gesamte Anteil der Nutzung, der danach wieder auf Elphabit-Angeboten landet, der würde natürlich genauso groß sein wie der normale Elphabit-Anteil im Netz.
296
00:41:10,180 --> 00:41:26,940
Und wir haben gecheckt und sind fast vom Hocker gefallen, weil Google doch tatsächlich ungefähr doppelt so viel Traffic wieder auf eigene Angebote des Konzerns umgeleitet hat, als eben im Fair Share erwartbar gewesen wäre.
297
00:41:27,060 --> 00:41:45,560
Ja, und genau, das sage ich ja auch immer wieder, das betrifft ja auch alle. Es ist total egal, ob du jetzt die Spiegel-Redaktion bist, ob du Maya Göpel bist mit unabhängigen Angeboten. Es ist total egal, ob du einen Webshop von Edeka betreibst oder ob das ein mittelständischer Rasenmäherladen ist.
298
00:41:46,940 --> 00:42:06,440
Die Leute, die draußen im Netz unabhängig ihre Angebote versuchen zu zeigen, haben ja gar keine Chance, weil die Tech-Konzerne sich diesen Traffic einfach selbst nehmen. Und das finde ich ist hardcore schlimm. Und das muss gestreng überprüft werden. Es kann ja nicht sein, dass die Tech-Konzerne sich diesen Traffic einfach selbst geben.
299
00:42:06,720 --> 00:42:11,160
Speaker 1: Ist das Teil von diesem Urteil der Europäischen Union gegen Google? Das war ja auch ein Ausnutzen.
300
00:42:11,300 --> 00:42:34,640
Das ist natürlich auch juristische Feinmechanik. Meine Wahrnehmung ist, dass das auf der Ebene des Digital Markets Act immer auf der Ebene von Produkttransaktionen sanktioniert wird. Das heißt jetzt nur mal als Beispiel, dass Apple in dem App Store nicht mehr so manipulieren darf, dass hauptsächlich die eigenen Produkte angeboten werden. Das ist aber immer in Bezug auf Transaktionen.
301
00:42:34,640 --> 00:42:35,600
Speaker 1: Das hat Amazon ja auch drauf.
302
00:42:35,680 --> 00:42:57,680
Genau. Und das war aber ja die Revolution eigentlich in unserer Messung, dass wir zeigen konnten, es ist gar nicht nur ein Thema auf der Ebene der Transaktionen, sondern es ist ein Grundprinzip, was alle Traffic-Ströme im Netz erfasst, wo ich gedacht habe, also das war für mich eine der fundamentalsten Einsichten auch aus dieser Grundlagenforschung.
303
00:42:58,480 --> 00:43:09,420
Und ich finde es auch übrigens schocking, dass das bis heute nirgendwo in Gesetzeswerke sozusagen transponiert worden ist.
304
00:43:10,020 --> 00:43:17,360
Speaker 1: Und jetzt kommt ja die KI, die noch da vorgeschaltet wird und dann bewegt man sich ja gar nicht mehr von der Google Homepage weg.
305
00:43:17,410 --> 00:43:21,420
Speaker 1: Und dann hat Gemini für dich mal eben das vermeintliche Netz zusammengestellt.
306
00:43:21,980 --> 00:43:27,420
Speaker 1: Aber was dieses Netz ausmacht, welchen Datensatz es da berücksichtigt und wer diese Datensätze manipuliert.
307
00:43:27,820 --> 00:43:31,040
Und wer sie erarbeitet hat und enteignet worden ist.
308
00:43:31,480 --> 00:43:33,960
Stimmt. Urheberrechtsthematik.
309
00:43:33,960 --> 00:43:36,480
Speaker 1: Da habe ich neulich auch gehört, dass Donald Trump zum ersten Mal gesagt hat,
310
00:43:36,580 --> 00:43:38,180
Speaker 1: man könnte mal das Urheberrecht abschaffen.
311
00:43:38,200 --> 00:43:40,280
Speaker 1: Da hat bestimmt Sam Altman mit ihm gequatscht.
312
00:43:40,860 --> 00:43:44,600
Speaker 1: Weil das ist ja schön, wenn du dann im Grunde auf alles zugreifen darfst,
313
00:43:44,800 --> 00:43:49,620
Speaker 1: egal wer sich da irgendwie bemüht hat, gute Sachen zusammenzutragen,
314
00:43:49,820 --> 00:43:53,640
Speaker 1: um zu sagen, mein Angebot von dem Kuratierten ist das, was ihr braucht,
315
00:43:53,820 --> 00:43:58,840
Speaker 1: zahlt uns dafür und der Rest kann dann für umsonst das mal bereitstellen.
316
00:43:58,890 --> 00:44:02,820
Speaker 1: Wenn sie Glück haben, wir noch berücksichtigt werden und nicht andere da reingehen.
317
00:44:03,010 --> 00:44:07,380
Und wenn man so will, sind wir da auch wieder bei The Sovereign Individual, weil das sind
318
00:44:07,380 --> 00:44:14,180
ja genau die Teile quasi der Bevölkerung, die diese Tech-Libertären eigentlich abschaffen
319
00:44:14,400 --> 00:44:14,480
wollen.
320
00:44:14,810 --> 00:44:19,820
Also so Leute wie Wissenschaftler und Wissenschaftlerinnen und Journalisten und Journalistinnen.
321
00:44:19,870 --> 00:44:20,160
Who cares?
322
00:44:21,340 --> 00:44:36,220
Von daher ist es auch alles konsistent in dieser Enteignung, denn es ist nicht nur ein wirtschaftlicher Prozess der Enteignung, sondern es ist auch ein Prozess, in dem Wissenschaft und Journalismus die Stimme geraubt wird und in dem wir eigentlich abgeschafft werden.
323
00:44:37,660 --> 00:45:02,200
Speaker 1: Da würde ich noch mal kurz einsteigen, bevor wir mit dem Punkt 4 gehen, weil ich fand das so sichtbar. Also wenn man sieht, was mit X passiert ist, dann hat man diese Veränderung ja gesehen. Also erstens, dass ständig jetzt, und ich weiß nicht, wie viele Bots Elon da inzwischen auch rumhühnern hat, das weiß ja auch niemand, wie viele tatsächlich auch noch gekauft oder durch günstige Arbeitende, instandgehaltene, vermeintliche Accounts da die Positionen unterstützen.
324
00:45:03,380 --> 00:45:23,140
Speaker 1: Aber dieses Ganze und ich habe bisher gedacht, in den Medien draußen wäre die Wahrheit und dann so, ja, ja, ich auch und so ist er sehr bestätigend mit seiner Community. Aber hier, hier findet jetzt die Wahrheit statt und ihr seid jetzt alle Citizen Journalists und X ist jetzt auch eine News App geworden, also ist keine Social Media Plattform mehr, sondern nennt sich News App.
325
00:45:23,980 --> 00:45:27,260
Speaker 1: Und dann ist ja Grog trainiert worden als nächster Anteil da drin.
326
00:45:28,420 --> 00:45:33,600
Speaker 1: Und da konnte man ja wirklich total abgefahrene Ausfälle auch beobachten, wie tatsächlich
327
00:45:34,040 --> 00:45:36,400
Speaker 1: da verändert wurde, auf was Grog zugreifen darf.
328
00:45:36,640 --> 00:45:42,760
Speaker 1: Inklusive, dass er woke Dinge, die Elon stören, dann eben nicht mehr mit rein nimmt und das
329
00:45:42,840 --> 00:45:43,820
Speaker 1: ja auch deutlich gesagt hat.
330
00:45:43,840 --> 00:45:47,940
Speaker 1: Dann gab es Momente, wo er sich zufällig mal für Elons alter Ego ausgegeben hat.
331
00:45:47,980 --> 00:45:49,200
Speaker 1: So, ja meine Ex-Frau sowieso.
332
00:45:49,340 --> 00:45:51,040
Speaker 1: Aber wieso deine Ex-Frau ist doch Elons Ex-Frau?
333
00:45:51,060 --> 00:45:52,380
Speaker 1: Ja, aber ich bin doch Elons alter Ego.
334
00:45:52,620 --> 00:45:55,920
Speaker 1: Aber da waren ja wirklich, also comical, intermezi.
335
00:45:55,990 --> 00:46:00,760
Speaker 1: Aber das Schlimme ist ja, dass man gleichzeitig sieht, dass die Menschen im Habitus, also Thema
336
00:46:01,120 --> 00:46:06,440
Speaker 1: Sicherheit dessen, was wir an Wissen und an Informationen bekommen, der Habitus, der da
337
00:46:06,510 --> 00:46:08,320
Speaker 1: die ganze Zeit angeschoben wird, ist: Frag GROG.
338
00:46:08,960 --> 00:46:11,740
Speaker 1: Ich weiß nicht, wie viele Bots das machen, aber das ist ja inzwischen so: GROG stimmt
339
00:46:11,830 --> 00:46:13,460
Speaker 1: das, GROG stimmt das, GROG stimmt das.
340
00:46:14,110 --> 00:46:15,100
Weil GROG ist ja neutral.
341
00:46:15,799 --> 00:46:16,160
Speaker 1: Vermeintlich.
342
00:46:16,170 --> 00:46:21,038
Speaker 1: Und dieser Anstrich der Neutralität, eben, den haben jetzt Forscher und Forscherinnen am
343
00:46:21,060 --> 00:46:25,360
Speaker 1: IT ja auch in ersten Studien gezeigt, dass sie gesagt haben, wir lassen, also gerade
344
00:46:25,580 --> 00:46:30,120
Speaker 1: wenn es aufgeladene Meinungsunterschiede sind, lassen sich Menschen, das war jetzt glaube
345
00:46:30,120 --> 00:46:32,960
Speaker 1: ich im angelsächsischen Rahmen erstmal die Studie, mal gucken, wie es in Deutschland
346
00:46:33,200 --> 00:46:39,680
Speaker 1: läuft, eher von KIs, von einer anderen Position überzeugen als von Mitmenschen, weil sie
347
00:46:39,700 --> 00:46:41,680
Speaker 1: die eben für so unabhängig halten.
348
00:46:42,480 --> 00:46:46,040
Speaker 1: Und das ist natürlich das Kuratieren des vermeintlichen Wahrheit.
349
00:46:46,120 --> 00:46:50,800
Speaker 1: vielleicht heißen die das aber alle "truth social" oder die russische variante "pravda"
350
00:46:51,280 --> 00:46:56,880
Speaker 1: ist ja auch "Wahrheit" oder übersetzen und die gehen jetzt direkt auf die LLMs also auf die
351
00:46:57,020 --> 00:47:00,920
Speaker 1: Large Language Models selber. Die gehen nicht mehr auf die Endnutzer sondern sagen wir kriegen unsere
352
00:47:01,060 --> 00:47:07,300
Speaker 1: Propaganda doch bei den KIs da rein und dann werden die hochgejazzt und da sind die nicht
353
00:47:07,330 --> 00:47:11,300
Speaker 1: so gut da drin. Ich glaube um die 93 Prozent segeln da einfach so durch. Das heißt wir haben ja
354
00:47:11,200 --> 00:47:17,040
Speaker 1: dieses kuratieren des vermeintlichen wahrheits- und wirklichkeitsraums abgegeben und das ist ja
355
00:47:17,040 --> 00:47:22,500
Speaker 1: genau das wo wir mit deinem ersten zitat sind also mit dem was ist denn eigentlich die grundlage auf
356
00:47:23,620 --> 00:47:28,260
Speaker 1: der aufgeklärte bürgerinnen und bürger dann sich auch einsetzen können für eine zukunft die sie
357
00:47:28,260 --> 00:47:34,858
wollen ja also erstmal ist es so dass man sagen muss dass also ist sehr stark gegenstand im neuen
358
00:47:34,880 --> 00:47:41,000
Buch, dass sie damit natürlich eine Art große Erzählung fabriziert haben, die immer mehr
359
00:47:41,090 --> 00:47:46,420
Menschen glauben. Und das sehen wir ehrlich gesagt auch jetzt in Umfrageergebnissen für
360
00:47:46,620 --> 00:47:54,140
die AfD in Deutschland. Ja, diese totale Infragestellung des bisherigen gesellschaftlichen Wissens,
361
00:47:54,320 --> 00:48:00,920
das ist in dieser Märchenerzählung so, dass die ja staatlich gelenkt und zensiert sind.
362
00:48:01,260 --> 00:48:17,560
Das sind Eliten, die quasi das Volk aufs Glatteis führen und in der Erzählung dieser Tech-Konzerne und der Rechtslibertären ist es eben so, dass die jetzt befreit werden durch angeblich neutrale Plattformen und neutrale Technologien.
363
00:48:18,220 --> 00:48:29,340
Und das ist auch Gegenstand in dem neuen Buch, weil es gibt eine ganz faszinierende Figur in der Geschichte der Medien, weil das ist nicht das erste Mal, dass sowas passiert ist.
364
00:48:29,920 --> 00:48:34,640
Man nennt das Achaeropoieton, ist ein total krasser griechischer Begriff.
365
00:48:35,190 --> 00:48:36,980
Das heißt nicht von Hand gemacht.
366
00:48:37,230 --> 00:48:43,320
Das heißt, die Medien tun immer so, die leugnen quasi ihre eigene Medialität.
367
00:48:44,420 --> 00:48:49,240
Mein Lieblingsbeispiel ist, der Moses kommt vom Sinai und hat diese zehn Gesetzestafeln,
368
00:48:49,350 --> 00:48:53,940
sagt aber nicht, ich habe die mal aufgeschrieben, wie ich mir gedacht habe, wie das für uns am besten ist.
369
00:48:53,940 --> 00:48:54,920
Ihr habt das gechannelt.
370
00:48:55,820 --> 00:48:57,020
Ich habe nichts damit zu tun.
371
00:48:57,860 --> 00:49:21,120
Die habe ich einfach so bekommen. Also das ist sozusagen die Urszene des Archeiropoietern. Das heißt, man muss eine Art Illusion schaffen, dass ich nichts damit zu tun habe. Und das haben die Plattformen natürlich erstmal geschafft, indem sie damals gesagt haben, wir sind keine Medien, wir sind nur Intermediäre, wir sind nur Durchlaufstationen, was natürlich Bullshit ist, siehe Algorithmen und so weiter und so fort, aber die Leute glauben es.
372
00:49:21,640 --> 00:49:35,500
Und jetzt haben wir genau diese Effekte bei KI, weil die KI sagt, es ist nicht von Hand gemacht. Ich bin ein Achaeropoieton. Das ist nur sozusagen neutral zusammengefasst und deswegen kannst du mir mehr glauben.
373
00:49:36,560 --> 00:49:55,560
Und man muss tatsächlich sagen, wenn wir uns die politische Dynamik anschauen, ist es so, dass sie damit durchkommen. Das heißt, und das ist für mich vollkommen absurd, weil ich habe es vorhin erzählt, ja dieses unglaubliche Misstrauen, was wir ja immer hatten in Bezug auf Medien, wo wir jetzt, mein Beispiel war vorher, stellen wir uns vor, RTL kontrolliert 90 Prozent des Fernsehens.
374
00:49:55,620 --> 00:50:24,100
hätten wir nie gesagt, hey, erzählt uns keinen. Wir wollen erstens, wir kontrollieren das, wir überprüfen das und ihr könnt uns ja kein Bullshit erzählen. Und das ist für mich das Faszinierendste, dass wir bei dieser Erzählung, dieses Märchen von der Neutralität der Plattform oder der Neutralität dieser KI-Technologien, dass Leute, die sonst so misstrauisch sind bei allem, also die überall Verschwörung sonst wittern und staatliche Kontrolle und dergleichen,
375
00:50:24,540 --> 00:50:30,920
dass sie mit maximaler Naivität diesem Märchen des neutralen Mediums glauben.
376
00:50:31,580 --> 00:50:37,100
Speaker 1: Ich glaube, das hat schon damit zu tun, dass wir alle noch erfahren, dass wir unser Zeug da hochladen können.
377
00:50:37,150 --> 00:50:42,180
Speaker 1: Es ist dann sichtbar, andere können darauf reagieren. Bei RTL und diesem "Wir haben so und so viele Sendeplätze" zu vergeben,
378
00:50:42,270 --> 00:50:46,580
Speaker 1: da ist das glaube ich besser sehbar und es war natürlich auch geschlossener nochmal.
379
00:50:47,160 --> 00:50:58,080
Speaker 1: Also ich habe einen Sender, da kommt das durch und jetzt habe ich halt, also das Playing-Field ist nicht gerade, sondern sehr in Richtung einiger großer Akteure natürlich orientiert.
380
00:50:58,110 --> 00:51:02,400
Speaker 1: Und das Schlimme ist ja, Thema Sicherheit ist das transparent, wie es orientiert ist.
381
00:51:03,280 --> 00:51:09,240
Speaker 1: Also dein vierter Punkt ist ja diese 30% Marktanteilsobergrenze in demokratierelevanten Kategorien.
382
00:51:09,840 --> 00:51:24,480
Genau, das ist ganz einfach. Also man darf nie, eigentlich sind ja hier nur die Prinzipien, die man sowieso seit Jahrzehnten sehr erfolgreich in der Behandlung der Medien berücksichtigt hat, sind hier eigentlich auch übertragen worden auf die digitale Welt.
383
00:51:24,980 --> 00:51:34,900
Weil natürlich dürfen wir diese Meinungsmacht nicht zulassen. Wir brauchen Anbietervielfalt, wir brauchen unterschiedliche Perspektiven und das gilt eben auch auf der Ebene der Anbieter selber.
384
00:51:34,980 --> 00:51:59,280
Und nichts spricht dagegen, wir können morgen die Plattform öffnen, stellen wir uns vor, wir würden das genauso machen wie mit der Telekom, dann würden wir morgen auf Google gehen und wir hätten sechs Kacheln von unterschiedlichen Anbietern, wir hätten personalisierte Suche, Profisuche, wissenschaftliche Suche, faktenbasierte Suche, Ökosuche und so weiter und so fort und die Welt wäre eine viel bessere.
385
00:52:00,580 --> 00:52:05,580
Speaker 1: 4.1 Trennung von Kanal und Inhalt, Öffnung für Drittanbieter geht ja in die Richtung.
386
00:52:05,840 --> 00:52:06,760
Speaker 1: Das ist dasselbe im Beispiel.
387
00:52:06,760 --> 00:52:19,140
Speaker 1: Wollt ihr eine Plattform sein, dann seid eine Plattform mit fairen, transparenten Spielregeln und dann können da auch alle ohne unsichtbare Rankings und Anbieter Filter und so weiter mitspielen.
388
00:52:19,460 --> 00:52:28,900
Genau, das macht man in der Medienregulierung ja sowieso, aber das ist jetzt das beste Beispiel, weil in dem Augenblick, wo ich das trenne, also siehe Telekom, in dem Augenblick, wo ich Netz und Inhalte trenne,
389
00:52:29,340 --> 00:52:36,920
Kann ich natürlich auch total einfach diese Vielfalt herstellen und ich habe es ja gerade in diesem Beispiel, in diesem fiktiven Beispiel Google gesagt, wäre ja ganz einfach.
390
00:52:37,160 --> 00:52:41,880
Speaker 1: Ja, dafür bräuchten wir, letzte Punkt, 4.2, Oversight Boards.
391
00:52:42,260 --> 00:52:51,020
Achso, genau, Oversight Boards ist natürlich auch für mich der Versuch, dass man die Lügen der Tech-Konzerne entlarvt.
392
00:52:51,240 --> 00:53:01,540
Denn die Tech-Konzerne lügen, wenn sie sagen, dass sie uns eine Stimme geben, weil sie uns unsere Stimme ja auf einem ganz fundamentalen Punkt verweigern.
393
00:53:02,040 --> 00:53:14,840
Und das erkläre ich ganz kurz. Es ist tatsächlich nämlich so, dass Demokratien, seitdem sie entstanden sind, durften immer die eigene Öffentlichkeit, das Forum haben wir das früher genannt, selbst gestalten.
394
00:53:14,940 --> 00:53:19,520
Das heißt, da hat man typischerweise gesagt, wer darf hier reden, wer darf hier wie lange reden, wie gehen wir miteinander um.
395
00:53:20,200 --> 00:53:28,960
Und jetzt haben wir das erste Mal eine Situation, wo diese Foren, ich meine X nennt sich ja im Werbeklaim auch The World's Town Square.
396
00:53:30,060 --> 00:53:35,660
Also das heißt, dieser Marktplatz ist quasi von hier einem Oligopolisten besetzt.
397
00:53:36,380 --> 00:53:43,220
Und dieser Oligopolist, in diesem Fall Elon Musk, kann einseitig darüber bestimmen, wie in diesem Forum gesprochen wird.
398
00:53:43,400 --> 00:53:45,720
Und nicht mehr die demokratische Gemeinschaft selber.
399
00:53:46,500 --> 00:54:11,320
Und deswegen ist es eine Lüge, wenn sie uns sagen, sie geben uns eine Stimme, weil sie verweigern uns die Stimme in dem prinzipiell wichtigsten Aspekt. Wie wird denn eigentlich überhaupt in unserem Forum gesprochen? Deswegen ist es auch ganz einfach, das zu ändern, wenn wir nämlich sagen würden, hey, ihr wollt nur Plattform sein, ihr wollt nur reguliert werden wie Plattform, alles klar, aber dann müsst ihr auf jeden Fall den Communities und den Leuten, die eure Plattform mit Inhalten füllen, denen müsst ihr eine Stimme geben.
400
00:54:11,560 --> 00:54:40,280
Und dann dürfen die selbst darüber bestimmen, wie Algorithmen beschaffen sind, wie Moderation stattfindet, die Nutzungsbedingungen und so weiter und so fort. Und da ist wieder das Faszinierende, wenn man nämlich die Leute fragt, die wollen gar nicht diesen radikalen Kram und diesen extremistischen Kram, die wollen auch keine Volksverhetzung und dergleichen und die wünschen sich einen viel balancierteren und faktengeprüfteren Diskurs. Und dann hätten wir das gleich mitgelöst, das Thema.
401
00:54:41,500 --> 00:54:45,160
Speaker 1: Haben wir ja in vielen Bereichen auch, die eigentlich so relevant sind für Gesellschaft.
402
00:54:45,250 --> 00:54:49,380
Speaker 1: Der Presserat ist ja nur das eine und Ärztekammer.
403
00:54:49,940 --> 00:54:51,700
Speaker 1: Also es gibt ja eigentlich immer so ein Gremium.
404
00:54:53,060 --> 00:54:58,560
Speaker 1: Ich muss noch einmal ganz kurz eine Schleife gehen nach Brasilien, wo ja immerhin dann der Richter,
405
00:54:58,660 --> 00:55:02,600
Speaker 1: der jetzt auch sanktioniert wurde von Donald Trump, wahrscheinlich auch dafür,
406
00:55:02,810 --> 00:55:05,900
Speaker 1: weil er da mit Elon noch eng war, zu XMA gesagt hat,
407
00:55:06,020 --> 00:55:18,580
Speaker 1: Wenn ihr jetzt nicht wenigstens eine Ansprechperson hier im Land zur Verfügung stellt, mit der wir als Regierung mal reden können darüber, wenn wir finden, dass hier was out of order läuft, dann mache ich euch die Bude dicht.
408
00:55:19,460 --> 00:55:21,560
Speaker 1: Man muss ja das vielleicht auch nochmal beim Namen nennen.
409
00:55:22,020 --> 00:55:31,640
Dieser Aspekt, in dem diese Tech-Konzerne seit Jahren und Jahrzehnten eigentlich rechtsstaatliche Prinzipien ignorieren
410
00:55:32,520 --> 00:55:40,240
und dann noch im Gewand des Libertarismus eigentlich auch die Grundlagen des demokratischen Staates in Zweifel stellen,
411
00:55:41,060 --> 00:55:44,820
bedeutet, dass sie antidemokratische Unternehmen sind.
412
00:55:44,900 --> 00:55:47,780
Und das muss man auch nochmal in dieser Härte sagen.
413
00:55:48,860 --> 00:55:51,400
Das sage ich auf den ersten Seiten in meinem Buch.
414
00:55:51,560 --> 00:56:01,780
Wie kann das überhaupt sein, dass die Politik noch Treffen mit Anhängern dieser antidemokratischen Tech-Konzerne bei helllichtem Tag durchführt?
415
00:56:02,480 --> 00:56:05,820
Man kann nicht sagen, ich treffe mich mit allen und ich rede mit allen.
416
00:56:06,050 --> 00:56:16,000
Nur mal als Beispiel, die Hells Angels sind ebenfalls eine Organisation, die die rechtsstaatlichen Prinzipien unseres demokratischen Staates grundsätzlich in Frage stellt.
417
00:56:16,010 --> 00:56:18,940
Und kein Politiker würde sich mit den Hells Angels treffen.
418
00:56:18,940 --> 00:56:20,060
Speaker 1: Ja, ein bisschen weniger Kohle, ne?
419
00:56:20,280 --> 00:56:48,840
Ja und würde nachher sagen, ja ich rede aber mit allen und deswegen ist es auch so wichtig, dass wir hier ganz klar sagen und das müssten wir auch, das müssten wir eigentlich tabuisieren, dass diese Tech-Konzerne, solange sie noch antidemokratische Praktiken, wie du sie gerade beschrieben hast, ganz offen betreiben, sollte jede Anwesenheit von Mitgliedern dieser Tech-Konzerne in irgendwelchen demokratischen Zirkeln,
420
00:56:48,900 --> 00:56:55,760
sollte komplett tabuisiert werden. Die Bedingung muss sein, ihr erkennt unsere rechtsstaatlichen Prinzipien nicht an
421
00:56:55,780 --> 00:57:01,020
und solange wir nur Signale sehen, dass ihr das ja eigentlich ablehnt, seid ihr komplett draußen.
422
00:57:02,240 --> 00:57:06,780
Speaker 1: Ich versuche das wieder in der liberalen Logik zu denken. Wir haben ja schon mal einmal heute gehabt,
423
00:57:06,860 --> 00:57:11,220
Speaker 1: Regulierung ist manchmal wichtig, damit liberale Märkte erhalten werden.
424
00:57:11,640 --> 00:57:14,960
Speaker 1: Und in dem wäre es ja ähnlich, wenn man sich überlegt, die Akribie,
425
00:57:15,360 --> 00:57:35,380
Speaker 1: die das Europäische Parlament und andere investigative Aufsichtsbehörden betreiben müssen, um nachzuweisen, dass da die ganze Zeit diese Regeln gebrochen werden und einen ausreichend großen Case zu machen, damit sie nicht zu viel Sorge haben, von diesen Milliarden und Abermilliardenschweren Konzernen verklagt zu werden, was sie ja immer werden, wenn sie einmal rechts sprechen.
426
00:57:36,980 --> 00:57:54,400
Speaker 1: Müsste dann nicht irgendwann dieses Momentum sein, wo man die Beweislast umdreht, wie das jetzt in Brasilien ja de facto passiert ist, dass die gesagt haben, also wenn ihr da nicht in eine vernünftige Resonanz geht und ihr mal für uns darlegt, dass diese Häufigkeitsverdichtung von Beweisen, dass ihr unsere Regeln unterlauft.
427
00:57:54,920 --> 00:58:17,060
Speaker 1: Wenn ihr uns das nachweisen könnt, dann dürft ihr sofort wieder mitspielen. Aber wir haben keine Lust mehr, dass ihr uns die ganze Zeit in der Nase herumführt und immer so viele Gesetze brecht und damit ja auch Fakten schafft, neue Marktmacht schafft, neue Daten sammelt. Das ist ja der dritte Punkt an Sicherheit. Wo gehen diese Daten gerade hin? Persönliche Daten über Menschen und wer hat die jetzt? Und wenn das US-Konzerne sind, wo laufen die gerade weiter?
428
00:58:17,640 --> 00:58:26,340
Speaker 1: ist ja dieses ganze Thema noch, also das wäre ja so eine mutige Herangehensweise, die es wahrscheinlich, wenn ich dich richtig verstehe, in dem Fall ja braucht.
429
00:58:26,600 --> 00:58:26,880
Richtig.
430
00:58:27,180 --> 00:58:40,920
Speaker 1: Weil, ja, ich meine bei der Digitalisierung genau ähnlich wie Finanzmärkte, man ja meint das Gefühl hinter diesen ganzen Abkürzungen und neuen Trends und ihr kapiert das alles nicht und wenn ihr das macht, dann passiert ganz Schlimmes.
431
00:58:41,360 --> 00:58:47,240
Speaker 1: da wird sich ja auch hinter so einem Jargon und so einer vermeintlichen Undurchdringlichkeit für Non-Experten versteckt.
432
00:58:47,700 --> 00:58:51,740
Speaker 1: Da müsste ich doch sagen, ich bin für die Sicherheit verantwortlich, Ordnungspolitik braucht das,
433
00:58:52,060 --> 00:58:56,660
Speaker 1: erklärt es uns gefährlich so vernünftig und wenn es so gefährlich ist, dann sollte das nicht ins Regal,
434
00:58:56,800 --> 00:59:00,060
Speaker 1: womit wir wieder bei einem deiner Beispiele waren, dann müsst ihr halt was anderes anbieten.
435
00:59:00,820 --> 00:59:07,440
Ja, ich kann das auch insofern ergänzen, wenn man sich genau die Philosophie unserer Vorschläge anschaut,
436
00:59:07,500 --> 00:59:12,260
ist es ja so, dass wir eigentlich diese Beweislastumkehr ablehnen.
437
00:59:12,940 --> 00:59:20,620
Ich sage das nochmal am Beispiel, weil ich glaube, das war ein großer Fehler auch der Behandlung dieser digitalen Themen.
438
00:59:21,660 --> 00:59:24,900
Weil die Leute dann immer fragen, nur mal als Beispiel auch mich als Wissenschaftler fragen,
439
00:59:24,930 --> 00:59:28,800
ja und wie machen die das denn genau? Und wie manipulieren die den Traffic denn genau?
440
00:59:28,960 --> 00:59:34,020
Und wie viel mehr kriegen? Und ich kann aber jetzt zum Beispiel als Wissenschaftler nicht in die Plattform hineinschauen,
441
00:59:34,060 --> 00:59:38,620
diesen Blackboxes und logischerweise würde mich sowieso keine Plattform jemals in eine Plattform reinschauen lassen.
442
00:59:38,800 --> 00:59:42,320
Also stehe ich die ganze Zeit da und muss hier irgendwas beweisen, wo ich aber sage,
443
00:59:44,680 --> 00:59:49,200
eine prinzipiengeleitete demokratische Rahmung unseres öffentlichen Diskurses,
444
00:59:49,820 --> 00:59:54,240
die muss sozusagen immer unter allen Umständen gleich sein.
445
00:59:54,240 --> 00:59:59,657
Das heißt, metaphorisch gesprochen, es ist egal, ob jetzt Donald Trump Präsident ist und wir das scheiße finden
446
00:59:59,680 --> 01:00:06,420
oder ob Kamala Harris Präsidentin wäre, aber diese Prinzipien, dass niemand zu viel Meinungsmacht haben darf,
447
01:00:06,600 --> 01:00:11,520
dass niemand mit strafbaren Inhalten Geld verdienen darf, dass Plattformen offen sein müssen und sowas,
448
01:00:11,860 --> 01:00:14,520
die diskutieren wir gar nicht und dann ist es auch egal, ehrlich gesagt.
449
01:00:14,970 --> 01:00:18,860
Und das ist das Schöne, wenn man es eben auf diese Prinzipien zurückführt,
450
01:00:19,480 --> 01:00:24,780
dass man dann nämlich auch gar nicht mehr in der Beweislast ist, sondern dass man einfach sagt,
451
01:00:24,810 --> 01:00:29,520
wir sind hier eine pluralistische Gesellschaft, wir haben hier ein pluralistisches, offenes Mediensystem,
452
01:00:30,080 --> 01:00:35,080
und das ist so wie wir das machen und der letzte punkt den ich noch dazu ergänzen würde ist dass
453
01:00:35,180 --> 01:00:40,840
ich auch in der art und weise wie ich das präsentiere immer das wort regulierung vermeiden denn regulierung
454
01:00:41,080 --> 01:00:46,800
das haben die lobbyisten der tech konzerne ja auch sehr gut gemacht das hört sich immer so an die
455
01:00:47,520 --> 01:00:52,200
tun so und da kommen sie mit ihrer meinungsfreiheit das netz ist frei und wir sind die spielverderber
456
01:00:52,860 --> 01:00:57,180
und ich sage das gegenteil ist der fall ihr habt uns das internet gestohlen und wir werden uns das
457
01:00:57,200 --> 01:01:01,700
internet befreien und deswegen nenne ich das auch übrigens gar nicht eine
458
01:01:02,620 --> 01:01:06,760
regulierung sage ich sage einfach wir öffnen die märkte wir führen faire
459
01:01:06,940 --> 01:01:11,440
chancen und faire zugänge ein und wer geld mit inhalten verdient der muss
460
01:01:11,560 --> 01:01:15,460
logischerweise auch die verantwortung übernehmen ja und ich vermeide eigentlich
461
01:01:15,720 --> 01:01:20,460
das wort regulierung weil das natürlich sofort regulierung so jetzt kommen die
462
01:01:20,540 --> 01:01:24,677
Speaker 1: und wollen hier alles verbieten genau deshalb reite ich das gerade so
463
01:01:25,340 --> 01:01:29,400
Speaker 1: Weil viele von den Dingen, wenn man so drüber nachdenkt, warum wir bestimmte gesellschaftliche
464
01:01:29,600 --> 01:01:34,260
Speaker 1: Ziele jetzt riskieren oder nicht erreichen, ja mit so Besitzstandswahrung zu tun hat und
465
01:01:34,360 --> 01:01:41,720
Speaker 1: mit einem nicht verändern wollen, wenn die Konzentration von Macht oder Kontrolle über
466
01:01:42,820 --> 01:01:46,580
Speaker 1: Daseinsvorsorge haben wir in anderen Bereichen auch, von Wohnraum über Energie oder sonst
467
01:01:46,630 --> 01:01:53,040
Speaker 1: so, so gefährlich wird, dass die Möglichkeit des Zugangs für viele zum Risiko wird.
468
01:01:53,300 --> 01:02:18,680
Speaker 1: Also das ist ja eigentlich das Versprechen, was liberale Marktwirtschaften hochhalten müssen. Zu sagen, erstens haben wir diese Prinzipien und die sollte man auch nicht abschaffen. Also diese parteipolitische Vorteilnahme da reinbauen und gleichzeitig gelten die ja dafür, damit man sagt, ein Innovationsprozess ist auch kreative Zerstörung. Das heißt, Sachen müssen weggehen können und dazukommen können, ohne dass die Funktionalität in Frage gestellt ist.
469
01:02:18,740 --> 01:02:40,700
Speaker 1: Und das ist, so wie ich dich verstanden habe, ja auch die Essenz von dem, was ihr sagt. Also lasst uns die Funktionalität in den Fokus setzen und nicht denjenigen, die sie gerade richtig effektiv abgeschafft haben, zuhören, ob das möglich ist oder nicht und ob das irgendwie vermeintlich Enteignung, irgendwas bedeutet. Man sagt ja nur, haltet euch doch an die Spielregeln, die sonst auch gelten.
470
01:02:40,920 --> 01:02:55,320
Ich würde es nochmal anders, ich glaube es geht tatsächlich sogar noch weiter. Die Tech-Konzerne haben quasi ein Märchen erzählt, dass ihre Produkte einfach so super cool sind, deswegen verwenden die alle und Regulierungsspielverderberei.
471
01:02:55,900 --> 01:03:22,080
Was ich in dem neuen Buch mache, ist, dass ich zeige, das ist Bullshit. Diese ganzen Monopole basieren auf Rechtsprivilegien. Und da kann ich auch nochmal ganz viele Sachen nennen, die ich schon angesprochen habe. Also Intermediärs Privileg ist ein Rechtsprivileg. Das Haftungsprivileg ist ein Rechtsprivileg. Das Straftatenprivileg ist ein Rechtsprivileg. Das Instrumentalisierungsprivileg, dass Musk hier Werbung für die AfD machen darf.
472
01:03:22,480 --> 01:03:42,420
Das Monopolprivileg, das Einsperrprivileg, das sind alles Rechtsprivilegien. Das heißt, ich demaskiere das und zeige, das hat nichts mit deren tollen Produkten zu tun, sondern ehrlich gesagt, das waren Rechtsprivilegien und Vorzugsbehandlungen, die wir ihnen eingeräumt haben. Das haben wir selber geschaffen. Es ist doch das Einfachste, ihnen diese Privilegien zu nehmen.
473
01:03:43,180 --> 01:04:03,860
Und dann merken wir, hat es einen ganz anderen Geschmack. Ich sage nicht, ich reguliere euch, ich bin der strenge Internetpolizist und jetzt werde ich euch zu verantworten, sondern ich werde einfach sagen, ihr habt das schlau gemacht, ihr habt die westlichen Gesellschaften dazu gebracht, euch ein halbes Dutzend ganz schreckliche Privilegien zu geben, ohne die eure Monopole sofort zu Staub zerfallen würden.
474
01:04:04,000 --> 01:04:17,140
Und diese Privilegien, ähnlich wie mit den absolutistischen Monarchen, die nehme ich euch ab. Eure Privilegien sind weg und damit seid ihr nicht mehr das, was ihr mal wart, eure Monopole zerfallen.
475
01:04:17,860 --> 01:04:39,780
Speaker 1: Und wir haben eine Sicherheit im digitalen Raum wiederhergestellt, dass sowohl die Qualität einigermaßen stimmt, weil wieder viele mitspielen dürfen, dass andere Anbieter, die eine bessere Plattform und Netzwerk anbieten, auch eine Chance haben reinzukommen und hoffentlich dann eben darüber hinaus auch, dass die Daten, die dort sind, nicht alle an einer Stelle gesammelt und sonst wohin meistbieten, verkauft werden.
476
01:04:40,100 --> 01:04:44,900
Und das Internet gehört wieder allen Menschen und nicht nur einer Handvoll Tech-Konzernen.
477
01:04:45,160 --> 01:04:47,800
Speaker 1: Ich glaube, ich bin dabei. Ich würde mitgehen bei dieser Autopie.
478
01:04:47,800 --> 01:04:49,900
Super, liefst du mit? Alles klar. Sehr gut.
479
01:04:51,620 --> 01:04:52,460
Speaker 1: Vielen Dank, Martin.
480
01:04:52,900 --> 01:04:53,280
Danke dir.
481
01:04:58,760 --> 01:05:00,600
Speaker 1: So, vielen herzlichen Dank fürs Zuhören.
482
01:05:00,980 --> 01:05:04,800
Speaker 1: Neudenken ist ein Projekt von Mission Wertvoll, einem Science Society Netzwerk,
483
01:05:05,000 --> 01:05:08,860
Speaker 1: das sich den Chancen und Wegen in eine nachhaltige Zukunft verschrieben hat.
484
01:05:09,220 --> 01:05:11,400
Speaker 1: Wie wir dahin kommen, das werden wir gemeinsam herausfinden.
485
01:05:11,520 --> 01:05:15,660
Speaker 1: und deshalb freuen wir uns über eure Aufmerksamkeit, aber auch über Feedback oder Wünsche,
486
01:05:16,080 --> 01:05:21,740
Speaker 1: welche Themen ihr mal neu denken möchtet oder welche Gäste ihr dafür besonders prädestiniert fändet.
487
01:05:21,960 --> 01:05:28,160
Speaker 1: Wir haben dafür eine E-Mail-Adresse eingerichtet, die heißt neudenken.mission-wertvoll.org.
488
01:05:28,760 --> 01:05:30,400
Speaker 1: Hoffentlich bis auf ein nächstes Mal.