1 00:00:00,040 --> 00:00:02,540 Speaker 1: Wo verbringen wir heute eigentlich einen Großteil unserer Zeit? 2 00:00:02,960 --> 00:00:04,280 Speaker 1: In den digitalen Räumen. 3 00:00:05,040 --> 00:00:09,160 Speaker 1: Diese kleinen Bildschirme öffnen uns das Fenster zur ganzen weiten Welt. 4 00:00:09,800 --> 00:00:12,240 Speaker 1: Und die ganze weite Welt strahlt uns an. 5 00:00:13,000 --> 00:00:15,860 Speaker 1: Gibt uns Informationen darüber, wie es bei Ihnen beschaffen ist, 6 00:00:16,059 --> 00:00:19,460 Speaker 1: wie es den Menschen geht, wie wir uns mit denen vielleicht zusammentun können, 7 00:00:19,460 --> 00:00:22,660 Speaker 1: um eine Zukunft zu gestalten, in der alle ihren Platz finden. 8 00:00:23,340 --> 00:00:25,960 Speaker 1: Das war die tolle Utopie hinter dem Internet. 9 00:00:26,740 --> 00:00:29,120 Speaker 1: Und wenn wir gucken, was mit dieser Utopie passiert ist, 10 00:00:29,340 --> 00:00:34,220 Speaker 1: dann sehen wir, dass einige die Geschichte der Utopie weiter ziemlich hoch halten 11 00:00:34,520 --> 00:00:37,300 Speaker 1: und dahinter aber eine ganz eigene Welt schaffen. 12 00:00:37,880 --> 00:00:40,820 Speaker 1: Eine, in der sie selbst sehr viel Macht ausüben. 13 00:00:41,340 --> 00:00:43,520 Speaker 1: Die Rede ist natürlich von den Tech-Konzernen. 14 00:00:44,060 --> 00:00:46,420 Speaker 1: Den Polygarchen, wie sie inzwischen genannt werden, 15 00:00:46,420 --> 00:00:48,179 Speaker 1: weil sie auch sehr eng mit Donald Trump zusammenarbeiten, 16 00:00:48,860 --> 00:00:51,339 Speaker 1: um zu verhindern, dass diese Macht über die Meinungsbildung 17 00:00:52,100 --> 00:00:54,980 Speaker 1: und die Interpretation der Welt wieder in Frage gestellt wird. 18 00:00:55,580 --> 00:00:56,260 Speaker 1: Das sollten wir aber. 19 00:00:56,840 --> 00:01:03,160 Speaker 1: Mein Name ist Maja Göpel. Ihr hört Neudenken, den Podcast von Mission Wertvoll, heute zum Thema digitale Sicherheit. 20 00:01:03,680 --> 00:01:09,200 Speaker 1: Mein Gast ist Martin Andree, er ist Medienwissenschaftler in Köln und hat so richtig viele Daten zusammengetragen, 21 00:01:09,400 --> 00:01:14,300 Speaker 1: die zeigen, wie konzentriert eigentlich die Macht in diesen digitalen Räumen inzwischen ist, 22 00:01:14,620 --> 00:01:18,580 Speaker 1: wer sie besitzt und warum wir diesen Tech-Konzern mal ein bisschen auf die Pelle rücken sollten. 23 00:01:25,080 --> 00:01:25,820 Speaker 1: Herzlich willkommen. 24 00:01:26,500 --> 00:01:26,680 Speaker 1: Hi. 25 00:01:27,340 --> 00:01:37,160 Speaker 1: Lieber Martin, du bist Professor in Medienwissenschaften und hast an Universitäten hier in Deutschland, aber auch in England und in den USA studiert und dich ausbilden lassen. 26 00:01:37,160 --> 00:01:52,780 Speaker 1: Und das Abgefahrenste fand ich, dass du mal eben kurz Vice President International Marketing bei Henkel gewesen bist, wo du auch tatsächlich im Ausland gelebt hast und parallel deine Habilitation gemacht hast. 27 00:01:53,100 --> 00:02:03,260 Speaker 1: Da habe ich gedacht, da muss ich erst mal sofort fragen: Wann, wie, an welchen Zeiten? Gab es damals schon einen Klon, einen KI, einen Avatar von dir? 28 00:02:03,520 --> 00:02:12,720 Also ich glaube, ich habe immer viel Energie gehabt, aber das ist ganz einfach erklärbar. Ich habe irgendwann gemerkt, dass die ganze Medienwirklichkeit geht in die digitale Welt. 29 00:02:12,800 --> 00:02:16,980 Ich habe tatsächlich auch gemerkt, das kann ich nur verstehen, wenn ich es selber anwende. 30 00:02:17,190 --> 00:02:25,060 Deswegen habe ich lange in der Industrie gearbeitet und kenne also auch Funnel-Building und dergleichen. 31 00:02:25,520 --> 00:02:27,380 Stopp, halt, da musst du gleich sagen, Funnel-Building. 32 00:02:27,740 --> 00:02:32,780 Ja, also genau, wie komme ich an digitalen Traffic, an digitale Nutzung, an digitale Aufmerksamkeit. 33 00:02:33,460 --> 00:02:36,380 Und habe aber tatsächlich auch immer parallel geforscht. 34 00:02:36,600 --> 00:02:38,220 Das heißt, es hat auch nie aufgehört. 35 00:02:38,440 --> 00:02:44,060 Das ist ungewöhnlich, aber jeder Weg hat seine Berechtigung. 36 00:02:45,060 --> 00:02:52,700 Speaker 1: Ich fühle mich da ja total zu Hause, weil ich auch mal diesen einen Fuß in der Praxis, einen in der Theorie hatte und dachte, irgendwie macht das auch Sinn, zwischendurch zu verproben, was man sich so denkt. 37 00:02:52,920 --> 00:02:56,560 Speaker 1: Und manchmal macht es Sinn, tiefer zu denken als das, was man im Alltag loslässt. 38 00:02:57,100 --> 00:03:00,680 Speaker 1: Aber es ist ja trotzdem noch ein bisschen ein ungewöhnlicher Werdegang. 39 00:03:00,740 --> 00:03:08,400 Speaker 1: Wie fühlst du dich denn jetzt, also wir sprechen ja hier mit Wissenschaftler*innen, die auch wirklich versuchen in der Öffentlichkeit ihre Sachen zu übersetzen. 40 00:03:09,180 --> 00:03:15,260 Speaker 1: Fühlst du dich immer mehr wissenschaftlich, mehr aufklärerisch? Wie entscheidest du, wann du gerade wieder was machen musst? 41 00:03:15,460 --> 00:03:19,140 Ach so, das ist ganz einfach. Wenn man mich jetzt fragen würde: "Martin, was bist du eigentlich?" 42 00:03:19,540 --> 00:03:21,380 Dann würde ich sagen immer: "Ich bin Wissenschaftler." 43 00:03:21,960 --> 00:03:26,100 Aber tatsächlich, das klingt jetzt total krass für viele Wissenschaftler und Wissenschaftlerinnen, 44 00:03:26,720 --> 00:03:31,020 Ich bin tatsächlich irgendwann von der Uni weggegangen, weil ich noch mehr lernen wollte. 45 00:03:32,280 --> 00:03:36,440 Genau, das ist jetzt erstmal schwerer Tobak, das verstehe ich. 46 00:03:36,610 --> 00:03:45,240 Aber ich glaube tatsächlich, dass die Welt da draußen bunt ist und dass man viele Dinge eben ganz besonders gut versteht, 47 00:03:45,360 --> 00:03:47,440 wenn man sie selbst in der Anwendung betreibt. 48 00:03:47,680 --> 00:03:50,260 Und deswegen war das für mich nie ein Widerspruch. 49 00:03:51,300 --> 00:04:06,800 Speaker 1: Ja, das transdisziplinäre Lernen und Forschen bringt das ja auch zusammen. Unterschiedliche Disziplinen gucken auf eine Sache drauf und das trans heißt dann, vielleicht haben diejenigen, die das den ganzen Tag bummelig hoch und runter machen, auch eine ganz gute Art, wie die Zingles funktionieren. 50 00:04:06,920 --> 00:04:26,040 Und ich bin natürlich, ich habe alle meine Sachen, die ich gemacht habe, sind ja transdisziplinär. Da kann ich auch eine lustige Anekdote dazu erzählen. Und zwar war das meine Doktorarbeit. Ich habe irgendwann gemerkt, es gibt nur empirische Medienwirkungsforschung, die machen Befragungen. Und ich habe dann gemerkt, mit meinem ganzen Background, es gibt überhaupt keine Geschichte der Medienwirkung. 51 00:04:26,080 --> 00:04:48,660 Dann habe ich gedacht, so ich mache das jetzt mal. Das war ein totales Wahnsinnsprojekt. Ich habe irgendwie sechs Jahre daran gesessen. Das Ding hat 600 Seiten, wiegt zweieinhalb Kilo, Zehnpunktschrift und ich habe eine sozusagen Weltgeschichte der Medienwirkung geschrieben und dann habe ich gedacht, so das werden die lieben. Und was ist passiert? Das hat nicht wirklich jemanden interessiert. Warum? Weil es nicht in das Raster der Empiriker passt. 52 00:04:48,820 --> 00:05:03,540 Das heißt, die Empiriker haben gesagt, der hat ja in der Antike keine Befragung gemacht, also interessiert uns das nicht. Und die philologische Seite haben gesagt, ja, aber was ist das denn hier? Medienwirkung, das ist ja so ein empirischer Quatsch, das wollen wir nicht haben. 53 00:05:03,660 --> 00:05:21,800 Und da merken wir, wenn wir wirklich radikal transdisziplinär arbeiten, dann ist das nicht immer so einfach. Man darf es so ein bisschen machen. Man macht so eine transdisziplinäre Konferenz und dann lädt man mal ein paar Leute ein. Aber wenn man so richtig hart transdisziplinär arbeitet, erzeugt das auch Reaktanz. 54 00:05:21,940 --> 00:05:37,080 Speaker 1: Ja, ich kenne das Gefühl. Und trotzdem auch bei einigen eine Befreiung. Also ich habe gerade so bei jüngeren Kolleginnen und Kollegen auch gemerkt, dass die ganz froh darüber waren, dass jemand sagt, hey, diese Relevanzorientierung oder das, was du gerade beschreibst, da ist doch eine Lücke, da gehe ich jetzt voll rein. 55 00:05:37,680 --> 00:05:53,380 Speaker 1: Selbst wenn die zu füllen echt mühsam ist und es braucht Zeit und ich muss Sachen neu zusammen zu puzzeln. Das ist ja häufig schwierig, das in diesem sehr ergebnisgetriebenen Wissenschaftssystem heute unterzubringen. Aber genau damit kann man diese Querverbindung zum Teil erst aufschlüsseln, die du da gemacht hast. 56 00:05:53,820 --> 00:06:14,380 Genau, ich glaube man hat es mir verziehen, weil ich natürlich auch immer große empirische oder große Studien vorgelegt habe, die dann in der Wissenschafts-Community sehr positiv angekommen sind. Das heißt, ich konnte das dann immer backen durch die Sachen, die ich gemacht habe. Deswegen habe ich das ganz gut überlebt. 57 00:06:14,540 --> 00:06:22,760 Speaker 1: Passt du, ne? Also es gab ja wirklich auch mehrere Bücher, auch Bestseller, also insgesamt acht Bücher inzwischen von dir. 58 00:06:23,580 --> 00:06:29,320 Speaker 1: Und die letzten sind auch ausgezeichnet worden, also mit dem Günther Wallraff Sonderpreis für Pressefreiheit und Menschenrechte. 59 00:06:29,860 --> 00:06:31,380 Speaker 1: Wegtechn muss weg, war das, ne? 60 00:06:31,640 --> 00:06:31,740 Ja. 61 00:06:32,460 --> 00:06:38,020 Speaker 1: Und jetzt den Beatrice Primus Forschungspreis für digitale Medienmonopole Risiken für Demokratie und Wirtschaft. 62 00:06:38,640 --> 00:06:43,560 Speaker 1: Und das ist ja so ein bisschen unser Thema heute, Risiken und Sicherheit sind ja zwei sehr verwandte Begriffe. 63 00:06:44,280 --> 00:06:59,900 Speaker 1: Und dann eben zu überlegen, warum ist digitale Sicherheit so ein Thema? Du kamst aus dem Marketing, du hast Medienwirkungen dir angeguckt. Was denkst du ist das Wichtigste, was man daran verstehen sollte, um nachzuvollziehen, warum wir exakt darum heute ringen? 64 00:07:00,260 --> 00:07:14,940 Ich kann genau den Case schildern, wie ich eigentlich angefangen habe, misstrauisch zu werden. Und zwar, das war noch in den neuer Jahren, das Internet war total cool, alles war so auf Community, Interaction, Participation und die digitale Welt war gut. 65 00:07:15,460 --> 00:07:32,620 Und damals haben wir so einen sehr großen Content-Marketing-Ansatz gebaut, der ja eigentlich dazu da ist, dass einem ganz viele Leute diese Inhalte sich anschauen und dadurch eben zu Produkten auch finden. Also eigentlich eine ganz banale Sache. 66 00:07:32,840 --> 00:07:50,100 Und wir haben da einen total guten Case gehabt, der hat auch den deutschen Marketingpreis gewonnen, aber ich konnte im Backend, konnte ich immer sehen, was da sozusagen real an Traffic reingekommen ist. Und ich habe mir gedacht so, krass, ja, also so richtig gut ist das ehrlich gesagt nicht. Also gleichzeitig wurde das Ding gefeiert. 67 00:07:50,540 --> 00:08:07,500 Und dann kam Chris Anderson The Long Tail raus. Untertitel war ja Why the Future of Business is Selling Less of More. Also angeblich das Internet gibt den Armen, es nimmt den Reichen und ich saß da gerade und habe gedacht, das ist ja total schwach. 68 00:08:08,000 --> 00:08:29,920 Und da habe ich so ein großes Misstrauen bekommen. Deswegen ist das total interessant, dass ich eben gerade nicht von den Daten kam. Typischerweise wird ja das Thema auch Sicherheit immer mit Daten verknüpft, sondern ich kam einfach darauf, dass ich gesagt habe, okay, diese Schweinepriester von Google, die laufen hier rum und sagen uns, hey, ihr müsst nur coolen Inhalt auf eure Webseiten draufstellen. 69 00:08:30,040 --> 00:08:41,180 Und dann kommt der ganze, just be relevant, dann kommt der ganze Traffic, die ganze Nutzung, das kommt dann von alleine. Und ich hatte so gesehen, hey, ich habe hier quasi einen preisgekröten Case, da kommt gar nichts an. 70 00:08:42,020 --> 00:08:56,540 Und dann habe ich eigentlich angefangen zu diesen digitalen Monopolen zu forschen und habe es tatsächlich schon 2010 dazu wissenschaftlich publiziert, habe mich schon 2012 angefangen an die Presse zu wenden. 71 00:08:57,440 --> 00:09:15,840 Alle haben damals gedacht, der hat es nicht mehr alle. Dann habe ich ja acht Jahre gebraucht, um es empirisch zu beweisen, dieses totale Ausmaß der Monopolbildung, dass eigentlich das ganze Internet von einer Handvoll US-Tech-Konzerne fast vollständig kontrolliert wird. Das ist auch das Gegenteil übrigens von Freiheit. 72 00:09:15,940 --> 00:09:23,600 Das ist nicht so Empowerment, würde ich sagen. Und das ist im Prinzip die ganze Geschichte, 73 00:09:23,820 --> 00:09:27,660 wie ich dazu gekommen bin. Und das Interessante ist eben auch, dass die Irritation über einen 74 00:09:28,100 --> 00:09:33,560 Speaker 1: anderen Weg kam. Es kam nicht über die Daten. Aber da sind ein paar wichtige Sachen drin. 75 00:09:33,720 --> 00:09:38,460 Speaker 1: Ich fasse mal kurz zusammen und dann können wir vielleicht nochmal mit dem Medienmacht und diesem 76 00:09:38,640 --> 00:09:43,120 Speaker 1: Anschein da draußen einfach durch diese vielen, vielen, vielen bunten Apps und so haben wir alle 77 00:09:43,100 --> 00:09:47,140 Speaker 1: das Gefühl, ja wir sind ja ganz frei und können ganz viel auswählen und du sagst uns gleich, 78 00:09:47,800 --> 00:09:51,880 Speaker 1: das ist nicht so und warum das für unsere Sicherheit relevant ist, hast du auch in einem 79 00:09:51,980 --> 00:09:56,100 Speaker 1: Beitrag für die Friedrich-Ewert-Stiftung zusammengeschrieben mit den Auswirkungen auf 80 00:09:56,100 --> 00:09:59,840 Speaker 1: den Journalismus, womit wir ja auch so ein bisschen bei dieser Wissens-Meinungsbildung 81 00:10:00,320 --> 00:10:05,960 Speaker 1: und was macht der digitale Raum damit angekommen sind und da heißt es eben, die Medien waren 82 00:10:06,180 --> 00:10:11,159 Speaker 1: immer die Grundlage unserer Demokratie, sie erzeugen die Öffentlichkeit und den Kitt des 83 00:10:11,180 --> 00:10:17,380 Speaker 1: gemeinsamen Verständnisses, dass unsere Gesellschaft zusammenhält. Und dann folgt eben genau dieses, 84 00:10:17,600 --> 00:10:22,200 Speaker 1: dass man ursprünglich gedacht hat, das wird demokratisiert durch dieses World Wide Web, 85 00:10:22,340 --> 00:10:29,020 Speaker 1: wo viel mehr Stimmen hörbar werden, aber dann eben diese Monopolisierung und Oligopolisierung, 86 00:10:29,150 --> 00:10:34,260 Speaker 1: also wirklich das Konzentrieren in den Händen weniger. Kannst du da mal ein paar wilde Zahlen 87 00:10:34,310 --> 00:10:38,580 Speaker 1: in den Raum werfen, damit man sich das vorstellt? Auf jeden Fall. Und ich will auch noch mal sagen, 88 00:10:38,680 --> 00:10:42,440 warum das so schwer zu erkennen ist. Da sieht man wieder, warum man Wissenschaft braucht. 89 00:10:42,520 --> 00:10:46,540 Es ist ja so schwer zu erkennen, weil man auf der Oberfläche ja erstmal denken würde, 90 00:10:46,620 --> 00:10:50,780 das ist doch total super mit der Digitalisierung, wo ich vorher, keine Ahnung, ein paar Dutzend 91 00:10:50,960 --> 00:10:54,980 Fernsehsender hatte oder vielleicht ein paar hundert Zeitungen. Da habe ich jetzt viele 92 00:10:55,420 --> 00:10:59,920 Millionen Angebote. Das heißt, dem oberflächlichen Blick erscheint das Ganze wie eine ganz große 93 00:11:00,140 --> 00:11:06,739 Vielfalt. Und deswegen muss dann der wissenschaftliche Blick her und das ist eben übrigens auch so 94 00:11:06,760 --> 00:11:11,300 interessant zu zeigen, warum das so schwer ist, das wissenschaftlich zu beweisen. 95 00:11:11,730 --> 00:11:15,320 Weil wenn ich diese Machtstrukturen im Netz beweisen will, 96 00:11:15,370 --> 00:11:18,060 muss ich genau zwei Sachen wissenschaftlich leisten. 97 00:11:18,580 --> 00:11:22,060 Ich muss erstmal eine Realnutzungsmessung machen. 98 00:11:22,200 --> 00:11:26,920 Das heißt, ich muss gucken, was machen die Leute tatsächlich auf ihren digitalen Endgeräten. 99 00:11:27,120 --> 00:11:29,080 Das ist schon technisch schwierig. 100 00:11:30,140 --> 00:11:33,200 Zweitens muss ich hingehen und ich muss den gesamten Traffic, 101 00:11:33,400 --> 00:11:37,180 Ich muss also alles messen, weil sonst kann ich ja keine relativen Anteile bilden. 102 00:11:37,620 --> 00:11:42,860 Und die dritte Schwierigkeit ist, die Menschen sind auf ganz unterschiedlichen Endgeräten unterwegs. 103 00:11:43,390 --> 00:11:48,320 Du bist auch auf Smartphone, Tablet, Desktop, Laptop und so weiter und so fort. 104 00:11:48,320 --> 00:11:51,320 Und ich müsste quasi mit einer Stoppuhr nebenher rennen. 105 00:11:51,560 --> 00:11:56,360 jede einzelne View, jede einzelne Impression, wie wir das nennen, ausmessen, 106 00:11:56,900 --> 00:12:04,380 das auf 16 Millionen unterschiedliche Angebote zuordnen und kodieren 107 00:12:04,490 --> 00:12:08,360 und müsste das dann ermitteln, wer da eigentlich wie viel Macht hat. 108 00:12:08,910 --> 00:12:09,940 Und genau das haben wir gemacht. 109 00:12:10,240 --> 00:12:12,400 Speaker 1: Aus einem riesen Rauschen habt ihr quasi Muster. 110 00:12:12,430 --> 00:12:17,320 Genau, das ist übrigens auch die erste ganzheitliche Messung, 111 00:12:17,640 --> 00:12:20,960 die jemals für ein vollständiges Land repräsentativ gemacht wurde, 112 00:12:21,120 --> 00:12:27,820 Auf einer Grundlage eines extrem leistungsstarken Panels. 16.000 Leute waren das, auch repräsentativ für die Bevölkerung. 113 00:12:27,820 --> 00:12:32,680 Und jetzt kann ich einfach ein paar Zahlen da mal nennen, nur damit man sieht, wie shocking das ist. 114 00:12:33,120 --> 00:12:37,880 Also diese ganzen digitalen Märkte sind im Prinzip von Monopolen besetzt. 115 00:12:37,880 --> 00:12:42,100 Das heißt nun mal als Beispiel Suchmaschinen, 90 Prozent gehört Google. 116 00:12:43,220 --> 00:12:46,680 Social Media, 85 Prozent kontrolliert Meta. 117 00:12:48,040 --> 00:12:56,860 Als wir gemessen haben, war Gratis-Video 78% YouTube und das gehört ja wieder demselben Konzern wie Google, nämlich Alphabet. 118 00:12:57,560 --> 00:13:02,200 Und ich habe noch einen wunderschönen wissenschaftlichen Indikator, der das zeigen kann. 119 00:13:04,100 --> 00:13:13,480 Und zwar gibt es ja ein Maß für Gleichverteilung oder Ungleichverteilung, das kennen viele Leute von Vermögensverteilung, das ist der sogenannte Genie-Koeffizient. 120 00:13:14,180 --> 00:13:19,040 Der ist immer zwischen 0 und 1. Ich erkläre das mal. 0 ist eine Gleichverteilung. 121 00:13:19,220 --> 00:13:24,280 Stellen wir uns einen vor, in dem so quasi idealtypisch der Kommunismus realisiert ist. 122 00:13:24,300 --> 00:13:30,260 Da hätten wir einen Gini-Koeffizienten in der Vermögensverteilung von 0, weil ja alle dasselbe haben. 123 00:13:30,880 --> 00:13:35,500 Stellen wir uns ein Land vor, in dem eine Person alles besitzt und alle anderen gar nichts. 124 00:13:35,720 --> 00:13:39,920 Das ist die mathematisch größte Ungleichverteilung. Hätten wir einen Gini-Koeffizienten von 1. 125 00:13:41,040 --> 00:13:42,600 Speaker 1: Gibt es gar nicht. Also wie? 126 00:13:42,960 --> 00:13:56,500 Genau, das gibt es nicht zum Glück. Und wir haben dann den Traffic uns angeschaut und den Gini-Koeffizienten für die Verteilung des Traffics im deutschen Internet berechnet und der beträgt 0,988. 127 00:13:57,560 --> 00:13:59,020 Also krasser wird, glaube ich nicht. 128 00:13:59,120 --> 00:14:20,440 Ja, also wo wir auch wissenschaftlich gedacht haben, erst das kann überhaupt nicht sein. Also das haben wir ein Dutzend Mal nachgerechnet. Und von daher war, als wir da diese Studie 2020 publiziert hatten, war das Ausmaß dieser Katastrophe, dieser digitalen Monopolisierung für jeden ersichtlich. 129 00:14:21,080 --> 00:14:32,640 Und das ist natürlich genauso, wie du sagst, denn das bedeutet im Umkehrschluss natürlich auch, wenn der ganze Traffic bei den Tech-Konzernen ist, dann haben alle anderen und das ist eben auch Journalismus, die haben ja gar keinen fairen Zugang. 130 00:14:33,960 --> 00:14:45,580 Speaker 1: Ich glaube, die beiden Punkte zu unterscheiden ist total wichtig. Das eine ist ja auch Märkte, das hast du ja auch mit Big Tech muss weg und jetzt nochmal auch der Krieg der Medien ist der zweite Punkt, was wird mit dieser Marktmacht gemacht? 131 00:14:46,440 --> 00:14:58,040 Speaker 1: Also wir sind es ja gewohnt, auch in Deutschland, mit dem Rundfunkstaatsvertrag und welche Rolle spielen die, damit wir den Eindruck haben, wir haben Zugang zu guten Informationen, die mit Standards aufbereitet wurden. 132 00:14:58,120 --> 00:15:06,320 Speaker 1: Da ist ein journalistischer Ethos dahinter. Und die Personen und auch die Absender, sie haben ja Marken, wo ich mich dran wenden kann. 133 00:15:06,400 --> 00:15:14,660 Speaker 1: Ich habe ein Recht auf eine Klarstellung. Wenn etwas falsch berichtet wurde, muss man bei einigen Medien ein bisschen doller anklopfen und mit größeren Anwälten als mit anderen. 134 00:15:15,120 --> 00:15:33,560 Speaker 1: Also wir hatten immer so eine Bandbreite, aber jetzt haben wir ja das Phänomen, dass die Macht so groß ist und die Möglichkeit bei ihr Einspruch, also neben dem, wer bestimmt, was die Leute überhaupt noch sehen, den Einspruch dagegen, wenn was falsch angezeigt wird, das verhandeln wir ja auch gerade so wahnsinnig intensiv. 135 00:15:33,900 --> 00:15:55,000 Speaker 1: Also wenn ich google eine Mail schreibe, dann interessiert die das nicht. Ich habe ja auch keine Telefonnummer. Also es gibt ja überhaupt keine Möglichkeit quasi an diese Plattform ranzukommen und die verstecken sich ja häufig dahinter und sagen, wir sind ja nicht die, die das Angebot bereitstellen, sondern nur den Ort, wo es rumhängt. Würdest du ihnen diese Aussage geben oder müsste man die in Frage stellen? 136 00:15:56,960 --> 00:16:17,320 Auf keinen Fall. Da gibt es auch gesonderte wissenschaftliche Publikationen von mir zu dieser Frage. Man kann auch sagen, es ist einfach wissenschaftlich Bullshit. Die haben quasi in den 90er Jahren, haben die frühen Digitalunternehmen eigentlich eine Argumentation gebaut, die geht ungefähr so. 137 00:16:17,860 --> 00:16:36,820 Die haben damals gesagt, wenn man sich jetzt vorstellt, man hat ein Telefonnetzwerk und Terroristen telefonieren über dieses Telefonnetzwerk, dann können wir ja nicht den Betreiber des Telefonnetzwerks dafür verantwortlich machen und deswegen wollen wir zum Beispiel auch nicht hier für diese Chatforen für die Inhalte Verantwortung übernehmen. 138 00:16:37,420 --> 00:16:55,900 So, klingt ja erstmal total logisch, aber man hat halt einen riesengroßen Fehler gemacht. Man hätte damals sagen müssen, hey, ist total cool, kein Problem. Ihr wollt also nicht wie Medien reguliert werden, ihr sagt, ihr seid keine Medien, ihr seid nur eine Infrastruktur, nur ein Netzwerk. Okay, kein Problem. 139 00:16:56,660 --> 00:17:14,260 Dann regulieren wir euch wie Infrastrukturen, ja, ist kein Problem für uns, aber dann dürft ihr eine Sache nie machen, nämlich Inhalte monetarisieren. Inhalte monetarisieren, das machen Inhalteanbieter, wie zum Beispiel Redaktion, ist total egal, ob das die FAZ ist oder RTL oder wer auch immer. 140 00:17:14,680 --> 00:17:42,880 Ja und du ahnst es schon, man war eben damals so doof und hat gesagt, wir regulieren euch wie Netzwerke, aber ihr dürft genauso Geld verdienen wie alle anderen Medien auch. Und dann merken wir jetzt schon, selbst wenn man mit Leuten draußen auf der Straße spricht, natürlich sind das Medien, die nennen es Social Media, wenn man die fragt, in welchen Medien informierst du dich zum Beispiel über den Ukraine-Krieg, dann sagen die genauso Fernsehen wie Facebook, Instagram oder YouTube. 141 00:17:43,160 --> 00:17:52,560 Das heißt, die Menschen können das überhaupt nicht unterscheiden. Die verdienen Geld wie Medien. Und deswegen ist es auch interessanterweise wissenschaftlich Quatsch. 142 00:17:54,000 --> 00:18:04,980 Speaker 1: Jetzt könnten die sich ja wieder rausreden und sagen, ja wieso, aber die Inhalte sind ja nicht Google-Absender oder Meta-Absender, sind ja immer noch von den Usern hochgeladen, wenn da nicht die Algorithmen wären. 143 00:18:05,300 --> 00:18:27,000 Da würde ich aber sagen, man kann eben Milliarden als Netzwerk verdienen. Schau dir die Deutsche Telekom an zum Beispiel oder interessanterweise ja auch E-Mail. Das heißt, bei E-Mail-Anbietern ist es auch so, dass die nicht inhaltsspezifisch ihr Geld verdienen. Würde ich sagen, wie gesagt, it's not our problem. Das ist ehrlich gesagt ein Problem von eurem Geschäftsmodell. Ihr dürft euch das übrigens aussuchen. 144 00:18:27,280 --> 00:18:41,760 Wenn ihr Netzwerke sein wollt, regulieren wir euch wie Netzwerke. Wenn ihr Inhalteanbieter sein wollt, ist auch okay, seid ihr Inhalteanbieter. Aber dann müsstet ihr eigentlich für die Inhalte haften, denn das ist natürlich der totale Wahnsinn, wenn man darüber nachdenkt. 145 00:18:42,420 --> 00:19:07,440 In unserer Gesellschaft ist es normalerweise immer so, wenn mit irgendwas Geld verdient, kann derjenige, der damit Geld verdient, nicht sagen, ich habe damit überhaupt nichts zu tun. Und das ist genau das, was sie machen. Das heißt, sie haben ein Haftungsprivileg, sie müssen deswegen nicht haften, weil sie vortäuschen, keine Medien zu sein. Und deswegen haben sie etwas, was ich das Straftatenprivileg nenne. Denn sie dürfen mit Straftaten Geld verdienen, bis heute. 146 00:19:07,780 --> 00:19:21,940 Und wenn man sich jetzt mal die Frage stellt, also ob man in unserer Gesellschaft irgendwo eine Sphäre findet, wo milliardenschwere Akteure mit Straftaten Geld verdienen dürfen, wünsche ich viel Vergnügen. 147 00:19:22,600 --> 00:19:24,120 Speaker 1: Nennen wir die Straftaten, also ein paar Beispiel. 148 00:19:24,160 --> 00:19:33,020 Ja, Verleumdung, Rassismus, Diskriminierung, Volksverhetzung, Holocaust-Leugnung, das sind alles Straftaten. Und die machen diese Straftaten bis heute zu Geld. 149 00:19:33,620 --> 00:19:41,080 Speaker 1: Weil die dann viel klicken, weil dann die Leute da drauf bleiben, weil ich dann, also wie genau findet diese Monetarisierung statt? 150 00:19:41,260 --> 00:19:45,360 Ja, natürlich durch Werbung. Sie haben die Inhalte und die werden durch Werbung monetarisiert. 151 00:19:45,480 --> 00:19:49,880 Und ich würde jetzt auch immer sagen, da darf es auch keine Rolle spielen, wie hoch der Anteil ist. 152 00:19:50,020 --> 00:20:00,760 Da könnte der Supermarktbesitzer ja genauso sein, aber ich mache ja nur, keine Ahnung, 15 Prozent mit dem ganzen Crystal Meth und dem Crack, was ich hier verkaufe. 153 00:20:00,800 --> 00:20:06,500 Das habe ich auch nicht zusammengerührt, da kann ich ja auch nichts. Ich bin nur Intermediär. Da merken wir schon, das ist totaler Quatsch. 154 00:20:07,660 --> 00:20:14,100 Speaker 1: Diese Algorithmen, die sind ja dabei wichtig zu sagen, was wird denn hochgespielt. 155 00:20:14,140 --> 00:20:30,440 Speaker 1: Weil das, was du jetzt gerade beschrieben hast, sind ja Inhalte, wo wir eigentlich klare Regeln haben, dass sie eben nicht frankfröhlich frei verbreitet werden, weil sie sicherheitsgefährdend sind, weil sie Umgangsformen normalisieren oder sogar dazu auffordern, von denen wir sagen, die haben wir jetzt aus guten Gründen eigentlich gesagt. 156 00:20:30,920 --> 00:20:47,880 Speaker 1: Das gehört nicht zu einer zivilisierten Umgangsform. Magst du da nochmal, also mit den Facebook-Papers und so wurde ja recht eindrucksvoll auch, oder auch was mit dem schönen X gerade passiert, wie sich das da so verändert, dass man das so ein bisschen nochmal nachzeichnen kann, dass auch nicht jede Plattform ja gleich funktioniert? 157 00:20:48,640 --> 00:21:02,240 Ja, ich würde es noch verbinden mit dem Thema von vorher, weil, sage ich mal, die Tech-Konzerne, die haben uns jetzt seit 20 Jahren so ein bisschen geblitzt, weil die schon übrigens bevor die Rechtspopulisten das aufgenommen haben, kamen sie mit diesem ganzen Thema Meinungsfreiheit. 158 00:21:02,300 --> 00:21:11,600 Ja, ist ja hier Lieblingsthema von Elon Musk. Und was wir aber aus den Augen verlieren sollen, was sie natürlich nicht wollen, worüber wir reden, ist Meinungsmacht. Monopole, ist ja logisch. 159 00:21:11,740 --> 00:21:27,440 Und jetzt ist ja eine Sache total interessant. Versetzen wir uns nochmal in die alte Zahl. Stellen wir uns vor, wir hätten damals zu Zeiten des Fernsehens die Möglichkeit gehabt, dass zum Beispiel RTL 90% des Fernsehens einseitig kontrolliert. 160 00:21:27,520 --> 00:21:37,760 Übrigens ist ja rechtlich verboten, maximal 30 Prozent sind erlaubt, aber stellen wir uns das jetzt mal vor, RTL hätte jetzt das Fernsehen fast vollständig kontrolliert, so wie die Tech-Konzerne das Internet. 161 00:21:39,260 --> 00:21:57,100 Dann hätten wir jetzt RTL damals gefragt und das Management von RTL, dann hätten die uns ja gesagt, ja hey, wo ist denn bitte das Problem? Wir haben ja hier unseren Vorstand, aber wir geben ja überhaupt nicht, wir haben das total vollständig getrennt mit der Redaktion, da reden wir auch nicht rein. 162 00:21:58,480 --> 00:22:05,040 das ist schon okay so, das ist cool. Und da merkt ja jeder, wenn ich es so beschreibe, nee, nee, nee, nee, das wollen wir niemals haben. 163 00:22:05,380 --> 00:22:17,900 Das heißt, deswegen gibt es diese Grenzen, maximal 30 Prozent. Und jetzt muss ja jeder sich erstmal die Frage stellen, wenn jetzt wir neuartige Formen von Medien haben, 164 00:22:18,100 --> 00:22:26,660 die ja erstmal strukturell genauso filtern, sortieren, auswählen, entscheiden, welche Leute welche Botschaften bekommen, 165 00:22:27,040 --> 00:22:33,520 Algorithmen haben, dann ist es ja im Prinzip genauso, in Anführungsstrichen, wie eine Redaktionsarbeit. 166 00:22:33,520 --> 00:22:36,420 Da kann ja auch niemand sagen, ja, das ist alles völlig neutral. 167 00:22:36,420 --> 00:22:37,860 Das macht die Maschine. 168 00:22:38,080 --> 00:22:44,240 Das sind nur natürliche Aufmerksamkeitssignale von unseren Nutzern und Nutzerinnen. 169 00:22:44,420 --> 00:23:06,300 Das heißt, das Schöne ist, wenn wir uns das mal im Vergleich vor Augen halten, wird ja auch deutlich, wie wahnsinnig wir eigentlich sind, dass wir nicht dieselben Regeln für diese digitalen Medien eigentlich aufstellen und genauso misstrauisch sind, wie wir es ja zu Recht auch bei den redaktionellen Medien werden. 170 00:23:06,340 --> 00:23:26,520 Da würden wir ja auch nicht akzeptieren, wenn ein Konzern sozusagen alle Zeitungen kontrolliert oder das ganze Fernsehen kontrolliert. Und da merkt man, wie sehr auch dieses Thema Meinungsmacht aus unserem Blickwinkel geraten ist. Die sind da tatsächlich mit durchgekommen bis heute und haben einfach gesagt, wir sind keine Medien. 171 00:23:27,800 --> 00:23:37,480 Speaker 1: Ich glaube, ich würde gerne den einen Punkt noch nach Hause holen, bevor wir da nochmal auf die Algorithmen gehen, weil ich finde das so wichtig, weil du machst ja immer gerade die Analogien mit dem Supermarkt oder mit anderen Bereichen. 172 00:23:38,000 --> 00:23:46,380 Speaker 1: Und das ist ja ein ganz zentraler Bestandteil von der Argumentation, die du nach vorne bringst, lasst uns doch die ganz normalen Regeln für Märkte bitte hier auch gelten lassen. 173 00:23:46,950 --> 00:23:50,520 Speaker 1: Warum sollen die denn jetzt andere Regeln bekommen als alle anderen? 174 00:23:50,940 --> 00:24:04,920 Speaker 1: Die Besteuerung dieser Konzerne ist ja auch nochmal was Interessantes, also dass die sich auch an der Rückfinanzierung von den Ländern für ihre digitalen Dienstleistungen nicht in dem Ausmaß beteiligen, wie man das vielleicht von lokal verankerten Wirtschaftsanbietern dächte. 175 00:24:05,500 --> 00:24:19,540 Speaker 1: Aber ich finde das nochmal total wichtig, diesen Anteil von nicht zu viel Konzentration, weil der jetzt gerade diese Woche auch noch bestätigt wurde und zwar von dem Beirat des Bundeswirtschaftsministeriums, was ja sehr liberale Ökonomen alle sind. 176 00:24:20,200 --> 00:24:27,520 Speaker 1: Ich finde, bei der Klimathematik würde ich gerne an einigen anderen Stellen mit Ihnen streiten, aber Sie haben was gesagt, wo ich dachte, das findest du bestimmt spannend. 177 00:24:28,380 --> 00:24:36,760 Speaker 1: Gerade in Zeiten technologischer Umbrüche und zunehmender Marktkonzentration ist es unerlässlich, marktwirtschaftliche Dynamik nicht nur zu ermöglichen, 178 00:24:37,290 --> 00:24:43,960 Speaker 1: sondern auch ihre Gefährdung durch Monopolisierungstendenzen oder politische Vereinnahmung entgegenzutreten. 179 00:24:44,500 --> 00:24:56,240 Speaker 1: So sollte etwa die wettbewerbsfördernde Regulierung digitaler Gatekeeper durch den Digital Markets Act, das ist der Europäischen Union, nicht Gegenstand von handelspolitischen Verhandlungen mit den USA werden. 180 00:24:56,840 --> 00:24:57,660 Speaker 1: Also da sind zwei Dinge drin. 181 00:24:57,860 --> 00:25:00,340 Speaker 1: Einmal diese Bestätigung, die haben einfach zu viel Macht. 182 00:25:00,390 --> 00:25:03,760 Speaker 1: Und das zweite ist ja tatsächlich politische Vereinnahmung. 183 00:25:04,020 --> 00:25:28,520 Speaker 1: Da waren wir jetzt ja noch diese schöne Allianz, was ja das Thema deines neuen Buches ist, was jetzt im August erschienen ist, Krieg der Medien, wie Autokraten sich bewusst durch die Social Media und die Möglichkeiten dort in dieser sogenannten Meinungsfreiheit austoben und damit aber natürlich eigentlich nur sicherstellen wollen, dass ihre Themen gesetzt werden und auch die Art, wie sie gesetzt werden, eben sich nicht mehr an die zivilen Umgangsformen halten. 184 00:25:28,960 --> 00:25:56,579 Genau, jetzt sind da im Prinzip zwei große Punkte drin, die ich nochmal aufgreife und noch ein bisschen tiefer lege. Der eine Punkt hast du auf der einen Seite total recht und wenn du sagst, das sind wirtschaftsliberale Kreise, jetzt kann ich aber mit, das ist ja auch durchaus erheitern, noch ergänzen, dass es ja der totale Wahnsinn ist, dass wir überhaupt dieses Ausmaß der Monopolisierung bisher so zulassen. 185 00:25:57,780 --> 00:26:08,040 Weil jeder der wirtschaftsliberal ist, müsste ja sagen, Monopole sind komplett undenkbar. Ich mach das mal am Beispiel. Wir hatten in Deutschland ein Telekommunikationsmonopol, die Telekom, ja und wir haben dieses Monopol geöffnet. 186 00:26:08,560 --> 00:26:28,780 Das heißt, de facto haben wir uns von diesen Tech-Konzernen so lange blitzdingsen lassen, dass wir jetzt schon seit zehn Jahren diese Digitalmonopole einfach laufen lassen. Also wir öffnen ein deutsches Monopol und wir betreiben Monopolprotektionismus für US-Konzerne. Wie kann das bitte sein? Wo man ja rein von einem wirtschaftsliberalen Aspekt sagen würde, hey, das kann überhaupt nicht gehen. 187 00:26:29,320 --> 00:26:37,500 Ist mir das auch total faszinierend. Ich sage immer, stellt euch vor, der Kapitalismus wird abgeschafft und die Kapitalisten sind aber zu doof, es zu merken. 188 00:26:37,800 --> 00:26:47,680 Weil natürlich haben wir unter monopolistischen Bedingungen ja quasi gar nicht mehr Wettbewerb, offene Märkte, was Kapitalisten ja eigentlich normalerweise gut finden. 189 00:26:48,660 --> 00:27:08,160 Das heißt, das Absurde ist eben auch, dass wirtschaftsliberale Parteien, die uns die ganze Zeit erzählen, sie haben Ahnung von Wirtschaft und Märkten und Wettbewerb, das offenbar überhaupt nicht kapieren. Die müssten ja total auf die Barrikaden gehen. Und da sollte man sie auf jeden Fall bei der Verantwortung nehmen. 190 00:27:08,160 --> 00:27:11,800 Speaker 1: Also den Beirat in dem Fall für ihre liberale Agenda wirklich auch loben. 191 00:27:11,660 --> 00:27:22,820 Ja, aber ich würde halt auch ergänzen, weil ich das natürlich kenne, der Digital Markets Act erlaubt ja nicht die, sag ich mal, effektive Zerschlagung oder Entflechtung dieser Monopole. 192 00:27:22,840 --> 00:27:33,000 Das heißt, der Digital Markets Act reicht ja gar nicht. Dann sollen Sie bitte auch so konsequent sein und das genauso konsequent machen, wie Sie das mit der Telekom gemacht haben, wenn Sie wirtschaftsliberal sind. 193 00:27:33,260 --> 00:27:35,820 Oder sonst sollten Sie sich in irgendeiner Form dazu äußern. 194 00:27:36,860 --> 00:27:41,580 Der zweite Punkt ist natürlich, und da kommst du auf das neue Buch zu sprechen, 195 00:27:41,820 --> 00:27:51,040 dass das Dramatische eigentlich ist, dass die Algorithmen dieser Plattformen in Verbindung, 196 00:27:51,110 --> 00:27:53,720 und da können wir wieder das Thema von vorhin aufnehmen, 197 00:27:53,860 --> 00:27:58,560 in Verbindung mit dem Haftungsprivileg und dem Straftatenprivileg natürlich dazu führen, 198 00:27:59,280 --> 00:28:04,660 dass wir diese totale Verrohung des öffentlichen Diskurses haben, den wir seit Jahren beobachten. 199 00:28:04,700 --> 00:28:15,060 Man muss sich das halt so vorstellen, dass man erstmal sagen kann, dass Medien insgesamt immer natürlich sensationelle Sachen oder polarisierende Sachen auch mögen. 200 00:28:15,280 --> 00:28:16,540 Also auch die Bild-Zeitung. 201 00:28:17,519 --> 00:28:18,080 Aufmerksamkeitsökonomie. 202 00:28:18,100 --> 00:28:20,220 Ja, ich hau mal einen raus, ist völlig klar. 203 00:28:20,560 --> 00:28:29,580 Aber es war natürlich so, dass auch ein Medium wie die Bild-Zeitung immer an das Gesetz gebunden war. 204 00:28:29,880 --> 00:28:32,740 Und wenn sie das Gesetz gebrochen haben, dann haben sie gehaftet. 205 00:28:32,860 --> 00:28:49,200 Das kann sehr, sehr unangenehm sein. Jetzt haben wir aber hier eine Situation, die wir leider selbst geschaffen haben. Ich habe es vorhin erklärt. Wir haben Medien, die aber reguliert werden wie Netzwerke. Sie müssen nicht haften und sie können weiterhin ungestört mit Straftaten ihr Geld verdienen. 206 00:28:50,020 --> 00:29:01,640 Und dann erlauben wir zusätzlich natürlich diesen Medien, dann maximal quasi die Lautstärke hochzudrehen und durch Algorithmen, Polarisierung, Hass, Hetze und Häme noch zu belohnen. 207 00:29:02,380 --> 00:29:09,500 Und das hilft natürlich gerade radikalen Positionen. Es hilft weltweit überall besonders stark den Rechtspopulisten. 208 00:29:10,460 --> 00:29:31,900 Das merken wir, wenn wir selber Sachen auf Social Media posten, weil wenn wir da posten, es ist unfassbar, was dieser selbsternannte Medienwissenschaftler aus Göln da gerade wieder, ja, dann kriegen wir wahrscheinlich mehr Aufmerksamkeit, als wenn wir sagen, hey, ich habe diesen Podcast über Wissenschaftskommunikation gehört und musste einige meiner Positionen nochmal überdenken. 209 00:29:32,360 --> 00:29:49,760 Da merken wir sofort, da gibt es keine Views und keine Likes für und das ist die Misere, in der wir sind, weil wir jetzt eigentlich auch eine Art Koalition haben natürlich aus der Trump-Regierung, den Tech-Konzern, die auch schon ausgreift nach Europa. 210 00:29:50,280 --> 00:30:00,700 Parteien wie die AfD werden vom US-Außenministerium bereits als zivilisatorische Alliierte in ihrem Kulturkampf bezeichnet. 211 00:30:00,800 --> 00:30:03,400 Übrigens deswegen auch dieser Titel Krieg der Medien. 212 00:30:03,740 --> 00:30:09,800 Das ist noch nicht mal, diese Kriegsbegrifflichkeit ist noch nicht mal was ich jetzt erfunden habe, 213 00:30:10,320 --> 00:30:15,380 sondern das ist tatsächlich von diesen Akteuren selbst genauso vorgebracht und genauso gemeint. 214 00:30:15,440 --> 00:30:17,240 Speaker 1: Story Wars und solche Sachen gibt es ja auch. 215 00:30:17,300 --> 00:30:34,480 Ja, aber ich meine, mein Buch fängt ja an mit Bürgerkrieg ist unvermeidlich von Elon Musk. Das war letztes Jahr Peter Thiel, spricht auch von einem Krieg des Internets gegen die analoge Welt. Ein Krieg, den das Internet gewonnen hat. 216 00:30:36,200 --> 00:30:47,340 Das Drehbuch zu diesem ganzen Thema ist von Davidson und Reese Mock, das souveräne Individuum, die sprechen von einem Information War. 217 00:30:48,220 --> 00:30:57,120 1997, also das steht alles vollkommen offen in diesen Schriften drin, also da kann keiner sagen, dass sie das irgendwie im Geheimen betreiben. 218 00:30:57,580 --> 00:31:04,580 Das ist wirklich ein gezielter Versuch, die westlichen Demokratien zu destabilisieren und abzuschaffen. 219 00:31:05,380 --> 00:31:09,200 Speaker 1: Ich finde, das ist eine wichtige Lektüre insgesamt, auch wenn sie sehr unangenehm ist. 220 00:31:09,500 --> 00:31:10,540 Speaker 1: Also The Sovereign Individual. 221 00:31:11,740 --> 00:31:17,820 Speaker 1: Spannend fand ich, 1997 hat es ganz kurz den Untertitel How to Survive the Collapse of the Welfare State. 222 00:31:18,320 --> 00:31:21,040 Speaker 1: Also wie überlebe ich den Kollaps der Wohlfahrstaaten? 223 00:31:21,200 --> 00:31:29,660 Speaker 1: Und dann wurde es schnell umgesetzt oder umformuliert in The Transition in the Information Age oder irgendwie sowas wieder schön Neutrales. 224 00:31:29,700 --> 00:31:50,640 Speaker 1: Dieser Übergang kommt und so ist das ganze Ding geschrieben, als wäre das vorgezeichnet. Strukturdeterminismus wäre der wissenschaftliche Begriff. Die Struktur wird sich so entfalten und dann schreiben die darin ja, wir wollen euch die Möglichkeit geben, von diesem Strukturwandel zu profitieren, oben zu schwimmen. Und das ist ja nicht weniger als das, so wird das darin ja formuliert. 225 00:31:51,600 --> 00:31:55,340 Speaker 1: Gleich wie auf dem Olymp könnt ihr dann tanzen als souveräne Individuen. 226 00:31:55,890 --> 00:32:00,740 Speaker 1: Der Rest, diese Masse der Mittelmäßigkeit, die wird sich dann dran gewöhnen müssen, 227 00:32:00,740 --> 00:32:05,320 Speaker 1: dass solche Ideen wie alle sind vor dem Recht gleich, einfach ad acta gelegt wurden. 228 00:32:06,000 --> 00:32:12,160 Speaker 1: Und es wird ja aufgefordert, eigene Geldsysteme, eigene regulatorische Räume etc. zu schaffen, 229 00:32:12,390 --> 00:32:17,540 Speaker 1: weil da so eine Staats-, wirklich nicht Ablehnung, sondern Verachtung und fast Hass, 230 00:32:17,630 --> 00:32:19,240 Speaker 1: ja, da durchschwingt die ganze Zeit. 231 00:32:19,680 --> 00:32:27,100 Speaker 1: Peter Thiel hat ja auch so schöne Sachen gesagt wie Freiheit und Demokratie, er hat das Vorwort geschrieben zu der 2020-Ausgabe von diesem besagten Buch, 232 00:32:28,520 --> 00:32:30,440 Speaker 1: dass Freiheit und Demokratie nicht mehr zusammengehen. 233 00:32:30,540 --> 00:32:39,620 Speaker 1: Also wäre ich Peter Thiel, würde ich das wahrscheinlich auch sagen, weil die letzten Bemühungen waren ja von den demokratischen VertreterInnen in den USA zu sagen, 234 00:32:39,700 --> 00:32:45,840 Speaker 1: vielleicht müssen wir eine oder andere Sache da mal regulieren, jetzt sind sie alle fröhlich im Oval Office und so fieren Donald Trump. 235 00:32:46,440 --> 00:32:56,880 Speaker 1: Das heißt, es ist ja wichtig, Thema Sicherheit und digitale Sicherheit, sich zu überlegen, wer da gerade an den Schaltstellen mit welcher Idee von Zukunft sitzt. 236 00:32:57,260 --> 00:33:05,220 Speaker 1: Weil sie eben durch die Art, wie Wirklichkeit abgebildet wird, an wen sie abgebildet wird und wer an ihr mitschreiben darf, diesen wahnsinnigen Einfluss haben. 237 00:33:05,860 --> 00:33:12,000 Speaker 1: Bevor wir nochmal auf die Rolle von KI in diesem Kontext eingehen, würde ich dich einmal kurz, da müssen wir einmal kurz auftauchen, 238 00:33:12,140 --> 00:33:14,300 Speaker 1: weil ihr habt ja ein paar konkrete Ideen gemacht, 239 00:33:14,400 --> 00:33:15,880 Speaker 1: wie man dem mit einer ganz normalen, 240 00:33:17,100 --> 00:33:17,740 Speaker 1: wagtwirtschaftlichen Logik, 241 00:33:17,840 --> 00:33:19,840 Speaker 1: die auch nicht an dem, was wir schon kennen, vorbei ist, 242 00:33:20,180 --> 00:33:22,080 Speaker 1: so einen bisschen einen Riegel vorschieben könnte. 243 00:33:22,120 --> 00:33:23,300 Speaker 1: Das hast du mit einem Kollegen geschrieben, 244 00:33:23,600 --> 00:33:25,280 Speaker 1: so einen Medienstaatsvertrag. 245 00:33:26,560 --> 00:33:31,280 Speaker 1: Ich werfe dir mal die 4 und dann plus 2 Unteroberschriften hin 246 00:33:31,380 --> 00:33:33,480 Speaker 1: und du sagst uns jeweils, was versteckt sich dahinter. 247 00:33:34,320 --> 00:33:35,540 Speaker 1: Das ist ja auch kein Hexenwerk, 248 00:33:35,580 --> 00:33:36,920 Speaker 1: mit dem man erst mal sagen könnte, 249 00:33:37,400 --> 00:33:38,500 Speaker 1: lass mal die Macht brechen. 250 00:33:38,820 --> 00:33:40,620 Speaker 1: Ob dann alle da runtergehen oder das nächste. 251 00:33:40,960 --> 00:33:47,500 Speaker 1: Aber offene Standards und Interoperabilität, was würde das denn bedeuten und warum ist das schon mal ein großer Schritt? 252 00:33:47,870 --> 00:33:54,140 Ja, ich mache es ganz einfach. Also stellen wir uns vor, zum Beispiel, ich meine, du hast ja auch total starke Reichweiten. 253 00:33:54,290 --> 00:34:03,520 Du weißt zum Beispiel auch, wenn du auf einer Plattform viele Follower hast, dass du gleichzeitig aber natürlich an diese Plattform gebunden bist. 254 00:34:03,830 --> 00:34:09,620 Das heißt, du kannst nicht auf eine einfache Art und Weise diese Plattform verlassen, wenn du die nicht mehr magst. 255 00:34:10,080 --> 00:34:14,020 Und jetzt stellen wir uns mal vor, also das kann ich an deinem Beispiel wunderbar erklären, 256 00:34:14,470 --> 00:34:21,280 wir würden die Plattformen zwingen, die marktführenden Plattformen, ihre Inhalte über offene Standards anzubieten. 257 00:34:21,780 --> 00:34:27,840 Dann würde es bedeuten, dass sofort der Traffic auch außerhalb dieser marktführenden Plattform viel besser stattfinden könnte. 258 00:34:27,840 --> 00:34:31,840 Das heißt jetzt nur mal als Beispiel, wir hätten zum Beispiel vielleicht eine öffentlich-rechtliche Plattform, 259 00:34:32,260 --> 00:34:37,679 die denselben Standard einsetzen würde oder wir hätten andere Alternativen mit offenen Standards. 260 00:34:37,780 --> 00:34:53,379 Das würde zum Beispiel für dich dann bedeuten, dass du nicht mehr angewiesen bist auf diese Plattform-Bindung, sondern könntest quasi mit einem Klick oder wenigen Klicks, könntest du dieselben Inhalte über vielleicht ein Dutzend oder 15 Plattformen verstreuen. 261 00:34:53,460 --> 00:35:09,980 So, was würde passieren? Das wäre total super für dich, weil momentan kriegst du vielleicht gar kein Geld dafür oder wenig Geld, aber jetzt würden die Plattformen anfangen in einen Wettbewerb zu treten, weil du könntest zum Beispiel dann sagen, hey, bei mir kriege ich aber mehr Geld. Ich will dann gar nicht bei dir sein. 262 00:35:10,480 --> 00:35:22,700 Und dann merkst du auf einmal, was passiert. Wir hätten einen Wettbewerb um die besten Inhalte und die Plattformen selber würden auch den Anteil dessen, was sie selber einbehalten, weil für viele Leute ist es ja so, die behalten ja alles ein. 263 00:35:22,920 --> 00:35:33,520 Da behalten sie sogar 100 Prozent des ganzen Geldes ein. Die haben ja gar keine eigene Souveränität. Das würden wir komplett auflösen. Das ist der erste Punkt. 264 00:35:33,840 --> 00:35:41,440 Speaker 1: Also ich stelle mir zwar ein bisschen wie mit einem Bankkonto oder einem Depot. Ich nehme meine Wertpapiere mit rüber, ich nehme das, was ich angesammelt habe mit rüber. 265 00:35:42,200 --> 00:35:57,220 Mein Lieblingsbeispiel ist immer E-Mail. Zum Beispiel bei E-Mail ist es auch so, das ist total egal, zum Beispiel wenn du einen Inhalt hast, du kannst den an jemanden schicken, der Anbieter Web.de hat, GMX, Gmail, Yahoo, ist total egal. 266 00:35:57,480 --> 00:36:06,420 Das heißt, über den offenen Standard ist sichergestellt, dass derselbe Inhalt über ganz viele Anbieter verstreut werden kann. 267 00:36:07,779 --> 00:36:10,800 Speaker 1: Wäre ja auch total innovationsfreundlich, das wollen sie ja immer sein. 268 00:36:11,100 --> 00:36:11,200 Speaker 1: Genau. 269 00:36:11,340 --> 00:36:15,140 Speaker 1: Also da würde man ja sagen, guck mal, wir haben uns was Gutes ausgedacht, ihr könnt das ausprobieren, 270 00:36:15,260 --> 00:36:16,920 Speaker 1: anstatt dass wir da festdenken. 271 00:36:17,160 --> 00:36:21,060 Speaker 1: Okay, wir haben alle gesehen, wie schwer es war, dass man darum ging zu sagen, 272 00:36:21,140 --> 00:36:26,400 Speaker 1: will man jetzt auf X, wo Elon Musk ja der Superspreader geworden ist, jetzt wirklich noch mitmachen. 273 00:36:27,500 --> 00:36:31,380 Speaker 1: Und es war nicht leicht, weil wir eben genau diese Follower etc. dann verlieren. 274 00:36:31,980 --> 00:36:37,160 Speaker 1: Deshalb Punkt 2, volle Outlink-Freiheit für Content-Kreatoren. 275 00:36:37,880 --> 00:36:39,560 Mache ich auch wieder gerne am Beispiel. 276 00:36:39,830 --> 00:36:48,980 Also stell dir vor, du bist auf einer solchen Plattform, Instagram, du siehst einen total interessanten Artikel von Spiegel und willst den klicken. 277 00:36:49,100 --> 00:36:52,840 Da merkst du erstmal, du kannst den nicht direkt klicken, obwohl es ja gar keinen Grund dafür gibt. 278 00:36:52,940 --> 00:37:09,780 Also die Plattformen könnten ja einfach das so machen, dass du draufklickst und dann wärst du sofort, würdest du die Plattform verlassen und wärst beim Spiegel. Die Redaktionen schreien dann schon immer, Link ist in der Bio. Das heißt, du musst dann über vier, fünf Schritte gehen, was natürlich unter digitalen Bedingungen meterhohe Mauern sind. 279 00:37:11,120 --> 00:37:31,020 Und dann kann es sein, dass du vielleicht sogar den Artikel lesen kannst und wenn du jetzt denkst, du hast dann die Plattform verlassen, bist du auf dem Holzweg, weil du bist immer noch im In-App-Browser von Instagram. Also du merkst, das ist wie ein Knast, in dem du eingefangen bist. Übrigens mit den geschlossenen Standards genauso, geschlossenen Standards, die wir gerade gesprochen haben, aber eben auch mit dieser Runterregelung von Outlinks. 280 00:37:31,240 --> 00:37:46,760 Deswegen Vorschlag Nummer zwei. Wir zwingen Plattformen sich zu öffnen. Die sagen ja auch sonst, wir sind immer für unsere Community da. Dann liegt die ganze Freiheit für die Outlinks bei den Urhebern und Urheberinnen, die sowieso diese Plattform mit Inhalten befüllen. 281 00:37:47,720 --> 00:38:03,580 Du kannst Outlinks setzen, so viel du willst und was passiert jetzt sofort? Die Urheber und Urheberinnen können selber starke Inhalte im Netz aufbauen und haben natürlich sofort 10 mal mehr, 20 mal mehr, 100 mal mehr Traffic, weil der Traffic auch aus den Plattformen rauskommen kann. 282 00:38:04,200 --> 00:38:15,820 Sofort hast du eine Demokratisierung, wir geben den Menschen Stimme und die Inhalte sind nicht mehr einseitig kontrolliert von diesen Tech-Monopolisten. Ganz einfach. 283 00:38:16,180 --> 00:38:30,180 Speaker 1: Theoretisch, wenn ich so einen weiterdenke, müsste das ja auch den Druck auf die Rechenzentren reduzieren, weil ich muss ja da nicht ein und die gleiche Urquelle 5000 Mal parallel ablegen, nur damit die Leute die auch noch auf meiner Subplattform finden. 284 00:38:30,370 --> 00:38:34,960 Speaker 1: Oder? Da liegt der Spiegelartikel auf keine Ahnung wie vielen, obwohl es nur noch fünf sind. 285 00:38:35,240 --> 00:38:51,460 Ich weiß nicht, also ich finde den interessanten Nebenaspekt liegt eher auf einer anderen Ebene tatsächlich. Das ist aber nur was sozusagen, das ist schon im Feld der Feinmechanik, ist aber interessant. Ich habe ja vorhin über dieses Haftungsprivileg und Straftatenprivileg gesprochen. 286 00:38:51,940 --> 00:39:08,220 Es ist ja so, dass auf unabhängigen Domains, das weißt du selber auch, wenn du jetzt hingehst und hast eigene Inhalte, bist du impressumpflichtig und das heißt, du bist verantwortlich. Das heißt, hier haben wir die Situation gerade nicht, auch der Spiegel ist verantwortlich für die Inhalte. 287 00:39:08,320 --> 00:39:35,600 Das heißt, ich sage immer, das ist wie so der Hase aus dem Hut noch so ein Nebenaspekt. In dem Augenblick, wo wir der Nutzung, dem Traffic erlauben, auch wieder außerhalb der Plattform stattzufinden, zieht sofort automatisch dort, wo es auf eigenen Domains betrieben wird, auch die Haftung. Du hast sowieso da einen viel zivilisierteren Diskurs. Das heißt, du hast sogar noch einen total tollen zivilisierenden Nebeneffekt, indem du das machst. 288 00:39:35,800 --> 00:39:46,240 Speaker 1: Und Thema Journalismus, die ja auch durch Werbeeinnahmen zunehmend sich refinanzieren müssen, dann würden die Menschen wenigstens dort auf deren Seiten sich aufhalten und nicht immer dort gefangen bleiben. 289 00:39:46,500 --> 00:39:49,700 Und sie wären unabhängig von den Plattformen. 290 00:39:50,960 --> 00:39:59,100 Speaker 1: Ja, weil dieser Werbekuchen der Digitale, der geht ja auch in einem wahrscheinlich ähnlich monopolistisch auf deine Form an eben besagte Netzplattform. 291 00:39:59,380 --> 00:39:59,520 Speaker 1: Genau. 292 00:40:01,480 --> 00:40:11,720 Speaker 1: Jetzt sind wir bei dem interessanten Punkt 3. Abschaffung aktiver Traffic, Manipulation und Sanktionen bei Selbstbevorteilung. Elon, was würde ihm passieren? 293 00:40:11,780 --> 00:40:31,080 Ja, es ist tatsächlich so, das ist ja das krasseste gewesen, was wir in dieser Publikation von 2020 gezeigt haben. Also auf breiter empirischer Grundlage konnten wir zeigen, dass die Schweinepriester von den Tech-Konzernen sich quasi den Traffic selbst zuschieben. 294 00:40:31,320 --> 00:40:53,700 Und ich erkläre das mal am Beispiel. Die haben ja unterschiedliche Angebote in ihren Tech-Ökosystemen und zum Beispiel nehmen wir mal Google. Google ist eine Suchmaschine, ist also wie eine Verteilstation im Netz und wir sind also hingegangen und haben diesen Traffic nicht nur statisch gemessen, sondern wir haben uns dann angeschaut, wo gehen denn die Leute hin, wenn sie Google verlassen. 295 00:40:54,360 --> 00:41:09,860 Und jetzt würde man ja annehmen, wenn Google auf eine faire Art und Weise den Traffic verteilt, würde der gesamte Anteil der Nutzung, der danach wieder auf Elphabit-Angeboten landet, der würde natürlich genauso groß sein wie der normale Elphabit-Anteil im Netz. 296 00:41:10,180 --> 00:41:26,940 Und wir haben gecheckt und sind fast vom Hocker gefallen, weil Google doch tatsächlich ungefähr doppelt so viel Traffic wieder auf eigene Angebote des Konzerns umgeleitet hat, als eben im Fair Share erwartbar gewesen wäre. 297 00:41:27,060 --> 00:41:45,560 Ja, und genau, das sage ich ja auch immer wieder, das betrifft ja auch alle. Es ist total egal, ob du jetzt die Spiegel-Redaktion bist, ob du Maya Göpel bist mit unabhängigen Angeboten. Es ist total egal, ob du einen Webshop von Edeka betreibst oder ob das ein mittelständischer Rasenmäherladen ist. 298 00:41:46,940 --> 00:42:06,440 Die Leute, die draußen im Netz unabhängig ihre Angebote versuchen zu zeigen, haben ja gar keine Chance, weil die Tech-Konzerne sich diesen Traffic einfach selbst nehmen. Und das finde ich ist hardcore schlimm. Und das muss gestreng überprüft werden. Es kann ja nicht sein, dass die Tech-Konzerne sich diesen Traffic einfach selbst geben. 299 00:42:06,720 --> 00:42:11,160 Speaker 1: Ist das Teil von diesem Urteil der Europäischen Union gegen Google? Das war ja auch ein Ausnutzen. 300 00:42:11,300 --> 00:42:34,640 Das ist natürlich auch juristische Feinmechanik. Meine Wahrnehmung ist, dass das auf der Ebene des Digital Markets Act immer auf der Ebene von Produkttransaktionen sanktioniert wird. Das heißt jetzt nur mal als Beispiel, dass Apple in dem App Store nicht mehr so manipulieren darf, dass hauptsächlich die eigenen Produkte angeboten werden. Das ist aber immer in Bezug auf Transaktionen. 301 00:42:34,640 --> 00:42:35,600 Speaker 1: Das hat Amazon ja auch drauf. 302 00:42:35,680 --> 00:42:57,680 Genau. Und das war aber ja die Revolution eigentlich in unserer Messung, dass wir zeigen konnten, es ist gar nicht nur ein Thema auf der Ebene der Transaktionen, sondern es ist ein Grundprinzip, was alle Traffic-Ströme im Netz erfasst, wo ich gedacht habe, also das war für mich eine der fundamentalsten Einsichten auch aus dieser Grundlagenforschung. 303 00:42:58,480 --> 00:43:09,420 Und ich finde es auch übrigens schocking, dass das bis heute nirgendwo in Gesetzeswerke sozusagen transponiert worden ist. 304 00:43:10,020 --> 00:43:17,360 Speaker 1: Und jetzt kommt ja die KI, die noch da vorgeschaltet wird und dann bewegt man sich ja gar nicht mehr von der Google Homepage weg. 305 00:43:17,410 --> 00:43:21,420 Speaker 1: Und dann hat Gemini für dich mal eben das vermeintliche Netz zusammengestellt. 306 00:43:21,980 --> 00:43:27,420 Speaker 1: Aber was dieses Netz ausmacht, welchen Datensatz es da berücksichtigt und wer diese Datensätze manipuliert. 307 00:43:27,820 --> 00:43:31,040 Und wer sie erarbeitet hat und enteignet worden ist. 308 00:43:31,480 --> 00:43:33,960 Stimmt. Urheberrechtsthematik. 309 00:43:33,960 --> 00:43:36,480 Speaker 1: Da habe ich neulich auch gehört, dass Donald Trump zum ersten Mal gesagt hat, 310 00:43:36,580 --> 00:43:38,180 Speaker 1: man könnte mal das Urheberrecht abschaffen. 311 00:43:38,200 --> 00:43:40,280 Speaker 1: Da hat bestimmt Sam Altman mit ihm gequatscht. 312 00:43:40,860 --> 00:43:44,600 Speaker 1: Weil das ist ja schön, wenn du dann im Grunde auf alles zugreifen darfst, 313 00:43:44,800 --> 00:43:49,620 Speaker 1: egal wer sich da irgendwie bemüht hat, gute Sachen zusammenzutragen, 314 00:43:49,820 --> 00:43:53,640 Speaker 1: um zu sagen, mein Angebot von dem Kuratierten ist das, was ihr braucht, 315 00:43:53,820 --> 00:43:58,840 Speaker 1: zahlt uns dafür und der Rest kann dann für umsonst das mal bereitstellen. 316 00:43:58,890 --> 00:44:02,820 Speaker 1: Wenn sie Glück haben, wir noch berücksichtigt werden und nicht andere da reingehen. 317 00:44:03,010 --> 00:44:07,380 Und wenn man so will, sind wir da auch wieder bei The Sovereign Individual, weil das sind 318 00:44:07,380 --> 00:44:14,180 ja genau die Teile quasi der Bevölkerung, die diese Tech-Libertären eigentlich abschaffen 319 00:44:14,400 --> 00:44:14,480 wollen. 320 00:44:14,810 --> 00:44:19,820 Also so Leute wie Wissenschaftler und Wissenschaftlerinnen und Journalisten und Journalistinnen. 321 00:44:19,870 --> 00:44:20,160 Who cares? 322 00:44:21,340 --> 00:44:36,220 Von daher ist es auch alles konsistent in dieser Enteignung, denn es ist nicht nur ein wirtschaftlicher Prozess der Enteignung, sondern es ist auch ein Prozess, in dem Wissenschaft und Journalismus die Stimme geraubt wird und in dem wir eigentlich abgeschafft werden. 323 00:44:37,660 --> 00:45:02,200 Speaker 1: Da würde ich noch mal kurz einsteigen, bevor wir mit dem Punkt 4 gehen, weil ich fand das so sichtbar. Also wenn man sieht, was mit X passiert ist, dann hat man diese Veränderung ja gesehen. Also erstens, dass ständig jetzt, und ich weiß nicht, wie viele Bots Elon da inzwischen auch rumhühnern hat, das weiß ja auch niemand, wie viele tatsächlich auch noch gekauft oder durch günstige Arbeitende, instandgehaltene, vermeintliche Accounts da die Positionen unterstützen. 324 00:45:03,380 --> 00:45:23,140 Speaker 1: Aber dieses Ganze und ich habe bisher gedacht, in den Medien draußen wäre die Wahrheit und dann so, ja, ja, ich auch und so ist er sehr bestätigend mit seiner Community. Aber hier, hier findet jetzt die Wahrheit statt und ihr seid jetzt alle Citizen Journalists und X ist jetzt auch eine News App geworden, also ist keine Social Media Plattform mehr, sondern nennt sich News App. 325 00:45:23,980 --> 00:45:27,260 Speaker 1: Und dann ist ja Grog trainiert worden als nächster Anteil da drin. 326 00:45:28,420 --> 00:45:33,600 Speaker 1: Und da konnte man ja wirklich total abgefahrene Ausfälle auch beobachten, wie tatsächlich 327 00:45:34,040 --> 00:45:36,400 Speaker 1: da verändert wurde, auf was Grog zugreifen darf. 328 00:45:36,640 --> 00:45:42,760 Speaker 1: Inklusive, dass er woke Dinge, die Elon stören, dann eben nicht mehr mit rein nimmt und das 329 00:45:42,840 --> 00:45:43,820 Speaker 1: ja auch deutlich gesagt hat. 330 00:45:43,840 --> 00:45:47,940 Speaker 1: Dann gab es Momente, wo er sich zufällig mal für Elons alter Ego ausgegeben hat. 331 00:45:47,980 --> 00:45:49,200 Speaker 1: So, ja meine Ex-Frau sowieso. 332 00:45:49,340 --> 00:45:51,040 Speaker 1: Aber wieso deine Ex-Frau ist doch Elons Ex-Frau? 333 00:45:51,060 --> 00:45:52,380 Speaker 1: Ja, aber ich bin doch Elons alter Ego. 334 00:45:52,620 --> 00:45:55,920 Speaker 1: Aber da waren ja wirklich, also comical, intermezi. 335 00:45:55,990 --> 00:46:00,760 Speaker 1: Aber das Schlimme ist ja, dass man gleichzeitig sieht, dass die Menschen im Habitus, also Thema 336 00:46:01,120 --> 00:46:06,440 Speaker 1: Sicherheit dessen, was wir an Wissen und an Informationen bekommen, der Habitus, der da 337 00:46:06,510 --> 00:46:08,320 Speaker 1: die ganze Zeit angeschoben wird, ist: Frag GROG. 338 00:46:08,960 --> 00:46:11,740 Speaker 1: Ich weiß nicht, wie viele Bots das machen, aber das ist ja inzwischen so: GROG stimmt 339 00:46:11,830 --> 00:46:13,460 Speaker 1: das, GROG stimmt das, GROG stimmt das. 340 00:46:14,110 --> 00:46:15,100 Weil GROG ist ja neutral. 341 00:46:15,799 --> 00:46:16,160 Speaker 1: Vermeintlich. 342 00:46:16,170 --> 00:46:21,038 Speaker 1: Und dieser Anstrich der Neutralität, eben, den haben jetzt Forscher und Forscherinnen am 343 00:46:21,060 --> 00:46:25,360 Speaker 1: IT ja auch in ersten Studien gezeigt, dass sie gesagt haben, wir lassen, also gerade 344 00:46:25,580 --> 00:46:30,120 Speaker 1: wenn es aufgeladene Meinungsunterschiede sind, lassen sich Menschen, das war jetzt glaube 345 00:46:30,120 --> 00:46:32,960 Speaker 1: ich im angelsächsischen Rahmen erstmal die Studie, mal gucken, wie es in Deutschland 346 00:46:33,200 --> 00:46:39,680 Speaker 1: läuft, eher von KIs, von einer anderen Position überzeugen als von Mitmenschen, weil sie 347 00:46:39,700 --> 00:46:41,680 Speaker 1: die eben für so unabhängig halten. 348 00:46:42,480 --> 00:46:46,040 Speaker 1: Und das ist natürlich das Kuratieren des vermeintlichen Wahrheit. 349 00:46:46,120 --> 00:46:50,800 Speaker 1: vielleicht heißen die das aber alle "truth social" oder die russische variante "pravda" 350 00:46:51,280 --> 00:46:56,880 Speaker 1: ist ja auch "Wahrheit" oder übersetzen und die gehen jetzt direkt auf die LLMs also auf die 351 00:46:57,020 --> 00:47:00,920 Speaker 1: Large Language Models selber. Die gehen nicht mehr auf die Endnutzer sondern sagen wir kriegen unsere 352 00:47:01,060 --> 00:47:07,300 Speaker 1: Propaganda doch bei den KIs da rein und dann werden die hochgejazzt und da sind die nicht 353 00:47:07,330 --> 00:47:11,300 Speaker 1: so gut da drin. Ich glaube um die 93 Prozent segeln da einfach so durch. Das heißt wir haben ja 354 00:47:11,200 --> 00:47:17,040 Speaker 1: dieses kuratieren des vermeintlichen wahrheits- und wirklichkeitsraums abgegeben und das ist ja 355 00:47:17,040 --> 00:47:22,500 Speaker 1: genau das wo wir mit deinem ersten zitat sind also mit dem was ist denn eigentlich die grundlage auf 356 00:47:23,620 --> 00:47:28,260 Speaker 1: der aufgeklärte bürgerinnen und bürger dann sich auch einsetzen können für eine zukunft die sie 357 00:47:28,260 --> 00:47:34,858 wollen ja also erstmal ist es so dass man sagen muss dass also ist sehr stark gegenstand im neuen 358 00:47:34,880 --> 00:47:41,000 Buch, dass sie damit natürlich eine Art große Erzählung fabriziert haben, die immer mehr 359 00:47:41,090 --> 00:47:46,420 Menschen glauben. Und das sehen wir ehrlich gesagt auch jetzt in Umfrageergebnissen für 360 00:47:46,620 --> 00:47:54,140 die AfD in Deutschland. Ja, diese totale Infragestellung des bisherigen gesellschaftlichen Wissens, 361 00:47:54,320 --> 00:48:00,920 das ist in dieser Märchenerzählung so, dass die ja staatlich gelenkt und zensiert sind. 362 00:48:01,260 --> 00:48:17,560 Das sind Eliten, die quasi das Volk aufs Glatteis führen und in der Erzählung dieser Tech-Konzerne und der Rechtslibertären ist es eben so, dass die jetzt befreit werden durch angeblich neutrale Plattformen und neutrale Technologien. 363 00:48:18,220 --> 00:48:29,340 Und das ist auch Gegenstand in dem neuen Buch, weil es gibt eine ganz faszinierende Figur in der Geschichte der Medien, weil das ist nicht das erste Mal, dass sowas passiert ist. 364 00:48:29,920 --> 00:48:34,640 Man nennt das Achaeropoieton, ist ein total krasser griechischer Begriff. 365 00:48:35,190 --> 00:48:36,980 Das heißt nicht von Hand gemacht. 366 00:48:37,230 --> 00:48:43,320 Das heißt, die Medien tun immer so, die leugnen quasi ihre eigene Medialität. 367 00:48:44,420 --> 00:48:49,240 Mein Lieblingsbeispiel ist, der Moses kommt vom Sinai und hat diese zehn Gesetzestafeln, 368 00:48:49,350 --> 00:48:53,940 sagt aber nicht, ich habe die mal aufgeschrieben, wie ich mir gedacht habe, wie das für uns am besten ist. 369 00:48:53,940 --> 00:48:54,920 Ihr habt das gechannelt. 370 00:48:55,820 --> 00:48:57,020 Ich habe nichts damit zu tun. 371 00:48:57,860 --> 00:49:21,120 Die habe ich einfach so bekommen. Also das ist sozusagen die Urszene des Archeiropoietern. Das heißt, man muss eine Art Illusion schaffen, dass ich nichts damit zu tun habe. Und das haben die Plattformen natürlich erstmal geschafft, indem sie damals gesagt haben, wir sind keine Medien, wir sind nur Intermediäre, wir sind nur Durchlaufstationen, was natürlich Bullshit ist, siehe Algorithmen und so weiter und so fort, aber die Leute glauben es. 372 00:49:21,640 --> 00:49:35,500 Und jetzt haben wir genau diese Effekte bei KI, weil die KI sagt, es ist nicht von Hand gemacht. Ich bin ein Achaeropoieton. Das ist nur sozusagen neutral zusammengefasst und deswegen kannst du mir mehr glauben. 373 00:49:36,560 --> 00:49:55,560 Und man muss tatsächlich sagen, wenn wir uns die politische Dynamik anschauen, ist es so, dass sie damit durchkommen. Das heißt, und das ist für mich vollkommen absurd, weil ich habe es vorhin erzählt, ja dieses unglaubliche Misstrauen, was wir ja immer hatten in Bezug auf Medien, wo wir jetzt, mein Beispiel war vorher, stellen wir uns vor, RTL kontrolliert 90 Prozent des Fernsehens. 374 00:49:55,620 --> 00:50:24,100 hätten wir nie gesagt, hey, erzählt uns keinen. Wir wollen erstens, wir kontrollieren das, wir überprüfen das und ihr könnt uns ja kein Bullshit erzählen. Und das ist für mich das Faszinierendste, dass wir bei dieser Erzählung, dieses Märchen von der Neutralität der Plattform oder der Neutralität dieser KI-Technologien, dass Leute, die sonst so misstrauisch sind bei allem, also die überall Verschwörung sonst wittern und staatliche Kontrolle und dergleichen, 375 00:50:24,540 --> 00:50:30,920 dass sie mit maximaler Naivität diesem Märchen des neutralen Mediums glauben. 376 00:50:31,580 --> 00:50:37,100 Speaker 1: Ich glaube, das hat schon damit zu tun, dass wir alle noch erfahren, dass wir unser Zeug da hochladen können. 377 00:50:37,150 --> 00:50:42,180 Speaker 1: Es ist dann sichtbar, andere können darauf reagieren. Bei RTL und diesem "Wir haben so und so viele Sendeplätze" zu vergeben, 378 00:50:42,270 --> 00:50:46,580 Speaker 1: da ist das glaube ich besser sehbar und es war natürlich auch geschlossener nochmal. 379 00:50:47,160 --> 00:50:58,080 Speaker 1: Also ich habe einen Sender, da kommt das durch und jetzt habe ich halt, also das Playing-Field ist nicht gerade, sondern sehr in Richtung einiger großer Akteure natürlich orientiert. 380 00:50:58,110 --> 00:51:02,400 Speaker 1: Und das Schlimme ist ja, Thema Sicherheit ist das transparent, wie es orientiert ist. 381 00:51:03,280 --> 00:51:09,240 Speaker 1: Also dein vierter Punkt ist ja diese 30% Marktanteilsobergrenze in demokratierelevanten Kategorien. 382 00:51:09,840 --> 00:51:24,480 Genau, das ist ganz einfach. Also man darf nie, eigentlich sind ja hier nur die Prinzipien, die man sowieso seit Jahrzehnten sehr erfolgreich in der Behandlung der Medien berücksichtigt hat, sind hier eigentlich auch übertragen worden auf die digitale Welt. 383 00:51:24,980 --> 00:51:34,900 Weil natürlich dürfen wir diese Meinungsmacht nicht zulassen. Wir brauchen Anbietervielfalt, wir brauchen unterschiedliche Perspektiven und das gilt eben auch auf der Ebene der Anbieter selber. 384 00:51:34,980 --> 00:51:59,280 Und nichts spricht dagegen, wir können morgen die Plattform öffnen, stellen wir uns vor, wir würden das genauso machen wie mit der Telekom, dann würden wir morgen auf Google gehen und wir hätten sechs Kacheln von unterschiedlichen Anbietern, wir hätten personalisierte Suche, Profisuche, wissenschaftliche Suche, faktenbasierte Suche, Ökosuche und so weiter und so fort und die Welt wäre eine viel bessere. 385 00:52:00,580 --> 00:52:05,580 Speaker 1: 4.1 Trennung von Kanal und Inhalt, Öffnung für Drittanbieter geht ja in die Richtung. 386 00:52:05,840 --> 00:52:06,760 Speaker 1: Das ist dasselbe im Beispiel. 387 00:52:06,760 --> 00:52:19,140 Speaker 1: Wollt ihr eine Plattform sein, dann seid eine Plattform mit fairen, transparenten Spielregeln und dann können da auch alle ohne unsichtbare Rankings und Anbieter Filter und so weiter mitspielen. 388 00:52:19,460 --> 00:52:28,900 Genau, das macht man in der Medienregulierung ja sowieso, aber das ist jetzt das beste Beispiel, weil in dem Augenblick, wo ich das trenne, also siehe Telekom, in dem Augenblick, wo ich Netz und Inhalte trenne, 389 00:52:29,340 --> 00:52:36,920 Kann ich natürlich auch total einfach diese Vielfalt herstellen und ich habe es ja gerade in diesem Beispiel, in diesem fiktiven Beispiel Google gesagt, wäre ja ganz einfach. 390 00:52:37,160 --> 00:52:41,880 Speaker 1: Ja, dafür bräuchten wir, letzte Punkt, 4.2, Oversight Boards. 391 00:52:42,260 --> 00:52:51,020 Achso, genau, Oversight Boards ist natürlich auch für mich der Versuch, dass man die Lügen der Tech-Konzerne entlarvt. 392 00:52:51,240 --> 00:53:01,540 Denn die Tech-Konzerne lügen, wenn sie sagen, dass sie uns eine Stimme geben, weil sie uns unsere Stimme ja auf einem ganz fundamentalen Punkt verweigern. 393 00:53:02,040 --> 00:53:14,840 Und das erkläre ich ganz kurz. Es ist tatsächlich nämlich so, dass Demokratien, seitdem sie entstanden sind, durften immer die eigene Öffentlichkeit, das Forum haben wir das früher genannt, selbst gestalten. 394 00:53:14,940 --> 00:53:19,520 Das heißt, da hat man typischerweise gesagt, wer darf hier reden, wer darf hier wie lange reden, wie gehen wir miteinander um. 395 00:53:20,200 --> 00:53:28,960 Und jetzt haben wir das erste Mal eine Situation, wo diese Foren, ich meine X nennt sich ja im Werbeklaim auch The World's Town Square. 396 00:53:30,060 --> 00:53:35,660 Also das heißt, dieser Marktplatz ist quasi von hier einem Oligopolisten besetzt. 397 00:53:36,380 --> 00:53:43,220 Und dieser Oligopolist, in diesem Fall Elon Musk, kann einseitig darüber bestimmen, wie in diesem Forum gesprochen wird. 398 00:53:43,400 --> 00:53:45,720 Und nicht mehr die demokratische Gemeinschaft selber. 399 00:53:46,500 --> 00:54:11,320 Und deswegen ist es eine Lüge, wenn sie uns sagen, sie geben uns eine Stimme, weil sie verweigern uns die Stimme in dem prinzipiell wichtigsten Aspekt. Wie wird denn eigentlich überhaupt in unserem Forum gesprochen? Deswegen ist es auch ganz einfach, das zu ändern, wenn wir nämlich sagen würden, hey, ihr wollt nur Plattform sein, ihr wollt nur reguliert werden wie Plattform, alles klar, aber dann müsst ihr auf jeden Fall den Communities und den Leuten, die eure Plattform mit Inhalten füllen, denen müsst ihr eine Stimme geben. 400 00:54:11,560 --> 00:54:40,280 Und dann dürfen die selbst darüber bestimmen, wie Algorithmen beschaffen sind, wie Moderation stattfindet, die Nutzungsbedingungen und so weiter und so fort. Und da ist wieder das Faszinierende, wenn man nämlich die Leute fragt, die wollen gar nicht diesen radikalen Kram und diesen extremistischen Kram, die wollen auch keine Volksverhetzung und dergleichen und die wünschen sich einen viel balancierteren und faktengeprüfteren Diskurs. Und dann hätten wir das gleich mitgelöst, das Thema. 401 00:54:41,500 --> 00:54:45,160 Speaker 1: Haben wir ja in vielen Bereichen auch, die eigentlich so relevant sind für Gesellschaft. 402 00:54:45,250 --> 00:54:49,380 Speaker 1: Der Presserat ist ja nur das eine und Ärztekammer. 403 00:54:49,940 --> 00:54:51,700 Speaker 1: Also es gibt ja eigentlich immer so ein Gremium. 404 00:54:53,060 --> 00:54:58,560 Speaker 1: Ich muss noch einmal ganz kurz eine Schleife gehen nach Brasilien, wo ja immerhin dann der Richter, 405 00:54:58,660 --> 00:55:02,600 Speaker 1: der jetzt auch sanktioniert wurde von Donald Trump, wahrscheinlich auch dafür, 406 00:55:02,810 --> 00:55:05,900 Speaker 1: weil er da mit Elon noch eng war, zu XMA gesagt hat, 407 00:55:06,020 --> 00:55:18,580 Speaker 1: Wenn ihr jetzt nicht wenigstens eine Ansprechperson hier im Land zur Verfügung stellt, mit der wir als Regierung mal reden können darüber, wenn wir finden, dass hier was out of order läuft, dann mache ich euch die Bude dicht. 408 00:55:19,460 --> 00:55:21,560 Speaker 1: Man muss ja das vielleicht auch nochmal beim Namen nennen. 409 00:55:22,020 --> 00:55:31,640 Dieser Aspekt, in dem diese Tech-Konzerne seit Jahren und Jahrzehnten eigentlich rechtsstaatliche Prinzipien ignorieren 410 00:55:32,520 --> 00:55:40,240 und dann noch im Gewand des Libertarismus eigentlich auch die Grundlagen des demokratischen Staates in Zweifel stellen, 411 00:55:41,060 --> 00:55:44,820 bedeutet, dass sie antidemokratische Unternehmen sind. 412 00:55:44,900 --> 00:55:47,780 Und das muss man auch nochmal in dieser Härte sagen. 413 00:55:48,860 --> 00:55:51,400 Das sage ich auf den ersten Seiten in meinem Buch. 414 00:55:51,560 --> 00:56:01,780 Wie kann das überhaupt sein, dass die Politik noch Treffen mit Anhängern dieser antidemokratischen Tech-Konzerne bei helllichtem Tag durchführt? 415 00:56:02,480 --> 00:56:05,820 Man kann nicht sagen, ich treffe mich mit allen und ich rede mit allen. 416 00:56:06,050 --> 00:56:16,000 Nur mal als Beispiel, die Hells Angels sind ebenfalls eine Organisation, die die rechtsstaatlichen Prinzipien unseres demokratischen Staates grundsätzlich in Frage stellt. 417 00:56:16,010 --> 00:56:18,940 Und kein Politiker würde sich mit den Hells Angels treffen. 418 00:56:18,940 --> 00:56:20,060 Speaker 1: Ja, ein bisschen weniger Kohle, ne? 419 00:56:20,280 --> 00:56:48,840 Ja und würde nachher sagen, ja ich rede aber mit allen und deswegen ist es auch so wichtig, dass wir hier ganz klar sagen und das müssten wir auch, das müssten wir eigentlich tabuisieren, dass diese Tech-Konzerne, solange sie noch antidemokratische Praktiken, wie du sie gerade beschrieben hast, ganz offen betreiben, sollte jede Anwesenheit von Mitgliedern dieser Tech-Konzerne in irgendwelchen demokratischen Zirkeln, 420 00:56:48,900 --> 00:56:55,760 sollte komplett tabuisiert werden. Die Bedingung muss sein, ihr erkennt unsere rechtsstaatlichen Prinzipien nicht an 421 00:56:55,780 --> 00:57:01,020 und solange wir nur Signale sehen, dass ihr das ja eigentlich ablehnt, seid ihr komplett draußen. 422 00:57:02,240 --> 00:57:06,780 Speaker 1: Ich versuche das wieder in der liberalen Logik zu denken. Wir haben ja schon mal einmal heute gehabt, 423 00:57:06,860 --> 00:57:11,220 Speaker 1: Regulierung ist manchmal wichtig, damit liberale Märkte erhalten werden. 424 00:57:11,640 --> 00:57:14,960 Speaker 1: Und in dem wäre es ja ähnlich, wenn man sich überlegt, die Akribie, 425 00:57:15,360 --> 00:57:35,380 Speaker 1: die das Europäische Parlament und andere investigative Aufsichtsbehörden betreiben müssen, um nachzuweisen, dass da die ganze Zeit diese Regeln gebrochen werden und einen ausreichend großen Case zu machen, damit sie nicht zu viel Sorge haben, von diesen Milliarden und Abermilliardenschweren Konzernen verklagt zu werden, was sie ja immer werden, wenn sie einmal rechts sprechen. 426 00:57:36,980 --> 00:57:54,400 Speaker 1: Müsste dann nicht irgendwann dieses Momentum sein, wo man die Beweislast umdreht, wie das jetzt in Brasilien ja de facto passiert ist, dass die gesagt haben, also wenn ihr da nicht in eine vernünftige Resonanz geht und ihr mal für uns darlegt, dass diese Häufigkeitsverdichtung von Beweisen, dass ihr unsere Regeln unterlauft. 427 00:57:54,920 --> 00:58:17,060 Speaker 1: Wenn ihr uns das nachweisen könnt, dann dürft ihr sofort wieder mitspielen. Aber wir haben keine Lust mehr, dass ihr uns die ganze Zeit in der Nase herumführt und immer so viele Gesetze brecht und damit ja auch Fakten schafft, neue Marktmacht schafft, neue Daten sammelt. Das ist ja der dritte Punkt an Sicherheit. Wo gehen diese Daten gerade hin? Persönliche Daten über Menschen und wer hat die jetzt? Und wenn das US-Konzerne sind, wo laufen die gerade weiter? 428 00:58:17,640 --> 00:58:26,340 Speaker 1: ist ja dieses ganze Thema noch, also das wäre ja so eine mutige Herangehensweise, die es wahrscheinlich, wenn ich dich richtig verstehe, in dem Fall ja braucht. 429 00:58:26,600 --> 00:58:26,880 Richtig. 430 00:58:27,180 --> 00:58:40,920 Speaker 1: Weil, ja, ich meine bei der Digitalisierung genau ähnlich wie Finanzmärkte, man ja meint das Gefühl hinter diesen ganzen Abkürzungen und neuen Trends und ihr kapiert das alles nicht und wenn ihr das macht, dann passiert ganz Schlimmes. 431 00:58:41,360 --> 00:58:47,240 Speaker 1: da wird sich ja auch hinter so einem Jargon und so einer vermeintlichen Undurchdringlichkeit für Non-Experten versteckt. 432 00:58:47,700 --> 00:58:51,740 Speaker 1: Da müsste ich doch sagen, ich bin für die Sicherheit verantwortlich, Ordnungspolitik braucht das, 433 00:58:52,060 --> 00:58:56,660 Speaker 1: erklärt es uns gefährlich so vernünftig und wenn es so gefährlich ist, dann sollte das nicht ins Regal, 434 00:58:56,800 --> 00:59:00,060 Speaker 1: womit wir wieder bei einem deiner Beispiele waren, dann müsst ihr halt was anderes anbieten. 435 00:59:00,820 --> 00:59:07,440 Ja, ich kann das auch insofern ergänzen, wenn man sich genau die Philosophie unserer Vorschläge anschaut, 436 00:59:07,500 --> 00:59:12,260 ist es ja so, dass wir eigentlich diese Beweislastumkehr ablehnen. 437 00:59:12,940 --> 00:59:20,620 Ich sage das nochmal am Beispiel, weil ich glaube, das war ein großer Fehler auch der Behandlung dieser digitalen Themen. 438 00:59:21,660 --> 00:59:24,900 Weil die Leute dann immer fragen, nur mal als Beispiel auch mich als Wissenschaftler fragen, 439 00:59:24,930 --> 00:59:28,800 ja und wie machen die das denn genau? Und wie manipulieren die den Traffic denn genau? 440 00:59:28,960 --> 00:59:34,020 Und wie viel mehr kriegen? Und ich kann aber jetzt zum Beispiel als Wissenschaftler nicht in die Plattform hineinschauen, 441 00:59:34,060 --> 00:59:38,620 diesen Blackboxes und logischerweise würde mich sowieso keine Plattform jemals in eine Plattform reinschauen lassen. 442 00:59:38,800 --> 00:59:42,320 Also stehe ich die ganze Zeit da und muss hier irgendwas beweisen, wo ich aber sage, 443 00:59:44,680 --> 00:59:49,200 eine prinzipiengeleitete demokratische Rahmung unseres öffentlichen Diskurses, 444 00:59:49,820 --> 00:59:54,240 die muss sozusagen immer unter allen Umständen gleich sein. 445 00:59:54,240 --> 00:59:59,657 Das heißt, metaphorisch gesprochen, es ist egal, ob jetzt Donald Trump Präsident ist und wir das scheiße finden 446 00:59:59,680 --> 01:00:06,420 oder ob Kamala Harris Präsidentin wäre, aber diese Prinzipien, dass niemand zu viel Meinungsmacht haben darf, 447 01:00:06,600 --> 01:00:11,520 dass niemand mit strafbaren Inhalten Geld verdienen darf, dass Plattformen offen sein müssen und sowas, 448 01:00:11,860 --> 01:00:14,520 die diskutieren wir gar nicht und dann ist es auch egal, ehrlich gesagt. 449 01:00:14,970 --> 01:00:18,860 Und das ist das Schöne, wenn man es eben auf diese Prinzipien zurückführt, 450 01:00:19,480 --> 01:00:24,780 dass man dann nämlich auch gar nicht mehr in der Beweislast ist, sondern dass man einfach sagt, 451 01:00:24,810 --> 01:00:29,520 wir sind hier eine pluralistische Gesellschaft, wir haben hier ein pluralistisches, offenes Mediensystem, 452 01:00:30,080 --> 01:00:35,080 und das ist so wie wir das machen und der letzte punkt den ich noch dazu ergänzen würde ist dass 453 01:00:35,180 --> 01:00:40,840 ich auch in der art und weise wie ich das präsentiere immer das wort regulierung vermeiden denn regulierung 454 01:00:41,080 --> 01:00:46,800 das haben die lobbyisten der tech konzerne ja auch sehr gut gemacht das hört sich immer so an die 455 01:00:47,520 --> 01:00:52,200 tun so und da kommen sie mit ihrer meinungsfreiheit das netz ist frei und wir sind die spielverderber 456 01:00:52,860 --> 01:00:57,180 und ich sage das gegenteil ist der fall ihr habt uns das internet gestohlen und wir werden uns das 457 01:00:57,200 --> 01:01:01,700 internet befreien und deswegen nenne ich das auch übrigens gar nicht eine 458 01:01:02,620 --> 01:01:06,760 regulierung sage ich sage einfach wir öffnen die märkte wir führen faire 459 01:01:06,940 --> 01:01:11,440 chancen und faire zugänge ein und wer geld mit inhalten verdient der muss 460 01:01:11,560 --> 01:01:15,460 logischerweise auch die verantwortung übernehmen ja und ich vermeide eigentlich 461 01:01:15,720 --> 01:01:20,460 das wort regulierung weil das natürlich sofort regulierung so jetzt kommen die 462 01:01:20,540 --> 01:01:24,677 Speaker 1: und wollen hier alles verbieten genau deshalb reite ich das gerade so 463 01:01:25,340 --> 01:01:29,400 Speaker 1: Weil viele von den Dingen, wenn man so drüber nachdenkt, warum wir bestimmte gesellschaftliche 464 01:01:29,600 --> 01:01:34,260 Speaker 1: Ziele jetzt riskieren oder nicht erreichen, ja mit so Besitzstandswahrung zu tun hat und 465 01:01:34,360 --> 01:01:41,720 Speaker 1: mit einem nicht verändern wollen, wenn die Konzentration von Macht oder Kontrolle über 466 01:01:42,820 --> 01:01:46,580 Speaker 1: Daseinsvorsorge haben wir in anderen Bereichen auch, von Wohnraum über Energie oder sonst 467 01:01:46,630 --> 01:01:53,040 Speaker 1: so, so gefährlich wird, dass die Möglichkeit des Zugangs für viele zum Risiko wird. 468 01:01:53,300 --> 01:02:18,680 Speaker 1: Also das ist ja eigentlich das Versprechen, was liberale Marktwirtschaften hochhalten müssen. Zu sagen, erstens haben wir diese Prinzipien und die sollte man auch nicht abschaffen. Also diese parteipolitische Vorteilnahme da reinbauen und gleichzeitig gelten die ja dafür, damit man sagt, ein Innovationsprozess ist auch kreative Zerstörung. Das heißt, Sachen müssen weggehen können und dazukommen können, ohne dass die Funktionalität in Frage gestellt ist. 469 01:02:18,740 --> 01:02:40,700 Speaker 1: Und das ist, so wie ich dich verstanden habe, ja auch die Essenz von dem, was ihr sagt. Also lasst uns die Funktionalität in den Fokus setzen und nicht denjenigen, die sie gerade richtig effektiv abgeschafft haben, zuhören, ob das möglich ist oder nicht und ob das irgendwie vermeintlich Enteignung, irgendwas bedeutet. Man sagt ja nur, haltet euch doch an die Spielregeln, die sonst auch gelten. 470 01:02:40,920 --> 01:02:55,320 Ich würde es nochmal anders, ich glaube es geht tatsächlich sogar noch weiter. Die Tech-Konzerne haben quasi ein Märchen erzählt, dass ihre Produkte einfach so super cool sind, deswegen verwenden die alle und Regulierungsspielverderberei. 471 01:02:55,900 --> 01:03:22,080 Was ich in dem neuen Buch mache, ist, dass ich zeige, das ist Bullshit. Diese ganzen Monopole basieren auf Rechtsprivilegien. Und da kann ich auch nochmal ganz viele Sachen nennen, die ich schon angesprochen habe. Also Intermediärs Privileg ist ein Rechtsprivileg. Das Haftungsprivileg ist ein Rechtsprivileg. Das Straftatenprivileg ist ein Rechtsprivileg. Das Instrumentalisierungsprivileg, dass Musk hier Werbung für die AfD machen darf. 472 01:03:22,480 --> 01:03:42,420 Das Monopolprivileg, das Einsperrprivileg, das sind alles Rechtsprivilegien. Das heißt, ich demaskiere das und zeige, das hat nichts mit deren tollen Produkten zu tun, sondern ehrlich gesagt, das waren Rechtsprivilegien und Vorzugsbehandlungen, die wir ihnen eingeräumt haben. Das haben wir selber geschaffen. Es ist doch das Einfachste, ihnen diese Privilegien zu nehmen. 473 01:03:43,180 --> 01:04:03,860 Und dann merken wir, hat es einen ganz anderen Geschmack. Ich sage nicht, ich reguliere euch, ich bin der strenge Internetpolizist und jetzt werde ich euch zu verantworten, sondern ich werde einfach sagen, ihr habt das schlau gemacht, ihr habt die westlichen Gesellschaften dazu gebracht, euch ein halbes Dutzend ganz schreckliche Privilegien zu geben, ohne die eure Monopole sofort zu Staub zerfallen würden. 474 01:04:04,000 --> 01:04:17,140 Und diese Privilegien, ähnlich wie mit den absolutistischen Monarchen, die nehme ich euch ab. Eure Privilegien sind weg und damit seid ihr nicht mehr das, was ihr mal wart, eure Monopole zerfallen. 475 01:04:17,860 --> 01:04:39,780 Speaker 1: Und wir haben eine Sicherheit im digitalen Raum wiederhergestellt, dass sowohl die Qualität einigermaßen stimmt, weil wieder viele mitspielen dürfen, dass andere Anbieter, die eine bessere Plattform und Netzwerk anbieten, auch eine Chance haben reinzukommen und hoffentlich dann eben darüber hinaus auch, dass die Daten, die dort sind, nicht alle an einer Stelle gesammelt und sonst wohin meistbieten, verkauft werden. 476 01:04:40,100 --> 01:04:44,900 Und das Internet gehört wieder allen Menschen und nicht nur einer Handvoll Tech-Konzernen. 477 01:04:45,160 --> 01:04:47,800 Speaker 1: Ich glaube, ich bin dabei. Ich würde mitgehen bei dieser Autopie. 478 01:04:47,800 --> 01:04:49,900 Super, liefst du mit? Alles klar. Sehr gut. 479 01:04:51,620 --> 01:04:52,460 Speaker 1: Vielen Dank, Martin. 480 01:04:52,900 --> 01:04:53,280 Danke dir. 481 01:04:58,760 --> 01:05:00,600 Speaker 1: So, vielen herzlichen Dank fürs Zuhören. 482 01:05:00,980 --> 01:05:04,800 Speaker 1: Neudenken ist ein Projekt von Mission Wertvoll, einem Science Society Netzwerk, 483 01:05:05,000 --> 01:05:08,860 Speaker 1: das sich den Chancen und Wegen in eine nachhaltige Zukunft verschrieben hat. 484 01:05:09,220 --> 01:05:11,400 Speaker 1: Wie wir dahin kommen, das werden wir gemeinsam herausfinden. 485 01:05:11,520 --> 01:05:15,660 Speaker 1: und deshalb freuen wir uns über eure Aufmerksamkeit, aber auch über Feedback oder Wünsche, 486 01:05:16,080 --> 01:05:21,740 Speaker 1: welche Themen ihr mal neu denken möchtet oder welche Gäste ihr dafür besonders prädestiniert fändet. 487 01:05:21,960 --> 01:05:28,160 Speaker 1: Wir haben dafür eine E-Mail-Adresse eingerichtet, die heißt neudenken.mission-wertvoll.org. 488 01:05:28,760 --> 01:05:30,400 Speaker 1: Hoffentlich bis auf ein nächstes Mal.