• Zur Hauptnavigation springen
  • Skip to main content
  • Zur Hauptsidebar springen
  • Zur Zweit-Sidebar springen
  • Zur Fußzeile springen

daniel fienes weblog

  • Startseite
    • Meine Link-in-Bio-Seite
    • Deep Dives
  • Meine Angebote
    • Was mit Medien
    • Style & Stitches
    • Podcasting.fm
  • Meine Themen
    • Podcasting
    • Medienwandel
    • Audience Engagement
  • Mein Kiosk
  • Für dich
    • Kontakt
    • Profil / Bio / Foto
    • Newsletter
    • Workshops & Kongresse
    • Talks & Interviews
    • Radio & Podcasting
    • Bücher & Kolumnen
    • Datenschutzerklärung
    • Impressum
Aktuelle Seite: Startseite / Startseite / Warum im Radio immer die gleiche Musik gespielt wird

Warum im Radio immer die gleiche Musik gespielt wird

7. Januar 2018 von Daniel 40 Kommentare

Foto: Shutterstock / Dark Moon Pictures

In der Facebook-Gruppe „Du bist Düsseldorfer, wenn ….“ ist mir folgendes Posting aufgefallen:

…Du Dir auf Antenne Düsseldorf immer wieder dieselben 7 Songs anhören musst. Rauf und runter. Der eine braucht Luft und die Zweite singt wie eine Ziege. Phil Collins und James Blunt wohnen in einer Zweier-WG mitten im Studio. Wir sollten alle was sammeln, um dem Sender endlich eine 2. CD zu kaufen. 😣 – Link

Für das Posting gibt es viele Likes und viele Kommentare. Ich kann viele Punkte aus Sicht der Hörer im ersten Moment nachvollziehen. Aber ich bin auch auf viele Aussagen und Vorurteile gestoßen, die einfach falsch sind. Vielleicht erklären Radiosender nicht gut genug, warum die Musik so gespielt wird, wie sie gespielt wird.

Vor zehn Jahren habe ich meine Ausbildung zum Redakteur (Volontariat) bei Antenne Düsseldorf gemacht. Seit einigen Jahren bin ich zur Rheinischen Post gewechselt, moderiere aber noch weiter montags die „Sendung mit dem Internet“. Ich bin aber auch im öffentlich-rechtlichen Radio unterwegs und habe viele andere Privatsender gesehen. Während meiner Ausbildung hatte ich ein sehr gutes Seminar bei der Musikchefin eines großen Berliner Privatradios. Dort habe ich sehr viel über Musikplanung gelernt. Das Prinzip ist bei allen großen Sendern gleich – auch wenn sie sich in Details unterscheiden. Was ich gelernt habe: Was aus der Sicht des einzelnen Hörers vielleicht keinen Sinn macht, macht aber aus Sicht der gesamten Hörerschaft Sinn.

Ich möchte gerne ein paar Behauptungen aus der Facebook-Diskussion kommentieren. Ich glaube andere Radiokollegen -egal ob öffentlich-rechtlich oder privat kennen die gleichen Kommentare. Die Sendernamen hier im Blog lassen sich durch jeden größeren Sender austauschen. Das ist natürlich kein offizielles Statement eines Senders, aber ich denke ich kann so der Diskussion etwas helfen:

  1. Warum „Du Dir auf Antenne Düsseldorf immer wieder dieselben 7 Songs anhören musst.“
    Die Kurzantwort auf die Frage nach der Musik im Radio lautet: Es entscheiden gar nicht die Musikredakteure mit ihrem privaten Musikgeschmack, welche Musik im Radio läuft, sondern die Hörer. Die Musikredaktionen geben immer wieder umfangreiche Abfragen in Auftrag. Marktforscher rufen dann im Verbreitungsgebiet des Senders an und spielen Titel vor: Neue Titel, Titel die bereits gespielt werden, Titel die nicht mehr gespielt werden. Es wird die Akzeptanz abgefragt. Dabei geht es nicht nur um die Beliebtheit, sondern auch um Faktoren wie die Wahrscheinlichkeit ob bei dem Song umgeschaltet wird. Oder welcher Song / Interpret mit einem Sender verbunden wird (siehe Punkt 6). Aus den Ergebnissen legen die Musikredakteure fest, welche Songs gespielt werden sollen. Welcher Song und wie häufig ein Song gespielt wird, hat also etwas mit der Akzeptanz durch die Gesamtheit der Hörer zu tun — damit möglichst viele Menschen, möglichst lange dabei bleiben.
  2. „Das und auch nur das is der einzige Grund, weshalb ich kein Radio mehr höre. Teilweise wurde ein Song 6 x am Tag gespielt.“
    Was ich rund um das Thema Musik im Radio gelernt habe: Fakten und die gefühlte Wahrheit stehen meist stark im Widerspruch. Bei Antenne Düsseldorf wurde ein Song maximal zweimal am Tag in der Hauptsendezeit zwischen 06 und 18 Uhr eingeplant. Die meisten Sender haben ähnliche Grenzen. Trotzdem haben Hörer oft das Gefühl, ein Song wird häufiger gespielt. Das hat etwas damit zu tun, dass man als Hörer bestimmte Songs mit einem Sender verbindet (siehe Punkt 4). Wenn mich ein bestimmter Song nervt und ich diesen Song über den Tag auch mal bei anderen Sendern gehört habe, dann können zwei Dinge passieren: Ich zähle den Song unterbewusst dem Sender zu, mit dem ich diesen Song verbinde, oder ich denke beim nächsten Mal, wenn der Radiosender den Song spielt „nicht schon wieder“ auch wenn der Sender den erst das erste Mal an dem Tag spielt.
  3. „Nicht nur bei Antenne Düsseldorf läuft immer die gleiche Musik in Dauerschleife. Zuletzt bei WDR 2 habe ich das gleiche Lied innerhalb von 2 Stunden 3 mal gehört. Wenn man das auf einen 8 Stunden Arbeitstag hochrechnet, würde das immer gleiche Lied in dieser Zeit bis zu 12 mal gespielt werden. Eine grausige Vorstellung. 😠“
    Musikplanung ist eine richtige Kunst. Es müssen ganz unterschiedliche Hörertypen bedient werden. Es gibt einmal die Dauerhörer, die viele Stunden am Tag hören, die Länge variiert aber meistens. Dann gibt es Hörer die nur eine kürzere Zeitspanne hören, aber dafür jeden Werktag zur gleichen Zeit. Zum Beispiel zwischen 07:35 Uhr und 08:10 Uhr auf dem Weg zur Arbeit. Andere hören von 06:30 Uhr bis 06:50 Uhr. Es gibt Musiktitel die von den Hörern erwartet werden (siehe Musikabfragen bei Punkt 1). Die Kunst ist es, dass im Laufe der Woche diese aus Hörersicht Pflicht-Titel mal in der 07-Uhr-Stunde auftauchen zu lassen und mal in der 06-Uhr-Stunde und am Besten auch so, dass es die Langzeithörer nicht nervt.
  4. „Is doch überall so. Zwischendurch mal wechseln oder damit leben.“
    Wenn es nur um die Musik geht, ist das der größte Fehler, den man machen kann. Ich verstehe Leute nicht, die bei jedem Song im Radio umschalten, den sie nicht mögen. Das ist zu kurz gedacht: Dann ist die Chance sehr groß, dass dieser Song bei dem anderen Sender eher wieder gespielt wird, als bei dem alten Sender. Denn dort wurde er ja gerade erst gespielt. Es gibt noch einen weiteren Grund: Man verbindet bestimmte Titel mit einem Sender (siehe Punkt 2). Wenn man den Titel dann bei einem anderen Sender hört, dann kann es passieren, dass man unbewusst den Song einem anderen Sender zu schreibt, oder genervter ist, wenn man den dann dort auch wieder hört.
  5. „Ich denke, dass die Radiosender am häufigsten die Musik spielen, für die sie von den diversen Musikverlagen, Plattenfirmen und Künstlerargenturen das meiste Geld erhalten.“
    Das ist definitiv falsch! Wenn Radiosender anfangen würden Geld von Plattenfirmen zu nehmen und die Plattenfirmen dafür die Playlisten planen würden, dann würden uns ganz schnell die Hörerzahlen einbrechen — weil Musik eben ein so sensibles Thema ist. Damit würden auch ganz schnell die anderen wichtigen Werbegelder einbrechen. Oder anders ausgedrückt: Es ist das bessere Geschäftsmodel auf Werbung zu setzen und nicht auf die Musikbranche von ethischen Motiven mal abgesehen.
  6. „Andreas Burani hat glaube ich auch einen Vertrag mit Antenne, so gut er auch ist aber 5-8 mal am Tag verleidet einem jeden Sänger“
    Andreas Bourani (mit o) hat keinen Vertrag mit Antenne Düsseldorf der vorgibt wie oft er am Tag gespielt wird (siehe Punkt 1). Aber anscheinend haben die NRW-Lokalradios einen guten Job gemacht, die Titel von Andreas Bourani mit dem eigenen Sender zu verbinden. Wenn Titel ganz neu eingeführt werden, werden diese extra erwähnt. Wie zum Beispiel „Neu für den Sektor“ bei 1Live.
  7. „Die Musik auf WDR 2 ist schon lange dem Rotstift zum Opfer gefallen, die Musikredaktion jedenfalls kann man nicht für die dauernde und dauerhafte Wiederholung völlig belangloser Songs loben.“
    Meine These: Ich glaube WDR2 (und die anderen Musikwellen) geben deutlich mehr für Musik aus, als noch vor einigen Jahren. Die WDR-Wellen müssen inzwischen sehr viel Geld für die Musikforschung ausgeben. Die Sender sind sehr gut aufeinander abgestimmt, sodass die Wellen zusammen möglichst viele Hörer erreichen können. Da hat es der WDR deutlich einfacher, als der NRW-Lokalfunk. Die Lokalradios können nur mit einem Musikprogramm um die Hörer werben können.
  8. „Die Playlists erstellen Agenturen, die kassieren auch reichlich und es gibt Listen von Stücken die gespielt werden müssen damit ihr auch brav das vorgesehene kaufft. Der WDR Hat genügend Geld.“
    Die Playlisten werden von Musikredaktionen erstellt. Das machen keine externen Agenturen. Siehe Punkt 5.Jetzt kommen ein paar Punkte, die sich auf Nordrhein-Westfalen beziehen:

     

  9. „Aber kommt die nicht meist aus der Zentrale der Lokalradios in OB ? Wenn du mal die Sender durchläufst hörst du dort, auf Neandertal und auf NE die gleiche Musik. Nur evtl mit anderen Kommentatoren.“
    Guter Punkt: Warum läuft auf den Lokalradios in NRW die gleiche Musik. Die Zentrale in Oberhausen in Radio NRW ist in Wirklichkeit ein Dienstleister, auf den sich die Betreiber der Lokalradios in NRW geeinigt haben. Es gibt Dinge, die muss nicht jeder Sender selber machen: Nicht alle 45 Lokalradios müssen einen Reporter im Landtag haben. Es reicht auch wenn das ein Reporter für alle Stationen macht. Dafür gibt es dann mehr Kapazitäten für Reporter die im eigenen Ort recherchieren und arbeiten. So ist das auch mit der Musik: Gute Musikforschung und Planung sind teuer (siehe Punkt 1). Deswegen wird das auch gemeinsam gemacht. Die Erfolge beim Hörer hat man aber nur, wenn man die Musik möglichst gut über den Tag und über die Woche verteilt (siehe Punkt 3). Wenn jeder Sender spielen würde, was er wollte, könnte man sich nicht die Musikforschung sparen. Die Hörerzahlen würden sofort einbrechen. Noch ein Punkt zu Radio NRW: Dem Dienstleister gehören die Lokalradios nicht.
  10. „Antenne Düsseldorf, unser Lokalsender, sollte aus diesem Radioverbund austreten, sich erheben und laut schreien : ‚Nein !!! Wir spielen keinen Blunt und keinen Collins mehr. Wir haben Luft genug und geben unseren Hörern, was sie wirklich hören wollen !'“
    Ich fürchte die bittere Wahrheit ist: Antenne Düsseldorf würde dann seine Marktführerschaft verlieren. Es gibt ja beispielsweise auch den Bürgerfunk: Dort läuft ganz andere Musik. Was andere Hörer mir immer sagen: Sie finden den Bürgerfunk grundsätzlich gut, schalten aber doch ab, weil sie die Musik nicht mögen.
  11. „Ist ausserdem kein Stadtsender sondern gehört zu einer Kette. Ist eher wie Aldi-Radio. Und das die an der Musik sparen ist doch logisch. Die Moderatoren sind übrigens nicht angestellt, sondern Freiberufler…ich höre die jedenfalls nicht.“
    Richtig ist: Antenne Düsseldorf ist kein Stadtsender (wohl für die Stadt, aber nicht von der Stadtverwaltung). Antenne Düsseldorf gehört auch nicht wirklich zu einer Kette. Der Sender ist zwar Teil des NRW-Lokalradio-Netzwerkes, aber das sind Geschäftspartner und keine Kette wie Aldi-Süd oder Aldi-Nord. Jedes Lokalradio besteht aus einer Veranstaltergemeinschaft (das ist ein Verein!) und einer Betriebsgesellschaft, hinter der meist regionale Verlage stecken. Bei Antenne Düsseldorf sind übrigens viele Moderatoren fest angestellt. Beim WDR ist das abder anders: Die bekannten Stimmen dort sind mehrheitlich Freiberufler.
  12. „Warum kann eine reiche Stadt wie Düsseldorf nicht einen wirklich-lokalen-unabhängigen Sender betreiben ? Für die Tour de France war doch auch genug Kohle übrig ? Auch wenn das Beispiel etwas hinkt.“
    Ganz ehrlich? Wenn die Stadt Düsseldorf einen Sender betreiben würde, dann gäbe es dort nur Jubelmeldungen und keine Kritik. Wer sich den Nachrichtenbereich auf Duesseldorf.de oder in der offiziellen Stadt-App anschaut, der findet dort zwar Infos zu Sperrungen oder wenn es gute neue Dinge gibt — aber wenn es im Rat Kontroversen zum Beispiel über die Finanzpolitik der Stadtspitze gibt, dann sucht man die dort vergebens. Ich persönlich halte das Rundfunk-Modell in NRW für eins der unabhängigsten, die in unserem Mediensystem möglich sind. Die Journalisten eines Lokalradios sind bei keinem Konzern, sondern bei einem unabhängigen Verein angestellt (siehe Punkt 11). Die Mitglieder des Vereins sind Privatpersonen, die von gesellschaftlich relevanten Gruppen benannt werden. So entsteht sogar eine Unabhängigkeit von den örtlichen Verlegern.
  13. „Antenne hat leider keinen Einfluss auf die gespielten Songs. Diese werden von Radio NRW vorgegeben. Und da diese auch ein Monopol auf Privatsender haben, wird sich da leider nichts ändern. Neue Privatsender sind nämlich nicht erwünscht. In anderen Bundesländern sieht das ganz anders aus!“
    Habt ihr euch mal die Privatrundfunklandschaft in anderen Bundesländern genauer angesehen? Mehr Privatradios heißt nicht unbedingt, dass die Musik unterschiedlicher wird. Aufgrund des entstehenden Kostendrucks da man sich den Werbemarkt ja aufteilen muss gibt es in den anderen Bundesländern landesweite Programme, die sich keine oder nur wenige Lokal- oder Regionalstudios leisten. Insgesamt arbeiten in diesen Bundesländern deutlich weniger Hörfunk-Journalisten vor Ort.
  14. „Denen man nichtmal wiedersprechen darf. Da wird man mitunter von Antenne angeschrieben das ob bashing zu unterlassen wenn man Kritik übt.“
    Aus meiner Redaktionserfahrung weiß ich: Gegensätzliche Meinungen sind sogar ausdrücklich erwünscht! Leider können einige Hörermeinungen aber nicht vorgelesen oder abgespielt werden, wenn diese nicht sachlich, sondern beleidigend sind — oder sich anderweitig im Ton vergreifen.
  15. „Aber echt Antenne Düsseldorf ist wirklich total schlecht geworden immer diese Wiederholungen“
    Na, wer von den Kollegen aus der Branche hat „Bingo!“ gerufen? Der Satz stammt aus dem Automaten für pauschale Medienkritik. Ich muss immer etwas schmunzeln, wenn ich den lese.
  16. „Phil Collins und James Blunt wohnen in einer Zweier-WG mitten im Studio“
    Das ist nur die halbe Wahrheit. Andreas Bourani wohnt in der Zweier-WG noch zur Untermiete 😉

Ich kann die Kritik an der Musikauswahl eines Radiosenders verstehen. Aber eine Wette: Wenn alle Kritiker aus der Facebook-Diskussion ihre Lieblingstitel auflisten würden, finden wir mehr Unterschiede als Gemeinsamkeiten. Ihre einzige Gemeinsamkeit ist die Kritik an der Musikauswahl des Radios. Ich bin aber auch froh, dass es diese Kritik gibt. Wie schlimm wäre es, wenn bei jedem Song eines Senders alle Beifall klatschen würden.

Es gibt aber eine Menge Leute die Tag für Tag gerne ihr Radioprogramm einschalten. In Deutschland wird noch immer sehr, sehr, sehr viel Radio gehört. Auch wenn man als Wort-Redakteur manchmal die eigene Arbeit als das Maß aller Dinge hält, muss ich zugeben: Das liegt auch an der professionellen Arbeit der Musikredaktionen.

Foto: Shutterstock / Dark Moon Pictures

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Startseite, Was mit Medien

Am Thema dran bleiben?

Hol‘ dir Daniels persönlichen Newsletter — dann erfährst du, wenn es neues gibt und bekommst zum Start in die neue Woche Inspiration für deine Arbeit mit dem Web.

Über Daniel

Media Creator und Journalist mit Schwerpunkt Digitales und Medienwandel. Sowie Digitalstratege für Medien, Podcasting und Audience Engagement. Kann ich bei einem eigenem oder redaktionellem Projekt unterstützen?

Leser-Interaktionen

Kommentare

  1. Olaf meint

    7. Januar 2018 um 16:14

    Vielen Dank für Deine professionelle Erklärung, der unterschwelligen Wahrnehmung von uns Radiohörern. Sehr gut erklärt und geschrieben. Da kann man nur den Hut ziehen.
    Olaf Wegner

  2. daniel meint

    7. Januar 2018 um 17:36

    Lieber Olaf, vielen Dank – das freut mich sehr! Da aht sich die Mühe ja gelohnt. Lieber Gruß, Daniel

  3. Marco meint

    7. Januar 2018 um 19:53

    Hallo Daniel, bis vor ein paar Jahren hätte ich in den Klagechor miteingestimmt. Aber ich musste leider feststellen, dass mein Musikgeschmack nicht massentauglich ist. Meine Arbeitskollegen lieben einfach die Musik von Radio WMW (unser Antenne Düsseldorf), selbst meine Kinder finden mit Abstrichen die Musik gut. Wenn ich eine andere Musikfarbe möchte, gibt es in NRW einige Alternativen. Da ist z. B. 1Live Plan B, oder DLF Nova, oder auch WDR Cosma zu nennen. Außerdem gibt es in Zeiten von Internetradio mehre Alternativen. Ich höre sehr gerne reine Wortprogramme unterbrochen von dem Anhören meiner eigenen Spotify/Deezer Playlist.

    Viele Grüße Marco

  4. Ferienwelle meint

    8. Januar 2018 um 10:31

    Der wirkliche Grund ist , die öffentlich rechtlichen Sender in Deutschland müssen für jeden Song GEMA Gebühren bezahlen , die Privaten nicht . Musikredakteure gibt es schon lange nicht mehr , die Kosten ja Geld . Also nimmt man einen Stick mit 1000 Songs die angeblich gefragt sind und spielt diese im Zufallsmodus jeden Tag ab . Noch billiger kann Radio machen von Flensburg bis Garmischt doch nicht sein .

  5. Daniel meint

    8. Januar 2018 um 10:32

    Zum Glück gibt es Dank der Kollegen und Kolleginnen von Byte/Ego/radio1 und FluxFM noch Alternativen, bei denen nicht die Masse bestimmt was läuft, sondern wirklich Musikredakteure ((So viel zu Punkt 1) – also Leute, die von guter Musik wirklich etwas verstehen und bei denen abseits des Mainstreams Künstler/innen gespielt werden, die es bei anderen Formaten niemals durch Hörerabfragen schaffen würden.

  6. Wolfgang Ferencak meint

    8. Januar 2018 um 12:32

    Nun lieber Daniel, es freut mich das du dich so intensiv mit der gängigen Form, der Musikplanung beschäftigt hast. Als gelernter Musikredakteur stimme ich deiner Beschreibung zu. Jedoch bin ich auch analytisch tätig, hier muss ich dich auf einige Dinge hinweisen, die selbst „erfolgreiche“ Sender nicht berücksichtigen. Zum ersten ist Musicresearch nur bedingt zur Ermittlung von Hörervorlieben geeignet, da es wissenschaftlich keine Belege für tragfähige Ergebnisse gibt (siehe dazu die Studie von Holger Schramm, Peter Vorderer, Annekaryn Tiele and Simon Berkler; Thema „Music Tests in Commercial Radio Research“) hier wird unter wissenschaftlichen Bedingungen die These widerlegt, das Music Research in der dort praktizierten Form (Auditoriumstest) funktioniert. Anders sieht es mit Burn Out Studien aus die Aufschluss darüber geben wann Song seine Akzeptanz für den Hörer verliert und er aus der aktuellen Rotation genommen werden muss. Insofern ist diese Form der Musikforschung durchaus eine Geschäftsmodell, das von einigen wenigen Researchfirmen angeboten wird, die es verstanden haben ihre Dienstleistung als unverzichtbar zu positionieren. Hier wird viel Geld verdient, mit freundlich gesagt, fragwürdigen Ergebnissen. Zudem ist es auch durchaus unterschiedlich inwieweit und in welcher Form diese Ergebnisse ins Programm einfliessen. Weil du den Berliner Markt ansprichst, rs2 hat trotz siebenstelliger Investitionen in Research und Beratung zwischenzeitlich schon einmal fast die Hälfte der Hörer verloren, warum? Wenn Musik Haupteinschaltfaktor ist, der Research korrekt durchgeführt und die Ergebnisse akkurat umgestzt wurden? Und ja es wird an Manpower in der Musikredaktion gespart, bei der RTL Gruppe in Berlin kümmert sich ein Musikredakteur um alle Programme. Was bei einer Rotation von 200-400 Titeln, je nach Format, nicht schwer ist. Wirklich erfolgreich Musicresearch betreiben übrigens gerade Amazon, Spotify, Google und Co. Deren Verkaufsschlager Alexa oder Google Home ermöglichen den Internetriesen Zugriff auf unsere individuellen Musikvorlieben, mit dem Ergebnis das in kürzester Zeit Algorithmen bessere virale Angebote für jeden Nutzer erstellen werden als dies einem Musikredakteur möglich ist. Also ist es an der Zeit darüber nachzudenken, wie wir als Radio dagegenhalten können, meine These lautet, immer stärker reduzierte Playlists können nicht die Antwort sein 😉 Ich finde das Music Research ein Hilsmittel sein kann jedoch nicht, wie viel zu häufig praktiziert, Musikredaktion erstzen kann.
    PS kann dir ein Abstract der Studie gerne zukommen lassen, sie wurde übrigens Mitte der 2000er wiederholt mit deckungsgleichen Ergebnissen.

  7. Norman Osthus meint

    8. Januar 2018 um 13:19

    Hallo, Daniel!

    Interessante Lektüre. Ich könnte jetzt zu vielen Punkten etwas schreiben, aber dann wäre der (Arbeits-)Tag vorbei 😉

    Somit beschränke ich mich mal auf den Punkt 4. Dort heisst es:
    „Dann ist die Chance sehr groß, dass dieser Song bei dem anderen Sender eher wieder gespielt wird, als bei dem alten Sender. “
    => Und da liegt doch zumindest ein Hase im Pfeffer.

    Wenn ein Sender beispielsweise die „Simple Minds“ auf ihr „Don’t you (forget about me)“ limitiert (oder Madness auf „Our House“, die Liste ist unendlich…), dann ist das wohl so, wie du schreibst. Wenn ich aber auf dem einen Sender Hit Nr.1 der Simple Minds höre und auf dem anderen Sender mal den etwaigen zweiten Hit (und es gibt viele), dann wäre mir das deutlichst recht…
    Doch es sind immer die immergleichen 08/15-Songs, die sich von Sender zu Sender erstrecken – und nur selten gibt es mal positive Ausreisser. Wenn doch, dann erst nach 21 Uhr…

    Das finde ich so unendlich schade, dass verdiente Bands und Künstler oftmals auf einen oder zwei Songs limitiert werden, die dann wiederum von vielen Sendern auch noch verstümmelt werden, damit sie ja ins Schema passen. Das ist das, was ich dem heutigen Mainstream-Musikradio am allermeisten vorwerfe…

    Gruss aus Gütersloh!

  8. Jrgen Kauer meint

    8. Januar 2018 um 13:34

    Die quälend andauernde Kritik am Formatradio (= formatiertes Musikradio) nervt. Das kann sich die Generation des Überflusses leisten, die von allem genug hat und davon noch zu viel.

    Mal davon abgesehen, dass privates Musikradio marktwirtschaftlichen Regeln folgt, um erfolgreich zu sein. Ich sehe Musikradio im historischen Kontext. Zu Beginn meiner musikalischen Sozialisation gab es (wenn überhaupt) ein x pro Tag eine Radiosendung, die die Musik spielte, die wir hören wollten. Die Babyboomer und die direkt nachfolgenden Kohorten wären damals glücklich gewesen, hätte es die Mainstream-Musikradios von heute damals schon gegeben. Die mussten auf AFN, BFBS etc. ausweichen.

    Heute gibt es die Dauerberieselung mit dem Mainstream und die Hörerzahlen zeigen, diese wird goutiert. Die heutige Kritik am Formatradio ist meckern auf hohem Niveau.

    Ich kann mit dem heutigen Mainstream in der Musik nicht mehr viel anfangen. Heute habe ich aber im Vergleich zu früher, zig Möglichkeiten via Radio (UKW, DAB+, Internet) meine Musiklust auszuleben.

    Musikradio im 21. Jahrhundert wie geil ist das!

  9. Dirk meint

    8. Januar 2018 um 18:24

    Man kann schon lange kein Radio mehr hören in NRW, egal, ob Lokalfunk oder WDR.
    Ich weiche schon lange zu den Holländern und Belgiern aus, die können wenigstens Radio und Abwechslung !
    Auf DAB+ höre ich das Schwarzwaldradio und komischerweise hat genau der Sender immer mehr Zuhörer, die fast durchgängig alle dasselbe sagen und schreiben : ENDLICH mal ein Sender, der nicht immer nur den besten Mix mit den besten Hits spielt.
    Und sorry, dass Sie Ihr Metier hier verteidigen und versuchen, zu erklären, ist nachvollziehbar, das würde jeder tun, aber vielleicht sollten Sie auch erwähnen, wem Antenne Düsseldorf gehört, nämlich Ihrem Arbeitgeber, der Rheinischen Post, genauso wie NE-WS 89.4, Radio, Neandertal, Welle Niederrhein, Radio 90,1…..
    Und von Unabhängigkeit kann auch keine Rede sein, die Rheinische Post ist politisch alles andere als unabhängig oder neutral.
    Der angesprochene Verein (Veranstaltergemeinschaft) ist ebenfalls alles andere als neutral, besteht er doch in jeder Stadt aus hohen Leuten aus Kirche, Kultur, Wirtschaft und natürlich Politik, die von Radio nicht die geringste Ahnung haben.
    Die Marktführerschaft würde Antenne Düsseldorf auch nicht verlieren, wenn endlich mal mehr Abwechslung laufen würde, ich denke es wäre sogar umgekehrt und verlorene Hörer kämen zurück, denn nur gutes Radio hält die Marktführerschaft, was als einziger Lokalsender in der Stadt natürlich auch nicht sonderlich schwer ist, da ja auch politisch Konkurrenz mit allen Mitteln verhindert wird, wie Sie es ja auch erwähnt haben.
    Ein Beispiel hierzu ist die (überflüssige) UKW-Frequenz 91,50 MHz in Heerdt.
    Da haben es sich vor längerer Zeit doch einige Leute erdreistet, ein zweites Lokalradio für Düsseldorf aufmachen zu wollen (übrigens ist Konkurrenz die perfekte Voraussetzung, um sich mal wieder Mühe im Programm zu geben), alle Voraussetzungen nach dem 2-Säulen-Modell (VG+BG) waren erfüllt und plötzlich nach über 20 Jahren !! fällt Antenne Düsseldorf auf, dass ja angeblich im Raum Heerdt Empfangsprobleme bestehen würden.
    Folge : nach aktuellem Recht hat der bestehende Lokalfunk als Erstes Anspruch auf freie Frequenzen bei Empfangsproblemen und die 91,50 MHz zugewiesen bekommen.
    Schwups, schon war eine möglich freie Frequenz für die Konkurrenz verbrannt.
    Es ist ja schon mehr als bezeichnend, dass die 91,50 MHz noch nicht einmal auf der Homepage von Antenne Düsseldorf auftaucht.
    Um es kurz zu machen :
    Für mich ist dieses verlogene Modell schon lange tot, und es wird auch weiter seinen Tod sterben, denn im heutigen digitalen Zeitalter hat man die Möglichkeit, sich seine Musik selbst zusammenzustellen und muss sich eben nicht mehrmals jeden Tag James Blunt, Bourani und Co. geben.
    Denn genau das wird immer mehr Hörer abwandern lassen, was die formatierte Radiolandschaft aber auch heute selbst schuld ist, wenn diese ihr eintöniges eigenes Medium immer mehr in den Ruin treibt.

    Ich hoffe, Sie fühlen sich hiermit nicht angegriffen, das ist wahrlich nicht meine Intention, aber ich finde, es muss auch mal nicht nur Erklärungsversuche und Lobhudelei geben, sondern auch mal meiner Meinung nach begründete Kritik an einem immer weiter kränkelnden System.
    Freundliche Grüße aus Meerbusch

  10. Dirk meint

    8. Januar 2018 um 18:55

    PS : Ein Kommentar sei noch erlaubt :
    was der Hörer braucht, ist einen „Wow-Effekt“.
    Den bekommt er aber bei der immer gleichen Musik nicht wirklich, eher bei Schätzchen die man schon lange nicht mehr gehört hat, bei Abwechslung eben.
    Freundliche Grüße aus Meerbusch

  11. Jan Petersen meint

    8. Januar 2018 um 19:00

    Hallo Daniel

    Schön zu sehen, auch in den Kommentaren hier bislang, dass es doch noch Menschen gibt die das System Radio verstehen und die Vorgehensweise dahinter sehen und vor allem diese auch mal nach außen tragen.

    Ich selbst bin seit 17 Jahren im Radio unterwegs und aktuell bei Weltmarktführer für Sendeplanungs- und Playoutsoftware beschäftigt – da erlangt man auch das ein oder andere Wissen.

    Vielleicht noch ergänzend – der Durchschnittshörer hört 15 bis 20 Minuten Radio am Stück – die Kunst der Planung ist es, zu jeder Zeit des Tages in einem Block dieser Zeit nur die Sings zu packen die den Sender wirklich ausmachen. Und hier kommen dann die Redakteure zum Einsatz das Regelwerk der Software (Um die von dir dargelegten Wiederholungen zur gleiche Tageszeit zu vermeiden), die Library und Kategorisierung (Wann sollte Song X in einer Kategorie mit niedrigerem Turnover verschoben werden?) und die Zielgruppe ( Wen will der Sender wirklich ansprechen?) im Auge zu haben.

    Das erinnert an das magische Viereck der Wirtschaftlehre – teilweise gegensätzliche Ansprüche miteinander in Balance zu bekommen und vor allem dauerhaft zu halten…

    Grüße

  12. Ferienwelle meint

    9. Januar 2018 um 12:50

    Wenn es nach Hörerumfragen geht , wer ermittelt die ? Also ich selber oder meine Verwandten und Bekannten haben noch Nie ein Anruf zur Ermittlung des Radiohörverhaltens bekommen . Diese Umfragen und Ergebnisse sind Fiktionen !!! Wie immer mal über den Tellerrand schauen , wie machen unsere Nachbarländer Radio . Kritik ist eine Kunst sie zu verstehen . Also muss ich dann wohl doch Dannmarks Radio 4 weiter hören .

  13. Gnter Fink meint

    11. Januar 2018 um 05:13

    Dudelradio heute, heisst EINFALT statt VIELFALT. Die Musikprogramme heute lassen ( im Tagesprogramm!) Neuerscheinungen vermissen. Überhaupt fehlen Überraschungselemente.
    Musikprogramme dürfen heute nur noch durchgehend als Begleitprogramme konstruiert sein. Es könnte ja jemand um – oder ausschalten.,Da stelle ich mir doch lieber mein eigenes Musikprogramm zusammen. In den Funkhäusern geht heute die nackte Angst um. Ich habe als Moderator und Redakteur bei NDR 2 gearbeitet. Ich bin dort ausgestiegen, um nicht – wie die Hörer – selbst auch noch zu verblöden.
    Wobei, die Hörer sind nicht blöd. Es sind die Macher der Musikprogramme.
    Aber, keiner muss sich die Musiktapeten ja anhören.

  14. DirkNB meint

    11. Januar 2018 um 10:13

    @Ferienwelle Auch Privatradios zahlen GEMA/GVL, sogar die Bürgerradios/Offene Kanäle zahlen an GEMA/GVL, deine entsprechende Äußerung ist also falsch.
    Und die Hörerumfragen gibt es auch. nur, weil keiner aus deinem Umkreis je befragt würde, ist kein Indiz dafür, dass sowas nicht existiert. Ich bin bspw. schon öfter (>5) befragt worden.

  15. Saibert meint

    12. Oktober 2018 um 11:12

    Alle Kommentare gelesen!Es ist schade,dass so ein Sender wie Antenne Düsseldorf einem Sänger Mars(Marcel-Richard Saibert) einen Interview-Nachmittag mitClaudia Monreal widmet,sein neues Album vorstellt und ihn,als Düsseldorfer nicht ein einzigesmal spielt!Das nennen unsere Freunde nicht gerade eine Unterstütung für Newcomer!Viel Leute,Freunde und Bekannte haben sich über dieses Forum gefreut,aber,es bringt nichts,wenn die Musik nicht gespielt wird!Große Enntäuschung für den Sänger!Grüße an Antenne Düsseldorf aus Düsseldorf

  16. Saibert meint

    12. Oktober 2018 um 11:23

    Sorry für meinen vorigen Kommentar,den ich ohne Brille und mit iPad geschrieben habe.Da springen die Buchstaben,wie sie wollen!Trotzdem bleibe ich bei der Meinung,dass man Newcomer spielen sollte!
    Herzliche Grüße Saibert

  17. chrizz9999 meint

    30. November 2018 um 23:06

    Auch im Süden der Republik ist „Radio Deja-Vu“ aktiv.
    Bei der Arbeit höre ich seit Februar Tag für Tag den selben M…
    Ein Beispiel:
    „Liebe auf Distanz“ von Revolverheld, seit einigen Tage auf dem Markt, schafft es in Antenne Bayern von 07:00 bis 17:00 Uhr tatsächlich sieben (in Worten SIEBEN) mal!
    Entweder die Moderatoren hören andere Sender (was ich gut verstehen würde) oder die hören die eigene Sendung nicht.
    Antenne Bayern, „Bayerns bester Musikmix“ Ich trau mich nicht nach dem Zweitbesten zu fragen.

    Kiss Me von Rea Garvey wird auch nicht besser wenn man es zu Tode spielt.

    Darüber hinaus werden „unheimlich wichtige“ Reportagen bis zu x-mal angekündigt, unterbrochen von den kurzen, mehrfachen Ankündigungen durch Einspielungen der Titel die demnächst kommenwerden.
    Die Playlist auf der HP gibt nur einen Bruchteil dessen wieder was da tatsächlich gespielt wird.
    Ein Zitat eines Arbeitskollegen:
    „Sieben Milliarden Menschen leben auf diesem Planeten – fünf davon machen Musik“

  18. Stefan Lurte meint

    26. Dezember 2018 um 13:28

    Ich stand auch vor diesem Problem, ständig die gleichen Titel ob neu oder Oldies. Ich habe das Problem gelöst und mir ein Internet-Radio gekauft, jetzt habe ich etliche Stationen weltweit gespeichert die nahezu Not-Stop Music spielen und das auch mit weitaus weniger Unterbrechungen mit Werbung, Nachrichten und sonstigem sinnlosen Palaver. Ich höre Dutzende von Songs die ich hier seit vielen, vielen Jahren nicht mehr gehört habe. Bayern 3, Antenne Bayern und Radio Charivari sind für mich ab sofort Geschichte. Mein Lieblingssender ist Radio Retro Cebu 103,5 Philippines.

  19. Stefan Lurte meint

    26. Dezember 2018 um 13:28

    Ich stand auch vor diesem Problem, ständig die gleichen Titel ob neu oder Oldies. Ich habe das Problem gelöst und mir ein Internet-Radio gekauft, jetzt habe ich etliche Stationen weltweit gespeichert die nahezu Not-Stop Music spielen und das auch mit weitaus weniger Unterbrechungen mit Werbung, Nachrichten und sonstigem sinnlosen Palaver. Ich höre Dutzende von Songs die ich hier seit vielen, vielen Jahren nicht mehr gehört habe. Bayern 3, Antenne Bayern und Radio Charivari sind für mich ab sofort Geschichte. Mein Lieblingssender ist Radio Retro Cebu 103,5 Philippines.

  20. Alex meint

    16. Januar 2019 um 21:56

    willkommen im digitalen Zeitalter, wer es verpennt hat, kann jetzt einschalten. Frei nach Merkel „Das Internet ist fuer uns alle Neuland“.

    Die herkoemmlichen Radio Sender werden auch noch eines Tages merken das niemand die Dauerberieselung von einem Titel der x mal innerhalb eines Zeitblocks gespielt wird, mehr will..

    Heutzutage streamed man Musik selber, die andere zusammengestellt haben ohne nach irgendwelchen Statisiken zu gehen oder man hoert diese Streams.

    Da kommt Deutschland auch noch an..irgendwann…

  21. Neugierig meint

    26. Januar 2019 um 12:17

    Ich verstehe nicht, dass es bei einigen Sendern einmal im Jahr die von den Hörern gestaltete Hitparade gibt, in der dann Titel landen, die man sonst nicht hört oder Lieder sehr weit vorne landen und auch diese wandern nach Ende der Hitparade wieder im Keller bis zum nächsten Jahr. Warum geht der Sender auch hier nicht auf den wirklichen Musikgeschmack seiner Hörer ein????

  22. Daniela meint

    19. Februar 2019 um 13:40

    Vielen Dank für den ehrlichen Beitrag. Das ist leider ein sehr bekanntes Problem bei den großen öffentlich rechtlichen Radiosendern.
    Mit besten Grüßen,
    Daniela

  23. Siegfried Lackner meint

    6. Mai 2019 um 14:51

    Viele Radiohörer haben sich grundsätzlich von den öffentlich-rechtlichen Sendern zurückgezogen und boykottieren diese- die ARD sendet am Hörer vorbei! ARD-eigene Statistiken sind eindeutig geschönt und manipuliert! Bayern1 beispielsweise hat Hörer verloren und bekommt massenweise Proteste seit der Programmreform! Das Unverschämte ist, dass durch die GEZ, die der Hörer bezahlen muss, die unfähigen Programm-Chefs schalten und walten, wie es ihnen passt- AM HÖRER VORBEI! Der Radiohörer der ARD wird grundsätzlich als treudoofer Depp betrachtet! Schaut doch mal an, wie es anders geht: zum Beispiel alle ORF-Radiosender spielen ein anderes Radioprogramm- DAS, was der Hörer will! Viele ehemalige BR-Hörer sind zu Radio Salzburg abgewandert!

  24. Jakob van Tast meint

    4. Juni 2019 um 12:29

    Nun, den Hörern jetzt zu unterstellen sie würden das alles ganz falsch sehen ist doch zu billig. Offenbar empfinden ja doch sehr viele Hörer (ich auch) so. Demnach liegt das Research ja voll daneben und im Übrigen kenne ich keinen Menschen der mal befragt wurde (selbiges gilt auch für sonstige, angeblich ja repräsentative, Umfragen).
    Diese Antworten spiegeln eher die Arroganz der Sender wieder, nicht die Sender sind Mist, die Hörer sind es. Radiosender wollen und sollen Geld verdienen, ja. Aber da man ja bis auf wenige Ausnahmen mittlerweile auch bei den öffentlich rechtlichen Sendern mit Werbung bombardiert wird muss man sich nicht wundern dass die Leute eher zu iMusic, Spotify und Konsorten greifen.
    Ich habe im Büro den ganzen Tag lang das Radio laufen und habe jeden Tag dieses „Und täglich grüsst das Murmeltier“ Gefühl.
    Viele schalten das Radio bestenfalls noch wegen den Nachrichten, dem Wetter und den Blitzer-Warnungen ein. Ich steige jetzt auch auf Onlinedienste um. Denn Dein Beitrag hat mir deutlich gezeigt wie man den Hörer beim Radio sieht: Man nimmt ihn nicht ernst.

  25. Ruben Tilgner meint

    27. September 2019 um 22:45

    Da ich durch meinen Job sehr gut weiß wie heutzutage Musik produziert wird und Musiker bin, analysiere ich gerne die Songs, die gerade laufen.
    Hier meine Empfehlung an Musiker die im Radio gespielt werden wollen:

    1. Benutze nicht mehr als vier Akorde in deinem Song
    2. Verzichte auf verzerrte Gitarren
    3. Benutze kein echtes Schlagzeug in der Aufnahme
    4. Spannende E-Bass Läufe vermeiden
    5. Verzichte auf instrumentale Melodien
    6. Vermeide neue, ungewöhnliche Sounds
    7. Lass bloß keine Pausen im Gesang
    8. Benutze keine Instrumente die mit Mikrofonen aufgenommen wurden
    9. Sei keine Band
    10. Lass dich am besten von einem anderen Künstler featuren
    11. Mische den Track so, wie alle anderen Songs im Radio klingen
    12. Benutze Autotune
    13. Mastere deine Musik so laut wie möglich

    Also, bitte schön beachten für den Erfolg 😉
    Achtung – dies gilt nicht für Oldies aus den 70er/80er/90er

  26. corumeach meint

    8. Oktober 2019 um 08:26

    Interessanter Beitrag, aber leider in vielen Punkten an der Wirklichkeit vorbei. Bei allen Sendern steht Wirtschaftlichkeit ganz oben auf dem Programm, Diversität und Kreativität kommen leider viel viel später. Das ist der Grund für alle die „Probleme“ im modernen Radio und warum wir uns vor Werbung, lachhaften 1 Minuten Nachrichtensendungen und einer Music Rotation aus gefühlt 15 Songs nicht mehr retten können. Es gibt bei den größeren Sendern fürs junge Publikum KEINE moderierten Sendungen mehr (dieser produzierte Comedy-Mist a la Tanke Anke usw. zählt nicht, auch das inhaltslose Gefrotzel vieler Moderatoren-Duos am Morgen ist für mich keine Sendung).

    Dass das alles der Hörer selbst verschuldet glaube ich nur bedingt. Ja, die Masse will morgens vor der Arbeit nicht mit schweren Themen oder ihr völlig fremdartiger Musik belastet werden (1h afrikanische Musik morgens um 7.00 Uhr gefällig?). Das liegt an unserer immer engstirnigeren und oberflächlicheren Gesellschaft und Haltung. Genau da wäre es aber Aufgabe der Öffis Kontrastpunkte zu setzen (steht auch im Rundfunkvertrag), das Geld dazu haben sie ja sicher (GEZ), sind also nicht alleine auf Markterfolg angewiesen. Leider gibt es diese Überzeugung und diesen Arbeitsauftrag bei so gut wie keinem Sender mehr, da muss man schon ins Altherren-Radio wie Deutschlandfunk schalten. Die lächerliche Berichterstattung hatte ich schon erwähnt: Nachrichten von 1-4 Minuten Länge (Null Informationsgehalt, nur Schlagzeilen a la Bild raushauen, dafür aber teils jede halbe Stunde, damit der Werbeblock wieder zulässig ist). Mini-Beiträge von unter 5 Minuten in denen ein Thema benannt wird, aber niemals behandelt.

    Die Music Research Umfragen sind einfach unrealistisch. Wenn ich beliebigen Hörern (und es sind ja bereits Hörer, sagt jemand „NEIN ich höre schon lange kein Radio mehr, weil“, wird gerade dieser Hörer ja NICHT weiter befragt) beliebige Titel vorspiele, einmal die abgenudelten Ohrwürmer a la Collins und dann die aktuellen Radio Top Songs (Sweet but Psycho) und dann noch einen aktuellen Song von Madeline Juno oder BTS anbiete, was werden über 80% der Hörer wählen? Richtig – das was sie kennen. Das ist menschlich und auch der Situation geschuldet. Eine Befragung findet ja nicht statt, wenn sich jemand auf eine gemütliche Stunde Radio Hören einrichtet, sondern adhoc, also immer zur Unzeit. Fremdes/Neuartiges wird von den meisten Menschen reflexartig abgelehnt (Selbstschutz), es erfordert mehr um sich auf neue Welten einlassen zu können. Dieser Weg ist den Sendern zu mühselig, das erfordert mehr Personal, mehr Fein Tuning, produziert auch mehr Fehlentscheidungen. Man geht den sicheren Mittelweg, nimmt die sicherste Wette. Und spielt eben im Oktober schon 6 Mal am Tag Last Christmas. Weil es „die Hörer“ ja wollen.

    Man schaue mal in die Top-Charts der Streaming Portale, was die Masse so hört (inzwischen hören mehr junge Menschen Streaming Music als Radio). Ich bin da nicht begeistert und sehr froh, dass nicht 30 Mal am Tag Capital Bra und Apache 207 im Radio laufen, aber dass die dort NULL Mal gespielt werden ist unfair und stimmt nicht mit der Wirklichkeit überein. Dass Nachwuchskünstlern, gerade aus Deutschland keinerlei Plattform geboten wird im Radio ist ein kulturelles Armutszeugnis, egal ob Songwriter, Pseudo-Gangster-Rap oder Dubstep. Musik ist Vielfalt und Freiheit. Radio ist das inzwischen kleinste Schlüsselloch der Welt um mit Musik in Berührung zu kommen und Offenheit, Interesse und einen eigenen Geschmack entwickeln zu können (die Recommendation in Streaming Diensten ist da gleich an Platz zwei, die macht genau den gleichen Fehler).

    Dass man als Casual Hörer gefühlt den gleichen Song jede Stunde hört, egal ob man den Sender wechselt oder nicht, und das jeden Tag, ist ein Fakt, der nicht auf Einbildung beruht. Der Job eines Musikredakteurs beim Radio ist heute nicht herausfordernd, sondern eintönig und blutleer. Das Ganze ist leider ein Zeichen unserer Zeit, im Fernsehen und anderswo sieht es ja nicht besser aus. Vielfalt macht Mühe, ich muss mir Zeit nehmen, eine Meinung bilden, auswählen. Dass das evtl. nicht populär ist mag sein, aber dass sich Kulturinstanzen wie Radiosender ihrer eigentlichen Aufgabe verweigern, ist nicht akzeptabel. Radio ist nicht nur zur Dauerbeschallung da.

  27. Hermann Ruckerbauer meint

    23. November 2019 um 09:42

    Gibt es denn eine öffentliche Statistik darüber elche Lieder wie oft gespielt werden ?
    Dass würde recht schnell Gewissheit schaffen wie häufig einzelne Lieder gespielt werden.

  28. Erhard Aigner meint

    6. Februar 2020 um 09:08

    Der deutsche Musik-Hörer ist weltweit einzigartig.
    Die Medienlandschaft hat ihn dazu erzogen, dass er deutschsprachige Musik ablehnt – obwohl er von den englischsprachigen Texten nur das versteht, was er verstehen will.
    Deutsche, die im Ausland leben – auch kurzfristig (Urlauber) – zwingen die Mediengestalter, dass nur noch deutschsprachige Lieder gespielt werden dürfen.
    Ich selbst mache mir mein eigenes Programm.

  29. Thorsten meint

    5. Mai 2020 um 22:33

    Der Text bestätigt doch nur, dass die Masse an Sendern die gleiche Musik immer wieder spielt. Er liefert nur den Grund. Schade, dass nicht auf Vielfalt gesetzt wird.
    Mittlerweile fliegt bei mir auch DLF Nova raus…. Die Vögel scheissen täglich mehrmals von Himmel….

  30. PomTom meint

    21. August 2020 um 12:57

    Gefühlte Wiederholungen sind schlimm, gemessene Wiederholungen sind schlimmer.

    Einfach die Playlist crongesteuert mit curl abgreifen und in eine Datenbank packen. Und dann sehen wird im Klartext und empirisch gemessen, dass es praktisch jeden Tag auf 1Live und WDR2 Titel gibt, die fünf Mal am Tag wiederholt werden, und weitaus mehr Titel, die vier Mal am Tag laufen.
    Bei den fünffachen Wiederholungen gilt offenbar ein Interval von grob 4h Pause zwischen den Wiederholungen.

    Bei WDR4 hingegen laufen Titel in der Regel nicht öfter als zwei Mal täglich.

    Auf Deutsch: ein recht kleine Anzahl von Titeln macht einen erheblichen Teil des Musikaufkommens beim WDR-Rundfunk aus. Die Eintönigkeit ist real, nicht gefühlt

  31. Bürotiger meint

    6. November 2020 um 00:36

    Musikgeschmack ist das eine, was mich vom Radio wegführt. Das viel Schlimmere ist die STÄNDIGE WIEDERHOLUNG des Sendernamens mit „Der Beste Mix aus BLA…BLA…BLA“. Diese ständige Eigenwerbung kotzt mich noch viel mehr an. Über die Pseudonachrichten möchte ich mich hier nicht weiter auslassen. Es bleibt nur noch das Internet, wo ich mehr Auswahl habe, ohne pseudo-fröhliche Moderatoren. Radio in jetzigem Mainstream-Format kann meinetwegen ganz verschwinden.

  32. Konrad68 meint

    14. März 2021 um 16:10

    Aus Gewohnheit schalte ich manchmal das alte Autoradio ein, vorwiegend sind regional bedingt SWR und HR empfangbar. Völliges NoGo sind für mich all die popmusiklastigen Verkehrssender mit ihrem unerträglichen Mix, der sich seit 30 Jahren kaum veränderte. Ich werde noch wahnsinnig, wenn ich ein einziges Mal auch nur eine Sekunde lang Simpley Red oder andere „Evergreens“ hören muß.

    Noch weniger verstehe ich, wieso ö.r. GEZ Sender Werbung bringen. Laut Intendanz „weil es Verträge gibt“. Ich vermute dahinter eher ein bewussten Impuls zur Gewöhnung der Menschen an Werbung generell. Unerträglich. Die „info“ Sender bringen keine normalen Informationen mehr, sondern ständug aufgeregen Politaktivismus aus der äußerten linksgrünen Ecke, als wäre das Mainstream. Wir kann man dann nonstop US-Pop bringen, die immergleiche „Musik“ mit leicht variierten Geräuschen?

    Es gibt hervorragende liebevoll zusammengestellte Musiksendungen der echten Kultursender, hr2, swr2, und wdr 5 und ndr haben da auch was drauf!

  33. Ignaz meint

    9. Juni 2021 um 08:41

    Was ich schon immer fragen wollte: Wenn Radiosender ihre Radiosendungen hochladen und als Podcast zum Download anbieten …… warum fehlen darin die während der Sendung gelaufenen Musikbeiträge?

  34. Matze1895 meint

    17. November 2021 um 08:03

    Das Schlimmste an Radiosendern wie Antenne und auch WDR2, 1live, SWR3 und co sind die Moderatoren. Ich stelle mir immer vor, dass die im Alltag auch mit dieser aufgesetzten guten Laune reden. Sehr lustig. Am allerschlimmsten die total überzogene Begeisterung der Sportmoderatoren beim Fußball.
    Grau-en-haft

  35. nina meint

    26. Juli 2022 um 10:31

    Als professionelles*_in Redakteu*_rin sollten sie wissen, dass es keinen Sinn ergibt „Sinn machen“ zu verwenden.

  36. Toni meint

    25. August 2022 um 17:49

    Wir im Allgäu haben zwei neue DAB+-Sender bekommen.
    „Radio Fantasy“ spielt nur aktuelle Hits, die sich alle in etwa gleich anhören. Beispiele: Lost Frequenzies, David Guetta, Alle Farben usw. Da gibt es keinerlei Vielfalt. Es ist alles die gleiche Soße, der gleiche Beat, die gleiche hektische Musik. Nicht mal eine Ballade wird zwischendurch gespielt, geschweige denn ein anderer Stil. Mit meinen 58 Jahren bin ich anscheindend nicht mehr geeignet für diese neue Musik-Einfallslosigkeit.

    Der zweite neue Sender heißt „Seefunk-Radio“. Dort heisst es mehrmals im Jingle „Die beste Musik aus 4 Jahrzehnten“. In Wirklichkeit sieht es aber so aus, dass zu 99 % genau die 80ger Jahre Songs gespielt werden, die echt kein Mensch mehr hören kann, weil sie schon auf zig anderen Sendern total abgenudelt worden sind. Ich frage mich sowieso, warum es immer nur die 80er sein müssen. Bei Oldies gehören für mich unbedingt auch die 60er und 70er dazu, und zwar nicht nur immer die selben Lieder.

    So wie diesen beiden Sender sind leider die meisten anderen auch. Ich sehne mich oft in die 70er/80er zurück, als Radio noch richtig gut gemacht wurde. Da gab es richtig moderierte Sendungen, Specials mit Neuvorstellungen, Oldies, Musikrichtungen und vieles andere. Von Menschen (meist den Moderatoren selbst) ausgesuchte vielfältige Musik, die nicht aus dem Zufallsgenerator kam, die angesagt und über die gesprochen wurde.

    Hoffentlich erkennt das irgendwann mal jemand und macht wieder ein richtig gutes Radio, so wie früher. Die Hoffnung stirbt zuletzt.

  37. Enno meint

    23. Januar 2023 um 12:30

    Man kann mir sagen was man will.Ich mag aufgrund der ständigen Wiederholungen und dem Abspielen der immer gleichen aktuellen Musik kein Radio. Weil meine Mitarbeiter aber immer „ihre“ Lieblingssender wollen, höre ich es notgedrungen. Bei 80er Jahre Hits höre ich immer mal ganz gern hin, Aber alle Sender haben bei den 80er oder 70er eine Band und eun Lied immer dabei -und ich meine auch alle Sender-:
    Queen – I want to break free- und -Radio Gaga-
    Warum höre ich seit vielen Jahren immer nur Queen?

  38. Nico meint

    22. März 2023 um 14:26

    Radio ist nur noch eine reine Katastrophe, schlimmer wie die Werbung in der Glotze, der ganze Bullshit kommt zich mal am Tag, da bekommt man keinen Ohrwurm mehr sondern schon Kopfschmerzen & schlechte Laune.. & das zu Beginn des Tages, Radio ist wie die Glotze ein Lächerlicher Lügenverein !!!
    Dann die ganzen Idioten noch dazu die der Regierung bis zum Anschlag in den Arsch kriechen & deren Hochverrat schön reden diese kleinen Pisser, diese dreckigen Mittäter die sich wegen Beihilfe am Hochverrat mehr als nur Mitschuldig machen, vor das Exekutionskomando gehört & abgeknallt werden sollte, diese Fotzen !!!

    Fühl dich ruhig angeschprochen Sie lächerlicher Haufen einer Schande !!!

    Ehml. Soldat des 2. & 3. Panzerflugabwehrkanonenbattallion 131 Hohenmölsen

  39. Alyx meint

    4. November 2023 um 11:11

    Interessante Einblicke, jetzt verstehe ich besser warum mich die Musik im Radio nervt. Ich habe früher viel WDR5 gehört, aber mittlerweile höre ich kein Radio mehr, das wurde bei mir durch Podcasts und Spotify ersetzt. Bei WDR5 fehlt mir die inhaltliche Tiefe, die es halt nur bei langen Podcasts gibt. Die Musik bei den großen Sendern fand ich schon immer schrecklich, aber das ist halt Geschmackssache, mein Geschmack ist halt nicht massenkompatibel. Bei Spotify läuft immer mein Musikgeschmack.
    Was mich ärgert ist das es im UKW Bereich keinen Rock Sender gibt, man braucht ein DAB Radio um z.B. Radio Bob oder Rockantenne zu hören.

  40. REL meint

    9. April 2024 um 12:47

    Ich bin zufällig auf diesen Beitrag und den sehr interessanten Diskussionsverlauf gestoßen. Dabei habe ich ein extremes Déjà-vu, da ich vor wenigen Wochen gewagt habe, den NDR2-Redakteuren mittels der neuen NDR2-App meinen Unmut über die ständigen Wiederholungen und die langweilige Musik mitzuteilen. Die erste Antwort war, dass ich völlig falsch läge und aggressiv sei (was ich definitiv nicht war). Immerhin war man aber bereit, mit mir zu telefonieren, wobei der mich anrufende Redakteur das Gespräch nach 25 Minuten (!) mit dem Satz beendete: „… deine Arroganz kotzt mich an…“ und dann ohne Gruß auflegte.
    Zuvor hatte ich meine Kritik an ständigen Wiederholungen und der kleinen Grundgesamtheit gespielter Titel geäußert, die auch über einen sehr langen Zeitraum kaum durchgemischt wird beziehungsweise durch neue Titel aufgefrischt wird. Hinzu kommt, dass langjährig agierende „Oldie“-Bands auf wenige Titel reduziert werden, die immer wieder gespielt werden, bis man sie nicht mehr hören kann. Das gilt für z. B. Supertramp, Queen, Rolling Stones (wenn sie denn mal gespielt werden) und viele andere.
    Interessant ist, dass der anrufende Redakteur in seinem Erklärungsversuch letztlich bestätigte, was auch hier in der Diskussion anklingt:
    Der Sender versucht, in kurzer Zeit wieder erkannt zu werden, weil der durchschnittliche Hörer nur 15 – 20 Minuten das Radio einschaltet. Um das zu schaffen, müssen die immer gleichen Lieder mehrmals am Tag so gespielt werden, so dass man die kurz vorbeifliegenden Hörer einfängt. Darüber hinaus äußerte der Redakteur den denkwürdigen Satz „Manchmal müssen wir einen Titel 150 mal spielen, bis die Hörer ihn kennen.“ Auf meine Rückfrage, warum das denn sein müsse, antwortete er, dass doch gute Lieder den Hören bekannt gemacht werden müssten. Ich denke vielmehr, dass interessante, gute Lieder von sich aus so spannend sind, dass sie eine Reaktion beim Hörer hervorrufen. Da muss man nicht 150 mal in kurzer Zeit wiederholen. Das ist eher die Dosis, die auch gute Lieder zum Überdruss werden lassen.
    Warum werden nicht über die Tageszeit bestimmte Schwerpunkte verteilt, so dass eben nicht auch in kurzen Zeitintervallen die immer gleichen Lieder zu jeder beliebigen Tageszeit zu hören sind? In meiner Jugend gab es „meine“ Musik nur mittags während einer halben Stunde, die Sendung nannte sich „Nach zwei im Zwoten“. In anderen Stunden liefen eben andere Schwerpunkte.
    Ich höre aber dennoch gern öffentlich-rechtliche Sender, weil dort Nachrichten und auch Magazin-Beiträge etwas hochwertiger und ausführlicher gestaltet sind als bei Privatsendern (Bild-Zeitung Niveau). Auch ist hier im Norden zumindest zumindest der Anteil von (noch?) Werbung angenehm gering. Es geht anscheinend! Aber die Musik ist oft zum Weglaufen, wenn man – wie ich – circa 5 – 6 Stunden am Tag das Radio anhat, mal nebenher, mal mit voller Konzentration. Da kommt es sehr wohl vor, dass man auch ältere Titel vier mal am Tag hört („Jerusalema“, „Sonebody that Iused to know“, „Aiko Aiko“, …). Obwohl einmal für einen persönlich schon zu viel ist.
    Abschließend vielleicht ein Wort zu den Umfragen:
    Die sind auch aus meiner Sicht nur schein-repräsentativ und Geldverschwendung, dazu ist aber weiter oben sehr vieles wichtiges gesagt. Sie dienen eher als rechtfertigendes Feigenblatt für diejenigen, die ihre Arbeit verteidigen müssen, weil sie sie nicht selber machen. Ergebnis ist letztlich, dass das, was viel gespielt wird, bekannt wird, und Bekanntes wird viel gespielt.
    Eine Katze, die sich in den Schwanz beißt. Was nicht bekannt ist, aber sein soll, wird eben so lange wiederholt, bis es bekannt ist.
    Mehr vom Gleichen – Paul Watzlawik lässt grüßen….
    Und das, was andere sagen bzw. machen, kann ja nicht falsch sein, wenn alle es so machen. Zum Selbstmachen und Anderssein gehört Mut, man kann scheitern, man kann aber auch dabei wachsen und besser sein als die andern.
    Auch ich warte darauf, dass die Musikauswahl besser, interessanter, kurzweiliger und spannender wird.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Tipps

ZDF-Fernsehgarten wird unterschätzt

27. Juli 2025 von Daniel Kommentar verfassen

Seit ca. 19:30 Uhr müssen die Zeitungskolleg*innen noch mal umbauen … EU und USA schließen Zolldeal, England gewinnt die Fußball-WM, Zugunglück mit Toten in Baden Württemberg. Zumindest wo noch aktualisiert werden kann. Bei vielen Titeln steht all das erst am Dienstag in der Zeitung.

Die folgende Nachricht von heute ist garantiert drin, und sei es als Notiz im Panorama: 🔗Evakuierung kurz nach Show-Start: Gewitter zwingt ZDF-Fernsehgarten zum Abbruch

Der Fernsehgarten gehört bei mir sonntags auch dazu. Nicht im TV, ich schlendere über die Nachrichtenseiten:

Unter der Woche schon die Gästeankündigungen, während der Show werden direkt kleine Pannen zusammengeschrieben, damit wir direkt nachlesen können, was wir gerade nur am Rande mitbekommen haben. Dann die ganzen Nachberichte, Dossiers über die Gäste – nicht nur bei einem Newsportal, nicht nur bei den Boulevards … bei fast allen Newsportalen.

Merke: Was den Deutschen wirklich wichtig ist, bekommt den Premium-Vollwaschgang der Nachrichten-Portale.

Und Kiwi: Ja, wir mögen sie. Aber schauen wir in der Branche auch genau hin was sie und ihr Format richtig machen, sodass der Fernsehgarten zu dieser Institution des Sonntags und in der Mediennutzung geworden ist?

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Medien Stichworte: Fernsehgarten, Medienwandelog, zdf

How the Future of Social Media has been Discussed at Re-Publica 2025

31. Mai 2025 von Daniel Kommentar verfassen

This is a bonus blog post for this weeks issue of my newsletter Style & Stitches, where we analyze the public discourse about the development of social platforms like X, Threads, Bluesky and Mastodon.

Here are the notes of the five most important sessions. Happy deep diving!

The session titled „Machtfaktor Social Media – gestern war der beste Tag, mit Regulierung die Demokratie zu bewahren“ (The Power Factor Social Media – Yesterday was the best day to preserve democracy through regulation), featuring Chan-jo Jun and Jessica Flint, critically examined how social media platforms, once seen as neutral advertising channels, are now actively seeking political influence. The discussion highlighted Europe’s decade-long struggle to effectively regulate these platforms, consistently lagging behind their rapid evolution. The urgent tone of this session reflects a profound and critical public sentiment concerning the unchecked power and governance failures of centralized social media platforms, particularly X. The focus on regulation and democracy implicitly advocates for platforms that are either inherently more transparent and accountable, such as decentralized models, or more amenable to public interest oversight. This session underscores a strong desire within the re:publica community for a fundamental shift in how social media operates, moving towards models that prioritize democratic values over commercial or political influence.

In contrast, the „Fediverse-Meetup – Celebration of the Fediverse“ session was explicitly designed to „celebrate the existence of the Fediverse“ and foster networking among attendees, even those unfamiliar with the concept. Speakers Henning Krause and Melanie Bartos encouraged participants to engage with the Fediverse (Mastodon’s ecosystem) and demonstrate its enjoyable aspects. The „celebration“ aspect of this meetup signifies a strong, positive sentiment and growing enthusiasm for the Fediverse within the re:publica community. This directly addresses Mastodon’s perceived „steep learning curve“ by actively inviting and onboarding newcomers, suggesting a concerted effort to expand its reach among digitally literate individuals. This session represents a significant qualitative endorsement of Mastodon’s community-driven and decentralized model, highlighting its perceived effectiveness in fostering positive, user-controlled online spaces.

A direct and public indictment of X’s performance under its new ownership was evident in the session „Klimadesinformation auf X/Twitter – Welchen Einfluss hatte die Übernahme von Elon Musk“ (Climate Disinformation on X/Twitter – What Influence Did Elon Musk’s Takeover Have), presented by Fiete Stegers. This talk specifically investigated changes in German-speaking climate discourse on X following Elon Musk’s acquisition, aiming to determine if platform changes led to an increase in climate disinformation. The explicit focus on „disinformation“ highlights a major concern among the re:publica audience and experts, reinforcing the narrative of X as a problematic platform that has deteriorated in its capacity as a reliable public sphere. The very inclusion of such a dedicated, critical session within the re:publica program serves as a powerful negative public perception regarding X’s current state and its impact on critical societal discourse.

Technologist Robin Berjon, a custodian of Free Our Feeds, delivered a talk titled „How We Can Finally Make The Digital World Democratic: Starting With Social Media,“ arguing that the internet’s „authoritarian nature“ is unsustainable, especially as it functions as critical infrastructure.29 He advocated for the use of open protocols and „pro-democracy technical architectures“ to build genuinely democratic social media platforms. This session provides a robust theoretical and ethical justification for the appeal of decentralized alternatives like Mastodon and Bluesky. It frames these platforms not merely as alternatives but as essential models for realizing a more democratic digital future. The emphasis on „open protocols“ directly aligns with the foundational principles of ActivityPub (Mastodon) and ATProto (Bluesky), indicating a significant qualitative endorsement of these architectural approaches at re:publica as superior in terms of democratic values.

Finally, media psychologist Sabine Trepte, in her session „Social Media, Social Supermarkets – GenXYZ, Materialismus und soziale Medien,“ discussed how social media increasingly functions as „social supermarkets,“ driving consumption and materialism across generations. She called for „a lot more platform regulation and a little less greed“, with her research focusing on identity, privacy, social support, and knowledge acquisition in social media. This session broadens the critique beyond X’s specific governance issues to the fundamental business models of many mainstream, ad-driven social platforms. The characterization of social media as „social supermarkets“ and the call for „less greed“ reflects a deep-seated dissatisfaction with the commercial imperatives that often override user well-being and public interest. This indirectly but strongly supports the ad-free and privacy-focused models of Mastodon and Bluesky, suggesting a positive public perception for platforms that resist the pervasive consumerism and data monetization of the dominant players.

Sign-up here to get the next issues of Style & Stitches directly into your inbox. Don’t miss out on this voyage into the future of social media.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet Stichworte: Bluesky, fediversum, republica, social media, Style & Stiches, UnserBlogSollSchönerWerden

Anweseinheitsnotiz: Podcamp NRW 2025 & Steady Growth Day in Düsseldorf

30. Mai 2025 von Daniel Kommentar verfassen

Im Juni geht es in Düsseldorf richtig digital medial zu, was sogar meine Lieblingsmedien angeht. Zwei Veranstaltungen widmen sich Podcasting & Independent Digital Media.

Am 13. & 14. Juni 2025 findet das Podcamp NRW statt. Das Audio-Barcamp findet nicht nur hier in Düsseldorf, sondern sogar in der neuen Zentralbibliothek Düsseldorf statt. Das dürfte gerade der spannendste Veranstaltungsort für ein Barcamp hier in der Stadt sein. Gleich zwei gute Gründe das Podcamp NRW zu besuchen.

Zwei Wochen habe ich noch Zeit, mein Thema auszusuchen. Die KI als Podcast-Host? Vielleicht. Oder fünf Bereiche des Podcast-Alltags … Podcast-Producer

Tickets & alle Infos für das Podcamp NRW gibt es auf podcamp.de

***

Am 27. Juni 2025 findet der Steady Growth Day statt. Ich bin ja ein Fan von Steady, der europäischen Patreon-Alternative aus Berlin. Unabhängige Media-Creator können auf der Plattform ihre Community monetarisieren — und wie das noch besser geht, das wird beim Steady Growth Day im Medienhafen Thema sein. Steady ist zu Gast bei der Landesanstalt für Medien, deren Räumlichkeiten übrigens frisch renoviert sind. Da mach‘ ich doch glatt einen Kontrollbesuch bei der Aufsichtsbehörde.

Kostenlos anmelden könnt ihr euch auf dem Steady-Profil bei Luma

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Creator & Journalism, Podcast Stichworte: Barcamp, Content Creator, Landesanstalt fr Medien, Medienhafen, podcamp, Podcast, Steady, Zentralbibliothek

Was steckt hinter Metas KI-Plänen? Ist die Medien-Berichterstattung zur Widerspruchsfrist übertrieben?

25. Mai 2025 von Daniel Kommentar verfassen

Mir sind sie schon ein wenig aus den Ohren rausgekommen: Die ganzen Postings auf Medien-Social-Kanälen, Meldungen, Erinnerungen und Berichte, dass Meta-User bis zum 26. Mai Widerspruch einlegen müssen, wenn sie nicht möchten, dass ihre Texte, Bilder, Videos und sonstigen Daten für KI-Training genutzt werden.

Jetzt einen Tag vorher denke ich: Was steckt eigentlich dahinter? In der Meldungsflut sind bei mir nicht viele Details hängengeblieben. Übertreiben die Medien, weil es halt Meta ist? Oder macht Meta etwas, was sich vom KI-Training der anderen Marktplayer deutlich unterscheidet?

Grundsätzlich gehe ich erst einmal offen an Entscheidungen ran, was KI-Training mit meinen Daten angeht. Jeff Jarvis hat das in einem Podcast gut erklärt: Wenn wir alle erst einmal auf Blockade-Haltung gehen, dann überlassen wir das Datenfeld denen, die mit eigener Agenda unterwegs sind. Populistische Medien beispielsweise, wie so manche Fälle schon zeigen.

Vielleicht sucht ihr wie ich auch noch mehr Hintergrund. Ich habe deswegen eine Instant Antwort zusammengestellt, die ich mit euch teile: Was sind Metas KI-Trainings-Pläne? Wie unterscheiden die sich von der Konkurrenz? Ist das Medienecho vor der Widerspruchsfrist gerechtfertigt? Ich sage mal so: Am Ende hat mich die Antwort überrascht.

Google Gemini sagt:

Ja, die intensive Medienberichterstattung, die Sie beobachten, ist aus mehreren Gründen absolut gerechtfertigt. Sie ist nicht nur auf Metas langjährigen Ruf als „Datenkrake“ zurückzuführen, sondern auch auf die tatsächlichen Nachteile und die umstrittene Natur der aktuellen KI-Datennutzungspläne von Meta, die sich von der Praxis anderer großer KI-Anbieter unterscheiden.

Hier sind die Hauptgründe, warum die Aufregung gerechtfertigt ist:

  1. Metas Historie als „Datenkrake“: Meta (ehemals Facebook) hat eine lange und gut dokumentierte Geschichte von Datenschutzbedenken und -skandalen, wie den Cambridge Analytica-Skandal , bei dem persönliche Daten von Millionen von Nutzern ohne deren ausdrückliche Zustimmung gesammelt und für politische Kampagnen verwendet wurden. Auch frühere Data-Mining-Praktiken und die Speicherung unverschlüsselter Passwörter haben zu einem tief sitzenden Misstrauen in der Öffentlichkeit geführt. Dieser historische Kontext prägt die Wahrnehmung jeder neuen Datenrichtlinie von Meta und führt zu erhöhter Skepsis und intensiver medialer Prüfung.  
  2. Das umstrittene Opt-out-Modell: Meta stützt sich auf das „berechtigte Interesse“ als Rechtsgrundlage, um öffentliche Nutzerinhalte für das KI-Training zu verwenden, anstatt eine explizite „Opt-in“-Zustimmung einzuholen. Das bedeutet, Nutzer müssen aktiv widersprechen, wenn sie nicht möchten, dass ihre Daten verwendet werden. Datenschutzorganisationen wie NOYB argumentieren vehement, dass dieser Ansatz gegen die DSGVO verstößt und eine „Opt-in“-Zustimmung erforderlich wäre. Die Notwendigkeit eines aktiven Widerspruchs, insbesondere bei einem so riesigen und sensiblen Datensatz, wird als „unverhältnismäßige Belastung“ und sogar als „Dark Pattern“ kritisiert, da der Prozess oft kompliziert und schwer zu finden ist. Viele Nutzer berichten von technischen Schwierigkeiten beim Widerspruch, wie fehlenden Verifizierungscodes oder fehlerhaften Links.  
  3. Irreversibilität der Daten: Ein entscheidender Nachteil für Nutzer ist, dass Daten, sobald sie zum Training eines KI-Modells verwendet wurden, „technisch nicht mehr aus dem Modell zurückholbar“ sind. Das bedeutet, selbst wenn ein Nutzer erfolgreich widerspricht, gilt dies nur für zukünftiges Training, nicht aber für Daten, die bereits in die KI integriert wurden. Dies untergräbt das „Recht auf Vergessenwerden“ der DSGVO.  
  4. Der „Beifang-Effekt“: Selbst wenn Sie der Datennutzung widersprechen, können Ihre Daten (z.B. Ihr Gesicht auf einem Foto, Ihr Name in einem Kommentar) unbeabsichtigt in den Trainingsdatensatz aufgenommen werden, wenn andere Nutzer öffentlich über Sie posten. Dies bedeutet, dass Ihre Identität „indirekt miterfasst“ werden kann, was die individuelle Kontrolle über die eigenen Daten weiter einschränkt.  
  5. Vergleich mit anderen KI-Anbietern: Metas Verlass auf ein Opt-out-Modell für die Nutzung öffentlicher Inhalte für das Kern-KI-Modelltraining unterscheidet sich von einigen seiner Hauptkonkurrenten. Beispielsweise verwenden die Geschäftsangebote von OpenAI standardmäßig ein explizites Opt-in-Modell für das Datentraining , und Google gibt an, dass Daten, die zur Missbrauchsüberwachung gespeichert werden, nicht für das Training seiner Kern-KI-Modelle verwendet werden. Metas Ansatz wird daher als aggressiver und potenziell invasiver wahrgenommen.  
  6. Rechtliche Unsicherheit und widersprüchliche Meinungen: Die Rechtslage ist umstritten. Während das OLG Köln einen Eilantrag von Verbraucherschützern abwies und Metas Zweck als „legitim“ einstufte , behalten andere europäische Datenschutzbehörden, wie die Hamburger DPC, eine kritische Haltung bei und leiten eigene Verfahren ein. Diese fragmentierte regulatorische Reaktion trägt zur Unsicherheit bei und verstärkt die Notwendigkeit der Medien, die Öffentlichkeit zu informieren.  

Zusammenfassend lässt sich sagen, dass die intensive Medienberichterstattung nicht nur auf die generelle Skepsis gegenüber Meta zurückzuführen ist, sondern auch auf die substanziellen und potenziell nachteiligen Auswirkungen von Metas KI-Datennutzungsplänen auf die Nutzerprivatsphäre, die sich in wichtigen Punkten von den Praktiken anderer KI-Anbieter unterscheiden.

Das ist nur die Kurzfassung der Recherche. Wenn euch nach einer ausführlicheren Sonntagslektüre ist, stelle ich euch den kompletten Bericht auch zur Verfgügung.

🔎🔎🔎 Klickt hier für die Langassung der Antwort 🔎🔎🔎

Metas KI-Datenstrategie: Eine Analyse der Kontroverse, Nutzerauswirkungen und Branchenlandschaft

I. Executive Summary

Die derzeit intensive Medienberichterstattung über Metas Frist zur Ablehnung der KI-Datennutzung am 26. Mai markiert einen entscheidenden Punkt im Bereich des digitalen Datenschutzes. Metas Plan, seine generativen KI-Modelle (Meta AI) mithilfe öffentlicher Nutzerinhalte von Facebook und Instagram zu trainieren, hat, insbesondere in Europa, wo strenge Datenschutzgesetze wie die DSGVO gelten, erhebliche Kontroversen ausgelöst. Diese weitreichende „Berichterstattung“, wie in der Nutzeranfrage erwähnt, wird durch eine Kombination aus Metas historischem Ruf als „Datenkrake“, echten Bedenken hinsichtlich des Umfangs und der Irreversibilität des KI-Datentrainings sowie der wahrgenommenen Unzulänglichkeit des Widerspruchsmechanismus angetrieben.

Während Meta ein „berechtigtes Interesse“ an der Nutzung dieser Daten für die KI-Entwicklung geltend macht, argumentieren Datenschutzorganisationen wie NOYB vehement, dass dieser Ansatz gegen zentrale DSGVO-Prinzipien verstößt und eine explizite „Opt-in“-Zustimmung erfordert. Die Rechtslage bleibt umstritten: Einige Gerichte bestätigen Metas „berechtigtes Interesse“, während Datenschutzbehörden widersprüchliche Ansichten äußern und eine fortgesetzte Überwachung fordern. Im Vergleich zu anderen KI-Anbietern sticht Metas Verlass auf ein Opt-out-Modell für einen so riesigen und sensiblen Datensatz hervor, was Fragen zur Nutzerautonomie und zur Zukunft der Datenverwaltung im Zeitalter der KI aufwirft. Das Potenzial für eine irreversible Datenintegration in KI-Modelle, gepaart mit einem komplizierten Opt-out-Verfahren, birgt spürbare Nachteile für die Nutzer.

II. Der aktuelle Medienrummel: Warum die beispiellose Aufmerksamkeit?

A. Die Frist vom 26. Mai und die Kampagne zur öffentlichen Sensibilisierung

Meta kündigte im April 2025 an, öffentliche Beiträge und Kommentare von Nutzern über 18 Jahren im EU/EWR für das Training seiner KI-Modelle zu verwenden, wobei die Richtlinie am 27. Mai 2025 in Kraft treten soll.1 Nutzern wurde bis zum 26. Mai 2025 Zeit gegeben, dieser Nutzung zu widersprechen.3 Die Medien haben diese bevorstehende Frist aktiv und intensiv in Erinnerung gerufen, darunter prominente deutsche Nachrichtenmedien wie ZDF und Tagesschau.6 Es ist bemerkenswert, dass Metas KI-Trainingsbemühungen in Europa bereits im Juni 2024 aufgrund von Bedenken der irischen Datenschutzbehörden pausiert worden waren, was auf eine Geschichte der regulatorischen Prüfung hindeutet.2

Die intensive Medienaufmerksamkeit auf die Frist vom 26. Mai ist eine direkte und unmittelbare Reaktion auf Metas erneuten Versuch, seine KI-Trainingsrichtlinie in der EU umzusetzen. Dies geschieht nach einer erheblichen Pause, die selbst durch regulatorische Bedenken ausgelöst wurde. Die weit verbreitete Berichterstattung erfüllt eine wichtige öffentliche Dienstfunktion, indem sie die Nutzer über eine zeitkritische Entscheidung bezüglich ihrer persönlichen Daten informieren soll. Die Dringlichkeit wird durch den „Opt-out“-Charakter von Metas Richtlinie noch verstärkt, die ein aktives Eingreifen der Nutzer zum Schutz der Privatsphäre erfordert, anstatt des datenschutzfreundlicheren „Opt-in“-Ansatzes.

Die hervorgehobene „beispiellose“ Medienberichterstattung lässt sich auf eine verstärkte öffentliche Kontrolle zurückführen, die durch das „Opt-out“-Modell und die vorherige regulatorische Pause ausgelöst wurde. Die Tatsache, dass die irischen Datenschutzbehörden bereits im Juni 2024 Bedenken geäußert hatten, zeigt, dass Metas Pläne schon vor der aktuellen Ankündigung umstritten waren.2 Metas Entscheidung, die Richtlinie mit einem Opt-out-Modell wieder einzuführen, obwohl starke Forderungen nach einer Opt-in-Zustimmung laut wurden 9, führt naturgemäß zu einer erhöhten Medienaufmerksamkeit. Medien sehen sich in der Verantwortung, ihr Publikum über eine bevorstehende Frist für eine potenziell irreversible Datenentscheidung zu informieren, insbesondere angesichts des „versteckten“ Charakters des Opt-out-Formulars.1 Diese Kombination aus einem umstrittenen Zustimmungsmodell, einer Geschichte regulatorischer Rückschläge und einer knappen Frist schafft die perfekte Grundlage für intensive Medienprüfung und eine öffentliche Sensibilisierungskampagne. Diese Medienintensität ist ein Zeichen für einen breiteren Trend: ein wachsendes öffentliches und regulatorisches Bewusstsein für die enormen Datenanforderungen von KI und die wahrgenommene Unzulänglichkeit traditioneller, weniger strenger Datenschutzrahmen (wie Opt-out für die breite Datenverarbeitung) angesichts schnell fortschreitender technologischer Fähigkeiten. Sie unterstreicht auch die entscheidende Rolle der Medien als Verbraucherschutzanwalt, insbesondere wenn die regulatorische Klarheit umstritten oder nur langsam zu erreichen ist.

B. Nutzererfahrung mit dem Opt-out-Mechanismus

Der Opt-out-Mechanismus wird durchweg als „eher kompliziert“ und „im Labyrinth der Datenschutzeinstellungen versteckt“ für EU-Bürger beschrieben.1 Nutzer müssen ein „umfangreiches Formular“ ausfüllen.1 Zahlreiche Nutzer haben erhebliche Schwierigkeiten gemeldet, darunter den Nichterhalt von Verifizierungscodes per E-Mail, das Auftreten von fehlerhaften Links oder die Aufforderung zur Anmeldung, obwohl sie bereits authentifiziert waren.4 Während es einigen Nutzern gelang, sich erfolgreich abzumelden, stießen viele andere auf anhaltende technische Hürden.12 Das Opt-out-Formular verlangt oft eine „detaillierte Begründung“ für den Widerspruch, eine Anforderung, die einige Nutzer als belastend empfanden oder einfach umgingen, indem sie ihr Grundrecht auf Widerspruch geltend machten.12 Einige griffen sogar auf KI-Chatbots wie ChatGPT zurück, um ihre Begründungen zu formulieren.12 Meta gibt offiziell an, „alle Widerspruchsformulare zu respektieren“ 2, fügt aber auch einen merkwürdigen Hinweis hinzu: „Wir erfüllen Anfragen, die über dieses Formular gesendet werden, nicht automatisch. Wir prüfen sie im Einklang mit Ihren lokalen Gesetzen“.1 Kritiker argumentieren, dass die Auferlegung eines aktiven Schritts an die Nutzer zum Schutz ihrer Inhalte eine „unverhältnismäßige Belastung“ darstellt und vom Prinzip des „Datenschutzes durch Voreinstellung“ abweicht.4 Diese Designentscheidung wird von Datenschützern explizit als „Dark Pattern“ bezeichnet.14

Die praktische Wirksamkeit eines Opt-out-Systems hängt grundlegend von seiner Zugänglichkeit und Benutzerfreundlichkeit ab. Wenn der Prozess absichtlich oder unbeabsichtigt komplex ist, kann dies die Fähigkeit des Nutzers, sein Widerspruchsrecht auszuüben, untergraben und eine theoretische Wahl effektiv in eine De-facto-Standardeinstellung verwandeln.

Die Gestaltung des Opt-out-Verfahrens als „Dark Pattern“ stellt eine strategische Barriere für die Nutzerautonomie dar. Die in der Nutzeranfrage aufgeworfene Frage, ob Metas Pläne „tatsächlich nachteilig“ sind, wird direkt durch die gemeldeten Schwierigkeiten beim Opt-out beantwortet.1 Die explizite Verwendung des Begriffs „Dark Pattern“ 14 durch Datenschützer ist hier entscheidend, da sie impliziert, dass die Komplexität kein Versehen, sondern eine bewusste Designstrategie ist, um die Opt-out-Raten zu minimieren. Wenn Nutzer davon abgehalten oder technisch daran gehindert werden, ihr Widerspruchsrecht einfach auszuüben, erhält Meta standardmäßig Zugang zu einem größeren Datenpool, auch wenn der Nutzer theoretisch das Recht hat, dies abzulehnen. Dies untergräbt direkt die Nutzerautonomie und die Kontrolle über ihre persönlichen Daten. Ein komplexes und belastendes Opt-out-Verfahren führt zu niedrigeren Opt-out-Raten der Nutzer, was wiederum zu mehr Daten für das Meta AI-Training führt und somit einen größeren kommerziellen Vorteil für Meta auf Kosten der individuellen Nutzerprivatsphäre bedeutet.

Darüber hinaus entsteht eine Illusion von Kontrolle im Gegensatz zur tatsächlichen Datenverwaltung in der Praxis. Metas Aussage, dass es „alle Widerspruchsformulare berücksichtigen wird“ 2, wirkt auf den ersten Blick beruhigend, doch der Vorbehalt, dass Anfragen „im Einklang mit den lokalen Gesetzen geprüft“ und „nicht automatisch erfüllt“ werden 1, führt zu erheblicher Unklarheit. Dies impliziert die Möglichkeit einer Ablehnung, Verzögerung oder zusätzlicher Hürden, was die tatsächliche Kontrolle des Nutzers weiter untergräbt. Die Anforderung, „korrekt zu begründen“, warum man sich abmelden möchte 1, und die anekdotischen Beweise, dass Nutzer KI zur Formulierung ihrer Begründungen heranziehen 12, zeigen eine hohe und potenziell unfaire Hürde für die Handlungsfähigkeit des Nutzers. Dies schafft eine Illusion von Kontrolle, ohne die praktischen Mittel für deren effektive Ausübung bereitzustellen. Diese Spannung zwischen den erklärten gesetzlichen Rechten (dem Widerspruchsrecht) und der praktischen Durchsetzbarkeit dieser Rechte ist ein wiederkehrendes Thema im digitalen Datenschutz. Es deutet darauf hin, dass selbst mit robusten Vorschriften wie der DSGVO mächtige Unternehmen prozedurale Komplexität und mehrdeutige Sprache zu ihrem Vorteil nutzen können, wodurch es für Einzelpersonen schwierig wird, eine echte Kontrolle über ihre Daten zu erlangen.

Tabelle 1: Nutzerberichtete Opt-Out-Schwierigkeiten (Meta AI)

Art der SchwierigkeitBeschreibung / NutzerkommentareRelevante Quellen
Technische ProblemeNichterhalt von Verifizierungscodes, fehlerhafte Links, Aufforderung zur Anmeldung trotz bestehender Sitzung, 2FA-Probleme.4
Verstecktes FormularFormular ist „im Labyrinth der Datenschutzeinstellungen versteckt“, schwer zu finden.1
Begründungspflicht„Detaillierte Begründung“ erforderlich, die als belastend empfunden wird; Nutzer nutzen ChatGPT für Begründungen.12
Unklare BestätigungMeta prüft Anfragen „im Einklang mit lokalen Gesetzen“, nicht automatisch erfüllt; Unsicherheit, ob der Widerspruch tatsächlich akzeptiert wird.1
Wahrgenommene Behinderung„Widerspruch einlegen ist NICHT möglich und wird unterbunden“, „Meta sendet eine E-Mail mit einem fehlerhaften Link, um so zu tun, als ob sie sich daran halten, um sich der Schuld zu entziehen.“4
Unverhältnismäßige BelastungNotwendigkeit eines aktiven Schritts zum Schutz der Inhalte wird als „unverhältnismäßige Belastung“ und „Dark Pattern“ kritisiert.4

Diese Tabelle liefert konkrete, anekdotische Beweise direkt von Nutzern bezüglich der praktischen Herausforderungen, denen sie gegenüberstehen. Sie verlagert die Diskussion von abstrakten rechtlichen Argumenten auf reale Reibungspunkte, was entscheidend ist, um die Behauptung zu untermauern, dass Metas Pläne „tatsächlich nachteilig für die Nutzer“ sind. Durch die systematische Darstellung dieser Schwierigkeiten verstärkt die Tabelle das Argument, dass der Opt-out-Mechanismus nicht so unkompliziert ist, wie er erscheinen mag, und beantwortet somit direkt einen Kernaspekt der Nutzeranfrage.

III. Metas „Datenkrake“-Ruf: Eine historische Perspektive

A. Eine bewegte Datenschutzgeschichte

Meta Platforms Inc. (ehemals Facebook) hat eine lange und gut dokumentierte Geschichte von Datenschutzbedenken, die grundlegend mit seinem Geschäftsmodell der Sammlung und Monetarisierung riesiger Mengen von Nutzerinformationen für gezielte Werbung verbunden ist.15 Diese Geschichte umfasst mehrere bedeutende und aufsehenerregende Kontroversen:

  • Cambridge Analytica Skandal (2018): Dieses Ereignis enthüllte, dass persönliche Daten von bis zu 87 Millionen Facebook-Profilen ohne ausdrückliche Zustimmung der Nutzer gesammelt und anschließend für politische Anzeigenkampagnen bei wichtigen Wahlen verwendet wurden.15 Der Skandal führte zu einem „beispiellosen öffentlichen Bewusstsein für einen lange schwelenden Trend – die ungeprüfte Datensammlung und -nutzung“ 17 und „erschütterte die Welt“, was zu einem grundlegenden Umdenken in der Ethik des Datenschutzes führte.17
  • Frühe Data-Mining-Praktiken: Bereits 2005 demonstrierten MIT-Studenten die Leichtigkeit des Data Mining, indem sie öffentliche Informationen von 70.000 Profilen herunterluden.15 Ursprüngliche Facebook-Bedingungen erlaubten den Verkauf von Nutzerdaten an private Unternehmen.15 Die Plattform wurde kritisiert, weil sie Identitätsdiebstahl durch einfache Sammlung persönlicher Informationen ermöglichte und Suchmaschinen erlaubte, Profilseiten zu indexieren.15
  • Unverschlüsselte Passwörter (2019): Meta gab zu, „Hunderte Millionen“ von Facebook- und Instagram-Nutzerpasswörtern fälschlicherweise im Klartext auf internen Systemen gespeichert zu haben, die für Ingenieure zugänglich waren.15
  • Weitere bemerkenswerte Vorfälle: Das umstrittene Beacon-Programm (2007), das anfängliche Fehlen eines Mechanismus zur dauerhaften Kontolöschung (vor 2010), verschiedene Datenschutzverletzungen bei Anwendungen, die weit verbreitete Sammlung von Kontaktinformationen, Vorwürfe des Abhörens und Bedenken hinsichtlich der Datenerfassung über Oculus und aufkommende Metaverse-Plattformen.15

Als Reaktion auf diese Kontroversen und eine wegweisende Geldstrafe der FTC in Höhe von 5 Milliarden US-Dollar im Jahr 2019 gibt Meta an, über 8 Milliarden US-Dollar in den Wiederaufbau seines Datenschutzprogramms, die Stärkung von Richtlinien und die Entwicklung neuer Nutzerkontrollen investiert zu haben.19

Metas umfassende Geschichte datenbezogener Kontroversen hat die öffentliche Wahrnehmung tiefgreifend geprägt und ein tief sitzendes Misstrauen hinsichtlich seiner Datenverarbeitungspraktiken etabliert. Der Begriff „Datenkrake“ ist nicht nur eine Bezeichnung, sondern ein direktes Spiegelbild dieses historischen Kontextes, das allgegenwärtige, invasive und oft undurchsichtige Datensammlung symbolisiert.

Der Begriff „Datenkrake“ ist zu einer tief verwurzelten öffentlichen Wahrnehmung geworden und wirkt wie eine sich selbst erfüllende Prophezeiung für die Prüfung. Die direkte Bezugnahme der Nutzeranfrage auf die „Datenkrake“ ist hier entscheidend. Dieser Begriff ist keine beiläufige Beschreibung; er fasst Jahre öffentlicher Besorgnis und Medienberichterstattung zusammen. Die detaillierte Geschichte von Datenschutzverletzungen und aggressiven Datenpraktiken 15, insbesondere der Cambridge Analytica-Skandal, der „die Welt erschütterte“ und ein „beispielloses öffentliches Bewusstsein“ schuf 17, hat diese Wahrnehmung fest verankert. Dieses historische Gepäck bedeutet, dass jede neue Datenrichtlinie von Meta, insbesondere eine, die ein Opt-out für KI-Training beinhaltet, automatisch mit äußerstem Misstrauen betrachtet und einer intensiven Prüfung unterzogen wird. Metas erhebliche Investitionen in den Datenschutz 19 sind ein Versuch, dies zu mildern, aber das öffentliche Gedächtnis an vergangene Vergehen ist lang und wirkungsvoll. Der Ruf als „Datenkrake“ wird somit zu einer sich selbst erfüllenden Prophezeiung, die sicherstellt, dass jede neue Dateninitiative von Meta einer unverhältnismäßig höheren öffentlichen und medialen Skepsis ausgesetzt sein wird als bei anderen Unternehmen. Eine lange Geschichte von Datenschutzverletzungen und aggressiven Datenpraktiken führt zu tiefem öffentlichem Misstrauen und dem Ruf als „Datenkrake“, was wiederum eine erhöhte Medienprüfung und Nutzerskepsis für neue Datenrichtlinien, insbesondere im Zusammenhang mit KI, auslöst.

B. Das Wiedererwachen der Datenbedenken

Der jüngste Start von Metas personalisierter KI-Chat-App wird explizit als „Wiedererwachen von Bedenken“ hinsichtlich einer aufdringlichen Datenverfolgung beschrieben, die die Grenzen des Datenschutzes „viel weiter als Rivalen wie ChatGPT von OpenAI oder Gemini von Google“ verschiebt.16 Meta AI nutzt die etablierte Historie eines Nutzers aus seinen Facebook- und Instagram-Profilen, um Chat-Erlebnisse anzupassen, und verfolgt jede Interaktion mit dem Bot kontinuierlich, um seine Antworten weiter zu verfeinern und zu verbessern.16 Diese neue KI-Funktionalität schafft einen „neuen Strom der Verbindung in unsere Gedanken“, der Meta neue Einblicke in die persönlichen Vorlieben und Neigungen der Nutzer liefert, die dann für Werbezwecke genutzt werden.16 Zusätzliche Bedenken wurden hinsichtlich Metas Entwicklung von „KI-Personas“ geäußert, die am öffentlichen Dialog teilnehmen, potenziell die öffentliche Meinung prägen und die Grenzen zwischen menschlichen und KI-Interaktionen verwischen können.20

Die Entwicklung von passiver Datenerfassung für gezielte Werbung hin zu aktiver, interaktiver KI-Engagement mit Nutzerdaten führt zu einer neuen und intimeren Dimension des Datenschutzrisikos. Dies lässt die „Datenkrake“ unmittelbarer, allgegenwärtiger und fähiger zu tieferen Einblicken in einzelne Nutzer erscheinen.

Der Übergang von passivem Datenprofiling zu aktivem konversationellem Data Mining stellt einen qualitativen Sprung in der Aufdringlichkeit dar. Die Nutzeranfrage fragt, ob Metas aktuelle Pläne „tatsächlich nachteilig“ sind. Während sich frühere Bedenken oft auf Metas passives Data Mining für Werbezwecke konzentrierten 15, stellt der neue Meta AI-Chatbot eine signifikante qualitative Verschiebung hin zu einer aktiven und interaktiven Form der Datenerfassung dar.16 Wenn Nutzer an „zunehmend persönlichen Chats“ 16 mit Meta AI teilnehmen, füttern sie die KI direkt und explizit mit intimen Details, Gedanken und Anfragen. Diese direkten Eingaben werden dann verwendet, um das Verständnis der KI für ihre „Gedanken“, „Vorlieben“ und „Neigungen“ 16 weiter zu verfeinern. Dies ist eine weitaus ausgefeiltere und potenziell invasivere Form der Datenerfassung als die bloße Analyse von Beiträgen oder Likes. Die zusätzliche Besorgnis über KI-Personas, die die öffentliche Meinung beeinflussen 20, führt eine neue Ebene gesellschaftlicher und demokratischer Risiken ein und verwandelt die „Datenkrake“ von einem passiven Beobachter in einen aktiven Gesprächspartner und Manipulator. Diese Entwicklung der Datenerfassung von passiver Beobachtung zu aktiver konversationeller Interaktion stellt eine neue und herausfordernde Grenze im digitalen Datenschutz dar. Sie zeigt, dass die „Datenkrake“ nicht nur mehr Daten sammelt, sondern reichere, intimere und kontextsensitivere Daten durch direkte, scheinbar harmlose Interaktionen, wodurch die Grenzen zwischen echtem Nutzerengagement und kontinuierlicher Datenerfassung verschwimmen.

IV. Nachteilig für Nutzer? Ein tiefer Einblick in Metas KI-Pläne

A. Metas Datenerfassungsbereich und Rechtsgrundlage

Meta AI beabsichtigt, „öffentlich verfügbare Daten aus dem Internet, lizenzierte Informationen und von Nutzern innerhalb von Meta-Produkten und -Diensten geteilte Informationen“ zu verwenden.1 Dies umfasst insbesondere „öffentliche Nutzerfotos, die auf Facebook und Instagram gepostet wurden“, sowie „öffentliche Beiträge und Kommentare, die von Erwachsenen geteilt wurden“.1 Meta gibt explizit an, dass es „den Inhalt Ihrer privaten Nachrichten mit Freunden und Familie nicht zum Training unserer KIs verwendet“.1 Interaktionen, die Nutzer direkt mit Meta AI haben (z.B. Fragen, Anfragen), werden jedoch zum Training und zur Verbesserung der Modelle verwendet.2 Daten von Minderjährigen unter 18 Jahren in der EU sind ausdrücklich von den Trainingsdaten ausgenommen.3 Metas erklärte Rechtsgrundlage für diese Datenverarbeitung ist das „berechtigte Interesse“ gemäß Artikel 6 Absatz 1 Buchstabe f der DSGVO.3 Meta behauptet, diese Datennutzung sei notwendig, um seine KI-Modelle zu entwickeln und zu verbessern, insbesondere um vielfältige europäische Kulturen, Sprachen und Geschichte besser zu verstehen und widerzuspiegeln.9

Die Rechtsgrundlage des „berechtigten Interesses“ ist eine zentrale Bestimmung der DSGVO, die die Datenverarbeitung ohne ausdrückliche Zustimmung erlaubt, wenn das berechtigte Interesse eines Unternehmens (z.B. Geschäftsentwicklung, Sicherheit) die Rechte und Freiheiten des Einzelnen überwiegt. Ihre Anwendung auf groß angelegtes, breites KI-Training, das riesige persönliche Datensätze umfasst, ist jedoch höchst umstritten und unterliegt unterschiedlichen Interpretationen.

Die Anwendung des „berechtigten Interesses“ stellt eine umstrittene Auslegung der DSGVO für die KI-Entwicklung dar. Metas Verlass auf das „berechtigte Interesse“ 3 ist das zentrale rechtliche Schlachtfeld. Datenschutzorganisationen wie NOYB argumentieren, dass diese Rechtsgrundlage „weder rechtlich noch notwendig“ ist 9 und dass Meta stattdessen eine „Opt-in“-Zustimmung einholen sollte.9 Das frühere Urteil des Europäischen Gerichtshofs, dass Meta kein berechtigtes Interesse an gezielter Werbung geltend machen kann 9, schafft einen starken Präzedenzfall, der darauf hindeutet, dass ein ähnliches Argument für die Datennutzung zum KI-Training gelten sollte. Die Tatsache, dass die irische DPC Meta grünes Licht gab 9, während die Hamburger DPC weiterhin kritisch ist 24, unterstreicht eine signifikante und problematische rechtliche Divergenz innerhalb der EU selbst, die zu erheblicher regulatorischer Unsicherheit führt. Dies ist nicht nur ein technischer Unterschied, sondern eine grundlegende philosophische Debatte über den Standardzustand des Datenschutzes im digitalen Zeitalter. Das Ergebnis dieses spezifischen Rechtsstreits über die Auslegung des „berechtigten Interesses“ wird einen entscheidenden Präzedenzfall dafür schaffen, wie die KI-Entwicklung unter der DSGVO reguliert wird. Sollte Metas Auslegung sich durchsetzen, könnte dies das „Opt-in“-Prinzip für die Datenverarbeitung erheblich schwächen und potenziell anderen großen Technologieunternehmen erlauben, ähnliche „Opt-out“-Modelle für umfangreiches KI-Training zu übernehmen, wodurch die Last des Datenschutzes fast vollständig auf die einzelnen Nutzer verlagert würde.

B. Risiken und ethische Bedenken für Nutzer

  • Kontrollverlust: Öffentliche Inhalte von Nutzern, einschließlich historischer Beiträge, werden ohne deren ausdrückliche Zustimmung Teil der KI-Trainingsdaten.14 Viele Nutzer wissen möglicherweise nicht, dass ihre Daten auf diese Weise verwendet werden.14
  • Verarbeitung sensibler Daten: Beiträge, die „sehr persönliche Themen“ (z.B. Gesundheitszustand, politische Meinungen, religiöse Überzeugungen) behandeln, könnten von der KI ohne ausdrückliche Zustimmung verarbeitet werden, selbst wenn der Nutzer nie beabsichtigt hat, dass solche sensiblen Informationen für KI-Zwecke verwendet werden.14 NOYB hebt insbesondere die Verarbeitung „besonderer Kategorien personenbezogener Daten“ (z.B. religiöse Überzeugungen, sexuelle Orientierung) hervor, für die Artikel 9 der DSGVO typischerweise eine ausdrückliche Zustimmung erfordert.30
  • Der „Beifang-Effekt“: Selbst wenn ein einzelner Nutzer die Datennutzung erfolgreich ablehnt, können seine Daten (z.B. Gesicht, Name, Kontext) unbeabsichtigt in den Trainingsdatensatz aufgenommen werden, wenn andere Nutzer öffentlich über ihn posten.3 Dies bedeutet, dass die Identität einer Person durch die öffentlichen Handlungen anderer „indirekt miterfasst“ werden kann.3
  • Irreversibilität/Unwiederbringlichkeit: Ein kritischer und höchst problematischer Aspekt ist, dass Daten, sobald sie zum Training eines KI-Modells verwendet wurden, „technisch nicht mehr aus dem Modell zurückholbar“ sind.3 KI-Modelle können „gelernte Muster nicht einfach selektiv ‚vergessen‘“.14 Dies impliziert, dass Metas Versprechen, Daten nach einem Opt-out nicht für zukünftiges Training zu verwenden 1, nicht die Entfernung bereits aufgenommener und verarbeiteter Daten aus der KI garantiert. Dies schafft ein Problem des „digitalen Für-immer“.31
  • Intransparenz: Nutzern fehlt ein klares Verständnis darüber, wie genau ihre Daten verwendet werden, wie lange sie gespeichert werden oder welche spezifischen KI-Modelle sie beeinflussen werden.14 Die zugrunde liegenden Algorithmen und ihre Entscheidungsprozesse bleiben undurchsichtig.12
  • Potenzial für unbeabsichtigte Ausgaben/Missbrauch: Es besteht das Risiko, dass öffentliche Inhalte von der KI auf unerwartete Weise „neu zusammengesetzt oder verfremdet“ wiedergegeben werden könnten, ohne dass der Nutzer dies erkennt oder verhindern kann.14 Es besteht auch eine theoretische Möglichkeit, dass sensible oder persönliche Informationen unbeabsichtigt in KI-generierte Inhalte einfließen könnten.14
  • Voreingenommenheit und ethische Fragen: KI-Modelle spiegeln naturgemäß die Voreingenommenheiten wider, die in ihren Trainingsdatensätzen vorhanden sind. Wenn diese Datensätze bestimmte soziale Identitäten, Gemeinschaften oder Praktiken falsch darstellen, unterrepräsentieren oder marginalisieren, werden die KI-Modelle diese Voreingenommenheiten widerspiegeln und oft verstärken, was zu unfairen oder diskriminierenden Ergebnissen in realen Anwendungen führt.31
  • Verstärkung von Fehlinformationen: Generative KI-Tools können verwendet werden, um stark manipulierte oder vollständig gefälschte Texte, Videos, Bilder und Audios zu erstellen, was es „schlechten Akteuren“ erheblich erleichtert, überzeugende Desinformationen in großem Maßstab zu generieren und zu verbreiten.31 Metas eigene Geschichte von „Fehlverhalten“ (z.B. Cambridge Analytica) wirft ernsthafte Zweifel an seinen Zusicherungen hinsichtlich der konsistenten Kennzeichnung von KI-generierten Inhalten auf.20
  • Kommerzielles Interesse über Datenschutz: Kritiker argumentieren explizit, dass Metas Hauptmotivation darin besteht, „seine eigenen KI-Produkte im Wettbewerbskampf aufzurüsten“ 14, was impliziert, dass der Schutz der Nutzerprivatsphäre nicht immer oberste Priorität hat. Max Schrems von NOYB stellt unverblümt fest: „Meta sagt einfach, dass sein Interesse am Geldverdienen wichtiger ist als die Rechte seiner Nutzer“.25

Die ethischen Implikationen von KI sind tiefgreifend, insbesondere wenn die Technologie riesige Mengen persönlicher Daten verarbeitet. Die „Blackbox“-Natur vieler fortschrittlicher KI-Modelle verschärft Bedenken hinsichtlich Rechenschaftspflicht, Kontrolle und dem Potenzial für unvorhergesehene negative Folgen.

Die Irreversibilität des KI-Trainings stellt ein Problem des „digitalen Für-immer“ dar, das das Recht auf Löschung untergräbt. Der nachteiligste Aspekt für Nutzer ist die nahezu irreversible Natur von Daten, sobald sie in KI-Modelle integriert wurden.3 Dies ist eine grundlegende technische Eigenschaft, die KI-Training von traditioneller Datenverarbeitung unterscheidet. Wenn Daten nicht aus einem trainierten Modell entfernt werden können, gilt ein Opt-out nur für die zukünftige Datenerfassung, nicht für bereits verarbeitete Daten. Dies schafft ein „digitales Für-immer“-Problem 31, bei dem persönliche Informationen, sobald sie Teil der gelernten Muster eines KI-Modells sind, dauerhaft eingebettet sind und potenziell auf unvorhersehbare oder unbeabsichtigte Weise wieder auftauchen können. Dies untergräbt direkt ein Kernprinzip der DSGVO, das „Recht auf Vergessenwerden“ 25, und macht es in diesem Kontext praktisch undurchsetzbar. Diese technische Einschränkung von KI-Modellen (die Unfähigkeit, bestimmte Datenpunkte oder Muster selektiv zu „vergessen“ oder „abzulernen“ ohne umfangreiches erneutes Training) stellt eine große, systemische Herausforderung für bestehende Datenschutzparadigmen dar. Sie erfordert eine grundlegende Neubewertung der Zustimmungsmodelle für das KI-Training und plädiert nachdrücklich für einen „Opt-in“-Ansatz als einzig wirklich schützende Maßnahme für die Nutzerautonomie und das Recht auf Löschung.

Der „Beifang-Effekt“ führt zu einer Erosion der indirekten Privatsphäre und zeigt die Grenzen der individuellen Kontrolle auf. Der „Beifang-Effekt“ 3 stellt einen subtilen, aber signifikanten Nachteil dar, der über die direkten Handlungen einer Person hinausgeht. Selbst wenn ein Nutzer gewissenhaft widerspricht, kann seine Privatsphäre immer noch durch öffentliche Beiträge anderer kompromittiert werden, die ihn einschließen (z.B. in Fotos, Kommentaren, Erwähnungen). Dies bedeutet, dass die Datenschutzentscheidungen einer Person durch das kollektive Verhalten ihres sozialen Netzwerks effektiv untergraben werden. Es erweitert den Umfang der „öffentlichen Daten“ weit über das hinaus, was ein einzelner Nutzer direkt teilen möchte, und macht es für jeden praktisch unmöglich, seine digitale Präsenz im Zeitalter des allgegenwärtigen KI-Scrapings vollständig zu kontrollieren. Öffentliche Beiträge anderer Nutzer in Kombination mit Metas umfassendem KI-Scraping öffentlicher Inhalte führen zur unbeabsichtigten Aufnahme von Daten der widersprechenden Nutzer (Beifang-Effekt), was zu einer erheblichen Erosion der individuellen Datenschutzkontrolle und Autonomie führt.

Das kommerzielle Gebot treibt Metas aggressive Haltung an und steht im Konflikt mit den Nutzerrechten. Während Meta seinen Vorstoß zum KI-Training als „berechtigtes Interesse“ darstellt, das auf die „Entwicklung und Verbesserung“ seiner KI abzielt 6, betonen Kritiker durchweg, dass dies in erster Linie durch Metas intensive „kommerzielle Interessen“ und die strategische Notwendigkeit angetrieben wird, „seine eigenen KI-Produkte im Wettbewerb aufzurüsten“.14 Die explizite Aussage von Max Schrems, dass Meta das „Geldverdienen“ über die Nutzerrechte stellt 25, unterstreicht diese zugrunde liegende Motivation. Diese Perspektive legt nahe, dass der „Nachteil“ für Nutzer kein zufälliges Nebenprodukt, sondern eine direkte Folge von Metas aggressiver Geschäftsstrategie ist, um einen Wettbewerbsvorteil auf dem sich schnell entwickelnden und hochprofitablen KI-Markt zu erzielen. Dies verdeutlicht den inhärenten und oft unüberbrückbaren Konflikt zwischen den Gewinnmotiven und dem Wettbewerbsdruck großer Technologieunternehmen und den Grundrechten und Freiheiten der betroffenen Personen. In aufstrebenden Technologiefeldern wie der KI, wo riesige Datenmengen die primäre Ressource sind, wird diese Spannung besonders akut und erfordert eine robuste regulatorische Intervention zum Schutz der individuellen Rechte.

V. Vergleichende Analyse: Meta vs. andere KI-Anbieter

A. Datennutzungsrichtlinien der Hauptkonkurrenten

Die KI-Branche ist durch schnelle Innovationen gekennzeichnet, und Datennutzungsrichtlinien sind ein entscheidender Bereich der Differenzierung zwischen Anbietern. Diese Richtlinien werden oft durch eine Kombination aus Geschäftsmodellen (z.B. verbraucherorientierte vs. Unternehmenslösungen), regulatorischen Umgebungen und der historischen Haltung eines Unternehmens zum Datenschutz geprägt.

  • Google (Gemini): Google speichert Prompts, Kontextinformationen und KI-generierte Ausgaben für einen Zeitraum von 55 Tagen, explizit zu Zwecken der „Missbrauchsüberwachung“.33 Entscheidend ist, dass protokollierte Daten zur Missbrauchsüberwachung „ausschließlich zum Zweck der Richtliniendurchsetzung verwendet und nicht zum Training oder zur Feinabstimmung von KI/ML-Modellen verwendet werden“.33 Dies ist ein wesentliches Unterscheidungsmerkmal. Google bietet ein „Inline Preference Voting“-System an, bei dem Nutzer Feedback geben können, indem sie bevorzugte KI-Antworten auswählen, und dieses Feedback hilft, „Google-Produkte und -Dienste sowie maschinelle Lerntechnologien bereitzustellen, zu verbessern und zu entwickeln“.33 Diese Feedback-Daten werden vor der menschlichen Überprüfung vom Google-Konto, dem API-Schlüssel und dem Cloud-Projekt des Nutzers getrennt.33 Nutzer müssen mindestens 18 Jahre alt sein, um die Google-APIs zu nutzen, und Anwendungen, die mit diesen APIs erstellt werden, dürfen nicht auf Personen unter 18 Jahren abzielen.34
  • OpenAI (ChatGPT, DALL-E, Azure OpenAI):
    • Verbraucherdienste (ChatGPT, DALL-E): OpenAI kann Inhalte, die an diese Dienste übermittelt werden (Prompts, Antworten, Bilder, Dateien), zur „Verbesserung der Modellleistung“ verwenden, wobei die genaue Nutzung von den spezifischen Einstellungen des Nutzers abhängt.35 Nutzer werden darüber informiert, dass sie diesbezüglich Auswahlmöglichkeiten haben.35
    • Geschäftsangebote (API, ChatGPT Team, Enterprise): Standardmäßig werden Inhalte, die von Kunden an diese Geschäftsangebote übermittelt werden, nicht zur Verbesserung der Modellleistung verwendet, „es sei denn, Sie haben sich ausdrücklich dafür entschieden, Ihre Daten zu diesem Zweck mit uns zu teilen“.35 Dies stellt ein klares „Opt-in“-Modell für Unternehmensdaten dar.
    • Azure OpenAI Service (von Microsoft gehostetes OpenAI): Dieser Dienst speichert Prompts und generierte Inhalte bis zu 30 Tage lang speziell zur Erkennung und Minderung von Missbrauch.36 Diese Daten werden sicher innerhalb der Microsoft Azure-Umgebung gespeichert, sind „für andere Kunden oder OpenAI nicht zugänglich“ und sowohl während der Übertragung als auch im Ruhezustand verschlüsselt.36 Für Anwendungen, die für eine „modifizierte Missbrauchsüberwachung“ genehmigt wurden, speichert Azure OpenAI keine Prompts oder Vervollständigungen.36 Daten, die zur menschlichen Überprüfung markiert wurden, sind „logisch nach Kundenressourcen getrennt“.36
    • Nutzer können bestimmte Chat-Konversationen oder ihre gesamte Chat-Historie löschen, die in der Regel innerhalb von 30 Tagen aus den Systemen von OpenAI gelöscht wird, es sei denn, sie wurden zuvor anonymisiert oder aus Sicherheits-/Rechtsgründen aufbewahrt.35
    • OpenAI erklärt ausdrücklich, dass es keine Nutzerdaten verkauft oder Inhalte zu Marketing- oder Werbezwecken an Dritte weitergibt.35
    • Ein kürzlich ergangener richterlicher Beschluss in New York verlangte von OpenAI, „alle ChatGPT-Ausgabe-Logdaten“ unabhängig von den Datenschutzeinstellungen zu „speichern“, aufgrund laufender Urheberrechtsverletzungsklagen.30
  • Microsoft AI:
    • Microsoft betont „verantwortungsvolle KI-Anforderungen“ für Anwendungen, die mit seinen KI-Diensten erstellt werden. Dazu gehören die Implementierung technischer und operativer Maßnahmen zur Erkennung betrügerischen Nutzerverhaltens bei der Kontoerstellung und -nutzung, starke Kontrollen bei Eingaben und Ausgaben, eine klare Offenlegung, wenn Inhalte KI-generiert sind, kontinuierliche Tests und robuste Feedback-Kanäle zur Meldung von Missbrauch.37
    • Eine wichtige Richtlinie ist die Anforderung an Kunden, „alle notwendigen Hinweise zu geben und alle notwendigen Zustimmungen einzuholen, wie es das geltende Recht für den Kunden und Microsoft zur Verarbeitung von Daten, einschließlich Daten Dritter, im Rahmen der Nutzung des Microsoft AI-Dienstes vorschreibt“.37 Dies impliziert stark eine Betonung der Einholung expliziter Zustimmung.
    • Microsoft setzt fortschrittliches Data Security Posture Management (DSPM) für KI, SharePoint-Freigabekontrollen und Vertraulichkeitskennzeichnungen/DLP-Richtlinien ein, um KI-Anwendungen und Daten in seiner Umgebung zu schützen.38

Die divergierenden Ansätze zur Zustimmung – Opt-in versus Opt-out – stellen eine grundlegende philosophische Trennlinie in der Datenverwaltung von KI dar. Der Vergleich der Praktiken verschiedener KI-Anbieter zeigt eine entscheidende philosophische und praktische Divergenz in den Zustimmungsmodellen. Die Geschäftsangebote von OpenAI beispielsweise basieren auf einem expliziten Opt-in-Modell für das Datentraining 35, und die Richtlinien von Microsoft betonen durchweg die Einholung „aller notwendigen Zustimmungen“.37 Googles Gemini gibt explizit an, dass Daten, die zur Missbrauchsüberwachung gespeichert werden, nicht für das Training verwendet werden.33 Im krassen Gegensatz dazu verwendet Meta ein Opt-out-Modell für die Nutzung eines riesigen Pools öffentlicher Inhalte für sein Kern-KI-Modelltraining.1 Dies ist mehr als ein technischer Unterschied; es spiegelt eine grundlegende philosophische Haltung zum Standarddatenschutz wider. Meta legt die Last des Datenschutzes direkt auf den Nutzer, während andere große Akteure, zumindest in bestimmten Kontexten oder für bestimmte Datentypen, eine datenschutzfreundlichere Standardeinstellung übernehmen, die eine aktive Nutzereinwilligung erfordert. Diese signifikante Divergenz verdeutlicht das Fehlen eines allgemein akzeptierten Industriestandards für die KI-Datentrainingszustimmung. Metas Wahl eines Opt-out-Modells, insbesondere für einen so breiten und sensiblen Datensatz wie öffentliche soziale Medieninhalte, ist aus Datenschutzsicht nachweislich aggressiver als einige seiner direkten Konkurrenten. Dieser Ansatz deutet wahrscheinlich auf eine strategische Entscheidung hin, die Datenerfassung im hart umkämpften und datenhungrigen KI-Entwicklungslandschaft zu maximieren, potenziell auf Kosten der Nutzerautonomie und des Vertrauens.

Darüber hinaus gibt es eine Nuance zwischen „Daten für das Training“ und „Daten für die Missbrauchsüberwachung/Verbesserung“, die sich auf das Nutzervertrauen auswirkt. Eine tiefere Analyse offenbart einen kritischen Unterschied in der Art und Weise, wie verschiedene Anbieter gesammelte Daten kategorisieren und nutzen. Google (Gemini) gibt klar an, dass Daten, die zur Missbrauchsüberwachung gespeichert werden, nicht zum Training seiner Kern-KI-Modelle verwendet werden.33 OpenAI unterscheidet zwischen seinen Verbraucherdiensten (wo Daten standardmäßig zur allgemeinen Modellverbesserung verwendet werden können) und seinen Geschäftsdiensten (wo explizites Opt-in für das Training erforderlich ist).35 Meta hingegen gibt explizit seine Absicht an, öffentliche Nutzerinhalte direkt zum Training seiner generativen KI-Modelle zu verwenden.1 Diese Unterscheidung ist entscheidend, um die unterschiedlichen Datenschutzrisiken zu verstehen. Während alle Unternehmen Daten für verschiedene legitime Zwecke sammeln (z.B. Sicherheit, Serviceverbesserung, Fehlerbehebung), ist Metas direkte und umfassende Nutzung öffentlicher Nutzerinhalte für das Kern-KI-Modelltraining unter einem Opt-out-Mechanismus das, was es grundlegend unterscheidet und die größten Datenschutzbedenken hervorruft. Diese direkte Nutzung nutzergenerierter Inhalte für das grundlegende Modelltraining, anstatt nur für Serviceverbesserungen oder Missbrauchserkennung, wird als tiefgreifendere Verletzung der Privatsphäre wahrgenommen. Unterschiedliche Datenhandhabungsphilosophien und explizite Kategorisierungen der Datennutzung führen zu unterschiedlichen Zustimmungsmechanismen und Transparenzgraden, was wiederum zu unterschiedlichen Graden der Nutzerkontrolle und des wahrgenommenen Datenschutzrisikos führt.

Tabelle 2: Vergleichende Übersicht der Datennutzungsrichtlinien großer KI-Anbieter

KI-AnbieterSpezifische Datentypen für KI-TrainingRechtsgrundlage / ZustimmungsmodellDatenaufbewahrung (Zweck)Spezifische AusschlüsseHauptunterscheidungsmerkmale / Kontroversen
MetaÖffentliche Posts, Kommentare, Fotos (von Erwachsenen), Interaktionen mit Meta AI.Berechtigtes Interesse (Art. 6(1)(f) DSGVO) / Opt-outIrreversibel nach Training; Interaktionen mit AI werden für Training verwendet.Private Nachrichten, Daten von Minderjährigen (<18).Opt-out als „Dark Pattern“; „Beifang-Effekt“; Irreversibilität der Daten; starker Fokus auf kommerziellen Vorteil.
Google (Gemini)Prompts, Kontextinformationen, AI-Output (für Missbrauchsüberwachung); Feedback aus „Inline Preference Voting“ (für Verbesserung).Nutzungsbedingungen, Datenschutzrichtlinie; Feedback zur Verbesserung.55 Tage (Missbrauchsüberwachung); nicht für Training verwendet.Daten aus Missbrauchsüberwachung nicht für Training.Daten für Missbrauchsüberwachung werden nicht für Training verwendet; Feedback-Daten von Konto getrennt.
OpenAI (ChatGPT, DALL-E)Prompts, Antworten, Inhalte (Bilder, Dateien) für Verbraucherdienste (optional); explizites Opt-in für Geschäftsangebote (API, Team, Enterprise).Nutzereinstellungen (Verbraucher); Explizites Opt-in (Geschäft).30 Tage (Chat-Historie, außer de-identifiziert); 30 Tage (Azure OpenAI, Missbrauchsüberwachung).Private Nachrichten (außer bei direkter AI-Nutzung); keine Daten von Geschäftskunden ohne Opt-in.Unterscheidung zwischen Consumer- und Enterprise-Diensten; explizites Opt-in für Enterprise-Daten; richterliche Anordnung zur Datenaufbewahrung.
Microsoft AIDaten, für die Kunden „alle notwendigen Zustimmungen“ eingeholt haben.Kunden müssen „alle notwendigen Zustimmungen“ einholen.37Bis zu 30 Tage (Azure OpenAI, Missbrauchsüberwachung).Nicht explizit detailliert, aber Betonung auf Kundenzustimmung.Betonung von „Responsible AI“ und „Privacy-by-Design“; Fokus auf Kundenzustimmung und Sicherheitsmaßnahmen.

Diese Tabelle beantwortet direkt die Nutzeranfrage nach einem Vergleich von Metas Praktiken mit denen anderer KI-Anbieter. Sie bietet einen klaren, strukturierten und leicht verständlichen Überblick über die unterschiedlichen Ansätze der wichtigsten Akteure im KI-Bereich. Durch die systematische Hervorhebung wichtiger Unterschiede bei den verwendeten Datentypen, Rechtsgrundlagen, Zustimmungsmodellen und Datenaufbewahrungsrichtlinien ermöglicht die Tabelle eine schnelle und fundierte Bewertung, wie Metas Ansatz heraussticht. Sie verstärkt visuell das Argument, dass Metas Verlass auf „berechtigtes Interesse“ und ein Opt-out-Modell für das breite öffentliche Datentraining aus Datenschutzsicht aggressiver ist als die nuancierteren oder expliziten Opt-in-Ansätze einiger seiner Konkurrenten. Diese vergleichende Analyse ist für eine umfassende Beantwortung der Nutzeranfrage unerlässlich.

VI. Die rechtliche und regulatorische Landschaft

A. Das Schlachtfeld der DSGVO

Die Datenschutz-Grundverordnung (DSGVO) schreibt vor, dass jede Verarbeitung personenbezogener Daten eine gültige Rechtsgrundlage haben muss, wie in Artikel 6 Absatz 1 dargelegt. Meta beruft sich ausdrücklich auf das „berechtigte Interesse“ (Artikel 6 Absatz 1 Buchstabe f) für seine KI-Trainingsaktivitäten.3 Datenschutzorganisationen, allen voran NOYB (None Of Your Business), argumentieren vehement, dass das „berechtigte Interesse“ eine unzureichende Rechtsgrundlage für eine so umfangreiche Datenverarbeitung für das KI-Training ist. Sie behaupten, dass eine ausdrückliche „Opt-in“-Zustimmung erforderlich ist, insbesondere angesichts der potenziellen Einbeziehung „besonderer Kategorien personenbezogener Daten“ (z.B. Gesundheitsinformationen, religiöse Überzeugungen, sexuelle Orientierung), die in öffentlichen Beiträgen enthalten oder daraus abgeleitet werden könnten.9 NOYB verweist auf ein früheres Urteil des Europäischen Gerichtshofs, das feststellte, dass Meta kein „berechtigtes Interesse“ an gezielter Werbung geltend machen konnte, und argumentiert, dass dieser Präzedenzfall logischerweise auf die Datennutzung für das KI-Training ausgedehnt werden sollte.9 Als Reaktion auf Metas Pläne hat NOYB ein Unterlassungsschreiben an Metas irische Zentrale geschickt und mit einer Sammelklage gedroht, falls das Unternehmen ohne ausdrückliche Opt-in-Zustimmung fortfährt.9 Über die Zustimmung hinaus behauptet NOYB auch, dass Metas KI-Datentrainingsplan gegen andere grundlegende DSGVO-Prinzipien verstößt, einschließlich Fairness, Zweckbindung und Datenminimierung. Darüber hinaus deutet NOYB an, dass dies einen Verstoß gegen Metas Verpflichtungen als „Gatekeeper“ gemäß dem Digital Markets Act (DMA) darstellen könnte.30

Die DSGVO gilt weithin als eine der strengsten Datenschutzvorschriften der Welt, die darauf abzielt, Einzelpersonen erhebliche Kontrolle über ihre persönlichen Daten zu geben. Die Auslegung und Anwendung ihrer verschiedenen Rechtsgrundlagen, insbesondere des „berechtigten Interesses“ im Kontext aufkommender Technologien wie KI, sind zentrale Punkte in laufenden rechtlichen und ethischen Debatten.

Es besteht ein grundlegender Konflikt zwischen Unternehmensinnovation und Wettbewerbsvorteil einerseits und individuellen Grundrechten unter der DSGVO andererseits. Metas Begründung für die Nutzung des „berechtigten Interesses“ 3 wird explizit um die Notwendigkeit der KI-Entwicklung und -Verbesserung 6 und die Aufrechterhaltung eines Wettbewerbsvorteils herum formuliert. Datenschutzgruppen wie NOYB und andere Verbraucherorganisationen 9 bestreiten jedoch vehement, dass dieses Unternehmensinteresse die Grundrechte der betroffenen Personen, insbesondere ihr Recht auf Zustimmung und Kontrolle über potenziell sensible personenbezogene Daten 14, überwiegt und überwiegen sollte. Dies stellt eine klassische rechtliche und ethische Spannung dar: der Drang nach technologischem Fortschritt und wirtschaftlicher Wettbewerbsfähigkeit versus der Schutz der individuellen Privatsphäre und Autonomie. Der Hauptzweck der DSGVO besteht darin, ein Gleichgewicht zwischen diesen konkurrierenden Interessen herzustellen, und Datenschützer sind fest davon überzeugt, dass Metas derzeitiger Ansatz seine eigenen kommerziellen Interessen unverhältnismäßig begünstigt. Die Lösung dieses bedeutenden Rechtsstreits wird weitreichende Auswirkungen auf die Zukunft der KI-Entwicklung und der Datenverwaltung innerhalb der EU haben. Sie könnte einen entscheidenden Präzedenzfall dafür schaffen, ob große Technologieunternehmen große Mengen öffentlicher Daten für das KI-Training unter einem weniger strengen Opt-out-Modell verwenden dürfen oder ob die strengere „Opt-in“-Zustimmung zum obligatorischen Standard für eine solche Datenverarbeitung wird.

B. Gerichtliche und regulatorische Reaktionen

  • Urteil des OLG Köln: Das Oberlandesgericht Köln wies einen Eilantrag von Verbraucherschutzverbänden ab, der darauf abzielte, Meta an der Nutzung von Nutzerdaten für das KI-Training zu hindern.6 Das Gericht befand Metas Zweck als „legitim“ und die Datenverarbeitung als „erforderlich“, wobei es feststellte, dass „gleich wirksame, weniger intrusive Mittel“ (wie eine zuverlässige Anonymisierung) nicht verfügbar seien.7 Das Gericht kam auch zu dem Schluss, dass Metas berechtigtes Interesse die Interessen oder Grundrechte der betroffenen Personen nicht überwiegt.7
  • Irische Datenschutzkommission (DPC): Die DPC, die als Metas führende Aufsichtsbehörde in der EU fungiert, gab Meta grünes Licht für die Fortsetzung seiner KI-Trainingspläne ab dem 27. Mai 2025.9 Die DPC erklärte, dass Meta auf ihre Anfragen „reagiert“ und „bedeutende Maßnahmen und Verbesserungen“ umgesetzt habe, darunter aktualisierte Transparenzhinweise, ein benutzerfreundlicheres Opt-out-Formular und verbesserte De-Identifizierungsmaßnahmen.9 Die DPC hat Meta außerdem aufgefordert, im Oktober 2025 einen Bericht über die Wirksamkeit und Angemessenheit dieser Schutzmaßnahmen vorzulegen.3
  • Widersprüchliche Ansichten der Behörden: Trotz der Freigabe durch die DPC und des Urteils des OLG Köln behalten andere europäische Datenschutzbehörden eine kritische Haltung bei. Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI) beispielsweise leitete ein Eilverfahren gegen Meta ein und beabsichtigt, das KI-Training für deutsche Betroffene für mindestens drei Monate zu untersagen.24 Die maltesische IDPC äußerte ebenfalls „große datenschutzrechtliche Bedenken“ hinsichtlich Metas Pläne.42
  • NOYB hat die nationalen Datenschutzbehörden dafür kritisiert, weitgehend zu schweigen oder „an Relevanz zu verlieren“, was darauf hindeutet, dass diese Untätigkeit NGOs dazu zwingt, selbst rechtliche Schritte einzuleiten.9

Die fragmentierte regulatorische Reaktion in ganz Europa, gekennzeichnet durch unterschiedliche Interpretationen der DSGVO und variierende Durchsetzungsmaßnahmen nationaler Datenschutzbehörden und Gerichte, schafft ein komplexes und unsicheres rechtliches Umfeld sowohl für Meta als auch für seine Nutzer. Dieser Mangel an einer einheitlichen Haltung erschwert die Einhaltung und den Schutz der Nutzer.

Die regulatorische Fragmentierung birgt das Risiko eines „Wettlaufs nach unten“ in der KI-Datenverwaltung. Die widersprüchlichen Positionen zwischen der irischen DPC (die Meta grünes Licht gab 9) und der Hamburger DPC (die eine kritische Haltung beibehält und Verfahren einleitet 24) offenbaren eine signifikante und problematische Fragmentierung bei der Durchsetzung der DSGVO in der gesamten EU. Das Urteil des OLG Köln 6 ist eine „Eilentscheidung“ und kein endgültiges, abschließendes Urteil, was Raum für weitere rechtliche Anfechtungen lässt. Diese fragmentierte Landschaft schafft eine Situation, in der Meta potenziell das günstigste regulatorische Umfeld suchen könnte, wodurch die Harmonisierungsabsicht der DSGVO untergraben würde. NOYBs scharfe Kritik, dass Behörden „schweigen“ 9 oder „an Relevanz verlieren“ 11, ist eine schwere Anklage des derzeitigen Durchsetzungsrahmens, die auf eine systemische Schwäche hindeutet. Diese regulatorische Fragmentierung könnte zu einem „Wettlauf nach unten“ bei den Datenschutzstandards für KI führen, bei dem Unternehmen sich in Jurisdiktionen mit nachsichtigeren Interpretationen oder weniger rigoroser Durchsetzung orientieren. Dies benachteiligt letztendlich die Nutzer in der gesamten EU, indem es ein ungleiches Spielfeld für Datenschutzrechte schafft. Es unterstreicht die dringende Notwendigkeit einer stärkeren, einheitlicheren und konsequent angewandten Durchsetzung durch den Europäischen Datenschutzausschuss (EDPB), um einen konsistenten Schutz für alle EU-Bürger zu gewährleisten.

C. Umfassendere regulatorische Rahmenbedingungen

  • Datenpunkte:
    • Das kürzlich verabschiedete EU-KI-Gesetz, das sich hauptsächlich auf die sichere technische Entwicklung von KI konzentriert, erkennt den legitimen Zweck der Datennutzung für das KI-Training an (Erwägungsgrund 8).7
    • Metas Einstufung als „Gatekeeper“ gemäß dem Digital Markets Act (DMA) spielt ebenfalls eine wichtige Rolle in den laufenden Diskussionen über seine Datenpraktiken.24 NOYB deutet ausdrücklich an, dass die Kombination personenbezogener Daten von Facebook und Instagram für diesen neuen KI-Trainingszweck ohne ausdrückliche Zustimmung einen Verstoß gegen Metas Verpflichtungen gemäß dem DMA darstellen könnte.30

Die Europäische Union ist weltweit führend bei der Schaffung umfassender regulatorischer Rahmenbedingungen für digitale Technologien. Das EU-KI-Gesetz zielt darauf ab, einen robusten Rechtsrahmen für KI-Systeme auf der Grundlage von Risiken zu schaffen, während der Digital Markets Act große Online-Plattformen ins Visier nimmt, um fairen Wettbewerb zu gewährleisten und missbräuchliche Praktiken zu verhindern.

Das Zusammenspiel und potenzielle Konflikte zwischen KI-spezifischen und allgemeinen Datenschutzvorschriften sind von großer Bedeutung. Das EU-KI-Gesetz 7 erkennt das KI-Training als legitimen Zweck an, was Meta in seinen Argumenten nutzen kann. Dies muss jedoch mit den strengeren Datenschutzanforderungen der DSGVO 3 und den wettbewerbsrechtlichen Regeln des DMA 24 in Einklang gebracht werden. Es besteht ein potenzielles Spannungsfeld zwischen dem Fokus des KI-Gesetzes auf die Förderung von KI-Innovation und technischer Sicherheit und dem grundlegenden Schwerpunkt der DSGVO auf individuellen Datenrechten.26 Die Besorgnis der Nutzeranfrage über „Nachteile“ für Nutzer ist direkt damit verbunden, wie diese unterschiedlichen, aber sich überschneidenden Regulierungsinstrumente interpretiert, angewendet und gemeinsam durchgesetzt werden. Ein Mangel an klarer Hierarchie oder konsistenter Interpretation dieser Gesetze kann zu rechtlicher Unklarheit und anhaltenden Herausforderungen sowohl für Technologieunternehmen als auch für betroffene Personen führen. Dieses komplexe Zusammenspiel deutet auf ein entstehendes und sich entwickelndes regulatorisches Umfeld hin, in dem verschiedene Rechtsinstrumente sich überschneidende oder sogar widersprüchliche Anforderungen haben könnten. Dies kann zu rechtlicher Unsicherheit führen, Schlupflöcher für Unternehmen schaffen und letztendlich einen wirksamen Nutzerschutz behindern. Es verdeutlicht die Herausforderung, kohärente und umfassende Vorschriften für schnell fortschreitende Technologien wie KI zu schaffen, die mehrere Rechtsbereiche betreffen.

VII. Fazit und Empfehlungen

A. Wichtigste Erkenntnisse

Die intensive und weit verbreitete Medienberichterstattung über Metas Frist zur Ablehnung der KI-Datennutzung ist tatsächlich eine direkte Folge einer tief verwurzelten öffentlichen Skepsis gegenüber Metas historischen Datenpraktiken, die oft durch seinen Ruf als „Datenkrake“ zusammengefasst wird. Diese Skepsis wird durch echte und signifikante Bedenken hinsichtlich der Auswirkungen seiner aktuellen KI-Datenstrategie verstärkt.

Metas KI-Pläne sind für Nutzer aus mehreren kritischen Gründen nachweislich nachteilig: die inhärente Belastung und Komplexität des Opt-out-Modells, die potenzielle Einbeziehung hochsensibler öffentlicher Daten, der unvermeidliche „Beifang-Effekt“, bei dem die Daten einer Person durch die Beiträge anderer erfasst werden können, und, am kritischsten, die nahezu irreversible Natur von Daten, sobald sie in KI-Modelle integriert wurden.

Metas Ansatz unterscheidet sich von einigen großen KI-Anbietern durch seine Abhängigkeit vom „berechtigten Interesse“ als Rechtsgrundlage und einem Opt-out-Modell für das breite öffentliche Datentraining. Im Gegensatz dazu verwenden mehrere Wettbewerber explizitere „Opt-in“-Mechanismen für bestimmte Datentypen oder für ihre geschäftsorientierten KI-Dienste, was eine datenschutzbewusstere Standardeinstellung demonstriert.

Die Rechtslandschaft bleibt umstritten und entbehrt einer einheitlichen Klarheit, gekennzeichnet durch widersprüchliche Interpretationen und unterschiedliche Durchsetzungsmaßnahmen verschiedener europäischer Gerichte und nationaler Datenschutzbehörden. Diese regulatorische Fragmentierung schafft Unsicherheit und Herausforderungen für einen konsistenten Nutzerschutz.

B. Empfehlungen für Nutzer

  • Datenschutzeinstellungen aktiv überprüfen und anpassen: Nutzer sollten ihre Datenschutzeinstellungen auf allen Meta-Plattformen (Facebook, Instagram, WhatsApp) regelmäßig überprüfen und anpassen, um zu kontrollieren, wer ihre Inhalte sehen kann und wie sie geteilt werden.1
  • Widerspruchsrechte gewissenhaft ausüben: Wenn Sie verhindern möchten, dass Ihre öffentlichen Daten für das Meta AI-Training verwendet werden, ist es entscheidend, das Widerspruchsformular aktiv vor der angegebenen Frist einzureichen.1 Seien Sie auf technische Schwierigkeiten oder prozedurale Hürden vorbereitet und bleiben Sie hartnäckig, die während dieses Prozesses auftreten können.12
  • Öffentliche Beiträge und den „Beifang-Effekt“ beachten: Verstehen Sie, dass alle öffentlich geteilten Inhalte – einschließlich Fotos, Kommentare und Interaktionen – potenziell für das KI-Training verwendet werden können, selbst wenn Sie persönlich widersprechen, aufgrund des „Beifang-Effekts“.3 Erwägen Sie, die Sichtbarkeit vergangener und zukünftiger öffentlicher Beiträge auf ein stärker eingeschränktes Publikum (z.B. „nur Freunde“) zu ändern, um dieses Risiko zu mindern.10
  • Vorsicht bei KI-Interaktionen: Wenn Sie mit Meta AI-Funktionen (z.B. Chatbots in WhatsApp oder Instagram) interagieren, geben Sie keine sensiblen persönlichen oder privaten Informationen ein oder besprechen Sie diese nicht, da diese direkten Interaktionen für das Modelltraining verwendet werden können.1
  • Informiert bleiben und Expertenrat einholen: Bleiben Sie wachsam bezüglich Aktualisierungen der Datenschutzrichtlinien und laufender rechtlicher Entwicklungen im Zusammenhang mit KI und Datennutzung. Zögern Sie nicht, Verbraucherschutzorganisationen oder Rechtsexperten zu konsultieren, wenn Sie erhebliche Bedenken haben oder Unterstützung bei der Ausübung Ihrer Datenrechte benötigen.43

C. Empfehlungen für Regulierungsbehörden und politische Entscheidungsträger

  • Harmonisierung der DSGVO-Durchsetzung und -Interpretation: Der Europäische Datenschutzausschuss (EDPB) muss klarere, rechtsverbindliche Leitlinien zur Anwendung des „berechtigten Interesses“ für das KI-Training herausgeben und aktiv einen konsistenten „Opt-in“-Standard in allen EU-Mitgliedstaaten fördern, insbesondere für sensible Daten und das Training grundlegender KI-Modelle.
  • Verpflichtung zu benutzerfreundlichen und effektiven Opt-out-Mechanismen: Regulierungsbehörden sollten die Implementierung transparenter, leicht auffindbarer und wirklich zugänglicher Opt-out-Verfahren durchsetzen, die nicht auf „Dark Patterns“ beruhen oder den Nutzern unzumutbare Belastungen auferlegen, wie z.B. die Notwendigkeit umfangreicher Begründungen. Es muss sichergestellt werden, dass Opt-out-Anfragen automatisch und effektiv ohne willkürliche Überprüfungen oder Verzögerungen erfüllt werden.
  • Umgang mit Datenirreversibilität in KI-Modellen: Es müssen robuste rechtliche und technische Rahmenbedingungen entwickelt werden, um die beispiellose Herausforderung der Datenunwiederbringlichkeit aus trainierten KI-Modellen direkt anzugehen. Dies kann die Verpflichtung von Unternehmen erfordern, effektive „Unlern“-Mechanismen nachzuweisen oder strengere Zustimmungsanforderungen für Daten aufzuerlegen, die nicht effektiv aus KI-Systemen entfernt werden können.
  • Verbesserung der algorithmischen Transparenz: KI-Entwickler müssen zu deutlich mehr Transparenz hinsichtlich der Datennutzung für das Training verpflichtet werden, einschließlich detaillierter Bewertungen des berechtigten Interesses (LIAs) und klarer, verständlicher Erklärungen der algorithmischen Prozesse und ihrer potenziellen Auswirkungen auf Einzelpersonen.
  • Stärkung der aktiven Aufsicht und Durchsetzung: Datenschutzbehörden müssen proaktiv die Einhaltung überwachen, regelmäßige und unangekündigte Audits durchführen und erhebliche, abschreckende Strafen für Verstöße verhängen, um sicherzustellen, dass Technologieunternehmen die Nutzerrechte und den Datenschutz wirklich über rein kommerzielle Interessen stellen.

D. Empfehlungen für Technologieunternehmen

Förderung echten Nutzervertrauens durch Transparenz: Es muss eine klare, ehrliche und unmissverständliche Kommunikation über Datenpraktiken und KI-Funktionalitäten erfolgen. Irreführende Sprache, versteckte Klauseln oder übermäßig komplexe Verfahren, die die Nutzerautonomie untergraben und das öffentliche Vertrauen erodieren, sind zu vermeiden.

Datenschutz durch Design und Opt-in-Standardeinstellungen übernehmen: Robuste Datenschutzmaßnahmen müssen von Anfang an in das Kerndesign und die Architektur aller KI-Systeme integriert werden. Die „Opt-in“-Zustimmung sollte als Standard für jedes KI-Training, das personenbezogene Daten umfasst, implementiert werden, insbesondere für sensible Datenkategorien.

Engagement für ethische KI-Prinzipien: Ethische Überlegungen, einschließlich Fairness, Rechenschaftspflicht, Transparenz und menschliche Aufsicht, müssen während des gesamten KI-Entwicklungszyklus, von der Datenerfassung bis zur Modellbereitstellung, priorisiert und verankert werden.

Investition in „Unlern“-Fähigkeiten: Erhebliche Forschungs- und Entwicklungsressourcen müssen für die Erforschung und Implementierung technischer Lösungen zur effektiven Entfernung spezifischer Datenpunkte oder Muster aus trainierten KI-Modellen bereitgestellt werden, um so das Grundrecht auf Löschung zu wahren.

Dieser Beitrag ist Teil meiner Blog-Serie Generation InSZtant-Antwort — good bye Suchmaschinen-Boomer. Darin teile ich die Ergebnisse meiner persönlichen KI-Recherchen. In der Ära Post-Suchmaschinen und Post-Social hat sich KI als der neue Online-Informations-Gatekeeper etabliert. Statt Webseiten von Suchmaschien-Ergebnisseiten abzusurfen, um Antworten auf unsere Fragen zu finden, werden diese uns als Instant-Antwort als Text serviert. Schnell und mundgerecht. Die User gewöhnen sich dran — wie können Medien & Blogs mithalten? Ich probiere es hier aus (mehr dazu in meinem Einführungs-Blogtext).

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet Stichworte: Facebook, Generation InSZtant-Antwort — good bye Suchmaschinen-Boomer, Künstliche Intelligenz, medien, Meta

Podcast-News eingeordnet: Spotify macht Podcast-Zahlen-Rückzieher

19. Mai 2025 von Daniel Kommentar verfassen

Zeit, mal wieder auf die Podcast-News zu schauen. Die letzten Tage ist einiges interessantes passiert.

Spotify reagiert auf Kritik an öffentlichen Podcast-Playcounts

Spotify hatte kürzlich begonnen, die Anzahl der Wiedergaben einzelner Podcast-Episoden öffentlich anzuzeigen. Nach heftiger Kritik von Podcaster*innen, die befürchteten, dass niedrige Zahlen potenzielle Hörer abschrecken könnten, hat Spotify nun reagiert. Künftig werden öffentliche Playcounts nur noch angezeigt, wenn eine Episode mehr als 50.000 Wiedergaben erreicht hat. Diese werden dann in Form von Meilensteinen wie “50K”, “100K” oder “1 Mio.” dargestellt. Detaillierte Zahlen bleiben weiterhin nur für die Ersteller*innen sichtbar. 

Fiene checkt: Was steckt hinter den öffentlichen Podcast-Zahlen? Diese Änderung reiht sich in viele weitere Neuerungen der letzten Monate ein, mit denen Spotify Youtube immer ähnlicher werden will. Das klappt nur nicht immer: Alle sind es gewohnt, dass bei Youtube die Video-Abrufe stehen — bei bei Spotify? Spotify verspricht sich wohl mit den Zahlen bei Podcastern und bei Werbetreibend zu zeigen, dass die Plattform mindestens genauso relevant ist, wie Youtube. Vermutlich riechen die protestierenden Podcaster, dass Spotify primär eigennützige Ziele mit den Zahlen verfolgt. Da die meisten Podcasts gar nicht so viele Abrufe haben, wie man vielleicht vermuten mag, scheuen viele die Transparenz.

Aber die Angst vor öffentlichen Zahlen (selbst wenn diese niedrig sind) ist gar nicht nötig — dazu schreibe ich in der nächsten oder übernächsten Ausgabe von meinem Podcast-Strategie-Newsletter etwas.

Golden Globes führen Podcast-Kategorie ab 2026 ein

Die Golden Globes erweitern ihr Portfolio und werden ab der Verleihung 2026 erstmals einen Preis für den “Besten Podcast” vergeben. Aus den 25 meistgehörten Podcasts des Jahres werden sechs für die neue Kategorie nominiert. Sowohl Audio- als auch Videoformate sind zugelassen. Mit dieser Entscheidung reagiert die Organisation auf die wachsende Bedeutung von Podcasts als Erzählmedium.  

Fiene checkt: Was für eine tolle Nachricht. Endlich werden Podcasts so ernst wie Musik-, Film- oder Fernsehproduktionen genommen. Sie sind nicht mehr dieser neue Trend auf dem Netz, der bisher die Besten nur in eigenen Podcast-Award-Shows feiern konnte. Das Aus des Deutschen Podcast-Preises muss somit keine schlechte Nachricht sein — wenn ein etablierter Medienpreis in Deutschland die Golden Globes sich zum Vorbild nimmt.

YouTube startet wöchentliche Podcast-Charts in den USA

YouTube hat eine neue wöchentliche Auswertung eingeführt, die die 100 beliebtesten Podcasts in den USA auflistet. Die Rangliste basiert auf der gesamten Wiedergabezeit und berücksichtigt nur Inhalte, die von den Ersteller*innen explizit als Podcasts gekennzeichnet wurden. Clips und Shorts sind ausgeschlossen. Zum Start führt “The Joe Rogan Experience” die Liste an, gefolgt von Formaten wie “Kill Tony” und “Rotten Mango”. YouTube plant, die Charts künftig auf weitere Regionen auszuweiten.

Fiene checkt: Ich kann gar nicht erwarten, dass es die Charts auch bei uns in Deutschland gibt. Apple ermöglicht mit seinen Podcast-Charts einen gesunden Konkurrenz-Kampf, eine vergleichbare Erfolgsaussage als die deutsche Podcast-MA und das Entdecken von vielen neuen Formaten ermöglicht. Von Youtube als neue Top-Podcast-Plattform erwarte ich mit den Charts ähnliche gute Impulse. Dazu ist die Mechanik transparenter als die von Apple. Zwar werden es neue (kleinere) Formate zunächst schwerer haben, weil es simpel um die Gesamtnutzung geht, aber dafür werden wir sehen, welche Formate ihren Zenit überschritten haben. Nur wenige halten eine hohe Nutzung über einen sehr langen Zeitraum.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Creator & Journalism, Podcast Stichworte: Podcast, Spotify, Youtube

  • Seite 1
  • Seite 2
  • Seite 3
  • Interim pages omitted …
  • Seite 1103
  • Go to Next Page »

Haupt-Sidebar

Herzlich willkommen

Mein Name ist Daniel Fiene, ich bin Gründer und Host von "Was mit Medien". Wir sind ein Medien-Unternehmen, das dich durch den Medienwandel begleitet.

2020 war ich Redakteur bei ThePioneer. Dort habe ich das Format Tech Briefing (Newsletter + Podcast) aufgebaut. Davor war ich 13 Jahre bei der Rheinischen Post Mediengruppe — vom Volontär bei Antenne Düsseldorf bis zum Head of Audience Engagement der Rheinischen Post.

Seit 2001 blogge ich an dieser Stelle persönlich über das Internet, Medien und Gedöns. Mein Twitter-Account lautet @fiene. Viele Grüße aus Düsseldorf und viel Spaß bei der Lektüre!

Blogosphäre

Lust auf andere Blogs? Ich mache beim UberBlogr Webring mit. Das ist ein Netzwerk von deutschen Blogs, das dir hilft neues, interessantes, lustiges oder außergewöhnliches zu entdecken:

< voriges Blog

zufälliges Blog

nächstes Blog >

Social

  • Profil von fiene auf Facebook anzeigen
  • Profil von fiene auf Twitter anzeigen
  • Profil von dfiene auf Instagram anzeigen
  • Profil von danielfiene auf LinkedIn anzeigen
  • Profil von wasmitmedien auf YouTube anzeigen
  • Profil von DanielFiene auf Google+ anzeigen

Spotlight

Foto: Crystal Eye Studio/Shutterstock.com

Zwischen Missverständnissen und Übertreibung: Eine kleine Einführung in das Thema Clickbait

So tickt die Audio- und Podcast-Szene in NRW

5 Dinge, die ich kürzlich über das Podcasting gelernt habe

Mit der Eisenhower-App den Überblick behalten

Warum im Radio immer die gleiche Musik gespielt wird

fiene & die rechte hand von jan böhmermann

fiene & sieben tipps für journalisten, die zur sxsw wollen

fiene & das monocle-café in london

fiene & das passiert bei einer wassertaufe am flughafen

fiene & mein whatsapp-service

Archive

  • Juli 2025
  • Mai 2025
  • April 2025
  • März 2025
  • Januar 2025
  • Dezember 2024
  • November 2024
  • September 2024
  • August 2024
  • Juli 2024
  • Juni 2024
  • Mai 2024
  • April 2024
  • März 2024
  • Dezember 2023
  • Mai 2022
  • September 2021
  • März 2021
  • November 2020
  • August 2020
  • Juli 2020
  • April 2020
  • März 2020
  • Dezember 2019
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • April 2019
  • März 2019
  • Januar 2019
  • Dezember 2018
  • September 2018
  • August 2018
  • Juli 2018
  • Juni 2018
  • Mai 2018
  • März 2018
  • Februar 2018
  • Januar 2018
  • Dezember 2017
  • November 2017
  • Oktober 2017
  • August 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • August 2016
  • Juli 2016
  • Juni 2016
  • Mai 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • November 2015
  • Oktober 2015
  • September 2015
  • August 2015
  • Juli 2015
  • Juni 2015
  • Mai 2015
  • April 2015
  • März 2015
  • Januar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • März 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juli 2013
  • Juni 2013
  • Mai 2013
  • März 2013
  • Februar 2013
  • Januar 2013
  • Dezember 2012
  • November 2012
  • September 2012
  • August 2012
  • Juni 2012
  • Mai 2012
  • April 2012
  • März 2012
  • Februar 2012
  • Januar 2012
  • Dezember 2011
  • November 2011
  • Oktober 2011
  • September 2011
  • August 2011
  • Juli 2011
  • Juni 2011
  • Mai 2011
  • April 2011
  • März 2011
  • Februar 2011
  • Januar 2011
  • Dezember 2010
  • November 2010
  • Oktober 2010
  • September 2010
  • August 2010
  • Juli 2010
  • Juni 2010
  • Mai 2010
  • April 2010
  • März 2010
  • Februar 2010
  • Januar 2010
  • Dezember 2009
  • November 2009
  • Oktober 2009
  • September 2009
  • August 2009
  • Juli 2009
  • Juni 2009
  • Mai 2009
  • April 2009
  • März 2009
  • Februar 2009
  • Januar 2009
  • Dezember 2008
  • November 2008
  • Oktober 2008
  • September 2008
  • August 2008
  • Juli 2008
  • Juni 2008
  • Mai 2008
  • April 2008
  • März 2008
  • Februar 2008
  • Januar 2008
  • Dezember 2007
  • November 2007
  • Oktober 2007
  • September 2007
  • August 2007
  • Juli 2007
  • Juni 2007
  • Mai 2007
  • April 2007
  • März 2007
  • Februar 2007
  • Januar 2007
  • Dezember 2006
  • November 2006
  • Oktober 2006
  • September 2006
  • August 2006
  • Juli 2006
  • Juni 2006
  • Mai 2006
  • April 2006
  • März 2006
  • Februar 2006
  • Januar 2006
  • Dezember 2005
  • November 2005
  • Oktober 2005
  • September 2005
  • August 2005
  • Juli 2005
  • Juni 2005
  • Mai 2005
  • April 2005
  • März 2005
  • Februar 2005
  • Januar 2005
  • Dezember 2004
  • November 2004
  • Oktober 2004
  • September 2004
  • August 2004
  • Juli 2004
  • Juni 2004
  • Mai 2004
  • April 2004
  • März 2004
  • Februar 2004
  • Januar 2004
  • Dezember 2003
  • November 2003
  • Oktober 2003
  • September 2003
  • August 2003
  • Juli 2003
  • Juni 2003
  • Mai 2003
  • April 2003
  • März 2003
  • Februar 2003
  • Januar 2003
  • Dezember 2002
  • November 2002
  • Oktober 2002
  • September 2002
  • August 2002
  • Juli 2002
  • Juni 2002
  • Mai 2002
  • April 2002
  • März 2002
  • Februar 2002
  • Januar 2002
  • Dezember 2001
  • Januar 1970

Navigation

  • acobu 3 is here
  • Bücher
  • Bonus-Content: Deep Dives zum Medienwandel
  • Daniel Fiene
  • Daniel Fienes Kiosk
  • Daniel Fienes Kiosk
  • Daniel Fienes Newsletter
  • Datenschutzerklärung
  • Der Radio Concierge Web-Bot
  • Die Blogger des Jahres 2015
  • Die Goldenen Blogger 2016
  • Friends
  • Impressum
  • Kontakt
  • Let’s engage
  • Mein Netzwerk
  • Meine Themen
  • Podcasting.fm
  • Podcasting.fm 150 Fragen
  • Podcasting.fm Workroom
  • Podcasting.fm Workshops
  • Profil
  • Radio & Podcasting
  • Termine
  • Was mit Medien
  • Wie gehts weiter?
  • Workshops & Kongresse
  • Yes! Wir sind mit dem Listening-Center nominiert

Zweit-Sidebar

Fienes Top 3 – das Spotlight im Juni


Future of Podcasts Social-Strategie 2025 Unser Blog soll schöner werden

Blog als Audio

Footer

Kommentiert

  • Thomas Gigold bei WordPress ist doch gar nicht so schlecht
  • Massimo bei Fienes Fünf Fav für Freitag #NischigstePodcasts
  • Daniel bei 5 Ideen für deinen Podcast 2025 ⭐️
  • Sebastian bei 5 Ideen für deinen Podcast 2025 ⭐️
  • Phillip bei Fienes Fünf Fav für Freitag #Newsletterformate

Instagram

Die Antwort von Instagram enthielt ungültige Daten.

Folgt mir!

Themen filtern:

  • Medien — ein Blick(e) auf und hinter die Schlagzeilen
  • Mobilitiät — smarter reisen
  • Alltag — wie das Internet Gewohnheiten verändert
  • Produktivität — klüger arbeiten
  • Gute Orte — Düsseldorf und unterwegs

Copyright © 2025 · eleven40 Pro on · Anmelden

  • Daniel Fienes Blog
  • Was mit Medien
  • Podcasting.fm
  • Style & Stitches
  • Datenschutzerklärung
  • Impressum
%d