• Zur Hauptnavigation springen
  • Skip to main content
  • Zur Hauptsidebar springen
  • Zur Zweit-Sidebar springen
  • Zur Fußzeile springen

daniel fienes weblog

  • Startseite
    • Meine Link-in-Bio-Seite
    • Deep Dives
  • Meine Angebote
    • Was mit Medien
    • Style & Stitches
    • Podcasting.fm
  • Meine Themen
    • Podcasting
    • Medienwandel
    • Audience Engagement
  • Mein Kiosk
  • Für dich
    • Kontakt
    • Profil / Bio / Foto
    • Newsletter
    • Workshops & Kongresse
    • Talks & Interviews
    • Radio & Podcasting
    • Bücher & Kolumnen
    • Datenschutzerklärung
    • Impressum
Aktuelle Seite: Startseite / Archiv für Facebook

Facebook

Was steckt hinter Metas KI-Plänen? Ist die Medien-Berichterstattung zur Widerspruchsfrist übertrieben?

25. Mai 2025 von Daniel Kommentar verfassen

Mir sind sie schon ein wenig aus den Ohren rausgekommen: Die ganzen Postings auf Medien-Social-Kanälen, Meldungen, Erinnerungen und Berichte, dass Meta-User bis zum 26. Mai Widerspruch einlegen müssen, wenn sie nicht möchten, dass ihre Texte, Bilder, Videos und sonstigen Daten für KI-Training genutzt werden.

Jetzt einen Tag vorher denke ich: Was steckt eigentlich dahinter? In der Meldungsflut sind bei mir nicht viele Details hängengeblieben. Übertreiben die Medien, weil es halt Meta ist? Oder macht Meta etwas, was sich vom KI-Training der anderen Marktplayer deutlich unterscheidet?

Grundsätzlich gehe ich erst einmal offen an Entscheidungen ran, was KI-Training mit meinen Daten angeht. Jeff Jarvis hat das in einem Podcast gut erklärt: Wenn wir alle erst einmal auf Blockade-Haltung gehen, dann überlassen wir das Datenfeld denen, die mit eigener Agenda unterwegs sind. Populistische Medien beispielsweise, wie so manche Fälle schon zeigen.

Vielleicht sucht ihr wie ich auch noch mehr Hintergrund. Ich habe deswegen eine Instant Antwort zusammengestellt, die ich mit euch teile: Was sind Metas KI-Trainings-Pläne? Wie unterscheiden die sich von der Konkurrenz? Ist das Medienecho vor der Widerspruchsfrist gerechtfertigt? Ich sage mal so: Am Ende hat mich die Antwort überrascht.

Google Gemini sagt:

Ja, die intensive Medienberichterstattung, die Sie beobachten, ist aus mehreren Gründen absolut gerechtfertigt. Sie ist nicht nur auf Metas langjährigen Ruf als „Datenkrake“ zurückzuführen, sondern auch auf die tatsächlichen Nachteile und die umstrittene Natur der aktuellen KI-Datennutzungspläne von Meta, die sich von der Praxis anderer großer KI-Anbieter unterscheiden.

Hier sind die Hauptgründe, warum die Aufregung gerechtfertigt ist:

  1. Metas Historie als „Datenkrake“: Meta (ehemals Facebook) hat eine lange und gut dokumentierte Geschichte von Datenschutzbedenken und -skandalen, wie den Cambridge Analytica-Skandal , bei dem persönliche Daten von Millionen von Nutzern ohne deren ausdrückliche Zustimmung gesammelt und für politische Kampagnen verwendet wurden. Auch frühere Data-Mining-Praktiken und die Speicherung unverschlüsselter Passwörter haben zu einem tief sitzenden Misstrauen in der Öffentlichkeit geführt. Dieser historische Kontext prägt die Wahrnehmung jeder neuen Datenrichtlinie von Meta und führt zu erhöhter Skepsis und intensiver medialer Prüfung.  
  2. Das umstrittene Opt-out-Modell: Meta stützt sich auf das „berechtigte Interesse“ als Rechtsgrundlage, um öffentliche Nutzerinhalte für das KI-Training zu verwenden, anstatt eine explizite „Opt-in“-Zustimmung einzuholen. Das bedeutet, Nutzer müssen aktiv widersprechen, wenn sie nicht möchten, dass ihre Daten verwendet werden. Datenschutzorganisationen wie NOYB argumentieren vehement, dass dieser Ansatz gegen die DSGVO verstößt und eine „Opt-in“-Zustimmung erforderlich wäre. Die Notwendigkeit eines aktiven Widerspruchs, insbesondere bei einem so riesigen und sensiblen Datensatz, wird als „unverhältnismäßige Belastung“ und sogar als „Dark Pattern“ kritisiert, da der Prozess oft kompliziert und schwer zu finden ist. Viele Nutzer berichten von technischen Schwierigkeiten beim Widerspruch, wie fehlenden Verifizierungscodes oder fehlerhaften Links.  
  3. Irreversibilität der Daten: Ein entscheidender Nachteil für Nutzer ist, dass Daten, sobald sie zum Training eines KI-Modells verwendet wurden, „technisch nicht mehr aus dem Modell zurückholbar“ sind. Das bedeutet, selbst wenn ein Nutzer erfolgreich widerspricht, gilt dies nur für zukünftiges Training, nicht aber für Daten, die bereits in die KI integriert wurden. Dies untergräbt das „Recht auf Vergessenwerden“ der DSGVO.  
  4. Der „Beifang-Effekt“: Selbst wenn Sie der Datennutzung widersprechen, können Ihre Daten (z.B. Ihr Gesicht auf einem Foto, Ihr Name in einem Kommentar) unbeabsichtigt in den Trainingsdatensatz aufgenommen werden, wenn andere Nutzer öffentlich über Sie posten. Dies bedeutet, dass Ihre Identität „indirekt miterfasst“ werden kann, was die individuelle Kontrolle über die eigenen Daten weiter einschränkt.  
  5. Vergleich mit anderen KI-Anbietern: Metas Verlass auf ein Opt-out-Modell für die Nutzung öffentlicher Inhalte für das Kern-KI-Modelltraining unterscheidet sich von einigen seiner Hauptkonkurrenten. Beispielsweise verwenden die Geschäftsangebote von OpenAI standardmäßig ein explizites Opt-in-Modell für das Datentraining , und Google gibt an, dass Daten, die zur Missbrauchsüberwachung gespeichert werden, nicht für das Training seiner Kern-KI-Modelle verwendet werden. Metas Ansatz wird daher als aggressiver und potenziell invasiver wahrgenommen.  
  6. Rechtliche Unsicherheit und widersprüchliche Meinungen: Die Rechtslage ist umstritten. Während das OLG Köln einen Eilantrag von Verbraucherschützern abwies und Metas Zweck als „legitim“ einstufte , behalten andere europäische Datenschutzbehörden, wie die Hamburger DPC, eine kritische Haltung bei und leiten eigene Verfahren ein. Diese fragmentierte regulatorische Reaktion trägt zur Unsicherheit bei und verstärkt die Notwendigkeit der Medien, die Öffentlichkeit zu informieren.  

Zusammenfassend lässt sich sagen, dass die intensive Medienberichterstattung nicht nur auf die generelle Skepsis gegenüber Meta zurückzuführen ist, sondern auch auf die substanziellen und potenziell nachteiligen Auswirkungen von Metas KI-Datennutzungsplänen auf die Nutzerprivatsphäre, die sich in wichtigen Punkten von den Praktiken anderer KI-Anbieter unterscheiden.

Das ist nur die Kurzfassung der Recherche. Wenn euch nach einer ausführlicheren Sonntagslektüre ist, stelle ich euch den kompletten Bericht auch zur Verfgügung.

🔎🔎🔎 Klickt hier für die Langassung der Antwort 🔎🔎🔎

Metas KI-Datenstrategie: Eine Analyse der Kontroverse, Nutzerauswirkungen und Branchenlandschaft

I. Executive Summary

Die derzeit intensive Medienberichterstattung über Metas Frist zur Ablehnung der KI-Datennutzung am 26. Mai markiert einen entscheidenden Punkt im Bereich des digitalen Datenschutzes. Metas Plan, seine generativen KI-Modelle (Meta AI) mithilfe öffentlicher Nutzerinhalte von Facebook und Instagram zu trainieren, hat, insbesondere in Europa, wo strenge Datenschutzgesetze wie die DSGVO gelten, erhebliche Kontroversen ausgelöst. Diese weitreichende „Berichterstattung“, wie in der Nutzeranfrage erwähnt, wird durch eine Kombination aus Metas historischem Ruf als „Datenkrake“, echten Bedenken hinsichtlich des Umfangs und der Irreversibilität des KI-Datentrainings sowie der wahrgenommenen Unzulänglichkeit des Widerspruchsmechanismus angetrieben.

Während Meta ein „berechtigtes Interesse“ an der Nutzung dieser Daten für die KI-Entwicklung geltend macht, argumentieren Datenschutzorganisationen wie NOYB vehement, dass dieser Ansatz gegen zentrale DSGVO-Prinzipien verstößt und eine explizite „Opt-in“-Zustimmung erfordert. Die Rechtslage bleibt umstritten: Einige Gerichte bestätigen Metas „berechtigtes Interesse“, während Datenschutzbehörden widersprüchliche Ansichten äußern und eine fortgesetzte Überwachung fordern. Im Vergleich zu anderen KI-Anbietern sticht Metas Verlass auf ein Opt-out-Modell für einen so riesigen und sensiblen Datensatz hervor, was Fragen zur Nutzerautonomie und zur Zukunft der Datenverwaltung im Zeitalter der KI aufwirft. Das Potenzial für eine irreversible Datenintegration in KI-Modelle, gepaart mit einem komplizierten Opt-out-Verfahren, birgt spürbare Nachteile für die Nutzer.

II. Der aktuelle Medienrummel: Warum die beispiellose Aufmerksamkeit?

A. Die Frist vom 26. Mai und die Kampagne zur öffentlichen Sensibilisierung

Meta kündigte im April 2025 an, öffentliche Beiträge und Kommentare von Nutzern über 18 Jahren im EU/EWR für das Training seiner KI-Modelle zu verwenden, wobei die Richtlinie am 27. Mai 2025 in Kraft treten soll.1 Nutzern wurde bis zum 26. Mai 2025 Zeit gegeben, dieser Nutzung zu widersprechen.3 Die Medien haben diese bevorstehende Frist aktiv und intensiv in Erinnerung gerufen, darunter prominente deutsche Nachrichtenmedien wie ZDF und Tagesschau.6 Es ist bemerkenswert, dass Metas KI-Trainingsbemühungen in Europa bereits im Juni 2024 aufgrund von Bedenken der irischen Datenschutzbehörden pausiert worden waren, was auf eine Geschichte der regulatorischen Prüfung hindeutet.2

Die intensive Medienaufmerksamkeit auf die Frist vom 26. Mai ist eine direkte und unmittelbare Reaktion auf Metas erneuten Versuch, seine KI-Trainingsrichtlinie in der EU umzusetzen. Dies geschieht nach einer erheblichen Pause, die selbst durch regulatorische Bedenken ausgelöst wurde. Die weit verbreitete Berichterstattung erfüllt eine wichtige öffentliche Dienstfunktion, indem sie die Nutzer über eine zeitkritische Entscheidung bezüglich ihrer persönlichen Daten informieren soll. Die Dringlichkeit wird durch den „Opt-out“-Charakter von Metas Richtlinie noch verstärkt, die ein aktives Eingreifen der Nutzer zum Schutz der Privatsphäre erfordert, anstatt des datenschutzfreundlicheren „Opt-in“-Ansatzes.

Die hervorgehobene „beispiellose“ Medienberichterstattung lässt sich auf eine verstärkte öffentliche Kontrolle zurückführen, die durch das „Opt-out“-Modell und die vorherige regulatorische Pause ausgelöst wurde. Die Tatsache, dass die irischen Datenschutzbehörden bereits im Juni 2024 Bedenken geäußert hatten, zeigt, dass Metas Pläne schon vor der aktuellen Ankündigung umstritten waren.2 Metas Entscheidung, die Richtlinie mit einem Opt-out-Modell wieder einzuführen, obwohl starke Forderungen nach einer Opt-in-Zustimmung laut wurden 9, führt naturgemäß zu einer erhöhten Medienaufmerksamkeit. Medien sehen sich in der Verantwortung, ihr Publikum über eine bevorstehende Frist für eine potenziell irreversible Datenentscheidung zu informieren, insbesondere angesichts des „versteckten“ Charakters des Opt-out-Formulars.1 Diese Kombination aus einem umstrittenen Zustimmungsmodell, einer Geschichte regulatorischer Rückschläge und einer knappen Frist schafft die perfekte Grundlage für intensive Medienprüfung und eine öffentliche Sensibilisierungskampagne. Diese Medienintensität ist ein Zeichen für einen breiteren Trend: ein wachsendes öffentliches und regulatorisches Bewusstsein für die enormen Datenanforderungen von KI und die wahrgenommene Unzulänglichkeit traditioneller, weniger strenger Datenschutzrahmen (wie Opt-out für die breite Datenverarbeitung) angesichts schnell fortschreitender technologischer Fähigkeiten. Sie unterstreicht auch die entscheidende Rolle der Medien als Verbraucherschutzanwalt, insbesondere wenn die regulatorische Klarheit umstritten oder nur langsam zu erreichen ist.

B. Nutzererfahrung mit dem Opt-out-Mechanismus

Der Opt-out-Mechanismus wird durchweg als „eher kompliziert“ und „im Labyrinth der Datenschutzeinstellungen versteckt“ für EU-Bürger beschrieben.1 Nutzer müssen ein „umfangreiches Formular“ ausfüllen.1 Zahlreiche Nutzer haben erhebliche Schwierigkeiten gemeldet, darunter den Nichterhalt von Verifizierungscodes per E-Mail, das Auftreten von fehlerhaften Links oder die Aufforderung zur Anmeldung, obwohl sie bereits authentifiziert waren.4 Während es einigen Nutzern gelang, sich erfolgreich abzumelden, stießen viele andere auf anhaltende technische Hürden.12 Das Opt-out-Formular verlangt oft eine „detaillierte Begründung“ für den Widerspruch, eine Anforderung, die einige Nutzer als belastend empfanden oder einfach umgingen, indem sie ihr Grundrecht auf Widerspruch geltend machten.12 Einige griffen sogar auf KI-Chatbots wie ChatGPT zurück, um ihre Begründungen zu formulieren.12 Meta gibt offiziell an, „alle Widerspruchsformulare zu respektieren“ 2, fügt aber auch einen merkwürdigen Hinweis hinzu: „Wir erfüllen Anfragen, die über dieses Formular gesendet werden, nicht automatisch. Wir prüfen sie im Einklang mit Ihren lokalen Gesetzen“.1 Kritiker argumentieren, dass die Auferlegung eines aktiven Schritts an die Nutzer zum Schutz ihrer Inhalte eine „unverhältnismäßige Belastung“ darstellt und vom Prinzip des „Datenschutzes durch Voreinstellung“ abweicht.4 Diese Designentscheidung wird von Datenschützern explizit als „Dark Pattern“ bezeichnet.14

Die praktische Wirksamkeit eines Opt-out-Systems hängt grundlegend von seiner Zugänglichkeit und Benutzerfreundlichkeit ab. Wenn der Prozess absichtlich oder unbeabsichtigt komplex ist, kann dies die Fähigkeit des Nutzers, sein Widerspruchsrecht auszuüben, untergraben und eine theoretische Wahl effektiv in eine De-facto-Standardeinstellung verwandeln.

Die Gestaltung des Opt-out-Verfahrens als „Dark Pattern“ stellt eine strategische Barriere für die Nutzerautonomie dar. Die in der Nutzeranfrage aufgeworfene Frage, ob Metas Pläne „tatsächlich nachteilig“ sind, wird direkt durch die gemeldeten Schwierigkeiten beim Opt-out beantwortet.1 Die explizite Verwendung des Begriffs „Dark Pattern“ 14 durch Datenschützer ist hier entscheidend, da sie impliziert, dass die Komplexität kein Versehen, sondern eine bewusste Designstrategie ist, um die Opt-out-Raten zu minimieren. Wenn Nutzer davon abgehalten oder technisch daran gehindert werden, ihr Widerspruchsrecht einfach auszuüben, erhält Meta standardmäßig Zugang zu einem größeren Datenpool, auch wenn der Nutzer theoretisch das Recht hat, dies abzulehnen. Dies untergräbt direkt die Nutzerautonomie und die Kontrolle über ihre persönlichen Daten. Ein komplexes und belastendes Opt-out-Verfahren führt zu niedrigeren Opt-out-Raten der Nutzer, was wiederum zu mehr Daten für das Meta AI-Training führt und somit einen größeren kommerziellen Vorteil für Meta auf Kosten der individuellen Nutzerprivatsphäre bedeutet.

Darüber hinaus entsteht eine Illusion von Kontrolle im Gegensatz zur tatsächlichen Datenverwaltung in der Praxis. Metas Aussage, dass es „alle Widerspruchsformulare berücksichtigen wird“ 2, wirkt auf den ersten Blick beruhigend, doch der Vorbehalt, dass Anfragen „im Einklang mit den lokalen Gesetzen geprüft“ und „nicht automatisch erfüllt“ werden 1, führt zu erheblicher Unklarheit. Dies impliziert die Möglichkeit einer Ablehnung, Verzögerung oder zusätzlicher Hürden, was die tatsächliche Kontrolle des Nutzers weiter untergräbt. Die Anforderung, „korrekt zu begründen“, warum man sich abmelden möchte 1, und die anekdotischen Beweise, dass Nutzer KI zur Formulierung ihrer Begründungen heranziehen 12, zeigen eine hohe und potenziell unfaire Hürde für die Handlungsfähigkeit des Nutzers. Dies schafft eine Illusion von Kontrolle, ohne die praktischen Mittel für deren effektive Ausübung bereitzustellen. Diese Spannung zwischen den erklärten gesetzlichen Rechten (dem Widerspruchsrecht) und der praktischen Durchsetzbarkeit dieser Rechte ist ein wiederkehrendes Thema im digitalen Datenschutz. Es deutet darauf hin, dass selbst mit robusten Vorschriften wie der DSGVO mächtige Unternehmen prozedurale Komplexität und mehrdeutige Sprache zu ihrem Vorteil nutzen können, wodurch es für Einzelpersonen schwierig wird, eine echte Kontrolle über ihre Daten zu erlangen.

Tabelle 1: Nutzerberichtete Opt-Out-Schwierigkeiten (Meta AI)

Art der SchwierigkeitBeschreibung / NutzerkommentareRelevante Quellen
Technische ProblemeNichterhalt von Verifizierungscodes, fehlerhafte Links, Aufforderung zur Anmeldung trotz bestehender Sitzung, 2FA-Probleme.4
Verstecktes FormularFormular ist „im Labyrinth der Datenschutzeinstellungen versteckt“, schwer zu finden.1
Begründungspflicht„Detaillierte Begründung“ erforderlich, die als belastend empfunden wird; Nutzer nutzen ChatGPT für Begründungen.12
Unklare BestätigungMeta prüft Anfragen „im Einklang mit lokalen Gesetzen“, nicht automatisch erfüllt; Unsicherheit, ob der Widerspruch tatsächlich akzeptiert wird.1
Wahrgenommene Behinderung„Widerspruch einlegen ist NICHT möglich und wird unterbunden“, „Meta sendet eine E-Mail mit einem fehlerhaften Link, um so zu tun, als ob sie sich daran halten, um sich der Schuld zu entziehen.“4
Unverhältnismäßige BelastungNotwendigkeit eines aktiven Schritts zum Schutz der Inhalte wird als „unverhältnismäßige Belastung“ und „Dark Pattern“ kritisiert.4

Diese Tabelle liefert konkrete, anekdotische Beweise direkt von Nutzern bezüglich der praktischen Herausforderungen, denen sie gegenüberstehen. Sie verlagert die Diskussion von abstrakten rechtlichen Argumenten auf reale Reibungspunkte, was entscheidend ist, um die Behauptung zu untermauern, dass Metas Pläne „tatsächlich nachteilig für die Nutzer“ sind. Durch die systematische Darstellung dieser Schwierigkeiten verstärkt die Tabelle das Argument, dass der Opt-out-Mechanismus nicht so unkompliziert ist, wie er erscheinen mag, und beantwortet somit direkt einen Kernaspekt der Nutzeranfrage.

III. Metas „Datenkrake“-Ruf: Eine historische Perspektive

A. Eine bewegte Datenschutzgeschichte

Meta Platforms Inc. (ehemals Facebook) hat eine lange und gut dokumentierte Geschichte von Datenschutzbedenken, die grundlegend mit seinem Geschäftsmodell der Sammlung und Monetarisierung riesiger Mengen von Nutzerinformationen für gezielte Werbung verbunden ist.15 Diese Geschichte umfasst mehrere bedeutende und aufsehenerregende Kontroversen:

  • Cambridge Analytica Skandal (2018): Dieses Ereignis enthüllte, dass persönliche Daten von bis zu 87 Millionen Facebook-Profilen ohne ausdrückliche Zustimmung der Nutzer gesammelt und anschließend für politische Anzeigenkampagnen bei wichtigen Wahlen verwendet wurden.15 Der Skandal führte zu einem „beispiellosen öffentlichen Bewusstsein für einen lange schwelenden Trend – die ungeprüfte Datensammlung und -nutzung“ 17 und „erschütterte die Welt“, was zu einem grundlegenden Umdenken in der Ethik des Datenschutzes führte.17
  • Frühe Data-Mining-Praktiken: Bereits 2005 demonstrierten MIT-Studenten die Leichtigkeit des Data Mining, indem sie öffentliche Informationen von 70.000 Profilen herunterluden.15 Ursprüngliche Facebook-Bedingungen erlaubten den Verkauf von Nutzerdaten an private Unternehmen.15 Die Plattform wurde kritisiert, weil sie Identitätsdiebstahl durch einfache Sammlung persönlicher Informationen ermöglichte und Suchmaschinen erlaubte, Profilseiten zu indexieren.15
  • Unverschlüsselte Passwörter (2019): Meta gab zu, „Hunderte Millionen“ von Facebook- und Instagram-Nutzerpasswörtern fälschlicherweise im Klartext auf internen Systemen gespeichert zu haben, die für Ingenieure zugänglich waren.15
  • Weitere bemerkenswerte Vorfälle: Das umstrittene Beacon-Programm (2007), das anfängliche Fehlen eines Mechanismus zur dauerhaften Kontolöschung (vor 2010), verschiedene Datenschutzverletzungen bei Anwendungen, die weit verbreitete Sammlung von Kontaktinformationen, Vorwürfe des Abhörens und Bedenken hinsichtlich der Datenerfassung über Oculus und aufkommende Metaverse-Plattformen.15

Als Reaktion auf diese Kontroversen und eine wegweisende Geldstrafe der FTC in Höhe von 5 Milliarden US-Dollar im Jahr 2019 gibt Meta an, über 8 Milliarden US-Dollar in den Wiederaufbau seines Datenschutzprogramms, die Stärkung von Richtlinien und die Entwicklung neuer Nutzerkontrollen investiert zu haben.19

Metas umfassende Geschichte datenbezogener Kontroversen hat die öffentliche Wahrnehmung tiefgreifend geprägt und ein tief sitzendes Misstrauen hinsichtlich seiner Datenverarbeitungspraktiken etabliert. Der Begriff „Datenkrake“ ist nicht nur eine Bezeichnung, sondern ein direktes Spiegelbild dieses historischen Kontextes, das allgegenwärtige, invasive und oft undurchsichtige Datensammlung symbolisiert.

Der Begriff „Datenkrake“ ist zu einer tief verwurzelten öffentlichen Wahrnehmung geworden und wirkt wie eine sich selbst erfüllende Prophezeiung für die Prüfung. Die direkte Bezugnahme der Nutzeranfrage auf die „Datenkrake“ ist hier entscheidend. Dieser Begriff ist keine beiläufige Beschreibung; er fasst Jahre öffentlicher Besorgnis und Medienberichterstattung zusammen. Die detaillierte Geschichte von Datenschutzverletzungen und aggressiven Datenpraktiken 15, insbesondere der Cambridge Analytica-Skandal, der „die Welt erschütterte“ und ein „beispielloses öffentliches Bewusstsein“ schuf 17, hat diese Wahrnehmung fest verankert. Dieses historische Gepäck bedeutet, dass jede neue Datenrichtlinie von Meta, insbesondere eine, die ein Opt-out für KI-Training beinhaltet, automatisch mit äußerstem Misstrauen betrachtet und einer intensiven Prüfung unterzogen wird. Metas erhebliche Investitionen in den Datenschutz 19 sind ein Versuch, dies zu mildern, aber das öffentliche Gedächtnis an vergangene Vergehen ist lang und wirkungsvoll. Der Ruf als „Datenkrake“ wird somit zu einer sich selbst erfüllenden Prophezeiung, die sicherstellt, dass jede neue Dateninitiative von Meta einer unverhältnismäßig höheren öffentlichen und medialen Skepsis ausgesetzt sein wird als bei anderen Unternehmen. Eine lange Geschichte von Datenschutzverletzungen und aggressiven Datenpraktiken führt zu tiefem öffentlichem Misstrauen und dem Ruf als „Datenkrake“, was wiederum eine erhöhte Medienprüfung und Nutzerskepsis für neue Datenrichtlinien, insbesondere im Zusammenhang mit KI, auslöst.

B. Das Wiedererwachen der Datenbedenken

Der jüngste Start von Metas personalisierter KI-Chat-App wird explizit als „Wiedererwachen von Bedenken“ hinsichtlich einer aufdringlichen Datenverfolgung beschrieben, die die Grenzen des Datenschutzes „viel weiter als Rivalen wie ChatGPT von OpenAI oder Gemini von Google“ verschiebt.16 Meta AI nutzt die etablierte Historie eines Nutzers aus seinen Facebook- und Instagram-Profilen, um Chat-Erlebnisse anzupassen, und verfolgt jede Interaktion mit dem Bot kontinuierlich, um seine Antworten weiter zu verfeinern und zu verbessern.16 Diese neue KI-Funktionalität schafft einen „neuen Strom der Verbindung in unsere Gedanken“, der Meta neue Einblicke in die persönlichen Vorlieben und Neigungen der Nutzer liefert, die dann für Werbezwecke genutzt werden.16 Zusätzliche Bedenken wurden hinsichtlich Metas Entwicklung von „KI-Personas“ geäußert, die am öffentlichen Dialog teilnehmen, potenziell die öffentliche Meinung prägen und die Grenzen zwischen menschlichen und KI-Interaktionen verwischen können.20

Die Entwicklung von passiver Datenerfassung für gezielte Werbung hin zu aktiver, interaktiver KI-Engagement mit Nutzerdaten führt zu einer neuen und intimeren Dimension des Datenschutzrisikos. Dies lässt die „Datenkrake“ unmittelbarer, allgegenwärtiger und fähiger zu tieferen Einblicken in einzelne Nutzer erscheinen.

Der Übergang von passivem Datenprofiling zu aktivem konversationellem Data Mining stellt einen qualitativen Sprung in der Aufdringlichkeit dar. Die Nutzeranfrage fragt, ob Metas aktuelle Pläne „tatsächlich nachteilig“ sind. Während sich frühere Bedenken oft auf Metas passives Data Mining für Werbezwecke konzentrierten 15, stellt der neue Meta AI-Chatbot eine signifikante qualitative Verschiebung hin zu einer aktiven und interaktiven Form der Datenerfassung dar.16 Wenn Nutzer an „zunehmend persönlichen Chats“ 16 mit Meta AI teilnehmen, füttern sie die KI direkt und explizit mit intimen Details, Gedanken und Anfragen. Diese direkten Eingaben werden dann verwendet, um das Verständnis der KI für ihre „Gedanken“, „Vorlieben“ und „Neigungen“ 16 weiter zu verfeinern. Dies ist eine weitaus ausgefeiltere und potenziell invasivere Form der Datenerfassung als die bloße Analyse von Beiträgen oder Likes. Die zusätzliche Besorgnis über KI-Personas, die die öffentliche Meinung beeinflussen 20, führt eine neue Ebene gesellschaftlicher und demokratischer Risiken ein und verwandelt die „Datenkrake“ von einem passiven Beobachter in einen aktiven Gesprächspartner und Manipulator. Diese Entwicklung der Datenerfassung von passiver Beobachtung zu aktiver konversationeller Interaktion stellt eine neue und herausfordernde Grenze im digitalen Datenschutz dar. Sie zeigt, dass die „Datenkrake“ nicht nur mehr Daten sammelt, sondern reichere, intimere und kontextsensitivere Daten durch direkte, scheinbar harmlose Interaktionen, wodurch die Grenzen zwischen echtem Nutzerengagement und kontinuierlicher Datenerfassung verschwimmen.

IV. Nachteilig für Nutzer? Ein tiefer Einblick in Metas KI-Pläne

A. Metas Datenerfassungsbereich und Rechtsgrundlage

Meta AI beabsichtigt, „öffentlich verfügbare Daten aus dem Internet, lizenzierte Informationen und von Nutzern innerhalb von Meta-Produkten und -Diensten geteilte Informationen“ zu verwenden.1 Dies umfasst insbesondere „öffentliche Nutzerfotos, die auf Facebook und Instagram gepostet wurden“, sowie „öffentliche Beiträge und Kommentare, die von Erwachsenen geteilt wurden“.1 Meta gibt explizit an, dass es „den Inhalt Ihrer privaten Nachrichten mit Freunden und Familie nicht zum Training unserer KIs verwendet“.1 Interaktionen, die Nutzer direkt mit Meta AI haben (z.B. Fragen, Anfragen), werden jedoch zum Training und zur Verbesserung der Modelle verwendet.2 Daten von Minderjährigen unter 18 Jahren in der EU sind ausdrücklich von den Trainingsdaten ausgenommen.3 Metas erklärte Rechtsgrundlage für diese Datenverarbeitung ist das „berechtigte Interesse“ gemäß Artikel 6 Absatz 1 Buchstabe f der DSGVO.3 Meta behauptet, diese Datennutzung sei notwendig, um seine KI-Modelle zu entwickeln und zu verbessern, insbesondere um vielfältige europäische Kulturen, Sprachen und Geschichte besser zu verstehen und widerzuspiegeln.9

Die Rechtsgrundlage des „berechtigten Interesses“ ist eine zentrale Bestimmung der DSGVO, die die Datenverarbeitung ohne ausdrückliche Zustimmung erlaubt, wenn das berechtigte Interesse eines Unternehmens (z.B. Geschäftsentwicklung, Sicherheit) die Rechte und Freiheiten des Einzelnen überwiegt. Ihre Anwendung auf groß angelegtes, breites KI-Training, das riesige persönliche Datensätze umfasst, ist jedoch höchst umstritten und unterliegt unterschiedlichen Interpretationen.

Die Anwendung des „berechtigten Interesses“ stellt eine umstrittene Auslegung der DSGVO für die KI-Entwicklung dar. Metas Verlass auf das „berechtigte Interesse“ 3 ist das zentrale rechtliche Schlachtfeld. Datenschutzorganisationen wie NOYB argumentieren, dass diese Rechtsgrundlage „weder rechtlich noch notwendig“ ist 9 und dass Meta stattdessen eine „Opt-in“-Zustimmung einholen sollte.9 Das frühere Urteil des Europäischen Gerichtshofs, dass Meta kein berechtigtes Interesse an gezielter Werbung geltend machen kann 9, schafft einen starken Präzedenzfall, der darauf hindeutet, dass ein ähnliches Argument für die Datennutzung zum KI-Training gelten sollte. Die Tatsache, dass die irische DPC Meta grünes Licht gab 9, während die Hamburger DPC weiterhin kritisch ist 24, unterstreicht eine signifikante und problematische rechtliche Divergenz innerhalb der EU selbst, die zu erheblicher regulatorischer Unsicherheit führt. Dies ist nicht nur ein technischer Unterschied, sondern eine grundlegende philosophische Debatte über den Standardzustand des Datenschutzes im digitalen Zeitalter. Das Ergebnis dieses spezifischen Rechtsstreits über die Auslegung des „berechtigten Interesses“ wird einen entscheidenden Präzedenzfall dafür schaffen, wie die KI-Entwicklung unter der DSGVO reguliert wird. Sollte Metas Auslegung sich durchsetzen, könnte dies das „Opt-in“-Prinzip für die Datenverarbeitung erheblich schwächen und potenziell anderen großen Technologieunternehmen erlauben, ähnliche „Opt-out“-Modelle für umfangreiches KI-Training zu übernehmen, wodurch die Last des Datenschutzes fast vollständig auf die einzelnen Nutzer verlagert würde.

B. Risiken und ethische Bedenken für Nutzer

  • Kontrollverlust: Öffentliche Inhalte von Nutzern, einschließlich historischer Beiträge, werden ohne deren ausdrückliche Zustimmung Teil der KI-Trainingsdaten.14 Viele Nutzer wissen möglicherweise nicht, dass ihre Daten auf diese Weise verwendet werden.14
  • Verarbeitung sensibler Daten: Beiträge, die „sehr persönliche Themen“ (z.B. Gesundheitszustand, politische Meinungen, religiöse Überzeugungen) behandeln, könnten von der KI ohne ausdrückliche Zustimmung verarbeitet werden, selbst wenn der Nutzer nie beabsichtigt hat, dass solche sensiblen Informationen für KI-Zwecke verwendet werden.14 NOYB hebt insbesondere die Verarbeitung „besonderer Kategorien personenbezogener Daten“ (z.B. religiöse Überzeugungen, sexuelle Orientierung) hervor, für die Artikel 9 der DSGVO typischerweise eine ausdrückliche Zustimmung erfordert.30
  • Der „Beifang-Effekt“: Selbst wenn ein einzelner Nutzer die Datennutzung erfolgreich ablehnt, können seine Daten (z.B. Gesicht, Name, Kontext) unbeabsichtigt in den Trainingsdatensatz aufgenommen werden, wenn andere Nutzer öffentlich über ihn posten.3 Dies bedeutet, dass die Identität einer Person durch die öffentlichen Handlungen anderer „indirekt miterfasst“ werden kann.3
  • Irreversibilität/Unwiederbringlichkeit: Ein kritischer und höchst problematischer Aspekt ist, dass Daten, sobald sie zum Training eines KI-Modells verwendet wurden, „technisch nicht mehr aus dem Modell zurückholbar“ sind.3 KI-Modelle können „gelernte Muster nicht einfach selektiv ‚vergessen‘“.14 Dies impliziert, dass Metas Versprechen, Daten nach einem Opt-out nicht für zukünftiges Training zu verwenden 1, nicht die Entfernung bereits aufgenommener und verarbeiteter Daten aus der KI garantiert. Dies schafft ein Problem des „digitalen Für-immer“.31
  • Intransparenz: Nutzern fehlt ein klares Verständnis darüber, wie genau ihre Daten verwendet werden, wie lange sie gespeichert werden oder welche spezifischen KI-Modelle sie beeinflussen werden.14 Die zugrunde liegenden Algorithmen und ihre Entscheidungsprozesse bleiben undurchsichtig.12
  • Potenzial für unbeabsichtigte Ausgaben/Missbrauch: Es besteht das Risiko, dass öffentliche Inhalte von der KI auf unerwartete Weise „neu zusammengesetzt oder verfremdet“ wiedergegeben werden könnten, ohne dass der Nutzer dies erkennt oder verhindern kann.14 Es besteht auch eine theoretische Möglichkeit, dass sensible oder persönliche Informationen unbeabsichtigt in KI-generierte Inhalte einfließen könnten.14
  • Voreingenommenheit und ethische Fragen: KI-Modelle spiegeln naturgemäß die Voreingenommenheiten wider, die in ihren Trainingsdatensätzen vorhanden sind. Wenn diese Datensätze bestimmte soziale Identitäten, Gemeinschaften oder Praktiken falsch darstellen, unterrepräsentieren oder marginalisieren, werden die KI-Modelle diese Voreingenommenheiten widerspiegeln und oft verstärken, was zu unfairen oder diskriminierenden Ergebnissen in realen Anwendungen führt.31
  • Verstärkung von Fehlinformationen: Generative KI-Tools können verwendet werden, um stark manipulierte oder vollständig gefälschte Texte, Videos, Bilder und Audios zu erstellen, was es „schlechten Akteuren“ erheblich erleichtert, überzeugende Desinformationen in großem Maßstab zu generieren und zu verbreiten.31 Metas eigene Geschichte von „Fehlverhalten“ (z.B. Cambridge Analytica) wirft ernsthafte Zweifel an seinen Zusicherungen hinsichtlich der konsistenten Kennzeichnung von KI-generierten Inhalten auf.20
  • Kommerzielles Interesse über Datenschutz: Kritiker argumentieren explizit, dass Metas Hauptmotivation darin besteht, „seine eigenen KI-Produkte im Wettbewerbskampf aufzurüsten“ 14, was impliziert, dass der Schutz der Nutzerprivatsphäre nicht immer oberste Priorität hat. Max Schrems von NOYB stellt unverblümt fest: „Meta sagt einfach, dass sein Interesse am Geldverdienen wichtiger ist als die Rechte seiner Nutzer“.25

Die ethischen Implikationen von KI sind tiefgreifend, insbesondere wenn die Technologie riesige Mengen persönlicher Daten verarbeitet. Die „Blackbox“-Natur vieler fortschrittlicher KI-Modelle verschärft Bedenken hinsichtlich Rechenschaftspflicht, Kontrolle und dem Potenzial für unvorhergesehene negative Folgen.

Die Irreversibilität des KI-Trainings stellt ein Problem des „digitalen Für-immer“ dar, das das Recht auf Löschung untergräbt. Der nachteiligste Aspekt für Nutzer ist die nahezu irreversible Natur von Daten, sobald sie in KI-Modelle integriert wurden.3 Dies ist eine grundlegende technische Eigenschaft, die KI-Training von traditioneller Datenverarbeitung unterscheidet. Wenn Daten nicht aus einem trainierten Modell entfernt werden können, gilt ein Opt-out nur für die zukünftige Datenerfassung, nicht für bereits verarbeitete Daten. Dies schafft ein „digitales Für-immer“-Problem 31, bei dem persönliche Informationen, sobald sie Teil der gelernten Muster eines KI-Modells sind, dauerhaft eingebettet sind und potenziell auf unvorhersehbare oder unbeabsichtigte Weise wieder auftauchen können. Dies untergräbt direkt ein Kernprinzip der DSGVO, das „Recht auf Vergessenwerden“ 25, und macht es in diesem Kontext praktisch undurchsetzbar. Diese technische Einschränkung von KI-Modellen (die Unfähigkeit, bestimmte Datenpunkte oder Muster selektiv zu „vergessen“ oder „abzulernen“ ohne umfangreiches erneutes Training) stellt eine große, systemische Herausforderung für bestehende Datenschutzparadigmen dar. Sie erfordert eine grundlegende Neubewertung der Zustimmungsmodelle für das KI-Training und plädiert nachdrücklich für einen „Opt-in“-Ansatz als einzig wirklich schützende Maßnahme für die Nutzerautonomie und das Recht auf Löschung.

Der „Beifang-Effekt“ führt zu einer Erosion der indirekten Privatsphäre und zeigt die Grenzen der individuellen Kontrolle auf. Der „Beifang-Effekt“ 3 stellt einen subtilen, aber signifikanten Nachteil dar, der über die direkten Handlungen einer Person hinausgeht. Selbst wenn ein Nutzer gewissenhaft widerspricht, kann seine Privatsphäre immer noch durch öffentliche Beiträge anderer kompromittiert werden, die ihn einschließen (z.B. in Fotos, Kommentaren, Erwähnungen). Dies bedeutet, dass die Datenschutzentscheidungen einer Person durch das kollektive Verhalten ihres sozialen Netzwerks effektiv untergraben werden. Es erweitert den Umfang der „öffentlichen Daten“ weit über das hinaus, was ein einzelner Nutzer direkt teilen möchte, und macht es für jeden praktisch unmöglich, seine digitale Präsenz im Zeitalter des allgegenwärtigen KI-Scrapings vollständig zu kontrollieren. Öffentliche Beiträge anderer Nutzer in Kombination mit Metas umfassendem KI-Scraping öffentlicher Inhalte führen zur unbeabsichtigten Aufnahme von Daten der widersprechenden Nutzer (Beifang-Effekt), was zu einer erheblichen Erosion der individuellen Datenschutzkontrolle und Autonomie führt.

Das kommerzielle Gebot treibt Metas aggressive Haltung an und steht im Konflikt mit den Nutzerrechten. Während Meta seinen Vorstoß zum KI-Training als „berechtigtes Interesse“ darstellt, das auf die „Entwicklung und Verbesserung“ seiner KI abzielt 6, betonen Kritiker durchweg, dass dies in erster Linie durch Metas intensive „kommerzielle Interessen“ und die strategische Notwendigkeit angetrieben wird, „seine eigenen KI-Produkte im Wettbewerb aufzurüsten“.14 Die explizite Aussage von Max Schrems, dass Meta das „Geldverdienen“ über die Nutzerrechte stellt 25, unterstreicht diese zugrunde liegende Motivation. Diese Perspektive legt nahe, dass der „Nachteil“ für Nutzer kein zufälliges Nebenprodukt, sondern eine direkte Folge von Metas aggressiver Geschäftsstrategie ist, um einen Wettbewerbsvorteil auf dem sich schnell entwickelnden und hochprofitablen KI-Markt zu erzielen. Dies verdeutlicht den inhärenten und oft unüberbrückbaren Konflikt zwischen den Gewinnmotiven und dem Wettbewerbsdruck großer Technologieunternehmen und den Grundrechten und Freiheiten der betroffenen Personen. In aufstrebenden Technologiefeldern wie der KI, wo riesige Datenmengen die primäre Ressource sind, wird diese Spannung besonders akut und erfordert eine robuste regulatorische Intervention zum Schutz der individuellen Rechte.

V. Vergleichende Analyse: Meta vs. andere KI-Anbieter

A. Datennutzungsrichtlinien der Hauptkonkurrenten

Die KI-Branche ist durch schnelle Innovationen gekennzeichnet, und Datennutzungsrichtlinien sind ein entscheidender Bereich der Differenzierung zwischen Anbietern. Diese Richtlinien werden oft durch eine Kombination aus Geschäftsmodellen (z.B. verbraucherorientierte vs. Unternehmenslösungen), regulatorischen Umgebungen und der historischen Haltung eines Unternehmens zum Datenschutz geprägt.

  • Google (Gemini): Google speichert Prompts, Kontextinformationen und KI-generierte Ausgaben für einen Zeitraum von 55 Tagen, explizit zu Zwecken der „Missbrauchsüberwachung“.33 Entscheidend ist, dass protokollierte Daten zur Missbrauchsüberwachung „ausschließlich zum Zweck der Richtliniendurchsetzung verwendet und nicht zum Training oder zur Feinabstimmung von KI/ML-Modellen verwendet werden“.33 Dies ist ein wesentliches Unterscheidungsmerkmal. Google bietet ein „Inline Preference Voting“-System an, bei dem Nutzer Feedback geben können, indem sie bevorzugte KI-Antworten auswählen, und dieses Feedback hilft, „Google-Produkte und -Dienste sowie maschinelle Lerntechnologien bereitzustellen, zu verbessern und zu entwickeln“.33 Diese Feedback-Daten werden vor der menschlichen Überprüfung vom Google-Konto, dem API-Schlüssel und dem Cloud-Projekt des Nutzers getrennt.33 Nutzer müssen mindestens 18 Jahre alt sein, um die Google-APIs zu nutzen, und Anwendungen, die mit diesen APIs erstellt werden, dürfen nicht auf Personen unter 18 Jahren abzielen.34
  • OpenAI (ChatGPT, DALL-E, Azure OpenAI):
    • Verbraucherdienste (ChatGPT, DALL-E): OpenAI kann Inhalte, die an diese Dienste übermittelt werden (Prompts, Antworten, Bilder, Dateien), zur „Verbesserung der Modellleistung“ verwenden, wobei die genaue Nutzung von den spezifischen Einstellungen des Nutzers abhängt.35 Nutzer werden darüber informiert, dass sie diesbezüglich Auswahlmöglichkeiten haben.35
    • Geschäftsangebote (API, ChatGPT Team, Enterprise): Standardmäßig werden Inhalte, die von Kunden an diese Geschäftsangebote übermittelt werden, nicht zur Verbesserung der Modellleistung verwendet, „es sei denn, Sie haben sich ausdrücklich dafür entschieden, Ihre Daten zu diesem Zweck mit uns zu teilen“.35 Dies stellt ein klares „Opt-in“-Modell für Unternehmensdaten dar.
    • Azure OpenAI Service (von Microsoft gehostetes OpenAI): Dieser Dienst speichert Prompts und generierte Inhalte bis zu 30 Tage lang speziell zur Erkennung und Minderung von Missbrauch.36 Diese Daten werden sicher innerhalb der Microsoft Azure-Umgebung gespeichert, sind „für andere Kunden oder OpenAI nicht zugänglich“ und sowohl während der Übertragung als auch im Ruhezustand verschlüsselt.36 Für Anwendungen, die für eine „modifizierte Missbrauchsüberwachung“ genehmigt wurden, speichert Azure OpenAI keine Prompts oder Vervollständigungen.36 Daten, die zur menschlichen Überprüfung markiert wurden, sind „logisch nach Kundenressourcen getrennt“.36
    • Nutzer können bestimmte Chat-Konversationen oder ihre gesamte Chat-Historie löschen, die in der Regel innerhalb von 30 Tagen aus den Systemen von OpenAI gelöscht wird, es sei denn, sie wurden zuvor anonymisiert oder aus Sicherheits-/Rechtsgründen aufbewahrt.35
    • OpenAI erklärt ausdrücklich, dass es keine Nutzerdaten verkauft oder Inhalte zu Marketing- oder Werbezwecken an Dritte weitergibt.35
    • Ein kürzlich ergangener richterlicher Beschluss in New York verlangte von OpenAI, „alle ChatGPT-Ausgabe-Logdaten“ unabhängig von den Datenschutzeinstellungen zu „speichern“, aufgrund laufender Urheberrechtsverletzungsklagen.30
  • Microsoft AI:
    • Microsoft betont „verantwortungsvolle KI-Anforderungen“ für Anwendungen, die mit seinen KI-Diensten erstellt werden. Dazu gehören die Implementierung technischer und operativer Maßnahmen zur Erkennung betrügerischen Nutzerverhaltens bei der Kontoerstellung und -nutzung, starke Kontrollen bei Eingaben und Ausgaben, eine klare Offenlegung, wenn Inhalte KI-generiert sind, kontinuierliche Tests und robuste Feedback-Kanäle zur Meldung von Missbrauch.37
    • Eine wichtige Richtlinie ist die Anforderung an Kunden, „alle notwendigen Hinweise zu geben und alle notwendigen Zustimmungen einzuholen, wie es das geltende Recht für den Kunden und Microsoft zur Verarbeitung von Daten, einschließlich Daten Dritter, im Rahmen der Nutzung des Microsoft AI-Dienstes vorschreibt“.37 Dies impliziert stark eine Betonung der Einholung expliziter Zustimmung.
    • Microsoft setzt fortschrittliches Data Security Posture Management (DSPM) für KI, SharePoint-Freigabekontrollen und Vertraulichkeitskennzeichnungen/DLP-Richtlinien ein, um KI-Anwendungen und Daten in seiner Umgebung zu schützen.38

Die divergierenden Ansätze zur Zustimmung – Opt-in versus Opt-out – stellen eine grundlegende philosophische Trennlinie in der Datenverwaltung von KI dar. Der Vergleich der Praktiken verschiedener KI-Anbieter zeigt eine entscheidende philosophische und praktische Divergenz in den Zustimmungsmodellen. Die Geschäftsangebote von OpenAI beispielsweise basieren auf einem expliziten Opt-in-Modell für das Datentraining 35, und die Richtlinien von Microsoft betonen durchweg die Einholung „aller notwendigen Zustimmungen“.37 Googles Gemini gibt explizit an, dass Daten, die zur Missbrauchsüberwachung gespeichert werden, nicht für das Training verwendet werden.33 Im krassen Gegensatz dazu verwendet Meta ein Opt-out-Modell für die Nutzung eines riesigen Pools öffentlicher Inhalte für sein Kern-KI-Modelltraining.1 Dies ist mehr als ein technischer Unterschied; es spiegelt eine grundlegende philosophische Haltung zum Standarddatenschutz wider. Meta legt die Last des Datenschutzes direkt auf den Nutzer, während andere große Akteure, zumindest in bestimmten Kontexten oder für bestimmte Datentypen, eine datenschutzfreundlichere Standardeinstellung übernehmen, die eine aktive Nutzereinwilligung erfordert. Diese signifikante Divergenz verdeutlicht das Fehlen eines allgemein akzeptierten Industriestandards für die KI-Datentrainingszustimmung. Metas Wahl eines Opt-out-Modells, insbesondere für einen so breiten und sensiblen Datensatz wie öffentliche soziale Medieninhalte, ist aus Datenschutzsicht nachweislich aggressiver als einige seiner direkten Konkurrenten. Dieser Ansatz deutet wahrscheinlich auf eine strategische Entscheidung hin, die Datenerfassung im hart umkämpften und datenhungrigen KI-Entwicklungslandschaft zu maximieren, potenziell auf Kosten der Nutzerautonomie und des Vertrauens.

Darüber hinaus gibt es eine Nuance zwischen „Daten für das Training“ und „Daten für die Missbrauchsüberwachung/Verbesserung“, die sich auf das Nutzervertrauen auswirkt. Eine tiefere Analyse offenbart einen kritischen Unterschied in der Art und Weise, wie verschiedene Anbieter gesammelte Daten kategorisieren und nutzen. Google (Gemini) gibt klar an, dass Daten, die zur Missbrauchsüberwachung gespeichert werden, nicht zum Training seiner Kern-KI-Modelle verwendet werden.33 OpenAI unterscheidet zwischen seinen Verbraucherdiensten (wo Daten standardmäßig zur allgemeinen Modellverbesserung verwendet werden können) und seinen Geschäftsdiensten (wo explizites Opt-in für das Training erforderlich ist).35 Meta hingegen gibt explizit seine Absicht an, öffentliche Nutzerinhalte direkt zum Training seiner generativen KI-Modelle zu verwenden.1 Diese Unterscheidung ist entscheidend, um die unterschiedlichen Datenschutzrisiken zu verstehen. Während alle Unternehmen Daten für verschiedene legitime Zwecke sammeln (z.B. Sicherheit, Serviceverbesserung, Fehlerbehebung), ist Metas direkte und umfassende Nutzung öffentlicher Nutzerinhalte für das Kern-KI-Modelltraining unter einem Opt-out-Mechanismus das, was es grundlegend unterscheidet und die größten Datenschutzbedenken hervorruft. Diese direkte Nutzung nutzergenerierter Inhalte für das grundlegende Modelltraining, anstatt nur für Serviceverbesserungen oder Missbrauchserkennung, wird als tiefgreifendere Verletzung der Privatsphäre wahrgenommen. Unterschiedliche Datenhandhabungsphilosophien und explizite Kategorisierungen der Datennutzung führen zu unterschiedlichen Zustimmungsmechanismen und Transparenzgraden, was wiederum zu unterschiedlichen Graden der Nutzerkontrolle und des wahrgenommenen Datenschutzrisikos führt.

Tabelle 2: Vergleichende Übersicht der Datennutzungsrichtlinien großer KI-Anbieter

KI-AnbieterSpezifische Datentypen für KI-TrainingRechtsgrundlage / ZustimmungsmodellDatenaufbewahrung (Zweck)Spezifische AusschlüsseHauptunterscheidungsmerkmale / Kontroversen
MetaÖffentliche Posts, Kommentare, Fotos (von Erwachsenen), Interaktionen mit Meta AI.Berechtigtes Interesse (Art. 6(1)(f) DSGVO) / Opt-outIrreversibel nach Training; Interaktionen mit AI werden für Training verwendet.Private Nachrichten, Daten von Minderjährigen (<18).Opt-out als „Dark Pattern“; „Beifang-Effekt“; Irreversibilität der Daten; starker Fokus auf kommerziellen Vorteil.
Google (Gemini)Prompts, Kontextinformationen, AI-Output (für Missbrauchsüberwachung); Feedback aus „Inline Preference Voting“ (für Verbesserung).Nutzungsbedingungen, Datenschutzrichtlinie; Feedback zur Verbesserung.55 Tage (Missbrauchsüberwachung); nicht für Training verwendet.Daten aus Missbrauchsüberwachung nicht für Training.Daten für Missbrauchsüberwachung werden nicht für Training verwendet; Feedback-Daten von Konto getrennt.
OpenAI (ChatGPT, DALL-E)Prompts, Antworten, Inhalte (Bilder, Dateien) für Verbraucherdienste (optional); explizites Opt-in für Geschäftsangebote (API, Team, Enterprise).Nutzereinstellungen (Verbraucher); Explizites Opt-in (Geschäft).30 Tage (Chat-Historie, außer de-identifiziert); 30 Tage (Azure OpenAI, Missbrauchsüberwachung).Private Nachrichten (außer bei direkter AI-Nutzung); keine Daten von Geschäftskunden ohne Opt-in.Unterscheidung zwischen Consumer- und Enterprise-Diensten; explizites Opt-in für Enterprise-Daten; richterliche Anordnung zur Datenaufbewahrung.
Microsoft AIDaten, für die Kunden „alle notwendigen Zustimmungen“ eingeholt haben.Kunden müssen „alle notwendigen Zustimmungen“ einholen.37Bis zu 30 Tage (Azure OpenAI, Missbrauchsüberwachung).Nicht explizit detailliert, aber Betonung auf Kundenzustimmung.Betonung von „Responsible AI“ und „Privacy-by-Design“; Fokus auf Kundenzustimmung und Sicherheitsmaßnahmen.

Diese Tabelle beantwortet direkt die Nutzeranfrage nach einem Vergleich von Metas Praktiken mit denen anderer KI-Anbieter. Sie bietet einen klaren, strukturierten und leicht verständlichen Überblick über die unterschiedlichen Ansätze der wichtigsten Akteure im KI-Bereich. Durch die systematische Hervorhebung wichtiger Unterschiede bei den verwendeten Datentypen, Rechtsgrundlagen, Zustimmungsmodellen und Datenaufbewahrungsrichtlinien ermöglicht die Tabelle eine schnelle und fundierte Bewertung, wie Metas Ansatz heraussticht. Sie verstärkt visuell das Argument, dass Metas Verlass auf „berechtigtes Interesse“ und ein Opt-out-Modell für das breite öffentliche Datentraining aus Datenschutzsicht aggressiver ist als die nuancierteren oder expliziten Opt-in-Ansätze einiger seiner Konkurrenten. Diese vergleichende Analyse ist für eine umfassende Beantwortung der Nutzeranfrage unerlässlich.

VI. Die rechtliche und regulatorische Landschaft

A. Das Schlachtfeld der DSGVO

Die Datenschutz-Grundverordnung (DSGVO) schreibt vor, dass jede Verarbeitung personenbezogener Daten eine gültige Rechtsgrundlage haben muss, wie in Artikel 6 Absatz 1 dargelegt. Meta beruft sich ausdrücklich auf das „berechtigte Interesse“ (Artikel 6 Absatz 1 Buchstabe f) für seine KI-Trainingsaktivitäten.3 Datenschutzorganisationen, allen voran NOYB (None Of Your Business), argumentieren vehement, dass das „berechtigte Interesse“ eine unzureichende Rechtsgrundlage für eine so umfangreiche Datenverarbeitung für das KI-Training ist. Sie behaupten, dass eine ausdrückliche „Opt-in“-Zustimmung erforderlich ist, insbesondere angesichts der potenziellen Einbeziehung „besonderer Kategorien personenbezogener Daten“ (z.B. Gesundheitsinformationen, religiöse Überzeugungen, sexuelle Orientierung), die in öffentlichen Beiträgen enthalten oder daraus abgeleitet werden könnten.9 NOYB verweist auf ein früheres Urteil des Europäischen Gerichtshofs, das feststellte, dass Meta kein „berechtigtes Interesse“ an gezielter Werbung geltend machen konnte, und argumentiert, dass dieser Präzedenzfall logischerweise auf die Datennutzung für das KI-Training ausgedehnt werden sollte.9 Als Reaktion auf Metas Pläne hat NOYB ein Unterlassungsschreiben an Metas irische Zentrale geschickt und mit einer Sammelklage gedroht, falls das Unternehmen ohne ausdrückliche Opt-in-Zustimmung fortfährt.9 Über die Zustimmung hinaus behauptet NOYB auch, dass Metas KI-Datentrainingsplan gegen andere grundlegende DSGVO-Prinzipien verstößt, einschließlich Fairness, Zweckbindung und Datenminimierung. Darüber hinaus deutet NOYB an, dass dies einen Verstoß gegen Metas Verpflichtungen als „Gatekeeper“ gemäß dem Digital Markets Act (DMA) darstellen könnte.30

Die DSGVO gilt weithin als eine der strengsten Datenschutzvorschriften der Welt, die darauf abzielt, Einzelpersonen erhebliche Kontrolle über ihre persönlichen Daten zu geben. Die Auslegung und Anwendung ihrer verschiedenen Rechtsgrundlagen, insbesondere des „berechtigten Interesses“ im Kontext aufkommender Technologien wie KI, sind zentrale Punkte in laufenden rechtlichen und ethischen Debatten.

Es besteht ein grundlegender Konflikt zwischen Unternehmensinnovation und Wettbewerbsvorteil einerseits und individuellen Grundrechten unter der DSGVO andererseits. Metas Begründung für die Nutzung des „berechtigten Interesses“ 3 wird explizit um die Notwendigkeit der KI-Entwicklung und -Verbesserung 6 und die Aufrechterhaltung eines Wettbewerbsvorteils herum formuliert. Datenschutzgruppen wie NOYB und andere Verbraucherorganisationen 9 bestreiten jedoch vehement, dass dieses Unternehmensinteresse die Grundrechte der betroffenen Personen, insbesondere ihr Recht auf Zustimmung und Kontrolle über potenziell sensible personenbezogene Daten 14, überwiegt und überwiegen sollte. Dies stellt eine klassische rechtliche und ethische Spannung dar: der Drang nach technologischem Fortschritt und wirtschaftlicher Wettbewerbsfähigkeit versus der Schutz der individuellen Privatsphäre und Autonomie. Der Hauptzweck der DSGVO besteht darin, ein Gleichgewicht zwischen diesen konkurrierenden Interessen herzustellen, und Datenschützer sind fest davon überzeugt, dass Metas derzeitiger Ansatz seine eigenen kommerziellen Interessen unverhältnismäßig begünstigt. Die Lösung dieses bedeutenden Rechtsstreits wird weitreichende Auswirkungen auf die Zukunft der KI-Entwicklung und der Datenverwaltung innerhalb der EU haben. Sie könnte einen entscheidenden Präzedenzfall dafür schaffen, ob große Technologieunternehmen große Mengen öffentlicher Daten für das KI-Training unter einem weniger strengen Opt-out-Modell verwenden dürfen oder ob die strengere „Opt-in“-Zustimmung zum obligatorischen Standard für eine solche Datenverarbeitung wird.

B. Gerichtliche und regulatorische Reaktionen

  • Urteil des OLG Köln: Das Oberlandesgericht Köln wies einen Eilantrag von Verbraucherschutzverbänden ab, der darauf abzielte, Meta an der Nutzung von Nutzerdaten für das KI-Training zu hindern.6 Das Gericht befand Metas Zweck als „legitim“ und die Datenverarbeitung als „erforderlich“, wobei es feststellte, dass „gleich wirksame, weniger intrusive Mittel“ (wie eine zuverlässige Anonymisierung) nicht verfügbar seien.7 Das Gericht kam auch zu dem Schluss, dass Metas berechtigtes Interesse die Interessen oder Grundrechte der betroffenen Personen nicht überwiegt.7
  • Irische Datenschutzkommission (DPC): Die DPC, die als Metas führende Aufsichtsbehörde in der EU fungiert, gab Meta grünes Licht für die Fortsetzung seiner KI-Trainingspläne ab dem 27. Mai 2025.9 Die DPC erklärte, dass Meta auf ihre Anfragen „reagiert“ und „bedeutende Maßnahmen und Verbesserungen“ umgesetzt habe, darunter aktualisierte Transparenzhinweise, ein benutzerfreundlicheres Opt-out-Formular und verbesserte De-Identifizierungsmaßnahmen.9 Die DPC hat Meta außerdem aufgefordert, im Oktober 2025 einen Bericht über die Wirksamkeit und Angemessenheit dieser Schutzmaßnahmen vorzulegen.3
  • Widersprüchliche Ansichten der Behörden: Trotz der Freigabe durch die DPC und des Urteils des OLG Köln behalten andere europäische Datenschutzbehörden eine kritische Haltung bei. Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI) beispielsweise leitete ein Eilverfahren gegen Meta ein und beabsichtigt, das KI-Training für deutsche Betroffene für mindestens drei Monate zu untersagen.24 Die maltesische IDPC äußerte ebenfalls „große datenschutzrechtliche Bedenken“ hinsichtlich Metas Pläne.42
  • NOYB hat die nationalen Datenschutzbehörden dafür kritisiert, weitgehend zu schweigen oder „an Relevanz zu verlieren“, was darauf hindeutet, dass diese Untätigkeit NGOs dazu zwingt, selbst rechtliche Schritte einzuleiten.9

Die fragmentierte regulatorische Reaktion in ganz Europa, gekennzeichnet durch unterschiedliche Interpretationen der DSGVO und variierende Durchsetzungsmaßnahmen nationaler Datenschutzbehörden und Gerichte, schafft ein komplexes und unsicheres rechtliches Umfeld sowohl für Meta als auch für seine Nutzer. Dieser Mangel an einer einheitlichen Haltung erschwert die Einhaltung und den Schutz der Nutzer.

Die regulatorische Fragmentierung birgt das Risiko eines „Wettlaufs nach unten“ in der KI-Datenverwaltung. Die widersprüchlichen Positionen zwischen der irischen DPC (die Meta grünes Licht gab 9) und der Hamburger DPC (die eine kritische Haltung beibehält und Verfahren einleitet 24) offenbaren eine signifikante und problematische Fragmentierung bei der Durchsetzung der DSGVO in der gesamten EU. Das Urteil des OLG Köln 6 ist eine „Eilentscheidung“ und kein endgültiges, abschließendes Urteil, was Raum für weitere rechtliche Anfechtungen lässt. Diese fragmentierte Landschaft schafft eine Situation, in der Meta potenziell das günstigste regulatorische Umfeld suchen könnte, wodurch die Harmonisierungsabsicht der DSGVO untergraben würde. NOYBs scharfe Kritik, dass Behörden „schweigen“ 9 oder „an Relevanz verlieren“ 11, ist eine schwere Anklage des derzeitigen Durchsetzungsrahmens, die auf eine systemische Schwäche hindeutet. Diese regulatorische Fragmentierung könnte zu einem „Wettlauf nach unten“ bei den Datenschutzstandards für KI führen, bei dem Unternehmen sich in Jurisdiktionen mit nachsichtigeren Interpretationen oder weniger rigoroser Durchsetzung orientieren. Dies benachteiligt letztendlich die Nutzer in der gesamten EU, indem es ein ungleiches Spielfeld für Datenschutzrechte schafft. Es unterstreicht die dringende Notwendigkeit einer stärkeren, einheitlicheren und konsequent angewandten Durchsetzung durch den Europäischen Datenschutzausschuss (EDPB), um einen konsistenten Schutz für alle EU-Bürger zu gewährleisten.

C. Umfassendere regulatorische Rahmenbedingungen

  • Datenpunkte:
    • Das kürzlich verabschiedete EU-KI-Gesetz, das sich hauptsächlich auf die sichere technische Entwicklung von KI konzentriert, erkennt den legitimen Zweck der Datennutzung für das KI-Training an (Erwägungsgrund 8).7
    • Metas Einstufung als „Gatekeeper“ gemäß dem Digital Markets Act (DMA) spielt ebenfalls eine wichtige Rolle in den laufenden Diskussionen über seine Datenpraktiken.24 NOYB deutet ausdrücklich an, dass die Kombination personenbezogener Daten von Facebook und Instagram für diesen neuen KI-Trainingszweck ohne ausdrückliche Zustimmung einen Verstoß gegen Metas Verpflichtungen gemäß dem DMA darstellen könnte.30

Die Europäische Union ist weltweit führend bei der Schaffung umfassender regulatorischer Rahmenbedingungen für digitale Technologien. Das EU-KI-Gesetz zielt darauf ab, einen robusten Rechtsrahmen für KI-Systeme auf der Grundlage von Risiken zu schaffen, während der Digital Markets Act große Online-Plattformen ins Visier nimmt, um fairen Wettbewerb zu gewährleisten und missbräuchliche Praktiken zu verhindern.

Das Zusammenspiel und potenzielle Konflikte zwischen KI-spezifischen und allgemeinen Datenschutzvorschriften sind von großer Bedeutung. Das EU-KI-Gesetz 7 erkennt das KI-Training als legitimen Zweck an, was Meta in seinen Argumenten nutzen kann. Dies muss jedoch mit den strengeren Datenschutzanforderungen der DSGVO 3 und den wettbewerbsrechtlichen Regeln des DMA 24 in Einklang gebracht werden. Es besteht ein potenzielles Spannungsfeld zwischen dem Fokus des KI-Gesetzes auf die Förderung von KI-Innovation und technischer Sicherheit und dem grundlegenden Schwerpunkt der DSGVO auf individuellen Datenrechten.26 Die Besorgnis der Nutzeranfrage über „Nachteile“ für Nutzer ist direkt damit verbunden, wie diese unterschiedlichen, aber sich überschneidenden Regulierungsinstrumente interpretiert, angewendet und gemeinsam durchgesetzt werden. Ein Mangel an klarer Hierarchie oder konsistenter Interpretation dieser Gesetze kann zu rechtlicher Unklarheit und anhaltenden Herausforderungen sowohl für Technologieunternehmen als auch für betroffene Personen führen. Dieses komplexe Zusammenspiel deutet auf ein entstehendes und sich entwickelndes regulatorisches Umfeld hin, in dem verschiedene Rechtsinstrumente sich überschneidende oder sogar widersprüchliche Anforderungen haben könnten. Dies kann zu rechtlicher Unsicherheit führen, Schlupflöcher für Unternehmen schaffen und letztendlich einen wirksamen Nutzerschutz behindern. Es verdeutlicht die Herausforderung, kohärente und umfassende Vorschriften für schnell fortschreitende Technologien wie KI zu schaffen, die mehrere Rechtsbereiche betreffen.

VII. Fazit und Empfehlungen

A. Wichtigste Erkenntnisse

Die intensive und weit verbreitete Medienberichterstattung über Metas Frist zur Ablehnung der KI-Datennutzung ist tatsächlich eine direkte Folge einer tief verwurzelten öffentlichen Skepsis gegenüber Metas historischen Datenpraktiken, die oft durch seinen Ruf als „Datenkrake“ zusammengefasst wird. Diese Skepsis wird durch echte und signifikante Bedenken hinsichtlich der Auswirkungen seiner aktuellen KI-Datenstrategie verstärkt.

Metas KI-Pläne sind für Nutzer aus mehreren kritischen Gründen nachweislich nachteilig: die inhärente Belastung und Komplexität des Opt-out-Modells, die potenzielle Einbeziehung hochsensibler öffentlicher Daten, der unvermeidliche „Beifang-Effekt“, bei dem die Daten einer Person durch die Beiträge anderer erfasst werden können, und, am kritischsten, die nahezu irreversible Natur von Daten, sobald sie in KI-Modelle integriert wurden.

Metas Ansatz unterscheidet sich von einigen großen KI-Anbietern durch seine Abhängigkeit vom „berechtigten Interesse“ als Rechtsgrundlage und einem Opt-out-Modell für das breite öffentliche Datentraining. Im Gegensatz dazu verwenden mehrere Wettbewerber explizitere „Opt-in“-Mechanismen für bestimmte Datentypen oder für ihre geschäftsorientierten KI-Dienste, was eine datenschutzbewusstere Standardeinstellung demonstriert.

Die Rechtslandschaft bleibt umstritten und entbehrt einer einheitlichen Klarheit, gekennzeichnet durch widersprüchliche Interpretationen und unterschiedliche Durchsetzungsmaßnahmen verschiedener europäischer Gerichte und nationaler Datenschutzbehörden. Diese regulatorische Fragmentierung schafft Unsicherheit und Herausforderungen für einen konsistenten Nutzerschutz.

B. Empfehlungen für Nutzer

  • Datenschutzeinstellungen aktiv überprüfen und anpassen: Nutzer sollten ihre Datenschutzeinstellungen auf allen Meta-Plattformen (Facebook, Instagram, WhatsApp) regelmäßig überprüfen und anpassen, um zu kontrollieren, wer ihre Inhalte sehen kann und wie sie geteilt werden.1
  • Widerspruchsrechte gewissenhaft ausüben: Wenn Sie verhindern möchten, dass Ihre öffentlichen Daten für das Meta AI-Training verwendet werden, ist es entscheidend, das Widerspruchsformular aktiv vor der angegebenen Frist einzureichen.1 Seien Sie auf technische Schwierigkeiten oder prozedurale Hürden vorbereitet und bleiben Sie hartnäckig, die während dieses Prozesses auftreten können.12
  • Öffentliche Beiträge und den „Beifang-Effekt“ beachten: Verstehen Sie, dass alle öffentlich geteilten Inhalte – einschließlich Fotos, Kommentare und Interaktionen – potenziell für das KI-Training verwendet werden können, selbst wenn Sie persönlich widersprechen, aufgrund des „Beifang-Effekts“.3 Erwägen Sie, die Sichtbarkeit vergangener und zukünftiger öffentlicher Beiträge auf ein stärker eingeschränktes Publikum (z.B. „nur Freunde“) zu ändern, um dieses Risiko zu mindern.10
  • Vorsicht bei KI-Interaktionen: Wenn Sie mit Meta AI-Funktionen (z.B. Chatbots in WhatsApp oder Instagram) interagieren, geben Sie keine sensiblen persönlichen oder privaten Informationen ein oder besprechen Sie diese nicht, da diese direkten Interaktionen für das Modelltraining verwendet werden können.1
  • Informiert bleiben und Expertenrat einholen: Bleiben Sie wachsam bezüglich Aktualisierungen der Datenschutzrichtlinien und laufender rechtlicher Entwicklungen im Zusammenhang mit KI und Datennutzung. Zögern Sie nicht, Verbraucherschutzorganisationen oder Rechtsexperten zu konsultieren, wenn Sie erhebliche Bedenken haben oder Unterstützung bei der Ausübung Ihrer Datenrechte benötigen.43

C. Empfehlungen für Regulierungsbehörden und politische Entscheidungsträger

  • Harmonisierung der DSGVO-Durchsetzung und -Interpretation: Der Europäische Datenschutzausschuss (EDPB) muss klarere, rechtsverbindliche Leitlinien zur Anwendung des „berechtigten Interesses“ für das KI-Training herausgeben und aktiv einen konsistenten „Opt-in“-Standard in allen EU-Mitgliedstaaten fördern, insbesondere für sensible Daten und das Training grundlegender KI-Modelle.
  • Verpflichtung zu benutzerfreundlichen und effektiven Opt-out-Mechanismen: Regulierungsbehörden sollten die Implementierung transparenter, leicht auffindbarer und wirklich zugänglicher Opt-out-Verfahren durchsetzen, die nicht auf „Dark Patterns“ beruhen oder den Nutzern unzumutbare Belastungen auferlegen, wie z.B. die Notwendigkeit umfangreicher Begründungen. Es muss sichergestellt werden, dass Opt-out-Anfragen automatisch und effektiv ohne willkürliche Überprüfungen oder Verzögerungen erfüllt werden.
  • Umgang mit Datenirreversibilität in KI-Modellen: Es müssen robuste rechtliche und technische Rahmenbedingungen entwickelt werden, um die beispiellose Herausforderung der Datenunwiederbringlichkeit aus trainierten KI-Modellen direkt anzugehen. Dies kann die Verpflichtung von Unternehmen erfordern, effektive „Unlern“-Mechanismen nachzuweisen oder strengere Zustimmungsanforderungen für Daten aufzuerlegen, die nicht effektiv aus KI-Systemen entfernt werden können.
  • Verbesserung der algorithmischen Transparenz: KI-Entwickler müssen zu deutlich mehr Transparenz hinsichtlich der Datennutzung für das Training verpflichtet werden, einschließlich detaillierter Bewertungen des berechtigten Interesses (LIAs) und klarer, verständlicher Erklärungen der algorithmischen Prozesse und ihrer potenziellen Auswirkungen auf Einzelpersonen.
  • Stärkung der aktiven Aufsicht und Durchsetzung: Datenschutzbehörden müssen proaktiv die Einhaltung überwachen, regelmäßige und unangekündigte Audits durchführen und erhebliche, abschreckende Strafen für Verstöße verhängen, um sicherzustellen, dass Technologieunternehmen die Nutzerrechte und den Datenschutz wirklich über rein kommerzielle Interessen stellen.

D. Empfehlungen für Technologieunternehmen

Förderung echten Nutzervertrauens durch Transparenz: Es muss eine klare, ehrliche und unmissverständliche Kommunikation über Datenpraktiken und KI-Funktionalitäten erfolgen. Irreführende Sprache, versteckte Klauseln oder übermäßig komplexe Verfahren, die die Nutzerautonomie untergraben und das öffentliche Vertrauen erodieren, sind zu vermeiden.

Datenschutz durch Design und Opt-in-Standardeinstellungen übernehmen: Robuste Datenschutzmaßnahmen müssen von Anfang an in das Kerndesign und die Architektur aller KI-Systeme integriert werden. Die „Opt-in“-Zustimmung sollte als Standard für jedes KI-Training, das personenbezogene Daten umfasst, implementiert werden, insbesondere für sensible Datenkategorien.

Engagement für ethische KI-Prinzipien: Ethische Überlegungen, einschließlich Fairness, Rechenschaftspflicht, Transparenz und menschliche Aufsicht, müssen während des gesamten KI-Entwicklungszyklus, von der Datenerfassung bis zur Modellbereitstellung, priorisiert und verankert werden.

Investition in „Unlern“-Fähigkeiten: Erhebliche Forschungs- und Entwicklungsressourcen müssen für die Erforschung und Implementierung technischer Lösungen zur effektiven Entfernung spezifischer Datenpunkte oder Muster aus trainierten KI-Modellen bereitgestellt werden, um so das Grundrecht auf Löschung zu wahren.

Dieser Beitrag ist Teil meiner Blog-Serie Generation InSZtant-Antwort — good bye Suchmaschinen-Boomer. Darin teile ich die Ergebnisse meiner persönlichen KI-Recherchen. In der Ära Post-Suchmaschinen und Post-Social hat sich KI als der neue Online-Informations-Gatekeeper etabliert. Statt Webseiten von Suchmaschien-Ergebnisseiten abzusurfen, um Antworten auf unsere Fragen zu finden, werden diese uns als Instant-Antwort als Text serviert. Schnell und mundgerecht. Die User gewöhnen sich dran — wie können Medien & Blogs mithalten? Ich probiere es hier aus (mehr dazu in meinem Einführungs-Blogtext).

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet Stichworte: Facebook, Generation InSZtant-Antwort — good bye Suchmaschinen-Boomer, Künstliche Intelligenz, medien, Meta

Die letzten 14 Tage von Crowdtangle

1. August 2024 von Daniel Kommentar verfassen

Social-Kolleg*innen, ihr habt noch 14 Tage, wenn ihr irgendwelche Daten aus Crowdtangle retten wollt. Meta hatte vor einigen Monaten angekündigt, dieses wunderbare Social-Media-Analyse-Tool für Instagram und Facebook einzustellen.

Was war da der Ärger groß. Wie kann Meta nur das Tool einkassieren, das als einziges transparenter macht, was auf den Plattformen passiert. Und das im US-Präsidentschafts-Wahljahr. Ich dachte nur so: Was ist, wenn Meta das Tool aus ganz anderen Gründen stoppt, als in der Aufregung vermutet. Weil es nicht mehr die Änderungen abbilden kann, die gerade bei Insta und Facebook passieren. Und tatsächlich: Seit der Ankündigung haben Social-Funktionen in vielen kleinen Schritten auf beiden Plattformen an Bedeutung verloren. Die von For-You-Algorithmen ausgewählten Inhalte spielen eine dominierendere Rolle – der Social-Graph als Auswahlfaktor für die Feed-Inhalte rückt in die zweite Reihe. Wenn das so weiter geht, dann sind Insta und Facebook schon in Kürze keine Social-Media-App mehr. Wir sprachen drüber.

Crowdtangle lieferte neben dem Listening-Center bei der RP auch den wichtigsten ergänzenden Blick im Social-Listening-Prozess. Alerts, Viral-Hinweise, Shitstorm-Frühwarnung, Flauschradar. All die vielen schönen kleinen Dinge, die mit Crowdtangle möglich sind, sind dann in zwei Wochen nicht mehr. Das Aus von Crowdtangle hinterlässt zwei Sargnägel: Einen für den Social-Kern von Facebook und Insta. Einen weiteren für Social-Listening, wie wir es kennen. Das litt jüngst bereits an der Datendrosselung der meisten Netzwerke, damit externe Dienste via API Postings auswerten können. Musk hat mit der Übernahme von X die Schotten besonders dicht zugemacht. Vor ein paar Tagen begegnete hier im Blog ja bereits die Frage, wie die Zukunft von Social-Listening aussieht. Einige Ideen, Konzepte, Lösungen zeichnen sich für mich schon ab – das wird interessant, ich bleibe bloggend dran.

Doch jetzt gerade klicke ich lieber durch mein Blogarchiv und suche vergangene Crowdtangle-Begegnungen. Anfang 2018 hatte ich exklusiv gemeldet, dass Crowdtangle nicht nur Facebook-Seiten sondern künftig auch Profile tracken kann. Zum 14. Geburtstag von Facebook hab ich auch den Moment notiert, als ich als Speaker bei der Facebook-Entwicklerkonferenz F8 unsere Social-Listening-Redaktionserfahrungen mit Crowdtangle vorstellte. Bevor die neuen Social-Media-Zeiten komplett anbrechen kommt mir beim Schmökern der Gedanke: Das war ein gutes Arbeitsverhältnis mit Crowdtangle. Wir haben uns anscheinend gegenseitig gemocht.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Social, Was mit Internet Stichworte: Crowdtangle, Facebook, ForYouFeedStattSocialGraph, Meta, Social-Listening

Kleine Algorithmenkunde

17. Mai 2024 von Daniel Kommentar verfassen

Don’t panic! Diese Botschaft und das passende Rüstzeug gab es gestern beim letzten meiner drei Social-Strategie-Frühjahrsputz-Webinare. Nach meinen Threads- und Fediversums-Webinaren, war die kleine Algorithmenkunde auch eine thematische Premiere.

Wir haben uns dabei auf die Algorithmen konzentriert, die für Sichtbarkeit der eigenen Postings sorgen. Sprich: Die News- und Home-Feeds. Wir haben einen Deep Dive in die klassische Feed-Funktionsweise unternommen, die auf dem Social-Graph des Users basiert. Dann haben wir uns aber auch die For-You-Feed-Funktionsweise angeschaut, die wir von TikTok kennen. Es gibt ein paar Evergreen-Regeln, mit denen man erfolgreich postet, auch wenn es mal wieder Aufregung wegen einer Änderung auf einer Plattform gibt. Denn: Von dieser Aufregung kann man sich lösen.

Gerechtfertigt sind aber mögliche Sorgen, wenn sich Facebook und Instagram tatsächlich vom Social-Feed verabschieden und wie TikTok einen For-You-Feed in den Vordergrund schieben, um die wichtigsten Inhalte auszuwählen.

Die Dämmerung des Social-Feeds

Meta optimiert seit der Einführung des News-Feeds die zuständigen Algorithmen ständig, um auf veränderte User-Gewohnheiten zu reagieren oder auf die neusten Maschen der Engagement-Trickser (Clickbait, Likebait, Engagementbait …). Geliebte Inhalte sollen rein in den Feed, nervende raus. Hauptsache die User verbringen mehr Zeit im Feed.

Was ist aber, wenn wir jetzt an einem Punkt angekommen sind, an dem Meta die Social-Feeds nicht weiter optimieren kann um die Verweildauer zu maximieren. Was ist, wenn eine ganz andere Methode inzwischen besser Inhalte für die User auswählt? Der For-You-Feed-Mechanismus ist bei Meta an einigen Stellen schon im Einsatz. Im Reels-Bereich bei Instagram. Im Feed gibt es auch bereits so manche Inhalte von Accounts, denen man nicht folgt. Auch im Facebook-Hauptfeed ist der Anteil der vorgeschlagenen Inhalte bereits ziemlich beachtlich. Entsprechende Änderungen bei Instagram sind im vergangenen Jahr auf großen User-Protest gestoßen und Instagram zog die Änderungen zurück. Vorerst, um bessere Varianten im Kleinen zu testen.

Ich denke, die erfolgreichen Tests werden bald für alle umgesetzt. Während TikTok vormacht, wie das For-You-Prinzip die User vor der App versacken lässt, muss Meta sich noch anschauen, dass mittlerweile der gute alte Social-Feed grundsätzliche Schwierigkeiten hat. Einzelne User posten lieber privat oder in Gruppen und nicht mehr so stark im öffentlichen Feed. Auf der anderen Seite gibt es ein Überangebot von Unternehmens-Posting, die zwar perfekt ausproduziert sind – aber nicht zu der Kategorie Inhalten gehören, die primär die Verweildauer steigern. Das Grundangebot aus dem die Social-Feed-Algorithmen auswählen können ist also schwächer.

Kommt es soweit, sind Facebook und Instagram keine Social-Apps mehr, dafür aber Content-Discovery-Apps oder Unterhaltungs-Apps – so wie TikTok. Meta geht dann an den Kern seiner Erfolgsprodukte um sie zukunftssicher zu machen. Sich neu zu erfinden, ist nie verkehrt. Das Problem ist: Alle Kanal-Betreiber müssen sich ebenfalls neu erfinden. Beziehungsweise nicht nur eine neue Social-Strategie entwickeln, sondern grundlegende Mechanismen der Plattform-Welt aufgeben und neu lernen. Creator werden sich bei den TikTok-Erfahrungen bedienen können – aber wenn ich mir die Welt der Unternehmen und Medien anschaue, dann wird zunächst einiges in die Brüche gehen. Zu all dem Überfluss können die über Jahre aufgebauten Followerschaften dann nicht mehr wie gewohnt bespielt werden. Strategische Ziele von Kanal-Betreibern müssen komplett angepasst werden.

Im Webinar haben wir uns angeschaut, wie alleine sich die Rolle von Feed-Postings verändert. Da müssen wir jeden Pixel umdrehen und neu verstehen wen wir wie und womit erreichen. Neben all den Schwierigkeiten gibt es aber auch neue Möglichkeiten um Menschen zu erreichen, die bisher nicht in Kontakt mit den eigenen Inhalten kamen.

Aber am Ende gilt auch hier: Don’t panic. Bis es soweit ist, können wir die Zeit nutzen und die Welt der Content Discovery Plattformen besser kennen lernen, sowie deren Rolle und Position im Audience Development. Wenn ihr Lust habt: Lasst uns das gemeinsam machen – ich bleibe hier im Blog „am Thema dran.“

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet Stichworte: Audience Development, Facebook, ForYouFeedStattSocialGraph, Instagram, Meta

Telegram-Messenger wächst um ein Drittel

27. April 2020 von Daniel Kommentar verfassen

Zum Start in die neue Woche beeindruckt mich eine Zahl: Der unabhängige Messenger Telegram hat seine Nutzerzahl von 300 Millionen auf aktuell 400 Millionen erhöht — innerhalb eines Jahres. Täglich melden sich nach eigenen Angaben rund 1,5 Millionen Nutzer an.

Im Vergleich zu WhatsApp ist das nur ein Bruchteil. Telegram ist aber inzwischen auch kein Nischen-Messenger mehr. Zum Vergleich: Der derzeit viel beachtete Videokonferenz-Anbieter Zoom hat rund 300 Millionen aktive Nutzer / Tag.

Das finde ich deswegen spannend, weil Telegram sich merklich zu einem interessanten Kanal für Medien und Unternehmen entwickelt. Als vor einem halben Jahr WhatsApp Newsletter nicht mehr duldete, haben einige Medien versucht, ihre Leser für Newsletter für andere Messengern zu begeistern. Oft folgten mehr zu Telegram als erwartet.

Es ist also ein guter Zeitpunkt, sich stärker mit Telegram als Publikationskanal zu beschäftigen.

Seinen neuen Nutzerrekord hat Telegram in einem Blogpost „gefeiert“. Darin gibt es einen kurzen Blick auf die sieben Jahre seit der Gründung und einen Blick nach vorne. Telegram kündigte einige Verbesserungen für die Mac-App an, neue Quizspiele, neue Sticker und: Video-Telefonie!

Video calls in 2020 are much like messaging in 2013. There are apps that are either secure or usable, but not both. We’d like to fix that, and we will focus on bringing you secure group video calls in 2020.

Telegram Blog

Telegram will als Videotelefonie anbieten, die sowohl nutzbar, als auch sicher ist. Im direkten Vergleich wirkt hingegen Facebooks Video-Offensive (siehe mein Blogtext von Samstag) inzwischen so, als habe Mark Zuckerberg Videotelefonie erfunden.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: default, Netzprotokoll Stichworte: Facebook, Telegram, Zoom

Wie ausgerechnet soziale Netzwerke social distancing verschlafen haben

25. April 2020 von Daniel Kommentar verfassen

Welche Rolle haben soziale Netzwerke in den letzten Wochen des social distancing gespielt? In der Zeit, als die Gesellschaft ihr Leben im Turbo-Modus digitalisierte? Die Antwort fällt ernüchternd aus: Sie haben keine Rolle gespielt.

Es war die Stunde der Video-Anbieter (Zoom, GoToMeeting, Facetime, Houseparty) und kollaborativer Arbeitsplattformen (Slack, Microsoft Teams) — aber über soziale Netzwerke haben wir nicht gesprochen. Es sei denn, es ging um den Kampf gegen Fake News.

Wenn man ein wenig darüber nachdenkt, wären in der Theorie soziale Netzwerke prädestiniert dafür, den neuen Alltag ihrer Nutzer zu unterstützen. Vor der Coronapandemie feierten sie sich, die Nutzer digital näher zusammenzubringen. Jetzt während der Pandemie sind keine neuen Anwendungsfälle aufgefallen, nach denen die Menschen stärker greifen oder die eine signifikante neue Rolle in ihrem Alltag spielen.

Jetzt die Überraschung. Facebook macht auch einen auf Zoom.

Mark Zuckerberg und sein Management muss die gleiche Beobachtung gemacht haben. Hinter den Kulissen gab es eine neue Marschrichtung. Zuckerberg hat in den letzten Wochen den Fokus auf drei Bereiche konzentriert. An erster Stelle stehen Video-Konferenzen. Er bezeichnet sie als „remote presence“-Anwendungen:

 The three big areas that I’m very focused on right now are basically the products that are helping people stay connected better. I’m very focused on remote presence: being able to feel like you’re with a person even when you can’t physically be there. And then the small business work and the acute health response. 

Mark Zuckerberg in einem Video-Call (Zoom?) mit Casey Newton
Messenger Rooms

Die ersten Ergebnisse hat Facebook jetzt angekündigt. Die neuen Funktionen werden Stück für Stück international ausgerollt:

  • Bei WhatsApp können jetzt bis zu acht statt nur bis zu vier Personen an einen Video-Chat teilnehmen.
  • Bei Facebook Live kann ein Broadcaster künftig auch eine weitere Person dazu schalten (Auch der Spenden-Knopf wird für Livestreams freigeschaltet).
  • Instagram Livestreams sind künftig auf dem Desktop verfügbar und können sowohl bei IGTV als auch in den Stories gespeichert werden.
  • Messenger Rooms: Bis zum 50 Teilnehmer können per Webcam beitreten. Die Admins können die Rooms öffentlich oder geschlossen halten. Zunächst ist das Produkt über Facebook und Messenger erreichbar. Perspektivisch soll es auch eine Anbindung zu Instagram Direct und WhatsApp geben.

Mein Eindruck: Unter dem Motto „remote presence“ sind spannendere Angebote möglich. Facebook will mit diesen Ankündigungen signalisieren, das Thema Video-Telefonie nicht ganz verschlafen zu haben. Auf mich wirkt es aber nach der Botschaft „Hey, wir sind auch noch da“.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Netzprotokoll Stichworte: Facebook

Auf diese zwei neuen Funktionen bin ich 2020 bei Facebook gespannt

2. Dezember 2019 von Daniel Kommentar verfassen

Ausgerechnet die Tech-Kritik des ehemaligen Borat-Darstellers macht gerade die Runde. Sacha Baron Cohen will die Demokratie vor Facebook, Google & Co. schützen. Er ist spät zur Party der Silicon-Valley-Kritiker. In den letzten Wochen und Monaten ist sie zudem deutlich leiser geworden ist. Tik Tok und der Einfluss der chinesischen Regierung bestimmen mittlerweile die Diskussion. Das dürfte vor allem Facebook in die Karten spielen, immerhin stand das Unternehmen von Mark Zuckerberg in den letzten beiden Jahre im Zentrum der Kritik.

Trotz gesellschaftlicher Kritik, liefert der Konzern seinen Aktionären gute Zahlen, was Umsatz und Gewinn angeht. Aber auch die Nutzung der Apps ist weiterhin beeindruckend und marktbeherrschend. Es lohnt sich genauer anzuschauen, in welchen Bereichen Facebook neue Funktionen entwickelt. Dort verspricht sich das Unternehmen Wachstumspotential. Kein Wunder, dass die meisten Neuheiten der letzten Zeit auf Instagram eingeführt wurden. Neue Shopping-Funktionen, eine überarbeitete Kamera, viele Filter, weitere Funktionen für IGTV und den Storybereich.

Aber auch in der klassischen Facebook-App gibt es Neuerungen. Behutsam wird die Optik verändert. Für 2020 erwarte ich zwei neue Funktionen in Deutschland, die besonders interessant sind. „Today in“ und „Facebook News“ sind in den USA schon am Start und die Chancen stehen nicht schlecht, dass diese Funktionen auch bei uns ausgerollt werden. Deswegen stelle ich sie euch vor.

1. „Heute in Berlin“ — Bleibe auf dem Laufenden bei Nachrichten und Diskussionen in deiner Stadt. Bereits im Oktober 2018 hat Facebook die neue Funktion in einigen US-Städten eingeführt und dann Schritt für Schritt ausgeweitet. Mitte September hatte Facebook zuletzt 6000 teilnehmende Städte und Gemeinden genannt. (Zuvor hat Facebook eine Analyse veröffentlicht, dass es in vielen US-Städten keinen richtigen Lokaljournalismus mehr gibt.)

Das kann „Heute in“: Wenn ihr in einer Stadt seid, die das „Heute in“-Feature hat, könnt ihr das über das Menü sehen. Dann wird „Today in“ in der Funktionsliste aufgeführt. Wenn ihr die Funktion ausgewählt habt, könnt ihr auch einstellen, die Box (siehe Foto) in eurem Newsfeed auftauchen zu lassen. Die Funktion besteht aus drei Bereichen.

So sieht Today in aus (Screenshots: Facebook)
  • In der ersten Box werden aktuelle Postings von Seiten gezeigt, die in dem Ort eine Rolle spielen. Das kann das örtliche Tierheim sein, genauso wie die Facebook-Seite der Oberbürgermeisterin. Man wischt sich von links nach rechts.
  • Die zweite Box heißt im Englischen „In The News“ und liefert: Nachrichten. Es werden zunächst fünf Artikel zusammengestellt, die von lokalen Nachrichtenanbietern veröffentlicht worden sind. Es gibt eine Option für weitere Nachrichten.
  • Im dritten Bereich stehen Gruppen im Fokus. Facebook listet lokale Gruppen auf und lädt die Nutzer auf, sich mit Nachbarn zu verbinden, die gemeinsame Interessen haben.

Was das für Nutzer bedeutet: Was passiert in meiner Nachbarschaft? Diese Frage wird in diesem Bereich beantwortet und die Quellen müssen nicht einmal vorher ausgesucht und abonniert werden. Facebook sucht lokale Seiten, Nachrichtenquellen und Gruppen zusammen und bündelt die Inhalte.

Was das für Inhalte-Anbieter bedeutet: Wer mit lokalen Inhalten arbeitet hat hier eine riesige Chance. Facebook zeigt die Inhalte dann auch Nutzerinnen und Nutzern, die dem eigenen Angebot noch nicht folgen. Facebook übernimmt aber auch immer mehr die bisherige Aufgabe einer lokalen oder regionalen Medienmarke, die einen lokalen Überblick geben möchten. Auf der anderen Seite dürften kleine Anbieter sichtbarer werden.

Was das für Facebook bedeutet: Das Netzwerk reagiert damit auf viele Erhebungen die zeigen, dass Nutzer tatsächlich mehr lokale und regionale Inhalte auf Facebook sehen möchten. Ein weiterer Vorteil: Wer sich mit lokalen Inhalten beschäftigt, fühlt sich informierter, produktiver, engagierter. Damit wertet Facebook seinen Newsfeed auf. Zu Hochzeiten des Viral-Contents hatten viele Nutzer das Gefühl ihre Zeit auf Facebook zu verschwenden (siehe Time Well Spent Diskussion).

2. Facebook News — ein Ort für Nachrichten. Vor zwei Monaten hat Facebook diesen Bereich in den USA freigeschaltet. 

So sieht „Facebook News“ aus (Screenshot: Facebook)

Das kann „Facebook News“: Der neue Bereich hat aktuell einen präsenten Platz in der Facebook-App. Direkt neben dem Home-Button (persönlicher Newsfeed) und dem Videobereich gibt es das Icon für „Facebook News“.

  • Der allgemeine Nachrichten-Überblick: Facebook hat eine Redaktion aufgebaut, die Geschichten auswählt, um die Nachrichtenlage möglichst adäquat abzudecken. Ziel ist es, die Nachrichtenquelle zu zeigen, die eine Geschichte zuerst veröffentlicht hat. 
  • Die persönlichen Empfehlungen: Basierend auf Artikeln die Nutzer bereits gelesen, geteilt oder kommentiert haben, werden hier passende weitere Artikel von einem Algorithmus ausgewählt.
  • Zugriff auf Abos: Wer ein Digital-Abo bei einem Newsanbieter abgeschlossen hat, kann sein Abo mit dem Facebook-Account verbinden und so direkt über die Facebook-App die Inhalte sehen und lesen. 
  • Einstellungsmöglichkeiten: Der Nachrichtenbereich lässt sich personalisieren. Nutzer können Themenfelder auswählen (Sport, Kultur, Wirtschaft …) und Nachrichtenquellen ausblenden.

Was das für Nutzer bedeutet: Der Name „Newsfeed“ ist ja schon immer irreführend gewesen. Auch wenn dies von Facebook ursprünglich nicht explizit vorgesehen war, wurden im „Newsfeed“ gerne Inhalte von Medien konsumiert. Für viele Nutzer ist Facebook zu einer wichtigen Quelle des Nachrichtenkonsums geworden. Mit dem neuen News-Bereich haben Nutzer Zugriff auf Inhalte von Medien, denen sie bisher noch nich gefolgt sind. Im klassischen Newsfeed bleiben die Inhalte von Seiten, denen man folgt.

Was das für Inhalte-Anbieter bedeutet: Es ist noch zu früh, um etwas über mögliche neue Leserschaften zu sagen. Die Verknüpfung mit bestehenden Digital-Abos ist charmant. Auf jeden Fall sollte jeder Nachrichtenanbieter sich darum kümmern, seine eigene Seite für den „News Page Index“ zu registrieren.

Was das für Facebook bedeutet: Vor einigen Jahren hatte Facebook bereits eine eigene App für Schlagzeilen entwickelt. Die fand kaum Anklang und verschwand wieder. Jetzt muss der Konzern abwarten, ob „Facebook News“ auch bei den Nutzern ankommt. Das Timing scheint besser zu sein. Die prominente Einbindung dürfte dem neuen Produkt helfen. Wenn „Facebook News“ auch in Deutschland ausgerollt wird, dürfte die Nutzung in den USA erfolgversprechend sein.

Dieser Text erschien zuerst in meiner wöchentlichen Mail. Lust auf Inspiration in deiner Inbox? Dann melde dich für meinen wöchentlichen Newsletter an.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet, Was mit Medien Stichworte: Facebook

Regierung will Facebook & Co. zu mehr Transparenz bei Profil-Sperrungen verpflichten

20. August 2018 von Daniel Kommentar verfassen

Die Bundesregierung möchte noch in dieser Legislaturperiode einen gesetzlichen Rahmen schaffen, um Sperren in sozialen Netzwerke für die Nutzer transparenter zu machen und um gegen Willkür der Plattformen vorzugehen. „Für viele Nutzer haben ihre Profile in sozialen Netzwerken einen hohen Stellenwert“, sagte Gerd Billen, Staatssekretär im Bundesministerium der Justiz und für Verbraucherschutz, am Freitag bei einem Pressegespräch in Köln. „Für einige haben sie im beruflichen Alltag eine hohe Relevanz. Doch die Regeln, wann Accounts gesperrt werden, sind interpretierfähig.“ Aus diesem Grund solle eine rechtliche Grundlage geschaffen werden, damit Nutzer künftig nicht mehr das Gefühl haben, es mit willkürlichen Sperren zu tun zu haben. „Hier wollen wir die Rechte der Nutzer unterstützen“, sagte Billen.

Dieser Plan war mir noch nicht geläufig, scheint mir aber ein interessanter Ansatz, stärker regulativ auf Facebook & Co. einwirken zu können. Von diesem Plan berichtete der Staatssekretär auf meine Frage, ob er seit der Einführung des NetzDG das befürchtete Overblockings als Problem wahrnehme. Er verwies auf die ersten Transparenzberichte von Google und Facebook (diese sehen Overblocking nicht als Problem) und lenkte seine Antwort dann auf unkontrollierte Profil-Sperrungen. Diese sieht er demnach als problematischer.

Am Freitag war der Staatssekretär aus Berlin bei der Staatsanwaltschaft Köln und hat sich dort über die Arbeit der Zentral- und Ansprechstelle Cybercrime (ZAC NRW) informiert. Seit einem halben Jahr gibt es das Pilotprojekt „Verfolgen statt Löschen“, bei dem wir auch mit der Rheinischen Post beteiligt sind. Gezielt soll gegen rechtswidrige Hass- und Hetzbotschaften im Netz vorgegangen werden. Nach einem halben Jahr sind bei den Staatsanwälten der ZAC NRW durch die beteiligten Medien schon 220 Anzeigen eingegangen. Es gab schon Hausdurchsuchungen, Gerichtsverfahren werden angestrebt. Über den Arbeitsbesuch von Gerd Billen habe ich bei der RP am Samstag berichtet (Siehe: Schwerpunkt Hass und Hetze: Stärkere Strafverfolgung von Cyberkriminalität in NRW). Neben dem Hinweis auf den Plan, gegen willkürliche Sperren vorgehen zu wollen, hat Gerd Billen noch einen anderen interessanten Einblick gegeben, den ich für euch hier im Blog festhalten möchte.

Auf meine Frage, ob Facebook in den letzten zwei Jahren sein Versprechen eingelöst habe, sich stärker gegen Hassbotschaften einzusetzen, und ob aus seiner Sicht genügend Taten gefolgt seien, zeigte er sich enttäuscht. Vor zwei Jahren hat Gerd Billen im Bundesjustizministerium (unter Minister Heiko Maas) die Task-Force „Umgang mit rechtswidrigen Hassbotschaften im Internet“ geleitet und verlangte von Facebook mehr Anstrengung bei der Löschung rechtswidriger Inhalte (siehe sein Interview mit ZAPP im Mai 2016). Was sagt er heute? Grundsätzlich sei bei Google, Twitter und Facebook zu beobachten gewesen, dass erst mit dem Androhen empfindlicher Strafen durch das NetzDG ein wirkliches Einlenken auf operativer Ebene stattgefunden habe. Die Finanzvorstände der Unternehmen hätten da erstaunliche Macht. Er erkannte die Anstrengungen von Google ausdrücklich an. Verärgert zeigte er sich aber über Facebook. Die Haltung von Facebook in Sachen Hatespeech ist laut Billen in der Aufklärung des Cambridge-Analytica-Skandals deutlich geworden. „Facebook hat alles andere als vorbildlich aufgeklärt, sondern katastrophal und fahrlässig gehandelt.“ Es könne nicht sein, dass man selbst Jahre nach dem Skandal wenig aktiv zur Aufklärung beitrage und sich gegenüber der Bundesregierung verschlossen zeige. Billen kündigte für September neue Gespräche mit den Plattformen an. Dann soll es um „Counter Speech“ gehen.

Aus Sicht von Facebook ist das kein gutes Signal von jemanden, der für die Bundesregierung operativ arbeitet und versucht Lösungen zu finden. Es zeigt auch: Facebook hat noch lange nicht nach seinen zahlreichen Entschuldigungen und weiteren Versprechungen mit Taten überzeugt.

***

Falls ihr über die Initiative „Verfolgen statt Löschen“ gestolpert seid: Im Laufe der Woche habt ihr an dieser Stelle noch mehr Gelegenheit diese kennenzulernen. Ich werde euch die ersten Erfahrungen der RP-Redaktion aus meiner Sicht schildern und wir schauen uns an, was mit durch Medienhäuser angezeigte Hass- und Hetz-Kommentaren passieren kann.

Tipp: Holt euch meinen 07-Uhr-Newsletter. Ein Digital-Morgen-Briefing mit vier Links und einem frischen Blogtext.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet Stichworte: Facebook, hatespeech

Facebook anders neu denken

24. Juli 2018 von Daniel Kommentar verfassen

Ich bin jetzt genau 11 Jahre auf Facebook. Mit einem kleinen netten Video, hat mich das Netzwerk erinnert und überrascht. Ich weiß nicht, ob ihr schon mal eine Zeitreise durch eure Timeline gemacht habt. Was haben sich die Zeiten verändert, wie wir Facebook heute nutzen. Was wir posten. Wie wir posten.

Wenn ich als Social-Media-Redakteur auf die Debatten der letzten Monate zurückblicke, wird mir eins bewusst: In den ganzen Diskussionen über veränderte Algorithmen, Rankings und Sichtbarkeit von Pages haben wir uns als Seitenbetreiber vor allem mit uns selbst beschäftigt.

Im Klagen über Rückgänge bei Reichweiten und Traffic haben wir aber nicht mitbekommen, dass die Menschen Facebook heute anders nutzen. Macht es noch Sinn heute eine Facebook-Seite mit der gleichen Strategie zu bespielen wie vor 18 Monaten? Welche Rolle spielen Veranstaltungen? Wie nachhaltig sind Gruppen?

Vielleicht sind das die Fragen, die wir diskutieren sollten. Davon dürften alle Seiten etwas haben.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet Stichworte: Facebook

Zuckerbergs Interesse für Journalismus

3. Mai 2018 von Daniel Kommentar verfassen

Daten statt Daten meinen Text über die F8, Facebooks neue Partnerbörse, die Aufarbeitung des Datenskandals und den Abgang von WhatsApp-Gründer Jan Koum könnt ihr heute in eurer Rheinischen Post und bei RP ONLINE lesen.

Ich möchte kurz eine Begebenheit aus dieser Woche notieren, von der in unserer Filterblase wenig Notiz genommen wurde. Bei der hat Mark Zuckerberg viel über seine Sicht über das Verhältnis zwischen Journalismus und sein soziales Netzwerk verraten.

„Der Tanz zwischen der Nachrichten-Industrie und Facebook ist nocht nicht zu Ende“, zieht Jessica Lessing, die Gründerin von The Information, in ihrem Newsletter nach ihrem einstündigen Interview mit Zuckerberg als Fazit.

Jessica hat das Event mit Kevin Delaney von Quartz und Ben Smith von BuzzFeed organisiert – anwesend waren Redakteure von der New York Times, New York Post, Wall Street Journal, CNN, NBC und weiteren US-Medien.

Die Reichweitenrückgänge und die damit verbundenen Erlösprobleme, die Skepsis über das Ranking vertrauenswürdiger Nachrichtenquellen und den ruppigen Umgang mit Partnern schwebte wie ein Damoklesschwert über dem Gespräch.

Zuckerberg möchte sicherstellen, „that people can get a trustworthy news on our platform, out of all the voices that are there and that we’re doing our job to help build a sense of common ground and not polarize.

Seine Gedanken kreisten darum, Inhalte zu bewerben um Gemeinsamkeiten zu finden, Mediengeschäftsmodelle zu unterstützen, um auch investigativen Journalismus zu ermöglichen und neue Finanzierungsstrukturen zu erforschen.

Jessica Lessing zeigte sich überrascht, wie viele Gedanken sich Zuckerberg über das Thema Journalismus und das Verhältnis zu Facebook macht. Facebooks Verhalten der letzten Monate hatte anderes vermuten lassen. Was mich wundert: Zuckerberg hatte keine Not dieses Branchen-Interview durchzuführen. Von daher überraschte er manche Kollegen mit diesem Gespräch. Doch er blieb wieder meist auf der Vogelperspektive, konkrete Handlungen konnte Zuckerberg den wartenden Journalisten nicht vermelden.

Aus meiner Sicht wird ein großes Problem besonders deutlich: Facebook entschuldigt sich sehr viel, bekennt sich sehr viel und kündigt sehr viel an. Das zeigt nicht nur dieses Interview über Journalismus, sondern auch die Ankündigung der „Clear History“-Funktion auf der F8 (siehe mein Text für die RP). Glaubwüdigkeits-Hyptheken sind nur begrenzt belastbar. Langsam sind wir an dem Punkt, an dem nur noch entsprechende Taten Facebook entlasten.

Hier eine Auswahl an Texten, die über das Interview berichten:

  • Buzzfeed:Facebook Has Begun To Rank News Organizations By Trust, Zuckerberg Says
  • Recode: Mark Zuckerberg says Facebook wont be paying publishers an annual fee for their stuff
  • Recode 2: Facebook will spend so much reviewing political ads this year that it will lose money on them
  • Axios: Zuckerberg: Facebook supports journalism, but won’t pay publishers

 

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet, Was mit Medien Stichworte: Facebook, internet

fiene & der angebliche reichweiten-verlust für medien auf facebook

23. Oktober 2017 von Daniel Kommentar verfassen

dontpanic

Es wird gerade eine Sau durch das Netz getrieben: Facebook killt die Reichweite von klassischen Medien auf Facebook. Garniert mit einem Screenshot, der massive Reichweitenverluste in einer Testregion illustriert. Okay, der Medium-Artikel von Filip Struhrik mit dem Titel „Biggest drop in Facebook organic reach we have ever seen“ klingt spektakulär, deckt aber nicht die Befürchtungen, die viele in meiner Timeline aufgeregt formulieren.

Worum geht es? Facebook hat in der letzten Woche neben dem normalen News-Feed einen Entdecker-Feed vorgestellt. Dort gibt es Inhalte von Seiten, auch außerhalb der eigenen Filterblase. T3N hat den neuen Feed vorgestellt. In dem Medium-Artikel werden die ersten Erfahrungen geschildert: Demnach testet Facebook in einigen kleineren Ländern einen voreingestellten Explorer-Feed. Der Hauptfeed besteht nur noch aus Inhalten von Freunden. Die Inhalte von Facebook-Seiten verschwinden in den Explorer-Feed. Das resultiert in einem massiven Einbruch der Interaktionen der Seiten, wie eine Analyse der wichtigsten Medienseiten in der Testregion zeigt. Anton Priebe hat sich durch den Medium-Artikel motivieren lassen, heute auf Onlinemarketing.de zu fragen: Organische Reichweite im Newsfeed bald nur noch gegen Bezahlung? An anderer Stelle im Netz ist sogar von einer gezielten Benachteiligung von Inhalten von Medienhäusern zu lesen.

Was ist jetzt angesagt? Don’t panic! Keine Panik. Die Hysterie um dies Grafik ist übertrieben. Zunächst ist dies nur ein Test. Facebook testet viel. Und oft. Killt Facebook jetzt den Traffic für Medien? Vermutlich nicht.

Seit einiger sehen wir für redaktionelle Seiten folgendes Phänomen: Durchschnittlich erhalten die Postings weniger Reichweite, die Gesamtreichweite der Seite bleibt aber stabil. Der Traffic bleibt ebenfalls stabil, nimmt sogar eher zu. Ich verstehe das so: Facebook scheint die Inhalte der Postings besser zu verstehen und mit den Nutzern zu matchen. Und selbst Filip Struhrik ergänzt seinen Medium-Artikel um die Feststellung: „Traffic to biggest Slovak media sites didnt change significantly since we have new Explore Feed and people cant find posts by pages in their newsfeed.“ Lediglich bei kleineren Nachrichtenseite sei ein Rückgang im Traffic messbar. Aber da müsste ich mir auch erst einmal das Postingverhalten dieser kleinerne Seiten anschauen.

Facebooks Maxime ist die Verweildauer auf Facebook. Das Verhalten der Nutzer spielt eine große Rolle. Wenn Facebook sich für oder gegen etwas entscheidet, dann hat dies mit der Akzeptanz durch die Nutzer zu tun. Oder anders ausgedrückt: Wer Inhalte auf Facebook verbreiten möchte, die für die Nutzer nicht relevant sind, muss halt bezahlen.

Es gibt noch eine weitere Konstante bei Facebook: Die Veränderung. Die Selbstoptimierung. Ich kann mir gut vorstellen, dass der Facebook in 12 Monaten anders funktionieren wird, wie noch vor 12 Monaten. Martin Giesler hat sich auch mit dem Entdecker-Feed auseinandergesetzt und erwartet: „Die massive Fokussierung auf den News Feed ist letztlich der Grund für all die Sorgen, die Facebook seit Monaten auf Trab halten. Fake News, Filterblasen, Targeting — alles Dinge, die nur deshalb in dieser Form existieren und außer Kontrolle geraten konnten, weil Facebook den News Feed zum zentralen Erlebnis auserchoren hat“, schreibt er im Social-Media-Watchblog. „Über Jahre ging das gut, führte zu unglaublichem Engagement und märchenhaften Gewinnen. 2017 könnte imho der Turning-Point für den News Feed sein.“ Wird es schlechter? Muss nicht sein.

In den letzten Monaten hat sich Facebook gegenüber Medienunternehmen geöffnet. Es gibt Ansprechpartner, Veranstaltungen und gemeinsame Projekte. Facebook arbeitet mit Medien nicht aus Altruismus zusammen, sondern weil die Beziehung am Ende eine Symbiose ist. Auch daran sollten Medien denken, wenn sie ihre Abhängigkeit von Facebook reflektieren.

Was aber am Ende zählt: Wer für seine Nutzer relevante Inhalte auf Facebook zur Verfügung stellt, wird auch dort zukünftig noch sein Publikum erreichen können.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Internet Stichworte: Facebook

fiene & eine leseliste für periscope- und facebook-live-freunde

19. Juli 2016 von Daniel Kommentar verfassen

Neues aus der Live-Streamingwelt: Für mein „Facebook live“-Webinar habe ich eine Linkliste mit aktuellen Geschichten rund um Periscope und „Facebook live“ zusammengestellt. Die teile ich auch gerne mit euch an dieser Stelle.

Wie ist das eigentlich mit dem Recht am eigenen Bild? Eine Einführung zum Fotorecht gibt es auf dieser Seite der Anwaltskanzlei Reichhardt und Schlotz. iRights.info schaut sich das Persönlichkeitsrecht im Video auch genauer an.

Facebook bezahlt 2,2 Millionen US-Dollar an Internet-Stars, damit sie live on Air gehen. Damit werden die rund 50 Millionen US-Dollar noch mal aufgestockt, die das Netzwerk bereits an mehr als 140 Medienunternehme(r)n bezahlt.

Warum schaut nur keiner zu? Marketing Land macht drei Gründe aus: 1.) Kein Focus. 2.) Schlechte Videoqualität. 3.) Keine Interaktion.

Wie der typische Tag eines Social-Media-Redakteurs bei einem Fernsehsender aussieht, dessen „Facebook Live“-Einsatz erweitert wird, ist bei Digiday zu lesen. Lernt Christy Garrat von CNBC International kennen.

ABC News wird rund um die von den anstehenden Parteikongressen der Republikanern und der Demokraten im US-Präsidentschaftswahlkampf senden, berichtet Variety.

Zu den Schattenseiten: Am vergangenen Mittwoch ist eine weitere Schießerei bekannt geworden, die mit „Facebook live“ begleitet wurde. Hier kam es nicht zu einem Todesfall. Es gibt auch Augenzeugenberichte zu den neusten Zwischenfälle in Baton Rouge über „Facebook live“.

Was gibt es bei beiden Plattformen neues? Periscope ergänzt eine redaktionelle Auswahl und Facebook versucht sich an Snapchat-Masken im Live-Einsatz. Künftig soll es auch „Broadcast with a friend“ und Warteräume geben. „Broadcast with a friend“ dürfte spannende Interview-Formate ermöglichen.

Was ändert sich durch Live-Video? Dieser Frage ist The Financial Express nachgegangen.

Und ein sehr lesenswerter Text nach dem Putschversuch in der Türkei von meiner Kollegin Susanne Hamann: Warum sich die —ffentlichkeit nicht mehr aussperren läßt.

Seit gut einem Monat experimentiert Youtube ebenfalls mit einer neuen Live-Funktion, die Periscope und Facebook-Live sehr ähnlich ist. Ende Juni wurde sie im Blog vorgestellt. Zunächst dürfen ein paar große Youtuber die neue Funktion nutzen – später wird der Kreis der Erlauchten dann ausgeweitet.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: Was mit Medien Stichworte: Facebook, Periscope

fiene & der hype um mark zuckerberg ist ausgefallen

28. Februar 2016 von Daniel 1 Kommentar

Eine Sache bleibt für mich nach dem Besuch von Mark Zuckerberg in Berlin hängen: Er selbst hat keinen Hype ausgelöst, aber die Angst vor einem Hype, seitens der Nutzer, Beobachter, Journalisten und Menschen, die ihn persönlich begegneten, ist selbst zu einem Hype geworden.

Vorsorglich haben sich alle schon im Vorfeld aufgeregt und ordentlich empört. Umso gespannter war ich, ob Mark Zuckerberg die deutschen Erwartungen, die an ihn gestellt wurden, auch erfüllt. Die Stimmung beim Townhall-Meeting am Freitag hat mich überrascht. Ich habe sie als nüchtern erlebt. Hier wurde kein Popstar gefeiert. Hier wurde keinem Oberhaupt einer Gemeinschaft mit großer Mitgliederschaft zugejubelt und da können Vergleiche sowohl zu Auftritten von politischen oder religiösen Führern herhalten. Der Applaus für Zuckerberg war meist höflich. Es war einfach eine große Fragerunde, zum großen Teil inszeniert. Mark Zuckerberg ganz Mensch auf „gefällt mir“-Mission, wie es mein RP-Kollege Florian Rinke in dieser Woche so schön formuliert hat.

Hype-Auslöser waren eher die anderen. Da müssen wir natürlich auch kurz über den Axel-Springer-Verlag reden. Die haben extra einen Preis erfunden, der Springer zu viel Quality-Time mit Mark verhalf – auch für die Freunde des Hauses, selbst der Samsung-CEO kam vorbei. Diese Idee pendelt zwischen Genialität und Wahnsinn. Die einen bewundern diesen Schachzug des Medienhauses im langfristigen „House of Cards“, mit dem Ziel, in der digitalen Welt in der ersten Reihe mitspielen zu können. Die anderen sind verzweifelt wegen der Doppelmoral und ob des Anbiederns, für ein exklusives Interview. Sie erwarten: Die Worte des überschwänglichen Lobes von Springer-Chef Mathias Döpfner haben nur eine kurze Halbwertszeit. Wahrscheinlich haben beide gegensätzliche Haltungen Recht.

Es geht übrigens auch ohne Aufregung. Auf dem Rückflug nach Düsseldorf habe ich am Samstag sehr gerne die Seite 3 im Tagesspiegel gelesen. Aufgeschrieben, was ist mit all‘ den Vor- und Nachteilen des Zuckerberg-Besuchs. Ich könnte nach der Lektüre des Texts nicht einmal sagen, ob die Autorin das Townhall-Meeting im Live-Stream oder im Saal verfolgt hat. Ist letzteres der Fall, dann ist der uneitle Umgang mit dem Zuckerberg-Besuch zu loben. Die Tagesthemen haben sich entschieden, den kritischen Blick auf die strikte Abschirmung Zuckerbergs gegenüber der Presse zu thematisieren. Der Tenor: Der Konzern, der selbst totale Offenheit von den Nutzern erwartet, ist selbst total verschlossen. Das öffentlich-rechtliche Vertreter im Saal waren und in den USA zu Townhall-Meetings normalerweise gar keine Journalisten eingeladen werden, wird nicht erwähnt. Einen richtig guten Job im kritischen Umgang mit Facebook hat Hajo Schumacher gemacht. Er hat sich von dem Hype um den Hype nicht beeindrucken lassen und sich mal hingesetzt und die wirklichen kritischen Punkte rund um Facebook herausgearbeitet. Hört euch mal die vier Minuten seines Freitags-Kommentar bei Radio Eins vom RBB an. Eine kritische Auseinandersetzung ohne die typische Technophobie deutscher Medien.

Wer ebenfalls etwas aus deutscher Sicht ohne typischer Technophobie lesen möchte, wird im Gespräch zwischen Mathias Döpfner und Mark Zuckerberg in der „Welt am Sonntag“ fündig. Ausgerechnet bei dem Absender, der für viel Hype rund um den Besuch von Mark Zuckerberg verantwortlich ist.

Lektüretipp – meinen Text für die RP könnt ihr hier lesen: „Die Zuckerberg-Show: Mögt mich!“

Alle paar Tage einige Netzkultur-Leseempfehlungen per WhatsApp? Dann abonniert meinen Newsletter auf WhatsApp.

Teilen mit:

  • Threads
  • Mastodon
  • Bluesky
  • LinkedIn
  • WhatsApp
  • Facebook
  • X
  • E-Mail

Gefällt mir:

Gefällt mir Wird geladen …

Kategorie: 365 Geschichten Stichworte: Facebook, Mark Zuckerberg

  • Seite 1
  • Seite 2
  • Seite 3
  • Go to Next Page »

Haupt-Sidebar

Herzlich willkommen

Mein Name ist Daniel Fiene, ich bin Gründer und Host von "Was mit Medien". Wir sind ein Medien-Unternehmen, das dich durch den Medienwandel begleitet.

2020 war ich Redakteur bei ThePioneer. Dort habe ich das Format Tech Briefing (Newsletter + Podcast) aufgebaut. Davor war ich 13 Jahre bei der Rheinischen Post Mediengruppe — vom Volontär bei Antenne Düsseldorf bis zum Head of Audience Engagement der Rheinischen Post.

Seit 2001 blogge ich an dieser Stelle persönlich über das Internet, Medien und Gedöns. Mein Twitter-Account lautet @fiene. Viele Grüße aus Düsseldorf und viel Spaß bei der Lektüre!

Blogosphäre

Lust auf andere Blogs? Ich mache beim UberBlogr Webring mit. Das ist ein Netzwerk von deutschen Blogs, das dir hilft neues, interessantes, lustiges oder außergewöhnliches zu entdecken:

< voriges Blog

zufälliges Blog

nächstes Blog >

Social

  • Profil von fiene auf Facebook anzeigen
  • Profil von fiene auf Twitter anzeigen
  • Profil von dfiene auf Instagram anzeigen
  • Profil von danielfiene auf LinkedIn anzeigen
  • Profil von wasmitmedien auf YouTube anzeigen
  • Profil von DanielFiene auf Google+ anzeigen

Spotlight

Foto: Crystal Eye Studio/Shutterstock.com

Zwischen Missverständnissen und Übertreibung: Eine kleine Einführung in das Thema Clickbait

So tickt die Audio- und Podcast-Szene in NRW

5 Dinge, die ich kürzlich über das Podcasting gelernt habe

Mit der Eisenhower-App den Überblick behalten

Warum im Radio immer die gleiche Musik gespielt wird

fiene & die rechte hand von jan böhmermann

fiene & sieben tipps für journalisten, die zur sxsw wollen

fiene & das monocle-café in london

fiene & das passiert bei einer wassertaufe am flughafen

fiene & mein whatsapp-service

Archive

  • Juli 2025
  • Mai 2025
  • April 2025
  • März 2025
  • Januar 2025
  • Dezember 2024
  • November 2024
  • September 2024
  • August 2024
  • Juli 2024
  • Juni 2024
  • Mai 2024
  • April 2024
  • März 2024
  • Dezember 2023
  • Mai 2022
  • September 2021
  • März 2021
  • November 2020
  • August 2020
  • Juli 2020
  • April 2020
  • März 2020
  • Dezember 2019
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • April 2019
  • März 2019
  • Januar 2019
  • Dezember 2018
  • September 2018
  • August 2018
  • Juli 2018
  • Juni 2018
  • Mai 2018
  • März 2018
  • Februar 2018
  • Januar 2018
  • Dezember 2017
  • November 2017
  • Oktober 2017
  • August 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • August 2016
  • Juli 2016
  • Juni 2016
  • Mai 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • November 2015
  • Oktober 2015
  • September 2015
  • August 2015
  • Juli 2015
  • Juni 2015
  • Mai 2015
  • April 2015
  • März 2015
  • Januar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • März 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juli 2013
  • Juni 2013
  • Mai 2013
  • März 2013
  • Februar 2013
  • Januar 2013
  • Dezember 2012
  • November 2012
  • September 2012
  • August 2012
  • Juni 2012
  • Mai 2012
  • April 2012
  • März 2012
  • Februar 2012
  • Januar 2012
  • Dezember 2011
  • November 2011
  • Oktober 2011
  • September 2011
  • August 2011
  • Juli 2011
  • Juni 2011
  • Mai 2011
  • April 2011
  • März 2011
  • Februar 2011
  • Januar 2011
  • Dezember 2010
  • November 2010
  • Oktober 2010
  • September 2010
  • August 2010
  • Juli 2010
  • Juni 2010
  • Mai 2010
  • April 2010
  • März 2010
  • Februar 2010
  • Januar 2010
  • Dezember 2009
  • November 2009
  • Oktober 2009
  • September 2009
  • August 2009
  • Juli 2009
  • Juni 2009
  • Mai 2009
  • April 2009
  • März 2009
  • Februar 2009
  • Januar 2009
  • Dezember 2008
  • November 2008
  • Oktober 2008
  • September 2008
  • August 2008
  • Juli 2008
  • Juni 2008
  • Mai 2008
  • April 2008
  • März 2008
  • Februar 2008
  • Januar 2008
  • Dezember 2007
  • November 2007
  • Oktober 2007
  • September 2007
  • August 2007
  • Juli 2007
  • Juni 2007
  • Mai 2007
  • April 2007
  • März 2007
  • Februar 2007
  • Januar 2007
  • Dezember 2006
  • November 2006
  • Oktober 2006
  • September 2006
  • August 2006
  • Juli 2006
  • Juni 2006
  • Mai 2006
  • April 2006
  • März 2006
  • Februar 2006
  • Januar 2006
  • Dezember 2005
  • November 2005
  • Oktober 2005
  • September 2005
  • August 2005
  • Juli 2005
  • Juni 2005
  • Mai 2005
  • April 2005
  • März 2005
  • Februar 2005
  • Januar 2005
  • Dezember 2004
  • November 2004
  • Oktober 2004
  • September 2004
  • August 2004
  • Juli 2004
  • Juni 2004
  • Mai 2004
  • April 2004
  • März 2004
  • Februar 2004
  • Januar 2004
  • Dezember 2003
  • November 2003
  • Oktober 2003
  • September 2003
  • August 2003
  • Juli 2003
  • Juni 2003
  • Mai 2003
  • April 2003
  • März 2003
  • Februar 2003
  • Januar 2003
  • Dezember 2002
  • November 2002
  • Oktober 2002
  • September 2002
  • August 2002
  • Juli 2002
  • Juni 2002
  • Mai 2002
  • April 2002
  • März 2002
  • Februar 2002
  • Januar 2002
  • Dezember 2001
  • Januar 1970

Navigation

  • acobu 3 is here
  • Bücher
  • Bonus-Content: Deep Dives zum Medienwandel
  • Daniel Fiene
  • Daniel Fienes Kiosk
  • Daniel Fienes Kiosk
  • Daniel Fienes Newsletter
  • Datenschutzerklärung
  • Der Radio Concierge Web-Bot
  • Die Blogger des Jahres 2015
  • Die Goldenen Blogger 2016
  • Friends
  • Impressum
  • Kontakt
  • Let’s engage
  • Mein Netzwerk
  • Meine Themen
  • Podcasting.fm
  • Podcasting.fm 150 Fragen
  • Podcasting.fm Workroom
  • Podcasting.fm Workshops
  • Profil
  • Radio & Podcasting
  • Termine
  • Was mit Medien
  • Wie gehts weiter?
  • Workshops & Kongresse
  • Yes! Wir sind mit dem Listening-Center nominiert

Zweit-Sidebar

Fienes Top 3 – das Spotlight im Juni


Future of Podcasts Social-Strategie 2025 Unser Blog soll schöner werden

Blog als Audio

Footer

Kommentiert

  • Thomas Gigold bei WordPress ist doch gar nicht so schlecht
  • Massimo bei Fienes Fünf Fav für Freitag #NischigstePodcasts
  • Daniel bei 5 Ideen für deinen Podcast 2025 ⭐️
  • Sebastian bei 5 Ideen für deinen Podcast 2025 ⭐️
  • Phillip bei Fienes Fünf Fav für Freitag #Newsletterformate

Instagram

Die Antwort von Instagram enthielt ungültige Daten.

Folgt mir!

Themen filtern:

  • Medien — ein Blick(e) auf und hinter die Schlagzeilen
  • Mobilitiät — smarter reisen
  • Alltag — wie das Internet Gewohnheiten verändert
  • Produktivität — klüger arbeiten
  • Gute Orte — Düsseldorf und unterwegs

Copyright © 2025 · eleven40 Pro on · Anmelden

  • Daniel Fienes Blog
  • Was mit Medien
  • Podcasting.fm
  • Style & Stitches
  • Datenschutzerklärung
  • Impressum
%d