openPR Recherche & Suche
Presseinformation

Host Provider muss Deep-Fake-Video sperren

Bild: Host Provider muss Deep-Fake-Video sperren

(openPR)

Beschluss des OLG Frankfurt vom 4. März 2025 – Az. 16 W 10/25

Ist bereits ein Hinweis auf einen rechtsverletzenden Post erfolgt, muss der Hostprovider auch sinngleiche Beiträge sperren. Ein weiterer Hinweis ist dann nicht erforderlich. Das OLG Frankfurt betont dabei die Haftung des Hostproviders für rechtsverletzende Medien und Medieninhalte, insbesondere manipuliertes Videomaterial und die Fälschung von Personen. Das machte das OLG Frankfurt mit Beschluss vom 4. März 2025 in einem Eilverfahren deutlich (Az. 16 W 10/25).

Bei Rechtsverletzungen im Internet, z.B. durch ein Meme oder Deep-Fakes, müssen Hostprovider tätig werden und die entsprechenden Inhalte sperren, wenn sie Kenntnis von den rechtsverletzenden Posts haben. Das Angebot und die Leistungen von Hostprovidern umfassen dabei Webhosting, Server, Website, Domain, E-Mail-Adresse und Internetanschluss, wodurch sie den Zugang zum Internet ermöglichen. Es ist wichtig, die Unterscheidung zwischen Host Provider, Access Provider und Content Provider zu kennen, da alles, was hinter diesen Angeboten steckt, sehr komplex ist. Darüber hinaus gibt es verschiedene Angebote im Bereich Webhosting und Serverlösungen, die individuell auf die Bedürfnisse der Nutzer zugeschnitten sind. Das hat das OLG Frankfurt bereits mit Urteil vom 25. Januar 2024 entschieden (Az.: 16 U 65/22). In der konsequenten Fortsetzung dieser Rechtsprechung hat das OLG Frankfurt in einem Eilverfahren entschieden, dass Plattformbetreiber auch sinngleiche Inhalte sperren müssen, ohne dass ein erneuter Hinweis erforderlich ist, so die Wirtschaftskanzlei MTR Legal Rechtsanwälte , die u.a. im IT-Recht berät.

Deepfake Videos mit sinngleichem Inhalt

In dem zugrunde liegenden Verfahren war ein Deepfake Video auf einer Social-Media-Plattform veröffentlicht worden. Dieses Deepfake Video wurde mithilfe von Deepfake Technologie und Deepfake KI erstellt, wobei das Gesicht und die Stimme der betroffenen Person manipuliert wurden. In diesem Video wurde ein bekannter Arzt durch manipuliertes Bild- und Tonmaterial so dargestellt, als würde er für ein Produkt zur Gewichtsabnahme werben. Tatsächlich hatte er damit nichts zu tun. Nach einem entsprechenden Hinweis des Betroffenen entfernte der Plattformbetreiber dieses Video.

Kurze Zeit später tauchte jedoch ein weiteres Video mit nahezu identischem Inhalt auf. Es unterschied sich lediglich in Details, etwa durch eine leicht abgewandelte Darstellung und eine andere Überschrift, vermittelte aber denselben täuschenden Gesamteindruck. Solche Fälschung von Medieninhalten und Videomaterial stellt ein wachsendes Problem für den Schutz der Wirklichkeit und die Privatsphäre von Personen dar. Für die Erstellung solcher Dinge werden fortschrittliche Technik und große Mengen an Daten genutzt, wobei das Lernen von AI-Modellen eine zentrale Rolle spielt, um die Anwendung immer realistischer zu machen. Auch dieses Video wurde zwar gelöscht, aber erst nach einer erneuten Meldung. Deepfake Videos können zur Verbreitung von Fake News beitragen, weshalb effektive Schutzmaßnahmen gegen solche Manipulationen immer wichtiger werden. Der Betroffene wollte die Plattform nun gerichtlich verpflichten lassen, derartige Inhalte zukünftig zu unterlassen, und beantragte eine einstweilige Verfügung.

Technologie und Erkennung von Deep-Fake-Videos

Die rasante Entwicklung von Deepfake-Technologien basiert auf dem Einsatz von künstlicher Intelligenz (KI) und fortschrittlichen Algorithmen des maschinellen Lernens. Mit diesen Verfahren lassen sich Videos und Audiodateien so manipulieren, dass sie täuschend echt wirken und selbst für geübte Augen und Ohren kaum von authentischen Inhalten zu unterscheiden sind. Besonders das sogenannte Face Swapping, bei dem das Gesicht einer Person durch das einer anderen ersetzt wird, ist eine der bekanntesten Techniken. Hierbei werden große Mengen an Bild- und Videomaterial benötigt, um die Mimik, Gestik und den Tonfall der Zielperson möglichst realistisch nachzubilden.

Technologische Grundlagen von Deepfakes

Die Erkennung solcher Fälschungen stellt Host Provider, Access Provider und andere Anbieter von Webhosting und Serverleistungen vor erhebliche Herausforderungen. Deepfake-Videos und manipulierte Audiodateien können gezielt zur Verbreitung von Fakes, Fake News oder zur Rufschädigung von Personen eingesetzt werden. Die eingesetzten KI-Systeme und Algorithmen werden dabei immer ausgefeilter, sodass klassische Prüfverfahren oft an ihre Grenzen stoßen.

Methoden zur Erkennung von Deepfakes

Um Deepfake-Videos und andere Fälschungen zu erkennen, kommen verschiedene Methoden zum Einsatz. Dazu zählen etwa die Analyse von Unregelmäßigkeiten in der Mimik, der Bewegungsabläufe oder der Lichtverhältnisse im Video. Auch die Überprüfung der Metadaten und der Einsatz spezialisierter KI-Tools zur Erkennung von Manipulationen sind gängige Verfahren. Dennoch bleibt die Erkennung eine ständige Herausforderung, da die Techniken zur Erstellung von Deepfakes sich kontinuierlich weiterentwickeln.

Risiken und Schutzmaßnahmen für Plattformbetreiber

Für Host Provider und Plattformbetreiber bedeutet dies, dass sie nicht nur auf Hinweise reagieren, sondern auch proaktiv Maßnahmen zum Schutz vor der Verbreitung von Deepfake-Inhalten ergreifen müssen. Dazu gehören der Einsatz von Content-Filtern, die regelmäßige Überprüfung der gehosteten Inhalte und die Zusammenarbeit mit Experten und Behörden. Ziel ist es, die Authentizität der auf ihren Servern und Webseiten bereitgestellten Medieninhalte zu gewährleisten und Manipulationen frühzeitig zu erkennen.

Die Nutzung von Deepfake-Technologien birgt erhebliche Risiken für die Privatsphäre und Sicherheit von Personen und Unternehmen. Manipulierte Videos, Audiodateien oder Bilder können gezielt zur Täuschung, Erpressung oder Verbreitung von Falschinformationen eingesetzt werden. Daher ist für Nutzerinnen und Nutzer im Internet wichtig, kritisch mit digitalen Inhalten umzugehen und bei Verdacht auf Fälschungen entsprechende Prüf-Tools oder einen Domain Check zu nutzen.

Notwendigkeit von Forschung und Zusammenarbeit

Angesichts der rasanten Weiterentwicklung von Deepfake-KI und der zunehmenden Verbreitung solcher Fälschungen ist es unerlässlich, dass Forschung, Technologieunternehmen, Hosting-Anbieter und Behörden eng zusammenarbeiten. Nur durch die Kombination aus innovativen Erkennungsmethoden, technischer Weiterentwicklung und klaren rechtlichen Rahmenbedingungen kann die Integrität digitaler Medieninhalte langfristig geschützt werden. So schaffen wir gemeinsam eine vertrauenswürdige und sichere Online-Umgebung, in der Manipulationen und Fakes keinen Platz haben.

Kein erneuter Hinweis erforderlich

Das Landgericht wies den Antrag zunächst ab, da es keine fortdauernde Verletzungspflicht der Plattform sah. Auf die sofortige Beschwerde des Antragstellers hin änderte das Oberlandesgericht Frankfurt diese Entscheidung jedoch teilweise ab. Nach Auffassung des Senats haftet die Plattform nicht für das erste Video, wohl aber für das zweite. Im rechtlichen Kontext ist zu beachten, dass der Betreiber einer Webseite als Content-Provider gilt, wenn er eigene oder fremde Inhalte kontrolliert, bearbeitet oder veröffentlicht, was eine besondere Haftung für die auf der Webseite bereitgestellten Inhalte mit sich bringt. Zur Begründung führte das OLG aus, dass der Plattform vor dem ersten Hinweis keine Kenntnis von der Rechtsverletzung vorlag und sie daher auch keine Pflicht zur Vorabkontrolle oder Löschung traf. Nach der Entfernung des ersten Videos habe sich die Situation jedoch geändert: Mit der konkreten Kenntnis der Rechtsverletzung entstehe für den Host-Provider die Pflicht, auch sinngleiche Inhalte zu prüfen und gegebenenfalls zu entfernen. Diese Pflicht sei verletzt worden, weil das zweite, nahezu inhaltsgleiche Video erst nach einem erneuten Hinweis gesperrt wurde. Die Sperrung hätte ohne eine weitere Abmahnung erfolgen müssen, machte das OLG Frankfurt deutlich.

Es stellte weiter klar, dass ein Host-Provider zwar grundsätzlich nicht verpflichtet sei, die von Nutzern eingestellten Inhalte vorab zu überwachen oder zu filtern. Ein solches generelles Monitoring wäre mit der Meinungs- und Kommunikationsfreiheit im Internet kaum vereinbar. In verschiedenen Situationen, etwa bei der Anwendung von KI-Systemen oder bei unterschiedlichen technischen und rechtlichen Rahmenbedingungen, können die Haftung und die Prüfpflichten unterschiedlich ausfallen. Sobald der Betreiber aber konkrete Kenntnis von einer klar erkennbaren Rechtsverletzung erhalten hat, müsse er den betreffenden Inhalt sperren und Vorkehrungen treffen, dass dieser nicht erneut in gleicher oder ähnlicher Form verbreitet wird. Das Problem der Abgrenzung zwischen zulässigen und unzulässigen Inhalten sowie die Wirksamkeit von Schutzmaßnahmen für Nutzer und Plattformen bleibt dabei eine Herausforderung. Diese Pflicht gehe über die bloße Entfernung des gemeldeten Inhalts hinaus.

Sinngleiche Inhalte: Erkennung und rechtliche Pflichten von Host-Providern

Sinngleiche Inhalte liegen dann vor, wenn sie trotz geringfügiger Änderungen z.B. anderer Schnitt, geänderte Farben, anderes Format oder leicht abgewandelter Text denselben rechtsverletzenden Gesamteindruck hervorrufen, so das OLG. Zur Erkennung solcher Inhalte kommen fortschrittliche Technik und die Auswertung großer Daten zum Einsatz, um Manipulationen zuverlässig zu identifizieren. Eine Plattform kann sich demnach nicht darauf berufen, dass ein neu hochgeladenes Video technisch nicht identisch ist, wenn es faktisch dieselbe täuschende Aussage enthält. Durch das Lernen von Algorithmen und die Anwendung von AI können Systeme zunehmend besser zwischen Wirklichkeit und manipulierten Inhalten unterscheiden. Ab dem Moment, in dem der Betreiber einmal über eine konkrete Rechtsverletzung informiert wurde, muss er angemessene technische und organisatorische Maßnahmen treffen, um Wiederholungen zu vermeiden. In der Praxis besteht jedoch das Problem, dass Erkennungsmethoden nicht in allen Situationen fehlerfrei funktionieren, weshalb effektive Schutzmaßnahmen besonders wichtig sind.

Für die Praxis bedeutet das, dass Host-Provider nicht nur auf Meldungen reagieren, sondern die Verbreitung irreführender oder manipulativer Inhalte auch aktiv bekämpfen müssen. Sie unterliegen zwar keiner allgemeinen Überwachungspflicht, aber einer situationsabhängigen Prüfpflicht. Diese entsteht, sobald der Betreiber über eine konkrete Rechtsverletzung informiert ist. Er muss dann nicht nur den konkreten Beitrag löschen, sondern auch prüfen, ob es auf der Plattform vergleichbare Inhalte gibt, die dieselbe Rechtsverletzung fortsetzen. Unterlässt er dies, kann er als sog. mittelbarer Störer auf Unterlassung in Anspruch genommen werden.

MTR Legal Rechtanwälte berät umfassend im IT-Recht.

Nehmen Sie gerne Kontakt zu uns auf!

Verantwortlich für diese Pressemeldung:

News-ID: 1296658
 376

Pressebericht „Host Provider muss Deep-Fake-Video sperren“ bearbeiten oder mit dem "Super-PR-Sparpaket" stark hervorheben, zielgerichtet an Journalisten & Top50 Online-Portale verbreiten:

PM löschen PM ändern
Disclaimer: Für den obigen Pressetext inkl. etwaiger Bilder/ Videos ist ausschließlich der im Text angegebene Kontakt verantwortlich. Der Webseitenanbieter distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen. Wenn Sie die obigen Informationen redaktionell nutzen möchten, so wenden Sie sich bitte an den obigen Pressekontakt. Bei einer Veröffentlichung bitten wir um ein Belegexemplar oder Quellenennung der URL.

Pressemitteilungen KOSTENLOS veröffentlichen und verbreiten mit openPR

Stellen Sie Ihre Medienmitteilung jetzt hier ein!

Jetzt gratis starten

Weitere Mitteilungen von MTR Legal Rechtsanwälte Pressearchiv

Bild: Rechtliche Grundlagen des Patentschutzes für DiagnoseverfahrenBild: Rechtliche Grundlagen des Patentschutzes für Diagnoseverfahren
Rechtliche Grundlagen des Patentschutzes für Diagnoseverfahren
Patentschutz für Diagnoseverfahren Beschluss des Bundesgerichtshofs vom 17. März 2026 (Az. X ZB 5/25): Patentierbarkeit von KI-gestützten Diagnosemethoden In der modernen Medizin spielen Künstliche Intelligenz und automatisierte Auswertungssysteme eine zunehmend wichtige Rolle, insbesondere bei der Analyse bildgebender Verfahren und der Unterstützung medizinischer Befundungen. Dies wirft für Entwickler und Unternehmen der Medizintechnik die Frage auf, ob solche Innovationen patentierbar sind oder unter den gesetzlichen Ausschluss für Diagno…
Bild: Effektive Analyse des Handelsvertreterausgleichs im TelekommunikationssektorBild: Effektive Analyse des Handelsvertreterausgleichs im Telekommunikationssektor
Effektive Analyse des Handelsvertreterausgleichs im Telekommunikationssektor
Verständnis des Handelsvertreterausgleichs im Telekommunikationssektor Urteil des OLG Köln vom 31. März 2025 – Az. 19 U 126/24 Im Bereich des Vertriebs von Mobilfunk- und Festnetzverträgen ist der Ausgleichsanspruch gemäß § 89b HGB nach Beendigung eines Handelsvertretervertrags oft ein bedeutender Streitpunkt. Das OLG Köln hat am 31. März 2025 (Az. 19 U 126/24) Klarheit geschaffen, unter welchen Voraussetzungen Handelsvertreter im Telekommunikationsbereich einen Ausgleich beanspruchen können und welche Nachweise hierfür erforderlich sind. …

Das könnte Sie auch interessieren:

Bild: Deepfake Forschung gefördert vom Bundesministerium für Bildung und Forschung (BMBF) Bild: Deepfake Forschung gefördert vom Bundesministerium für Bildung und Forschung (BMBF)
Deepfake Forschung gefördert vom Bundesministerium für Bildung und Forschung (BMBF)
BioID GmbH unterstützt FAKE-ID Projekt mit biometrischer Expertise zur Erkennung von Fälschungen Nürnberg, Deutschland - 30.11.2021: Das deutsche Biometrie-Unternehmen BioID gab heute seine Beteiligung an FAKE-ID bekannt, einem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt zur Erkennung von Deepfakes. Die Arbeit an digitalen Fälschungen wird zur Förderrichtlinie des BMBF „Künstliche Intelligenz in der Sicherheitsforschung“ und im Rahmen des Rahmenprogramms der Bundesregierung „Forschung für die zivile Sicherheit“…
Amdocs Acquires DST Innovis, a Leading Provider of Customer Care and Billing Solutions for the Broadband Media Market, from DST Systems, Inc.
Amdocs Acquires DST Innovis, a Leading Provider of Customer Care and Billing Solutions for the Broadband Media Market, from DST Systems, Inc.
Acquisition propels Amdocs into a leadership position in the broadband media marketplace ST. LOUIS, USA, July 5, 2005 - Amdocs (NYSE: DOX), the leading provider of software and services to enable integrated customer management and the intentional customer experience, today announced that it has acquired DST Innovis Inc. and DST Interactive, Inc., (“DST …
FREY Rechtsanwälte erstellen umfassendes Rechtsgutachten zur Provider-Haftung
FREY Rechtsanwälte erstellen umfassendes Rechtsgutachten zur Provider-Haftung
… Wirtschaft (BVDW) e.V. hat gestern in Berlin der Öffentlichkeit ein umfassendes von FREY Rechtsanwälte verfasstes Rechtsgutachten zum Haftungsregime für Host- und Access-Provider im Bereich der Telemedien vorgestellt. Das Gutachten geht insbesondere auf den Rechtsrahmen für hoheitliche Sperrungsverfügungen (z.B. Kinderpornographie), das System der abgestuften …
Allot MediaSwift – Traffic im Web um 40 Prozent reduziert
Allot MediaSwift – Traffic im Web um 40 Prozent reduziert
… Auch P2P-Verbindungen schlagen sich exorbitant im Traffic-Aufkommen nieder und zählen damit ebenso zu den Bandbreitenfressern. So stellt es eine Herausforderung für Service-Provider weltweit dar, Netzwerkstaus zu verhindern, die Internetverfügbarkeit für die Subscriber zu sichern und den Durchschnittsertrag pro User (ARPU) zu verbessern. MediaSwift begegnet …
ACHTUNG SPERRFRIST 15 Uhr - Sperrungsverfügungen gegen Access-Provider:...
ACHTUNG SPERRFRIST 15 Uhr - Sperrungsverfügungen gegen Access-Provider:...
...BVDW hält gesetzliche Neuregelung für erforderlich ACHTUNG SPERRFRIST 20.01.09 15:00 UHR Sperrungsverfügungen gegen Access-Provider: BVDW hält gesetzliche Neuregelung für erforderlich Branchenverband der Digitalen Wirtschaft legt in Berlin umfassendes Gutachten zum Haftungsregime für Host- und Access-Provider im Bereich der Telemedien vor Berlin, …
Tropos und Allot Communications kooperieren
Tropos und Allot Communications kooperieren
… Wi-Fi-Metro-Netzwerksystemen, haben sich auf eine Zusammenarbeit verständigt. Im Rahmen der Kooperation werden Tropos und Allot gemeinsam Lösungen für BWA (Broadband Wireless Access)-Provider entwickeln, die damit unter Verwendung der Allot NetEnforcer-Produkte in drahtlosen Netzwerken den Traffic und Service kontrollieren und managen können. Mit Hilfe der …
Bild: Deepfake Risk Summit Die wachsenden Risiken synthetischer Medien Bild: Deepfake Risk Summit Die wachsenden Risiken synthetischer Medien
Deepfake Risk Summit Die wachsenden Risiken synthetischer Medien
Luxemburg, 27. März 2026 | Während künstliche Intelligenz die globalen Märkte rasant transformiert, beginnt die Grenze zwischen Wahrheit und Fälschung zu verschwimmen. Hyperrealistische Deepfake-Videos, geklonte Stimmen von Führungskräften und KI-generierte Medienmanipulation sind keine Themen der Zukunft mehr; sie sind heute leistungsstarke Werkzeuge für Betrug, Marktstörungen und Reputationsangriffe. Um dieser neuen Dimension unternehmerischer Risiken zu begegnen, wird Innovation Lux am 7. Mai 2026 in Luxemburg-City einen exklusiven Execut…
Trend Micro lizenziert Technologie für Host Intrusion Defense von Third Brigade
Trend Micro lizenziert Technologie für Host Intrusion Defense von Third Brigade
… Brigade und ermöglicht die Abwehr von Angriffen auf Netzwerkebene Trend Micro (TSE: 4704) lizenziert Technologien von Third Brigade, einem kanadischen Sicherheitsunternehmen, das auf Host Intrusion Defense spezialisiert ist. Trend Micro plant die Integration der Technologien über die erweiterbare Plug-in-Architektur von Trend Micro OfficeScan 8.0, der …
Bild: Bull und Trend Micro optimieren Ressourcenauslastung und sichern Kundendaten beim Elektrogroßhändler SoneparBild: Bull und Trend Micro optimieren Ressourcenauslastung und sichern Kundendaten beim Elektrogroßhändler Sonepar
Bull und Trend Micro optimieren Ressourcenauslastung und sichern Kundendaten beim Elektrogroßhändler Sonepar
… Center in Köln demonstrierte, fiel die Entscheidung zugunsten der Trend Micro-Lösung. Deep Security 9 kommt in der gesamten VMware ESX 5.1-Umgebung auf jedem Server-Host zum Einsatz. Eine virtuelle Appliance auf Basis von vShield übernimmt zentral alle ressourcenintensiven Aufgaben und benötigt dafür keine Agenten in den virtuellen Maschinen. Albert …
Host Europe GmbH mit Verstärkung im Online-Marketing
Host Europe GmbH mit Verstärkung im Online-Marketing
PRESSEMITTEILUNG 07/05 Host Europe GmbH mit Verstärkung im Online-Marketing Thomas von Mengden neu beim Kölner Internet Service Provider Der Kölner Internet Service Provider Host Europe hat seit dem 01. Juni 2005 einen neuen Mitarbeiter im Bereich Online-Marketing: Herr Thomas von Mengden (30) verstärkt künftig als Webmaster / Webdesigner die Kreativ-Abteilung …
Sie lesen gerade: Host Provider muss Deep-Fake-Video sperren