openPR Recherche & Suche
Presseinformation

Deepfakes durch die KI - Wie gehen wir mit unverlässlichen Quellen um?

16.09.202517:37 UhrWissenschaft, Forschung, Bildung
Bild: Deepfakes durch die KI - Wie gehen wir mit unverlässlichen Quellen um?

(openPR) Künstliche Intelligenz erzeugt heute in Sekunden vermeintlich echte Bilder, Stimmen und Videos.

"Deepfakes" sind längst nicht mehr Nischenphänomene, sondern ein skalierbares Geschäfts- und Manipulationsmodell.

Ein oft unterschätzter Treiber: unverlässliche Quellengenerierung aus dem Internet. Wo Modelle auf fragwürdige Inhalte trainiert werden oder Generationssysteme bei der Recherche auf irreführende Seiten zurückgreifen, entsteht ein Kreislauf aus Fehlern, der Authentizität in den Hintergrund manövriert - technisch, kommunikativ und gesellschaftlich.



Wie entstehen eigentlich Deepfakes?

Datenbasis: Bild-, Audio- und Videodaten aus dem Web (rechtlich gesehen oft in der Grauzone zugegen) speisen Trainingsprozesse.

Modelle: Diffusionsmodelle (Bild/Video) und Sprach-/Stimmenmodelle lernen Muster und Stilmerkmale.

Generierung: Aus Textprompts oder Referenzmaterial entstehen "neue" Medieninhalte, die real wirken.

Optimierung: Feintuning, "model mixing" und Prompt-Techniken verbessern Plausibilität und Kohärenz.

Schon hier entscheidet die Qualität der Quellen maßgeblich über das Resultat: Schlechte Quellen skalieren Fehler - nicht Qualität.


Wo richten unverlässliche Quellen Schaden an?

Kontaminierte Trainingsdaten:
"Web-Crawls" (Gesammelte Inhalte von Websites) enthalten Fälschungen, Meme-Montagen, Clickbait, veraltete oder böswillig manipulierte Inhalte. Gelangen diese ungebremst in Trainingssets, beginnt ein "Kreislauf der Verzerrungen" in Zusammenarbeit mit KI-Modellen.

Scheinrecherche bei der Generierung:
Viele KI-Workflows "stützen" Ausgaben mit Websuche oder Retrieval. Greifen sie dabei auf SEO-Farmen, Mirror-Sites oder "Pseudo-Journalismus" zurück, werden falsche Narrative mit dem Irrglauben an technische Objektivität neu verpackt.

Halluzinative Attribution:
Sprachmodelle sind in der Lage Quellen zu "erfinden" (Halluzination).
Sobald diese Pseudo-Belege für visuelle oder stimmliche Deepfakes genutzt werden, erhöht das die scheinbare "Verifizierung" der Fälschung - ohne, dass eine echte Prüfung stattgefunden hat.

Feedback-Schleifen:
Einmal veröffentlicht, werden Deepfakes selbst zur "Quelle": Sie landen in Foren, werden zitiert, indexiert und schließlich wieder als Trainings- oder Prompt-Kontext benutzt. So wird Desinformation im Zeitalter des Digitalen Fußabdrucks verewigt.

Risiken
Politische Kommunikation & Wahlen: Gefälschte Politiker-Statements, manipulierte Mitschnitte, synthetische "Zeugen".

Unternehmen & Märkte: CEO-Fake-Calls, fabrikierte Produktleaks, Kursmanipulation durch gefälschte Pressevideos.

Rufschädigung & Erpressung: Intimfälschungen, falsche "Beweise", CEO-Fraud mit synthetischer Stimme.

Justiz & Verwaltung: Untergeschobene "Bodycam"-Clips, manipulierte Beweisfotos, gefälschte Amtskommunikation.

Plausibilität ≠ Wahrheit - die Psychologie dahinter:

Deepfakes verwenden kognitive Abkürzungen: Wenn Bild, Ton und vermeintliche Quelle zusammenpassen, steigt unsere Plausibilitätsheuristik. Die technische Güte verschiebt den Fokus von "Ist das echt?" hin zu "Es könnte echt sein". Unverlässliche Quellen liefern die fehlende letzte Stütze - ein Link, ein Logo, ein Wasserzeichen-Look-alike - mehr braucht es oft nicht.

Fortschritte & Grenzen bei der Erkennung:
Forensik: Analyse von Kompressionsartefakten, Inkonsistenzen in Schatten/Reflexion, Eye-Gaze, Mikroexpressionen.

Signaltechnik: Audio-Fingerprinting, Phonem-Timing, Spektrogramm-Anomalien.

Provenance-Standards: C2PA/Content Credentials betten Herkunftsdaten ein (Kamera → Edit → Veröffentlichung).

Grenzen: Modelle lernen schneller als offene Forensik-Tools sich anpassen. Zudem gehen Metadaten bei Re-Uploads verloren; Wasserzeichen lassen sich degradieren.

Governance: Was sollten Organisationen heute umsetzen?
Quelle vor Inhalt: Prozesse, die zuerst die Quelle und erst dann den Inhalt bewerten. Check: Domain-History, Impressum, Kontakt/Redaktion, Transparenz über Korrekturen.

Policy für KI-Nutzung:

Kein automatisiertes "Web-Stützen" ohne definierte Whitelists.

Retrieval nur aus kuratierter Wissensbasis; externe Quellen strikt gelabelt.

Verbot, generierte Inhalte als "belegt" auszugeben, wenn keine Primärquelle verifiziert ist.

Provenance by Design:

Eigene Medien mit Content Credentials signieren.

Workflows so bauen, dass Bearbeitungsschritte protokolliert werden (Audit-Trail).

Detektions-Stack: Kombination aus Bild/Video-Forensik, Voice-Spoofing-Erkennung, Modell-Wasserzeichentest und manueller Redaktion.

Incident-Playbook: Meldeketten, Takedown-Routinen (Plattformmeldungen, Host-Abuse), Krisen-Q&A, Gegenbeweise (Authenticity-Package mit Originaldateien, Hashes, Zeitstempeln).

Rechtsrahmen & Verträge: Nutzungsrechte an Trainingsdaten prüfen, NDAs/AGBs um KI-Klauseln ergänzen (Verbot synthetischer Darstellung von Führungskräften, klare Haftungsregeln).

Awareness & Training: Rollenspezifische Schulungen (PR, HR, Legal, IT). Praxisnahe Übungen mit echten/gefälschten Beispielen, sowie auch klaren Eskalationspfaden.

Checkliste - verdächtige Inhalte erkennen!
Wer veröffentlicht? (Erreichbare Redaktion? Historie? Impressum?)

Wann erstmals aufgetaucht? (Rückwärtssuche; erschien es zeitgleich auf mehreren unabhängigen, reputablen Seiten?)

Woher stammt das Original? (Primärquelle, Rohmaterial, EXIF/Metadaten, Hash-Abgleich)

Was passt nicht? (Licht/Schatten, Reflexe, Lippen-Ton-Sync, Hände/Ohren/Schmuck, Raumakustik) (äußerst wichtig bei der Erkennung eines Deepfakes!!!)

Welche Gegenbelege existieren? (Authentische Aufnahmen, offizielle Dementis mit Belegen, unabhängige Fact-Checks)

Wie groß ist der Anreiz? (Profit/Propaganda/Erpressung - motivierte Fälscher investieren mehr)

Schutzmaßnahmen für JEDE/-N
Kuratiertes Retrieval (RAG): Nur geprüfte, versionierte Wissensquellen; kein "freies" Web im Produktionsmodus.

Quellen-Scoring: Heuristiken + Reputationsdatenbanken (Domain-Alter, TLS-Historie, Verlinkungen, Fact-Check-Treffer).

Verifizierte Zitate: KI darf Zitate/Studien nur aus Quellen mit persistenten IDs (DOI, URN) und direkter Abrufbarkeit ausgeben.

Red-Teaming: Regelmäßige Angriffe auf eigene Workflows (Prompt-Injection, gefälschte Snippets, poisoned PDFs).

Content-Watermarking & Hashing: Eigene Veröffentlichungen markieren, um später echte von falschen Kopien abzugrenzen.

Human-in-the-Loop: Kritische Veröffentlichungen benötigen 4-Augen-Prinzip mit dokumentierter Quellenprüfung.

Fazit:

Deepfakes sind kein bloßes Technikproblem - sie sind ein Quellenproblem. Solange Generations- und Recherche-Pipelines unkritisch auf das offene Web zugreifen, wird "plausibel" zu oft mit "wahr" verwechselt. Die Antwort liegt in harter Quellenkurierung, nachvollziehbarer Provenance und gelebter Prüfkultur.

Link zu der Homepage des Bildungsinstitut Wirtschaft



Diese Pressemeldung wurde auf openPR veröffentlicht.

Verantwortlich für diese Pressemeldung:

Pressekontakt

  • Bildungsinstitut Wirtschaft
    Up de Welle 17
    46399 Bocholt

News-ID: 1291987
 192

Kostenlose Online PR für alle

Jetzt Ihren Pressetext mit einem Klick auf openPR veröffentlichen

Jetzt gratis starten

Pressebericht „Deepfakes durch die KI - Wie gehen wir mit unverlässlichen Quellen um?“ bearbeiten oder mit dem "Super-PR-Sparpaket" stark hervorheben, zielgerichtet an Journalisten & Top50 Online-Portale verbreiten:

PM löschen PM ändern
Disclaimer: Für den obigen Pressetext inkl. etwaiger Bilder/ Videos ist ausschließlich der im Text angegebene Kontakt verantwortlich. Der Webseitenanbieter distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen. Wenn Sie die obigen Informationen redaktionell nutzen möchten, so wenden Sie sich bitte an den obigen Pressekontakt. Bei einer Veröffentlichung bitten wir um ein Belegexemplar oder Quellenennung der URL.

Pressemitteilungen KOSTENLOS veröffentlichen und verbreiten mit openPR

Stellen Sie Ihre Medienmitteilung jetzt hier ein!

Jetzt gratis starten

Weitere Mitteilungen von Bildungsinstitut Wirtschaft

Bild: LkSG-Änderung 2025: Was Unternehmen zu den neuen Compliance-Pflichten wissen müssenBild: LkSG-Änderung 2025: Was Unternehmen zu den neuen Compliance-Pflichten wissen müssen
LkSG-Änderung 2025: Was Unternehmen zu den neuen Compliance-Pflichten wissen müssen
"Lieferkettengesetz 2025 und Compliance: Was sich für Unternehmen jetzt ändert. Was kommt konkret auf Sie zu?"​ Hintergrund: LkSG, Koalitionsauftrag und europäische Verankerung Das LkSG trat zum 1. Januar 2023 in Kraft. Es verpflichtet Unternehmen mit mindestens 1.000 Beschäftigten (zuvor 3.000) zur Sorgfalt in Bezug auf Menschenrechte und Umwelt entlang ihrer Lieferketten. Auf EU-Ebene ist seit 25. Juli 2024 die Corporate Sustainability Due Diligence Directive (CSDDD) in Kraft; die Umsetzung in nationales Recht ist durch die "Stop-the-cloc…
Bild: Datenschutz-Falle ChatGPT? Das müssen Unternehmen jetzt wissen!Bild: Datenschutz-Falle ChatGPT? Das müssen Unternehmen jetzt wissen!
Datenschutz-Falle ChatGPT? Das müssen Unternehmen jetzt wissen!
ChatGPT begeistert mit Effizienz - doch wie steht es um den Datenschutz? Erfahren Sie, welche Risiken es gibt, welche Daten besser nicht eingegeben werden sollten und Co. ChatGPT und Datenschutz: Was gibt es zu beachten? Künstliche Intelligenz (KI) ist längst im Alltag von Unternehmen angekommen. Besonders ChatGPT wird häufig eingesetzt - sei es für das Verfassen von Texten, die Erstellung von Konzepten oder die Unterstützung bei Recherchen. Doch sobald personenbezogene Daten im Spiel sind, stellt sich die Frage: Wie lässt sich ChatGPT d…

Das könnte Sie auch interessieren:

Bild: System Rebooted: Podcast „Nachgehackt“ beleuchtet die Welt der IT-Sicherheit in fünf neuen FolgenBild: System Rebooted: Podcast „Nachgehackt“ beleuchtet die Welt der IT-Sicherheit in fünf neuen Folgen
System Rebooted: Podcast „Nachgehackt“ beleuchtet die Welt der IT-Sicherheit in fünf neuen Folgen
… meldet sich der IT-Sicherheitspodcast „Nachgehackt“ im Oktober mit neuen Folgen zurück. Zum Einstieg begleitet Moderatorin Henrike Tönnes den Forscher Jonas Ricker in die Welt der Deepfakes.Europaweit steht jedes Jahr im Herbst für vier Wochen alles im Zeichen der IT-Sicherheit. Der „European Cyber Security Month“ (ECSM) wurde 2012 ins Leben gerufen, …
Bild: Deepfake-Alarm im Kunden-Onboarding: Neue Anforderungen an sichere KYC-ProzesseBild: Deepfake-Alarm im Kunden-Onboarding: Neue Anforderungen an sichere KYC-Prozesse
Deepfake-Alarm im Kunden-Onboarding: Neue Anforderungen an sichere KYC-Prozesse
Deepfakes wirken auf den ersten Blick wie Science-Fiction - sind aber längst Realität. Was sind Deepfakes - und warum sind sie für KYC so gefährlich? Deepfakes sind mit künstlicher Intelligenz generierte Medieninhalte - meistens Videos oder Audioaufnahmen, die echten Menschen zum Verwechseln ähnlich sehen oder klingen. Dank KI-Tools ist es heute möglich, …
Bild: Deepfakes mit Herzschlag: Neue Studie zeigt Grenzen aktueller ErkennungsmethodenBild: Deepfakes mit Herzschlag: Neue Studie zeigt Grenzen aktueller Erkennungsmethoden
Deepfakes mit Herzschlag: Neue Studie zeigt Grenzen aktueller Erkennungsmethoden
Deepfakes – digital erzeugte oder veränderte Videos, die meist mithilfe künstlicher Intelligenz erstellt werden – sind mittlerweile weit verbreitet und technisch zunehmend ausgereift. Sie eröffnen neue kreative und technologische Möglichkeiten, bringen jedoch auch Risiken mit sich, etwa im Zusammenhang mit Desinformation oder missbräuchlicher Verwendung. …
McAfee-Studie: Weihnachtsshopping 2024 –  wachsende Besorgnis über KI-gestützte Betrugsmethoden
McAfee-Studie: Weihnachtsshopping 2024 – wachsende Besorgnis über KI-gestützte Betrugsmethoden
… Jeder vierte Deutsche plant 2024 mehr online zu shoppen als im letzten Jahr.71 % der Deutschen glauben, dass Cyberkriminelle die Betrugsaktivitäten zur Weihnachtszeit verstärken.Deepfakes auf dem Vormarsch: 77 % der Deutschen sind in diesem Jahr wegen der Zunahme von KI-gestützten Deepfakes besorgter über Betrug zum Weihnachtsfest.Jeder sechste Deutsche …
Bild: Neues Workbook: „Wie erkenne ich Deepfakes und schütze mich vor Manipulationen?“ – Praktische Hilfe für KMUBild: Neues Workbook: „Wie erkenne ich Deepfakes und schütze mich vor Manipulationen?“ – Praktische Hilfe für KMU
Neues Workbook: „Wie erkenne ich Deepfakes und schütze mich vor Manipulationen?“ – Praktische Hilfe für KMU
Ein Leitfaden für den UnternehmensalltagDas praxisnahe Workbook deckt alle wichtigen Aspekte im Umgang mit Deepfakes ab – von der Sensibilisierung der Mitarbeiter bis zur Implementierung technischer Schutzmaßnahmen. Es ist speziell auf die Bedürfnisse von KMU zugeschnitten, die oft wenig Zeit und Budget für umfangreiche Sicherheitsmaßnahmen haben.Deepfakes, …
Bild: Deepfake Forschung gefördert vom Bundesministerium für Bildung und Forschung (BMBF) Bild: Deepfake Forschung gefördert vom Bundesministerium für Bildung und Forschung (BMBF)
Deepfake Forschung gefördert vom Bundesministerium für Bildung und Forschung (BMBF)
… Biometrie-Unternehmen BioID gab heute seine Beteiligung an FAKE-ID bekannt, einem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt zur Erkennung von Deepfakes. Die Arbeit an digitalen Fälschungen wird zur Förderrichtlinie des BMBF „Künstliche Intelligenz in der Sicherheitsforschung“ und im Rahmen des Rahmenprogramms der Bundesregierung …
Bild: Deepfakes – Die KI-beförderte Bedrohung für die UnternehmenssicherheitBild: Deepfakes – Die KI-beförderte Bedrohung für die Unternehmenssicherheit
Deepfakes – Die KI-beförderte Bedrohung für die Unternehmenssicherheit
UIMC: Deepfake-Angriffe abwehren – Strategien für sichere Unternehmen entwickelnDeepfakes, täuschend echt wirkende Manipulationen von Videos und Audios mittels künstlicher Intelligenz, stellen eine wachsende Gefahr für die Gesellschaft, aber auch für Unternehmen dar. Immer häufiger nutzen Cyberkriminelle diese Technologie, um gezielt Führungskräfte nachzuahmen, …
Bild: NTT Security: Erfolgreiche Voice-Deepfake-Attacke war erst der AnfangBild: NTT Security: Erfolgreiche Voice-Deepfake-Attacke war erst der Anfang
NTT Security: Erfolgreiche Voice-Deepfake-Attacke war erst der Anfang
ISMANING, Deutschland, 6. September 2019 – Bereits vor gut einem Jahr hat NTT Security, das „Security Center of Excellence“ der NTT, vor Deepfakes gewarnt. Jetzt ist aus der bloßen Gefahr bittere Realität geworden: Mit einem Voice-Deepfake konnten Diebe mehr als 240.000 US-Dollar erbeuten. Bereits seit Längerem sind Foto- und Video-Deepfakes im Umlauf, …
Sie lesen gerade: Deepfakes durch die KI - Wie gehen wir mit unverlässlichen Quellen um?