itsreal.media kombiniert klassische Bildforensik, Vision-Transformer-Modelle, C2PA-Provenance-Verifizierung, Metadatenanalyse und semantisches Reasoning in einer einzigen fusionierten Decision Pipeline.
Kein einzelnes Signal bestimmt das Verdict. Ein trainiertes Meta-Modell lernt, jede Schicht basierend auf realer Performance zu gewichten, und aktualisiert sich, wenn generative Modelle sich weiterentwickeln.
Explainability: Jedes Signal wird einzeln bewertet und ist über die API für nachgelagerte Analysen verfügbar.
Über die gesamte Testsuite unter kontrollierten Bedingungen
Reale Bedingungen: komprimierte, skalierte, erneut hochgeladene Bilder
SPRIND Challenge Evaluation, November 2025
Gewinner der Deepfake Detection Challenge. Bundesagentur für Sprunginnovation
Performance hängt von Bildquelle, Plattformtransformationen und Entscheidungsschwellenwerten ab.
Jedes Bild durchläuft alle Detection-Schichten gleichzeitig. Die Ergebnisse werden durch ein Meta-Modell fusioniert, das Signalübergreifende Korrelationen lernt.
Mehrere spezialisierte Vision-Transformer-Modelle, fusioniert in ein Meta-Modell zur Erkennung KI-generierter und KI-bearbeiteter Bilder.
Dutzende Low-Level-forensische Signale: spektrale, räumliche, statistische und Kompressionsanalyse.
Objektkohärenz, Beleuchtungskonsistenz, anatomische Plausibilität und visuelles Reasoning.
EXIF-Integrität, Encoding-Artefakte, Software-Fingerprints und C2PA Content Credentials-Verifizierung.
Multi-Modell-Ensemble mit höchster Genauigkeit. Wir fusionieren mehrere spezialisierte Detection-Modelle und Dutzende forensischer Signale in ein Meta-Modell. State-of-the-Art-Detection, validiert durch unabhängige Benchmarks.
Erkennt vollständig KI-generierte und KI-bearbeitete Bilder mit höchster Genauigkeit. Wir fusionieren mehrere spezialisierte Detection-Modelle und Dutzende forensischer Signale in ein Meta-Modell. Ein mehrschichtiges Ensemble, validiert als leistungsstärkstes System in der SPRIND Deepfake Detection Challenge.
Bundesagentur für Sprunginnovation, unabhängige Evaluation unter Realbedingungen.
Erkennt KI-modifizierte Bereiche in ansonsten authentischen Bildern: Inpainting, Outpainting, Objektentfernung, Face Swaps und Generative Fill. Gibt eine pixelgenaue Heatmap mit Manipulationswahrscheinlichkeit pro Region aus.
Zentraler Bereich zeigt hohe Manipulationswahrscheinlichkeit. Konsistent mit generativem Inpainting.
Wir verifizieren in Bildern eingebettete Content Credentials über den C2PA-Standard (Coalition for Content Provenance and Authenticity). Unser System validiert die vollständige Credential Chain
C2PA Credentials sind kryptografisch signierte Manifeste, die mit dem Bild mitreisen und jeden Bearbeitungs- und Exportschritt protokollieren. Wenn vorhanden, liefern sie das stärkste mögliche Provenance-Signal.
Validiert die vollständige Vertrauenskette vom Ursprung bis zum aktuellen Zustand
Verifiziert das Signaturzertifikat und die ausstellende Organisation
Liest deklarierte Bearbeitungsaktionen aus dem Manifest aus
Erkennt, ob Credentials die Plattform-Neucodierung überstanden haben
Untersucht die technischen Metadaten jeder Bilddatei auf Anzeichen synthetischer Herkunft oder nachträglicher Manipulation.
Nutzt visuelles Reasoning, um logische Inkonsistenzen zu erkennen, die KI-generierten oder manipulierten Content verraten.
Durchsucht das Web und interne Datenbanken, um ein Bild zu seiner Originalquelle zurückzuverfolgen und koordinierte Wiederverwendung zu erkennen.
Keine einzelne Detection-Schicht ist allein zuverlässig genug. Jedes Signal hat blinde Flecken: Frequenzanalyse übersieht bestimmte Diffusion Models, Metadaten können entfernt werden, semantische Prüfungen hängen von der Szenenkomplexität ab.
Unser Meta-Modell ist ein trainierter Klassifikator, der die Rohausgaben jeder Detection-Schicht als Input-Features verwendet. Es lernt die Signalübergreifenden Korrelationen, kompensiert individuelle Schwächen und liefert einen einzigen kalibrierten Confidence Score.
Die Fusionsgewichte werden kontinuierlich neu trainiert, wenn neue generative Modelle erscheinen. Wenn ein neuer Generator die Signallandschaft verändert, passt sich das Meta-Modell an, ohne dass Änderungen an einzelnen Detection-Schichten erforderlich sind.
API-first. Modular.
Einfache HTTPS-Endpoints. Laden Sie ein Bild hoch, erhalten Sie eine strukturierte JSON-Response mit Verdict, Confidence und Signal-Aufschlüsselung pro Schicht. Integration in Minuten.
Deployen Sie unsere Detection Engine als Docker Container in Ihrer eigenen Infrastruktur. Volle Kontrolle über Datenresidenz, Latenz und Skalierung. Air-Gapped-Netzwerke unterstützt.
Vollständiges On-Premise-Deployment mit dediziertem Support, individuellem Modelltraining und SLA-Garantien. Konzipiert für Organisationen mit strengen Compliance-Anforderungen.
Fordern Sie API-Zugang oder eine Live-Demo an. Wir führen Sie durch die Pipeline mit Ihren eigenen Bildern.