Was ist Datenherkunft?
Ein Sicherheitsvorfall trifft Ihre Cloud-Infrastruktur um 1:47 Uhr. Ihr Incident-Response-Team versucht, drei Fragen zu beantworten: Woher stammen diese Daten? Wer hat darauf zugegriffen? Wie haben sie sich zwischen Aufnahme und Exfiltration verändert? Ohne klare Antworten, die aus detaillierten Herkunftsdaten und Prüfpfaden abgeleitet werden, stockt Ihre forensische Untersuchung, Ihre Compliance-Position wird geschwächt und Ihrem Rechtsteam fehlen zulässige Beweise.
Datenherkunft löst dieses Problem. Laut dem NIST Computer Security Resource Center umfasst Datenherkunft „die Methode der Erzeugung, Übertragung und Speicherung von Informationen, die verwendet werden kann, um den Ursprung eines Informationsstücks“ nachzuverfolgen, das von Systemen und Workflows verarbeitet wird. Sie verfolgt jedes Datenstück vom Moment der Erstellung über jede Transformation, jeden Zugriff und jeden Speicherort während des gesamten Lebenszyklus.
Datenherkunft ist der forensische Fingerabdruck Ihrer Daten. Sie zeigt, woher Daten stammen, wer sie bearbeitet hat und was mit ihnen in jedem Schritt passiert ist.
.jpg)
Wie Datenherkunft mit Cybersicherheit zusammenhängt
Datenherkunft verbindet forensische Integrität, Threat Hunting und regulatorische Compliance. Die CISA Incident Response Playbooks (August 2024) integrieren Herkunftsnachverfolgung in alle Phasen der NIST SP 800-61 Incident Response, insbesondere in der Analysephase, in der das Verständnis des Datenursprungs für eine effektive Behebung entscheidend ist.
Peer-Review-Forschung, veröffentlicht in ACM Computing Surveys, bestätigt den operativen Wert dieser Systeme und stellt fest, dass herkunftsbasierte Intrusionserkennung als vielversprechender Ansatz zur Reduzierung von Fehlalarmen, Identifizierung echter Angriffe und zur Unterstützung von Untersuchungen durch kausale Verknüpfung von Systemaktivitäten in Herkunftsgraphen gilt.
Reale Vorfälle zeigen, warum Herkunft wichtig ist. Der Angriff auf MGM Resorts 2023 verursachte Verluste von über 100 Millionen US-Dollar, als Angreifer Social Engineering nutzten, um ersten Zugriff zu erlangen. Organisationen mit starker Herkunftsnachverfolgung können solche Angriffstimeline in Stunden statt Wochen rekonstruieren und genau bestimmen, welche Zugangsdaten kompromittiert wurden und auf welche Systeme zugegriffen wurde.
Wenn Sie einen Lateral-Movement-Vorfall untersuchen, ermöglicht Herkunftsdaten die vollständige Rekonstruktion der Angriffskette. Sie dokumentiert, welche Zugangsdaten verwendet, welche Systeme in welcher Reihenfolge angesprochen wurden. Diese Dokumentation verwandelt verstreute Sicherheitsalarme in kohärente Angriffsnarrative, auf die Ihr Incident-Response-Team sofort reagieren kann.
Das Verständnis der verschiedenen Arten von Herkunft hilft Ihnen zu bestimmen, was erfasst werden muss und wie Sie es in Ihren Sicherheitsoperationen anwenden.
Arten von Datenherkunft
Datenherkunft lässt sich in zwei Hauptkategorien einteilen, die jeweils einen eigenen Zweck in Sicherheitsoperationen erfüllen.
- Prospektive Herkunft erfasst die Spezifikation dessen, was geschehen soll. Sie definiert erwartete Workflows, genehmigte Datenpfade und zugelassene Verarbeitungsschritte vor der Ausführung. In der Cybersicherheit legt prospektive Herkunft Ihre Sicherheitsbasis fest. Sie dokumentiert genehmigte Software-Build-Pipelines, autorisierte Datenflüsse zwischen Systemen und erwartete Zugriffsmuster. Wenn eine Software-Supply-Chain-Richtlinie vorschreibt, dass Produktivcode vor der Bereitstellung drei verifizierte Build-Stufen durchlaufen muss, ist diese Spezifikation prospektive Herkunft.
- Retrospektive Herkunft erfasst, was tatsächlich passiert ist. Sie zeichnet die detaillierte Ausführungshistorie jedes Prozesses, jeder Transformation und jedes Zugriffsvorgangs nachträglich auf. Dies ist die für forensische Untersuchungen relevanteste Art. Retrospektive Herkunft zeigt Ihrem SOC-Team genau, welche Prozesse ausgeführt, welche Dateien geändert und welche Zugangsdaten während eines Vorfalls verwendet wurden. Wenn die Storyline-Technologie von SentinelOne eine Angriffstimeline von der Prozesserstellung bis zur lateralen Bewegung rekonstruiert, wird retrospektive Herkunft aufgebaut.
Der Sicherheitswert entsteht durch den Vergleich beider Arten. Wenn retrospektive Herkunft von prospektiver Herkunft abweicht, liegt eine Anomalie vor, die untersucht werden sollte. Eine Build-Pipeline, die plötzlich einen nicht autorisierten Schritt enthält, ein Datenfluss, der über einen unerwarteten Server läuft, oder ein Benutzerkonto, das Ressourcen außerhalb seines genehmigten Musters anspricht, stellen Lücken zwischen Soll- und Ist-Zustand dar.
Datenbankforschung unterscheidet Herkunft auch nach den beantworteten Fragen:
- Why-Provenance identifiziert, welche Eingaben zu einem bestimmten Ergebnis beigetragen haben. In Sicherheitsoperationen: Warum wurde dieser Alarm ausgelöst?
- How-Provenance dokumentiert die angewandten Transformationen. In Sicherheitsoperationen: Wie wurde diese Datei verändert?
- Where-Provenance verfolgt, aus welchen Quellorten ein bestimmter Datenwert stammt. In Sicherheitsoperationen: Woher stammt dieses Zugangsdaten?
Diese Kategorien entsprechen direkt den Fragen, die Ihr SOC-Team bei jeder Untersuchung stellt, und bestimmen, was Ihr Herkunftssystem erfassen muss.
Datenherkunft vs. Datenherkunftslinie
Datenherkunft und Datenherkunftslinie überschneiden sich, erfüllen aber unterschiedliche operative Zwecke. Eine Gleichsetzung beider führt zu Lücken sowohl in Ihrer forensischen Fähigkeit als auch in Ihrer Compliance-Position.
- Datenherkunftslinie bildet den Fluss von Daten von der Quelle zum Ziel ab. Sie beantwortet „Wie sind diese Daten hierher gelangt?“ durch Nachverfolgung von Transformationspfaden, Verarbeitungsschritten und System-zu-System-Bewegungen. Die Herkunftslinie zeigt, dass ein Kunden-Datensatz von einer CRM-Datenbank über eine ETL-Pipeline in ein Data Warehouse gelangt ist, wo er in einen Quartalsbericht aggregiert wurde. Im Sicherheitskontext hilft die Herkunftslinie zu verstehen, wie sich ein Angriff in Ihrer Umgebung ausgebreitet hat.
- Datenherkunft ergänzt die forensische Ebene, die der Herkunftslinie fehlt. Sie beantwortet „Wer hat diese Daten wann und mit welcher Berechtigung berührt?“ Herkunft zeichnet die verantwortlichen Akteure, Zeitstempel jeder Interaktion und die Verwahrungskette vom Ursprung bis zum aktuellen Zustand auf. Während einer Untersuchung zeigt Herkunft, dass ein bestimmtes Servicekonto diesen Kundendatensatz um 2:14 Uhr aufgerufen, drei Felder geändert und das Ergebnis an eine externe IP-Adresse übertragen hat – alles verknüpft mit einer einzigen Identität und vollständigen Audit-Metadaten.
Sicherheitsteams benötigen beides. Die Herkunftslinie rekonstruiert den Angriffsweg. Herkunft bildet die Verwahrungskette, die bei regulatorischen Audits und rechtlichen Verfahren Bestand hat. Der W3C PROV-Standard kodiert beide Dimensionen durch sein Entity-Activity-Agent-Modell, wobei Entities den Datenzustand, Activities die Transformationen (Herkunftslinie) und Agents die Verantwortlichkeit (Herkunft) erfassen.
Die Betrachtung, wie Herkunft und Herkunftslinie in der Praxis in verschiedenen Branchen funktionieren, macht diese Unterschiede greifbar.
Beispiele für Datenherkunft
Datenherkunft findet branchenübergreifend Anwendung, wo immer Datenintegrität, forensische Nachvollziehbarkeit oder regulatorische Compliance erforderlich sind.
- Software-Supply-Chain-Sicherheit. Während des SolarWinds-Angriffs 2020 injizierten Angreifer bösartigen Code in eine legitime Software-Build-Pipeline. Organisationen mit Software-Herkunftsnachverfolgung, einschließlich Software Bills of Materials (SBOMs) und signierten Build-Attestierungen, konnten überprüfen, ob ihre bereitgestellten Versionen der erwarteten Build-Kette entsprachen. Ohne Herkunftsdaten dauerte es Monate, um festzustellen, welche Builds kompromittiert waren. Das NIST Secure Software Development Framework schreibt nun Herkunftskontrollen für Software-Artefakte vor.
- Healthcare-Daten-Compliance. Krankenhäuser und klinische Forschungsorganisationen verfolgen die Herkunft von Patientendaten, um die HIPAA-Audit-Kontrollen gemäß §164.312(b) einzuhalten. Jeder Zugriff, jede Änderung und jede Übertragung von geschützten Gesundheitsinformationen erfordert eine dokumentierte Verwahrungskette. Bei einem Datenvorfall ermöglichen Herkunftsaufzeichnungen Compliance-Teams, genau zu bestimmen, welche Patientendaten von wem eingesehen wurden.
- Cloud-Vorfalluntersuchung. In flüchtigen Cloud-Umgebungen werden Container innerhalb von Minuten gestartet und beendet. Herkunftsnachverfolgung auf Orchestrierungsebene erfasst, was jeder Container vor seiner Beendigung getan hat, einschließlich auf welche Daten zugegriffen, welche APIs aufgerufen und welche Netzwerkverbindungen hergestellt wurden. Ohne diese Herkunft gehen forensische Beweise mit der Workload verloren.
- Integrität von KI-Trainingsdaten. Während Organisationen Machine-Learning-Modelle für Sicherheitsoperationen einsetzen, überprüft Herkunftsnachverfolgung, dass Trainingsdatensätze nicht manipuliert wurden. Eine gemeinsame Empfehlung von CISA, NSA und FBI aus dem Jahr 2025 identifiziert Datenherkunft als zentrale Kontrolle zum Schutz von KI-Systemen vor Data-Poisoning-Angriffen.
Diese Beispiele zeigen Herkunft auf unterschiedlichen Granularitätsebenen, von einzelnen Datei-Zugriffsereignissen bis zur unternehmensweiten Supply-Chain-Verifikation. Die zugrunde liegenden Komponenten bleiben in allen Fällen konsistent.
Kernkomponenten der Datenherkunft
Jedes Datenherkunftssystem basiert auf einem strukturierten Rahmenwerk miteinander verbundener Komponenten. Der W3C PROV-Standard definiert drei Kernelemente:
- Entities: Die Datenobjekte, die Sie verfolgen, einschließlich Dateien, Datenbankeinträgen, Logeinträgen, Netzwerkpaketen und digitalen Beweisartefakten. Der W3C PROV-Standard definiert Entities als „physische, digitale, konzeptionelle oder andere Dinge mit festen Aspekten“.
- Activities: Die Prozesse, Aktionen und Workflows, die Entities erzeugen oder transformieren, wie Verschlüsselungsvorgänge, Dateiübertragungen, API-Aufrufe und Benutzerzugriffsereignisse. Der W3C-Standard definiert Activities als „dynamische Aspekte wie Prozesse, Aktionen und Workflows“.
- Agents: Die Personen, Organisationen oder Software, die für Activities verantwortlich sind, einschließlich Benutzerkonten, Service-Principals, autonome Prozesse und Drittanbieter-Integrationen. Laut W3C PROV sind Agents „Entities, die Verantwortung für Activities oder die Existenz von Entities tragen“.
Diese drei Elemente sind durch Beziehungstypen wie wasGeneratedBy, wasAttributedTo und wasDerivedFrom verbunden und bilden Herkunftsgraphen, die kausale Zusammenhänge in Ihrer Umgebung abbilden.
Operative Herkunftssysteme erfassen zudem spezifische Metadaten, die von NIST SP 800-171 Audit-Kontrollen gefordert werden: Zeitstempel, Quell- und Zieladressen, Benutzer- oder Prozesskennungen, Ereignisbeschreibungen, Erfolgs- oder Fehlerindikatoren, betroffene Dateinamen und angewendete Zugriffskontrollregeln.
Graphdatenbanken bilden die Speicherbasis und ermöglichen die Beziehungstraversierung, die Herkunftsabfragen erfordern. Ereignisformat-Standards wie das Common Event Format (CEF) und das Open Cybersecurity Schema Framework (OCSF) normalisieren Herkunftsdaten über verschiedene Sicherheitstools hinweg und ermöglichen eine einheitliche Analyse über Endpunkte, Netzwerke und Cloud-Plattformen.
Mit diesen Bausteinen stellt sich die Frage, wie sie in einer Live-Sicherheitsumgebung zusammenwirken.
Wie Datenherkunft funktioniert
Im Betrieb durchlaufen Herkunftssysteme fünf Phasen: von der Rohdatenerfassung bis zum nutzbaren Untersuchungskontext.
- Schritt 1: Ereigniserfassung und -sammlung. Herkunftssysteme erfassen Roh-Telemetrie von Endpunkten, Netzwerkgeräten, Cloud-Audit-Logs, Identitätsanbietern und Anwendungsebenen. Jedes Ereignis wird am Erfassungspunkt mit Metadaten versehen: Zeitstempel, Quellkennungen und Prozesskontext.
- Schritt 2: Normalisierung und Schema-Mapping. Rohereignisse kommen in unterschiedlichen Formaten aus Dutzenden Quellen. Die Singularity Platform von SentinelOne nutzt OCSF-Normalisierung nativ, löst Datensilos auf und ermöglicht Quellübergreifende Korrelation ohne manuelle Transformation.
- Schritt 3: Graphaufbau und Korrelation. Normalisierte Ereignisse werden mittels kausaler Beziehungen zu Herkunftsgraphen verknüpft. Prozesserstellungsereignisse verbinden sich mit Dateimodifikationen, Netzwerkverbindungen mit Zugangsdatenverwendung und Identitätsaktionen mit Ressourcen-Zugriffen. Diese Graphstruktur verwandelt isolierte Logeinträge in zusammenhängende Angriffsketten.
- Schritt 4: Verhaltensanalyse und Anomalieerkennung. Herkunftsgraphen ermöglichen Verhaltensanalysen im Einklang mit dem MITRE ATT&CK-Framework. Durch die Zuordnung von Herkunfts-Entities zu ATT&CK-Techniken identifizieren Ihre Sicherheitstools verdächtige Muster: ein Servicekonto, das auf unbekannte Dateien zugreift, ein Prozess, der anomale Kindprozesse startet, oder Zugangsdatenverwendung, die auf Lateral Movement hindeutet.
- Schritt 5: Untersuchung und Reaktion. Bei der Untersuchung eines Alarms liefert Herkunftsdaten den vollständigen Kontext. Anstatt Logs manuell plattformübergreifend zu korrelieren, befragen Sie einen einheitlichen Herkunftsgraphen, der die komplette Angriffstimeline vom Erstzugriff bis zu jeder weiteren Aktion rekonstruiert.
Dieser operative Zyklus bringt messbare Vorteile für Sicherheitsoperationen, von schnelleren Untersuchungen bis zu einer stärkeren Compliance-Position.
Zentrale Vorteile der Datenherkunft
Bei effektiver Implementierung bietet Datenherkunft operative Vorteile in Bezug auf Untersuchungsgeschwindigkeit, Beweisintegrität, Compliance, Bedrohungserkennung und Cloud-Forensik.
Beschleunigte Vorfalluntersuchung
Herkunftsgraphen eliminieren die manuelle Log-Korrelation, die den Großteil der Analystenzeit während Untersuchungen beansprucht. Anstatt zwischen getrennten Sicherheitsplattformen zu wechseln, befragt Ihr Team eine einheitliche Timeline, die genau zeigt, wie ein Angriff ablief. Die Storyline-Technologie von SentinelOne demonstriert dies, indem sie disparate Sicherheitsereignisse autonom zu vollständigen Angriffsnarrativen zusammenfügt – ohne manuelles Eingreifen.
Forensische Beweisintegrität
Herkunftsbasierte Ansätze stärken die Glaubwürdigkeit von digitalen forensischen Beweisen während der Incident Response. Eine umfassende Übersicht in ACM Computing Surveys bestätigt, dass Herkunftsdokumentation der Beweisbehandlung und -transformation direkt die Anforderungen von ISO/IEC 27037 für Identifikation, Sammlung, Erfassung und Bewahrung digitaler Beweise unterstützt.
Automatisierte regulatorische Compliance
DSGVO Artikel 30 verlangt von Verantwortlichen, detaillierte Aufzeichnungen über Verarbeitungstätigkeiten zu führen, einschließlich Zwecke, Kategorien betroffener Personen, Empfänger und internationale Übermittlungen. Datenherkunftssysteme generieren diese Aufzeichnungen automatisch und machen aus einer manuellen Compliance-Bürde ein Nebenprodukt normaler Sicherheitsoperationen.
Erkennung fortgeschrittener Bedrohungen
Herkunftsbasierte Intrusionserkennungssysteme entdecken Angriffe, die signaturbasierte Tools übersehen, indem sie kausale Zusammenhänge zwischen Ereignissen analysieren. Herkunftsgraphen decken mehrstufige APT-Kampagnen, maschinenübergreifende Lateral Movement und Umgehungstechniken auf, die isoliert betrachtet harmlos erscheinen.
Cloud-Forensik in flüchtigen Umgebungen
Eine Peer-Review-Übersicht in Computer Science Review ergab, dass Datenherkunft hilft, flüchtige Daten zu erfassen, bevor sie in Cloud-Umgebungen verschwinden. Diese Fähigkeit ist entscheidend für die Untersuchung von Vorfällen, bei denen herkömmliche Beweissicherungsverfahren aufgrund dynamischer Ressourcenallokation versagen.
Diese Vorteile gehen mit realen Implementierungsherausforderungen einher, auf die Ihr Team vorbereitet sein sollte.
Herausforderungen und Einschränkungen der Datenherkunft
Herkunftsnachverfolgung bringt eigene Betriebskosten und Komplexität mit sich. Die folgenden Herausforderungen betreffen die meisten Organisationen, die Herkunft im großen Maßstab einführen.
Speicherwachstum und Performance-Einfluss
Herkunftsdaten wachsen schnell. Jedes Sicherheitsereignis, jeder Dateizugriff und jede Prozessausführung fügt Ihrem Herkunftsgraphen Knoten und Kanten hinzu. Laut Forschung, veröffentlicht in Computers & Security, steigen Speicher- und Verarbeitungsanforderungen von Herkunftsgraphen mit zunehmender Ereigniserfassungsfrequenz erheblich, und Laufzeit-Overhead bleibt eine zentrale Herausforderung für den Praxiseinsatz.
Fragmentierung über Plattformen hinweg
Jeder Cloud-Anbieter unterhält eigene Audit-Mechanismen mit unterschiedlichen Formaten, Zeitstempel-Darstellungen und Aufbewahrungsmodellen. GCP verwendet zwei separate Log-Streams pro Projekt. AWS nutzt CloudTrail mit eigener Ereignisstruktur. Standards wie OCSF entstehen, um Datenschemata plattformübergreifend zu normalisieren und eine einheitliche Herkunftsnachverfolgung aus mehreren Quellen zu ermöglichen.
Blind Spots bei flüchtigen Workloads
Traditionelle Herkunftstools konzentrieren sich auf persistente Infrastruktur und haben Schwierigkeiten mit serverlosen Funktionen, automatisch skalierenden Containern und rein speicherresidenten Prozessen. Flüchtige Daten können in Cloud-Umgebungen vor der Erfassung überschrieben werden, was forensische Lücken genau dort schafft, wo moderne Angriffe stattfinden.
Komplexität der Identitätskorrelation
Angreifer, die zwischen AWS, Azure, GCP und On-Premises-Systemen wechseln, nutzen Identitätsfragmentierung, um Herkunftsketten zu unterbrechen. Jede Plattform unterhält eigene Identitätsspeicher, und die Korrelation der Aktionen eines einzelnen Akteurs über diese Umgebungen hinweg erfordert eine einheitliche Identitätszuordnung, bevor Herkunftsnachverfolgung plattformübergreifende Angriffsketten rekonstruieren kann.
Das Wissen um diese Herausforderungen hilft, Fehler zu vermeiden, die Herkunftsprogramme entgleisen lassen, und von Anfang an die richtigen Maßnahmen zu ergreifen.
Best Practices für Datenherkunft
Operative Reife bei Datenherkunft erfordert sowohl das Wissen, was zu tun ist, als auch das Vermeiden von Stolpersteinen.
- Beginnen Sie mit einer Gap-Analyse gegenüber NIST SP 800-171 Audit-Kontrollen. Vergleichen Sie Ihre aktuelle Log-Abdeckung mit den Anforderungen von NIST SP 800-171 an Zeitstempel, Benutzerkennungen, Quell- und Zieladressen, Ereignisbeschreibungen und Zugriffskontrollregeln. Identifizieren Sie, wo Herkunftsmetadaten fehlen.
- Frühzeitig auf ein einheitliches Schema normalisieren, vorzugsweise OCSF. Das Open Cybersecurity Schema Framework hat sich als Industriestandard für plattformübergreifende Herkunftsnormalisierung etabliert. Die Normalisierung aller Herkunftsdaten bei der Erfassung beseitigt Korrelationprobleme über Endpunkte, Netzwerke und Cloud-Infrastruktur hinweg.
- Risiko-basiertes Erfassen mit gestufter Aufbewahrung implementieren. Überwachen Sie alles auf besonders schützenswerten Assets wie Domänencontrollern und Finanzdatenbanken und nutzen Sie Sampling für Standardarbeitsplätze. Verwenden Sie Hot Storage für aktuelle Daten, die Analysten während aktiver Untersuchungen abfragen, und Cold Tiers für Compliance-Aufbewahrung.
- Provenance-Entities auf MITRE ATT&CK-Techniken abbilden. Ordnen Sie Ihre Herkunftsgraph-Knoten und -Kanten den ATT&CK-Taktiken zu, damit Ihre SOC-Analysten Herkunftsdaten mit demselben Framework abfragen können, das sie für Threat Hunting und Detection Engineering nutzen.
- Forensische Bereitschaft vor Vorfällen etablieren. Das ISACA-Framework zur forensischen Bereitschaft betont die proaktive Definition von Beweissicherungsverfahren und die Spezifikation erforderlicher Herkunftsmetadaten. Integrieren Sie Herkunftsdatenvalidierung in jede Tabletop-Übung und Purple-Team-Engagement.
- Identitäten föderieren und Herkunftsintegrität schützen. Stellen Sie sicher, dass ein einzelner Akteur eindeutig über AWS, Azure, GCP und On-Premises-Systeme hinweg korreliert werden kann. Verwenden Sie kryptografisches Hashing, Write-Once-Speicher und strikte Zugriffskontrollen, um sicherzustellen, dass Herkunftsaufzeichnungen nach der Erstellung nicht manipuliert werden können – zum Schutz der forensischen Genauigkeit und rechtlichen Zulässigkeit gemäß ISO/IEC 27037:2012.
- Flüchtige Workloads berücksichtigen. Serverlose Funktionen und automatisch skalierende Container erfordern Herkunftserfassung auf Orchestrierungsebene. Konfigurieren Sie Datenereignisprotokollierung für alle serverlosen Funktionen und Objektspeicher, um Abdeckung in dynamischen Umgebungen sicherzustellen.
Mit diesen etablierten Praktiken kann die richtige Plattform Herkunft im großen Maßstab operationalisieren.
Datenherkunft mit SentinelOne stärken
KI-Sicherheit beginnt mit Daten – nicht, weil Daten im Überfluss vorhanden sind, sondern weil Fehler in dieser Phase irreversibel sind. Mit integrierten DSPM-Funktionen ermöglicht Singularity™ Cloud Native Security es Organisationen, ein „Safe-to-Train“-Gate einzurichten, bevor Cloud-Daten überhaupt eine KI-Pipeline erreichen. CNS bietet tiefe Einblicke in cloud-native Datenbanken und Objektspeicher, hilft Teams, unverwaltete oder vergessene Datenquellen zu entdecken, sensible Informationen richtlinienbasiert zu klassifizieren und zu verhindern, dass risikoreiche Daten für Trainings- oder Inferenz-Workflows verwendet werden. Das DSPM von SentinelOne stellt klare Datenherkunftslinien und Governance sicher, sodass Organisationen genau nachverfolgen können, wie sensible Daten sich bewegen, transformieren und in ihren KI-Pipelines und Cloud-Umgebungen genutzt werden.
Die Singularity Platform von SentinelOne liefert Datenherkunft durch integrierte Funktionen, die für Sicherheitsoperationen entwickelt wurden.
Storyline-Technologie ermöglicht autonome Rekonstruktion von Angriffstimelines, indem sie kontinuierlich Prozesserstellungsereignisse, Netzwerkverbindungen, Dateimodifikationen und Zugangsdatenverwendung zu kohärenten Herkunftsketten zusammenfügt. In den MITRE ATT&CK-Evaluierungen 2024 erreichte SentinelOne 100 % Erkennung ohne Verzögerungen und 88 % weniger Alarme als der Median aller bewerteten Anbieter.
Purple AI aggregiert und korreliert Herkunftsinformationen aus Endpunkt-, Cloud-, Netzwerk- und Benutzerdaten. Sicherheitsanalysten befragen Herkunftsdaten in natürlicher Sprache statt komplexer proprietärer Schemata, und die Plattform empfiehlt Reaktionsmaßnahmen, die Ihr Team sofort umsetzen kann.
Der Singularity Data Lake bietet die Speicherbasis, die Herkunft erfordert. Alle Daten bleiben für nahezu Echtzeit-Analysen im Hot Storage, OCSF-Normalisierung löst Datensilos autonom auf, und flexible Aufbewahrungsoptionen bis zu 365+ Tagen stellen sicher, dass forensische Beweise während längerer Untersuchungen verfügbar bleiben. Singularity RemoteOps Forensics löst autonome forensische Beweissammlung aus, sobald eine Bedrohung erkannt wird; die gesammelten Beweise werden direkt in den Data Lake eingelesen und stehen sofort zur Analyse bereit.
Fordern Sie eine Demo bei SentinelOne an, um zu evaluieren, wie herkunftsgetriebene Sicherheitsoperationen Ihre Untersuchungs-Workflows stärken können.
Singularity™ AI SIEM
Mit dem weltweit fortschrittlichsten KI-SIEM von SentinelOne können Sie Bedrohungen in Echtzeit erkennen und die täglichen Abläufe optimieren.
Demo anfordernWichtige Erkenntnisse
Datenherkunft verfolgt Daten vom Ursprung über jede Transformation und bildet das forensische Fundament für Vorfalluntersuchung, Compliance und Bedrohungserkennung. Zwei Haupttypen, prospektiv und retrospektiv, werden kombiniert, um durch den Vergleich von Soll- und Ist-Verhalten Anomalien aufzudecken.
Die Singularity Platform von SentinelOne operationalisiert Herkunft durch Storyline-Angriffsrekonstruktion, Purple AI-Untersuchungen in natürlicher Sprache, OCSF-normalisierten Data Lake Storage und autonome Beweissammlung via RemoteOps Forensics.
FAQs
Datenherkunft ist die dokumentierte Aufzeichnung über den Ursprung, die Bewegung und die Veränderung von Daten während ihres gesamten Lebenszyklus. Sie verfolgt, woher Daten stammen, wer darauf zugegriffen oder sie verändert hat und was mit ihnen in jedem Schritt passiert ist.
In der Cybersicherheit liefert die Datenherkunft die forensische Beweiskette, die benötigt wird, um Angriffszeitlinien zu rekonstruieren, regulatorische Compliance zu unterstützen und die Integrität von Beweismitteln für rechtliche Verfahren und Vorfalluntersuchungen zu wahren.
Audit-Logs erfassen einzelne Ereignisse isoliert. Data Provenance verknüpft diese Ereignisse zu Kausalitätsketten, die zeigen, wie Daten bewegt wurden, wer sie bearbeitet hat und was bei jedem Schritt verändert wurde.
Ein Log zeigt, dass eine Datei um 2:14 Uhr geöffnet wurde. Data Provenance zeigt, dass diese Datei von einem bestimmten Prozess erstellt, von einem Servicekonto geändert, auf einen Staging-Server verschoben und über einen API-Aufruf exfiltriert wurde – alles verbunden in einem einzigen abfragbaren Graphen.
Mehrere wichtige Rahmenwerke verlangen Data-Provenance-Funktionen. Die DSGVO Artikel 30 fordert Aufzeichnungen über Verarbeitungstätigkeiten. NIST SP 800-171 Control 3.3.1 verlangt Audit-Logs mit Provenance-Metadaten einschließlich Zeitstempeln, Benutzerkennungen und Ereignisbeschreibungen.
HIPAA-Audit-Kontrollen nach §164.312(b) verlangen die Nachverfolgung des Zugriffs auf geschützte Gesundheitsinformationen. CMMC Level 2 und 3 fordern Audit-Record-Inhalte und Überprüfungen gemäß Provenance-Praktiken.
Ja. Provenance-Graphen verfolgen Benutzeraktivitätsmuster über Systeme, Dateien und Anwendungen hinweg im Zeitverlauf und ermöglichen Verhaltensanalysen gemäß dem MITRE ATT&CK-Framework.
Wenn ein Insider von etablierten Mustern abweicht, etwa durch Zugriff auf Datenbanken außerhalb seines üblichen Bereichs oder das Übertragen von Dateien an nicht autorisierte Ziele, markieren provenance-basierte Analysen die Anomalie mit vollständigem Kontext, der genau zeigt, was sich wann geändert hat.
Der Speicherbedarf steigt mit dem Ereignisvolumen und der Erfassungsgranularität. Risikobasierte Erfassungsstrategien, die vollständige Provenance für besonders schützenswerte Assets und privilegierte Konten fokussieren und Standardoperationen stichprobenartig erfassen, reduzieren den Speicherbedarf erheblich.
Gestufte Aufbewahrung, mit Hot Storage für aktive Untersuchungen und Cold Storage für Compliance, hilft Unternehmen, das Wachstum zu steuern und gleichzeitig die vollständige Rekonstruktion von Angriffsketten für ihre wichtigsten Assets zu gewährleisten.


