Ein Leader im Gartner® Magic Quadrant™ für Endpoint Protection Platforms 2025. Seit fünf Jahren in FolEin Leader im Gartner® Magic Quadrant™Bericht lesen
Agentenlose Cloud-Sicherheitslösungen ermöglichen es Ihnen, Bedrohungen zu erkennen und darauf zu reagieren, ohne Software auf Ihren Geräten installieren zu müssen. Sie bieten nahtlosen Schutz und beispiellose Transparenz für Ihr gesamtes Cloud-Ökosystem. Erfahren Sie mehr.
Autor: SentinelOne | Rezensent: Cameron Sipes
Früher war für die Erkennung von Risiken ein Tool oder ein Agent erforderlich, der in die Umgebung eingeführt werden musste, damit das Sicherheitsteam die lokale Infrastruktur verstehen und umfassend sichern konnte. Mit der zunehmenden Nutzung der Cloud wird die agentenlose Cloud-Sicherheit heute immer realistischer.
In diesem Blog erfahren Sie alles über Agentless Cloud Security. Um Ihnen bei der Auswahl der für Ihr Unternehmen besten Lösung zu helfen, vergleichen wir agentlose Cloud-Sicherheit mit agentenbasierten Cloud-Schwachstellenmanagement-Optionen.
Was ist agentenlose Cloud-Sicherheit?
Agentenlose Sicherheit ist eine Methode zum Schutz von Ressourcen, bei der nicht auf jeder Ressource ein Agent installiert werden muss. Agentenlose Sicherheitslösungen überwachen und scannen Endpunkte häufig von "außen", anstatt direkt auf ihnen Programme auszuführen. Dazu überprüfen sie die im Netzwerk verfügbaren Daten und analysieren die Konfigurationsinformationen, die die Ressourcen steuern. Darüber hinaus sind einige agentenlose Lösungen mit den APIs von Cloud-Anbietern verbunden, um mehr Informationen über Workloads zu erhalten, ohne Agenten neben diesen Workloads einsetzen zu müssen.
Wichtigste Funktionen:
Agentenloses Scannen funktioniert auf allen Plattformen: Bei der Verwendung von agentenloser Cloud-Sicherheit zum Auffinden und Scannen von Assets gibt es keine Anforderungen oder Probleme hinsichtlich der Betriebssystemkompatibilität. Dadurch können Switches, Router und andere verbundene IoT-Geräte gescannt werden, ohne deren Funktionalität zu beeinträchtigen.
Reduziert Verwaltungskosten: Systeme für agentenlose Cloud-Sicherheit lassen sich aufgrund ihrer Portabilität schnell und einfach auf Workloads installieren. Da dies den Verwaltungsaufwand senkt, ist dies für Unternehmen, die Hunderttausende von virtuellen Computern verwalten, von großem Vorteil.
Skalierbarkeit: Agentenlose Cloud-Sicherheit lässt sich problemlos von einem einzelnen Server auf ein großes Rechenzentrum skalieren. Für wichtige Einstellungen werden in der Regel skalierbare, ressourcenschonende Protokolle verwendet, die beim Aufbau von Netzwerkverbindungen mit Cloud-Ressourcen helfen und so eine umfassende agentenlose Cloud-Sicherheit gewährleisten.
Keine negativen Auswirkungen auf die Umgebung: Im Gegensatz zu einer agentenbasierten Strategie erstellen agentenlose Scans bei jedem Scan einen Snapshot der Ressourcen, was bedeutet, dass die Ressourcen nicht verändert werden. Die Umgebung wird durch keine Änderungen am agentenlosen Scanner beeinträchtigt, da die Sicherheitsteams keine Ressourcen warten müssen. Die von agentlosen Deep Scans verwendete Volume-Snapshot-Technik stellt sicher, dass die Leistung Ihres Systems nicht beeinträchtigt wird. Denn anstatt die Rechenkapazität des Cloud-Systems zu nutzen, lesen die Konnektoren lediglich Daten über APIs und führen Scans unabhängig voneinander durch.
Abdeckung des Netzwerkscans: Agentenlose Cloud-Sicherheit schützt nicht nur viele Endpunkte, sondern bietet auch einen vollständigen Einblick in das Cloud-Netzwerk. Dadurch ist es möglich, alle Host-Assets, verbundenen Geräte, laufenden Anwendungen und deren Abhängigkeiten genau auf Schwachstellen zu scannen. Das Ergebnis ist eine kontinuierlich aktualisierte und automatisch aktualisierte Asset-Identifizierung und -Überprüfung ohne blinde Flecken.
Agentenbasierte vs. agentenlose Cloud-Sicherheit
Agentenbasierte Sicherheit nutzt den Pull-Kommunikationsansatz. In agentenbasierten Systemen fungiert der Client als zentraler Server, der bei Bedarf Daten von den Agenten anfordert. Nach einem automatisierten Prozess müssen Agenten in der Regel auf jedem System bereitgestellt werden. Sobald die Agenten eingerichtet sind, kann der zentrale Server Anfragen an sie senden, um Statusaktualisierungen und die Ergebnisse sicherheitsrelevanter Aktivitäten zu erhalten.
Die Push-basierte Kommunikation ist die Grundlage der agentenlosen Cloud-Sicherheit. Die verbundene Software in agentenlosen Systemen sendet regelmäßig Daten an ein Remote-System. Agentenlose Cloud-Sicherheitslösungen eignen sich aufgrund der Anpassungsfähigkeit dieser Konfiguration gut für die grundlegende Sicherheitsüberwachung. Sie können sie so einrichten, dass sie die gesamte Infrastruktur scannen, ohne sie auf jedem Subsystem installieren zu müssen. Um das Scannen und die Veröffentlichung von Patches zu organisieren, muss jedoch ein zentrales System zugänglich sein.
Da mittlerweile sowohl agentenbasierte als auch agentenlose Cloud-Sicherheit zum Einsatz kommen, sind Sie vielleicht unsicher, für welche Sie sich entscheiden sollen. Wenn Sie vollständige Sicherheit wünschen, sollten Sie beide nutzen. Dennoch kann es hilfreich sein, die Vor- und Nachteile zu kennen, um zu entscheiden, wann Sie welche Lösung einsetzen sollten. Zusammenfassend lässt sich sagen, dass agentlose Cloud-Sicherheit eine Reihe von attraktiven Eigenschaften aufweist, darunter:
Schnellere Einrichtung und Bereitstellung: Sicherheitsscans können ohne direkten Zugriff auf jeden Host durchgeführt werden.
Geringere Wartungskosten.
Höhere Skalierbarkeit und bessere anfängliche Transparenz.
Ideal geeignet für Netzwerke mit hoher Bandbreite.
Notwendigkeit eines zentralen Hosts zur Durchführung von Aktionen.
Die folgenden Vorteile von agentenbasierten Systemen gegenüber agentenloser Cloud-Sicherheit:
Ermöglicht gründliches Scannen und Überwachen von Hosts: Agenten können komplexere Scans von Hostkomponenten und Diensten durchführen.
Kann als Firewall fungieren, da es Netzwerkverbindungen nach Filterkriterien einschränken kann.
Bietet Laufzeitschutz
Bietet Sicherheitsvorkehrungen, wie z. B. die Möglichkeit, Angriffe zu blockieren und Live-Systeme zu patchen.
Ideal für DMZ-Bereiche, Netzwerke mit geringer Bandbreite oder Laptops, die möglicherweise keinen Zugriff auf das Netzwerk haben. Der Agent kann auf Computern ohne Netzwerkverbindung installiert werden.
Nachdem Sie nun die Vor- und Nachteile von agentenbasierter und agentenloser Cloud-Sicherheit kennengelernt haben, können Sie entscheiden, wie Sie Ihre Infrastruktur schützen möchten.
Was sind die Vorteile von agentenloser Cloud-Sicherheit?
Die Verwendung von Agenten führt zu Reibungsverlusten, die durch agentenlose Cloud-Sicherheit vermieden werden. Einfach ausgedrückt bringt agentenloses Scannen Ihre Daten zum Scanner, anstatt dass der Scanner zu Ihnen kommt. Es erfordert nur minimalen Wartungsaufwand und manuelle Arbeit. Außerdem verursacht es weniger Störungen in der Umgebung. Da Agenten Rechenressourcen nutzen, bedeutet weniger Eingriff auch weniger Belastung oder Störung der Anwendung.
Ein weiterer großer Vorteil der agentenlosen Cloud-Sicherheit ist die erweiterte Abdeckung. Die Methode eignet sich besser für Cloud-Anforderungen wie angehaltene Maschinen oder kurzzeitige Workloads, die nur kurzzeitig laufen. Agentenlose Lösungen überprüfen diese Ressourcen regelmäßig. Weitere Vorteile von agentenlosen Sicherheitslösungen sind mehr Flexibilität, eine optimierte und zentrale Schnittstelle sowie Kosteneinsparungen.
Warum SentinelOne?
Singularity™ Cloud Security kombiniert agentenlosen und agentenbasierten Cloud-nativen Schutz, um Einblicke, Transparenz über Bedrohungen und Analysen in Echtzeit zu liefern. Die umfassende, KI-gestützte CNAPP entwickelt die Cloud-Sicherheit mit einer einzigartigen Offensive Security Engine™ und Laufzeitlösungen weiter, die Bedrohungen in Umgebungen sofort nach ihrem Auftreten abwehren. SentinelOne Singularity™ Data Lake konsolidiert native und Drittanbieter-Sicherheitsdaten für KI-gestützte Einblicke und eine effektive Reaktion auf Vorfälle. Singularity Cloud Security bietet mehrschichtigen Schutz vor dateibasierter Malware und Zero-Day-Angriffen. SentinelOne erstellt auf einfache Weise eine vollständige Bestandsaufnahme des Cloud-Speichers und wendet richtlinienbasierten Schutz an. Entwickler können hybride Multi-Cloud-Umgebungen schützen, eine zentralisierte Übersicht erhalten und AWS-, GCP-, Azure- und DigitalOcean-Plattformen, einschließlich privater Clouds, mühelos integrieren.
SentinelOne erreicht einen automatisch skalierbaren und leistungsorientierten Schutz durch das Scannen von Dateien in Millisekunden und zentralisiert außerdem den Schutz, die Erkennung und die Reaktion für Cloud-VMs, Server, Container und Kubernetes-Clustern über dieselbe Konsole. Benutzer können statische und verhaltensbasierte Erkennungen kombinieren, um unbekannte Bedrohungen für öffentliche und private Cloud-Angriffsflächen zu neutralisieren. SentinelOne arbeitet vollständig im Benutzerbereich und basiert auf einer eBPF-Architektur, die Unterstützung für über 14 Linux-Distributionen, 20 Jahre Windows-Server, 3 Container-Laufzeiten und Kubernetes bietet.
Weitere Funktionen von SentinelOne sind:
Automatisierte Storyline™-Angriffsvisualisierung und -zuordnung zu MITRE ATT&CK TTPs.
Skalierbare forensische Artefakt-Erfassung
Kontextanalyse zur Erstellungszeit, Cloud-Metadaten und Singularity-Marktplatz-Integrationen
Geheimhaltungsscans und Multi-Cloud-Compliance-Unterstützung für Vorschriften wie HIPAA, CIS, NIST, ISO 27001 und viele mehr
DevOps-freundliche IaC-Bereitstellung und automatische Bereitstellung von CWPP Agenten für Cloud-Computing-Instanzen in Azure, Google Cloud und AWS
Snyk-Integration
SentinelOne in Aktion sehen
Entdecken Sie in einer persönlichen Demo mit einem SentinelOne-Produktexperten, wie KI-gestützte Cloud-Sicherheit Ihr Unternehmen schützen kann.
Die Anwendung agentenloser, cloud-nativer Sicherheit ist eine der besten Möglichkeiten, um Datenverletzungen, Schwachstellen und unbekannte Fehlkonfigurationen zu verhindern. Ohne agentenbasierte Systeme müssen keine mehreren Komponenten verwaltet oder Agenten auf neuen Geräten installiert werden. Agentenlose Cloud-Sicherheit kann Sicherheitsscans und Schwachstellen auf Remote-Rechnern überprüfen und überprüfen, ohne dass Agenten installiert werden müssen. Agentenlose Cloud-Sicherheitslösungen verwenden APIs, um die Sichtbarkeit der Cloud-Umgebung zu verbessern und Cloud-Workloads auf Schwachstellen zu überprüfen, ohne die Leistung zu beeinträchtigen. Sie eignen sich ideal für große Netzwerkbandbreiten und zentralisierte Hosts und erfordern zudem geringere Bereitstellungs- und Wartungskosten.
"
Häufig gestellte Fragen zur agentenlosen Cloud-Sicherheit
Agentenlose Cloud-Sicherheit überwacht und schützt Ihre Cloud-Umgebung, ohne Software-Agenten auf jedem Host zu installieren. Sie nutzt Cloud-Anbieter-APIs, Protokolle und Snapshot-basierte Techniken, um Konfigurations- und Laufzeitdaten zu erfassen. Durch das Abrufen von Metadaten und Dateisystem-Snapshots erkennt sie Fehlkonfigurationen und Schwachstellen, ohne die Workloads zu beeinträchtigen, was die Einrichtung beschleunigt und die Auswirkungen auf die Leistung von Servern und Containern reduziert
Ja. Agentenlose Tools führen keine Prozesse auf Ihren Servern oder VMs aus, sodass keine zusätzliche CPU- oder Speicherbelastung entsteht. Sie scannen über APIs, Protokolle oder schreibgeschützte Snapshots und vermeiden so Änderungen an Endpunkten oder Software-Updates. Agentenbasierte Lösungen bieten eine tiefere Einblicksmöglichkeit in die Laufzeit, können jedoch Systeme verlangsamen und erfordern eine kontinuierliche Wartung, während agentenlose Lösungen die Arbeitslasten unverändert lassen und die Verwaltung vereinfachen.
Agentenlose Tools benötigen schreibgeschützte API-Anmeldeinformationen oder Dienstrollen mit bereichsbezogenen Berechtigungen, z. B. zum Auflisten von Ressourcen, Lesen von Konfigurationen und Erstellen temporärer Snapshots. In Azure gewährt die Rolle "VM-Scanner-Operator" Rechte zum Lesen von Festplatten und zum Erstellen von Snapshots.
AWS-Scan-Konnektoren benötigen EC2-Beschreibungs- und Snapshot-Berechtigungen. Google Cloud erfordert die Rollen "compute.disks.createSnapshot" und "compute.instances.get" für Out-of-Band-Scans.
Die meisten agentenlosen Lösungen funktionieren mit AWS, Azure und GCP, indem sie die nativen APIs der jeweiligen Anbieter nutzen. Sie rufen Ressourcen-Metadaten ab und erstellen Festplatten-Snapshots in allen drei Umgebungen. Einige Anbieter erweitern die Unterstützung auch auf Kubernetes-Cluster, Container-Registries und SaaS-Anwendungen, indem sie spezifische Plattform-APIs nutzen und so eine konsistente Abdeckung über Ihre gesamte Multi-Cloud-Umgebung hinweg bieten
Scans werden in der Regel in einem festgelegten Abfrageintervall ausgeführt, bei API-basierten Scans standardmäßig alle 4 Stunden. Sie können dies jedoch an Ihre Umgebung anpassen. Ereignisgesteuerte Scans werden bei Ressourcenänderungen ausgelöst und bieten eine nahezu Echtzeitabdeckung.
Agentenlose Tools bieten jedoch keine Live-Prozess- oder Netzwerküberwachung. Sie erfassen Snapshots oder API-Daten zum Zeitpunkt des Scans und bieten keine kontinuierliche Laufzeit-Transparenz
Agentenlose Sicherheit ist besonders dort von Vorteil, wo keine Agenten installiert werden können, z. B. bei unveränderlichen Infrastrukturen, Burst-Scale-VMs, IoT-Geräten oder von Drittanbietern verwalteten Systemen. Sie eignet sich ideal für schnelle Risikobewertungen in neuen Cloud-Konten, Basis-Sicherheitsüberprüfungen und die Abdeckung von Workloads, die nur kurzzeitig bestehen oder keinen Zugriff auf das Betriebssystem haben.
Teams nutzen sie auch, um die Compliance durchzusetzen und Multi-Cloud-Umgebungen zu scannen, ohne jeden Host einzeln anzufassen .
Sie profitieren von einer schnellen Bereitstellung, da keine Endpunktsoftware erforderlich ist. Die Transparenz erstreckt sich auf alle Ressourcen, einschließlich derer, die spontan gestartet werden. Es reduziert den Verwaltungsaufwand und vermeidet Leistungseinbußen in Produktionssystemen. Durch die Nutzung von APIs und Snapshots bietet es im Vergleich zu agentenbasierten Modellen eine breite Abdeckung, sofortige Warnmeldungen bei Fehlkonfigurationen und eine einfachere Wartung.
Agentenlose Ansätze können kein Live-Prozessverhalten, keine Netzwerkverbindungen und keine speicherresidenten Bedrohungen erkennen. Sie können dateilose Angriffe oder Zero-Day-Exploits übersehen, die nur zur Laufzeit auftreten.
Die Abdeckung hängt auch von der Verfügbarkeit und den Berechtigungen der API ab – Ressourcen mit eingeschränkten APIs werden nicht gescannt. Temporäre Speichermedien oder verschlüsselte Festplatten werden möglicherweise übersprungen, sofern keine zusätzlichen Konfigurationen vorgenommen werden
Was ist Jailbreaking?: Mehr als iPhone-Cracking und Android-Rooting
Erfahren Sie in diesem umfassenden Leitfaden mehr über Jailbreaking, seine Ursprünge, Beweggründe, Methoden, Gerätetypen, Vorteile und Risiken. Finden Sie heraus, wie sicher Geräte mit Jailbreak gegenüber modernen Bedrohungen sind.
Container-Schwachstellenscan: Ein umfassender Leitfaden
Es besteht kein Zweifel daran, dass die Containertechnologie dazu beiträgt, die Entwicklung und Bereitstellung von Anwendungen zu beschleunigen. Allerdings stellen fehlerhafte Images oder falsch konfigurierte Container mittlerweile ein erhebliches Sicherheitsrisiko für Unternehmen dar. Untersuchungen zeigen, dass ganze 75 % der Container-Images potenziell risikobehaftet sind und hohe oder kritische Schwachstellen aufweisen, was eine ständige Überwachung erforderlich macht. Durch das Scannen von Containern auf Schwachstellen werden diese Probleme während der Erstellung und zur Laufzeit identifiziert, wodurch die Wahrscheinlichkeit einer Sicherheitsverletzung minimiert wird. Um das Konzept besser zu verstehen, wollen wir uns damit befassen, wie das Scannen funktioniert, warum es so wichtig ist und welche Lösungen zum Schutz containerisierter Workloads es gibt. Dieser Artikel befasst sich mit den Grundlagen des Scannens von Container-Schwachstellen und der Notwendigkeit, sowohl Images als auch laufende Instanzen zu scannen. Wir untersuchen Best Practices für das Scannen von Container-Schwachstellen, die das Scannen mit DevOps-Zyklen, Codeänderungen und schnellen Patches in Einklang bringen. Sie erfahren mehr über wichtige Scan-Komponenten, von der Analyse von Basis-Images bis hin zur Behebung von Konfigurationsfehlern, sowie über die Bedeutung des Managements von Container-Schwachstellen für große Containerflotten. Der Artikel beschreibt auch typische Container-Bedrohungen, z. B. veraltete Betriebssystemebenen oder unsichere Docker-Konfigurationen, und wie das Scannen zur Lösung dieser Probleme beiträgt. Abschließend untersuchen wir, wie die KI-gestützte Plattform von SentinelOne die Prozesse zum Scannen von Schwachstellen in Containern stärkt und einen einheitlichen Ansatz für die Containersicherheit fördert. Was ist das Scannen von Container-Schwachstellen? Das Scannen von Container-Schwachstellen ist der Prozess des Scannens von Container-Images und den Instanzen, auf denen sie ausgeführt werden, auf Sicherheitsprobleme wie veraltete Bibliotheken, falsche Berechtigungen oder neu entdeckte CVEs. Auf diese Weise können DevOps-Teams Probleme beheben, die wahrscheinlich in Images zu finden sind, bevor diese in die Produktionsumgebung ausgeliefert werden. Während das Konzept des herkömmlichen Server-Scannings realisierbar ist, ist das Scannen von kurzlebigen Containern oder Microservices nur mit dynamischen, ereignisbasierten Methoden möglich. Einige Tools arbeiten mit Container-Registries, und CI/CD-Pipelines scannen jede neue Version auf Probleme, die noch nicht gemeldet wurden. Dieser Ansatz ermöglicht es, Images von bekannten Risiken fernzuhalten und so die Wahrscheinlichkeit einer Ausnutzung zu verringern. Langfristig trägt das Scannen dazu bei, ein effektives Schwachstellenmanagementprogramm zu gewährleisten, das gesunde und sichere Containerumgebungen aufrechterhält. Notwendigkeit des Scannens von Container-Schwachstellen Laut dem Google Cloud Bericht glauben 63 % der Sicherheitsexperten, dass KI die Erkennung und Bekämpfung von Bedrohungen grundlegend verändern wird. Bei Containern sind Anwendungen nur von kurzer Dauer, und Workloads werden schnell gestartet oder beendet, was Cyberkriminellen kurze Gelegenheiten bietet, wenn die Bedrohungen bestehen bleiben. Das Scannen von Container-Schwachstellen stellt sicher, dass ständig Scans durchgeführt werden, die das Versenden von Schwachstellen verhindern, die mit kurzlebigen Containern verbunden sind. Hier sind fünf Gründe, warum das Scannen wichtig ist: Fehler frühzeitig erkennen: In DevOps-Pipelines werden Images oft innerhalb weniger Stunden vom Entwicklungsteam an das Testteam und dann an das Produktionsteam übertragen. Während der Build-Zeit können durch Scans anfällige Pakete oder Fehlkonfigurationen identifiziert werden, die vom Entwicklungsteam übersehen wurden, und vor der Veröffentlichung behoben werden. Dieser Schritt fördert das Management von Container-Schwachstellen und verhindert, dass bekannte CVEs in Live-Umgebungen gelangen. Die Kombination aus DevOps und Scans hilft, Situationen zu vermeiden, in denen sich im letzten Moment herausstellt, dass nicht alle Schwachstellen abgedeckt sind. Gemeinsam genutzte Infrastruktur schützen: Container laufen oft auf demselben Kernel und haben Zugriff auf dieselbe Hardware, was bedeutet, dass bei einer Kompromittierung eines Containers auch andere betroffen sein können. Das Scannen von Images verringert durch seine sorgfältige Umsetzung auch die Wahrscheinlichkeit, dass ein einzelner fehlerhafter Container den gesamten Cluster beeinträchtigt. Multi-Tenant-Entwicklungscluster oder große Produktionsorchestrierungen sind auf das Scannen angewiesen, um die allgemeine Integrität sicherzustellen. Dies steht im Einklang mit Strategien zum Cloud-Schwachstellenmanagement, die stabile und gemeinsam genutzte Plattformen ermöglichen. Umgang mit schnellen Code-Updates: Einer der Vorteile der Verwendung eines Prime-Containers ist die schnelle Iterationsrate, bei der Teams täglich oder wöchentlich Änderungen veröffentlichen. Diese Agilität kann auch zur Wiederholung einiger Probleme führen, wenn die Basisimages nicht aktualisiert werden. Durch automatisiertes Scannen wird die Pipeline sofort angehalten, sobald ein kritischer Fehler entdeckt wird, der einen Patch oder eine neue Bibliothek erfordert. Mit der Zeit wird das Scannen in die Entwicklungszyklen integriert, um sicherere Releases zu liefern, die den Geschäftsanforderungen entsprechen. Erfüllung von Compliance- und regulatorischen Anforderungen: Jedes Unternehmen, das bestimmten Standards wie HIPAA, PCI-DSS oder DSGVO unterliegt, muss den Nachweis erbringen, dass es in angemessenen Abständen Scans und Patches durchführt. Container für Schwachstellenscans zeigen, dass kurzlebige Workloads denselben Sicherheitsregeln unterliegen wie ältere Server. Detaillierte Protokolle zeichnen die identifizierten Mängel, die Zeit, die zu ihrer Behebung benötigt wurde, und das Endergebnis auf, um den Auditprozess zu vereinfachen. Dies schafft Vertrauen bei Kunden, Lieferanten und auch bei den Aufsichtsbehörden. KI für Geschwindigkeit und Effizienz: Moderne Tools verwenden KI oder ML, um mögliche Schwachstellen in Containern oder laufenden Prozessen innerhalb von Images zu identifizieren. Dieser fortschrittliche Ansatz identifiziert neue Muster, die von einfachen Signaturen nicht erkannt werden. Da DevOps-Pipelines Code in einem so schnellen Tempo bereitstellen, reduziert das fortschrittliche Scannen die Zeit zwischen Erkennung und Behebung. In der heutigen Zeit ist das KI-basierte Scannen ein entscheidender Faktor, der zeitnahe und genaue Sicherheitsentscheidungen ermöglicht. Wichtige Komponenten des Scannens von Container-Schwachstellen Eine starke Scan-Strategie umfasst mindestens die folgenden Schritte: Scannen während der Erstellungsphase, Scannen der Container-Registries, Scannen der kurzlebigen Ausführungszustände und erneutes Scannen gepatchter Images. Jeder dieser Aspekte sorgt dafür, dass Schwachstellen nur selten über einen längeren Zeitraum hinweg ausgenutzt werden können. Im Folgenden werden die wichtigsten Komponenten erläutert, die die Grundlage für Container-Schwachstellen-Scans bilden: Basis-Image-Analyse: Die meisten Container weisen eine Vielzahl von Schwachstellen auf, die auf veraltete Bibliotheken oder Betriebssystemschichten im Basisimage zurückzuführen sind. Sie scannen jede Schicht nach bekannten Schwachstellen gemäß CVEs und identifizieren, welche Pakete aktualisiert werden müssen. Durch die Sauberhaltung und Aktualisierung des Basisimages wird die Angriffsfläche minimiert. Durch gründliches Scannen wird auch die Möglichkeit ausgeschlossen, dass Schwachstellen, die zuvor in älteren Strukturen ausgenutzt wurden, in den neuen Konstruktionen erneut auftreten. Registry-Scanning: Die meisten Teams speichern Container-Images in privaten oder öffentlichen Registries, sei es Docker Hub, Quay oder eine andere gehostete oder selbst gehostete Lösung. Durch regelmäßiges Scannen dieser Registries wird festgestellt, ob Images, die einst akzeptabel waren, im Laufe der Zeit Schwachstellen enthalten. Dieser Ansatz trägt dazu bei, dass zuvor verwendete Images nicht erneut in der Produktion verwendet werden. Die Integration des Scannens in CI/CD garantiert, dass die neu gepushten Images sicher und auf dem neuesten Stand sind. Überprüfungen der Laufzeitumgebung: Obwohl das Image zum Zeitpunkt der Erstellung sauber war, können Fehlkonfigurationen bei den Orchestratoren oder sogar bei den Umgebungsvariablen auftreten. Das Scannen laufender Container zeigt Privilegieneskalationen, unsachgemäße Dateiberechtigungen oder offene Ports auf. In Verbindung mit einer Echtzeit-Erkennung verhindert dies Einbruchsversuche, die auf kurzlebige Container abzielen. Dieser Schritt steht im Einklang mit der Container-Schwachstellenverwaltung und stellt sicher, dass kurzlebige Zustände weiterhin abgedeckt sind. Automatisierte Patch-Vorschläge: Sobald ein Scan-Prozess Probleme identifiziert hat, schlägt eine gute Lösung Korrekturen in Form von Patches oder besseren Bibliotheken vor. Einige Tools werden mit DevOps-Pipelines verwendet, um Images mit korrigierten Paketen automatisch neu zu erstellen. Im Laufe der Zeit fördert die teilweise oder vollständige Automatisierung eine konsistente und schnelle Behebung der entdeckten Mängel. Durch die Einbindung dieser Vorschläge in die Entwicklungsaufgaben gehen die Ergebnisse eines Scans nicht so leicht verloren. Compliance und Durchsetzung von Richtlinien: Unternehmen können interne Richtlinien haben, wie z. B. "Es dürfen keine Images mit kritischen CVE eingesetzt werden." Das Scansystem vergleicht Images mit diesen Regeln und lässt die Erstellung des Images nicht zu, wenn ein Verstoß vorliegt. Diese Synergie stellt sicher, dass Entwicklungsteams Probleme, die sie an der Weiterarbeit hindern, so schnell wie möglich beheben können. Langfristig sorgt die Einhaltung dieser Richtlinien dafür, dass Basisbilder nur minimale Inhalte haben und Patches für bekannte Probleme regelmäßig bereitgestellt werden. Wie funktioniert das Scannen von Container-Schwachstellen? Das Scannen von Container-Schwachstellen ist in der Regel ein systematischer Prozess, bei dem Container von der Build-Phase bis zur Laufzeitphase gescannt werden. Durch die Integration von DevOps-Pipelines, Container-Registern und Orchestrierungsebenen stellt das Scannen sicher, dass die vorübergehenden Workloads genauso sicher sind wie die dauerhaften. Hier finden Sie eine Übersicht über die wichtigsten Scan-Phasen und wie sie einen kohärenten Sicherheitszyklus bilden: Image-Abruf und -Analyse: Wenn DevOps einen Build oder einen Abruf aus einem Repository initiiert, scannen Scanner Betriebssystempakete, Bibliotheken und Konfigurationsdateien. Sie greifen auf bekannte CVE-Datenbanken zurück und suchen nach Übereinstimmungen im Basis- oder Layered-Image. Wenn kritische Elemente vorhanden sind, lassen die Dev-Pipelines keinen Fortschritt zu. Dieser Schritt unterstreicht auch die Notwendigkeit, frühzeitig mit dem Scannen zu beginnen – "Shift Left" –, um Probleme zu erkennen, bevor sie die Produktionsinstanzen erreichen. On-Push- oder On-Commit-Scans: Einige der Lösungen werden durch Versionskontrollereignisse oder Container-Registry-Pushes ausgelöst. Jedes Mal, wenn ein Entwickler Code kombiniert oder ein Image ändert, wird ein Scanvorgang initiiert. Das bedeutet, dass alle Änderungen, die aufgrund von Ereignissen vorgenommen werden, sofort nach dem Ereignis überprüft werden. Wenn die Ergebnisse auf schwerwiegende Probleme hinweisen, stoppt die Pipeline die Bereitstellung, bis diese durch neue Patches behoben sind. Registry-Rescans: Im Laufe der Zeit können neue CVEs auftreten, die sich auf Images auswirken, die zuvor als sicher galten. Registry-Rescans werden in regelmäßigen Abständen durchgeführt, um den Inhalt alter Images zu überprüfen, die remote gespeichert sind. Wenn das Image, das im Vormonat als sauber eingestuft wurde, eine neue Schwachstelle aufweist, die nun erkannt wird, informiert das System die Entwickler- oder Sicherheitsteams. Diese Synergie trägt dazu bei, dass ältere Images nicht mit der Abhängigkeit von der älteren Version in die Produktionsumgebung zurückkehren. Laufzeitüberwachung: Auch wenn ein Image als sicher gekennzeichnet ist, kann seine Ausführung zu Live-Fehlkonfigurationen oder gefährlichen Umgebungsvariablen führen. Laufzeitscans oder aktive Instrumentierung überwachen Container auf Aktivitäten wie ungewöhnliche Prozesse, übermäßige Berechtigungen oder bekannte Exploits. Auf diese Weise bleiben Zero-Days oder unerwartete Fehler nicht unentdeckt und werden in Echtzeit erkannt. Dieser Ansatz ist Teil des Schwachstellen-Scans von Containern, der über die statische Analyse hinausgeht. Berichterstellung und Behebung: Nach Abschluss des Scanvorgangs fasst das System die Ergebnisse in nach Risikostufen geordneten Listen zusammen. Administratoren oder Entwicklerteams können kritische Probleme beheben, beispielsweise durch Anwenden von Hotfixes auf Bibliotheken oder Ändern der Dockerfiles. Diese Aufgaben werden in DevOps-Boards oder IT-Ticketingsystemen nachverfolgt. Sobald die aktualisierten Images gescannt wurden, werden sie zur Archivierung an das Repository zurückgesendet, wodurch der Image-Aktualisierungszyklus abgeschlossen ist.
Häufige Schwachstellen in Containern Wie Sie vielleicht schon vermutet haben, können Container trotz ihrer Leichtigkeit zahlreiche Probleme mit sich bringen, wenn sie nicht ordnungsgemäß verwaltet werden: veraltete Betriebssystemschichten, missbräuchlich verwendete Anmeldedaten oder zu freizügige Konfigurationen. Hier finden Sie eine Liste häufiger Probleme, die mit dem Scan identifiziert werden können, wobei der Schwerpunkt darauf liegt, wie die kurzlebige Landschaft solche Probleme verschärft. Regelmäßige Scans und ein klar definierter Ansatz für das Scannen von Schwachstellen in Containern sorgen dafür, dass diese Fallstricke selten übersehen werden. Veraltete Basisimages: Eine zugrunde liegende Betriebssystemschicht kann veraltete Pakete oder Bibliotheken enthalten. Wenn diese nie aktualisiert werden, bleiben diese Schwachstellen in jedem Container erhalten. Bei regelmäßigen Scans wird geprüft, ob neu veröffentlichte CVEs vorhanden sind, die sich auf diese älteren Schichten beziehen. Langfristig ist es vorteilhaft, das Basisimage häufiger zu aktualisieren, um den Code auf dem neuesten Stand zu halten und weniger anfällig für Angriffe zu machen. Offene Ports: Manchmal öffnen Entwickler Ports, die nicht benötigt werden, oder sie vergessen, diese beim Schreiben von Dockerfiles zu blockieren. Das Netzwerk ist für Angreifer anfällig, da diese leicht offene und ungeschützte Ports identifizieren können, die ihnen Zugriff gewähren. Diese fragwürdigen Schwachstellen werden durch die Tools, die sich auf Best Practices beziehen, gut veranschaulicht. Das Schließen unnötiger Ports oder die Anwendung von Firewall-Regeln ist eine der gängigsten Lösungen. Falsch konfigurierte Benutzerrechte: Einige Container sind privilegiert und können als Root ausgeführt werden oder verfügen über Rechte, die nur in sehr seltenen Fällen benötigt werden. Im Falle einer Kompromittierung des Hosts können Angreifer jederzeit leicht entkommen oder die Kontrolle über den Host übernehmen. Ein gut strukturierter Scan-Ansatz identifiziert Container, die keine Konten mit geringeren Berechtigungen verwenden. Die Umsetzung des Prinzips der geringsten Berechtigungen reduziert die Anzahl der Möglichkeiten für Angreifer, Schwachstellen auszunutzen, erheblich. Nicht gepatchte Bibliotheken von Drittanbietern: In vielen Docker-Images gibt es Frameworks oder Bibliotheken von Drittanbietern, die möglicherweise mit bekannten CVEs in Verbindung stehen. Cyberkriminelle suchen häufig nach Exploits für häufig heruntergeladene Pakete. Software zum Scannen von Container-Images auf Schwachstellen deckt diese Bibliotheksversionen auf und ermöglicht es den Entwicklerteams, sie zu aktualisieren. Wenn die früheren Schwachstellen nicht gescannt werden, tauchen sie wahrscheinlich in den nachfolgenden Builds wieder auf. Anmeldedaten oder Geheimnisse in Images: Einige Entwickler fügen versehentlich Schlüssel, Passwörter oder Tokens in die Dockerfiles oder Umgebungsvariablen ein. Angreifer, die diese Images abrufen, können sie lesen, um sich lateral zu bewegen. In diesem Fall gibt es Scanner, die nach Geheimnissen oder anderen verdächtigen Dateimuster suchen können, um ein Durchsickern von Anmeldedaten zu vermeiden. Die beste Lösung, die manchmal möglich ist, besteht darin, externe Geheimnismanager zu verwenden und den Build-Prozess in Bezug auf Bilder zu verbessern. Unsichere Docker-Daemons oder -Einstellungen: Wenn der Docker-Daemon offen zugänglich ist oder über ein schwaches TLS verfügt, können Angreifer die Kontrolle über die Erstellung von Containern erlangen. Ein offener Daemon kann potenziell für Cryptomining oder Datenexfiltration genutzt werden. Diese Versäumnisse lassen sich mit Tools erkennen, die die Einstellungen des Host-Betriebssystems und die Docker-Konfigurationen scannen. Aus diesem Grund sollte der Daemon ausschließlich mit SSL und IP-basierten Regeln verwendet werden. Privilegiertes Host-Netzwerk: Einige Container arbeiten im "Host-Netzwerk"-Modus, wodurch sie den Netzwerkstack des Host-Systems gemeinsam nutzen können. Wenn der Datenverkehr auf Host-Ebene zum Ziel eines Angreifers wird, kann dieser den Datenverkehr abfangen oder sogar verändern. Diese Einstellung wird für die meisten Anwendungen nicht häufig verwendet, da sie dazu führt, dass Container beim Scannen erkannt werden und Administratoren zur besseren Isolierung auf Standard-Bridging umsteigen müssen. Bewährte Verfahren für das Scannen von Container-Schwachstellen Bewährte Verfahren für das Scannen von Container-Schwachstellen vereinheitlichen Scan-Intervalle, die Abstimmung mit DevOps und strenge Patch-Prozesse. Auf diese Weise verhindern Teams potenzielle Ausnutzungen, indem sie sich gründlich mit kurzlebigen Container-Images oder Laufzeitstatus befassen. Hier sind fünf bewährte Verfahren, die befolgt werden sollten, um die Konsistenz und Nützlichkeit des Scannens über Microservices in großem Maßstab aufrechtzuerhalten: Integrieren Sie das Scannen in CI/CD: DevOps arbeitet nach dem Prinzip häufiger Code-Zusammenführungen, daher ist die Integration des Scannens in die Pipeline-Schritte von entscheidender Bedeutung. Wenn ein Build eine veraltete Bibliothek enthält, schlägt der Job fehl oder es wird zumindest eine Warnung an die Entwickler ausgegeben. Außerdem wird so sichergestellt, dass keine neuen Images die letzten Gates erreichen, wenn sie nicht von schwerwiegenden Fehlern befreit wurden. Langfristig betrachten Entwicklerteams das Sicherheitsscannen als einen regulären Bestandteil des Code-Review-Prozesses. Minimale Basis-Images verwenden: Durch Distributionen wie Alpine oder distroless wird die Anzahl der Pakete minimiert. Denn weniger Bibliotheken bedeuten weniger Möglichkeiten für CVEs. Das Scannen von Containern auf Schwachstellen liefert gezieltere Listen mit zu installierenden Patches und führt zu einer schnelleren Behebung. Langfristig reduzieren kleine Images auch die Build-Zeiten und Patch-Prüfungen, wodurch die Entwicklungszyklen effizienter werden. Registries regelmäßig scannen: Auch wenn ein Image zu einem bestimmten Zeitpunkt als sauber getestet wurde, können einige Monate später neue CVEs entdeckt werden. Eine neue Reihe von Images sollte regelmäßig überprüft werden, um das Risiko zu verringern, dass neu identifizierte Fehler übersehen werden. Durch diesen Ansatz wird vermieden, dass ältere Images verwendet werden, die Schwachstellen enthalten könnten, die erneut bereitgestellt würden. Einige Scan-Tools können Images in den Registries in bestimmten Zeitintervallen oder bei Verfügbarkeit neuer CVE-Feeds erneut scannen. Konsistenz in Patch-Zyklen gewährleisten: Es ist wichtig, einen regelmäßigen Zeitplan für die Aktualisierung von Basis-Images, Bibliotheken und benutzerdefiniertem Code einzuhalten. Dadurch werden Patches besser vorhersehbar und es ist weniger wahrscheinlich, dass eine bekannte Schwachstelle über einen längeren Zeitraum bestehen bleibt. Langfristig ermöglicht die Integration von geplanten Updates mit ereignisgesteuerten Scans regelmäßige Überprüfungen und die Erkennung von Bedrohungen. Denn ein gut dokumentiertes Patch-Verfahren trägt auch zur Einhaltung von Compliance-Vorgaben bei. Echtzeitüberwachung implementieren: Während Container noch ausgeführt werden, enthält das ursprüngliche saubere Image möglicherweise keine Schwachstellen, aber im Laufe der Zeit können neue entstehen. Tools, die das Systemverhalten zur Laufzeit überwachen, erkennen solche Prozesse oder Privilegieneskalationen. Wenn solche Situationen auftreten, verringert entweder eine automatisierte oder eine manuelle Reaktion das Risiko. Durch die Kopplung von Scans mit Echtzeit-Erkennung gewährleisten Sie eine robuste Schwachstellenüberprüfung für Container vom Build bis zur Laufzeit. Herausforderungen beim Scannen von Container-Schwachstellen Die kontinuierliche Durchführung von Scans auf Containern und Microservices kann jedoch gewisse Herausforderungen mit sich bringen. Es gibt einige Herausforderungen, die einen reibungslosen Ablauf erschweren: Reibungsverluste in der DevOps-Pipeline, Scan-Overhead usw. Im Folgenden untersuchen wir fünf zentrale Herausforderungen, denen Sicherheitsteams häufig bei der Implementierung oder Skalierung des Container-Schwachstellenmanagements gegenüberstehen: Kurzlebige und kurzzeitige Container: Container können innerhalb weniger Minuten oder sogar Stunden erstellt und wieder gelöscht werden. Wenn die Scans täglich oder wöchentlich durchgeführt werden sollen, erfassen sie möglicherweise keine temporären Bilder. Stattdessen können ereignisbasierte Scans oder die Einbindung in Orchestrierungsprogramme verwendet werden, um Schwachstellen zum Zeitpunkt der Erstellung der Container zu identifizieren. Dieser ereignisbasierte Ansatz erfordert eine umfassende Pipeline-Integration, was sowohl für Entwicklungs- als auch für Sicherheitsteams eine neue Herausforderung darstellen kann. Mehrschichtige Abhängigkeiten: Container-Images basieren oft auf vielen Schichten von Dateisystemen, von denen jede über einen eigenen Satz von Bibliotheken verfügt. Manchmal ist es nicht einfach zu bestimmen, welche Schicht zur Einführung eines Fehlers oder einer Bibliothek beigetragen hat. Einige Scan-Tools zerlegen die Unterschiede der einzelnen Schichten, jedoch besteht die Gefahr von Fehlalarmen und Duplikaten. Im Laufe der Zeit müssen die Mitarbeiter diese mehrschichtigen Ergebnisse entschlüsseln, um den richtigen Patch in der richtigen Schicht anzuwenden. Widerstand der Entwickler: Sicherheitsscans, insbesondere Gating-Merges, können für DevOps zu einem Problem werden, wenn sie häufig durchgeführt werden und Probleme erkennen. Einige Entwickler betrachten Scans möglicherweise als Unannehmlichkeit, die potenzielle Gefahren für die "Umgehung von Sicherheitsmaßnahmen" mit sich bringt. Durch die Herstellung eines Gleichgewichts zwischen Scan-Richtlinien und Entwicklungs-Workflow sowie durch das Aufzeigen, wie Workarounds zukünftige Probleme verhindern, fördern Teams die Zusammenarbeit. Messbare Werte wie die Zeit, die zur Erledigung einer Aufgabe benötigt wird, oder die Anzahl der verhinderten Verstöße können die Akzeptanz fördern. Hoher Aufwand: Auf Unternehmensebene kann es Hunderte oder sogar Tausende verschiedener Container-Images geben. Das vollständige Scannen jedes Builds kann sehr kostspielig und zeitaufwändig sein. Einige Tools, beispielsweise solche mit Teil-Scan- oder Caching-Mechanismen, tragen dazu bei, den Aufwand zu reduzieren. Wenn sie nicht gut verwaltet werden, können diese groß angelegten Scans die CI-Pipeline beeinträchtigen oder die Mitarbeiter mit Tausenden von trivialen Schwachstellen überfluten. Konsistente Patch-Zeitpläne: Es ist üblich, dass Container neu erstellt werden, anstatt sie vor Ort zu patchen. Wenn DevOps-Teams diesen Zyklus nicht einhalten oder Images nur gelegentlich aktualisieren, können Probleme unentdeckt bleiben. Ein Nachteil der kurzlebigen Natur ist, dass es durchaus möglich ist, zu einer früheren Version zurückzukehren, die möglicherweise weniger sicher ist. Dieser Ansatz bedeutet, dass Basis-Images nicht veralten und keine ständigen Patches in das System eingeführt werden müssen. Wie verbessert SentinelOne das Scannen von Container-Schwachstellen mit KI-gestützter Sicherheit? SentinelOne Singularity™ Cloud Security nutzt Bedrohungsinformationen und KI, um Container von der Entwicklung bis zur Produktion zu schützen. Durch die Integration fortschrittlicher Analyse- und Scan-Funktionen deckt es kurzlebige Container-Images oder dynamische Orchestrierungen umfassend ab. Hier sind die wichtigsten Komponenten, die ein zuverlässiges Scannen von Containern und eine schnelle Behebung von Schwachstellen gewährleisten: Echtzeit-CNAPP: Es handelt sich um eine Cloud-native Anwendungsschutzplattform, die Container-Images und Laufzeitbedingungen proaktiv scannt und analysiert. Die Plattform umfasst auch Funktionen wie CSPM, CDR, AI Security Posture Management und Schwachstellenscans. Durch die Integration von Scans in Build-Pipelines wird verhindert, dass fehlerhafte Images veröffentlicht werden. In der Produktion erkennen lokale KI-Engines verdächtiges Verhalten und verhindern das Entstehen von ausnutzbaren Sicherheitslücken. Einheitliche Sichtbarkeit: Unabhängig davon, ob Entwicklungsteams Docker, Kubernetes oder andere Orchestrierungen verwenden, bietet Singularity™ Cloud Security eine zentrale Kontrollstelle. Administratoren können temporäre Containerstatus, geöffnete Schwachstellen und vorgeschlagene Korrekturen an einem Ort einsehen. Dieser Ansatz steht im Einklang mit dem Container-Schwachstellenmanagement und verbindet Scan-Ergebnisse mit Echtzeit-Erkennung. Im Laufe der Zeit fördert diese Synergie eine konsistente Abdeckung, selbst über Multi-Cloud-Umgebungen hinweg. Hyperautomatisierung und Reaktion auf Bedrohungen: Zu den Automatisierungsschritten kann das Neuerstellen von Images gehören, sobald kritische Probleme auftreten oder wenn Konfigurationsregeln geändert werden, um eine bestimmte CVE zu beheben. Wenn die Scandaten in Orchestrierungen integriert sind, erfolgen automatische Patch-Zyklen oder die Durchsetzung von Richtlinien in einem schnelleren Tempo. Diese Synergie garantiert, dass die kurzlebigen Container stets den geltenden Sicherheitsstandards entsprechen. Andererseits ist die KI-basierte Bedrohungserkennung in der Lage, Zero-Day- oder neue Exploits umgehend zu behandeln. Compliance und Geheimnisscan: Unternehmen benötigen kontinuierliche Compliance-Prüfungen. Die Plattform garantiert, dass die Container mit Frameworks wie PCI-DSS oder HIPAA konform sind. Darüber hinaus sucht das System nach weiteren versteckten Informationen im Image und blockiert versehentliche Offenlegungen. Die Suche nach Geheimnissen oder verdächtigen Umgebungsvariablen hindert Angreifer daran, sich lateral zu bewegen. Diese Abdeckung festigt einen umfassenden Ansatz für Cloud-Sicherheit Schwachstellenmanagement.
Fazit Das Scannen von Containern auf Schwachstellen ist in einer Umgebung, in der Microservices, kurzlebige Anwendungen und umfangreiche DevOps-Integrationen die neue Normalität sind, von entscheidender Bedeutung. Container sind zwar leichtgewichtig und hochgradig portabel, doch jede der kurzlebigen Instanzen oder gemeinsam genutzten Basisimages kann erhebliche Schwachstellen enthalten, wenn sie nicht ordnungsgemäß überwacht werden. Das parallele Scannen mit den DevOps-Pipelines, die Verwendung minimaler Basisimages und die Überwachung der kurzlebigen Cluster tragen zur Aufrechterhaltung der Stabilität bei. Sicherheitsaufgaben beschränken sich nicht auf die Suche nach älteren Bibliotheken, sondern umfassen auch die Suche nach Geheimnissen, Fehlkonfigurationen und neuen Schwachstellen. Auf diese Weise sorgen Unternehmen für die Sicherheit und einfache Skalierbarkeit ihrer Container-Ökosysteme, indem sie die Scan-Ergebnisse mit nachfolgenden Patch-Zyklen korrelieren. Darüber hinaus minimiert diese Kombination aus kontinuierlichem Scannen und Integration in die DevOps-Pipeline den Zeitrahmen, in dem Angreifer entdeckte Schwachstellen ausnutzen können. Im Laufe der Zeit verbessert ein systematischer Ansatz für das Scannen, Patchen und Verifizieren von Container-Images die Containersicherheit. Wenn Sie Ihr Container-Ökosystem weiter stärken möchten, können Sie eine Demo für die Singularity™ Cloud Security-Plattform von SentinelOne anfordern. Erfahren Sie, wie die Plattform KI-gestütztes Scannen, schnelle Bedrohungserkennung und automatisierte Patch-Routinen für ein optimiertes Container-Schwachstellenmanagement kombiniert. Die Integration dieser Funktionen schafft eine dynamische, kontinuierlich geschützte Umgebung, die geschäftliche Innovationen ermöglicht und gleichzeitig vor Bedrohungen schützt."
Sicherheit in privaten und öffentlichen Clouds: 10 wesentliche Unterschiede
Tauchen Sie ein in die Grundlagen der Sicherheit von privaten und öffentlichen Clouds, die wesentlichen Unterschiede und die wichtigsten Best Practices für moderne Unternehmen. Erfahren Sie, wie Sie Cloud-Bereitstellungen gegen sich ständig weiterentwickelnde Bedrohungen absichern können.
Die Sicherheit der Cloud-Infrastruktur ist die Praxis, die virtuelle und physische Infrastruktur von Cloud-Ressourcen durch den Einsatz von Tools, Technologien und Richtlinien vor externen und internen Bedrohungen zu schützen.
Mehr lesen
Sind Sie bereit, Ihre Sicherheitsabläufe zu revolutionieren?
Entdecken Sie, wie SentinelOne AI SIEM Ihr SOC in ein autonomes Kraftpaket verwandeln kann. Kontaktieren Sie uns noch heute für eine persönliche Demo und erleben Sie die Zukunft der Sicherheit in Aktion.