Zscaler Blog
Erhalten Sie die neuesten Zscaler Blog-Updates in Ihrem Posteingang
AbonnierenZscaler Data Protection Tour: Tipps zum Erkennen und Verhindern von Datenpannen
In dieser Blogreihe werden verschiedene Herausforderungen thematisiert, mit denen Unternehmen bei der Sicherung ihrer Daten konfrontiert sind. Insbesondere geht es um konkrete Anwendungsszenarien, die berücksichtigt werden müssen, damit der zuverlässige Schutz vertraulicher Daten gewährleistet ist. Zudem werden die Technologien vorgestellt, mit denen Zscaler Unternehmen bei der Bewältigung dieser Anwendungsfälle unterstützt, u. a. der Cloud Access Security Broker (CASB) sowie die Data Loss Prevention (DLP).
In jeder Folge dieser Reihe führt ein Kurzvideo in die jeweils relevanten Funktionen der Benutzeroberfläche der Zscaler-Lösung ein und veranschaulicht ihre Rolle im Rahmen eines ganzheitlichen unternehmensfähigen Sicherheitskonzepts.
In früheren Beiträgen ging es um Shadow-IT, riskante Dateifreigabe, SaaS-Fehlkonfigurationen und externe SaaS-Mandanten. Das heutige Thema lautet:
Datenverluste in der Cloud
Die Cloud birgt einerseits riesiges Potenzial zur Steigerung der Produktivität und Verbesserung der Zusammenarbeit, andererseits aber auch neue Risiken versehentlicher oder böswillig verursachter Datenverluste. SSL-Verschlüsselung kann dazu führen, dass Datenverluste im Cloud-Traffic zunächst unbemerkt bleiben, zumal Legacy-Appliances nicht über die Kapazitäten zur Untersuchung des gesamten verschlüsselten Traffics bei hohem Datenvolumen verfügen. Erschwerend hinzu kommt, dass Cloud-Ressourcen oft als Speicher für vertrauliche Daten dienen, die bereits zu einem früheren Zeitpunkt hochgeladen wurden. Sicherheitsmechanismen, die ursprünglich zum Schutz von SaaS-Anwendungen konzipiert wurden, lassen sich nicht granular genug konfigurieren, um diese Daten zuverlässig zu erkennen und zu schützen. Die Verwaltung unzusammenhängender Einzelprodukte oder Sicherheitsrichtlinien zur Bewältigung dieser Herausforderungen stellt keine Lösung, sondern lediglich zusätzlichen zeitlichen Aufwand für Administratoren dar.
Abhilfe schafft hier die DLP-Lösung von Zscaler, indem sie Administratoren ermöglicht, eine einzige Richtlinie zu konfigurieren, die konsistent in sämtlichen Kanälen zur Datenübertragung in der Cloud durchgesetzt wird. Die marktführende Cloud-Architektur von Zscaler ermöglicht eine Überprüfung des gesamten SSL-Traffics auch bei hohem Datenvolumen. Zur Klassifizierung von Daten im Ruhezustand kommen dabei API-Integrationen zum Einsatz. Vordefinierte und anpassbare DLP-Wörterbücher und -Engines erkennen sensible Daten und fällen Policy-Entscheidungen unter Berücksichtigung kontextbezogener Faktoren wie User-Gruppe, Gerät und Standort.
In der Demo ist Zscaler DLP in Aktion zu erleben.
Jetzt ansehen
▶War dieser Beitrag nützlich?
Erhalten Sie die neuesten Zscaler Blog-Updates in Ihrem Posteingang
Mit dem Absenden des Formulars stimmen Sie unserer Datenschutzrichtlinie zu.