엔드포인트 보호 플랫폼 부문 2025 Gartner® Magic Quadrant™의 리더. 5년 연속 선정.가트너® 매직 쿼드런트™의 리더보고서 읽기
보안 침해가 발생했나요?블로그
시작하기문의하기
Header Navigation - KR
  • 플랫폼
    플랫폼 개요
    • Singularity Platform
      통합 엔터프라이즈 보안에 오신 것을 환영합니다
    • 보안을 위한 AI
      AI 기반 보안 솔루션의 선두주자
    • AI 보안
      보안이 강화된 AI 도구, 앱 및 에이전트로 AI 도입을 가속화하십시오.
    • 작동 방식
      Singularity XDR의 차이점
    • Singularity Marketplace
      원클릭 통합으로 XDR의 강력한 기능 활용하기
    • 가격 및 패키지
      한눈에 보는 비교 및 안내
    Data & AI
    • Purple AI
      제너레이티브 AI를 통한 보안 운영 가속화
    • Singularity Hyperautomation
      손쉬운 보안 프로세스 자동화
    • AI-SIEM
      자율 SOC를 위한 AI SIEM
    • AI Data Pipelines
      AI SIEM 및 데이터 최적화를 위한 보안 데이터 파이프라인
    • Singularity Data Lake
      데이터 레이크에 의해 통합된 AI 기반
    • Singularity Data Lake for Log Analytics
      온프레미스, 클라우드 또는 하이브리드 환경에서 원활하게 데이터 수집
    Endpoint Security
    • Singularity Endpoint
      자율 예방, 탐지 및 대응
    • Singularity XDR
      기본 및 개방형 보호, 탐지 및 대응
    • Singularity RemoteOps Forensics
      규모에 맞는 포렌식 오케스트레이션
    • Singularity Threat Intelligence
      포괄적인 적 인텔리전스
    • Singularity Vulnerability Management
      S1 에이전트 미설치 단말 확인
    • Singularity Identity
      신원 확인을 위한 위협 탐지 및 대응
    Cloud Security
    • Singularity Cloud Security
      AI 기반 CNAPP으로 공격 차단하기
    • Singularity Cloud Native Security
      클라우드 및 개발 리소스를 보호하려면
    • Singularity Cloud Workload Security
      실시간 클라우드 워크로드 보호 플랫폼
    • Singularity Cloud Data Security
      AI 기반 위협 탐지
    • Singularity Cloud Security Posture Management
      클라우드 구성 오류 감지 및 수정
    AI 보호
    • Prompt Security
      기업 전반에서 AI 도구 보호
  • SentinelOne을 선택해야 하는 이유
    SentinelOne을 선택해야 하는 이유
    • SentinelOne을 선택해야 하는 이유
      미래를 위해 개발된 사이버 보안
    • 고객사
      세계 최고 기업들의 신뢰
    • 업계 내 명성
      전문가를 통해 테스트 및 검증 완료
    • SentinelOne 소개
      자율적인 사이버 보안 부문의 선도업체
    SentinelOne 비교
    • Arctic Wolf
    • Broadcom
    • CrowdStrike
    • Cybereason
    • Microsoft
    • Palo Alto Networks
    • Sophos
    • Splunk
    • Trellix
    • Trend Micro
    • Wiz
    업종
    • 에너지
    • 연방 정부
    • 금융
    • 보건 의료
    • 고등 교육
    • 초중등 교육
    • 제조
    • 소매
    • 주 및 지방 정부
  • 서비스
    관리형 서비스
    • 관리형 서비스 개요
      Wayfinder Threat Detection & Response
    • Threat Hunting
      세계적 수준의 전문성 및 위협 인텔리전스.
    • Managed Detection & Response
      전체 환경을 아우르는 24/7/365 전문 MDR.
    • Incident Readiness & Response
      DFIR, 침해 대응 준비 & 침해 평가.
    지원, 배포 및 상태 점검
    • 기술 계정 관리
      맞춤형 서비스를 통한 고객 성공
    • SentinelOne GO
      온보딩 가이드 및 배포 관련 자문
    • SentinelOne University
      실시간 및 주문형 교육
    • 서비스 개요
      끊김 없는 보안 운영을 위한 종합 솔루션
    • SentinelOne 커뮤니티
      커뮤니티 로그인
  • 파트너사
    SentinelOne 네트워크
    • MSSP 파트너
      SentinelOne으로 조기 성공 실현
    • Singularity Marketplace
      S1 기술력 확장
    • 사이버 위험 파트너
      전문가 대응 및 자문 팀에 협력 요청
    • 기술 제휴
      통합형 엔터프라이즈급 솔루션
    • SentinelOne for AWS
      전 세계 AWS 리전에서 호스팅
    • 채널 파트너
      협업을 통해 올바른 솔루션 제공
    • SentinelOne for Google Cloud
      통합되고 자율적인 보안으로 방어자에게 글로벌 규모의 우위를 제공합니다.
    프로그램 개요→
  • 리소스
    리소스 센터
    • 사례 연구
    • 데이터 시트
    • eBooks
    • 동영상
    • 웨비나
    • 백서
    • Events
    모든 리소스 보기→
    리소스 센터
    • 주요 기능
    • CISO/CIO용
    • 현장 스토리
    • ID
    • 클라우드
    • macOS
    • SentinelOne 블로그
    블로그→
    기술 리소스
    • SentinelLABS
    • 랜섬웨어 사례집
    • 사이버 보안 101
  • 회사 소개
    SentinelOne 소개
    • SentinelOne 소개
      사이버 보안 업계의 선도업체
    • SentinelLABS
      최신 위협 헌터를 위한 위협 연구
    • 채용
      최신 취업 기회
    • 보도 자료 및 뉴스
      회사 공지사항
    • 사이버 보안 블로그
      최신 사이버 보안 위협, 뉴스 등
    • FAQ
      자주 묻는 질문에 대한 답변 확인
    • 데이터 세트
      라이브 데이터 플랫폼
    • S 재단
      모두에게 더욱 안전한 미래 실현
    • S 벤처
      차세대 보안 및 데이터에 투자
시작하기문의하기
Background image for AI 시대의 PII 보안: 모범 사례
Cybersecurity 101/사이버 보안/PII 보안

AI 시대의 PII 보안: 모범 사례

크리덴셜 스터핑 및 딥페이크 등 AI 기반 위협으로부터 PII를 보호하세요. AI 환경에서 비용이 많이 드는 침해와 규제 처벌을 피하기 위한 필수 보안 실무를 학습하세요.

CS-101_Cybersecurity.svg
목차
개인 식별 정보(PII) 이해하기
사이버보안에서 PII 보안의 중요성
PII에 대한 주요 위험 및 위협
PII 보호의 핵심 원칙
AI가 PII 사이버보안 조치에 미친 영향
PII를 노리는 AI 기반 공격 기법
AI 시스템 내 PII 위협
AI에 의한 PII 범주 확장
PII 컴플라이언스 고려사항
GDPR 요구사항
CCPA ADMT 요구사항
HIPAA 요구사항
일반적인 PII 보안 실수 및 과제
AI 환경에서 PII 보안을 위한 모범 사례
NIST Privacy Framework 1.1과 Cybersecurity Framework 2.0 통합
SANS Critical AI Security Guidelines 통합
제로 트러스트로 모든 AI 시스템 요청 검증
AI 구성요소 및 학습 데이터의 공급망 보안 대응
클라우드 및 하이브리드 환경에서의 PII 보안
SentinelOne으로 PII 데이터 보호

연관 콘텐츠

  • 세션 고정이란 무엇인가? 공격자가 사용자 세션을 탈취하는 방법
  • 윤리적 해커: 방법론, 도구 및 경력 경로 가이드
  • 적대적 공격이란 무엇인가? 위협 및 방어
  • 공공 부문의 사이버 보안: 위험, 모범 사례 및 프레임워크
작성자: SentinelOne | 검토자: Joe Coletta
업데이트됨: January 12, 2026

개인 식별 정보(PII) 이해하기

개인 식별 정보(PII)는 특정 개인을 식별하거나 다른 정보와 결합하여 누군가를 식별할 수 있는 모든 데이터를 의미합니다. PII는 개인 식별 정보의 약자로, 여러분을 다른 사람과 구별하는 데이터 요소입니다. 이름, 사회보장번호, 이메일 주소, 전화번호, 지문과 같은 생체 정보 모두 PII에 해당합니다.

모든 관할권과 산업에서 PII를 일관되게 정의하는 단일 표준은 존재하지 않습니다. 보호해야 할 PII는 귀하의 운영을 규제하는 관할권과 시스템이 처리하는 데이터 유형에 따라 달라집니다. 운영에 적용되는 가장 엄격한 PII 정의를 적용해야 합니다. 

NIST는 PII를 이름, 사회보장번호, 생체 정보 등 단독 또는 다른 개인 정보와 결합하여 신원을 구별하거나 추적할 수 있는 정보로 정의합니다. GDPR 제4조(1)는 이를 "식별되었거나 식별 가능한 자연인과 관련된 모든 정보"로 확장하며, IP 주소, 쿠키, 디바이스 지문과 같은 온라인 식별자를 명시적으로 포함합니다. CCPA §1798.140은 가장 세분화된 접근 방식을 취하며, 생체 정보를 "키 입력 패턴 또는 리듬, 보행 패턴 또는 리듬, 그리고 식별 정보를 포함하는 수면, 건강, 운동 데이터"로 정의합니다.

AI는 PII의 범위를 근본적으로 확장시켰습니다. 귀하의 사기 방지 시스템이 분석하는 키 입력 역학? CCPA 기준의 생체 정보입니다. 접근 제어 플랫폼이 생성하는 행동 위험 점수? CCPA §1798.140(o)(1)(K) 기준의 개인 정보로, AI가 생성한 추론을 소비자 선호, 심리적 경향, 행동을 반영하는 프로필로서 개인 정보로 독특하게 분류합니다. 얼굴 인식 정보, 생체 템플릿 등 새로운 PII 범주가 기존 식별자와는 다르게 보호되어야 합니다.

PII Security - Featured Image | SentinelOne

사이버보안에서 PII 보안의 중요성

미국 조직은 평균 936만 달러의 침해 비용에 직면합니다. 이는 전 세계 평균 488만 달러의 거의 두 배에 달합니다. 직접적인 비용을 넘어, PII 유출은 재정적·운영적 피해를 가중시키는 승수 효과를 만듭니다.

미국 조직은 데이터 침해에 대해 전 세계 평균의 194%를 지불합니다: 948만 달러 대 488만 달러(전 세계). 이 수치는 2024년에 전년 대비 10% 상승하여 팬데믹 이후 가장 큰 증가폭을 기록했습니다.

대응이 지연될수록 비용은 기하급수적으로 증가합니다. 200일을 초과하여 식별 및 차단된 침해는 546만 달러의 비용이 발생할 수 있습니다. 공격자가 환경 내에 오래 머물수록 비용이 증가합니다. 규제 감시가 강화되고, 고객 이탈이 가속화되며, 운영 중단이 누적됩니다.

 2024 Verizon Data Breach Investigations Report는 30,458건의 보안 사고와 10,626건의 확인된 침해를 분석했으며, 이는 보고된 사고가 두 배로 증가한 기록적인 데이터셋입니다. PII가 유출된 침해는 예외적인 사례가 아니었습니다. 모든 주요 산업 부문에서 지배적인 패턴을 따랐습니다.

이러한 침해 통계는 과거의 위협 환경을 측정한 것입니다. AI는 방어 대상과 PII의 정의 자체를 근본적으로 변화시켰습니다.

PII에 대한 주요 위험 및 위협

기업 환경 전반에서 PII를 노리는 세 가지 주요 공격 벡터가 있습니다: 

  1. 무단 접근이 외부 침해의 대부분을 차지합니다. 공격자는 취약한 인증, 패치되지 않은 취약점, 잘못 구성된 시스템을 악용하여 PII 데이터베이스에 접근합니다. 네트워크 내부에 진입하면, 공격자는 횡적 이동 기법을 통해 권한을 상승시키고 민감한 데이터 저장소에 접근할 수 있습니다. 대부분의 침해는 인적 요소에서 비롯됩니다: 도난된 자격 증명, 피싱, 접근 권한 오용 등입니다.
  2. 내부자 위협은 조직 내 신뢰받는 위치에서 발생합니다. 합법적으로 접근 권한이 있는 직원, 계약자, 비즈니스 파트너가 의도적으로 PII를 유출하거나 부주의로 데이터를 노출할 수 있습니다. 악의적인 내부자는 보안 통제를 이해하고 가치 있는 데이터의 위치를 알기 때문에 특히 비용이 많이 드는 침해를 유발합니다.
  3. 서드파티 벤더는 직접 통제 범위를 넘어선 확장된 공격 표면을 만듭니다. 클라우드 제공업체, 결제 처리업체, 분석 플랫폼과 PII를 공유할 때, 해당 업체의 보안 통제에 의존하게 됩니다. 공급망 침해로 벤더 시스템이 타깃이 되면, 신뢰받는 비즈니스 관계를 통해 공격자가 귀하의 PII에 간접적으로 접근할 수 있습니다.

이러한 기본 위협을 이해하면 각 공격 벡터를 체계적으로 해결하는 핵심 보호 원칙을 구현하는 데 필요한 맥락이 마련됩니다.

PII 보호의 핵심 원칙

다섯 가지 기본 원칙은 특정 컴플라이언스 프레임워크나 산업 분야와 관계없이 효과적인 PII 보안을 위한 기준을 제시합니다.

  1. 데이터 최소화: 정의된 비즈니스 목적에 필요한 PII만 수집합니다. 데이터를 저장하지 않으면 공격자가 탈취할 수 없습니다. 수집 관행을 분기별로 검토하고 불필요한 PII는 삭제합니다. 최소화는 노출을 제한하여 프라이버시 및 보안 위험을 모두 줄입니다.
  2. 목적 제한: PII는 수집 시 공개한 특정 목적에만 사용합니다. 원래 의도를 넘어 PII를 처리하려면 명시적 동의 또는 정당한 근거가 필요합니다. 모든 처리 목적을 문서화하고 시스템 접근을 이에 맞게 제한합니다.
  3. 보관 제한: 합법적 비즈니스 또는 법적 요구에 필요한 기간만 PII를 보관합니다. 보존 일정에 따라 자동 삭제 정책을 구현합니다. 개인 데이터는 의도된 목적에 필요한 기간을 초과하여 식별 가능한 형태로 보관하지 않습니다.
  4. 무결성 및 기밀성:적절한 기술적·조직적 조치를 통해 PII를 보호합니다. 암호화, 접근 통제, 보안 모니터링은 무단 접근 및 변경을 방지합니다. 이러한 통제는 우발적 손실과 고의적 공격 모두를 다루어야 합니다.
  5. 책임성:문서화, 감사 추적, 거버넌스 프로세스를 통해 컴플라이언스를 입증합니다. 통제가 존재한다고 주장하는 것만으로는 충분하지 않으며, 실제로 작동함을 증명해야 합니다.

이 원칙들은 AI 특화 통제가 구축되는 기준선으로, 전통적 및 신흥 PII 보안 과제를 모두 해결합니다.

AI가 PII 사이버보안 조치에 미친 영향

AI는 단순히 공격 속도를 높인 것에 그치지 않았습니다. 기존 방어로는 대응할 수 없는 방식으로 시스템을 타깃으로 하는 완전히 새로운 공격 방법을 만들고, 개인 식별 정보의 범위를 확장했습니다.

PII를 노리는 AI 기반 공격 기법

2025년 19%의 크리덴셜 스터핑 비율은 공격자가 로그인 시스템을 대상으로 최적화된 인증 시도를 지속적으로 수행함을 의미합니다. 머신러닝 알고리즘은 이전 침해에서 수집된 자격 증명 조합을 테스트하며, 시스템의 응답에 따라 패턴을 최적화합니다. 소규모 조직도 12%의 공격률을 경험하며, 크리덴셜 스터핑이 성공하면 경계 보안을 완전히 우회하여 PII 데이터베이스에 인증된 접근을 제공합니다.

영국 엔지니어링 기업 Arup은 2024년 CFO를 사칭한 딥페이크 영상 통화로 2,500만 달러를 잃었습니다. 보안 인식 교육에서는 이상 요청을 전화로 확인하라고 가르쳤지만, 그 전화 자체가 합성된 경우에는 어떻게 해야 할까요?

 FBI는 2024년 859,532건의 신고에서 166억 달러의 손실을 기록했으며, 이는 2023년 대비 33% 증가한 수치입니다. 연방 기관은 범죄자가 AI를 이용해 매우 설득력 있는 음성·영상 메시지와 이메일을 제작한다고 경고했습니다. Verizon의 연구에 따르면 피싱 사고의 60%가 신원 기반 공격이며, 사용자의 50%가 피싱 이메일을 1시간 이내에 엽니다.

AI 시스템 내 PII 위협

데이터 포이즈닝은 AI 시스템을 직접적으로 위협합니다. 손상된 데이터셋으로 모델을 학습시키면, 공격자가 AI의 PII 분류 및 접근 제어 결정을 조작할 수 있습니다.  NSA, CISA, FBI의 2025년 5월 공동 지침에 따르면, 공격자는 악의적으로 수정된 학습 데이터를 AI 시스템에 대한 주요 공격 방법으로 식별합니다. 귀하의 AI가 공격자가 통제하는 예시로부터 학습할 수 있습니다.

이러한 공격 방법은 PII의 범위가 근본적으로 확장된 현실과 맞물려 있습니다.

AI에 의한 PII 범주 확장

DHS의 2025년 1월 업데이트는 얼굴 인식 및 생체 정보 캡처 기술의 적극적 도입과 강화된 거버넌스 프레임워크를 문서화합니다. 조직은 AI 시스템이 새로운 범주(얼굴 인식 정보, 생체 템플릿, 행동 패턴 등)를 생성함에 따라 PII 데이터와 비개인 정보를 분류해야 하며, 이름·사회보장번호 조합과는 다른 보안 통제가 필요합니다.

CCPA는 키 입력 역학, 보행 분석, 음성 프린트, 웨어러블 기기의 건강 데이터를 명시적으로 규제합니다. 사기 방지 시스템이 사용자의 타이핑 방식을 분석하거나, 엔드포인트 보안이 마우스 움직임을 모니터링하거나, 물리적 보안이 보행 패턴을 추적한다면, 이는 캘리포니아 법상 생체 PII를 처리하는 것입니다.

캘리포니아의 AI 기반 추론 규제는 개인 정보의 정의를 확장합니다. 추천 엔진이 행동 프로필을 생성하거나, 위험 점수 플랫폼이 사용자 행동을 예측하거나, 분석 시스템이 심리적 특성을 추론할 때, 이러한 알고리즘 산출물은  California Civil Code §1798.140(o)(1)(K)에 따라 개인 정보에 해당합니다. 원래 수집한 데이터뿐 아니라 모델이 생성한 예측에 대해서도 책임이 있습니다.

AI 기반 공격에 대응하려면, 관할권과 산업에 따라 크게 달라지는 컴플라이언스 의무를 이해해야 합니다.

PII 컴플라이언스 고려사항

컴플라이언스는 단순히 체크리스트를 채우는 것이 아닙니다. 규제 기관이 침해를 조사할 때 책임성을 입증하는 것이며, 그 재정적 위험은 상당합니다. 각 관할권은 PII를 다르게 정의하므로, 글로벌 운영 조직에는 복잡한 의무가 발생합니다.

GDPR 요구사항

제32조는 가명처리, 암호화, 지속적인 기밀성·무결성·가용성·복원력, 사고 후 신속한 가용성 및 접근성 복구 능력을 요구합니다.  정보주체 접근 요청에 1개월 이내에 처리 목적, 데이터 범주, 수신자, 보관 기간을 제공해야 합니다.

EDPB 의견 28/2024는 AI 모델 배포가 컨트롤러 의무를 발생시킨다고 명시합니다. 개인 데이터를 처리하는 AI 시스템을 배포하기 전에, 벤더가 합법적으로 모델을 개발했는지 확인해야 합니다. AI 벤더의 학습 데이터 소스를 몰랐다고 주장할 수 없습니다. 정당한 이익에 근거해 AI를 배포할 경우, 필요성, 균형성, 보호조치를 문서화하는 3단계 정당한 이익 평가를 수행해야 합니다.

AI 시스템을 통해 특별 범주의 개인 데이터를 처리할 경우,  GDPR 제9조 예외가 필요합니다.  유럽의회 분석 및 EDPB 지침에 따르면, 선의의 목적이라도 제9조의 제한된 근거 없이 민감한 개인 데이터를 편향 분석에 사용할 수 없습니다.

CCPA ADMT 요구사항

귀하는  자동화 의사결정 기술(ADMT) 투명성 요구사항을 이행할 시간이 12개월도 남지 않았습니다. 캘리포니아 기업은 ADMT 논리, 개별 소비자에 대한 예상 결과 설명, 실질적인 옵트아웃 메커니즘에 대한 의미 있는 정보를 제공해야 합니다. 이 요구사항은 2026년 1월 1일부터 적용됩니다. 사이버보안 서비스 감사 및 필수 위험 평가도 동시에 시행됩니다.

 고의적 위반 또는 미성년자에 대한 위반 시 건당 7,988달러의 벌금이 부과되어, 대규모 운영의 경우 비컴플라이언스가 8자리 수의 위험으로 이어질 수 있습니다.

HIPAA 요구사항

온라인 추적 기술에 대한 HHS 지침은 사용자 인증 웹페이지에서 추적 기술을 사용할 때 HIPAA 프라이버시 규칙을 준수하여 PHI를 사용 및 공개해야 함을 요구합니다. 또한, PHI를 추적 기술 벤더에 공개할 경우, 해당 벤더와 비즈니스 제휴 계약(BAA)을 체결해야 합니다. 웹사이트나 앱을 통해 수집된 모든 ePHI는 보안 규칙 보호가 필요합니다.

PHI를 추적 기술 벤더에 공개하기 전에 비즈니스 제휴 계약이 필요합니다. 분석 플랫폼, 예약 시스템, 마케팅 자동화 도구가 PHI를 처리할 경우 모두 BAA가 필요합니다. 서드파티 추적을 사용하는 예약 시스템이 PHI를 자동 전송한다면 BAA가 필요합니다. 비즈니스 제휴 보안 실패는 6자리 수의 벌금으로 이어질 수 있습니다.

45 CFR § 164.308(a)(1)(ii)(A)에 따른 위험 분석은 생성, 수신, 유지, 전송하는 모든 e-PHI를 포함해야 합니다. HHS 지침에 따르면, 이 분석은 일회성 평가가 아니라 지속적인 보안 관리 프로세스의 일부로 정기적으로 검토 및 업데이트되어야 합니다.

규제 프레임워크는 보호해야 할 대상을 알려줍니다. 일반적인 실수를 이해하면 컴플라이언스 실패와 침해로 이어지는 함정을 피할 수 있습니다.

일반적인 PII 보안 실수 및 과제

AI 시스템에서 PII를 노출시키고 규제 책임을 유발하는 다음과 같은 치명적인 실수를 피해야 합니다.

  • 프롬프트 인젝션 방어 없이 AI 시스템을 배포하지 마십시오. 프롬프트 인젝션 공격은 공격자가 정교하게 설계한 입력을 통해 AI 시스템에서 PII를 추출할 수 있기 때문에 OWASP LLM 애플리케이션 Top 10에 포함되어 있습니다. AI 챗봇이 사용자 쿼리, 고객 지원 티켓, 외부 콘텐츠를 처리할 때, 해당 콘텐츠에 삽입된 악의적 명령이 모델을 속여 민감한 데이터를 노출시킬 수 있습니다.  Prompt Security와 같은 서비스는 애플리케이션 사용 사례에 맞춘 프롬프트 인젝션 공격 탐지를 제공합니다. 이는 PII 추출을 노리는 새로운 공격 방법에 대응하여 지속적으로 진화합니다.
  • AI 학습 데이터의 비식별화가 PII를 보호한다고 가정하지 마십시오. "익명화"된 데이터셋으로 학습된 모델은 생성된 출력이나 멤버십 추론 공격을 통해 식별 정보를 유출할 수 있습니다.  EDPB 의견 28/2024에 따르면, AI 모델을 배포하는 컨트롤러는 벤더가 불법적으로 개인 데이터를 처리하여 모델을 개발하지 않았음을 확인해야 합니다.
  • AI가 생성한 추론을 비개인 데이터로 간주하지 마십시오. 캘리포니아는 개인 정보에서 파생된 예측을 명시적으로 규제합니다. California Civil Code §1798.140(o)(1)(K)에 따르면, AI가 생성한 추론(소비자 선호, 심리적 경향, 행동을 반영하는 프로필 포함)은 독특하게 개인 정보로 분류됩니다.
  • 학습 데이터 컴플라이언스 검증 없이 AI 모델을 배포하지 마십시오. EDPB 의견 28/2024는 컨트롤러가 벤더가 합법적으로 AI 모델을 개발했는지 확인하고, 배포 전 GDPR 제5조(1)(a) 준수를 입증해야 함을 명시합니다. "벤더로부터 모델을 구매했다"는 주장만으로는 책임성 의무를 충족할 수 없습니다.
  • 시스템을 노리는 19%의 크리덴셜 스터핑 비율을 무시하지 마십시오. 다중 인증(MFA)은 이 공격을 즉시 차단합니다. 크리덴셜 스터핑이 성공하면 공격자는 PII 데이터베이스에 인증된 접근을 얻어 평균 948만 달러의 침해 비용을 유발합니다.
  • AI 서비스에 대한 비즈니스 제휴 계약 업데이트를 소홀히 하지 마십시오. 분석 플랫폼이 PHI를 규칙 기반 분석과 다르게 처리하는 AI 기능을 추가했다면, 기존 BAA는 새로운 처리 활동을 포함하지 않습니다. EDPB 의견 28/2024에 따르면, 컨트롤러는 벤더가 불법적으로 AI 모델을 개발하지 않았음을 확인해야 합니다.
  • 사기 분석에서 행동 생체 정보를 간과하지 마십시오. 사기 방지 플랫폼이 타이핑 패턴, 마우스 움직임, 디바이스 상호작용 리듬을 분석한다면, 이는 CCPA 기준의 생체 정보로서 특정 고지, 수집 제한, 보관 정책이 필요합니다.
  • GDPR 정당한 이익이 AI 처리에 자동 적용된다고 가정하지 마십시오. 정당한 이익에 근거해 AI 모델을 배포하는 컨트롤러는 필요성, 균형성, 적절한 보호조치를 입증하는 3단계 평가를 수행해야 합니다.
  • 완전한 로깅 없이 AI 시스템을 운영하지 마십시오. 규제 기관이 침해를 조사할 때, AI 시스템이 접근·처리·출력한 내역을 입증할 증거가 필요합니다. "모델이 그 결정을 내렸다"는 주장만으로는 감사 추적이 없으면 책임성 요건을 충족할 수 없습니다.

피해야 할 사항을 아는 것만으로는 충분하지 않습니다. 다음 섹션에서는 AI 라이프사이클 전반에 걸쳐 PII를 보호하는 통합 기술 통제 구현 방법을 안내합니다.

AI 환경에서 PII 보안을 위한 모범 사례

NIST Privacy Framework 1.1, NIST Cybersecurity Framework 2.0, CISA AI Roadmap, SANS Critical AI Security Guidelines, 관할권별 컴플라이언스(GDPR/CCPA/HIPAA) 등 다섯 가지 프레임워크를 동시에 통합하십시오. 기술적 통제와 지속적 모니터링이 침해 생존 여부를 결정합니다.

NIST Privacy Framework 1.1과 Cybersecurity Framework 2.0 통합

NIST Privacy Framework 1.1은 PII 보호를 위해 설계된 다섯 가지 핵심 기능을 제공합니다:

  • IDENTIFY-P: PII를 처리하는 모든 AI 시스템을 인벤토리화하고, 수집부터 폐기까지 데이터 흐름을 문서화하며, 서드파티 프로세서를 포함한 비즈니스 맥락을 매핑합니다. NIST Privacy Framework 1.1에 따라, 위험 평가는 모델 포이즈닝, 학습 데이터 손상, 추론 유출, 적대적 공격 등 AI 특화 위협을 반영해야 합니다.
  • GOVERN-P: 사이버보안 위험 관리와 통합된 프라이버시 거버넌스를 구축합니다. AI 모델 감독을 포함한 역할을 정의하고, AI 배포 전 책임성 평가를 수행합니다. 정책에는 AI 학습 데이터 소싱, 서드파티 모델 평가, 알고리즘 의사결정 검토, 공급망 보안이 포함되어야 합니다.
  • CONTROL-P:AI 운영에서 PII 노출을 최소화하기 위해 분리된 처리를 구현합니다. 가능하다면 학습에 비식별화 데이터를 사용합니다. 모델 학습, 추론, 보관을 별도로 다루는 데이터 라이프사이클 정책을 시행합니다.
  • COMMUNICATE-P:데이터 주체에게 AI 처리에 대한 투명성 메커니즘을 제공합니다. CCPA의 ADMT 요구사항(2026년 1월 1일 시행)은 의사결정 논리, 예상 결과 설명, 옵트아웃 메커니즘에 대한 의미 있는 정보를 의무화합니다.
  • PROTECT-P:AI 인프라에 맞춘 신원 관리, 인증, 접근 통제, 암호화, 플랫폼 보안 통제를 배포합니다. 여기에는 모델 무결성 검증, 모델 탈취 및 리버스 엔지니어링 방지, 버전 관리 및 무결성 검사, 배포 접근 통제 및 역할 분리가 포함됩니다.
  • GOVERN, NIST CSF 2.0의 여섯 번째 기능은 조직 차원의 사이버보안 위험 관리를 제공합니다.  NIST 발표에 따르면, Privacy Framework 1.1은 Cybersecurity Framework 2.0과 직접 통합할 수 있도록 설계되어, 두 프레임워크를 병행 적용할 수 있습니다.

SANS Critical AI Security Guidelines 통합

SANS는 AI 시스템을 위한 여섯 가지 운영 통제 범주를 제공합니다. 보호해야 할 PII 데이터는 무엇입니까? 이 통제는 AI 라이프사이클 전반에 걸쳐 이를 식별하고 보호하는 데 도움이 됩니다:

  1. 입력 검증 및 정제:프롬프트 인젝션, 데이터 포이즈닝, 적대적 입력 등 PII 추출을 유발할 수 있는 공격을 방지합니다.
  2. 모델 보안:모델 변조, 탈취, 무단 접근을 방지하고, 모델 가중치와 아키텍처를 보호합니다. 이는 가중치, 아키텍처, 학습 파이프라인을 변조 및 탈취로부터 보호하는 것을 의미합니다. NSA, CISA, FBI 공동 지침에 따르면, 공격자가 모델을 탈취하면 학습 데이터를 리버스 엔지니어링하여 모델 파라미터에 내장된 PII를 추출할 수 있습니다. 버전 관리 및 무결성 검사는 무단 모델 변경으로 인한 PII 보호 기능 해제를 방지합니다.
  3. 출력 통제:AI 시스템이 사용자에게 반환하는 출력을 검증 및 모니터링합니다. 모델은 때때로 학습 데이터를 생성된 출력으로 유출할 수 있습니다. SANS Critical AI Security Guidelines v1.1에 따르면, 출력 통제는 AI 생성 콘텐츠를 검증 및 모니터링하여 PII 유출을 방지합니다.
  4. 접근 통제:역할 기반 접근 통제와 강력한 인증이 필요합니다. AI 플랫폼은 학습 데이터 접근, 모델 배포, 추론 쿼리, 관리 기능에 대해 별도의 권한이 필요합니다. NIST Privacy Framework 1.1에 따르면, 역할 분리는 단일 계정 침해로 모든 AI 운영이 노출되는 것을 방지합니다.
  5. 데이터 보호:AI 라이프사이클(수집, 전처리, 학습, 추론, 저장) 전반에 걸쳐 학습 데이터와 운영 데이터를 보호하며, 이는 기존 데이터베이스 보안 이상의 통제가 필요합니다. 학습 데이터 저장소는 저장, 전송, 처리 중 암호화가 필요합니다. 추론 데이터도 "익명화"된 입력이라도 재식별될 수 있으므로 동일한 보호가 필요합니다.
  6. 모니터링 및 로깅:AI 입력, 출력, 의사결정의 완전한 로깅은 보안 모니터링 및 컴플라이언스 감사를 가능하게 합니다. 기록하지 않은 것은 조사할 수 없습니다. SIEM은 AI 플랫폼의 텔레메트리를 기존 보안 이벤트와 함께 수집해야 합니다.

제로 트러스트로 모든 AI 시스템 요청 검증

제로 트러스트 아키텍처는 AI 시스템에서 PII를 보호하기 위한 핵심 보안 원칙입니다. CISA의 AI 보안 로드맵은 AI 시스템이 모든 소프트웨어 시스템과 동일한 Secure by Design 원칙이 적용되어야 하며, 배포 전 보안 평가, 운영 중 지속적 모니터링, AI 구성요소 및 학습 데이터의 공급망 보안이 필요함을 강조합니다.

NIST Cybersecurity Framework 2.0은 PROTECT(PR) 기능을 통해 제로 트러스트 원칙을 통합하며, 강력한 신원 및 인증/접근 통제 메커니즘을 요구합니다. NIST Privacy Framework 1.1과 결합하면, 조직은 PII를 처리하는 AI 시스템에 특화된 신원 관리 및 인증 통제를 구현해야 합니다.

NSA, CISA, FBI의 AI 데이터 보안 공동 지침은 악의적 행위자가 손상된 자격 증명과 공급망 취약점을 이용해 AI 학습 파이프라인 및 추론 시스템에 접근한다고 강조합니다.

네트워크 위치와 관계없이 모든 접근 요청을 검증해야 합니다. AI 학습 인프라는 기업 네트워크의 요청도 기본적으로 신뢰해서는 안 됩니다. AI 워크로드를 실행하는 서비스 계정에 최소 권한 접근을 적용하십시오. 서로 다른 PII 범주를 처리하는 AI 시스템은 별도의 신뢰 구역으로 분리하십시오. 크리덴셜 스터핑 공격을 차단하기 위해 다중 인증을 배포하십시오.

배포 시점뿐 아니라 운영 라이프사이클 전반에 걸쳐 지속적으로 모니터링해야 합니다. AI 시스템의 동작은 시간이 지남에 따라 변화합니다: 모델 노후화, 데이터 분포 변화, 적대적 적응 등으로 위험 프로필이 달라집니다. 대응 시간은 수주에서 수분 단위로 단축됩니다. NIST Cybersecurity Framework 2.0에 따르면, 지속적 모니터링(DE.CM)과 이상 이벤트 분석(DE.AE)은 필수 기능입니다.

AI 구성요소 및 학습 데이터의 공급망 보안 대응

서드파티 AI 서비스는 직접 통제하는 인프라를 넘어 공격 표면을 확장합니다.  NSA, CISA, FBI의 2025년 5월 공동 지침에 따르면, AI 학습 데이터 공급망은 공격자가 악의적으로 수정된 "포이즈닝" 데이터를 학습 세트에 주입하는 주요 공격 방법입니다.

 CISA의 AI 보안 로드맵이 요구하는 대로, AI 시스템 배포 전 보안 평가를 실시하십시오. 벤더 보안 설문에는 학습 데이터 출처, 모델 개발 환경, 모델 아티팩트 보호 통제에 대한 질문이 포함되어야 합니다. 데이터셋, 사전 학습 모델, API, 추론 플랫폼 등 전체 AI 공급망을 문서화하십시오.

AI 벤더가 PII를 처리하기 전에 비즈니스 제휴 계약 또는 데이터 처리 계약을 체결하십시오. 계약에는 데이터 처리 요구사항, 보안 통제, 사고 통지 기한, 감사 권한이 명시되어야 합니다.  GDPR 제28조에 따라, 프로세서 계약에는 처리 대상, 기간, 성격 및 목적, 개인 데이터 유형, 데이터 주체 범주, 컨트롤러의 의무와 권리가 포함되어야 합니다. HIPAA BAA는 보안 규칙 및 프라이버시 규칙 요구사항을 다루어야 합니다. CCPA 서비스 제공자 계약은 적절한 조항과 데이터 브로커 등록 상태 확인이 필요합니다.

이러한 기술적 통제와 프레임워크는 PII 보호의 기반을 마련하지만, 구현에는 AI 기반 위협 속도에 맞는 자율적 역량이 필요합니다.

클라우드 및 하이브리드 환경에서의 PII 보안

클라우드 및 하이브리드 인프라는 기존 경계 방어로는 해결할 수 없는 고유의 PII 보안 과제를 야기합니다. 공유 책임 모델, 동적 자원 할당, 멀티테넌트 아키텍처는 특화된 통제를 요구합니다.

  • 공유 책임의 공백:클라우드 제공업체는 인프라를 보호하지만, 데이터 보호 책임은 귀하에게 있습니다. 잘못 구성된 저장소, 과도하게 허용된 접근 정책, 암호화되지 않은 데이터 저장소는 PII를 무단 접근에 노출시킵니다. 클라우드 기반 침해는 대개 제공업체 취약점이 아니라 구성 오류에서 비롯됩니다.
  • 데이터 소재지 및 주권: 여러 클라우드 지역에 저장된 PII는 관할권별 규정을 준수해야 합니다. 일부 프레임워크는 특정 지리적 경계를 벗어난 전송을 적절한 보호조치 없이 제한합니다. 규정은 데이터 처리 위치와 무관하게 거주자에게 적용됩니다. 클라우드 지역 간 데이터 흐름을 매핑하고, 필요 시 로컬라이제이션 통제를 구현하십시오.
  • 컨테이너 및 서버리스 보안:PII를 처리하는 일시적 컴퓨트 리소스는 기존 엔드포인트 보안 이상의 런타임 보호가 필요합니다. 컨테이너는 베이스 이미지의 취약점을 상속받습니다. 서버리스 함수는 네트워크 경계를 우회하는 API 호출로 PII에 접근합니다. 빌드부터 런타임까지 워크로드를 보호하는 클라우드 네이티브 애플리케이션 보호 플랫폼을 배포하십시오.
  • 환경 간 가시성:하이브리드 배포는 온프레미스와 클라우드 시스템 간에 PII 처리를 분할합니다. 환경 경계를 넘나드는 공격을 탐지하려면 통합 모니터링이 필요하며, 클라우드와 온프레미스 시스템 간 데이터 이동이 포함된 침해 조사에 필수적입니다.

수동 모니터링으로는 동적 클라우드 운영 속도를 따라갈 수 없으므로, 자율적 클라우드 워크로드 보안이 필수적입니다.

SentinelOne으로 PII 데이터 보호

귀하의 PII 보안에는 AI 최적화 공격 속도에 대응하는 자율적 대응이 필요합니다. 수동 상관 분석과 시그니처 기반 탐지로는 현재 시스템을 노리는 높은 크리덴셜 스터핑 비율이나 딥페이크 사회공학 공격을 막을 수 없습니다.

Singularity Platform의 행동 기반 AI는 시그니처 기반 시스템이 놓치는 비정상 인증 패턴을 식별하여 크리덴셜 스터핑을 탐지하고, NIST CSF 2.0이 요구하는 대로 AI 시스템 전반에 걸쳐 지속적 모니터링을 제공합니다. 이 플랫폼은 NIST의 모니터링 요구사항을 실시간으로 실행하여, 정상 행동 패턴에서 벗어나는 AI 기반 공격을 즉시 탐지합니다.

Storyline은 공격자 행동을 특정 PII 레코드와 연결하는 완전한 맥락의 포렌식 품질 조사 데이터를 자동으로 생성합니다. 수동 로그 상관 분석 없이도 NIST Privacy Framework 1.1이 요구하는 완전한 감사 추적을 제공합니다. 규제 기관이 침해를 조사할 때, Storyline은 AI 시스템이 접근·처리·출력한 내역을 정확히 입증하는 증거를 제공하여 GDPR 제5조(1)(a) 및 CCPA §1798.185의 책임성 요건을 충족합니다.

Singularity Cloud Security는 통합 DSPM을 포함하여, 클라우드 오브젝트 데이터스토어 및 관계형 데이터스토어 내 노출을 자동으로 탐지, 분류, 우선순위화하며, GDPR, SOC2, NIST 800-122 등 PII 보호 규정에 부합합니다. DSPM의 지속적 보호로, SSN, CCN, HIPAA 등 민감 데이터가 어디에 저장되어 있고 공격자에게 노출되어 있는지 항상 최신 상태로 파악할 수 있습니다. 

Purple AI는 일상적인 위협 평가를 처리하여 분석가가 PII 유출과 관련된 복잡한 조사에 집중할 수 있도록 하며, NIST CSF 2.0의 RESPOND 기능 요구사항을 직접 실행합니다. AI는 경고를 자율적으로 평가하고, 심각도별로 사고를 분류하며, 인간 전문성이 필요한 경우에만 에스컬레이션합니다. 귀하의 팀은 오탐이 아닌 실제 PII 침해를 조사하게 됩니다.

데모 요청을 통해 SentinelOne이 AI 시대에 PII 데이터를 어떻게 보호하는지 확인하십시오.

싱귤래리티™ 플랫폼

실시간 감지, 머신 속도 대응, 전체 디지털 환경에 대한 종합적인 가시성을 통해 보안 태세를 강화하세요.

데모 신청하기

자주 묻는 질문

PII는 개인 식별 정보를 의미합니다. 이는 단독 또는 결합하여 개인을 식별할 수 있는 데이터를 포함합니다. NIST는 PII를 이름, 주민등록번호, 생체 정보 등 신원을 구별하는 정보로 정의합니다.

GDPR은 온라인 식별자(IP 주소, 쿠키, 디바이스 지문)까지 이를 확장합니다. CCPA는 키 입력 패턴, 보행 분석, 심리적 특성에 대한 AI 기반 추론까지 포함합니다. 관할 구역에 따라 가장 제한적인 정의를 적용하십시오.

PII 보안은 개인 식별 정보를 무단 액세스, 공개, 변경 또는 파기로부터 보호하는 기술적 통제, 정책 및 절차를 포함합니다. 

여기에는 암호화, 접근 제어, 모니터링, 사고 대응, 그리고 수집, 저장, 처리, 폐기에 걸친 데이터 보호를 규제하는 규제 준수가 포함됩니다.

이상 접근 패턴, 무단 데이터 전송, 시스템 침해를 탐지하기 위해 지속적인 모니터링을 배포합니다. 유출이 발생하면 즉시 영향을 받은 시스템을 격리하고, 침해된 PII의 범위를 평가하며, 요구되는 기간 내에 관련 개인 및 규제 기관에 통지하고, 재발 방지를 위한 시정 조치를 시행합니다.

조직은 웹 폼, 애플리케이션, 거래, 자동화 시스템을 통해 PII를 수집합니다. 저장은 데이터베이스, 클라우드 플랫폼, 엔터프라이즈 애플리케이션에서 이루어지며, 암호화를 통해 저장 데이터가 보호됩니다. 

전송은 인증, API 호출, 시스템 간 통신 시 암호화된 채널을 통해 이루어지며, 각 단계에서 데이터 처리 권한은 접근 제어로 관리됩니다.

일반적인 PII 유형에는 이름, 사회보장번호, 이메일 주소, 전화번호, 실제 주소, 생년월일, 금융 계좌번호, 지문 및 얼굴 인식과 같은 생체 정보, 의료 기록, IP 주소, 디바이스 식별자, 브라우징 기록 및 위치 추적 등 행동 데이터가 포함됩니다.

PII를 수집하거나 처리하는 조직이 데이터 보호에 대한 주요 책임을 집니다. 여기에는 보안 전략을 수립하는 경영진, 기술적 통제를 구현하는 보안팀, 시스템을 유지 관리하는 IT 직원, 데이터를 적절히 처리하는 임직원, 계약을 통해 귀하를 대신해 PII를 처리하는 외부 공급업체가 포함됩니다.

직원은 소셜 엔지니어링, 피싱, 내부자 위협에 대한 1차 방어선 역할을 합니다. 데이터 처리 정책을 준수하고, 의심스러운 활동을 인지하며, 보안 사고를 신속히 보고하고, 강력한 인증 관행을 유지하며, 자신의 역할 내에서 PII 보호에 대한 구체적 책임을 이해해야 합니다.

AI는 일곱 가지 새로운 공격 기법을 만들어냈습니다: 최적화된 인증 시도를 통한 19%의 크리덴셜 스터핑 성공률,  딥페이크 사칭으로 2,500만 달러의 피해 발생, 데이터 포이즈닝을 통한 AI 모델 오염, 학습 데이터 공급망 공격, 적응형 악성코드, AI 정찰을 통한 PII 데이터베이스 매핑, 그리고 고도화된 피싱. 

AI는 또한 PII의 범위를 확장했습니다: 행동 생체정보, 음성 프린트, 웨어러블 기기의 건강 데이터, 그리고 알고리즘 기반 추론.

통합된 접근 방식을 채택하여  NIST Privacy Framework 1.1, NIST Cybersecurity Framework 2.0, CISA AI Security Roadmap, 그리고  SANS Critical AI Security Guidelines를 결합하고, 관할 구역에 따라 GDPR, CCPA, HIPAA 준수를 적용합니다. NIST Privacy Framework 1.1을 CSF 2.0과 통합합니다. CISA의 Secure by Design 원칙과 SANS 가이드라인을 계층화합니다.

예, 캘리포니아 법에 따라 해당됩니다. CCPA §1798.140(o)(1)(K)는 AI가 생성한 추론을 개인정보로 분류합니다: "소비자의 선호도, 특성, 심리적 경향, 행동, 태도, 지능, 능력 및 적성을 반영하는 프로필을 생성하기 위해 정보로부터 도출된 추론." 

AI가 생성한 위험 점수, 행동 예측, 심리 평가 및 선호도 예측은 보호가 필요한 개인정보에 해당합니다. GDPR 제4조(1) 적용으로 유사한 의무가 발생합니다.

더 알아보기 사이버 보안

Insecure Direct Object Reference (IDOR)이란 무엇인가?사이버 보안

Insecure Direct Object Reference (IDOR)이란 무엇인가?

Insecure Direct Object Reference (IDOR)는 소유권 검증이 누락되어 공격자가 URL 매개변수를 변경함으로써 임의 사용자의 데이터를 조회할 수 있는 접근 제어 취약점입니다. 탐지 및 방지 방법을 알아보세요.

자세히 보기
IT와 OT 보안: 주요 차이점 및 모범 사례사이버 보안

IT와 OT 보안: 주요 차이점 및 모범 사례

IT와 OT 보안은 서로 다른 위험 프로필, 규제 요구사항, 운영 우선순위를 가진 두 영역을 다룹니다. 주요 차이점과 모범 사례를 알아보세요.

자세히 보기
에어갭 백업이란? 예시 및 모범 사례사이버 보안

에어갭 백업이란? 예시 및 모범 사례

에어갭 백업은 최소한 하나의 복구 사본을 공격자의 접근 범위 밖에 보관합니다. 동작 방식, 유형, 예시, 랜섬웨어 복구를 위한 모범 사례를 알아보세요.

자세히 보기
OT 보안이란? 정의, 과제 및 모범 사례사이버 보안

OT 보안이란? 정의, 과제 및 모범 사례

OT 보안은 중요 인프라에서 물리적 프로세스를 운영하는 산업 시스템을 보호합니다. Purdue 모델 분할, IT/OT 융합, NIST 지침을 포함합니다.

자세히 보기
최첨단 사이버 보안 플랫폼을 경험하세요

최첨단 사이버 보안 플랫폼을 경험하세요

세계에서 가장 지능적이고 자율적인 사이버 보안 플랫폼이 현재와 미래의 조직을 어떻게 보호할 수 있는지 알아보세요.

데모 신청하기
  • 시작하기
  • 데모 받기
  • 제품 둘러보기
  • SentinelOne을 선택해야 하는 이유
  • 가격 및 패키지
  • FAQ
  • 연락처
  • 문의
  • 지원
  • SentinelOne Status
  • 언어
  • 플랫폼
  • Singularity Platform
  • Singularity Endpoint
  • Singularity Cloud
  • Singularity AI-SIEM
  • Singularity Identity
  • Singularity Marketplace
  • Purple AI
  • 서비스
  • Wayfinder TDR
  • SentinelOne GO
  • 기술 계정 관리
  • 지원 서비스
  • 업종
  • 에너지
  • 연방 정부
  • 금융
  • 보건 의료
  • 고등 교육
  • 초중등 교육
  • 제조
  • 소매소매
  • 주 및 지방 정부
  • Cybersecurity for SMB
  • 리소스
  • Blog
  • Labs
  • 사례 연구
  • 동영상
  • 제품 둘러보기
  • Events
  • Cybersecurity 101
  • eBooks
  • 웨비나
  • 백서
  • 언론
  • 뉴스
  • 랜섬웨어 사례집
  • 회사
  • 회사 소개
  • 고객사
  • 채용
  • 파트너사
  • 법무 및 규정 준수
  • 보안 및 규정 준수
  • S Foundation
  • S Ventures

©2026 SentinelOne, 판권 소유.

개인정보 고지 이용 약관

한국어