個人識別情報(PII)の理解
個人識別情報(PII)とは、特定の個人を識別する、または他の情報と組み合わせて誰かを識別できるデータを指します。PIIは「個人識別情報」の略であり、他者と区別するためのデータ要素です。氏名、社会保障番号、メールアドレス、電話番号、指紋などの生体情報はすべてPIIに該当します。
PIIを一貫して定義する単一の標準は、すべての法域や業界に存在しません。保護すべきPIIは、事業を規制する法域やシステムが処理するデータの種類によって異なります。自社の事業に適用される最も厳格なPII定義を適用してください。
NISTは、氏名、社会保障番号、生体情報など、単独または他の個人情報と組み合わせて個人を識別または追跡できる情報をPIIと定義しています。GDPR第4条(1)はこれを拡張し、「識別された、または識別可能な自然人に関するあらゆる情報」とし、IPアドレス、クッキー、デバイスフィンガープリントなどのオンライン識別子も明示的に含めています。 CCPA §1798.140は最も詳細なアプローチを取り、「キーストロークパターンやリズム、歩行パターンやリズム、睡眠・健康・運動データなど、識別情報を含む生体情報」と定義しています。
AIはPIIの範囲を根本的に拡大しました。詐欺対策システムが分析するキーストロークダイナミクスは、CCPAにおける生体情報です。アクセス制御プラットフォームが生成する行動リスクスコアは、CCPA §1798.140(o)(1)(K)に基づく個人情報であり、AI生成の推論を個人情報として独自に分類し、消費者の嗜好、心理的傾向、行動を反映するプロファイルも含まれます。新たなPIIカテゴリとして、フェイスプリントや生体テンプレートなど、従来の識別子とは異なる方法で保護すべき情報が登場しています。
.jpg)
サイバーセキュリティにおけるPIIセキュリティの重要性
米国組織の平均侵害コストは9.36百万ドルであり、世界平均の4.88百万ドルのほぼ2倍です。直接的なコストを超えて、PIIの漏洩は財務的・運用的損害を増幅させる乗数効果を生み出します。
米国組織はデータ侵害に対して世界平均の194%を支払っています: 9.48百万ドル対4.88百万ドル(世界平均)。これらの数字は2024年に前年比10%増加し、パンデミック以降で最も急激な上昇となりました。
対応が遅れると、コストは指数関数的に増加します。 特定と封じ込めに200日超を要した侵害は5.46百万ドルに達することがあります。攻撃者が環境内に長く留まるほど、コストは増大します。規制当局の監視も強化され、顧客離れが加速し、運用上の混乱も拡大します。
2024年Verizonデータ侵害調査レポートは、30,458件のセキュリティインシデントと10,626件の確認された侵害を分析し、報告件数が2倍に増加したことを示しています。PIIが侵害されたケースは例外ではなく、すべての主要業界セクターで主流のパターンとなっています。
これらの侵害統計は過去の脅威状況を示しています。AIは防御対象やPIIの定義そのものを根本的に変えました。
PIIに対する主なリスクと脅威
エンタープライズ環境においてPIIを標的とする主な攻撃ベクトルは3つあります:
- 不正アクセスが外部侵害の大半を占めます。攻撃者は認証の弱点、未修正の脆弱性、設定ミスを突いてPIIデータベースに到達します。一度ネットワーク内に侵入すると、ラテラルムーブメント技術で権限を昇格し、機密データストアにアクセスします。多くの侵害は人的要因によるもので、認証情報の窃取、フィッシング、アクセス権限の誤用が主因です。
- インサイダー脅威は組織内の信頼された立場から発生します。従業員、契約者、ビジネスパートナーが正当なアクセス権を持ちながら、意図的にPIIを持ち出したり、過失によりデータを漏洩させたりします。悪意あるインサイダーによる侵害は、セキュリティ制御や重要データの所在を理解しているため、特に高コストとなります。
- サードパーティベンダーは、直接管理できない範囲まで攻撃対象領域を拡大します。クラウドプロバイダー、決済処理業者、分析プラットフォームなどとPIIを共有する場合、相手のセキュリティ制御に依存します。サプライチェーンの侵害により、信頼されたビジネス関係を通じて攻撃者が間接的にPIIへアクセスすることがあります。
これらの基本的な脅威を理解することで、各攻撃ベクトルに体系的に対応するためのコア保護原則の実装につながります。
PII保護の基本原則
効果的なPIIセキュリティには、特定のコンプライアンスフレームワークや業界分野に関係なく、5つの基本原則があります。
- データ最小化:定義された業務目的に必要なPIIのみを収集します。データを保存しなければ、攻撃者に盗まれることもありません。収集方法を四半期ごとに見直し、不要なPIIは削除します。最小化は、露出を制限することでプライバシーとセキュリティの両リスクを低減します。
- 目的限定:収集時に開示した特定の目的のみにPIIを使用します。元の目的を超えてPIIを処理する場合は、明示的な同意または正当な根拠が必要です。すべての処理目的を文書化し、システムアクセスも制限します。
- 保存期間の限定:正当な業務または法的要件に必要な期間のみPIIを保持します。保存期間に基づく自動削除ポリシーを実装します。個人データは、意図された目的に必要な期間を超えて識別可能な形で保持しないでください。
- 完全性と機密性:適切な技術的・組織的措置でPIIを保護します。暗号化、アクセス制御、セキュリティ監視により、不正アクセスや改ざんを防止します。これらの制御は、偶発的な損失と意図的な攻撃の両方に対応する必要があります。
- 説明責任:文書化、監査証跡、ガバナンスプロセスを通じてコンプライアンスを証明します。制御が機能していることを証明しなければなりません。存在を主張するだけでは不十分です。
これらの原則は、AI固有の制御が構築される基盤となり、従来型および新たなPIIセキュリティ課題の両方に対応します。
AIがPIIサイバーセキュリティ対策に与えた影響
AIは攻撃の加速だけでなく、システムを標的とする全く新しい攻撃手法を生み出し、従来の防御では対応できない形で個人識別情報の範囲を拡大しました。
PIIを標的としたAI強化型攻撃手法
2025年には19%のクレデンシャルスタッフィング率となり、攻撃者は認証システムに対して最適化された認証試行を継続的に実行します。機械学習アルゴリズムが過去の侵害から収集した認証情報の組み合わせをテストし、システムの応答に基づいてパターンを最適化します。小規模組織でも12%の攻撃率があり、クレデンシャルスタッフィングが成功すると、境界セキュリティを完全に回避し、認証済みでPIIデータベースにアクセスされます。
英国のエンジニアリング企業Arupは2024年に2,500万ドルを損失しました。これは、CFOを偽装したディープフェイク動画による通話が原因です。従業員向けセキュリティ教育では、不審な依頼は電話で確認するよう指導していますが、その電話自体が合成音声だった場合はどうなるでしょうか?
FBIは2024年に166億ドルの損失(859,532件の苦情、前年比33%増)を記録しました。連邦機関は、犯罪者がAIを用いて非常に説得力のある音声・動画メッセージやメールを作成していると警告しています。Verizonの調査では、フィッシングインシデントの60%がアイデンティティベースの攻撃であり、50%のユーザーが最初の1時間以内にフィッシングメールを開封しています。
AIシステムにおけるPIIへの脅威
データポイズニングはAIシステム自体を直接脅かします。攻撃者が改ざんしたデータセットでモデルを学習させると、AIによるPII分類やアクセス制御の判断が操作される可能性があります。 NSA、CISA、FBIの2025年5月の共同ガイダンスによれば、攻撃者は悪意ある修正が加えられた学習データをAIシステムへの主な攻撃手法としています。AIが攻撃者管理下の例から学習している可能性があります。
これらの攻撃手法は、PIIの範囲が根本的に拡大したことと相まって、リスクを増大させます。
AIによるPIIカテゴリの拡大
DHSの2025年1月のアップデートは、顔認識や生体情報取得技術の積極的な導入とガバナンス強化を記録しています。AIシステムが新たなカテゴリ(フェイスプリント、生体テンプレート、行動パターンなど)を生み出す中、組織は何がPIIデータで何が非個人情報かを分類し、氏名や社会保障番号の組み合わせとは異なるセキュリティ制御が必要となります。
CCPAはキーストロークダイナミクス、歩行分析、音声プリント、ウェアラブルからの健康データを明確に規制しています。詐欺対策システムがユーザーのタイピング方法を分析したり、エンドポイントセキュリティがマウスの動きを監視したり、物理セキュリティが歩行パターンを追跡したりする場合、カリフォルニア法の下で生体PIIを処理していることになります。
カリフォルニア州によるAI生成推論の規制は、個人情報の定義を拡大しています。レコメンデーションエンジンが行動プロファイルを作成したり、リスクスコアリングプラットフォームがユーザー行動を予測したり、分析システムが心理的特性を推論した場合、これらのアルゴリズム出力は カリフォルニア民法§1798.140(o)(1)(K)に基づく個人情報となります。元々収集したデータだけでなく、モデルが生成した予測にも責任を負います。
AI強化型攻撃への対策には、法域や業界によって大きく異なる自社のコンプライアンス義務を理解することが不可欠です。
PIIコンプライアンスの考慮事項
コンプライアンスは単なるチェックリストではありません。規制当局が侵害を調査する際に説明責任を果たすことであり、財務的リスクも重大です。各法域でPIIの定義が異なるため、グローバルに事業を展開する組織には複雑な義務が課されます。
GDPRの要件
第32条は、仮名化、暗号化、継続的な機密性・完全性・可用性・耐障害性の確保、インシデント後の迅速な可用性・アクセス回復能力を要求しています。 データ主体のアクセス要求には1か月以内に対応し、処理目的、個人データのカテゴリ、受領者、保存期間を提供する必要があります。
EDPB意見28/2024は、AIモデルの導入が管理者の義務を生じることを確立しました。個人データを処理するAIシステムを導入する前に、ベンダーが合法的な処理を通じてモデルを開発したかどうかを確認しなければなりません。AIベンダーの学習データソースについて無知を主張することはできません。正当な利益に基づいてAIを導入する場合、必要性、バランステスト、セーフガードを文書化した三段階の正当利益評価が必要です。
AIシステムで特別カテゴリの個人データを処理する場合、 GDPR第9条の例外が必要です。 欧州議会の分析およびEDPBガイダンスによれば、善意であっても第9条の限定的根拠を満たさずにバイアス分析のために機微な個人データを処理することはできません。
CCPA ADMT要件
自動意思決定技術(ADMT)の透明性要件の実装まで12か月未満です。カリフォルニア州の事業者は、ADMTのロジックに関する有意義な情報、個々の消費者に対する予想される結果の説明、実効的なオプトアウト手段を提供しなければなりません。これらの要件は2026年1月1日に施行されます。サイバーセキュリティサービスの監査要件およびリスク評価義務も同時に施行されます。
意図的な違反や未成年者への影響がある場合、1件あたり7,988ドルの罰金が科され、大規模事業では8桁規模のリスクとなります。
HIPAAの要件
オンライン追跡技術に関するHHSガイダンスは、ユーザー認証済みウェブページで追跡技術を使用する場合、HIPAAプライバシールールに準拠してPHIのみを使用・開示するよう構成することを求めています。また、PHIを開示する場合、追跡技術ベンダーとビジネスアソシエイト契約(BAA)を締結する必要があります。ウェブサイトやアプリで収集されるすべてのePHIはセキュリティルールの保護が必要です。
PHIを追跡技術ベンダーに開示する前にビジネスアソシエイト契約が必要です。分析プラットフォーム、予約システム、マーケティング自動化ツールがPHIを処理する場合、すべてBAAが必要です。サードパーティ追跡を利用し、PHIを自動送信する予約システムもBAAが必要です。ビジネスアソシエイトのセキュリティ違反は6桁の罰金につながります。
45 CFR § 164.308(a)(1)(ii)(A)に基づくリスク分析は、作成・受領・保管・送信するすべてのe-PHIを対象としなければなりません。HHSガイダンスによれば、この分析は一度きりではなく、継続的なセキュリティ管理プロセスの一環として定期的に見直し・更新する必要があります。
規制フレームワークは保護すべき対象を示します。よくあるミスを理解することで、コンプライアンス違反や侵害につながる落とし穴を回避できます。
PIIセキュリティの一般的なミスと課題
AIシステムでPIIを露出させ、規制上の責任を生じさせる重大なミスを回避してください。
- プロンプトインジェクション対策なしでAIシステムを導入しないでください。 プロンプトインジェクション攻撃は、OWASPのLLMアプリケーションTop 10に含まれており、攻撃者が巧妙な入力でAIシステムを操作し、PIIを抽出させることができます。AIチャットボットがユーザーの問い合わせやカスタマーサポートチケット、外部コンテンツを処理する際、悪意ある指示が埋め込まれていると、モデルが機密データを漏洩する可能性があります。 Prompt Security(SentinelOneの企業)のようなサービスは、アプリケーションのユースケースに応じたプロンプトインジェクション攻撃の検出を専門的に提供します。PII抽出を狙う新たな攻撃手法にも継続的に対応します。
- AI学習データの匿名化だけでPIIが保護されると考えないでください。 「匿名化」データセットで学習したモデルは、生成出力やメンバーシップ推論攻撃を通じて識別情報を漏洩する可能性があります。 EDPB意見28/2024によれば、AIモデルを導入する管理者は、ベンダーが違法な個人データ処理でモデルを開発していないことを確認しなければなりません。
- AI生成推論を非個人データとみなさないでください。 カリフォルニア州は個人情報から導かれた予測を明確に規制しています。カリフォルニア民法§1798.140(o)(1)(K)によれば、AI生成推論(消費者の嗜好、心理的傾向、行動を反映するプロファイルを含む)は個人情報として独自に分類されます。
- 学習データのコンプライアンスを検証せずにAIモデルを導入しないでください。 EDPB意見28/2024は、管理者がベンダーによる合法的なAIモデル開発を確認し、GDPR第5条(1)(a)の遵守を導入前に証明することを求めています。「ベンダーからモデルを購入した」は説明責任を果たす根拠にはなりません。
- 19%のクレデンシャルスタッフィング率を無視しないでください。 多要素認証はこの攻撃手法を即座に阻止します。攻撃者がクレデンシャルスタッフィングに成功すると、認証済みでPIIデータベースにアクセスし、平均9.48百万ドルの侵害コストを引き起こします。
- AIサービス向けのビジネスアソシエイト契約の更新を怠らないでください。 分析プラットフォームがAI機能を追加し、PHIをルールベース分析とは異なる方法で処理する場合、元のBAAは新たな処理活動をカバーしません。EDPB意見28/2024によれば、管理者はベンダーが違法な個人データ処理でAIモデルを開発していないことを確認しなければなりません。
- 詐欺分析における行動生体情報を見落とさないでください。 詐欺対策プラットフォームがタイピングパターン、マウス動作、デバイス操作リズムを分析する場合、これはCCPAにおける生体情報であり、特定の通知、収集制限、保存ポリシーが必要です。
- GDPRの正当な利益がAI処理を自動的にカバーすると考えないでください。 正当な利益に基づいてAIモデルを導入する管理者は、必要性、バランステスト、適切なセーフガードを示す三段階評価を実施しなければなりません。
- 完全なログ記録なしでAIシステムを運用しないでください。 規制当局が侵害を調査する際、AIシステムが何にアクセスし、何を処理・出力したかを示す証拠が必要です。「モデルがその判断を下した」だけでは、監査証跡がなければ説明責任要件を満たしません。
避けるべきことを知るだけでは不十分です。次のセクションでは、AIライフサイクル全体でPIIを保護する統合的な技術制御の実装方法を示します。
AI環境におけるPIIセキュリティのベストプラクティス
NIST Privacy Framework 1.1、NIST Cybersecurity Framework 2.0、CISA AI Roadmap、SANS Critical AI Security Guidelines、法域別コンプライアンス(GDPR/CCPA/HIPAA)の5つのフレームワークを同時に統合してください。技術的制御と継続的な監視が、侵害から生き残れるかどうかを左右します。
NIST Privacy Framework 1.1とCybersecurity Framework 2.0の統合
NIST Privacy Framework 1.1は、PII保護のために設計された5つのコア機能を提供します:
- IDENTIFY-P:PIIに関与するすべてのAIシステムをインベントリし、収集から廃棄までのデータフローを文書化し、サードパーティプロセッサーを含むビジネスコンテキストをマッピングします。NIST Privacy Framework 1.1によれば、リスク評価にはモデルポイズニング、学習データの侵害、推論漏洩、敵対的攻撃などAI固有の脅威を考慮する必要があります。
- GOVERN-P:サイバーセキュリティリスク管理と統合したプライバシーガバナンスを確立します。AIモデル監督を含む役割を定義し、AI導入前の説明責任評価を実施します。ポリシーにはAI学習データの調達、サードパーティモデル評価、アルゴリズム意思決定のレビュー、サプライチェーンセキュリティを含めます。
- CONTROL-P:AI運用におけるPII露出を最小化するため、分離処理を実装します。可能な限り学習には非識別化データを使用します。モデル学習、推論、保存を個別にカバーするデータライフサイクルポリシーを徹底します。
- COMMUNICATE-P:AI処理についてデータ主体に説明する透明性メカニズムを作成します。CCPAのADMT要件(2026年1月1日施行)は、意思決定ロジックに関する有意義な情報、予想される結果の説明、オプトアウト手段を義務付けています。
- PROTECT-P:AIインフラ向けに設計されたID管理、認証、アクセス制御、暗号化、プラットフォームセキュリティ制御を導入します。これにはモデルの完全性検証、改ざん検出、モデル盗難・リバースエンジニアリング防止、バージョン管理・完全性チェック、職務分離によるモデル展開アクセス制御が含まれます。
- GOVERN、 NIST CSF 2.0の第6機能は、組織レベルのサイバーセキュリティリスク管理を提供します。 NISTの発表によれば、Privacy Framework 1.1はCybersecurity Framework 2.0との直接統合を前提に設計されており、両フレームワークを並行して実装できます。
SANS Critical AI Security Guidelinesの統合
SANSはAIシステム向けに6つの運用制御カテゴリを提供しています。保護すべきPIIデータとは何か?これらの制御はAIライフサイクル全体でPIIを特定・保護するのに役立ちます:
- 入力検証とサニタイズ:プロンプトインジェクション、データポイズニング、敵対的入力によるPII抽出を防止します。
- モデルセキュリティ:モデルの改ざん、盗難、不正アクセスから保護し、モデルの重みやアーキテクチャを守ります。これは、重み・アーキテクチャ・学習パイプラインを改ざんや盗難から守ることを意味します。NSA、CISA、FBIの共同ガイダンスによれば、攻撃者がモデルを盗むと学習データをリバースエンジニアリングし、モデルパラメータに埋め込まれたPIIを抽出する可能性があります。バージョン管理と完全性チェックにより、PII保護を無効化する不正なモデル変更を防ぎます。
- 出力制御:AIシステムがユーザーに返す内容を検証・監視します。モデルは時折、学習データを生成出力として漏洩することがあります。SANS Critical AI Security Guidelines v1.1によれば、出力制御はAI生成コンテンツを検証・監視し、PII漏洩を防ぎます。
- アクセス制御:ロールベースアクセス制御と強力な認証が必要です。AIプラットフォームには、学習データアクセス、モデル展開、推論クエリ、管理機能ごとに個別の権限が必要です。NIST Privacy Framework 1.1によれば、職務分離により単一アカウントの侵害でAI運用全体が露出するのを防ぎます。
- データ保護:AIライフサイクル全体(収集、前処理、学習、推論、保存)で学習データと運用データを保護します。従来のデータベースセキュリティを超える制御が必要です。学習データストアは保存時・転送時・処理時の暗号化が必要です。推論データも「匿名化」入力であっても再識別される可能性があるため、同等の保護が必要です。
- 監視とログ記録:AIの入力・出力・意思決定の完全なログ記録により、セキュリティ監視とコンプライアンス監査が可能となります。記録していないものは調査できません。SIEMはAIプラットフォームのテレメトリを従来のセキュリティイベントとともに取り込む必要があります。
ゼロトラストでAIシステムのすべてのリクエストを検証
ゼロトラストアーキテクチャは、AIシステムにおけるPII保護の重要なセキュリティ原則です。 CISAのAIセキュリティロードマップは、AIシステムも他のソフトウェア同様、設計段階からのセキュリティ(Secure by Design)が必要であり、導入前のセキュリティ評価、運用中の継続的監視、AIコンポーネントや学習データのサプライチェーンセキュリティが求められると強調しています。
NIST Cybersecurity Framework 2.0は、PROTECT(PR)機能を通じてゼロトラスト原則を組み込み、強力なID・認証・アクセス制御を要求しています。NIST Privacy Framework 1.1と組み合わせることで、PIIを扱うAIシステム向けに特化したID管理・認証制御の実装が求められます。
NSA、CISA、FBIのAIデータセキュリティ共同ガイダンスは、悪意ある攻撃者が認証情報の侵害やサプライチェーンの脆弱性を利用してAI学習パイプラインや推論システムにアクセスすることを強調しています。
ネットワークの場所に関係なく、すべてのアクセスリクエストを検証してください。AI学習インフラは、社内ネットワークからのリクエストをデフォルトで信頼すべきではありません。AIワークロードを実行するサービスアカウントには最小権限アクセスを実装します。異なるPIIカテゴリを処理するAIシステムは、別々の信頼ゾーンに分割してください。クレデンシャルスタッフィング対策として多要素認証を導入します。
運用ライフサイクル全体で継続的に監視する必要があります。AIシステムの挙動は時間とともに変化します(モデル劣化、データ分布の変化、敵対的適応など)。対応時間は数週間から数分に短縮されます。NIST Cybersecurity Framework 2.0によれば、継続的監視(DE.CM)と有害事象分析(DE.AE)は不可欠な機能です。
AIコンポーネントと学習データのサプライチェーンセキュリティへの対応
サードパーティAIサービスは、自社管理外のインフラまで攻撃対象領域を拡大します。 NSA、CISA、FBIの共同ガイダンス(2025年5月)によれば、AI学習データのサプライチェーンは、攻撃者が悪意ある「ポイズニング」データを学習セットに注入する主要な攻撃手法となっています。
CISAのAIセキュリティロードマップが要求するように、AIシステム導入前にセキュリティ評価を実施してください。ベンダー向けセキュリティ質問票には、学習データの出所、モデル開発環境、モデルアーティファクト保護のセキュリティ制御に関する質問を含めます。データセット、事前学習モデル、API、推論プラットフォームを含むAIサプライチェーン全体を文書化してください。
AIベンダーがPIIを処理する前に、ビジネスアソシエイト契約またはデータ処理契約を締結してください。契約にはデータ取扱要件、セキュリティ制御、インシデント通知期限、監査権限を明記します。 GDPR第28条では、処理の対象、期間、性質・目的、個人データの種類、データ主体のカテゴリ、管理者の義務・権利を契約で定める必要があります。HIPAAのビジネスアソシエイト契約はセキュリティルール・プライバシールール要件をカバーしなければなりません。CCPAのサービスプロバイダー契約は、適切な条項とデータブローカー登録状況の確認が必要です。
これらの技術制御とフレームワークがPII保護の基盤となりますが、実装にはAI強化型脅威の速度に対応できる自律的な能力が求められます。
クラウドおよびハイブリッド環境におけるPIIセキュリティ
クラウドおよびハイブリッドインフラは、従来の境界防御では対応できない独自のPIIセキュリティ課題を生み出します。責任共有モデル、動的リソース割り当て、マルチテナントアーキテクチャには、専門的な制御が必要です。
- 責任共有のギャップ:クラウドプロバイダーはインフラを保護しますが、データ保護の責任は利用者側に残ります。設定ミスのストレージバケット、過度に許可されたアクセス権限、暗号化されていないデータストアは、PIIを不正アクセスにさらします。クラウドベースの侵害は、通常プロバイダーの脆弱性ではなく設定ミスが原因です。
- データレジデンシーと主権:複数のクラウドリージョンにPIIを保存する場合、法域ごとの規制に準拠しなければなりません。一部のフレームワークは、特定の地理的境界外への移転を十分な保護措置なしに制限しています。規制は、データ処理場所に関係なく居住者に適用されます。クラウドリージョン間のデータフローをマッピングし、必要に応じてローカライゼーション制御を実装してください。
- コンテナおよびサーバーレスセキュリティ:PIIを処理する一時的なコンピュートリソースには、従来のエンドポイントセキュリティを超えるランタイム保護が必要です。コンテナはベースイメージの脆弱性を継承します。サーバーレス関数は、ネットワーク境界をバイパスするAPIコールでPIIにアクセスします。ビルド時からランタイムまでワークロードを保護するクラウドネイティブアプリケーション保護プラットフォームを導入してください。
- クロス環境の可視性:ハイブリッド環境では、オンプレミスとクラウドシステム間でPII処理が分散されます。環境をまたぐ統合監視により、インフラ境界を越える攻撃を検知し、クラウドとオンプレミス間のデータ移動を伴う侵害の調査が可能となります。
手動監視では動的なクラウド運用の速度に追いつけないため、自律的なクラウドワークロードセキュリティが不可欠です。
SentinelOneによるPIIデータ保護
PIIセキュリティには、AI最適化攻撃の速度に対応できる自律的な対応が必要です。手動相関やシグネチャベース検出では、現在システムを標的とする高頻度のクレデンシャルスタッフィングやディープフェイク型ソーシャルエンジニアリングに対抗できません。
Singularity Platformの行動AIは、シグネチャベースシステムが見逃す異常な認証パターンを検出し、NIST CSF 2.0が要求するAIシステム全体の継続的監視を提供します。プラットフォームはNISTの監視要件をリアルタイムで実行し、AI強化型攻撃が通常の行動パターンから逸脱した瞬間に検知します。
Storylineは、攻撃者の行動を特定のPIIレコードに結びつける完全なコンテキスト付きのフォレンジック品質の調査データを自動生成します。NIST Privacy Framework 1.1が要求する完全な監査証跡を手動ログ相関なしで取得できます。規制当局が侵害を調査する際、StorylineはAIシステムが何にアクセスし、何を処理・出力したかを正確に示す証拠を提供し、GDPR第5条(1)(a)およびCCPA §1798.185の説明責任要件を満たします。
Singularity Cloud Securityは、クラウドオブジェクトデータストアやリレーショナルデータストア内の露出を自動的に発見・分類・優先順位付けする統合DSPMを含み、GDPR、SOC2、NIST 800-122などのPII保護要件に準拠します。DSPMによる継続的保護により、SSN、CCN、HIPAAなどに関連する機微データの保存場所や攻撃者への露出状況を常に最新の状態で把握できます。
Purple AIは、PII漏洩を伴う複雑な調査にアナリストが集中できるよう、日常的な脅威評価を自律的に処理し、NIST CSF 2.0のRESPOND機能要件を直接実行します。AIはアラートを自律的に評価し、重大度でインシデントをトリアージし、人間の専門知識が必要なものだけをエスカレーションします。チームは誤検知ではなく、PII侵害の調査に専念できます。
デモをリクエストして、SentinelOneがAI時代のPIIデータをどのように保護するかをご確認ください。
よくある質問
PIIは、個人を特定できる情報を指します。これは、単独または他の情報と組み合わせて個人を識別するデータを含みます。 NISTはPIIを、氏名、社会保障番号、生体認証情報など、個人の識別を区別する情報と定義しています。
GDPRはこれを拡張し、オンライン識別子(IPアドレス、クッキー、デバイスフィンガープリント)も含みます。 CCPAは、キーストロークパターン、歩行分析、心理的特性に関するAI生成の推論も含みます。管轄区域に基づき、最も厳格な定義を適用してください。
異常なアクセスパターン、不正なデータ転送、システム侵害を検知するために継続的な監視を導入します。漏洩が発生した場合は、直ちに影響を受けたシステムを隔離し、漏洩したPIIの範囲を評価し、必要な期間内に影響を受けた個人および規制当局へ通知し、再発防止のための是正措置を実施します。
組織はウェブフォーム、アプリケーション、取引、自動化システムを通じてPIIを収集します。保存はデータベース、クラウドプラットフォーム、エンタープライズアプリケーションで行われ、暗号化により保存データが保護されます。
送信は認証、APIコール、システム間通信時に暗号化チャネルを介して行われ、各段階で誰がデータを処理できるかはアクセス制御によって管理されます。
一般的なPIIの種類には、氏名、社会保障番号、メールアドレス、電話番号、住所、生年月日、金融口座番号、指紋や顔認証などの生体情報、医療記録、IPアドレス、デバイス識別子、閲覧履歴や位置情報追跡を含む行動データなどがあります。
PIIを収集または処理する組織がデータ保護の主な責任を負います。これには、セキュリティ戦略を策定する経営層、技術的対策を実装するセキュリティチーム、システムを維持管理するITスタッフ、データを適切に取り扱う従業員、契約に基づきPIIを処理するサードパーティベンダーが含まれます。
従業員はソーシャルエンジニアリング、フィッシング、インサイダー脅威に対する第一線の防御となります。データ取扱方針の遵守、不審な活動の認識、セキュリティインシデントの迅速な報告、強固な認証の実践、各自の役割におけるPII保護責任の理解が求められます。
AIは7つの新しい攻撃手法を生み出しました:最適化された認証試行による19%のクレデンシャルスタッフィング成功率、 ディープフェイクによるなりすましで2,500万ドルの損失、AIモデルを汚染するデータポイズニング、トレーニングデータのサプライチェーン攻撃、適応型マルウェア、AIによるPIIデータベースの偵察マッピング、そして高度化したフィッシングです。
AIはまた、PIIの範囲も拡大しました:行動バイオメトリクス、声紋、ウェアラブルからの健康データ、アルゴリズムによる推論などです。
統合的なアプローチを採用し、 NIST Privacy Framework 1.1、NIST Cybersecurity Framework 2.0、CISA AI Security Roadmap、および SANS Critical AI Security Guidelinesを組み合わせ、管轄に応じてGDPR、CCPA、HIPAAへの準拠を行います。NIST Privacy Framework 1.1をCSF 2.0と統合します。CISAのSecure by Design原則およびSANSガイドラインを重層的に適用します。
はい、カリフォルニア州法の下で該当します。 CCPA §1798.140(o)(1)(K)は、AIによって生成された推論を個人情報として分類しています。「消費者の嗜好、特性、心理的傾向、行動、態度、知能、能力、適性を反映するプロファイルを作成するために情報から導き出された推論」と定義されています。
AIによって生成されたリスクスコア、行動予測、心理評価、嗜好予測は、保護が必要な個人情報に該当します。 GDPR第4条第1項も同様の義務を課しています。


