ビジネスの現場では、コロナ禍でオンライン化が加速しましたが、現在は対面型のコミュニケーションも再び増加しているようです。...
ChatGPTのセキュリティとオプトアウト設定を徹底解説|各プラン比較と業務利用の注意点
ChatGPTの活用が広がる一方で、「情報はどこまで安全か?」「企業で使って大丈夫か?」という疑問も多く寄せられています。本記事では、FreeからEnterpriseまで全5プランのセキュリティ対応を比較しながら、安心して使うための設定方法(オプトアウト)と組織での注意点を解説します。
1. ChatGPTのセキュリティが注目される理由
生成AIは便利な一方で、「入力した情報が外部に流出するのでは?」という懸念があります。
特に以下のようなリスクが話題になっています
-
社員が業務内容をうっかり入力し、AI学習に使われてしまう。
- チャット履歴から情報が漏れる
- 契約上の守秘義務に違反する可能性がある
2. ChatGPT各プランのセキュリティ比較表
項目 | Free | Plus | Pro | Team | Enterprise |
---|---|---|---|---|---|
月額 | 無料 | $20 | $200 | $30 ユーザー1人あたり | 要問い合わせ |
モデル学習対象 | 対象(※オプトアウ可能) | 対象(※オプトアウ可能) | 対象(※オプトアウ可能) | 学習不可 | 学習不可 |
オプトアウト設定 | 手動設定 | 手動設定 | 手動設定 | 不要(自動除外) | 不要(自動除外) |
チャット履歴保存 | 既存でON | 既存でON | 既存でON | 管理可能 | 管理・監査可能 |
管理者機能 | × | × | × | ユーザー管理あり | ユーザー・アクセス・ログ管理対応 |
セキュリティ認証 | × | × | × | ISO27001等準拠 | SOC2/ISOなど取得済み |
契約による保障 | × | × | × | 簡易あり | NDA・SLAあり |
主な対象 | 個人 | 個人+業務補助 | 高機能ユーザー | 中小規模の法人 | 大企業・官公庁等 |
※ProプランはGPT-4oが使える個人向け上位プランで、セキュリティはPlusとほぼ同じですが、機密データの業務利用には不向きです。
3. オプトアウト設定の方法
設定画面から学習させない設定にする手順(Free/Plus/Pro向け)
- ChatGPT画面左下 →「設定」
- 「データコントロール」→「すべての人のためにモデルを改善する」 を選択
- 「モデルの改善」の「すべての人のためにモデルを改善する」をオフし、「実行ボタン」を押す。
プライバシーリクエストからオプトアウトの申請をする
確実にChatGPTでのデータ学習を停止させたい場合は、OpenAIの公式サイトからプライバシーリクエストを提出する。
- OpenAIの申請フォームにアクセス
https://privacy.openai.com/policies - Make a Privacy Requestを押下して、状況と合致する項目を選択。
Please choose the option that best describes your situation(あなたの適切な状況を選択してください)
- I have a ChatGPT account(ChatGPTのアカウントを持っています。)
- I have a ChatGPT account, but cannot access it(ChatGPTのアカウントは持っていますが、アクセスできません)
- I don’t have a ChatGPT account(ChatGPTのアカウントを持っていません。)
- 「Do not train on my content」を選択
「Do not train on my content(私のコンテンツを学習に使用しないでください)」を選択。 - メールアドレスを入力して送信
申請を行いたいアカウントのメールアドレスを入力してください。基本的にはChatGPTに登録しているメールアドレスで良いです。 - 申請完了
受信したメールのログインボタンからログインし、居住地の入力と同意を行うと「You Do not train on my conten rewuest is complete」というメールが届きます。こちらでChatGPTのオプトアウト設定が完了となります。
4. 業務利用で注意すべき情報漏洩リスク
よくあるリスクと対策
リスクの種類 | 内容 | 想定例 | 推奨される対策 |
---|---|---|---|
① 機密情報の入力 | 社内情報や顧客情報をプロンプトに含めてしまう | 「○○株式会社の新製品企画についてアイデア出して」 | 入力制限ルール/自動マスキング(DLP)/社員教育 |
② 個人アカウントでの利用 | 管理外の個人契約で業務利用される | 社員が自分のPlus/Proアカウントで顧客対応 | Team/Enterpriseへの集約+利用ポリシー明記 |
③ 出力内容の誤共有 | AIが生成した内容をそのまま社外送信する | 回答をそのまま顧客に転送/提案書に引用 | 出力レビューの社内ルール化/自動校閲支援ツール導入 |
④ 履歴からの情報漏洩 | ChatGPT上の履歴に重要情報が残り続ける | チャット履歴から過去の業務会話を閲覧される | 「履歴非保存」設定/Team以上での履歴統制/都度削除 |
⑤ 学習に利用される | 入力がOpenAIのモデル学習に使われる | 社内の戦略内容がAIの訓練データ化される | オプトアウト設定/法人プラン(Team/Enterprise)への移行 |
⑥ ログ・監査の不在 | 誰が何を入力・出力したか追えない | 情報漏洩発生時の調査が困難 | Enterpriseプランによる監査ログ取得+管理者運用 |
補足:特に注意すべき「3つの代表リスク」
- 情報入力の無意識ミス
例:「まだ発表前だけど…」など、軽い気持ちで機密情報を入力 → モデル学習や履歴保存に繋がる危険。 - 個人利用の見えないリスク
例:社員がChatGPT Plusを便利に使っていたが、情報管理されていなかった → 監査不能・統制不能に。 - 出力の無検証利用
例:AIの生成結果をそのままお客様に送信 → 不正確な情報や倫理的リスクが含まれることも。
対策のまとめ(簡易チェックリスト)
- 社内の「入力NG情報リスト」を整備して共有している。
- 個人契約による業務利用を禁止している。
- 出力内容のチェック体制を設けている。
- 履歴保存・非保存の方針が社内で統一されている。
- ChatGPTの利用状況を管理・可視化できている。