ChatGPTの活用が広がる一方で、「情報はどこまで安全か?」「企業で使って大丈夫か?」という疑問も多く寄せられています。本記事では、FreeからEnterpriseまで全5プランのセキュリティ対応を比較しながら、安心して使うための設定方法(オプトアウト)と組織での注意点を解説します。
1. ChatGPTのセキュリティが注目される理由
生成AIは便利な一方で、「入力した情報が外部に流出するのでは?」という懸念があります。
特に以下のようなリスクが話題になっています
このようなリスクを回避するには、適切なプランの選択と設定、そして運用ルールの整備が必要です。
2. ChatGPT各プランのセキュリティ比較表
項目 |
Free |
Plus |
Pro |
Team |
Enterprise |
月額 |
無料 |
$20 |
$200 |
$30 ユーザー1人あたり |
要問い合わせ |
モデル学習対象 |
対象(※オプトアウ可能) |
対象(※オプトアウ可能) |
対象(※オプトアウ可能) |
学習不可 |
学習不可 |
オプトアウト設定 |
手動設定 |
手動設定 |
手動設定 |
不要(自動除外) |
不要(自動除外) |
チャット履歴保存 |
既存でON |
既存でON |
既存でON |
管理可能 |
管理・監査可能 |
管理者機能 |
× |
× |
× |
ユーザー管理あり |
ユーザー・アクセス・ログ管理対応 |
セキュリティ認証 |
× |
× |
× |
ISO27001等準拠 |
SOC2/ISOなど取得済み |
契約による保障 |
× |
× |
× |
簡易あり |
NDA・SLAあり |
主な対象 |
個人 |
個人+業務補助 |
高機能ユーザー |
中小規模の法人 |
大企業・官公庁等 |
※ProプランはGPT-4oが使える個人向け上位プランで、セキュリティはPlusとほぼ同じですが、機密データの業務利用には不向きです。
3. オプトアウト設定の方法
設定画面から学習させない設定にする手順(Free/Plus/Pro向け)
- ChatGPT画面左下 →「設定」
- 「データコントロール」→「すべての人のためにモデルを改善する」 を選択
- 「モデルの改善」の「すべての人のためにモデルを改善する」をオフし、「実行ボタン」を押す。
プライバシーリクエストからオプトアウトの申請をする
確実にChatGPTでのデータ学習を停止させたい場合は、OpenAIの公式サイトからプライバシーリクエストを提出する。
- OpenAIの申請フォームにアクセス
https://privacy.openai.com/policies
- Make a Privacy Requestを押下して、状況と合致する項目を選択。
Please choose the option that best describes your situation(あなたの適切な状況を選択してください)
- I have a ChatGPT account(ChatGPTのアカウントを持っています。)
- I have a ChatGPT account, but cannot access it(ChatGPTのアカウントは持っていますが、アクセスできません)
- I don’t have a ChatGPT account(ChatGPTのアカウントを持っていません。)
- 「Do not train on my content」を選択
「Do not train on my content(私のコンテンツを学習に使用しないでください)」を選択。
- メールアドレスを入力して送信
申請を行いたいアカウントのメールアドレスを入力してください。基本的にはChatGPTに登録しているメールアドレスで良いです。
- 申請完了
受信したメールのログインボタンからログインし、居住地の入力と同意を行うと「You Do not train on my conten rewuest is complete」というメールが届きます。こちらでChatGPTのオプトアウト設定が完了となります。
4. 業務利用で注意すべき情報漏洩リスク
よくあるリスクと対策
リスクの種類 |
内容 |
想定例 |
推奨される対策 |
① 機密情報の入力 |
社内情報や顧客情報をプロンプトに含めてしまう |
「○○株式会社の新製品企画についてアイデア出して」 |
入力制限ルール/自動マスキング(DLP)/社員教育 |
② 個人アカウントでの利用 |
管理外の個人契約で業務利用される |
社員が自分のPlus/Proアカウントで顧客対応 |
Team/Enterpriseへの集約+利用ポリシー明記 |
③ 出力内容の誤共有 |
AIが生成した内容をそのまま社外送信する |
回答をそのまま顧客に転送/提案書に引用 |
出力レビューの社内ルール化/自動校閲支援ツール導入 |
④ 履歴からの情報漏洩 |
ChatGPT上の履歴に重要情報が残り続ける |
チャット履歴から過去の業務会話を閲覧される |
「履歴非保存」設定/Team以上での履歴統制/都度削除 |
⑤ 学習に利用される |
入力がOpenAIのモデル学習に使われる |
社内の戦略内容がAIの訓練データ化される |
オプトアウト設定/法人プラン(Team/Enterprise)への移行 |
⑥ ログ・監査の不在 |
誰が何を入力・出力したか追えない |
情報漏洩発生時の調査が困難 |
Enterpriseプランによる監査ログ取得+管理者運用 |
補足:特に注意すべき「3つの代表リスク」
- 情報入力の無意識ミス
例:「まだ発表前だけど…」など、軽い気持ちで機密情報を入力 → モデル学習や履歴保存に繋がる危険。
- 個人利用の見えないリスク
例:社員がChatGPT Plusを便利に使っていたが、情報管理されていなかった → 監査不能・統制不能に。
- 出力の無検証利用
例:AIの生成結果をそのままお客様に送信 → 不正確な情報や倫理的リスクが含まれることも。
対策のまとめ(簡易チェックリスト)
- 社内の「入力NG情報リスト」を整備して共有している。
- 個人契約による業務利用を禁止している。
- 出力内容のチェック体制を設けている。
- 履歴保存・非保存の方針が社内で統一されている。
- ChatGPTの利用状況を管理・可視化できている。