コンテンツまでスキップ

BiZUNA

ChatGPTのセキュリティとオプトアウト設定を徹底解説|各プラン比較と業務利用の注意点

ChatGPTの活用が広がる一方で、「情報はどこまで安全か?」「企業で使って大丈夫か?」という疑問も多く寄せられています。本記事では、FreeからEnterpriseまで全5プランのセキュリティ対応を比較しながら、安心して使うための設定方法(オプトアウト)と組織での注意点を解説します。

1. ChatGPTのセキュリティが注目される理由

生成AIは便利な一方で、「入力した情報が外部に流出するのでは?」という懸念があります。
特に以下のようなリスクが話題になっています

  • 社員が業務内容をうっかり入力し、AI学習に使われてしまう。
  • チャット履歴から情報が漏れる
  • 契約上の守秘義務に違反する可能性がある
このようなリスクを回避するには、適切なプランの選択と設定、そして運用ルールの整備が必要です。

2. ChatGPT各プランのセキュリティ比較表

項目 Free Plus Pro Team Enterprise
月額 無料 $20 $200 $30 ユーザー1人あたり 要問い合わせ
モデル学習対象 対象(※オプトアウ可能) 対象(※オプトアウ可能) 対象(※オプトアウ可能) 学習不可 学習不可
オプトアウト設定 手動設定 手動設定 手動設定 不要(自動除外) 不要(自動除外)
チャット履歴保存 既存でON 既存でON 既存でON 管理可能 管理・監査可能
管理者機能 × × × ユーザー管理あり ユーザー・アクセス・ログ管理対応
セキュリティ認証 × × × ISO27001等準拠 SOC2/ISOなど取得済み
契約による保障 × × × 簡易あり NDA・SLAあり
主な対象 個人 個人+業務補助 高機能ユーザー 中小規模の法人 大企業・官公庁等

※ProプランはGPT-4oが使える個人向け上位プランで、セキュリティはPlusとほぼ同じですが、機密データの業務利用には不向きです。

3. オプトアウト設定の方法

設定画面から学習させない設定にする手順(Free/Plus/Pro向け)

  1. ChatGPT画面左下 →「設定」
  2. 「データコントロール」→「すべての人のためにモデルを改善する」 を選択

    20250725_01

  3. 「モデルの改善」の「すべての人のためにモデルを改善する」をオフし、「実行ボタン」を押す。

    20250725_02

 プライバシーリクエストからオプトアウトの申請をする

確実にChatGPTでのデータ学習を停止させたい場合は、OpenAIの公式サイトからプライバシーリクエストを提出する。

  1. OpenAIの申請フォームにアクセス

    https://privacy.openai.com/policies
  2. Make a Privacy Requestを押下して、状況と合致する項目を選択。

    Please choose the option that best describes your situation(あなたの適切な状況を選択してください)
    1. I have a ChatGPT account(ChatGPTのアカウントを持っています。)
    2. I have a ChatGPT account, but cannot access it(ChatGPTのアカウントは持っていますが、アクセスできません)
    3. I don’t have a ChatGPT account(ChatGPTのアカウントを持っていません。)
  3. 「Do not train on my content」を選択

    「Do not train on my content(私のコンテンツを学習に使用しないでください)」を選択。
  4. メールアドレスを入力して送信

    申請を行いたいアカウントのメールアドレスを入力してください。基本的にはChatGPTに登録しているメールアドレスで良いです。
  5. 申請完了

    受信したメールのログインボタンからログインし、居住地の入力と同意を行うと「You Do not train on my conten rewuest is complete」というメールが届きます。こちらでChatGPTのオプトアウト設定が完了となります。

4. 業務利用で注意すべき情報漏洩リスク

よくあるリスクと対策

リスクの種類 内容 想定例 推奨される対策
① 機密情報の入力 社内情報や顧客情報をプロンプトに含めてしまう 「○○株式会社の新製品企画についてアイデア出して」 入力制限ルール/自動マスキング(DLP)/社員教育
② 個人アカウントでの利用 管理外の個人契約で業務利用される 社員が自分のPlus/Proアカウントで顧客対応 Team/Enterpriseへの集約+利用ポリシー明記
③ 出力内容の誤共有 AIが生成した内容をそのまま社外送信する 回答をそのまま顧客に転送/提案書に引用 出力レビューの社内ルール化/自動校閲支援ツール導入
④ 履歴からの情報漏洩 ChatGPT上の履歴に重要情報が残り続ける チャット履歴から過去の業務会話を閲覧される 「履歴非保存」設定/Team以上での履歴統制/都度削除
⑤ 学習に利用される 入力がOpenAIのモデル学習に使われる 社内の戦略内容がAIの訓練データ化される オプトアウト設定/法人プラン(Team/Enterprise)への移行
⑥ ログ・監査の不在 誰が何を入力・出力したか追えない 情報漏洩発生時の調査が困難 Enterpriseプランによる監査ログ取得+管理者運用

補足:特に注意すべき「3つの代表リスク」

  1. 情報入力の無意識ミス
    例:「まだ発表前だけど…」など、軽い気持ちで機密情報を入力 → モデル学習や履歴保存に繋がる危険。
  2. 個人利用の見えないリスク
    例:社員がChatGPT Plusを便利に使っていたが、情報管理されていなかった → 監査不能・統制不能に。
  3. 出力の無検証利用
    例:AIの生成結果をそのままお客様に送信 → 不正確な情報や倫理的リスクが含まれることも。

対策のまとめ(簡易チェックリスト)

  • 社内の「入力NG情報リスト」を整備して共有している。
  • 個人契約による業務利用を禁止している。
  • 出力内容のチェック体制を設けている。
  • 履歴保存・非保存の方針が社内で統一されている。
  • ChatGPTの利用状況を管理・可視化できている。

 

DX支援サービス