主要AIサービスのデータ処理とセキュリティ徹底比較 ~ChatGPT、Gemini、Claude、NotebookLM、Perplexity、GenSpark、Felo~

生成AIとセキュリティ
各種生成AIのデータの取扱(AIモデルの学習に利用されるかどうか) を調べました。

INDEX

ChatGPT、Gemini、Claude、NotebookLM、Perplexity、GenSpark、Feloといった主要な生成AIサービスを対象に、ユーザーが入力したデータがAIモデルの学習に利用されるのか調査しました。各サービスの公式サイトに掲載されている2025年3月時点でのプライバシーポリシー、利用規約、FAQより確認しました。日々変化する情報のため、気になる点は必ず、公式サイトをご覧ください。

ChatGPT(OpenAI)

プラン入力データの学習利用アップロードファイルの利用ユーザーによるコントロールその他
無料版
  • デフォルトで学習に使用される可能性あり
  • 設定でオプトアウト可能
  • アップロードファイルもデフォルトでトレーニング対象
  • ファイルサイズやアップロード回数に制限あり
  • 「みんなのためにモデルを改善」設定オフ
  • チャット削除で最大30日以内に削除
  • 使用制限が多いが無料で使える
  • AD分析機能は制限される場合あり
ChatGPT Plus
  • 無料版同様デフォルトで学習対象
  • 設定オフでオプトアウト可能
  • 無料版より大きいファイル上限
  • チャットやアカウント削除で30日以内に削除
  • 同じく設定でオプトアウト
  • より多くのアップロードや高度なモデル利用が可能
  • GPT-4等の上位モデルを利用可能
  • AD分析でファイルが保持される期間が異なる場合あり
Teamプラン
  • デフォルトで学習に使われない
  • 組織がオプトインしない限り学習対象外
  • アップロードファイルも学習に使われない
  • 管理者が保持ルールを設定
  • チーム管理者がデータポリシーを設定
  • 保持期間や削除スケジュールをカスタマイズ可能
  • 中小規模チーム向けに設計
  • 無料/Plusよりも高度なデータ管理が可能
Enterpriseプラン
  • デフォルトで学習に使われない
  • 企業が明示的にオプトインしない限り利用されない
  • アップロードファイルも学習対象外
  • より厳格なセキュリティと大容量に対応
  • 管理者が保持・削除を詳細に制御
  • 高いレベルのコンプライアンス要件にも対応
  • 大企業や組織向けの包括的なセキュリティとサポート
  • エンドツーエンド暗号化やSAML SSOなど

ChatGPTは、ユーザーが入力したテキストやアップロードしたファイルを活用し、AIモデルを改善する仕組みを備えています。ただし、ビジネス向けプラン(Team/Enterprise)では、デフォルトで学習に使用しない設定が採用されており、企業の機密情報を守りながら利用できるようになっています。一方、個人ユーザー向けには「モデル改善に貢献する」オプションがデフォルトでオンになっており、設定をオフにしない限りはアップロードしたファイルや入力データが学習に利用される場合があります。ユーザーによる削除やオプトアウトを行えば、一定期間(最大30日)でOpenAIのシステムからデータが削除される仕組みが提供されています。

入力データの学習への利用(無料版および有料版)

無料版/ChatGPT Plus(個人向け)

  • デフォルトで、ユーザーの入力データ(テキストやファイルを含む)がAIモデルのトレーニングに使われる可能性があります。
  • 設定メニュー(「データ管理」など)から「みんなのためにモデルを改善する」オプションをオフにすることで、新しい会話やファイルがトレーニングに利用されなくなります。
  • ただし、オプトアウト前に送信されたデータは学習に使用されている可能性があります。

Team/Enterprise(ビジネス向け)

  • デフォルトでトレーニングには使用されません。
  • 組織が明示的にオプトインしない限り、アップロードされたファイルや入力データが学習に利用されることはありません。
  • 管理者がデータ保持ポリシーを細かく設定でき、最短30日などのカスタム保持期間を指定できます。


アップロードされたファイルの取り扱いと学習への利用

  • 個人ユーザー(無料/Plus)では、アップロードしたファイルもトレーニングに利用される可能性があります。テキストだけでなく、画像やPDFなどをアップロードした場合も同様です。
  • ビジネス向けプラン(Team/Enterprise)では、アップロードファイルが自動的に学習へ回されることはありません。
  • ユーザーがチャットやアカウントを削除すると、通常は30日以内にファイルを含むデータがOpenAIのバックエンドから削除されます。ただし、セキュリティや法的理由で保持が必要な場合など、例外もあります。

 

ユーザーによるコントロール

オプトアウト設定

個人ユーザーは設定画面から「みんなのためにモデルを改善する」オプションをオフにすることで、以後の会話やアップロードファイルが学習に利用されないようにできます。

チャット/アカウントの削除

  • チャットを削除すると、その会話と関連するファイルは最大30日でシステムから削除されます。
  • アカウントを削除すれば、すべての会話やファイルが同様に削除対象となります。

ビジネスプランのカスタムポリシー

TeamやEnterpriseの場合、管理者が保持期間やオプトイン設定を細かく制御できます。

高度なデータ分析(ADA)の保持

高度なデータ分析を通じて処理されたファイルは、無料版/有料版などのプランによって保持期間が異なる場合があります。

ChatGPT

Gemini (Google)

プラン入力データの学習利用アップロードファイルの利用ユーザーによるコントロールその他
Gemini for Workspace (Google Workspaceアカウント)
  • 明示的許可がない限りAIモデルのトレーニングに使わない
  • 企業のセキュリティポリシーをそのまま適用可能
  • Workspaceと同等のエンタープライズレベルの保護が適用
  • 既存の組織管理体制に準拠
  • 企業向け管理機能を利用可
  • 既存のポリシーとの連携も容易
  • 機密データを扱う企業に適した高いプライバシー保障
Gemini Apps (個人アカウント, 無料/有料)
  • 入力データはGoogleのAI学習に使われる可能性あり
  • 匿名化のうえ人間レビューが行われる場合も
  • 設定オフでも最大72時間は保存
  • 2025年3月現在はトレーニングに使われないと明言
  • ただしフィードバックとして明示的に提供した場合は利用される可能性あり
  • 「Gemini Appsアクティビティ」設定のオン/オフで制御
  • フィードバック送信時は機密情報に注意
  • 無料版と有料版で大きな差はない
  • モデル改善への利用を気にする場合は設定を確認

Googleが提供する「Gemini」は、AIモデルを活用した新世代のサービスです。Google Workspaceアカウントを通じて利用する「Gemini for Workspace」と、個人アカウントで使う「Gemini Apps」では、データの扱い方が一部異なります。企業向けでは厳格なプライバシー保護が適用され、個人向けでは匿名化や一時的な保存など、ユーザーデータの取り扱いに配慮した機能が用意されています。

入力データの学習への利用(無料版および有料版)

Gemini for Workspace(Google Workspaceアカウント)

  • ユーザーの明示的な許可がない限り、AIモデルのトレーニングには使われません。
  • 企業のセキュリティポリシーや管理体制を活かせるため、機密データの保護に適しています。

個人アカウント(Gemini Apps)

  • プロンプトや応答、フィードバックなどのデータは、Googleのサービスや機械学習モデルの品質向上に使われる可能性があります。
  • 匿名化された状態で、人間の担当者によるレビューが行われることがありますが、レビュー前にアカウントから切り離されるとされています。
  • 「Gemini Appsアクティビティ」設定がオフでも、最大72時間はサービス提供やフィードバック対応のため会話が保存されます。

アップロードされたファイルの取り扱いと学習への利用

  • 2025年3月時点で、個人向けGeminiにアップロードしたファイルはAIモデルの学習に使われていないと明言されています。
  • ただし、フィードバックとして明示的に提供した場合は、トレーニングに利用される可能性があるため注意が必要です。
  • 日常的に文書や画像を共有する場合は、どのようなデータを含むかをしっかり確認しましょう。

ユーザーによるコントロール

Gemini Appsアクティビティ設定

  • 会話がモデルの改善に利用されるかどうかをコントロール可能。
  • オフにしていても、サービス提供やフィードバック対応で最大72時間は会話が保存されます。

フィードバックの扱い

  • フィードバックとして送信したデータはモデルの学習に使われる可能性があります。
  • 機密情報を含む場合は、送信前によく確認しましょう。

無料版と有料版における違い

無料版と有料版のGemini Appsで、AIモデルへのデータ利用ポリシーに大きな差はないとされています。そのため、アクセスレベルの違いによってデータ利用が極端に変わることはなく、基本的なルールは共通しているようです。

Claude(Anthropic)

プラン入力データの学習利用アップロードファイルの利用ユーザーによるコントロールその他
無料版/Claude Pro
  • 明示的な許可なしには学習に使わない方針
  • 最長90日後にバックエンドから自動削除
  • 手動削除時は最大30日で完全削除
  • 「明示的同意なしに利用しない」ポリシーが示唆される
  • 会話の削除機能
  • 90日自動削除によりオプトアウト不要
  • 安全・倫理・プライバシーを強く重視
Claude for Work/Enterprise
  • 明示的な許可がない限りデータは学習に使われない
  • 組織独自のデータ保持ポリシーを設定可能
  • 詳細は企業向け契約やポリシーで管理
  • 最短30日などのカスタム保持期間設定
  • 組織のセキュリティ要件に合わせやすい
  • 高いデータ保護を求める企業や組織向け

AnthropicはAIサービス「Claude」を展開するにあたり、安全性・倫理性・プライバシーの3つをとても重視しています。特に、ユーザーの明示的な許可がない限り、コンシューマー向けサービスやベータ版でやり取りされたデータをAIモデルの学習に使わないことを明確に打ち出している点が特徴です。この方針によって、機密性の高い情報を扱う場面や、厳格なデータ保護を求めるユーザーから注目を集めています。

入力データの学習への利用(無料版および有料版)

無料サービス(Claude.aiやClaude Pro)

  • ユーザーのプロンプトや出力は、最長90日でバックエンドから自動削除されるポリシー。
  • 会話を手動で削除すれば、履歴からすぐに消え、最大30日以内にバックエンドからも完全削除。


エンタープライズ向け(Claude for Work/Enterprise)

  • 組織ごとに独自のデータ保持ポリシーを設定でき、最短30日などの期間を指定できる。
  • 一般ユーザーでも90日での自動削除ポリシーがあるため、データが長期的に残るリスクを低減している。


アップロードされたファイルの取り扱いと学習への利用

明示的な同意または特定の例外なしに、アップロードされた画像をトレーニングに使用しない。


ユーザーによるコントロール

  • 会話の削除機能: 削除した会話は履歴から直ちに消え、最大30日以内にバックエンドからも削除。
  • エンタープライズ向けポリシー: 組織の要件に合わせてデータ保持期間の細かい設定が可能。
  • コンシューマーユーザー向け: 90日での自動削除ポリシーが適用されるため、オプトアウトの手間が最小限で済む。

NotebookLM(Google)

プラン入力データの学習利用アップロードファイルの利用ユーザーによるコントロールその他
個人アカウント
  • AIモデルのトレーニングには一切使われない
  • フィードバック時のみ人間のレビュー担当者が確認する可能性あり
  • 文書やノートは保持されるがトレーニングには未使用
  • クエリ自体は保存されない
  • いつでもアップロードデータを削除可能
  • レビューされる場合はユーザーの明示的なフィードバック提出時のみ
  • クエリが保存されないためデータフットプリントが小さい
  • 送る内容は自己判断で管理する必要あり
Workspace/Educationアカウント
  • 同様にAIモデルのトレーニングには利用されない
  • 人間によるレビューも行われない
  • アップロードされた文書やノートは保持されるが学習には使われない
  • クエリは保存されない
  • アップロードデータはユーザーが削除可能
  • クエリのレビュー自体が発生しない
  • より強いプライバシー保護が適用される
  • 機密情報を扱う専門家や学生にも安心

GoogleのNotebookLMは、ユーザーの個人データをAIモデルのトレーニングに一切使用しないという明確な方針を掲げています。アップロードした文書や作成したノートは必要に応じて保存されますが、クエリ自体は保存されないため、データの扱いを細かくコントロールできる点が特長です。さらに、個人用アカウントとWorkspace/Educationアカウントでプライバシー保護の仕組みが異なるのもポイントです。

入力データの学習への利用(無料版および有料版)

NotebookLMでは、ユーザーの入力データ(クエリや文書など)をAIモデルのトレーニングに利用することはありません。そのため、「無料版/有料版」での違いは特にないと考えられます。個人アカウントでもWorkspace/Educationアカウントでも、ユーザーデータが勝手に学習に使われることはない仕組みです。

ただし、個人アカウントでNotebookLMに対するフィードバックを送る場合は、人間のレビュー担当者による確認が行われる可能性があります。これはトラブルシューティングやサービス改善を目的とした限定的なプロセスであり、どのような内容を送るかはユーザー自身でよく判断することが求められます。

アップロードされたファイルの取り扱いと学習への利用

アップロードした文書やノート、音声概要は、ユーザーが情報を操作・管理できるように保存されますが、NotebookLMのAIトレーニングには使われません。ユーザーが削除を行わない限りは保持されますが、必要に応じていつでも削除できるため、データ管理の自由度が高いのが特徴です。また、Workspace/Educationアカウントを使っている場合は、このアップロードデータを人間のレビュー担当者が確認することはないとされています。

ユーザーによるコントロール

NotebookLMでは、ユーザーがアップロードした文書やノートを自分で削除しない限り保持されます。一方で、クエリは記録されないため、ユーザーがどのような問い合わせをしたかはプラットフォーム側に基本的に残らない設計です。個人アカウントの場合は、フィードバックを送るときにのみ、内容をレビューされる可能性があるという点に注意しましょう。Workspace/Educationアカウントではそうしたレビューは行われず、より強固なプライバシー保護が適用されます。

Perplexity AI

プラン入力データの学習利用アップロードファイルの利用ユーザーによるコントロールその他
無料版/Pro
  • 検索クエリとフィードバックがモデル改善に使用される可能性あり
  • 設定でオプトアウトが可能
  • 30日間保持され、会話内の回答にのみ利用
  • 他の目的でアクセスされない
  • アカウント設定からオプトアウト
  • アカウント削除で30日以内にデータ削除
  • ユーザー自身でプライバシー管理がしやすい
エンタープライズ
  • AIトレーニングへのユーザーデータ利用なし
  • より強力なプライバシー保証を提供
  • 同様に会話の回答にのみ利用
  • 30日後は参照不可
  • 組織の要件に合わせたデータ管理が可能
  • アカウント削除もサポート
  • 企業向けに設計されたより安心なプラン

Perplexity AIは、検索クエリとフィードバックを使ってサービスの精度や利便性を高める仕組みを導入しています。ただし、ユーザーはプロフィール設定から「AI Data Usage」をオフにすることで、自分の検索クエリがモデル改善に使われるのをオプトアウトできるようになっています。また、アップロードされたファイルは特定の会話の応答にのみ使用され、30日後にはアクセスできなくなるなど、プライバシー保護の取り組みが行われています。

入力データの学習への利用(無料版および有料版)

Perplexity AIの無料版とPro版では、ユーザーの検索クエリがデフォルトでモデル学習に利用される可能性がありますが、前述のオプトアウト設定を使うことで回避できます。一方、エンタープライズプランではユーザーデータがAIのトレーニングに使われないことが明示的に保証されています。この点で、企業ユーザーはより強力なプライバシー保護を受けられます。

アップロードされたファイルの取り扱いと学習への利用

ユーザーがアップロードしたファイルの内容は、会話スレッド内の質問にカスタマイズされた回答を提供するためだけに使われます。Perplexityはファイルを他の目的でアクセス・共有しないと明言しており、30日経過するとファイルの内容は参照できなくなる仕組みです。ただし、同じ会話スレッド内の「質問と回答の履歴情報」は残る可能性がある点に注意が必要です。

ユーザーによるコントロール

ユーザーは、アカウント設定で検索クエリやフィードバックの学習利用をオプトアウトでき、アカウント削除を行えば30日以内にサーバーからデータが削除されます。これらの機能によって、ユーザーは自分のデータがどのように使われるかをコントロールしやすくなっています。

perplexity

GenSpark

プラン入力データの学習利用アップロードファイルの利用ユーザーによるコントロールその他
無料版/有料版
  • ログインしていない場合、検索データはAI学習に利用される可能性あり
  • ログイン時に設定をオフにしない限りデータが学習に使われる
  • 仮想試着用の写真は顔認識や生体認証には未使用
  • 学習への利用可否は明記されていない
  • 設定ページでAI目的のデータ収集をオフにできる
  • 削除リクエストやアカウント閉鎖により30日以内にデータ削除
  • AIによる検索結果や「Sparkpages」を提供
  • アップロードファイルは特定目的に限定利用

Gensparkは、ユーザーの入力データをもとにAIがリアルタイムで検索結果を提供し、「Sparkpages」というカスタムページを生成するサービスです。ユーザーがログインしている場合は設定ページで「AIデータ保持」を無効化できる一方、ログインしていない場合はユーザーの検索データがAIモデルの改善に使われる可能性があります。写真を含むアップロードファイルは特定の目的(仮想試着など)に使用されると明言されていますが、それがAI学習に使われるかどうかは明確には記載されていません。

入力データの学習への利用(無料版および有料版)

無料版・有料版ともに、ユーザーがログインし設定を変更しない限り、検索データなどがAIモデルの改善に利用される可能性があります。ただし、ログイン状態のユーザーは「AIデータ保持」をオフにでき、学習利用を制限することができます。ファイルアップロードやエージェント利用履歴なども、同様にユーザーが意図的にオフにしない限りは学習対象になり得ると考えられます。

アップロードされたファイルの取り扱いと学習への利用

アップロードしたファイルは、サービス提供に必要な範囲で利用されるとされています。特に写真については、仮想試着のためだけに使用され、顔認識や生体認証データの抽出は行われないと明言されています。ただし、アップロードされたファイルがAIモデルの学習に使われるかどうかについては、はっきりとした説明が見当たりません。アカウントが有効である限りファイルが保管される可能性がある一方、アカウント削除時には30日以内にサーバーから削除されるとされており、ユーザーは必要に応じて削除リクエストを行うことができます。

ユーザーによるコントロール

ユーザーは設定画面でAI向けのデータ収集を無効にすることができ、またアカウント削除をリクエストすれば、30日以内に個人データが削除されます。ただし、削除リクエストを行わない限り、アップロードしたファイルが自動的に削除されるタイミングや詳細は明確に示されていないため、気になる場合は明示的に連絡を取って削除を依頼する必要があるかもしれません。

genspark

Felo

プラン入力データの学習利用アップロードファイルの利用ユーザーによるコントロールその他
無料版
  • ユーザーの入力データをAIモデルの学習に使用しない
  • API連携でも同様の方針を適用
  • アップロードファイルは回答生成のみで使用
  • 7日後に自動削除される
  • ファイルや検索履歴を自由に削除可能
  • ユーザーデータの取り扱いが明確に定義
  • 学術研究や機密性の高い文書を扱うケースにも対応
Felo Pro(有料版)
  • 同じくAIモデルのトレーニングには利用しない
  • 第三者への共有もなし
  • ユーザーアカウント内で管理し続けるが外部流出なし
  • 回答作成以外では使用しない
  • ファイル管理や保持期間を柔軟に設定可能
  • 必要に応じて削除も自由に行える
  • 高度なプライバシー要件にも対応
  • API連携時も同じポリシーが維持される

Felo AIは、東京に拠点を置くAI検索エンジンで、多言語での情報検索と学術リソースの統合に注力しています。ユーザーが入力したデータやアップロードしたファイルは、回答を作成したり関連タスクを実行したりするためだけに使われ、AIモデルの学習には用いられません。無料ユーザーは7日間、有料プラン(Felo Pro)のユーザーはカスタマイズされた保持設定を通じて、ファイルを安全に管理できます。機密性の高い文書を扱うユーザーにとっても、情報漏えいリスクが最小限に抑えられる構造が魅力です。

入力データの学習への利用(無料版および有料版)

Feloは無料・有料を問わず、ユーザーの入力データをAIモデルのトレーニングに使わない方針を明示しています。そのため、利用者はプランを選ばずに安心して検索やファイルのアップロードが可能です。また、APIを介した連携でも同じポリシーが適用される点は大きなメリットです。

アップロードされたファイルの取り扱いと学習への利用
ユーザーがアップロードしたファイルは、回答生成などのサービス提供に必要な範囲でのみ使用され、第三者や他の目的への転用は行われません。無料ユーザーの場合は7日間の保持期間後に完全削除され、有料プランではユーザーアカウント内で管理されるだけで、外部への流出やモデル学習への転用はありません。このように、ユーザーごとに明確なデータ管理ルールが設定されています。

ユーザーによるコントロール
ユーザーは、Felo AI上にアップロードしたファイルや検索履歴を自分で管理できます。無料プランではファイルが自動的に7日で削除されますが、必要に応じて早めの削除も可能です。有料プランでは、保持期間やデータ管理方法を柔軟に調整できる場合があります。Feloのプライバシーポリシーによると、「AIモデルのトレーニングに利用しない」ことが保証されており、利用者は自分のデータがどのように使われるかをはっきりと理解した上でサービスを利用できます。

felo
Share the Post:

Related Posts