// HOW TO USE

ようこそ、AI Security Lab へ

全17レッスンを通じて、生成AIを安全に使うための知識を身につけましょう。
各レッスンを受講後に「受講済み」ボタンを押すと、進捗が記録されます。

1
📖
レッスンを受講する
上部の「レッスン」から各レッスンにアクセスできます。序章・L01は無料、L02以降はログイン後に閲覧できます。
2
受講済みにする
各レッスンの最後にある「受講済みにする」ボタンを押すと進捗に記録されます。
3
📊
進捗を確認する
上部の「📊 進捗」ボタンで修了証申請ページへ、ページ下部で各レッスンの受講状況を確認できます。
4
🎓
修了証を取得する
全17レッスンを受講済みにすると修了証の発行申請ができます。担当者よりPDFをメールでお送りします。
生成AI × セキュリティ eラーニング

あなたの会社の情報は、
今も漏れている
かもしれない。

ChatGPT・Claude・Geminiを業務で使う全ての方へ。「何を入力してはいけないか」「正しい設定は何か」「万が一の初動は何か」——中小企業の現場に直結した、実践的なAIセキュリティ教育。

序章・レッスン01は無料で受講できます
⚠️
81%
教育なしで生成AIを
使い続ける日本企業
📋
17
実践的なレッスン数
(序章 + 全6章)
約5h
目安学習時間
隙間時間での受講も可
// WHY IT MATTERS

こんな状況に、心当たりはありませんか?

01
社員がAIを使い始めているが、何を入力しているかわからない
顧客名・契約内容・社内資料が毎日プロンプトに入力されている可能性があります。
02
AI利用ルールを決めたいが、何から手をつければいいかわからない
何を禁止し何を許可すればいいのか判断できず、整備が後回しになっています。
03
著作権・個人情報保護法的に問題ないか不安がある
AIが生成した文章の著作権は誰のものか。個人情報を入力することは問題ないのか。
04
取引先から「AIをどう管理しているか」と聞かれたとき答えられない
「特に何もしていない」では信頼を失うリスクがあります。
05
無料版と有料版で情報の扱いが違うと聞いたが正確にわからない
プランによってデータの扱いは大きく異なります。正確な情報を持っていますか?
06
万が一情報漏洩が起きたとき、最初に何をすればいいかわからない
初動対応の遅れが被害を拡大させます。事後対応を知っておくことは必須です。
総務省・経済産業省「AI事業者ガイドライン(第1.1版)」(2024年4月公表)および個人情報保護委員会の調査によると、生成AIの活用に関して明確なポリシーと研修を導入している組織は、日本ではわずか19%にとどまる。約81%の企業が、ルールも教育も整備しないまま生成AIを使い続けています。このeラーニングは、その空白を埋めるために作られました。
// CURRICULUM

カリキュラム

序章 + 全4章・16レッスン。各章末に理解度テスト付き。

序章なぜ今、AIセキュリティを学ぶ必要があるのか1レッスン
00日本企業の8割が教育なしでAIを使っている現実無料
第1章AIと情報漏洩の基礎知識4レッスン
01ChatGPTに入力した情報はどこへ行くのか無料
02「学習オフ」設定の意味と限界受講者限定
03シャドーAIとは何か・なぜ危険か受講者限定
04クラウドAIとオンプレAIの違い受講者限定
第2章ツール別・やってはいけないこと4レッスン
05ChatGPT(無料版・有料版・Teams版)の違い受講者限定
06Claude・Gemini・Copilotのセキュリティ設定比較受講者限定
07「社外秘」「個人情報」「顧客情報」の判断基準受講者限定
08業種別リスク事例(不動産・介護・飲食・士業)受講者限定
第3章法律・著作権・倫理3レッスン
09AIと個人情報保護法の関係受講者限定
10著作権侵害になるケース・ならないケース受講者限定
11ハルシネーションと法的責任受講者限定
第4章会社・チームとして整備すること4レッスン
12AI利用ガイドライン作成テンプレート(DL可)受講者限定
13インシデント発生時の初動対応フロー受講者限定
14中小企業でもできる最低限の体制づくり受講者限定
15【まとめ】今日からできる10のアクション受講者限定
第5章よくある事例と実践ケーススタディ1レッスン
16業種・シーン別 よくある事例集(20事例)受講者限定
第6章主要AIツール 徹底比較1レッスン
17ChatGPT / Gemini / Claude / Genspark / Manus / NotebookLM の使い分けと注意点受講者限定
// LESSONS

レッスン

INTRO // 序章

日本企業の8割が教育なしで
AIを使っている現実

📖 読了時間:約10分 🎯 難易度:入門 🆓 無料公開
// PODCAST
🎙 序章:音声で聴く「AI Security Lab」
このレッスンの内容を対話形式の音声で聴けます。通勤・移動中などにご活用ください。(約17分)

※ 再生速度はプレーヤー右側のメニューから変更できます

2022年11月、OpenAIがChatGPTを公開してからわずか2年あまりで、生成AIは日本のビジネス現場に急速に浸透しました。メールの下書き、議事録の要約、企画書のアイデア出し——かつては人間が1〜2時間かけて行っていた作業が、数十秒で完了するようになりました。

その利便性は本物です。ある不動産会社では、物件資料の作成時間が従来の3分の1に短縮されました。介護施設では、申し送り文書の下書きをAIが作成することで、担当者の残業が月20時間減ったという報告もあります。

しかし、その便利さの裏で、静かに進行しているリスクがあります。

// 総務省・経済産業省 AI事業者ガイドライン(第1.1版)2024年
生成AIの活用に関して明確なポリシーと研修を導入している組織は、日本ではわずか19%にとどまる。約81%の企業が、ルールも教育も整備しないまま生成AIを使い続けている。

「使っている」と「管理している」は全く別の話

ここで、経営者・管理職の方に一つ問いかけます。

「あなたの会社の社員は、今週AIに何を入力しましたか?」

おそらく、正確に答えられる方はほとんどいないはずです。それが問題の本質です。生成AIは「入力した内容を外部サーバーに送信して処理する」仕組みです。社員が何気なく入力した顧客名・契約金額・社内の人事情報が、毎日何十回も外部に送り出されている可能性があります。

// 情報漏洩が起きるまでの典型的な流れ
① 社員が「便利だから」とAIを使い始めるルール不在
② 業務効率化のために顧客情報を入力する無意識のリスク
③ 情報が外部サーバーに送信・保存される制御不能
④ 数週間〜数ヶ月後に問題が発覚する手遅れ
⑤ 顧客・取引先への説明・謝罪が必要に信頼失墜

実際に起きた3つの事例

不動産業・国内営業担当者による顧客情報の無意識入力
都内の不動産仲介会社で、営業担当者が「田中様(45歳・年収800万・離婚歴あり・○○区在住)向けの提案書を作って」とChatGPTに入力。実名・年齢・年収・個人的な事情が組み合わさった情報が外部サーバーに送信されました。後日、会社として個人情報保護委員会へ相談した際、「適切な取り扱いではなかった可能性がある」との見解が示されました。

問題点:個人情報保護法第27条(第三者提供の制限)に抵触する可能性。顧客の同意なく第三者(OpenAI)のサーバーに提供したことになりえます。
大手電機メーカー・韓国(国際事例)エンジニアによるソースコード流出
エンジニアが社内システムのバグ修正のためにソースコード(機密情報)をそのままChatGPTに貼り付けて入力。この事例が社内で発覚し、会社はChatGPTの全社利用を禁止する事態となりました。「コードを修正させるだけ」という軽い気持ちが、機密情報の外部送信につながりました。

教訓:技術情報も個人情報と同様に、外部サービスへの送信には慎重な判断が必要です。
士業・国内(弁護士)依頼人情報と守秘義務の問題
弁護士が依頼人の案件をAIに要約させるため、依頼人の実名・事案の詳細(相手方の情報を含む)を入力。後日、弁護士会からの指導を受けることになりました。弁護士には弁護士法第23条に基づく職業上の守秘義務があり、AIへの入力が義務違反にあたるかどうかが問題となりました。

教訓:職業上の守秘義務を持つ士業(弁護士・税理士・社労士等)は特に慎重な対応が求められます。
// 共通点
これらの事例に共通するのは、「悪意がなかった」という点です。業務を効率化しようとした善意の行動が、情報漏洩リスクを生みました。「知らなかった」では済まないのが情報管理の世界です。

このコースで身につくこと

  • 1判断基準が明確になる——「これは入力していいか?」を毎回上司に確認しなくても自分で判断できるようになります。
  • 2今すぐ設定すべきことがわかる——ChatGPT・Claude・Gemini・Copilotそれぞれの設定方法と、最低限すべき対応がわかります。
  • 3社内ルールを作れるようになる——ゼロからガイドラインを作るためのテンプレートと実践手順を提供します。
  • 4万が一の初動を知る——インシデントが発生したとき、最初の1時間に何をすべきかを理解します。
// 対象者
AI導入を検討している経営者・管理職 / すでにAIを使っている現場社員 / 社内のAIルール整備担当者 / 不動産・介護・飲食・士業に携わる方。特別なIT知識は一切不要です。
// 参考文献・出典
  • 総務省・経済産業省「AI事業者ガイドライン(第1.1版)」2024年4月19日公表 → 経済産業省
  • 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」2023年6月2日 → 個人情報保護委員会
  • 個人情報の保護に関する法律(令和2年改正法、2022年4月施行)第27条(第三者提供の制限)
CHAPTER 01 // LESSON 01

ChatGPTに入力した情報は
どこへ行くのか

📖 読了時間:約12分 🎯 難易度:入門 🆓 無料公開

「ChatGPTに入力した内容はOpenAIのサーバーに送られる」——これを知っている方は多いでしょう。しかし問題は「その先、何が起きるか」を正確に理解している人がほとんどいないことです。

「サーバーに送られる」という事実だけでは、リスクを適切に判断できません。このレッスンでは、情報の流れを具体的に追いながら、どこにリスクがあるかを整理します。

情報が「旅する」経路を理解する

// あなたが送信ボタンを押した後に起きること
① 暗号化して送信(HTTPS通信)通信経路上の盗聴リスクは低い
② OpenAIの米国サーバーに到達ここで「外部」に出た状態。国内法の適用範囲外
③ AIモデルで処理・回答生成サーバー内で処理される
④ 会話履歴としてサーバーに保存削除しない限り保持される
⑤ プランによって学習データに使用される場合ありFree:デフォルトでON
// 重要:外国への個人データ送信
ChatGPTのサーバーは米国に存在します。個人情報保護法第28条は「外国にある第三者への提供の制限」を定めており、個人データを米国の事業者に送信する際には特別な対応が必要になる場合があります。無料プランで何気なく使っている場合、この規制を無意識に違反している可能性があります。

プランによってリスクは大きく変わる

// ChatGPT:プラン別データ取り扱い(2025年時点・OpenAI利用規約に基づく)
Free(無料)学習:デフォルトON。設定でOFF可(個人単位)
Plus(月額$20)学習:設定でOFF可。個人単位での設定が必要
Team(月額$25〜/人)学習:契約レベルでOFF保証。管理者機能あり
Enterprise(要相談)完全データ保護・SOC2 Type II認証

「学習に使われない」≠「安全」

ここが最も誤解される部分です。学習をオフにしても、情報はサーバーに送信・保存されています。以下のリスクは設定に関係なく残ります。

  • OpenAI社員によるアクセス——安全性確認・品質管理のため、従業員が会話内容を確認することがOpenAI利用規約に明記されています。
  • 法的開示要請——司法機関から要請があれば、会話データが開示される可能性があります。米国法の適用を受けるOpenAIには、米国の裁判所命令が優先されます。
  • サービス障害による流出——2023年3月20日、ChatGPTで実際に一部のChatGPT Plus会員(全体の約1.2%)の氏名・メールアドレス・支払い住所・クレジットカード番号下4桁が他ユーザーに表示されるバグが発生し、サービスが一時停止しました(OpenAI公式発表)。

入力してよいもの・いけないものを判断する

// Before / After:不動産業の入力例
❌ Before(危険)「田中様(42歳・年収700万・○○市在住)へのマンション提案書を作って」
✅ After(安全)「40代・年収700万円台のサラリーマン向けマンション提案書のフォーマットを作って」
// Before / After:介護業の入力例
❌ Before(危険)「鈴木さん(82歳・認知症・骨折後リハビリ中)の申し送り文を書いて」
✅ After(安全)「80代・認知機能低下・骨折後リハビリ中の利用者の申し送り文のフォーマットを作って」
// Before / After:飲食業の入力例
❌ Before(危険)「常連の佐藤様(小麦アレルギー・毎週金曜来店)へのお礼メールを書いて」
✅ After(安全)「食物アレルギーのある常連客向けのお礼メールのテンプレートを作って」
// 判断の原則
「この情報が外部に漏れたとき、会社・顧客・取引先に不利益が生じるか?」——YESなら入力しない。迷ったら入力しないが絶対原則です。

今日から実践する3つのこと

  • 1ChatGPTの設定を今すぐ確認する——Settings → Data Controls → 「Improve the model for everyone」をオフに。(5分で完了)
  • 2実名・住所・金額を入力前に仮名に置き換える習慣をつける——「田中様」→「A様」、「○○円」→「●●円」。入力前の15秒の確認が情報漏洩を防ぎます。
  • 3このレッスンをチームに共有する——一人が知っていても組織は守れません。まずこのページのURLを同僚に送ってください。
// 参考文献・出典
  • OpenAI「March 20 ChatGPT outage: Here's what happened」2023年3月24日 → OpenAI公式
  • 個人情報の保護に関する法律 第27条(第三者提供の制限)・第28条(外国にある第三者への提供の制限)
  • 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」2023年6月2日 → 個人情報保護委員会
  • OpenAI利用規約(Terms of Use)・プライバシーポリシー → OpenAI
// 理解度チェック
ChatGPT無料プランで「学習オフ」設定をした場合、正しい説明はどれですか?
✅ 正解です。「学習オフ」は学習データとしての使用を止める設定であり、情報の送信自体は止まりません。情報はOpenAIのサーバーに送信・保存されています。この区別がセキュリティ判断の出発点です。
❌ 不正解です。「学習オフ」設定をしても、入力情報はOpenAIのサーバーに送信されます。「送信されない」と「学習に使われない」は全く別の概念です。

このレッスンの内容を確認しましたか?

CHAPTER 01 // LESSON 02

「学習オフ」設定の意味と限界
——正しい設定手順と残るリスク

📖 読了時間:約10分🎯 難易度:入門

「学習オフにすれば大丈夫」——この認識が最も危険です。設定は確かに重要ですが、それだけでは守れないリスクがあります。このレッスンでは主要ツールの設定手順を具体的に解説し、設定後も残るリスクを正確に伝えます。

ChatGPT:設定手順(2025年版)

  • 1右上のアカウントアイコン → 「Settings(設定)」 をクリック
  • 2左メニュー 「Data controls(データ管理)」 を選択
  • 3「Improve the model for everyone」をオフ(グレー)にする
  • 4確認ポップアップが出たら「OK」で完了
// 重要:アカウント単位の設定
この設定はアカウントごとに必要です。5人で使っているなら5人全員が設定しなければなりません。一括設定はTeam・Enterpriseプランのみ可能です。Free・Plusプランには管理者機能がありません。

主要AIツールの設定比較(2025年時点)

// ツール別:データ学習設定の可否と方法
ChatGPT Free学習ON(デフォルト)/個人設定でOFF可
ChatGPT Plus個人設定でOFF可/Team移行を推奨
ChatGPT Team組織全体でOFF保証(契約レベル)
Claude Pro(Anthropic)訓練への直接使用なし(Anthropicポリシー)
Gemini(個人Googleアカウント)アクティビティ設定でOFF可
Gemini(Google Workspace法人)管理者がポリシー設定で制御。デフォルトで学習利用なし
Copilot(Microsoft 365)IT管理者によるテナント設定が必要

設定後も残る3つのリスク

// 設定しても解消されないリスク
① サーバーへの送信・一時保存情報は必ず外部に出る(個情法第28条の対象になりえる)
② サービス会社従業員のアクセス品質管理・安全性確認目的で閲覧される場合あり
③ セキュリティインシデント2023年3月のChatGPTバグ事案のようなリスクは継続的に存在
// 結論
設定は「やらないよりはるかに良い」。しかし「設定したから何でも入力できる」は誤り。個人情報・社外秘の入力禁止ルールとセットで機能します。

設定完了チェックリスト

// 今すぐ確認する項目
□ ChatGPTの学習設定をオフにしたSettings → Data controls
□ 全社員が個別に設定した(または法人プランに移行した)Team推奨
□ Gemini/Copilotも設定またはIT部門に確認したツールによる
□ 「設定した=何でも入力してよい」という誤解がないか確認した教育が必要
// 参考文献・出典
  • OpenAI「Privacy Policy」(2025年版)→ OpenAI
  • Anthropic「Privacy Policy」→ Anthropic
  • 個人情報の保護に関する法律 第28条(外国にある第三者への提供の制限)
  • 個人情報保護委員会「個人情報保護法についてのガイドライン(通則編)」(令和6年12月一部改正)
// 理解度チェック
ChatGPTの「学習設定オフ」について、正しい説明はどれですか?
✅ 正解です。設定はアカウント単位のため、5人が使っていれば5人全員が個別に設定する必要があります。一括設定はTeam・Enterpriseプランのみです。
❌ 不正解です。設定は各アカウントで個別に行う必要があります。設定後も個人情報の入力は避けてください。

このレッスンの内容を確認しましたか?

CHAPTER 01 // LESSON 03

シャドーAIとは何か
——会社が知らない間に起きていること

📖 読了時間:約10分🎯 難易度:入門〜中級

「シャドーAI(Shadow AI)」とは、会社の許可・管理なしに従業員が個人的にAIツールを業務利用する行為です。「シャドーIT」の生成AI版と言えます。

「うちはAIを導入していないから関係ない」——そう思っているなら、それは危険な誤解です。導入していないから「存在しない」のではなく、見えていないだけです。

シャドーAIはなぜ起きるか

// シャドーAIが発生する3つの根本原因
① ルールがない「禁止」とも「許可」とも言われていない(グレーゾーン)
② 便利だから使う善意の効率化行動。「仕事が早くなる」という動機
③ 「個人の端末だから大丈夫」という誤解入力情報はどの端末でも外部のサーバーに送信される

業種別:こんな使い方が実際に起きている

不動産業個人スマホのChatGPTで顧客情報を入力
会社のPCでは禁止されているが、個人のスマートフォンで業務中にChatGPTを使用。「お客様の田中様(○○市、3,000万円の物件検討中)向けの提案文を書いて」と入力していたケースが、上司の確認で発覚。

法的問題点:会社のルールが個人端末にも及ぶことを社員が認識していませんでした。個人情報保護法上は、端末の種類に関わらず「業務上取り扱う個人データ」として保護義務が生じます。
介護施設スタッフが個人LINEのAI機能を業務利用
LINEのAIアシスタント機能を使って、利用者の申し送り文を作成していたスタッフが発覚。「施設でAIを使っていない」と管理者は認識していたが、個人のLINEを通じた非公式利用が日常化していました。

問題点:LINEは日本法人が運営しますが、親会社LINEヤフーを通じて韓国・中国サーバーとのデータ連携の可能性が指摘されており、医療・介護情報の取り扱いには特に慎重さが必要です。
士業(税理士事務所)補助スタッフによる顧客情報入力
補助スタッフが「効率化のため」と個人判断でClaudeを使用し、顧客の確定申告データの整理に活用。所長は全く知らなかった。税理士法第38条に定める守秘義務の観点から深刻な問題でした。

シャドーAIへの現実的な対処法

  • 1現状を把握する(アンケート)——「今どんなAIを使っているか」を責めずに聞く。罰則的なアプローチは隠蔽を生むだけです。
  • 2許可リストを作る——「これはOK、これはNG」を明示する。グレーゾーンをなくすことがシャドーAI抑制の核心です。
  • 3全員が同じ教育を受ける——このeラーニングを全員が受講することで、「知らなかった」による無意識リスクを大幅に削減できます。

【実践】シャドーAI実態把握アンケート(ひな形)

責めない・罰しない雰囲気で実施することが最重要です。「正直に教えてもらうことが会社にとって一番大事」と最初に伝えてから配布してください。

// 社内AIアンケート(コピーして使用可)
Q1. 仕事でAIツールを使ったことがありますか?ある / ない / 試したことがある
Q2. 使っているAIツールはどれですか?(複数可)ChatGPT / Claude / Gemini / LINE AI / その他(  )
Q3. 主にどんな業務で使っていますか?メール作成 / 書類作成 / 調査・リサーチ / その他(  )
Q4. どのアカウントで使っていますか?会社アカウント / 個人アカウント / わからない
Q5. 顧客名・住所・金額等を入力したことがありますか?ある / ない / わからない
Q6. AIの利用ルールがあれば従いますか?はい / ルールの内容による / 効率が下がるなら難しい
// 実施のポイント
Q5で「ある」と答えた人が複数いた場合、それがシャドーAIの証拠です。責めるのではなく「ありがとう、正直に教えてくれて助かった」と応答し、次のステップ(ガイドライン整備)に進みます。アンケートは匿名で実施することで回答率と正直さが上がります。

シャドーAIを「見える化」する3ステップ

  • 1アンケートを実施する(上記ひな形を使用・匿名・1週間以内)——まず事実を把握しないと何も始まらない。
  • 2許可ツールリストを作成・共有する(L12参照)——「これはOK・これはNG」を一覧にして全員に配布。グレーゾーンをなくす。
  • 3全員がこのeラーニングを受講する——知識の底上げにより「知らずにやってしまう」リスクを削減。
// ポイント
「全面禁止」は機能しません。便利なツールを禁止しても、社員は隠れて使います。「正しい使い方を教えた上で、安全なツールを提供する」アプローチが最も効果的です。
// 参考文献・出典
  • 個人情報の保護に関する法律 第23条(安全管理措置)——端末の種類を問わず業務上の個人データ管理義務が適用される
  • 税理士法 第38条(秘密を守る義務)——税理士及びその補助者に守秘義務が課される
  • 総務省・経済産業省「AI事業者ガイドライン(第1.1版)」2024年4月 → 経済産業省
// 理解度チェック
シャドーAIへの対応として最も適切なアプローチはどれですか?
✅ 正解です。全禁止は現実的でなく、厳罰主義は隠蔽を生みます。現状把握→許可リスト作成→教育という順序が最も効果的です。
❌ 不正解です。全禁止・放置・厳罰はいずれも逆効果です。正解は「現状把握→許可リスト→教育」のアプローチです。

このレッスンの内容を確認しましたか?

CHAPTER 01 // LESSON 04

クラウドAIとオンプレAIの違い
——中小企業はどちらを選ぶべきか

📖 読了時間:約10分🎯 難易度:中級

「AIを安全に使いたいなら自社サーバーに入れればいい」——これは理屈としては正しいですが、中小企業の現実には合っていない場合がほとんどです。このレッスンでは選択肢を整理し、中小企業に最も現実的な答えを提示します。

クラウドAI vs オンプレミスAI:根本的な違い

// 2つのアーキテクチャ比較
データの所在クラウド:外部サーバー(海外含む) / オンプレ:自社内
初期コストクラウド:低い / オンプレ:高い(数百万〜数千万円)
導入期間クラウド:即日〜数日 / オンプレ:数週間〜数ヶ月
セキュリティ制御クラウド:サービス会社依存 / オンプレ:自社完全管理
AI性能クラウド:GPT-4等の最新モデル利用可 / オンプレ:やや劣る場合あり
保守・運用クラウド:サービス会社が担当 / オンプレ:自社またはベンダー

中小企業に現実的な「第3の選択肢」

完全なオンプレミスは中小企業には過剰投資になる場合がほとんどです。現実的な選択肢は「クラウドAIの法人向けエンタープライズプラン」です。

推奨①ChatGPT Team(月$25〜/ユーザー)
データが学習に使われず、管理者機能も使える。5名で月約15,000〜18,000円(為替による)。費用対効果が高く、中小企業の最初の一手として最もおすすめです。OpenAIとのデータ処理委託契約(DPA)が自動的に締結されます。
推奨②Microsoft Azure OpenAI Service
Microsoft 365をすでに使っている企業に適しています。企業向けのセキュリティ・コンプライアンス基準に対応し、データが学習に使われないことが保証されています。IT部門や外部ベンダーとの連携が必要です。
推奨③Claude for Enterprise(Anthropic)
SOC2 Type II認証対応。法律事務所・医療機関・金融機関など、特に高いセキュリティ基準が求められる業種に適しています。DPA(データ処理委託契約)の締結が可能です。
// プラン選択の判断フロー
社員5名未満・まず試したい→ ChatGPT Team
Microsoft 365をすでに使っている→ Azure OpenAI / Copilot(設定確認必須)
Google Workspaceを使っている→ Gemini for Workspace
医療・法律・金融など高機密業種→ Claude Enterprise / Azure OpenAI
完全な自社管理が必要(大企業)→ オンプレミス検討(専門家に相談)

実際に起きた失敗事例:「オンプレにすれば安全」の誤解

失敗事例①オンプレAIの導入コストで予算超過→結局中途半端に
状況:社員20名の不動産会社が「セキュリティのためオンプレAIを導入しよう」と決定。ベンダーから見積もりを取ったところ初期費用2,500万円・年間保守費用600万円という提示に。予算が確保できず、結局無料版ChatGPTのまま使い続けることになった。

教訓:理想を追いすぎて現実的な対策ができなくなる典型例。ChatGPT Teamであれば月額約9万円(20名)で導入できた。完璧を目指して「何もしない」より、現実的な法人プランで「今すぐ対策する」方が圧倒的に重要。
失敗事例②クラウドAIを「プライベートクラウド」と思い込んでいた
状況:「会社のPCからしかアクセスできないから社内システムと同じ」とChatGPT無料版を誤認識していた介護施設。実際には個人端末からもアクセス可能で、利用者情報を複数スタッフが入力していた。

教訓:「クラウド=社外サーバー」という基本認識が必要。アクセス端末の場所ではなく、データがどのサーバーに送信されるかが重要。

法人プランへの移行:4ステップ(ChatGPT Team を例に)

  • 1chat.openai.com にアクセス → 「Team」プランを選択——クレジットカード払い・請求書払いどちらも対応。
  • 2管理者アカウントを設定し、メンバーを招待——メールアドレスで招待。個人アカウントで使っていた社員は既存アカウントに組織を紐付け可能。
  • 3「社員は個人アカウントを業務で使用禁止」をルール化——口頭で伝えるだけでなく、L12のガイドラインに明記する。
  • 4管理ダッシュボードで使用状況を確認——誰がどれくらい使っているかを把握し、月1回確認する習慣をつける。
// 参考文献・出典
  • OpenAI「ChatGPT Enterprise Privacy」→ OpenAI
  • Anthropic「Claude for Enterprise」→ Anthropic
  • Microsoft「Azure OpenAI Service のデータ、プライバシー、セキュリティ」→ Microsoft Learn
// 理解度チェック
10名規模の不動産会社がAI導入を検討しています。最も現実的な選択はどれですか?
✅ 正解です。オンプレミスは中小企業には現実的でなく、無料プランは業務利用には不適切です。法人向けプランへの移行が最もバランスの良い選択です。
❌ 不正解です。無料プランの継続はリスクが高く、オンプレミスは過剰投資になりがちです。法人向けプランへの移行が現実的な最善策です。

このレッスンの内容を確認しましたか?

CHAPTER 02 // LESSON 05

ChatGPT 各プランの違い
——プラン選びがセキュリティを左右する

📖 読了時間:約10分🎯 難易度:中級

「ChatGPTを使っている」と一口に言っても、プランによってセキュリティ水準は雲泥の差があります。無料プランと法人プランを同列に扱うことは、セキュリティ管理上の致命的なミスです。

// ChatGPT 4プランの全比較(2025年時点・OpenAI公式情報に基づく)
プランFree → Plus → Team → Enterprise
月額(/ユーザー)無料 → $20 → $25〜 → 要相談
学習利用ON(デフォ) → OFF可 → OFF保証 → なし
管理者機能なし → なし → あり → 高度
一括設定不可 → 不可 → 可 → 可
DPA(データ処理委託契約)なし → なし → あり → あり
業務利用の推奨度❌非推奨 → ⚠️要設定 → ✅推奨 → ✅最高水準

無料プランで業務利用を続けることの具体的リスク

  • 🔴入力内容がAI学習に使われる——デフォルト設定のままでは、顧客情報がOpenAIの次世代モデルの学習データになる可能性があります(個情法上の「第三者提供」問題)。
  • 🔴管理者が使用状況を把握できない——誰が何を入力したか、会社として全く追跡できません。インシデント発生時に原因特定が不可能になります。
  • 🔴DPA(データ処理委託契約)が締結できない——個人情報保護法上「委託」として適法に整理するためには、OpenAIとの間に適切な契約関係が必要です。Team以上のプランでのみ可能です。

Teamプランで何が変わるか

// Free → Team:管理者から見た変化
❌ Free:「誰が何を使っているかわからない」完全にブラックボックス
✅ Team:「使用状況・ユーザー管理をダッシュボードで確認」可視化・管理可能
❌ Free:「学習オフ設定を各自に任せるしかない」設定漏れが発生しやすい
✅ Team:「契約レベルで学習利用なしが保証される」設定漏れリスクがゼロ
// コスト対比
5名でTeamプランに移行した場合の月額:約15,000〜18,000円(為替による)。情報漏洩1件の損害賠償の相場は被害者一人当たり数万〜数十万円とされ、顧客数百人分となれば数千万円規模になりえます(日本ネットワークセキュリティ協会「情報セキュリティインシデントに関する調査報告書」参照)。費用対効果は圧倒的です。

Teamプランへの移行:実際の手順(所要時間:約30分)

  • 1chat.openai.com → 「Upgrade」→「Team」を選択(5分)——クレジットカードまたは請求書払いを選択。
  • 2ワークスペース名を設定し、管理者メールアドレスを確認(5分)——会社名をワークスペース名に設定しておくと管理しやすい。
  • 3メンバーをメールアドレスで招待(10分)——既存の個人アカウントに紐付け可能。招待メールが各自に届く。
  • 4「個人アカウントでの業務利用禁止」をチームに通知(10分)——口頭または書面で伝え、L12のガイドラインにも明記する。

業種別:プラン変更後に変わること

// Free → Team:業種別・現場の変化
不動産物件提案書の作成を安心して依頼できる(匿名化ルールと併用)
介護申し送り文のフォーマット作成・ケアプランの下書きに活用(個人情報は除外)
飲食メニュー説明文・SNS投稿・口コミ返信文を安全に作成
士業書類のドラフト・説明文作成に活用(数値・法令は必ず一次ソースで確認)

「まだFreeプランを使っている」場合のリスク認識チェック

// 今すぐ確認:該当項目があれば移行を急いでください
□ 複数の社員がChatGPTを業務で使っている→ 誰が何を入力しているか把握できていない状態
□ 学習設定を「全員がオフにしている」か確認していない→ 設定漏れがある可能性が高い
□ OpenAIとのDPAが締結されていない→ 個情法上の「委託」として整理できていない
□ インシデント発生時に誰が何を入力したか追跡できない→ 法的対応が困難になる
// 参考文献・出典
  • OpenAI「ChatGPT Team」公式ページ → OpenAI
  • 日本ネットワークセキュリティ協会「情報セキュリティインシデントに関する調査報告書」(各年版) → JNSA
  • 個人情報の保護に関する法律 第27条第5項第3号(委託に伴う提供の例外)
// 理解度チェック
5名規模の会社でChatGPTを業務利用する場合、最も推奨されるプランはどれですか?
✅ 正解です。Teamプランは組織全体でのデータ保護が契約レベルで保証され、DPAの締結も可能です。個人設定に依存するプランとは根本的に安全性が異なります。
❌ 不正解です。個人設定に依存するプランは設定漏れのリスクがあり、DPAも締結できません。Teamプランなら組織全体での保証が得られます。

このレッスンの内容を確認しましたか?

CHAPTER 02 // LESSON 06

Claude・Gemini・Copilotの
セキュリティ設定比較

📖 読了時間:約10分🎯 難易度:中級

ChatGPT以外にも、業務で使われるAIツールは多岐にわたります。「ChatGPTだけ設定した」では不十分です。このレッスンではClaude・Gemini・Copilotの3ツールについて、セキュリティの観点から整理します。

// 主要AIツール:業務利用時のセキュリティ評価
ChatGPT Team◎ 学習保証・管理機能・DPA締結可
Claude Pro / for Enterprise(Anthropic)◎ 設計段階からセキュリティ重視。SOC2 Type II対応
Gemini(Google Workspace法人)○ 管理者設定で高水準。学習利用なし保証
Copilot(Microsoft 365)△ 権限設計を誤ると社内データへの広範アクセスのリスク

Claude(Anthropic)

AnthropicはAIの安全性研究に特化した企業として設立されました。「Constitutional AI(憲法的AI)」と呼ばれる安全性重視の訓練手法を採用し、設計段階から情報漏洩・有害出力のリスク低減が組み込まれています。

法人向け推奨Claude for Enterprise
SOC2 Type II認証対応(第三者機関による審査済み)。会話データがAI訓練に使用されないことをAnthropicとのDPAで保証。法律事務所・医療機関・金融機関など高機密業種での採用が増えています。

Google Gemini

個人GoogleアカウントとGoogle Workspace(法人)ではデータ扱いが根本的に異なります。この違いを理解せずに使うことが最大のリスクです。

// Gemini:個人 vs 法人の違い
個人Googleアカウント会話データがGoogleのサービス改善に使われる可能性あり
Google Workspace(法人)管理者がデータ保護ポリシーを設定。Googleによる訓練への使用なし(利用規約で保証)

Microsoft Copilot

CopilotはWord・Excel・Teams等の社内データに直接アクセスできます。これが最大の強みであり、同時に最大のリスクです。

// Copilot導入時の最重要確認事項
Copilotを導入する際、「どの社内データにCopilotがアクセスできるか」のアクセス権限設定が最優先です。Microsoft 365の権限設定(SharePoint・Teams・Outlook等)を適切に設計しないと、本来アクセス権限のない情報(他部署の給与情報・役員会議の議事録など)をCopilotが参照できてしまいます。必ずIT部門または専門家と設計してください。

あなたの会社に合うツールは?

// 状況別:推奨ツール選択ガイド
Microsoft 365を使っている→ Copilot(権限設計を専門家と確認)
Google Workspaceを使っている→ Gemini for Workspace
特定ツールに縛られていない→ ChatGPT Team / Claude Pro
医療・法律・金融など高機密業種→ Claude Enterprise / ChatGPT Enterprise

Copilot導入前に必ず確認すべき設定チェックリスト

// Microsoft 365 Copilot導入前チェック(IT管理者または外部ベンダーと確認)
□ SharePointのアクセス権限設定を見直した設定ミスで他部署の機密フォルダにCopilotがアクセス可能になる
□ 全社員の「所持しているアクセス権限」を棚卸ししたCopilotはその人のアクセス権限で動く——権限過多の社員がいると広範参照が起きる
□ 機密ラベル(Microsoft Information Protection)を設定した「社外秘」「機密」等のラベルをCopilotが認識するよう設定
□ Copilotの利用ログを確認できる設定にしたMicrosoft 365管理センターで使用状況の監査ログを有効化
□ 社員へのCopilot利用ガイドラインを配布した「何を聞いていいか・何を聞いてはいけないか」を明示

業種別:各ツールの安全な使い方 Before/After

// Claude(不動産業での推奨活用)
❌ 危険「田中様(42歳・年収750万)向けの提案書を作って」
✅ 安全「40代・年収700万台のサラリーマン向け投資マンション提案書のフォーマットを作って」
// Gemini(介護施設での推奨活用)
❌ 危険「鈴木さん(83歳・認知症)の申し送り文を書いて」
✅ 安全「80代・認知機能低下のある利用者への申し送り文のフォーマットを作って」
// Copilot(士業事務所での活用)
❌ 危険SharePointに保存された未提出の確定申告データをCopilotに「要約して」と依頼
✅ 安全「確定申告書類のチェックリストフォーマットを作って」(具体的な顧客データは入力しない)
// 参考文献・出典
  • Anthropic「Claude's Constitution」(Constitutional AI説明)→ Anthropic
  • Google「Gemini Apps Privacy Hub」→ Google
  • Microsoft「Microsoft Copilot for Microsoft 365 のデータ、プライバシー、セキュリティ」→ Microsoft Learn
// 理解度チェック
Microsoft Copilotを企業導入する際に最も重要な確認事項はどれですか?
✅ 正解です。Copilotは社内データに広くアクセスできるため、権限設計が最重要です。設定を誤ると本来見えないはずの情報にCopilotがアクセスできてしまいます。
❌ 不正解です。Copilot導入時の最重要事項はアクセス権限の設定です。コスト・操作習熟より先に、データアクセスの範囲を適切に設計することが必要です。

このレッスンの内容を確認しましたか?

CHAPTER 02 // LESSON 07

「社外秘」「個人情報」「顧客情報」の判断基準
——現場で迷わないための分類法

📖 読了時間:約12分🎯 難易度:中級

「これ、入力していいですか?」と毎回上司に確認しなくても判断できる——それがこのレッスンの目標です。判断基準を3段階×業種別で整理します。

個人情報の定義(個人情報保護法第2条)

// 個人情報保護法 第2条第1項
「個人情報」とは、生存する個人に関する情報であって、当該情報に含まれる氏名、生年月日その他の記述等により特定の個人を識別することができるもの(他の情報と容易に照合することができ、それにより特定の個人を識別することができることとなるものを含む。)をいう。
→ 「氏名単体」はもちろん、「氏名+属性の組み合わせ」も個人情報に該当します。

3段階の情報分類

// AIへの入力可否:3段階判定表
🔴 レベル3:入力禁止個人を直接特定できる情報・機密情報・要配慮個人情報
🟡 レベル2:匿名化してから入力可加工・抽象化すれば利用できる情報
🟢 レベル1:入力可公開情報・一般的な質問・架空の事例

レベル3:絶対に入力してはいけない情報

  • 🔴顧客・取引先の氏名・住所・電話番号・メールアドレス(個人情報保護法第2条第1項)
  • 🔴マイナンバー・健康保険証番号・口座番号・クレジットカード情報(個人番号利用法も適用)
  • 🔴病名・診断内容・投薬情報・障害情報(個人情報保護法第2条第3項「要配慮個人情報」)
  • 🔴契約書の当事者名・具体的な金額・条件(機密情報・守秘義務対象)
  • 🔴社員の給与・人事評価・採用判断に関する情報(個人データ)
  • 🔴未公開の新製品・新事業・M&A情報(インサイダー情報・営業秘密)

業種別:Before/After入力例

// 不動産業
❌ NG「田中様(45歳・年収800万・○○市在住・離婚歴あり)への提案書を」
✅ OK「40代後半・年収800万円台のサラリーマン向け投資用マンション提案書のフォーマットを」
// 介護業
❌ NG「鈴木さん(82歳・糖尿病・骨折後・家族は遠方)のケアプランを作って」
✅ OK「80代・基礎疾患あり・骨折後リハビリ中・独居の方向けケアプランのフォーマットを」
// 士業(税理士)
❌ NG「山田商店(年商3億・赤字転落・社長が離婚予定)の節税対策を考えて」
✅ OK「年商3億円規模で業績が悪化している中小企業向けの節税対策を一般論として教えて」

「組み合わせリスク(モザイク効果)」に注意する

単体では問題なくても、複数の情報が組み合わさると個人が特定できてしまう「モザイク効果(Mosaic Effect)」があります。

// 具体例
「名古屋市在住」「40代女性」「飲食店経営」——これらを単体では無害に感じるかもしれませんが、組み合わせると特定個人を指し示す可能性があります。個人情報保護法の「容易照合性」(第2条第1項)の問題にもなりえます。複数の属性情報を同時に入力することは避けてください。
// 入力ボタンを押す前に確認する4項目
□ 実名・住所・連絡先が含まれていないか含まれていたら仮名化
□ 金額・契約条件などの機密情報が含まれていないか含まれていたら削除
□ 複数の個人情報が組み合わさっていないかモザイク効果に注意
□ 「これが外に出たら困る」情報ではないか困るなら入力しない
// 参考文献・出典
  • 個人情報の保護に関する法律 第2条第1項(個人情報の定義)・第2条第3項(要配慮個人情報の定義)
  • 個人情報保護委員会「個人情報の保護に関する法律についてのガイドライン(通則編)」(令和6年12月一部改正)
  • 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」2023年6月2日
// 理解度チェック
次のうち、生成AIに最も安全に入力できるものはどれですか?
✅ 正解です。個人を特定する情報を除き、一般的な属性として表現することで安全に入力できます。これが「匿名化・抽象化」の基本です。
❌ 不正解です。正解は「65歳以上の独居高齢者向け…」です。他の選択肢は個人情報・企業機密・人事情報を含んでおり、すべて入力禁止に該当します。

このレッスンの内容を確認しましたか?

CHAPTER 02 // LESSON 08

業種別リスク事例
——不動産・介護・飲食・士業の現場で起きること

📖 読了時間:約14分🎯 難易度:中級

「AIセキュリティはIT企業の話」——そう思っている方に読んでほしいのがこのレッスンです。中小企業が多い4業種に特化した、現場で実際に起きている・起きうるリスク事例を紹介します。

不動産業:3つのリスクシナリオ

シナリオ 01営業が顧客情報を含む提案書作成を依頼
状況:「田中様(45歳・年収700万・離婚予定・所有物件3件・残債2,000万)向けの買い替え提案書を作って」とChatGPT無料版に入力。
法的問題:① 個人情報保護法第27条(第三者提供の制限)——本人同意なくOpenAIに提供。② 個人情報保護法第28条(外国への第三者提供)——米国サーバーへの送信。③ 「離婚予定」は私的情報であり、要配慮個人情報に準ずる慎重な扱いが必要。
安全な代替:「40代・年収700万台・不動産3件保有・住み替え検討者向け提案書のフォーマットを作って」
シナリオ 02賃貸管理での入居者情報入力
状況:「鈴木太郎様(○○マンション303号・滞納2ヶ月・クレーム3回)への督促文を書いて」と入力。
問題:氏名・住所(部屋番号まで特定)・プライバシーに関わる情報(滞納・クレーム)の組み合わせ。滞納情報は金融情報として要配慮個人情報に準ずる。
安全な代替:「家賃滞納2ヶ月・クレーム履歴ありの入居者への丁寧な督促文テンプレートを作って」
シナリオ 03契約書審査のAI依頼
状況:取引先との売買契約書(当事者名・金額・特記事項すべて含む)をそのまま貼り付けて「この契約書のリスクポイントを教えて」と入力。
問題:相手方(取引先)の個人情報・企業秘密を含む機密情報が外部送信される。取引先との守秘条項違反にもなりえる。
安全な代替:当事者名・金額・固有名詞を全て伏せた状態でリスクポイントを確認する。法的判断は弁護士へ。
// 不動産業:入力可否クイックガイド
物件の種類・エリア(公開情報)✅ 入力可
顧客の氏名・連絡先❌ 入力禁止(個情法第2条)
顧客の年収・資産状況❌ 入力禁止(金融情報)
「40代・年収●●万台」のような匿名化済み情報✅ 入力可
契約書(当事者名・金額を伏せたもの)⚠️ 最小限の情報のみ。法的判断は弁護士へ

介護・医療業:要配慮個人情報の特別な扱い

// 個人情報保護法 第2条第3項:要配慮個人情報
病歴・診断・投薬情報・障害・犯罪被害情報などは「要配慮個人情報」として一般の個人情報より厳格に保護されます(第20条第2項:原則として本人の同意なく取得禁止)。これらの情報をAIに入力することは原則として禁止と考えてください。
シナリオ 04利用者情報を含む申し送り文の作成
状況:「鈴木花子さん(85歳・認知症・骨折後・家族は月1回面会・好きな音楽は演歌)の申し送り文を書いて」と入力。
法的問題:「認知症」「骨折後」は要配慮個人情報(個人情報保護法第2条第3項)に該当します。本人同意なく第三者(AIサービス)に提供することは、個人情報保護法第20条第2項違反となりえます。
安全な代替:「85歳・認知機能低下・リハビリ中・家族との面会あり・音楽好きの利用者の申し送り文のフォーマットを作って」

飲食業:アレルギー情報と常連客データ

シナリオ 05常連客向けのパーソナライズメール作成
状況:「常連の佐藤様(小麦・エビアレルギー・毎週金曜夜・4人家族・誕生日3月15日)への周年メールを作って」と入力。
法的問題:食物アレルギーは健康状態の一側面として要配慮個人情報(第2条第3項)に準ずる慎重な扱いが必要。誕生日+氏名の組み合わせで個人特定が容易になります。
安全な代替:「食物アレルギーのある常連客(ファミリー向け)への来店周年お礼メールのテンプレートを作って」

士業:守秘義務との深刻な衝突

シナリオ 06依頼人情報を含む書類作成
状況:税理士が「山田商店(代表:山田一郎・年商3億・赤字転落・社長が離婚予定で財産分与協議中)の節税対策を考えて」と入力。
法的問題:税理士法第38条(秘密を守る義務)は「正当な理由がなく、税理士業務に関して知り得た秘密を他に洩らし、又は窃用してはならない」と規定。AIへの入力がこれに抵触する可能性があります。同様に、弁護士法第23条(秘密保持の権利及び義務)、社会保険労務士法第21条も適用されます。
日本税理士会連合会の見解(2023年):依頼人情報を含むプロンプトの入力は慎重に検討すべきとされています。
安全な代替:「年商3億円規模で業績悪化している中小企業向けの節税対策を一般論として教えて」
// 参考文献・出典
  • 個人情報の保護に関する法律 第2条第3項(要配慮個人情報)・第20条第2項(要配慮個人情報の取得制限)
  • 税理士法 第38条(秘密を守る義務)
  • 弁護士法 第23条(秘密保持の権利及び義務)
  • 社会保険労務士法 第21条(秘密を守る義務)
  • 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」2023年6月2日
// 理解度チェック
介護施設でAIを活用する際、最も安全な使い方はどれですか?
✅ 正解です。介護・医療情報は個人情報保護法第2条第3項の「要配慮個人情報」であり、AIへの入力は原則禁止です。フォーマット作成など、利用者を特定しない形での活用に限定してください。
❌ 不正解です。介護・医療情報は要配慮個人情報です。施設内PCでの使用でも、インターネット経由でAIを使う限り外部サーバーへの送信リスクは変わりません。

このレッスンの内容を確認しましたか?

CHAPTER 03 // LESSON 09

AIと個人情報保護法の関係
——「知らなかった」では済まない法的リスク

📖 読了時間:約14分🎯 難易度:中級〜上級

個人情報保護法(正式名称:個人情報の保護に関する法律)は、事業者が個人情報を扱う際のルールを定めた法律です。2022年4月施行の改正で規制が大幅強化され、違反時の法人に対する罰金は最高1億円(第184条)に引き上げられました。AIの普及によって、この法律との関係はさらに重要になっています。

個人情報保護法の基本:事業者の主な義務

// 個人情報保護法:AI利用に関連する主な義務
利用目的の特定・明示(第17条・第21条)収集時に利用目的を明確にする
目的外利用の禁止(第18条)明示した目的以外への使用は原則禁止
第三者提供の制限(第27条)本人同意なく第三者への提供は禁止
外国への第三者提供の制限(第28条)海外サーバー(米国等)への提供に特別な対応が必要
安全管理措置の義務(第23条)漏洩・滅失を防ぐ適切な措置が必要
漏洩時の報告・通知義務(第26条)3〜5日以内の速報、30日以内の確報が必要(2022年改正)

「AIへの入力」が第三者提供になりうる理由

顧客の個人情報をChatGPTに入力する行為は、個人情報をOpenAI社(第三者)のサーバーに送信することを意味します。

個人情報保護委員会は2023年6月2日の公式注意喚起で、「AIサービス提供事業者が、プロンプトとして入力された個人データを学習用データセットに加工して機械学習に利用している場合には、サービス利用者からAIサービス提供事業者への個人データの『提供』と評価される可能性が高い」と明示しています(注意喚起資料より)。

// 法的リスクが発生するまでの流れ
① 顧客が個人情報を会社に提供する「契約のため」「サービス提供のため」等の利用目的で収集
② 社員がその情報をAIに入力する「効率化のため」という善意の行動
③ 情報がAIサービス会社の米国サーバーへ本人同意なき第三者提供(第27条)+外国への提供(第28条)
④ 目的外利用の問題も発生しうる「契約のため」に収集した情報を「AI学習に提供」(第18条違反)

「委託」として適法に整理する方法

個人情報保護法第27条第5項第3号では、「業務委託」先への個人データ提供は第三者提供にあたらない例外があります。AIサービスとの関係を「業務委託」として位置づけられれば、違法リスクを回避できます。

// 業務委託として認められるための条件
①適切なDPA(データ処理委託契約)の締結ChatGPT Team以上で締結可能
②AIサービス会社が個人データを適切に管理していることプライバシーポリシー・SOC2等の認証確認が必要
③委託業務の範囲内でのみ利用されることAIが学習に使用しない設定が必要(L02参照)
④委託先への監督義務(第24条)を果たすこと定期的な確認が必要
// 実務上のポイント
ChatGPT Enterprise・Claude Enterpriseなどはデータ処理委託契約(DPA)の締結が可能です。一方、クラウドサービスが「個人データを取り扱わない」こととなっている場合(例:学習に使用しない設定)は、第三者提供にすら該当しないとする解釈もあります(個人情報保護委員会Q&A Q7-53)。いずれにせよ、法人プランへの移行が法的リスク回避の観点から重要です。

漏洩報告義務(2022年改正・重要)

2022年4月施行の個人情報保護法改正により、漏洩報告が努力義務から法的義務に変わりました(第26条)。報告が必要な主な場合:

  • 要配慮個人情報が含まれる漏洩——1名でも報告義務が発生(施行規則第7条第1号)。介護・医療情報を誤入力した場合、この要件に該当する可能性があります。
  • 財産的被害が生じるおそれがある漏洩——口座番号・クレジットカード情報等(施行規則第7条第2号)。
  • 不正の目的で行われた漏洩——サイバー攻撃等(施行規則第7条第3号)。
  • 1,000人を超える漏洩——大規模漏洩(施行規則第7条第4号)。
// 速報期限
報告対象事態を知った後、概ね3〜5日以内に速報し、30日以内(不正目的の場合は60日以内)に確報が必要です(個人情報保護委員会「漏えい等報告・本人への通知の義務化について」)。土日祝日も含みます。
// 参考文献・出典
  • 個人情報の保護に関する法律(令和2年改正法、2022年4月施行)——第17条・第18条・第21条・第23条・第24条・第26条・第27条・第28条・第184条
  • 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」2023年6月2日 → 個人情報保護委員会
  • 個人情報保護委員会「個人情報保護法についてのガイドライン(通則編)」(令和6年12月一部改正)
  • 個人情報保護委員会「漏えい等報告・本人への通知の義務化について」 → 個人情報保護委員会
  • 個人情報保護委員会「個人情報保護法いわゆる3年ごと見直しの制度改正方針」2026年1月9日公表(次回改正検討中)
// 理解度チェック
個人情報保護法上、顧客情報をAIに入力する際の最重要確認事項はどれですか?
✅ 正解です。個人情報のAIへの入力は個人情報保護法第27条の「第三者提供」の問題が生じる可能性があります。DPA締結など、適切な契約関係の確立が法的リスク回避の核心です。
❌ 不正解です。最重要確認事項は「AIサービスとの契約関係(データ処理委託の適法性)」です。対応言語や料金は法的リスクとは無関係です。

このレッスンの内容を確認しましたか?

CHAPTER 03 // LESSON 10

著作権侵害になるケース・ならないケース
——文化庁「AIと著作権に関する考え方」を読む

📖 読了時間:約14分🎯 難易度:中級〜上級

「AIが作ったものだから著作権の問題はない」——この認識は半分正しくて半分誤りです。AIを使ったコンテンツ制作には、入力側と出力側の両方で著作権リスクが存在します。

2024年3月15日、文化庁(文化審議会著作権分科会法制度小委員会)が「AIと著作権に関する考え方について」を公表しました。本レッスンはこの公式ガイドラインに基づいて解説します。

// 文化庁の考え方:法的拘束力について
「AIと著作権に関する考え方について」(令和6年3月15日)は現行著作権法の解釈指針であり、法的拘束力を持つものではありません。しかし著作権法を所管する文化庁が取りまとめた実務上のガイドラインとして、現時点での重要な判断基準となっています。今後の判例蓄積や法改正により内容が変化しうる点に注意してください。

著作権リスクは「入力(学習)段階」と「生成・利用段階」の両方にある

// AIと著作権リスクの2段階(文化庁「考え方」の整理に基づく)
【開発・学習段階】AI開発者が著作物を学習データとして使用著作権法第30条の4(権利制限規定)が適用される場合あり
【生成・利用段階】利用者がAIに既存著作物を入力・AIが類似物を出力著作権侵害になりうる。「類似性」と「依拠性」が判断基準

著作権侵害の判断基準:類似性と依拠性

著作権侵害が成立するには、①類似性(既存著作物の表現上の本質的特徴が感得できるか)と②依拠性(既存著作物に基づいて創作されたか)の両方が必要です(判例法理・文化庁「考え方」で確認)。

// 重要:意図しない侵害の可能性
文化庁「AIと著作権に関するチェックリスト&ガイダンス」(令和6年7月31日)は、「生成AIを利用する場合、仕組み上、学習データに含まれる既存の著作物と類似した生成物が生成されることがあり、AI利用者が既存の著作物を認識していなくても、生成・利用が著作権侵害となることがある」と明記しています。「知らなかった」は免責されません。

入力側のリスク:やってはいけない3パターン

パターン 01他社ウェブサイトの文章をそのままコピーして書き換えさせる
状況:競合他社のサービス説明文をコピーして「この文章を自社向けに書き換えて」と入力。
問題:著作物の「複製」(著作権法第21条)にあたる可能性があります。AIに加工させても、元の著作物を複製した行為自体が問題となります。
安全な代替:他社サイトを参考に「こういうサービスの説明文を書いて」と内容を自分の言葉で説明してからAIに依頼する。
パターン 02特定の著者・クリエイターの「スタイル」で書かせる
状況:「○○さん(著名な作家・ビジネスパーソン)の文体で書いて」と指示。
問題:文体そのものは著作権保護されませんが、具体的な表現が著名人の著作物と類似する場合は侵害リスクがあります。また、有名人のパブリシティ権や名誉権の問題も生じえます。
安全な代替:「簡潔で説得力のある文体で書いて」など、スタイルの特徴を直接指示する。
パターン 03書籍・記事の全文・大部分を貼り付けて要約させる
状況:購入した書籍の章全体をコピーして「要約して」と入力。
問題:書籍は著作物です。大量テキストの複製は著作権法第30条(私的使用のための複製)の範囲を超える場合があります。
安全な代替:自分でメモした要点を箇条書きにして、それを整理する形でAIを使う。

出力側のリスク:AI生成物の著作物性

// AI生成コンテンツの著作権(文化庁「考え方」2024年3月に基づく)
AIのみが生成(人間の創作的寄与なし)著作物に該当せず、著作権保護されない可能性が高い
人間が創作的な指示・編集を加えた場合人間の著作物として保護される可能性あり
既存著作物に「類似性」「依拠性」がある生成物著作権侵害になるリスクあり
AI生成の商業利用各AIサービスの利用規約を必ず確認。二次的使用の可否も要確認

業種別:著作権リスクが高い利用例

// 業種別チェックリスト
不動産:物件説明文を競合サイトから転用してAIに書き換えさせる❌ 複製権侵害のリスク
介護:ケアプランの書式を他施設から転用してAIに編集させる⚠️ 創作性の有無による。注意が必要
飲食:メニュー説明文を他店から転用してAIに改変させる❌ 複製権侵害のリスク
士業:法的書面・条文を参照してAIにドラフトを作成させる(一般情報として利用)⚠️ 法令条文は著作権保護外。ただし判断の正確性は別問題
自社のオリジナル文章をAIで改善・リライトする✅ 基本的に問題なし
// 参考文献・出典
  • 文化庁「AIと著作権に関する考え方について」令和6年3月15日 → 文化庁
  • 文化庁「AIと著作権に関するチェックリスト&ガイダンス」令和6年7月31日 → 文化庁
  • 著作権法 第21条(複製権)・第30条(私的使用のための複製)・第30条の4(著作物に表現された思想等の享受を目的としない利用)
  • 著作権法 第2条第1項第1号(著作物の定義)
// 理解度チェック
AI生成コンテンツの著作権について、文化庁の「考え方」に最も近い正しい認識はどれですか?
✅ 正解です。文化庁「考え方」によると、AI生成物は「著作物に該当しない可能性が高い」とされる一方、既存著作物との「類似性」と「依拠性」が認められる場合は著作権侵害になりえます。
❌ 不正解です。AI生成物は「すべて自由に使える」わけでも「すべてAI会社のもの」でもありません。文化庁「考え方」に基づき、類似性・依拠性の有無が重要な判断基準です。

このレッスンの内容を確認しましたか?

CHAPTER 03 // LESSON 11

ハルシネーションと法的責任
——AIの「嘘」が引き起こすビジネスリスク

📖 読了時間:約12分🎯 難易度:中級〜上級

ハルシネーション(Hallucination:幻覚)とは、生成AIが事実ではない情報を自信を持って出力する現象です。AIが「嘘をついている」わけではなく、確率的な予測に基づいて文章を生成する大規模言語モデルの仕組み上、必然的に発生します。

// 実際の事例(米国・2023年)
米国ニューヨーク連邦地裁の事案:弁護士がChatGPTを使って作成した準備書面に、AIが捏造した複数の架空判例が含まれていました(Mata v. Avianca事件、2023年)。弁護士はこれを確認せずに裁判所に提出し、裁判所から制裁(罰金)を受けました。「AIがそう言ったから」は法的な弁解になりませんでした。

ハルシネーションが特に危険な場面

// 業種別:ハルシネーションリスクが高い利用場面
不動産:建蔽率・容積率・用途地域等の法令情報誤情報を顧客に伝えると宅地建物取引業法違反の可能性
介護・医療:薬の用量・禁忌事項・医療行為に関する情報誤情報が生命・身体に影響する可能性
飲食:食物アレルギー・食品表示に関する法的要件誤情報が食品衛生法違反・事故につながりうる
士業:法律条文・判例・税率・年金額等の数値専門的情報の誤りは依頼人に深刻な被害を生む

法的責任は誰にあるか

AIがハルシネーションで誤情報を生成し、それを確認せずに業務で使い、問題が発生した場合——責任はAIを利用した人間・企業にあります。

OpenAI・Anthropicのいずれの利用規約にも、「AIの出力の正確性・完全性・適合性を保証しない」と明記されています。「AIがそう言ったから」は法的な免責理由になりません。

// Before / After:正しい使い方と危険な使い方
❌ 不動産(危険)AIに「この物件の法定建蔽率を教えて」→ 回答をそのまま顧客に伝える
✅ 不動産(安全)「建蔽率の説明文のドラフトを作って」→ 実際の数値は役所・法務局で確認してから使用
❌ 士業(危険)「この案件の適用税率を教えて」→ 回答をそのまま申告に使う
✅ 士業(安全)「この案件の説明文のドラフトを書いて」→ 税率・条文は国税庁サイト・法令データベースで確認

ハルシネーションを防ぐ実践的な対策

  • 1数値・統計・法律条文は必ず一次ソースで確認——「○%」「第○条」という情報は、e-Gov法令検索・国税庁・法務省・厚生労働省等の公式サイトで裏付けを取る。
  • 2「本当にそうか?」を習慣化する——AIの回答は確信を持っているように見えても、「本当にそうか?」を自問する。特に具体的な数字・固有名詞・法令名が出た場合は要注意。
  • 3専門情報の最終確認は専門家に委ねる——法的判断・医療情報・税務判断は、AIを参考程度にし、専門家に最終確認を求める。
  • 4AIには「ドラフト作成」を担当させる——事実確認は人間が行い、AIは「文章の整形・構造化」に特化させる役割分担が最も安全です。

業種別:情報確認先リスト(一次ソース)

AIの回答に数値・法令・医療情報が含まれていた場合、以下の公式サイトで必ず確認してください。

// 不動産業:確認先
建蔽率・容積率・用途地域→ 各市区町村の都市計画課窓口 / 国土交通省「都市計画情報」
宅建業法・重要事項の要件→ 国土交通省「宅地建物取引業法の解説」/ e-Gov法令検索
登記情報・地積測量図→ 法務局(登記・供託オンライン申請システム)
// 介護・医療:確認先
薬の用量・禁忌・相互作用→ 医師・薬剤師に必ず確認 / 独立行政法人医薬品医療機器総合機構(PMDA)
介護保険制度・給付額→ 厚生労働省「介護保険制度の概要」/ 各市区町村の介護保険課
感染症対応・医療ガイドライン→ 厚生労働省 / 日本感染症学会等の学会ガイドライン
// 士業:確認先
法律条文・判例→ e-Gov法令検索 / 裁判所「裁判例情報」/ D1-Law等の法律データベース
税率・申告要件→ 国税庁タックスアンサー / 国税庁「確定申告書等作成コーナー」
社会保険・労務関係→ 厚生労働省 / 日本年金機構 / 各都道府県労働局
// 飲食業:確認先
食品表示・アレルゲン表示→ 消費者庁「食品表示法に基づく食品表示基準」/ 最寄りの保健所
食品衛生法・営業許可要件→ 厚生労働省「食品衛生法」/ 各都道府県食品衛生担当課

AI出力を社外で使用する前の最終チェックリスト

// 使用前に必ず確認する5項目
□ 具体的な数値(%・円・日数等)が含まれているか含まれていれば必ず一次ソースで確認
□ 法令名・条番号が引用されているかe-Gov法令検索で実在と内容を確認
□ 「〜によれば」「調査では」等の引用表現があるか出典が明示されていない引用は要注意——ハルシネーションの可能性
□ 医薬品名・治療方法等の医療情報が含まれているか必ず医師・薬剤師に確認してから使用
□ 判例・裁判例が引用されているか裁判所データベースで実在を確認——架空判例が生成されることがある
// 参考文献・出典
  • Mata v. Avianca, Inc., No. 22-CV-1461 (PKC), 2023 WL 4114965(S.D.N.Y. June 22, 2023)——AI生成架空判例の提出に対して弁護士が制裁を受けた連邦地裁判決
  • OpenAI「Terms of Use」(免責条項)→ OpenAI
  • Anthropic「Usage Policy」→ Anthropic
  • 宅地建物取引業法 第35条(重要事項の説明)——法令情報の誤伝達は同法違反につながりうる
// 理解度チェック
AIがハルシネーションで誤情報を生成し、確認せずに顧客提案書に使用して損害が発生した場合、法的責任はどこにありますか?
✅ 正解です。「AIがそう言ったから」は免責理由になりません。AI開発会社の利用規約には出力の正確性を保証しない旨が明記されており、AIを使った成果物に対する責任は利用者側にあります。
❌ 不正解です。AI開発会社の利用規約には「AIの出力の正確性を保証しない」と明記されており、法的責任は利用者側にあります。

このレッスンの内容を確認しましたか?

CHAPTER 04 // LESSON 12

AI利用ガイドライン作成テンプレート
——今日から使える社内ルールの雛形

📖 読了時間:約14分🎯 難易度:応用

このレッスンでは、中小企業がすぐに使えるAI利用ガイドラインの雛形を提供します。完璧なものを目指して先送りするより、まず70点のものを作って運用することが重要です。

// 法的根拠
個人情報保護法第23条(安全管理措置)は、個人データの漏洩・滅失を防ぐための措置を義務付けています。社内AI利用ガイドラインの整備は、この安全管理措置の一環として位置づけられます。また、総務省・経済産業省「AI事業者ガイドライン(第1.1版)」(2024年)も、AI利用事業者が適切なガバナンス体制を整備することを推奨しています。

ガイドライン作成の前に確認する3つのこと

  • 1現状把握——社員が今どんなAIツールを、どんな用途で使っているかをアンケートで確認します。「責めない」雰囲気で聞くことが重要です。
  • 2許可ツールの決定——「これはOK・これはNG」を決めます。全禁止は現実的ではありません。安全なツールを積極的に認める姿勢が大切です。
  • 3AI担当者の設定——問い合わせ窓口と最終判断者を1名決めます。小規模なら経営者自身で構いません。

【雛形】生成AI利用ガイドライン

// ガイドライン基本情報
名称生成AI利用に関する社内ガイドライン ver.1.0
制定日・改訂日○○年○月○日(目安:四半期ごとに見直し)
担当者(AI管理責任者)○○(役職・氏名)
適用範囲全従業員・業務委託先(個人端末での業務利用も含む)
// 1. 使用を許可するツール
✅ 許可ChatGPT Team / Claude Pro / Gemini(Workspace法人契約)
❌ 禁止ChatGPT 無料プラン(業務利用)/ 個人判断で追加したAIツール全般
⚠️ 要確認新しいAIツールを使いたい場合はAI管理責任者に相談してから
// 2. 入力禁止情報(個人情報保護法第27条・第28条等に基づく)
🔴 顧客・取引先の個人情報氏名・住所・連絡先・財産状況等(個情法第2条第1項)
🔴 要配慮個人情報病名・診断・障害等(個情法第2条第3項)
🔴 社外秘・機密扱いの社内情報契約内容・財務情報・人事情報等
🔴 未公開の製品・事業情報新商品・新事業・M&A情報等(インサイダー情報)
🔴 第三者の著作物のコピー他社サイト・書籍・記事をそのまま貼り付けること(著作権法第21条)
// 3. AI出力物の取り扱いルール
ファクトチェック義務数値・法律・統計は必ず一次ソース(政府機関等公式サイト)で確認
人間による最終確認AI出力をそのまま使わず、必ず人間が編集・確認する
AI生成の明示明示が必要な場面(公式報告書等)ではAI利用を表記する
// 4. 問題発生時の対応
情報漏洩の疑いが生じたとき直ちにAI管理責任者(○○)に報告。自己判断で解決しない
判断に迷うとき「迷ったら入力しない」が原則。AI管理責任者に相談
新しい使い方を試したいときAI管理責任者に事前相談してから実施
// 運用のポイント
ガイドラインは「作って終わり」ではありません。①新入社員・業務委託先への周知、②四半期ごとの見直し、③新しいAIツール登場時の更新——この3つを継続することが、実効性ある管理の核心です。AI関連法令は急速に整備が進んでいるため、定期的な更新が特に重要です。
// 参考文献・出典
  • 個人情報の保護に関する法律 第23条(安全管理措置)——AI利用ガイドライン整備はこの義務の一環
  • 総務省・経済産業省「AI事業者ガイドライン(第1.1版)」2024年4月 → 経済産業省
  • 個人情報保護委員会「中小規模事業者の安全管理措置に関する実態調査」(参考)
// 理解度チェック
AI利用ガイドラインの整備について、最も正しいアプローチはどれですか?
✅ 正解です。完璧を求めて先送りにするより、70点のものを作って運用しながら改善することが重要です。AI関連法令は急速に整備が進んでいるため、継続的な更新が前提です。
❌ 不正解です。先送りも放置も逆効果です。まず基本的なルールを文書化し、運用しながら改善することが最善のアプローチです。

このレッスンの内容を確認しましたか?

CHAPTER 04 // LESSON 13

インシデント発生時の初動対応フロー
——最初の1時間が被害の大きさを決める

📖 読了時間:約12分🎯 難易度:応用

情報漏洩インシデントが発生した場合、最初の対応の速さと正確さが被害の大きさを大きく左右します。パニックになる前に、この対応フローを頭に入れておいてください。

// 絶対にやってはいけないこと
インシデント発生時に最もやってはいけないのは、①自己判断で解決しようとする、②なかったことにする、③証拠を消すの3つです。特に③は、個人情報保護委員会への報告義務(個人情報保護法第26条)を故意に回避する行為として、行政処分・刑事罰の対象になりえます。

対応フロー:時系列で整理

// インシデント発生〜対応フロー(個情法第26条に基づく義務を踏まえた実務対応)
0〜15分:事実の確認と記録何を・いつ・どのAIに・どの端末から入力したか時系列で記録
15〜30分:AI管理責任者への報告担当者→上司→経営者へ順に報告。自己判断厳禁
30〜60分:被害範囲の特定どんな情報が・何件・どこに送信されたか特定
1〜3時間:AIサービスへの連絡サポートに連絡。会話の削除依頼・状況確認
3〜5日以内:個人情報保護委員会への速報(該当する場合)個情法第26条・施行規則第8条:速報義務(土日祝も含む)
30日以内:確報の提出個情法施行規則第8条第2項。不正目的の場合は60日以内
速やかに:本人への通知弁護士に確認後、対象顧客・取引先への通知(個情法第26条第2項)

インシデント報告書に記録すべき項目

// 報告書テンプレート(最低限記録すること)
発生日時○○年○月○日 ○時○分頃
発見者・報告者氏名・部署
AIへの入力内容の概要どんな情報を・どう入力したか
漏洩した可能性のある情報の種類・件数要配慮個人情報の有無(個情法第26条の報告要否に関わる)
使用AIサービス・プランChatGPT Free/Plus/Team等、具体的に記録
発覚の経緯自己発見 / 上司の確認 / 外部からの指摘

個人情報保護委員会への報告が必要な場合

以下のいずれかに該当する場合、個人情報保護委員会への報告が義務になります(個人情報保護法第26条・施行規則第7条)。

  • 要配慮個人情報が含まれる漏洩——介護・医療情報等を入力した場合、1名分でも報告義務が発生しえます。
  • 財産的被害が生じるおそれがある漏洩——口座番号・クレジットカード情報等。
  • 1,000人を超える漏洩——大規模な顧客情報が含まれる場合。

平時から準備すべき「インシデント連絡先リスト」

// 今すぐ作成すべき連絡先リスト(空欄に記入して掲示してください)
顧問弁護士○○法律事務所 ○○弁護士 TEL:___________
個人情報保護委員会(相談窓口)TEL:03-6457-9849
ChatGPTサポートhelp.openai.com
Claudeサポートsupport.anthropic.com
社内AI管理責任者○○(氏名)TEL:___________ / メール:___________
// 参考文献・出典
  • 個人情報の保護に関する法律 第26条(漏えい等の報告等)・施行規則第7条(報告対象事態)・第8条(報告期限)
  • 個人情報保護委員会「漏えい等報告・本人への通知の義務化について」 → 個人情報保護委員会
  • 個人情報保護委員会(相談窓口) TEL:03-6457-9849 → 個人情報保護委員会
// 理解度チェック
AIに顧客の個人情報を誤って入力したことに気づいた場合、最初にすべき行動はどれですか?
✅ 正解です。まず事実を記録し、速やかに責任者に報告することが最優先です。自己解決・様子見・証拠隠滅はすべて状況を悪化させ、個人情報保護委員会への報告義務が発生した場合に違反となりえます。
❌ 不正解です。正解は「事実を記録し、速やかに責任者に報告する」です。隠蔽・自己解決は後に発覚した際の信頼失墜を何倍にも拡大させ、法的リスクも高まります。

このレッスンの内容を確認しましたか?

CHAPTER 04 // LESSON 14

中小企業でもできる最低限の体制づくり
——今日から5つのことで8割のリスクを下げる

📖 読了時間:約10分🎯 難易度:応用

「セキュリティ対策は専任部門がある大企業がやるもの」——そう思っていませんか?実は中小企業こそ、シンプルな対策で大きなリスク削減が可能です。

// 重要な認識
中小企業がAI情報漏洩の被害を受けやすい理由の一つは、「管理体制が整っていない分、被害が発覚しにくく対応が遅れやすい」ことです。個人情報保護法は企業規模に関わらず適用され、中小企業でも法的義務は同じです。

今すぐできる5つの対策(優先度順)

// 5つの対策:効果・コスト・法的根拠
① 法人プランへの移行効果:大 / 個情法第27条・第28条のリスク大幅低減
② 入力禁止リストの作成・共有効果:大 / 個情法第23条(安全管理措置)の履行
③ AI管理責任者1名の指定効果:中 / 個情法第24条(委託先の監督)の体制整備
④ 全員のeラーニング受講効果:大 / 個情法第23条の「従業者の教育」に相当
⑤ 月1回のAI利用状況の共有効果:中 / ガイドラインの継続的改善

対策①:法人プランへの移行(最優先)

費用対効果の試算5名でChatGPT Teamに移行した場合
月額:約15,000〜18,000円 / 年間:約180,000〜216,000円。日本ネットワークセキュリティ協会(JNSA)の調査では、個人情報漏洩1件あたりの平均損害賠償額は被害者1名につき約2〜4万円、1件のインシデントで数百名分が漏洩するケースも多く、信頼失墜・顧客離れを含めると数百万〜数千万円規模の被害につながります。法人プランへの移行コストは「リスクヘッジのための保険料」と捉えてください。

対策②:入力禁止リスト(最速で効果が出る)

// 入力禁止リスト(掲示用シンプル版)
🔴 顧客の名前・住所・連絡先絶対に入力しない(個情法第27条)
🔴 病名・診断・アレルギー情報絶対に入力しない(個情法第2条第3項)
🔴 契約書の具体的な内容・金額絶対に入力しない(機密情報)
🔴 社員の給与・評価情報絶対に入力しない(個人データ)
⚠️ 迷ったときAI管理責任者(○○)に確認してから入力する

中小企業が陥りがちな3つの落とし穴

落とし穴 01「うちは大丈夫」という根拠のない過信
個人情報保護法はすべての個人情報取扱事業者に適用されます(小規模事業者の例外は2005年改正で廃止)。「うちは小さいから大丈夫」という考えは通じません。
落とし穴 02対策の先送り
「いつかやろう」は「結局やらない」になります。今日、入力禁止リストを作ることから始めてください。30分でできます。
落とし穴 03担当者任せにして経営者が関与しない
個人情報保護法の「安全管理措置」義務(第23条)は事業者(経営者)に課されています。「IT担当者の問題」ではなく「経営者の法的責任」として取り組む必要があります。

業種別:よくある体制整備の失敗パターン

不動産業「営業はAI禁止、事務はOK」という曖昧なルール
営業担当者は顧客情報を扱うからAI禁止、事務スタッフはOK——という区分を作ったが、事務スタッフが顧客の入金履歴・契約内容を含む書類をAIに入力していた。
正しいルールの作り方:役割ではなく「入力する情報の種類」で判断基準を決める。「顧客の氏名・住所・金額が含まれるものは誰であっても入力禁止」が原則。
介護施設「夜勤スタッフには周知していなかった」
昼間のスタッフにはガイドラインを配布していたが、夜勤専属・非常勤スタッフには周知されていなかった。夜勤スタッフが個人スマホでLINE AIに利用者情報を入力していたことが後日発覚。
教訓:AI利用ガイドラインは正社員だけでなく、非常勤・パート・業務委託先にも同じ周知が必要。個情法第24条(従業者の監督)はすべての「従業者」に適用される。
飲食業「紙に印刷して配ったが誰も読んでいなかった」
ガイドラインを作成してバックオフィスに掲示したが、忙しいホールスタッフには実質的に読まれていなかった。
教訓:ガイドラインは「配った・掲示した」で終わらない。朝礼での5分読み合わせ・このeラーニングの全員受講・NGの具体例を口頭で伝えるなど、「行動」が変わる形での周知が必要。

1週間でできる体制整備ロードマップ

// 体制整備ロードマップ(1週間・経営者または管理者が実施)
Day 1(月)現状把握アンケートを配布(L03のひな形を使用・匿名・回答期限を木曜日に設定)
Day 2(火)全社員のChatGPT学習設定を確認・オフに(Settings → Data Controls)
Day 3(水)入力禁止情報リストを作成・A4一枚で全員に配布(L12の雛形を使用)
Day 4(木)アンケート回収・集計。シャドーAIがあれば個別にフォロー(責めない)
Day 5(金)法人プランへの移行を実施(ChatGPT Team申し込み・メンバー招待)
翌週月曜朝礼でAI利用ルールの周知(5分)。AI管理責任者を正式に指定・告知
1ヶ月後全スタッフがこのeラーニングを受講完了。体制の第一段階完成
// ポイント
1週間で「完璧な体制」はできません。しかし「入力禁止リスト+法人プラン移行」だけで8割のリスクは下がります。完璧を待たず、今週中に動くことが最も重要です。
// 参考文献・出典
  • 個人情報の保護に関する法律 第16条第2項(個人情報取扱事業者の定義)——事業規模に関わらず適用
  • 個人情報の保護に関する法律 第23条(安全管理措置)・第24条(従業者の監督)
  • 日本ネットワークセキュリティ協会「情報セキュリティインシデントに関する調査報告書」 → JNSA
// 理解度チェック
中小企業がAIセキュリティ体制を整える最初のステップとして最も効果的なのはどれですか?
✅ 正解です。完璧を求めて先送りにするより、今すぐできる基本的な対策(法人プランへの移行・入力禁止リスト作成)から着手することが最も効果的です。これだけでも法的リスクを大幅に低減できます。
❌ 不正解です。専任担当者の採用や高度なシステム導入は中小企業には現実的でないことが多いです。今すぐできる基本対策から始めることが重要です。

このレッスンの内容を確認しましたか?

CHAPTER 04 // LESSON 15

今日からできる
10のアクション

📖 読了時間:約10分🎯 難易度:まとめ

コース全体の内容を今日から実践できる10のアクションとして整理します。優先度の高いものから順番に取り組んでください。

// 本コースの法的根拠
個人情報保護法(令和2年改正)・文化庁「AIと著作権に関する考え方」(2024年3月)・個人情報保護委員会注意喚起(2023年6月)・総務省・経済産業省「AI事業者ガイドライン」(2024年4月)に基づいています。

今日からできる10のアクション

// アクションリスト:優先度・法的根拠付き
🔴 本日中①ChatGPTの学習設定を確認・オフにする(Settings → Data Controls)
🔴 本日中②使用中AIツールの設定を全員が確認する
🟡 今週中③入力禁止情報リストを作成・全員に配布する(個情法第23条:安全管理措置)
🟡 今週中④社員のAI利用実態をアンケートで把握する
🔵 今月中⑤業務用AIを法人プランに移行する(個情法第27条・第28条への対応)
🔵 今月中⑥AI管理責任者(窓口)を1名指定する
🔵 今月中⑦社内ガイドライン(L12の雛形)を自社用に作成する
🟢 翌月中⑧このコースを全スタッフに受講させる(個情法第24条:従業者の教育)
🟢 翌月中⑨インシデント時の連絡先リストを作成・掲示する(個情法第26条に備える)
🟢 来月から定期⑩四半期ごとにガイドラインを見直す(AI法整備の動向に合わせて更新)
// 法令・ガイドラインの最新情報確認先
個人情報保護委員会(ppc.go.jp) / 文化庁 著作権(bunka.go.jp) / 経済産業省(meti.go.jp

このレッスンの内容を確認しましたか?

CHAPTER 05 // LESSON 16

業種・シーン別
よくある事例集(20事例)

📖 読了時間:約15分🎯 難易度:中級

「自分には関係ない」と思っている人が、最もリスクに気づかないまま被害を受けます。このレッスンでは不動産・介護・飲食・士業・全業種共通の現場で実際に起きている・起きうる事例を20件、パターン別に整理しました。

【不動産業】5事例

R-01顧客の実名・年収・ライフイベントをセットで入力
状況:「田中様(48歳・年収820万・離婚調停中・子ども2人)向けのローン提案書を作って」と無料版ChatGPTに入力。
問題:氏名+年収+家庭状況の組み合わせが個情法第2条第1項の個人情報。無料プランでは学習利用の可能性があり、第27条(第三者提供)抵触リスク。「離婚調停中」はセンシティブな私的情報。
安全な代替:「40代後半・年収800万台・家族構成変化予定ありの方向けローン提案書フォーマット」
R-02賃貸入居審査落ちの理由を個人情報付きで説明させた
状況:「山田様(外国籍・無職・保証人なし・過去滞納あり)の審査が通らなかった理由を説明して」と入力。
問題:外国籍・職業・金融履歴の組み合わせは差別・偏見を生む可能性がある要配慮情報に準ずる。滞納情報は金融情報として特にセンシティブ。
安全な代替:「審査基準の一般的な説明文を作って」で代替可能。固有名詞・属性は一切不要。
R-03契約書の当事者情報をそのままペーストしてリスク確認
状況:売買契約書(甲:田中太郎・住所・金額・特記条件すべて記載)をPDF→テキスト変換してAIに貼り付け「このリスクを教えて」と入力。
問題:個人情報+金額+契約条件という機密情報のフルセットを外部送信。相手方への守秘義務違反にもなりうる。
安全な代替:当事者名・住所・金額を「A氏」「X円」に置き換えてから入力。法的判断は弁護士へ。
R-04競合物件の説明文をコピペして書き換えさせた
状況:競合他社のSUUMO掲載文を全文コピーして「この文章を自社物件向けに書き換えて」と入力。
問題:他社が作成した物件説明文は著作物(著作権法第2条)。全文コピーによる複製は著作権侵害(第21条)になりうる。
安全な代替:「3LDK・南向き・築10年の物件説明文を書いて」と条件を自分の言葉で伝えて依頼。
R-05建蔽率・容積率をAIに確認して顧客に伝えた
状況:「建蔽率60%・容積率200%の土地に何階建てまで建てられますか?」と質問し、AIの回答をそのまま顧客に提示。AIは自信満々に回答したが用途地域・防火規制・斜線制限等の複合条件で実際とは異なっていた。
法的リスク:誤情報の提示は宅建業法第35条(重要事項説明義務)違反につながりうる。「AIがそう言った」は免責にならない。
教訓:法令数値は行政窓口・設計士に確認。AIは「説明文の下書き」のみに使う。

【介護・医療業】4事例

I-01要配慮個人情報をそのまま申し送り文に使用
状況:「鈴木花子さん(85歳・アルツハイマー型認知症・骨粗鬆症・糖尿病・独居)の申し送り文を作って」とChatGPT無料版に入力。
法的問題:「アルツハイマー型認知症」「骨粗鬆症」「糖尿病」はすべて個情法第2条第3項の要配慮個人情報(病歴)。本人同意なく第三者(OpenAI)に提供することは同法第20条第2項違反になりうる。
安全な代替:「80代・認知機能低下・複数疾患管理中・独居の利用者の申し送りフォーマットを作って」
I-02LINEのAI機能で利用者情報を処理(シャドーAI)
状況:スタッフが個人LINEの「AIアシスタント」機能で利用者の名前・病状・家族連絡先を含む申し送りメモを送信・要約させていた。施設管理者は全く把握していなかった。
問題:施設が管理する介護情報が、個人アカウント(会社管理外)を経由して外部サーバーに送信。個情法第23条(安全管理措置)違反のリスク。典型的なシャドーAI事例。
教訓:「個人のスマホだから関係ない」は通じない。業務情報の扱いは端末・アカウントを問わない。
I-03薬の用量・相互作用をAIに確認して服薬介助に使用
状況:「アリセプト5mgを服用している85歳の方に、別の薬を追加する場合の注意点を教えて」とAIに質問し、回答をそのまま業務判断に使用。
リスク:AIは医薬品の相互作用・禁忌を正確に判断する医療資格を持たない。ハルシネーションで誤情報を出力する可能性があり、服薬事故につながりうる。
教訓:医療判断の代替にAIは絶対に使えない。医師・薬剤師への確認は省略不可。
I-04NotebookLMにケア記録PDFをアップロードし共有リンクを誤送信
状況:個人Googleアカウントで複数利用者のケア記録PDFをNotebookLMにアップロード。ノートブックを「リンクを知っている全員が閲覧可能」設定のまま誤って関係ない相手にメール送信。
問題:要配慮個人情報を含むノートブックが外部流出。個情法第26条(漏洩報告義務)の対象になりうる。Google Workspace法人アカウントを使っていれば管理者が共有設定を制御できた。
教訓:NotebookLMは個人アカウント禁止。共有設定は「特定ユーザーのみ」が原則。

【飲食業】4事例

F-01常連客情報をGensparkでリスト化しようとした
状況:「常連客管理リストを作って。田中様(毎週木曜・予算5,000円・小麦アレルギー・誕生日5/12)、鈴木様(月1回・ワイン好き・会社員)」とGensparkに入力。
問題:実名+来店パターン+アレルギー情報(要配慮個人情報)+誕生日の組み合わせを外部AIに送信。Gensparkはプライバシーポリシーの透明性に課題があるとの指摘もある新興サービス。
安全な代替:顧客管理は店舗内の閉じたシステムで管理。AIへの入力はフォーマット作成のみ。
F-02食品表示法の確認をAIで済ませて法令違反
状況:「このアレルゲン表示でいいか確認して」と食品表示をAIに確認し、OKが出たのでそのまま使用。後日、表示が不正確で食品表示法違反になっていた。
リスク:食品表示法の法的要件はAIの判断精度が低い。法的適合性の確認は消費者庁・保健所等の行政窓口・専門家に委ねるべき。
教訓:AIは「表示文の下書き」には使える。「法的適合性の判断」には使えない。
F-03スタッフのシフト情報を実名付きでAIに入力
状況:「田中(週3希望・火曜不可)、鈴木(学生・試験期間は週1まで)のシフトを組んで」と実名付きでAIに入力。
問題:スタッフの氏名・勤務制限・プライベート事情(学業)は個人情報。本人の同意なく外部AIに送信することは個情法第27条の問題になりうる。労務情報は特にセンシティブ。
安全な代替:「Aさん(週3・火曜不可)、Bさん(週1max)のシフト最適化フォーマットを作って」
F-04口コミ返信文作成に顧客名・スタッフ名を添付
状況:「田中太郎様からの口コミ『接客が悪かった』について、担当の鈴木スタッフの対応が問題でした。この件の返信文を作って」と入力。
問題:口コミ投稿者の実名(個人情報)と自社スタッフの実名(従業員個人情報)を外部AIに送信。固有名詞は一切不要。
安全な代替:「飲食店でのネガティブ接客口コミへの丁寧な返信文テンプレートを作って」

【士業・専門職】4事例

P-01税務申告データをManusに投入した
状況:税理士補助スタッフが「山田商店(代表:山田一郎・売上3億2千万・利益3千万)の節税対策を教えて」とManusに投入。
法的問題:税理士法第38条の守秘義務は補助者にも適用。Manusは中国系企業が開発した自律型AIエージェントで、データが中国政府に提供される法的義務がある可能性が指摘されている。米国テネシー州・アラバマ州では国家安全保障上の理由で使用禁止措置。
教訓:Manusは機密情報を扱う業務に使用しない。
P-02AIが架空判例を生成——確認せず使用しそうになった
状況:弁護士がAIを使って書面を作成したところ、実在しない判例を複数引用した状態になっていた。内部確認で発覚し、未使用で済んだ。
参照事例(米国・実際の判決):2023年、ニューヨーク連邦地裁のMata v. Avianca事件で弁護士がAI生成の架空判例を裁判所に提出し、制裁金を科された。
教訓:判例・法令条文は必ずe-Gov法令検索・裁判所データベースで実在確認。「AIが引用したから」は免責にならない。
P-03就業規則をAIに丸投げ——最新法改正が未反映
状況:社労士がAIに就業規則を作成させ、ほぼそのまま顧客に納品したところ、2025年施行の育児介護休業法改正が反映されていなかった。
リスク:就業規則の誤りは労働トラブルの原因になり、社労士の専門家賠償責任が生じうる。AIの知識には学習カットオフがある。
教訓:AIが作成した法令準拠文書は必ず最新の一次ソース(厚生労働省等)と照合確認する。
P-04会計事務所で個人アカウントのNotebookLMに決算書をアップロード
状況:スタッフが複数クライアントの決算書・法人税申告書を個人Googleアカウントで使うNotebookLMにアップロードして横断検索に活用していた。
問題:個人アカウントのNotebookLMでは、フィードバック送信時に人間のレビュアーが内容を確認する場合があるとGoogleが明示。会社が管理できない個人アカウントでの機密処理は個情法第23条(安全管理措置)上も問題。
安全な代替:Google Workspace法人アカウント経由のNotebookLMを使用する。

【全業種共通】3つの構造的リスク事例

C-01AIエージェントの自律的なデータ収集・送信
状況:Manusに「取引先A社の最新情報を調べてレポートを作って」と指示したところ、ManusがA社の公式サイト・SNS・登記情報等を自律的に収集し、複数の外部APIを経由して処理した。
新しいリスク:従来のAIは「入力した情報が流出する」リスクだった。AIエージェントは「AIが自律的に外部情報を収集・処理する過程で意図しないデータが混入する」新しいリスクがある。何がどこに送信されたか追跡が困難。
教訓:AIエージェントに与えるアクセス権は最小限に。「何でも自動でやって」は危険。
C-02無料プランへの入力が競合他社に伝わったと疑われたケース
状況:ある企業の社員がChatGPT無料プランで社内プロジェクト名・担当者名を入力していたところ、数週間後に競合他社から似た提案が来た。「ChatGPTに情報が漏れたのでは」と社内で問題になった。
実際のところ:ChatGPTが特定企業に情報を漏らす仕組みはなく、因果関係は不明。しかし「無料プランでは学習データとして使われる可能性がある」のは事実であり、こうした疑念を生む構造になっている。
教訓:疑念を生む構造自体がリスク。社内機密は法人プランか明示的に学習オフのツールのみで扱う。
C-03ハルシネーション情報を社外文書に使用してクレーム
状況:「不動産投資の平均利回りは8〜12%と言われています」という文章をAIが生成し、担当者が確認せずに顧客向け投資説明資料に掲載。後日クレームが発生。(実際の区分マンション表面利回りは一般的に4〜6%程度)
法的リスク:誇張された利回り情報の掲載は、金融商品取引法・宅建業法上の虚偽表示にあたりうる。責任はAIではなく使用した担当者・会社にある。
教訓:数値情報はAIの出力をそのまま使わない。必ず業界統計・公的資料で確認する。
// 参考文献・出典
  • 個人情報の保護に関する法律 第2条第1項・第3項・第20条第2項・第23条・第27条・第26条
  • Mata v. Avianca, Inc., No. 22-CV-1461(S.D.N.Y. 2023)——AI架空判例提出に対する制裁判決
  • 宅地建物取引業法 第35条(重要事項説明義務)・食品表示法・金融商品取引法
  • 税理士法 第38条(秘密を守る義務)・社会保険労務士法 第21条
// 理解度チェック
AIエージェント(Manus等)に特有のリスクとして正しいものはどれですか?
✅ 正解です。AIエージェントは複数のAIが連携し、自律的にWebアクセス・ファイル操作・API呼び出しを行うため、通常のチャットAIには存在しない新しいリスクがあります。
❌ 不正解です。AIエージェントはクラウドで動作し、複数AIが連携するため、通常のAIより複雑なリスクを持ちます。

このレッスンの内容を確認しましたか?

CHAPTER 06 // LESSON 17

主要AIツール完全比較ガイド
ChatGPT / Gemini / Claude / Genspark / Manus / NotebookLM

📖 読了時間:約18分🎯 難易度:中級〜応用

「どのAIを使えばいいの?」——セキュリティと目的の観点から整理すると答えが見えてきます。このレッスンでは中小企業が実際に使う6ツールを、セキュリティ・得意不得意・中小企業推奨度の観点で比較します。

// 6ツール:中小企業セキュリティ推奨度(2025〜2026年時点)
ChatGPT Team / Enterprise◎ 業務利用の第一選択肢。DPA締結可能
Claude Pro / for Enterprise◎ セキュリティ設計が堅牢。高機密業種に強い
Gemini(Google Workspace法人)◎ Google既存環境があれば高水準
NotebookLM(Google Workspace法人)○ 社内文書分析に強いが共有設定に注意
Genspark(無料・個人利用)⚠️ 業務機密の入力は避ける。設定確認必須
Manus(AI自律エージェント)❌ 機密情報を扱う業務には使用禁止推奨

① ChatGPT(OpenAI)

// ChatGPT プロファイル
開発・運営OpenAI(米国・サンフランシスコ)
データ保管先米国サーバー(Azure等)
業務利用推奨プランTeam($25〜/人/月)以上
DPA締結Team以上で可能
学習保証Team以上で契約レベル保証

得意なこと:汎用的な文章生成・要約・アイデア出し・コード作成。GPT-4系の自然な日本語対応が高水準。プラグイン・GPTs機能で業務フローへの組み込みも可能。

注意点:無料プランでの業務利用はセキュリティ上推奨されない。ハルシネーションは依然として発生する。

よくある危険な使い方無料プランで顧客情報を含むメール文面を作成
「田中様(○○社・担当:山田様)へのフォローメールを書いて」と無料プランに入力。学習データ使用の可能性があり個情法第27条のリスク。
対策:Teamプランへの移行+顧客名は入力しない運用ルールの徹底。
// 中小企業推奨
業務利用するならChatGPT Teamへの移行が最優先。5名で月約18,000円(為替による)。管理機能・DPA・学習保証がすべて手に入る。費用対効果は6ツール中最も高い。

② Gemini(Google)

// Gemini プロファイル
開発・運営Google(米国)
業務利用推奨形態Google Workspace法人アカウント経由
個人アカウントでの業務利用❌ 避けるべき

得意なこと:Google Workspace(Gmail・Docs・Sheets・スライド)との深い統合。Docs・SheetsのAI支援が特に強力。YouTubeの要約にも使える。

最重要注意点:個人アカウントとWorkspaceアカウントでセキュリティ水準が根本的に異なる。「Googleにログインしているから大丈夫」という誤解が最も多い。

よくある危険な使い方個人Googleアカウントで社内文書を要約
私物スマホの個人Googleアカウントで会社の議事録をGeminiに貼り付けて要約。会社が管理できない環境での機密情報処理は安全管理措置(個情法第23条)違反になりうる。
対策:Geminiは必ずGoogle Workspace法人アカウントでのみ使用するルールを設ける。

③ Claude(Anthropic)

// Claude プロファイル
開発・運営Anthropic(米国・サンフランシスコ)
安全性哲学Constitutional AI——設計段階から安全性を組み込み
業務利用推奨プランPro / for Enterprise
認証SOC2 Type II(第三者機関審査済み)
コンテキスト長最大200K tokens——長文書類の処理に強い

得意なこと:長文の正確な要約・分析(契約書・報告書・論文)、複雑な指示への忠実な対応、安全性の高い出力品質。法的・倫理的に繊細な領域での利用に適している。

推奨される使い方法律事務所・医療機関・士業での機密文書処理
SOC2 Type II認証があり、DPA締結可能なClaude Enterpriseは、守秘義務が特に厳格な弁護士・医師・税理士事務所での導入に適している。文書の内容がAI訓練に使用されないことが契約で保証される。

④ Genspark

// Genspark プロファイル
開発・運営MainFunc Inc.(米国法人)/ 創業者は元Baidu幹部
サービス開始2024年6月(ベータ版)
特徴AI検索エンジン・複数AIエージェント連携・Sparkpage生成
業務機密への推奨度⚠️ 慎重に。機密情報の入力は避ける
プライバシーポリシーの透明性⚠️ 一部で不十分との指摘あり

得意なこと:リアルタイムWeb検索と情報整理の組み合わせ。複数AIエージェントが連携してリサーチレポートを自動生成。市場調査・競合調査・業界トレンド把握に強い。SNS分析の自動化に実績あり。

注意点:設立から間もない新興サービスで長期的な信頼実績が限定的。プライバシーポリシーの詳細な透明性への懸念が指摘されている。創業者が元Baidu幹部であるため、データ管理の独立性について慎重な評価が必要との意見もある。

安全な使い方公開情報のリサーチ・市場調査に限定使用
「○○業界の2025年市場規模と主要プレーヤーをまとめて」など公開情報の収集・整理には有効。
絶対NG:顧客情報・社内機密・財務データ・個人情報の入力。使用前に「AIデータ保持」機能のオフ設定を確認する。
// 中小企業への判断基準
公開情報のリサーチ用途なら活用できる可能性がある。業務上の機密情報・個人情報は絶対に入力しないを徹底した上で、プライバシーポリシーを情報セキュリティ担当者が確認してから使用。不明な点があれば使わない判断が安全。

⑤ Manus

// Manus プロファイル
開発・運営Butterfly Effect(中国)/ シンガポール法人構造
技術基盤AnthropicのClaude + AlibabaのQwen(組み合わせ)
種別完全自律型AIエージェント(Webブラウズ・ファイル操作・API呼び出し)
業務機密への推奨度❌ 使用禁止推奨
規制動向米国テネシー州・アラバマ州で国家安全保障上の理由で使用禁止措置

できること:旅行計画から予約まで自律実行・市場調査レポートの自動生成・プレゼン資料の自動作成。「ゴールを伝えれば後はAIが全部やる」という完全自律型の動作。

なぜ業務機密に使ってはいけないか

  • 🔴中国の国家情報法リスク:「法に従って国家の情報活動に協力する義務を負う」(中国国家情報法第7条)。Manusは実質的に中国企業が運営しており、ユーザーデータが中国政府に提供される法的義務がある可能性がある。
  • 🔴自律的なデータアクセス:Manusは自律的にWebブラウジング・外部API呼び出しを行うため、何がどこに送信されたか追跡が困難。
  • 🔴複数AI間の情報混入リスク:複数のAIエージェントが連携する過程で意図しない情報が混入したり、別プロジェクトのデータが結果に含まれる可能性がある。
  • 🔴データセンター情報の不透明性:データセンターの所在地・セキュリティ監査結果等が明示されていないとの指摘がある。
// 中小企業への判断
業務機密・個人情報を扱う用途では使用しないことを社内ルールとして明記することを推奨。個人の趣味・公開情報の調査など業務外利用についても、会社として方針を定めておくことが望ましい。

⑥ NotebookLM(Google)

// NotebookLM プロファイル
開発・運営Google
特徴アップロードした文書のみをソースとしてAIが回答
個人アカウント⚠️ 業務機密の入力は避ける
Google Workspace法人◎ 学習利用なし・人間レビューなしが保証
NotebookLM Enterprise◎ IAM・VPC-SC・KMS・監査ログ対応

得意なこと:社内マニュアル・会議議事録・報告書・契約書など「アップロードした文書に基づいた質問応答」が最大の強み。「この議事録のA案とB案の違いを整理して」「この契約書の○○条項について教えて」のような用途に圧倒的に強い。Audio Overview(ポッドキャスト形式の音声要約)も便利。

最重要注意点:個人アカウントとWorkspaceアカウントでセキュリティ水準が根本的に異なる。共有設定のミスによる情報漏洩が最大のリスク。

よくある危険な使い方個人アカウント+「リンクを知っている全員が閲覧可能」設定
個人Googleアカウントで社内文書をアップロードし、共有リンクを誰でも閲覧可能設定のままメール誤送信。機密情報が外部流出する典型例。
対策:①必ずWorkspace法人アカウントを使用 ②共有設定は「特定のユーザーのみ」が原則 ③定期的に共有状況を確認。
// 中小企業への推奨
Google Workspaceをすでに使っている企業にとって「社内文書ベースのAI活用の入口として最も安全に始めやすいツール」。まず社内マニュアル・FAQ・議事録の整理から使い始めることを推奨。重要:必ずWorkspaceアカウントを使用すること。

使い分けの結論:中小企業向けツール選択マトリクス

// 用途別:どのツールを使うべきか
日常の文章作成・メール・企画書→ ChatGPT Team / Claude Pro
社内文書の要約・FAQ化・検索→ NotebookLM(Workspace経由)
Google Docs・Sheetsでのインライン支援→ Gemini(Workspace経由)
市場調査・競合リサーチ(公開情報のみ)→ Genspark(機密情報は入力しない)
高機密業種(医療・法律・金融)→ Claude Enterprise / ChatGPT Enterprise
業務機密を含む完全自律タスク→ 現時点では推奨できるツールなし
Manus(機密情報を含む業務)→ 使用禁止を推奨
// 参考文献・出典
  • OpenAI「ChatGPT Team / Enterprise データポリシー」→ OpenAI
  • Anthropic「Security & Privacy」→ Anthropic
  • Google「Workspace 生成AIプライバシーハブ」→ Google
  • Google Cloud「NotebookLM Enterprise」→ Google Cloud
  • 侍エンジニア「Manusの危険性は?」2026年1月→ 参照
  • 中国国家情報法 第7条(国家情報活動への協力義務)
  • Genspark プライバシーポリシー→ Genspark
// 理解度チェック
NotebookLMを業務機密の処理に使う場合、最も安全な使い方はどれですか?
✅ 正解です。NotebookLMは個人アカウントとWorkspaceアカウントでセキュリティ水準が根本的に異なります。業務利用はWorkspace法人アカウント+共有設定の厳格な管理が必須です。
❌ 不正解です。個人Googleアカウントでは「データがサービス改善に使われる可能性がある」とGoogleが明示しています。業務機密はWorkspace法人アカウントでのみ扱ってください。

このレッスンの内容を確認しましたか?

🎓

修了証を取得する

全17レッスンを受講済みにすると、修了証の発行申請ができます。
申請後、担当者より修了証PDFをメールでお送りします。

受講進捗
0 / 17 レッスン完了(L01〜L17)
修了証 発行申請フォーム
以下を入力して申請してください。全レッスン受講済みの場合のみ送信できます。
⚠️ L01〜L17のすべてを受講済みにしてから申請してください。
申請後、担当者より修了証PDFをメールにてお送りします。
// PRICING

シンプルな料金体系

個人でも、チームでも。必要な形で学べます。

BASIC
¥9,800
買い切り・税込
  • 全17レッスンへのアクセス
  • 各章末 理解度テスト
  • AI利用ガイドラインテンプレート(DL)
  • コンテンツ更新通知
社内研修におすすめ
STANDARD
¥39,800
買い切り・税込
  • 全17レッスンへのアクセス
  • 各章末 理解度テスト
  • 修了証PDF発行(会社名・氏名入り)
  • AI利用ガイドラインテンプレート(DL)
  • LaughRally AI導入相談 1回無料
  • 請求書払い対応
PREMIUM
¥98,000
買い切り・税込
  • 全17レッスンへのアクセス
  • 各章末 理解度テスト
  • 修了証PDF発行(会社名・氏名入り)
  • AI利用ガイドラインテンプレート(DL)
  • 社内AI利用ガイドライン策定支援
  • LaughRally AI導入コンサルティング込み
  • 請求書払い対応