全17レッスンを通じて、生成AIを安全に使うための知識を身につけましょう。
各レッスンを受講後に「受講済み」ボタンを押すと、進捗が記録されます。
ChatGPT・Claude・Geminiを業務で使う全ての方へ。「何を入力してはいけないか」「正しい設定は何か」「万が一の初動は何か」——中小企業の現場に直結した、実践的なAIセキュリティ教育。
序章 + 全4章・16レッスン。各章末に理解度テスト付き。
※ 再生速度はプレーヤー右側のメニューから変更できます
2022年11月、OpenAIがChatGPTを公開してからわずか2年あまりで、生成AIは日本のビジネス現場に急速に浸透しました。メールの下書き、議事録の要約、企画書のアイデア出し——かつては人間が1〜2時間かけて行っていた作業が、数十秒で完了するようになりました。
その利便性は本物です。ある不動産会社では、物件資料の作成時間が従来の3分の1に短縮されました。介護施設では、申し送り文書の下書きをAIが作成することで、担当者の残業が月20時間減ったという報告もあります。
しかし、その便利さの裏で、静かに進行しているリスクがあります。
ここで、経営者・管理職の方に一つ問いかけます。
「あなたの会社の社員は、今週AIに何を入力しましたか?」
おそらく、正確に答えられる方はほとんどいないはずです。それが問題の本質です。生成AIは「入力した内容を外部サーバーに送信して処理する」仕組みです。社員が何気なく入力した顧客名・契約金額・社内の人事情報が、毎日何十回も外部に送り出されている可能性があります。
「ChatGPTに入力した内容はOpenAIのサーバーに送られる」——これを知っている方は多いでしょう。しかし問題は「その先、何が起きるか」を正確に理解している人がほとんどいないことです。
「サーバーに送られる」という事実だけでは、リスクを適切に判断できません。このレッスンでは、情報の流れを具体的に追いながら、どこにリスクがあるかを整理します。
ここが最も誤解される部分です。学習をオフにしても、情報はサーバーに送信・保存されています。以下のリスクは設定に関係なく残ります。
このレッスンの内容を確認しましたか?
「学習オフにすれば大丈夫」——この認識が最も危険です。設定は確かに重要ですが、それだけでは守れないリスクがあります。このレッスンでは主要ツールの設定手順を具体的に解説し、設定後も残るリスクを正確に伝えます。
このレッスンの内容を確認しましたか?
「シャドーAI(Shadow AI)」とは、会社の許可・管理なしに従業員が個人的にAIツールを業務利用する行為です。「シャドーIT」の生成AI版と言えます。
「うちはAIを導入していないから関係ない」——そう思っているなら、それは危険な誤解です。導入していないから「存在しない」のではなく、見えていないだけです。
責めない・罰しない雰囲気で実施することが最重要です。「正直に教えてもらうことが会社にとって一番大事」と最初に伝えてから配布してください。
このレッスンの内容を確認しましたか?
「AIを安全に使いたいなら自社サーバーに入れればいい」——これは理屈としては正しいですが、中小企業の現実には合っていない場合がほとんどです。このレッスンでは選択肢を整理し、中小企業に最も現実的な答えを提示します。
完全なオンプレミスは中小企業には過剰投資になる場合がほとんどです。現実的な選択肢は「クラウドAIの法人向けエンタープライズプラン」です。
このレッスンの内容を確認しましたか?
「ChatGPTを使っている」と一口に言っても、プランによってセキュリティ水準は雲泥の差があります。無料プランと法人プランを同列に扱うことは、セキュリティ管理上の致命的なミスです。
このレッスンの内容を確認しましたか?
ChatGPT以外にも、業務で使われるAIツールは多岐にわたります。「ChatGPTだけ設定した」では不十分です。このレッスンではClaude・Gemini・Copilotの3ツールについて、セキュリティの観点から整理します。
AnthropicはAIの安全性研究に特化した企業として設立されました。「Constitutional AI(憲法的AI)」と呼ばれる安全性重視の訓練手法を採用し、設計段階から情報漏洩・有害出力のリスク低減が組み込まれています。
個人GoogleアカウントとGoogle Workspace(法人)ではデータ扱いが根本的に異なります。この違いを理解せずに使うことが最大のリスクです。
CopilotはWord・Excel・Teams等の社内データに直接アクセスできます。これが最大の強みであり、同時に最大のリスクです。
このレッスンの内容を確認しましたか?
「これ、入力していいですか?」と毎回上司に確認しなくても判断できる——それがこのレッスンの目標です。判断基準を3段階×業種別で整理します。
単体では問題なくても、複数の情報が組み合わさると個人が特定できてしまう「モザイク効果(Mosaic Effect)」があります。
このレッスンの内容を確認しましたか?
「AIセキュリティはIT企業の話」——そう思っている方に読んでほしいのがこのレッスンです。中小企業が多い4業種に特化した、現場で実際に起きている・起きうるリスク事例を紹介します。
このレッスンの内容を確認しましたか?
個人情報保護法(正式名称:個人情報の保護に関する法律)は、事業者が個人情報を扱う際のルールを定めた法律です。2022年4月施行の改正で規制が大幅強化され、違反時の法人に対する罰金は最高1億円(第184条)に引き上げられました。AIの普及によって、この法律との関係はさらに重要になっています。
顧客の個人情報をChatGPTに入力する行為は、個人情報をOpenAI社(第三者)のサーバーに送信することを意味します。
個人情報保護委員会は2023年6月2日の公式注意喚起で、「AIサービス提供事業者が、プロンプトとして入力された個人データを学習用データセットに加工して機械学習に利用している場合には、サービス利用者からAIサービス提供事業者への個人データの『提供』と評価される可能性が高い」と明示しています(注意喚起資料より)。
個人情報保護法第27条第5項第3号では、「業務委託」先への個人データ提供は第三者提供にあたらない例外があります。AIサービスとの関係を「業務委託」として位置づけられれば、違法リスクを回避できます。
2022年4月施行の個人情報保護法改正により、漏洩報告が努力義務から法的義務に変わりました(第26条)。報告が必要な主な場合:
このレッスンの内容を確認しましたか?
「AIが作ったものだから著作権の問題はない」——この認識は半分正しくて半分誤りです。AIを使ったコンテンツ制作には、入力側と出力側の両方で著作権リスクが存在します。
2024年3月15日、文化庁(文化審議会著作権分科会法制度小委員会)が「AIと著作権に関する考え方について」を公表しました。本レッスンはこの公式ガイドラインに基づいて解説します。
著作権侵害が成立するには、①類似性(既存著作物の表現上の本質的特徴が感得できるか)と②依拠性(既存著作物に基づいて創作されたか)の両方が必要です(判例法理・文化庁「考え方」で確認)。
このレッスンの内容を確認しましたか?
ハルシネーション(Hallucination:幻覚)とは、生成AIが事実ではない情報を自信を持って出力する現象です。AIが「嘘をついている」わけではなく、確率的な予測に基づいて文章を生成する大規模言語モデルの仕組み上、必然的に発生します。
AIがハルシネーションで誤情報を生成し、それを確認せずに業務で使い、問題が発生した場合——責任はAIを利用した人間・企業にあります。
OpenAI・Anthropicのいずれの利用規約にも、「AIの出力の正確性・完全性・適合性を保証しない」と明記されています。「AIがそう言ったから」は法的な免責理由になりません。
AIの回答に数値・法令・医療情報が含まれていた場合、以下の公式サイトで必ず確認してください。
このレッスンの内容を確認しましたか?
このレッスンでは、中小企業がすぐに使えるAI利用ガイドラインの雛形を提供します。完璧なものを目指して先送りするより、まず70点のものを作って運用することが重要です。
このレッスンの内容を確認しましたか?
情報漏洩インシデントが発生した場合、最初の対応の速さと正確さが被害の大きさを大きく左右します。パニックになる前に、この対応フローを頭に入れておいてください。
以下のいずれかに該当する場合、個人情報保護委員会への報告が義務になります(個人情報保護法第26条・施行規則第7条)。
このレッスンの内容を確認しましたか?
「セキュリティ対策は専任部門がある大企業がやるもの」——そう思っていませんか?実は中小企業こそ、シンプルな対策で大きなリスク削減が可能です。
このレッスンの内容を確認しましたか?
コース全体の内容を今日から実践できる10のアクションとして整理します。優先度の高いものから順番に取り組んでください。
このレッスンの内容を確認しましたか?
「自分には関係ない」と思っている人が、最もリスクに気づかないまま被害を受けます。このレッスンでは不動産・介護・飲食・士業・全業種共通の現場で実際に起きている・起きうる事例を20件、パターン別に整理しました。
このレッスンの内容を確認しましたか?
「どのAIを使えばいいの?」——セキュリティと目的の観点から整理すると答えが見えてきます。このレッスンでは中小企業が実際に使う6ツールを、セキュリティ・得意不得意・中小企業推奨度の観点で比較します。
得意なこと:汎用的な文章生成・要約・アイデア出し・コード作成。GPT-4系の自然な日本語対応が高水準。プラグイン・GPTs機能で業務フローへの組み込みも可能。
注意点:無料プランでの業務利用はセキュリティ上推奨されない。ハルシネーションは依然として発生する。
得意なこと:Google Workspace(Gmail・Docs・Sheets・スライド)との深い統合。Docs・SheetsのAI支援が特に強力。YouTubeの要約にも使える。
最重要注意点:個人アカウントとWorkspaceアカウントでセキュリティ水準が根本的に異なる。「Googleにログインしているから大丈夫」という誤解が最も多い。
得意なこと:長文の正確な要約・分析(契約書・報告書・論文)、複雑な指示への忠実な対応、安全性の高い出力品質。法的・倫理的に繊細な領域での利用に適している。
得意なこと:リアルタイムWeb検索と情報整理の組み合わせ。複数AIエージェントが連携してリサーチレポートを自動生成。市場調査・競合調査・業界トレンド把握に強い。SNS分析の自動化に実績あり。
注意点:設立から間もない新興サービスで長期的な信頼実績が限定的。プライバシーポリシーの詳細な透明性への懸念が指摘されている。創業者が元Baidu幹部であるため、データ管理の独立性について慎重な評価が必要との意見もある。
できること:旅行計画から予約まで自律実行・市場調査レポートの自動生成・プレゼン資料の自動作成。「ゴールを伝えれば後はAIが全部やる」という完全自律型の動作。
得意なこと:社内マニュアル・会議議事録・報告書・契約書など「アップロードした文書に基づいた質問応答」が最大の強み。「この議事録のA案とB案の違いを整理して」「この契約書の○○条項について教えて」のような用途に圧倒的に強い。Audio Overview(ポッドキャスト形式の音声要約)も便利。
最重要注意点:個人アカウントとWorkspaceアカウントでセキュリティ水準が根本的に異なる。共有設定のミスによる情報漏洩が最大のリスク。
このレッスンの内容を確認しましたか?
全17レッスンを受講済みにすると、修了証の発行申請ができます。
申請後、担当者より修了証PDFをメールでお送りします。
個人でも、チームでも。必要な形で学べます。