炎上・トラブル事例
Risk Cases
「知らなかった」では済まされないAIのリスク
AIは業務効率を劇的に改善する反面、誤った使い方をすれば企業の信頼を大きく損なう重大なリスクにもなり得ます。 ここでは、現場で起こり得るトラブル事例と対策について説明します。
Case 01: 機密情報の漏洩
議事録要約のために、未発表の新製品情報を入力してしまった
一般的な無料のAIサービスに入力されたデータは、AIの学習データとして再利用される可能性があります。 社内の重要会議の音声をそのままAIに読ませた結果、競合他社が利用する際にその情報が出力されてしまうリスクがあります。
AiLiNKの対策:入力して良い情報・悪い情報の「仕分け」を徹底し、オプトアウト設定等の技術的対策も指導します。
Case 02: 著作権侵害とハルシネーション
AIが生成した画像をそのまま広告に使用し、著作権侵害で訴えられる
AIは既存の著作物を学習して生成を行うため、特定の作家やブランドに酷似したものを出力することがあります。 また、もっともらしい嘘(ハルシネーション)をつくこともあり、ファクトチェックなしでの公開は致命的です。
AiLiNKの対策:生成物の商用利用リスクの判定基準や、人間によるファクトチェックのフローを構築します。
Case 03: 隠れAI(シャドーAI)
普段使っているSaaSに勝手にAI機能が追加されていた
「うちはChatGPTを禁止しているから大丈夫」ではありません。 メモアプリ、Web会議ツール、翻訳サイトなど、既存のSaaSにAI機能が次々と実装されています。社員が無意識に使い、情報が流出するケースが急増しています。
AiLiNKの対策:社内で利用しているSaaSの「隠れAI」棚卸しを行い、それぞれのリスクレベルを判定します。