音声も動画もウソになる時代!あなたの投稿がAI音声詐欺に使われる?
AI悪用か、社長の偽音声で指示 部下に電話、不正送金命じる|47NEWS(よんななニュース)
人工知能(AI)で生成したとみられる偽音声により、社長を装って部下に不正送金を命じた事例が日本企業で起きていたと米情報セキュリティー会社、プルーフポイントの日本法人が19日、明らかにした。3度にわた ...
「それ、本当に社長の声?」
2024年11月、日本のある企業がAIによる音声詐欺の被害にあいました。SNSや動画に上げた声をAIがまねて、まるで本人のように話し、お金をだまし取ろうとしたのです。電話番号まで社長のものと一致させるという巧妙さでした。AI技術の進化は便利である一方、だましの道具にもなり得ます。
偽社長事件の流れと手口
3回の電話で信じ込ませる
この事件では、3回にわたる電話が使われました。
- 午前10時:AIが社長の声をまねて「企業買収のため、今日中に送金してほしい」と依頼
- 午前11時30分:「送金の進捗はどうか」と催促
- 午後12時15分:幹部が「同期会の件は?」と尋ねると、犯人は答えに詰まり、嘘が発覚
AIはYouTubeなどに投稿された音声を学習し、社長そっくりの声を再現しました。さらに、発信者番号も本物と同じに見せかけていました。
AI詐欺は世界にも広がっている
海外の事例
- イギリスのエネルギー企業(2023年):偽のCEOの声で約2600万円を詐取。
- 香港の多国籍企業(2024年):ディープフェイク動画を使い、約38億円をだまし取られる。
日本の現状
- 2024年の特殊詐欺被害総額:721億5,199万円(過去最高)
- AI関連詐欺の割合:全体の18%に増加(前年比の3倍)
AI詐欺への5つの対策
- 声だけを信じない:重要な話は、本人と直接会って確認しましょう。
- SNSに注意:声入り動画の投稿は控えめに。AIに悪用される可能性があります。
- 二段階認証の設定:SNSやメールには、必ず二段階認証を導入しましょう。
- 怪しいフレーズに警戒:「内緒にして」「今すぐ対応を」などの言葉には注意が必要です。
- 家族とのルールを作る:送金依頼が来たときは、家族で確認するルールを決めておきましょう。
AI技術は危険?それとも便利?
役立つAIの活用例
- 話すことが難しい人のコミュニケーション支援
- 歴史上の人物の声を再現した教材
- 外国語のリアルタイム翻訳
悪用されたAIの例
技術 | 悪用事例 |
---|---|
音声合成 | 偽の家族を装うオレオレ詐欺 |
ディープフェイク | 有名人の偽動画をSNSで拡散 |
自然言語処理 | 詐欺メールの自動作成 |

未来を守るためにできること
新しい技術で詐欺を防ぐ
- 音声認証2.0:呼吸音や舌の動きで本人確認を行う新システム
- ブロックチェーン認証:本物の連絡かどうかを保証する仕組み
学校でできる取り組み
- AI倫理の授業:ディープフェイク動画を作ってみて、その影響を学ぶ
- 模擬詐欺訓練:架空の詐欺電話に対応する練習を通じて、だまされない力を育てる
まとめ
- AI音声を使った詐欺事件が日本で発生
- 海外でも数千万円から数十億円の被害が出ている
- SNS投稿の音声や映像が悪用される可能性がある
- AIは正しく使えば社会に役立つツールになる
スマホやSNSが身近な今、私たちは情報を発信する側でもあり、守る側でもあります。自分の声や映像が知らないうちに悪用されるかもしれない時代だからこそ、「これは本当に本人の声か?」と立ち止まって考える力が大切ですね。

【無料オンラインイベント】8/25(日)「第3回 クイズで学ぶ!お金と社会のつながり」
<詳細・お申込みはこちら>