ディープフェイク詐欺と AI 音声によるなりすましに関するガイド
こんな場面を想像してください。電話が鳴ったので取ってみると、上司からです。新しい取引先との大切な商談を決めたいので数百万ドルを電子送金してほしい。あわてた様子でそう指示してきます。異例な指示ですが、間違いなく上司の声だったので、言われたとおりに送金処理しました。数時間後、これは偽の取引だったと判明します。相手は詐欺師。電話で聞いた声は完全なデジタル音声でした。
これは、SF ミステリー映画の話ではありません。急激に増えている巧妙なディープフェイク詐欺と AI 音声詐欺という恐ろしい現実です。AI 音声を捏造したりディープフェイク動画を生成したりする技術は利用しやすくなる一方なので、このような詐欺に狙われるのはもはや大手企業に限らなくなっています。家族の誰かになりすます、政治的な虚偽情報を生み出す、新しい形の ID・個人情報盗難を実行するといった目的で使われることが増えてきました。
2024 年だけでも、ディープフェイク詐欺の犯行件数は 3,000% という驚愕の比率で急増しました。原因は、強力な AI ツールが普及したことと、オンラインに大量の個人データが流れていることにあります。詐欺にはもはや、ハリウッド映画なみのリソースなど必要ありません。ソーシャル メディア上の短いクリップ動画から音声クローンを生成したり、公開されている写真からリアルなフェイク動画を作ったりするソフトウェアが、ますます手軽に使えるようになっています。それさえあればいいのです。
このガイド記事の狙いは、まるで地雷原のような現在のデジタル世界を乗り切り、この技術の仕組みを把握するための知識で武装してもらうことにあります。また、現実世界の例とその破壊的な影響を探り、こうした詐欺を見抜いて自分自身や家族、会社を詐欺行為から守るための実践的な戦略もお伝えします。
AI 音声詐欺とディープフェイク詐欺とは
AI 音声詐欺は、高度な技術を駆使して人の声を模倣します。その声は、普通に公表されている音声データや漏洩したデータから入手するのが一般的で、緊急事態あるいは困窮を語りながら被害者を欺いて送金や機密情報の送信を依頼してきます。緊急事態に陥った家族とか、至急の送金を必要としている同僚などになりすまし、心情的なつながりを利用したり、切迫感を演出して被害者を詐欺にかけます。
一方のディープフェイクは、AI ベースまたは機械学習ベースの超リアルな合成動画です。つなぎ目なく顔を入れ替える。表情を変える。さらには、まったく架空の人物像さえ作り出します。実際とは違う発言や行動をとっているように見せたり、現実と虚偽の境目をあいまいにしたりします。
AI 音声クローンとディープフェイクによる詐欺の裏にある技術
AI 音声詐欺の裏にある中核技術は音声合成で、たいていは敵対的生成ネットワーク (GAN) を利用しています。その仕組みは、単純化すると以下のとおりです。
- データ収集: 詐欺師は、狙う相手の声のサンプルを手に入れる必要がありますが、これは驚くほど簡単です。音声メール、ソーシャル メディア上の動画、ポッドキャストのインタビュー、カスタマー サービスへの通話などから数秒分のデータがあれば済みます。
- モデルの訓練: AI モデルが、音声サンプルを解析して固有の特性を抽出し、音声的な特徴を真似るよう学習します。このときの特性としては、声のピッチやトーン、アクセント、ペース、ときには息継ぎパターンまで使われます。
- 生成と微調整: 詐欺師が、AI に「話させ」たい文章を入力します。GAN の生成機能が音声を作り出し、識別機能がそれを元の音声サンプルと比較して本物らしさを確認します。このプロセスは、ものの数秒で何千回も繰り返され、最終的に生成される声はそのサイクルごとにリアルになっていきます。
その結果、きわめて説得力のある音声ファイルができあがり、ヴィッシングつまりボイス フィッシング通話に使われたり、動画に埋め込まれたりします。
ディープフェイク動画の裏で利用されているのは、音声クローンのときとよく似た技術ですが、違いもあります。標的とする人の画像や動画を、詐欺師はソーシャル メディア、ニュース記事、企業の Web サイトといった公的なソースから収集するという点です。入手する情報が多ければ多いほど、アングルや表情、照明、顔の特徴、クセ、動きなどが違うデータがそろうので、最終的なディープフェイクはそれだけリアルになります。
訓練が済んだ AI は、別の人物の動画を元にして、合成した顔をそこに重ね合わせ、合成後の顔を元の人物の表情や頭の動きに合わせることができます。そうしてできあがった動画に、やはりクローンによる音声を合成すれば、金銭的な利益、風評上の損害、政治操作などを目的とした詐欺に利用できるようになります。
ディープフェイク詐欺がもたらす実際の被害
CEO 詐欺
CEO 詐欺は、ビジネス メール詐欺 (BEC) とも呼ばれる手口です。詐欺師は、会社の管理職になりすましたメールを送って従業員をだまし、不正な電子送金を処理させようとします。2019 年、英国のエネルギー会社の CEO がだまされました。ドイツにある親会社の上司の声を完璧に真似た何者かから電話を受け、ハンガリーのサプライヤーに 22 万ユーロを送金してしまったのです。この CEO の証言によると、上司と同じ「わずかなドイツなまりと独特の口調」だったため、その指示をまったく本物だと思い込んだといいます。
高齢者を狙う振り込め詐欺
振り込め詐欺の古典的な手口です。詐欺師は、孫になりすまして高齢者に電話をかけ、困った事態になったので大至急お金が必要だと語ります。ここでも、詐欺師は TikTok や Instagram の動画から孫の声の入った短い音声クリップを収集し、もっともらしく嘆願する声を生成しています。アリゾナ州のある母親に電話がかかってきました。覚えのない番号でしたが、間違いなく 15 歳の娘の声が、泣きながら誘拐されたと訴えてきます。母親が電話している間に、父親が娘に電話をかけ、無事にスキーの練習をしていることが確認できました。電話口の声は、まったくの作り物だったのです。→ 参考: How a Close Relative Lost $100,000 to an Elder Scam
政治的な虚偽情報
AI の脅威は民主主義制度にまで及んでおり、大規模に混乱を広めています。2024 年のはじめ、ニューハンプシャー州の複数の住民が、AI で生成されたジョー・バイデン大統領 (当時) の偽の声を使った自動通話を受け取るという事例がありました。同州の予備選挙で投票しないよう呼びかける内容でした。犯人は、ディープフェイク技術を利用して悪質な動画や音声を生成し、個人を脅迫したり、名誉を傷つけたりするのです。
ロマンス詐欺
詐欺師は、ディープフェイクの画像、動画、クローン音声を動員して、マッチング プラットフォームでもっともらしい偽の人物像を作り上げるようになってきました。被害者になるのは、交際相手を探している孤独な個人であることが多いようで、ディープフェイク動画は疑われにくいことから、感情的にも金銭的にも容易に誘導されてしまいます。信頼できる人や有名人とロマンチックな関係になれたと信じ込んで、預金を失う羽目になる女性が少なくありません。お金を送ってしまった後でようやく、詐欺だったと気づかされます。→参考: AI chatbots are becoming romance scammers—and 1 in 3 people admit they could fall for one
有名人による偽のお墨付き
詐欺師は、有名人の顔と声をプロモーション ビデオなどに重ねて、投資詐欺や夢のような商品を騙る詐欺に悪用します。ファンやソーシャルメディアでのフォロワーほど、有名人によるお墨付きを信じて、お金をつぎ込んでしまう確率が高くなります。最近の例では、テイラー・スウィフトが調理器具を無料で進呈すると語るディープフェイク動画が現れ、だまされたファンが商品を買わされる羽目になりました。
生体認証によるセキュリティのバイパス
ディープフェイクの音声や動画は、被害者の生体認証上の特徴を模倣して、銀行口座、携帯電話番号、企業システムの機密などに不正にアクセスする目的で悪用されることがあります。金融口座の名義人が取引に音声認証や顔認証を利用している場合などは、特に脆弱です。
政府や法執行機関のなりすまし
犯罪者は、ディープフェイクを利用して公共機関の関係者を装うことがあります。警察官や国税庁職員、入国管理官などになりますし、電話や動画チャットを利用して金銭や個人情報を要求してきます。移民、高齢者、手続きに詳しくない人は特にリスクが高いといえます。
詐欺の見分け方
大切な人とそっくりの声でかかってくる電話にしろ、著名人が実際とは違う言動をとる動画にしろ、そうした詐欺は相手の信頼につけこもうとするものです。正しい知識があれば、何かが違うという些細な兆候を見抜く術は身につけることができます。AI 音声やディープフェイク動画の詐欺を、手遅れにならないうちに見抜くための危険信号を以下にまとめました。
AI 音声クローン
AI モデルといえども、人間の感情や発声に伴うニュアンスを完璧に真似るのは容易ではありません。不審な電話がかかってきたとき、音声詐欺ににじみ出るかすかな兆候に気づくには、わずかな不完全さを慎重に聴き取ってください。たとえ耳になじんだ声だと全体的には感じられる場合でも、以下のような点まで細かく意識してみましょう。
- 口調が単調あるいは平坦: 話し方に、いつもの感情的な抑揚が欠けていることがあります。音声そのものは合っていても、不自然に平然としていて、ロボットのように聞こえてはいませんか?
- デジタルの名残がある: ときとして、かすかな電子音やエコーなど、音声上のノイズがかすかに聞こえることがあります。人間の発声ではありえない特徴であり、しかも通話が長くなるほど顕著になります。
- ペースや抑揚の違和感: 文の途中に不自然な間があったり、抑揚が少し変だったりしないか気をつけます。ときには、言葉の続き方が不自然だったり、妙な場所に間があったりして、そこに人間の会話との違和感があります。
- 人間らしい雑音が入らない: 咳払い、ため息、フィラー (つなぎ言葉) など、人間が無意識に発する音声がまったく聞こえない場合があります。かと思えば、デジタル的に挿入される息継ぎが一定の間隔すぎることもあります。AI 生成の音声は、笑い方や驚き方が特にぎこちないことも多いものです。
- 音質が悪い、背景に奇妙なノイズが入る: 確実な兆候とはいえませんが、音声クローンの不十分さを隠すために、雑音やコールセンターのような環境音を背景に入れるのも詐欺師の常套手段です。背景の音が汎用っぽかったり、妙に繰り返したりする場合は、偽造の可能性があります。
- フレーズを繰り返す: AI は限りのあるスクリプトを原稿にして発話している場合があります。質問してみて、以前の回答をわずかに変えただけの繰り返しが返ってくる場合は、用心しましょう。
→ 参考: Artificial Imposters—Cybercriminals Turn to AI Voice Cloning for a New Breed of Scam
ディープフェイク動画
ビデオ電話や事前に録画された動画では、視覚的な手がかりでウソを見破ることができます。AI がよどみないリアルさを作り損ねている欠陥を見逃さないようにしましょう。
- 視覚的にゆらぐ: 唐突な一瞬のちらつきがないか気をつけてみましょう。顔や頭が不自然に揺れたり動いたりすることが、特に人物が急に動くときに現れがちです。
- 目の動きが不自然: ディープフェイクでも、リアルなまばたきは難しいものです。人物のまばたきが少なかったり、不自然に見えることがあります。こちらの動きやカメラに合わせて視線が動かない場合も、フェイクのサインです。
- 唇と音がずれる: 聞こえてくる音声が、口の動きと合っていないこともあります。話し始めるときとか、早口になるときには、特にずれが目立ちやすくなります。
- 表情がぎこちない: 音声で伝わってくる感情に、顔の動きが一致していないこともあります。ほほえんだり大笑いするタイミングは、たびたびディープフェイク動画に「ほころび」が現れるところです。
- 境界線がぼやける、ゆがむ: 顔と首、髪、背景との境界線によく注目してください。微妙なぼやけ、ゆがみ、色のずれなどが見つかることがあります。帽子やメガネも、ディープフェイク動画でぼろが出やすい箇所です。
- 照明、陰影、質感が不整合: 人物の顔に当たっている照明が、シーン全体の照明と合っていないことがあります。例えば、影の落ちる方向が間違っていたりします。皮膚が滑らかすぎたり、つやがありすぎたり、質感に不自然さが残ったりすることもあるかもしれません。
→ 参考: McAfee and Intel Collaborate to Combat Deepfakes with AI-Powered Deepfake Detection
詐欺で利用される心理戦術: 切迫感、秘匿性、感情
ディープフェイク詐欺は、技術だけでなく、従来の詐欺と同じようにソーシャル エンジニアリングの手口も駆使します。狙いは、相手の心理につけこんで、性急に重大な判断を下させることです。
- 極度の緊急性を訴える: 詐欺師は、今すぐ行動を起こすよう強い調子で迫ってきます。考えたり人に相談したり、真偽を調べたりする時間を与えないためです。
- 感情を巧みに操る: 詐欺師の作る文面は、判断力を鈍らせて本来のセキュリティ手順を省いてしまうことを狙って、恐怖、不安、期待をあおるよう周到に考えられています。
- 秘密厳守を求める: 詐欺師は、機密性を装ったり、他者の平穏な暮らしを盾にとったりして、要求の内容を誰にも明かさないよう指示してくることも少なくありません。
- 支払い方法が異例: 詐欺師が金銭を要求する場合はたいてい、電信送金、暗号通貨、ギフト カードなど普通と違う支払い方法を指定してきます。追跡や回収が不可能な手段だからです。
- 感情的な誘導: 詐欺師の要求は、強い感情的な反応を引き出すよう意図されています。誘拐を偽装して恐怖をあおる、秘密の取引を匂わせて欲をかき立てる、身内のトラブルを装って情に訴えるといった具合です。
自分自身とビジネスを AI 詐欺から守るには
詐欺から身を守るには、セキュリティ意識と事前の予防対策が不可欠です。個人の生活でも仕事でも、単純ながら効果的な手順を踏んでおけば、詐欺師の攻撃に対して強力な防御策を講じやすくなります。どんな技術も絶対万全とはいえませんが、セキュリティ層を増やせば攻撃を鈍らせることができます。
個人の場合: パーソナル セキュリティを鉄壁に
- 合い言葉を決めておく: 身近な家族との間で秘密の合い言葉を決めておき、緊急事態を装って金銭を求める電話があったら、その言葉を使いましょう。AI 音声クローンを使っている詐欺師には答えられません。
- 一にも二にも確認する: 金銭や機密情報を求める緊急の電話がかかってきたら、すぐに切ってください。信頼できる電話番号、SMS、それ以外のメッセージ アプリなど、よくわかっている別のチャネルを使ってその人物に問い合わせれば、依頼が本物かどうか確認できます。
- 自分のデジタル フットプリントを意識する: ソーシャル メディアなど公開の場に自分がどのくらいの音声・動画コンテンツを投稿しているかを意識しましょう。音声サンプルが多ければ多いほど、クローン音声の質は上がります。アカウントをプライベートにすることも検討してみてください。
- 不審な連絡を疑う: 知らない番号から電話や動画チャットがかかってきて、既知の人物を名乗った場合は、ただちに疑いましょう。本人しか答えられない質問をぶつけてみれば、たちまち正体が明らかになります。
企業の場合: 多層防御を導入する
- 従業員教育を義務化: どんな組織でも、最大の脆弱性は教育を受けていない従業員です。定期的にトレーニングを実施して、ディープフェイク詐欺、ビッシング、ソーシャル エンジニアリングなどの手口についてチームを教育します。脅威をはっきりさせるために、現実の世界であった例を使いましょう。
- 厳格な検証手順を導入する: 金融取引やデータ転送の依頼、特に異例または緊急の依頼に備えて、多段階の検証プロセスを設けます。事前に承認された電話番号にかけ直す検証や、金額が大きい場合の対面確認を義務化するなどです。電話でもメールでも、1 つだけの連絡窓口に頼るはやめましょう。
- 公開する情報を限定する: 主な役職者については、可能であれば一般公開する情報を限定しましょう。例えば、動画や音声を企業の Web サイトや公共の場に掲載するのを控えたりします。
- 技術的な対策を講じる: 「声紋」などの生体情報を利用してユーザーを認証する最新のセキュリティ ソリューションも検討してみてください。
AI 音声やディープフェイク動画による詐欺を実際に確認した場合の対応
AI 音声やディープフェイク動画による詐欺の標的になったと判明するのは、気持ちのいいものではないかもしれません。しかし、個人情報や銀行口座情報などを被害から守れるかどうかは、こちらの対応しだいです。AI を活用する詐欺の試みがあった場合には、以下のような対策をただちに講じましょう。
- 関わらない: 電話でも動画でも、すぐに切りましょう。通信している時間が長くなるほど、詐欺師の不正を許す確率は上がります。どんな個人情報も与えてはなりません。
- 金銭は送らない: 詐欺師が持ち出した話に、どれほど説得力があろうと心を動かされようと、手段を問わず金銭を支払ってはなりません。
- 落ち着いて考える: まずは深呼吸しましょう。詐欺師は、相手にパニックを起こさせるのが仕事です。ひと呼吸おき、落ち着いて考える時間をとることが、最大の防衛になります。
- 別の手段で確認する: 信頼できる別の通信チャネルを通じて実際の本人に連絡し、当人が無事かどうか、依頼が本当かどうかを確認しましょう。
インシデントを報告する
詐欺の試みを確認したときは、たとえ被害に至らなかった場合でも報告することが大切です。法執行当局が犯罪者ネットワークを特定して追跡し、摘発する手がかりになるからです。
- 法執行当局に連絡する: 詐欺行為は、地元の警察署や連邦機関に報告してください。米国では、FBI のインターネット犯罪苦情センターに報告書を提出する必要があります。
- 連邦取引委員会 (FTC) に届け出る: FTC は、詐欺のパターンを追跡しており、不正な企業に対しては警戒情報を発行するとともに対策を講じています。詐欺を確認した場合は、ReportFraud.ftc.gov で報告できます。
- 関連プラットフォームに通知する: 詐欺がソーシャル メディア プラットフォームから発信されることもあります。その場合は、なりすましや合成メディアに関するプラットフォームごとのポリシーに違反しているアカウントを報告してください。
AI 音声またはディープフェイク動画による詐欺にかかった場合の影響
AI 音声によるなりすましやディープフェイク詐欺の被害に遭った場合、その余波はいたって深刻です。財務、人事、法務にまで波及することもあります。そうした影響の一部を以下にまとめました。
- 直接的な悪影響: 最も直接的な影響は、金銭上の損害です。銀行口座から預金を引き出されたり、大金を送信させられたりすれば、回収は不可能です。
- ID・個人情報盗難と信用への損害: 機密情報を共有してしまうと、詐欺師はそれを使って新しい口座を開き、融資を受けられるようになります。あるいは、被害者の名前を騙って次の詐欺行為を実行することもあり、長期的に信用が傷つきます。ID 情報を取り戻すのに時間もかかります。
- 心理的なダメージ: 詐欺にかかったときのショック、戸惑い、ストレスは計り知れません。不安感、自信喪失、ひどいときには鬱状態を引き起こします。巧妙な手口の犯罪に狙われただけであっても、多くの人が自分を責めてしまいます。
- あとまで続く法律および評価上の影響: 企業は、顧客や規制当局から訴訟を起こされることがあります。一方、詐欺師の違法な活動に ID・個人情報を利用された場合は特に、個人も長期間の捜査に甘んじなければならない場合があります。
FAQ: ディープフェイクと AI 詐欺
ディープフェイクは 1 枚の写真からでも作ることができますか?
データつまり写真や動画がもっとたくさんあるほうが、1 枚の写真しかないときよりもっと説得力のあるディープフェイクを作れます。例えば、AI は 1 枚の写真からでもアニメーションを生成し、その人が話をしたり顔を動かしたりするように見せることもできます。しかし、これは大量の動画映像で訓練されたディープフェイクより見極めやすいのが普通です。
ディープフェイク詐欺は違法ですか?
はい。詐欺、迷惑行為、なりすましを目的にディープフェイクを利用するのは違法です。2024 年、米国の連邦各機関はこの脅威に対抗する重要なステップを踏みました。連邦通信委員会 (FCC) が AI 生成の音声を自動通話に使うことを禁じ、連邦取引委員会 (FTC) も個人、企業、政府機関になりすまして詐欺を行うことを明示的に禁止する法律を導入しています。
最も一般的なタイプのディープフェイクは何ですか?
今のところ最も頻繁で被害も大きいディープフェイク詐欺は、金融詐欺です。CEO 詐欺、別名ビジネス メール詐欺 (BEC) もその一種です。犯罪者は、企業の管理職の音声や動画を AI から生成し、それを使って不正に電信送金するよう従業員を誘導します。家族になりすまして至急お金を送ってほしいと訴える詐欺も増えており、効果をあげています。
重要な点のまとめ
ディープフェイク詐欺と AI 音声によるなりすましの増加には、デジタル セキュリティの根本的な変化が如実に表れています。詐欺師は、私たちの声や外観をいとも簡単にデジタルで捏造しているということです。しかし、人間にしかできない中核的な防御戦略があれば、こうした悪意のある活動にも対抗できます。それがすなわち、デジタル リテラシーの向上、警戒の強化、より深い批判的思考、健全な懐疑心、確認を忘れない姿勢です。
AI 音声クローンの仕組みを理解し、技術面と心理面の危険信号に敏感になって、個人の生活でも仕事でも確実なセキュリティ手順を導入すれば、万全の防御態勢を築くことができます。マカフィーの AI リソースとサイバーセキュリティ ツールが、この取り組みの支えになります。
今後、さらに巧妙な形の合成メディアが出現することは間違いありません。最新の情報を確保し、事前に対策を講じることが、最良の戦略です。この記事を、ぜひ家族や友人、同僚にもシェアしてください。詐欺の手口を理解している人が増えれば増えるほど、その効果は下がっていきます。