CYBER SECURITY LAB

想像を超えたディープフェイクの精度と悪用する攻撃

2021.12.01

  • シェアする
  • facebook
  • twiiter
  • line

head-g64c7c0f27_1280.jpg

コンピュータ技術の発展と共に、画像や動画の加工技術も近年目覚ましく進歩しています。その中でAI技術を使ってまるで本物のように画像や動画の人物を加工する「ディープフェイク」という技術が話題になっています。

エンターテイメント分野での活用が期待されているディープフェイク動画ですが、現状では既存の人物へのなりすましなどに悪用するケースで話題になっています。

今回は、ディープフェイクの精度の高さとこれを悪用した攻撃についてご紹介します。

ディープフェイクとは

動画の編集や画像の加工はこれまでも一般的に行われていましたが、本物と見間違うような高度な加工は複雑で大変な作業であり、動画制作のプロでも見た人を騙すようなものを作るのは困難な仕事でした。しかし現在はAI技術の発達により、機械学習によって動画や画像の加工・偽造が素早く、かつ本物そっくりに行えるようになってきました。

ディープフェイクが本格的に登場したのは、2017年頃です。動画の中の顔を有名人の顔と入れ替えた動画が話題を呼び、ディープフェイクの技術が一般に広まりました。このとき話題になった動画は、有名人の名誉を毀損する向きがあるとして広く受け入れられる技術ではありませんでした。

2018年頃には簡単に画像の顔同士を入れ替えられるスマートフォン向けアプリや、「Fakeapp」のような機械学習を利用した高度な合成映像作成ソフトが登場し、一般利用者にも馴染みのある技術となってきました。

機械学習の利用によって、これまでは顔の画像をそのまま切り取り肌の色をなじませる程度だった合成技術が、顔の向きや表情まで自在に変更できるようになりました。

話題になったディープフェイク動画

ディープフェイクの技術が普及してきた中、2019年6月にFacebookのCEOであるマーク・ザッカーバーグ氏のディープフェイク動画がInstagramに投稿されて話題を呼びました。

この動画は現在でもInstagram上で閲覧することができます

動画の中では、ザッカーバーグCEOが身振り手振りをしながら「想像してみてください。たった一人の男が、何十億もの人々の盗まれたデータ、すべての秘密、人生、未来を完全にコントロールしているのです。Spectreは、データを支配する者が未来を支配することを教えてくれました」と話しています。

個人情報を掌握する、というような発言にぎょっとしますが、この動画は投稿しているアカウントの持ち主であるBill Postersさんと広告会社が共同制作したディープフェイク動画です。動画中に出てくる「Spectre」とは、この動画が展示された展示会の名前です。動画の説明欄には、この動画がディープフェイクによって作られたことが記されていますが、まるで本物のザッカーバーグCEOが話しているようにしか見えないとして注目を集めました。よく見ると口の動きなどに不自然な部分がありますが、何も知らずに見ると人間が喋っているようにしか見えません。この動画は、ディープフェイク技術の向上を世間に広く知らせるものとなりました。

ディープフェイク音声によるなりすまし被害

ディープフェイクというと画像や動画を思い浮かべる人が多いですが、ディープフェイクによって偽造された音声も存在しています。

実際に、2019年にはイギリスのエネルギー企業において、ディープフェイクによるなりすまし音声によって金銭を騙し取られる被害が発生しています。

The Wall Street Journalの報道によると、イギリスに拠点を置くエネルギー企業のCEOが、上司であるドイツの親会社のCEOから電話で「ハンガリーのサプライヤーに22万ユーロ(約2600万円)を至急送金するように」という指示を受け、すぐに指示通り送金したそうです。

しかし実際は、親会社のCEOからの電話はディープフェイクによってなりすました偽の電話だったのです。英企業には初回の送金後に再び送金を求める電話がかかってきて、その際に電話がドイツからではなくオーストリアの番号から掛かってきていることが判明しました。怪しんだ英企業は二度目の送金は行いませんでしたが、一度目に送金してしまったお金は攻撃者の手に渡ってしまいました。

企業のCEOは、記者会見やYoutubeの広報動画、カンファレンスなどで話している音声が入手しやすく、ディープフェイクの音声モデルを構築するためのデータを入手しやすい環境にあります。そのため、ディープフェイクによる音声詐欺のターゲットになりやすいと言えます。

なりすましメールと異なり、ディープフェイク音声を使った詐欺では、まさか音声を偽造しているとは思わない心理を突いてきます。また、CEOのような上の立場の人間から電話で送金を急かされることで、焦って事実を確認せずに振り込んでしまう被害も想定されます。

セキュリティ企業のSymantecでは、上記の事例に似たディープフェイク音声による詐欺事件が3件確認されていると同時期に発表しています。

最新のディープフェイク

ディープフェイクの技術は、近年更に精度を増しています。

半導体メーカーのNVIDIAでは、最新のAIモデルによってメトロポリタン美術館に収容される美術品の画像を元に、新たな芸術作品を生み出す試みがありました。ここで用いられた「敵対的生成ネットワーク(Genera tive Adversarial Networks, GAN)」という技術は、最近特に注目されている機械学習による画像生成モデルの一種です。

GANは、Generator(生成ネットワーク)とDiscriminator(識別ネットワーク)の2つのネットワークから構成されます。2つのネットワークを互いに競い合わせることで、成果物の精度を高められるのが特徴です。少ないデータから優れた結果を得ることができるので、既存の仕組みよりも素早く、かつ高精度なデータを作り出すことができるようになりました。

このGANの仕組みを利用しているのが、実在しない人物の顔写真を生成する「Generated Photos」というウェブサイトです。本物の人物写真と見分けがつかない精度の画像が即座に生成でき、人種や性別などの特徴を変えるとその通りに変更されます。角度や笑顔などの表情も自由に変更することができるため、ビジネス用途での活用が期待される一方、フェイクニュースや詐欺などに悪用される可能性も懸念されています。

ディープフェイクによるなりすましへの対策

画像や動画だけでなく音声もディープフェイクによって偽造できる今、企業としてディープフェイクによるなりすましへの対策が急務です。

まず動画や音声によるなりすましへの共通した対策は、個人の認証や金銭の支払い時の手順を事前に明文化することです。上記で紹介した事例のように、ディープフェイクを使ったなりすましによる詐欺は、相手にばれないうちに金銭を得るためにすぐさま振り込むように指示をしてきます。現場のスタッフや一人の社員だけの判断で巨額の振り込みをしないように、前もって事実確認の手順や振り込み時の承認方法を決めておくことが効果的です。

また、従業員にディープフェイク技術によるなりすまし攻撃の手法を周知することも大切です。画像や動画だけでなく、かかってきた電話の音声もディープフェイクによって偽造されている可能性があるという意識を持っているかどうかで、その後の詐欺被害を受ける可能性が下がります。

最後に

ディープフェイクの技術は今現在も急速に発達しています。「まさか今見ている動画や話している電話が偽造されたものではないだろう」と思い込まずに、攻撃者によってなりすまされている可能性を忘れないことが大切です。