ディープフェイク(deepfake)は、AI技術を用いて映像や音声などを偽造する技術、そうして合成されたメディアのことです。深層学習(deep learning)のディープと偽物を意味するフェイクとの合成語になっています。AI支援のフィッシングと同様に、AI技術の悪用およびセキュリティ上あるいは社会的な脅威として近年話題に上がっています。
ディープフェイク登場の背景
ディープフェイク登場の背景には生成系AIの技術的進歩および利用が容易になったことがあります。
写真や音声の偽造は古くからあり、個人への中傷・政治的なプロパガンダ・愉快犯的なお騒がせ・研究成果の捏造・なりすましなど、様々な目的で悪用されてきました。これには相当の技術や手間がかかっており、クオリティが高いものとなると専門的な知見や技術が必要なものでした。
しかし、生成系AIによって誰でも容易に高品質なメディアコンテンツを作成可能になりました。企業の製品販促や個人のクリエイティビティの補助としては非常に有益なツールが利用できるようになったわけですが、同時に、捏造などのメディアコンテンツの悪用にとっても極めて強力なツールの登場とも言えるのです。本物そっくりの顔で人を騙すディープフェイススワップ(deep face swap)による詐欺が700%増加したとの報告もあります。
ディープフェイクによる社会的な脅威
近年、画像や音声の偽造による脅威が急増しています。有名政治家や企業CEOや俳優などの捏造画像がSNSで拡散されては、ディープフェイクによるものだったと後に判明するといった事象を目撃した方もいらっしゃるでしょう。これは個人の名誉を棄損する悪用例ですが、被害を受けるのは個人に限らず、組織や集団もまたディープフェイクによる欺きの対象になりえます。以下に、ディープフェイクによる社会的な脅威を大まかに挙げてみます。
1.詐欺とデマ
組織を弱体化・不安定化させる詐欺、虚偽の主張、デマを作成できます。例えば、金融業幹部の偽ビデオを作成して不正会計やロンダリングなどの犯罪行為を認める主張をさせるなどすることができます。反証に膨大な時間と費用がかかるだけでなく、企業のブランド、社会的評価、株価に大きな影響を与える可能性があります。
2.選挙操作
前述の通り、ディープフェイクは有名政治家の偽動画を拡散するために使用されており、選挙操作に使用されることが懸念されます。
3.ソーシャル・エンジニアリング
ディープフェイク技術はソーシャル・エンジニアリング詐欺にも利用されています。音声のディープフェイクによって信頼できる人物を騙り、巨額の資金を移動するように説得するなどの事例があるようです。対象とする企業の従業員を同様の手口で騙すことができれば、機密情報へのアクセス権を付与してもらったりマルウェアをインストールさせたりすることも可能でしょう。
4.個人情報の窃盗と金融詐欺
ディープフェイクは、新しいIDを作成したり、実在の人物のIDを盗んだりするのにも利用できます。書類や被害者の声を偽造することが可能なので、これによってなりすましでアカウントを作成したり、商品購入やサービス利用が可能になります。
ディープフェイクへの対策
ディープフェイクによる映像加工を見分けるに当たっては下記のような点がよく言及されます。
1.不自然な目の動き
通常、人間は話している相手に反応しながら目が動くが、これを自然なレベルで再現するのは困難。瞬きも同様。
2.表情や髪型、画像全体としてのバランスの不自然さ
モーフィングで顔画像を作成するので表情の変化が不自然。髪も同様。また、顔の作成に焦点を当てているため、体型を全体として見るとバランスが不自然。画像全体の遠近感についても同様のことが言える。
3.唇の動きと発生の不一致
発している言葉と唇の動きが一致しないことがある。フェイク画像と言われてから上記の点に注意するとそのようにも見えてきますが、一般には人の目視で真偽判定するのは困難です。また、今後のAI技術の発展によって、より一層難しくなることが予想されます。そんな中、技術的なディープフェイク対策として以下のような動きがあります。
4.C2PA
Coalition for Content Provenance and Authenticityの略で、デジタルコンテンツの信憑性の証明に取り組む団体です。メディアコンテンツの来歴をデジタル署名により認証する技術規格の開発が進められています。(関連サイト https://c2pa.org/)
5.CAI
Content Authenticity Initiativeの略で、デジタルコンテンツの信憑性や来歴に関する仕様の利活用を推進する団体です。C2PAで定めた技術仕様に則ったツールや開発キット(SDK)をオープンソースとして提供するなどの活動を通して仕様の普及を促進する活動をしています。(関連サイト https://contentauthenticity.org/)
コンテンツの来歴証明技術の策定には様々な企業が参画しています。この団体に個人として参画するのは困難ですが、仕様とツールの利用者として普及に努めることなら我々にも可能です。
既に一般のコンテンツ消費者が簡易に利用できるツールがWebアプリケーションとして提供されております。Webページにコンテンツファイルをドラッグ&ドロップするだけでC2PA仕様の認証情報を確認してくれます(https://contentcredentials.org/verify)。
今後、こうした取り組みによってディープフェイクをはじめとする様々なコンテンツ詐欺対策が促進・普及されることが期待されます。みなさまもコンテンツ作成時にはC2PA仕様のツール利用を検討してみてください。
その他、組織やサービスレベルでは、認証プロセスの多段化(MFA)や業務プロセスのチェック体制の多層化などによって詐欺対策を実施することが推奨されます。ディープフェイク対策を謳うセキュリティソリューションも出てきておりますので、どのような機能やサポートがあるかチェックしてみるのも良いでしょう。名誉棄損や企業の評判に係わることに関しては、声明の公開ポリシーや法務態勢を強化する必要があるでしょう。また、当該コンテンツを媒介しているSNSにおいても発信源や出典情報を可能な限りチェックすることも忘れないようにしたいものです。
本記事全文はこちら
> https://www.shiftsecurity.jp/blog/20240729-2
セキュリティハムスター
2015年から株式会社SHIFTにてソフトウェアテストに従事。Webドライバーによるテスト自動化やNANDメモリのファームウェアテスト業務を経て2016年から株式会社SHIFT SECURITYにてサイバーセキュリティ事業に従事。同社ではWebアプリケーションやプラットフォームの脆弱性診断、ペネトレーションテスト、セキュリティコンサルティング、負荷試験と多岐に渡って事業を推進。また標準化エンジニアとして同社の診断・テストサービスの標準化に携わる。
■「セキュリティの学び場」(提供: SHIFT SECURITY)
SHIFT SECURITYの『セキュリティ』に関する知見を共有し、より安心・安全な社会をみんなでつくるために開設しました。今まで出会わなかったセキュリティ情報やその考え方にめぐりあい、学びを深められます。