【動画】他人になりすませる?「ディープフェイク」動画をつくってみると…=池上桃子、赤田康和撮影
[PR]

 人工知能(AI)を使って作られる本物そっくりの偽動画「ディープフェイク」にメディアがどう向き合っていくか――。そんなテーマで取材を進めていく中で、ディープフェイク動画を誰でも簡単に作れてしまうというサービスがあることを知った。ネットで公開されている有料サービスの一つを使ってみた。

 使ったのは、東京都内の会社が運営するサービス。まず、私(30)の約2分半の動画と、同僚の赤田康和記者(47)の約1分の動画をそれぞれスマートフォンで撮影し、サイトに送った。すると4時間後、メールで「完成しました!」と通知が届いた。料金は1千円ほどだった。

 動画をダウンロードし、見てみると、髪の毛や体は私のままだが、あごから額までの顔の中心部は赤田記者の面影が色濃く出ていた。髪は私のままで、眉毛など私の面影もわずかに残っていたが、完全に別人の顔になっていた。

元の表情、スムーズに再現

 驚いたのは、口の動きやまばたきなど、元の表情がそのまま再現されていたことだ。マスクをつけ外しした時や横を向いた時など、画面が乱れる瞬間などもあったが、動きはおおむねスムーズだった。

 写真を使う顔交換のアプリは使ったことがあるが、動画で顔を交換するのは初めて。友人や家族と楽しむために使うなら良いツールだと思った。

 このサービスは利用規約でポルノや差別的な表現、違法な動画の制作を禁じている。運営会社によると、作られた動画を定期的に確認し、不適切な動画を作ったアカウントは停止しているという。また、画面の右下に薄い文字で「これはフェイク動画です」との注意書きも入っている。

 ディープフェイクの問題は、真実と見間違えかねない虚偽の動画によって、個人の名誉が傷つけられたり政治的な混乱が起きたりすることだ。女性の顔が同意なくポルノ動画に合成される被害も相次いでいる。技術の発展自体は歓迎すべきことだが、危険な利用があることは心に留めたい。(池上桃子)