カラパイアの元の記事はこちらからご覧ください

 人工知能は素晴らしい可能性を示すとともに、人間のダークサイドをも暴き出している。例えば「ディープフェイク(画像合成技術)」は、機械学習を通じて、画像や動画に本来写っていないものを合成することができる。

 これを使えば誰でも簡単にフェイク動画や画像を作成できてしまう。最近このディープフェイクを利用して、懸念すべきサイトが登場したという。

 『MIT Technology Review』によると、そのサイトでは顔写真をアップロードすることで、その人を勝手にアダルトビデオに出演させることができるのだ。

 それがダウンロードされて拡散されれば、とんだ風評被害を作りかねないとして大いに懸念されている。

【画像】 ディープフェイクを悪用したサイトが登場

 問題のサイトは、事態の拡大を防止するために、ただ「Y」とだけ紹介されている。その存在は、ディープフェイクの研究者であるヘンリー・アジャー氏が発見し、情報提供したことで明らかになった。

 「Y」にアクセスすると、シンプルな白い背景と青いボタンが表示され、顔の画像をアップロードするよううながされる。

 画像をアップすると、その顔を合成することができるアダルトビデオのライブラリが提示され、いずれかを選択するとプレビューが表示される。

 それが気に入ったのなら、あとは料金を支払う。すると完全版をダウンロードできるようになり、顔写真の人物が出演するアダルトビデオを視聴できる。

・合わせて読みたい→完璧なフェイクニュースを作成することも可能な高精度のAIが開発される。危険性が高すぎるため完全公開を断念

woman-465577_640

photo by Pixabay

 「Y」の説明によれば、同サイトは「性的な妄想を探究するための安全で責任あるツール」であるという。アップロードする顔写真は自分自身のものにするよう推奨してもいる。

 しかしその気になれば、いくらでも他人の写真を利用することができ、コメント欄を見る限り、実際にそうしているユーザーもいるらしいという。

心の傷だけでは済まされない。風評被害で職を失った人も

 合成した結果は完璧なものではなく、角度によって顔が揺れたり、歪んでいたりと不自然だ。

 それでも勝手に出演させられた女性たちが受けるダメージは甚大だ。それは心の傷ばかりでなく、実生活に影響することもある。

 教師だったある女性は、自分が知らないところでアダルトビデオに出演させられ、それがSNSで拡散されたことが原因で、学校から注意喚起され、ついには失職してしまったという。

[もっと知りたい!→]AIが作ったこの世に存在しないけどすごくリアルな顔画像がフリー素材に。10万枚の顔写真が無料で自由に使用できる。

 同じく被害に遭ったことで、ネット上で激しい嫌がらせを受けるようになったという女性もいる。彼女は仕事を続けるために、ネットでの活動を控えなければならなくなってしまった。

 厄介なことに、こうした動画が一度ネットに流れてしまえば、デジタルタトゥーとなり、それを完全に削除することは困難だ。1つのサイトで削除したとしても、また別のところで公開されるからだ。

00

photo by iStock

男性もまた危険

 こうした危険は女性だけに限ったものではない。「Y」が扱うアダルトビデオの大半は女性が出演するものだが、中には同性愛の男性が出演するものもある。もしそこに勝手に写真をアップロードされてしまったら?

 ちなみに世界には71か国も同性愛が犯罪である国があり、そのうち11か国では死刑になることもある。自分にまったく身に覚えのないことで処刑される恐れすらあるということだ。

危険なサイト撲滅のために

 アジャー氏が「Y」に何度もコンタクトを取った結果、同サイトはひとまず閉鎖されたという。しかしこれで問題が解決されたわけではない。同じようなことを試みているらしいサイトがすでに出現しているからだ。

 こうしたサイトを撲滅するためには、SNSから追放するだけでなく、その作成や利用を違法とする必要があるだろうとアジャー氏は述べている。

References:A horrifying new AI app swaps women into porn videos with a click | MIT Technology Review / written by hiroching / edited by parumo

 
画像・動画、SNSが見られない場合はこちら

AI画像合成技術で自分の顔を使用され、アダルトビデオに出演させられてしまうサイトに専門家が警鐘