[PR]

 世界中からネット上に投稿される残忍な動画やポルノ写真などを、一つずつ手作業で取り除く下請けの仕事が世界で広がっている。市民の目に触れないようにするためだが、投稿量は増える一方で、残忍な画像を大量に見るうちに病気になる例も出ている。

 毎朝8時過ぎ、米カリフォルニア州ロサンゼルス近郊の家の書斎で、ロシェエル・ラプランテさん(35)はパソコンを開く。小学生の2人の子どもを学校に送り出し、家にはだれもいない時間帯だ。

 パソコン画面には、下着姿の女性がポーズを取っている写真や、裸の男性の写真などが次々と現れる。

 「適切」「不適切」

 写真のそばには、適否を判断するボタンが付いている。ラプランテさんは手慣れた様子で素早くボタンを押していく。1枚の写真にかけるのは1、2秒だ。

 戦場らしき映像が現れた。砂漠のような場所で、戦闘服を着た人がナイフを持って男性を押さえつけている。「中東かな。もしかしたら」。少し目をそらす。視界の隅で男性の首から鮮血が見えた瞬間、「不適切」のボタンをクリックした。

 「斬首映像はよく出てくる。今朝も一つ見た。同じ動画が繰り返し投稿される例もある。血が見えた時点で判断して、すぐ次の画像にいくようにしています」

 ラプランテさんがこの仕事を始めたのは10年ほど前。米流通大手アマゾンがネット上で提供するサービスに登録した。すると世界中の動画投稿サイトやソーシャルメディアから、規定に合わない動画や画像をチェックする下請けの仕事が入ってくる。子どもが幼いラプランテさんにとっては、いつでも好きなだけ働けるアルバイトだ。

 「児童ポルノから動物の虐待映像、戦場の斬首まで、あらゆる映像や画像を見てきた。子どもたちの目に触れさせたくないので、作業は、子どもが家にいない時間や寝た後に限っています」

 ラプランテさんの側には、どのサイトに投稿されたものかはわからない。ただ、動画や画像に会社名が書かれていることもあり、多くがソーシャルメディアやデートサイト、動画投稿サイトなどの発注だとわかるという。画面には「ヌード」「暴力」「薬物」など会社ごとに禁止項目が書かれており、規定に合うかを素早く判断していく。

 「裸の赤ちゃんの写真でも家族がお風呂に入れているなら児童ポルノとは言えない。魚釣りや狩猟の写真なら動物虐待とは言えない。文脈の中で写真を判断する必要があります」

 支払いは、1枚の写真につき、通常1~3セント(約1~3円)。動画の場合には1件10セントくらいが平均だという。時間があるときに、1日2~3時間、作業しているという。

 しかし、いくら削除しても残虐な映像やポルノ動画はなくならない。バイトとはいえ、徒労感はないのか。ラプランテさんはいう。「複雑な気分なのは確か。でも、こうした画像を他の人が目にしないですむように、私は自分にできることをやっているんだと思っています」(ロサンゼルス=宮地ゆう

■世界中で10万人超、AIでは判断不可

 こうした仕事は「コンテンツモデレーター」と呼ばれ、フィリピンやインドなどに下請けに出されることが多い。「その数は世界中で10万人をゆうに超える」と話すのは、ネットセキュリティー会社を運営するヒマンシュ・ニガムさんだ。

 「広告収入で支えられているソーシャルメディアなどにとって、暴力映像やポルノがあふれれば、ブランドイメージにかかわる。なくそうと必死だ」

 人工知能(AI)による初期的なチェックも導入されているが、「AIは文脈や複雑な表現などを判断できない。この分野で人間の作業がなくなることはない」とニガムさんはみる。

 米メディアによると、世界で2…

有料会員に登録すると全ての記事が読み放題です。

初月無料につき月初のお申し込みがお得

980円で月300本まで読めるシンプルコースはこちら

こんなニュースも