YouTubeの有害コンテンツ排除はAIが活躍?現状の問題点と活用における課題とは

世界最大の動画共有サービスであるYouTube。毎日さまざまな動画や生放送が配信され、国内外を問わず人気を博しています。同時に有害コンテンツも日夜アップロードされており、削除やアカウント停止が行われています。しかしYouTubeはあまりに規模が大きくなり、有害コンテンツの排除が難しくなっているのをご存じでしょうか。近年では不適切動画を仕分けするために、AI(人工知能)が用いられています。AIによる有害コンテンツ認定、排除は便利である反面、問題も浮上しています。たとえば違反に該当していない動画でも、削除やアカウント停止の対象になるケースが増加しています。今回はAIの有害コンテンツ認定と、問題点や活用の課題についてご紹介していきたいと思います。 

YouTubeにおける問題点

YouTubeは、 Google LLCが提供する世界最大のムービー共有プラットフォームです。日本では芸人、俳優、アーティストなどによるYouTubeチャンネルの開設も増加しており、注目度は年々高まっています。一方でYouTubeには、嫌がらせやヘイトスピーチなど、規約に違反した有害コンテンツがアップロードされることもあります。もちろんこうした有害コンテンツは、YouTube側も排除に向けて取り組んでいます。しかし、なかなか排除しきれていないというのが現状のようですね。

YouTubeは、 Google LLCが提供する世界最大のムービー共有プラットフォームです。日本では芸人、俳優、アーティストなどによるYouTubeチャンネルの開設も増加しており、注目度は年々高まっています。2020年3月の時点でYouTubeの月間アクティブユーザーは、20億人を超えました。

YouTubeへのトラフィックの内、アメリカが14.8%、インドが8.1%、日本が4.6%と続いています。YouTubeには毎日多くのクリエイターや企業が動画をアップロードしており、統計によると毎分500時間を超える動画がアップロードされている計算になります。さらに再生時間を計算すると、1日に10億時間分以上の動画が再生されています。

一方でYouTubeには、嫌がらせやヘイトスピーチなど、規約に違反した有害コンテンツがアップロードされることもあります。2020年1月~2020年6月の間に報告された不適切なコンテンツは、ユーザーから267,185件、報告機関から121,639件も寄せられています。報告された項目数は「悪意のある表現や政治的な過激主義」が102,812件ともっとも多く、続いて「名誉毀損または侮辱」が76,749件、「有害または危険な行為」が62,873件となっています。

※参考:Network Enforcement Law に基づく削除

https://transparencyreport.google.com/netzdg/youtube?hl=ja&items_by_submitter=period:Y2020H1&lu=items_by_submitter

もちろんこうした有害コンテンツは、YouTube側も排除に向けて取り組んでいます。しかし、なかなか排除しきれていないというのが現状のようです。

世界最大規模の動画共有サービスに成長したYouTubeは、大きくなりすぎた弊害として、有害コンテンツを100%排除するのが難しくなっています。GoogleのCEOは、「これまでコンテンツが正しく認識されなかった」と認識し、いくつかの見落としに気づいたので優先順位を変えたと発表しました。また、AIを活用してコンテンツフィルターの精度を上げることも発表しています。

2019年12月には「嫌がらせやネットいじめに関するポリシー」が更新され、動画やチャンネルの取り締まりが強化されました。

※YouTube のポリシー嫌がらせやネットいじめに関するポリシー

https://support.google.com/youtube/answer/2802268?hl=ja

具体的には、以下のような事柄に関する取り締まりが強化されています。

・潜在的、暗示的な脅しの削除

・複数の動画、コメントにまたがって行われる嫌がらせに厳しく対処

・人種、性別、性的指向などの属性に基づいて、悪意を持って侮辱するようなコンテンツへの厳しい対処

など

コンテンツ排除にAIを活用することには、メリットとデメリットがあります。特に2020年は新型コロナウイルスの感染拡大もあり、リモートワークが推奨されています。これまでAIと人間が行っていたガイドライン審査や有害コンテンツ排除に関して、AIが占める作業量が増加するようになりました。同時にAIの誤判定により、有害コンテンツに該当しない動画やチャンネルが削除されるといったトラブルも発生しています。そのため、YouTubeのオフィシャルブログでは、誤判定が発生した場合は申請による解除を呼びかけています。

※YouTube Official Blog(英語)

https://blog.youtube/news-and-events/protecting-our-extended-workforce-and?m=1

 

YouTubeの有害コンテンツ削除におけるAIの活躍

有害コンテンツ削除のAI活用にはメリットとデメリットがあります。まずはAIによる活躍を見ていきましょう。

従来までの有害コンテンツに対する対応

YouTubeでは、AIによる機械学習と社員の判定を組み合わせることにより、有害コンテンツの検出・削除を行ってきました。有害である可能性の高いコンテンツをAIが特定し、その後に社員が目視でチェックするという体制で、有害コンテンツ排除に向けて取り組んでいます。

AIによる有害コンテンツ排除

膨大なコンテンツを管理するYouTubeは、人の力だけではすべての有害コンテンツを特定できません。AIだけでも誤判定発生のリスクが高く、人とAIシステムを組み合わせて対応していました。そのおかげで99%の確率で、不適切コンテンツを削除できるようになったと、GoogleのCEOサンダー・ピチャイ氏は発表しています。

潜在的な脅し動画等も削除対象に

これまでYouTubeでは、直接的な脅しや嫌がらせが削除対象でした。しかしポリシーの改正により、潜在的だったり暗示的だったりする脅しも削除対象となりました。たとえば特定の対象を話題に出しながら武器を振り回す、暴力的なシーンに誰かの顔を張り付けて投稿するといった内容も削除対象となります。これら有害コンテンツの発見・削除にも、AIの力が活用されています。 

AIによる有害コンテンツ排除の問題点

現在はコロナウイルスの影響もあり、今まで人間とAIが行ってきた動画の審査関係業務において、AIに任される作業量が増加しています。しかしAIによる有害コンテンツ排除には、さまざまな問題点が指摘されています。どのような問題があるのか見ていきましょう。

行き過ぎた検閲による排除

YouTubeは12月11日に「嫌がらせやネットいじめに関するポリシー」を更新しました。YouTubeパートナープログラム(YPP)のポリシーも強化され、嫌がらせを繰り返すチャンネルはYPPから除外されるようになりました。これにより悪質なユーザーがYouTubeで収益を上げられなくなり、最終的にはチャンネルごと消されることになります。たとえば人間ならユーモアと判断できる内容も、嫌がらせと認定されるというケースも発生しています。この流れを受けて、行き過ぎた検閲を危惧する声も少なくありません。

画像の誤判定による削除

AIの判定により、適切な内容であるにも関わらず、動画やライブ配信が停止される状況も発生しています。たとえば人間の目では岩や砂漠であると分かる画像も、色加減や輪郭によってAIに裸体であると判断され、センシティブな動画であるとご認定されるケースです。この誤判定により、健全な内容を配信している配信者がアカウント停止の被害を受けるといった報告も寄せられています

2019年には、ロボット同士を戦わせる動画が動物虐待と誤判定され、数百本の動画が削除される事態に発展しました。こうした誤判定による削除は、ユーザーから再審査の申し入れが行えるようになっています。この時に消された動画も、現在は復活しています

コロナウイルスの影響によるAI作業量の増加

2020年、新型コロナウイルスの感染拡大が続く中で、YouTubeはこれまで以上に自動コンテンツキュレーションを活用すると発表しています。一部オフィスでは通常通りの仕事を行うことが難しくなり、人員を減らしていることが報告されました。それに伴ってAIの稼働量が増加し、ガイドラインに違反していない動画でも誤判定を受け、通常よりも多くの動画が削除される可能性が高くなっています。

AIによる有害コンテンツ削除における課題

本来は問題のない動画が有害と判定され、配信停止されたり一部機能が利用できなくなったりするという事例は、実際に発生しています。日頃からコンテンツを配信しているユーザー、特に収益化を行っているユーチューバーにとっては深刻な問題です。多くのユーザーからは早期解決が求められ、問題が恒常化・長期化すれば深刻なユーザー離れを招いてしまうかもしれません。YouTubeがこのような状態になった原因の一つには、AI検出に対する高い依存が指摘されています。

YouTubeに配信されているコンテンツの膨大な量を考えると、すべてのチェックを人の手で行うのは不可能です。そのためAIを活用すること自体は問題ではありません。問題となっているのは、AIの判定結果が適切かどうかといった判断が、正確と言える領域に達していないことにあります。この点はYouTube側も踏まえており、今まではAIの判定後、人間の視点によるチェックが挟まれていました。

膨大な動画のチェックをAIが行い、処理できるだけの量を人間がチェックするという仕組みは非常に効率的です。現状、YouTubeのAIシステムだけでは、自動化の準備が完全に整っていません。人間とAI、両方が揃って初めて正確な判断が行える状況です。もちろんAIには学習能力があるので、長い目で見ればAIだけで正確な判断が行える可能性もあります。しかし当面は、AIだけに有害コンテンツ排除を行わせるには、まだまだ課題が山積みであると言えるでしょう。

まとめ

今回はYouTubeの有害コンテンツ排除にAIが活躍できる領域と、問題点や課題についてお伝えしました。

現状、AIだけの判定では誤判定が発生する可能性が高いことを、YouTube側も踏まえています。正確な有害コンテンツ排除には、当面AIと人間の力を組み合わせて対応していく必要があるでしょう。コミュニティガイドラインに違反しておらず、誤って違反警告や削除が行われた場合には、再審査請求を行うことが可能です。

誤判定による削除が長く続けば、YouTubeは深刻な人離れを起こす危険性があります。コロナウイルス収束の目途が立たない中で、果たしてYouTubeがどのような対応を取っていくのか、今後も目が離せません。