2025 年 9 巻 2 号 p. 43-62
本研究は、直ちに違法とは言い切れないが一般的には好ましくないような情報に対するコンテンツモデレーションに焦点を当て、その在り方を利用者の選好の観点から分析したものである。具体的には、YouTubeを分析対象とし、「年齢制限のあるコンテンツ」のうち「子どもの安全」「有害または危険なアクティビティ」「下品な言葉」の3つのテーマを取り上げ、利用者がどの程度表示・削除を望み、誰に削除権限を委ねたいと考えているのかを量的に検証した。
本研究では、はじめに政策動向と法的手当てを確認し、先行研究を整理したうえで、「コンテンツを見たいか(表示するべきか)、見たくないか(削除するべきか)」、「仮に削除するとしたら誰が判断をするべきか」、「(開放的な方針を望むものが)炎上加担者やフェイクニュースの拡大に寄与するものと特徴が一致していないか」という3つの疑問点を、明らかにすべきリサーチクエスチョンとすることとした。
つぎに、Webアンケートをもとにリサーチクエスチョンについて定量的に検証を行った。検証の結果、第一に、「(好ましくないような)コンテンツを見たいか(表示するべきか)、見たくないか(削除するべきか)」という判断は、大きく利用者の態度が二分する状況となっていることが明らかとなった。さらに、この態度の決定には利用者の「基本属性」、「YouTube 上の経験や思想」が影響を与えていることが明らかとなった。
第二に、「仮に削除するとしたら誰が判断をするべきか」について、これも「このままYouTubeに判断を任せるべき」と「自分で判断するべき」で態度がおよそ二分することが明らかとなった。さらに、この態度の決定にはニュースサイト閲覧やテレビ視聴といった編集型メディア接触が影響を与えていることが明らかとなった。
第三に、「(開放的な方針を望むものが)炎上加担者やフェイクニュースの拡大に寄与するものと特徴が一致していないか」については、いずれも先行研究等で炎上加担の典型要因とされた性別・年収などは一部しか重ならないことが明らかとなった。
本研究の結果を踏まえ、政策視点でコンテンツモデレーションを考える場合、利用者の意見形成を目指すべきと考えられる。基本属性や経験、思想などが異なる多様な意見を集めて、議論を進める事が適切であると考える。