総務省の方針は基本的に、「
被害者が加害者を特定し、法的手段を講じ、問題を解決する」ことを前提にしている。確かに、これまで被害者はそのようにせざるを得なかったから、その延長線上の対策ということになる。しかし、これはおかしい。
なぜ被害者に負担をかけなければならないのだろうか? 人権侵害の被害者が自分で捜査活動の費用と時間を負担しなければならない現状はおかしくないのだろうか? むしろ他に責任を持って対処すべき組織があるのではないか? という疑問が湧いてくる。
多数の会員を抱えるSNSはもはや
パブリックスペースと言ってよく、その運営会社にはその空間を適切に維持、運用する責任が生じるはずである。フェイスブックを始めとする各社は当初、「サービスを提供しているだけ」という姿勢だったが、じょじょに適切な空間の維持、運用に乗り出してきた。また、一部の国では
運営会社にその責任を求める法令を整備した。
ネット上の誹謗中傷についても同様にSNS運営会社に責任ある対応を求めるべきではないのだろうか? SNS運営会社がやりたくない理由はいくらでもある。表現の自由とのかねあい、コストの問題、裁定者にはなりたくないという問題、あげればきりがない。しかしいずれも
パブリックスペースならば追わなければならない責任の範囲だ。SNS運営会社もそれがわかっているから、投稿の内容に制限を加えるようになってきている。
SNS運営会社がどのような基準で制限を課すべきかについては充分な議論が必要だが、一方的に被害者に負担を押しつけるやり方はフェアではない。法令でSNS運営会社の責任、対処と期限を明記し、違反した場合の罰則規定も定めるべきであろう。そこを飛ばして、被害者ががんばらなくては物事が解決しないというのはおかしい。被害者に個人の負担で捜査までさせているのと同じだ。
また、
事後に発信者情報開示を求めるよりも、事前に法令に基づく投稿内容の確認をSNS運営会社に求めた方が予防にもなるうえ、SNS運営会社も対応がしやすい(あくまで憶測だが)。
SNS運営会社には発信者を特定しなくても対処する方法がある。アカウントの停止や発言の削除あるいは非表示である。すでに主要なSNS運営会社はこの対処を自社の基準に則って行っている。そしてその効果は明白である。たとえばヤフーは「Yahoo!ニュース コメント」でAIを用いた検知によって1日平均約2万件の不適切な投稿(記事との関連性の低いコメントや誹謗中傷等の書き込みなど)の削除を行っている(それでも現状はまだたくさん残っているのだが)。(参照:”
個人に対する誹謗中傷等を内容とする投稿への対応について”|2020年6月1日、ヤフー、”
ヤフーニュース、コメント欄の対策強化 複数アカウントで投稿「非表示」の可能性”|J-castニュース)
フェイスブック社やツイッター社でも同様に投稿内容を判断して対処を行っている。SNS運営会社のこうした活動に一定の枠を設けて法的な義務とするだけの話である。