Facebookは、そうした自殺につながるような書き込みや動画を人工知能(AI)で検出し、必要に応じてユーザーやユーザーの友人らに電話相談などを提案する取り組みを始める。
・相談機関を紹介
暴力やポルノなど、投稿の内容に問題がないかどうかを精査するのにAIを活用してきたFacebookだが、今回は自殺に対応する。
具体的には、投稿内容からユーザーの自殺の危険を感じるとAIが判断した場合、本人はもとより友人らにも相談機関や地元のホットラインなどを紹介。緊急性が高い場合は、地元当局に連絡するなど踏み込んだ措置も取る。
・欧州以外の全世界で
こうした取り組みは米国で試験展開してきたが、今回は欧州をのぞく全世界規模に広げる。欧州が除かれるのは、プライバシー保護法のためだという。
自殺をほのめかすSNSへの書き込みは、一種のSOS発信と言える。この世の中、「いいね!」と言えるようなことばかりがあるわけではないし、不幸にも身近に相談する人がいないこともあるだろう。
そのSOS発見にAIを活用するというのが今回の取り組みだ。プライバシー保護という観点から否定的な声も聞こえてきそうだが、一方でFacebookの社会的責任を果たそうとする姿勢ともとれる。
Facebook Newsroom