Instagram 现在会在青少年搜索自杀或自残内容时提醒父母
Source: TechCrunch
概览
Instagram 将在青少年短时间内多次尝试搜索与自杀或自残相关的词汇时,向家长发送警报,公司 于周四宣布。这些警报将在接下来的几周内向已在 Instagram 上启用家长监督的家长推出。
警报的工作原理
平台已经阻止用户搜索自杀和自残内容。新的警报旨在让家长知道他们的青少年是否反复尝试此类搜索,以便提供支持。
可能触发警报的搜索包括:
- 鼓励自杀或自残的短语
- 表明青少年可能有自我伤害风险的短语
- “suicide” 或 “self‑harm” 等词汇
家长将通过电子邮件、短信或 WhatsApp(取决于他们提供的联系信息)收到警报,同时在应用内也会有通知。该通知将附带资源,帮助家长与青少年开展对话。

图片来源: Instagram
法律背景
此举正值 Meta 及其他大型科技公司面临多起诉讼,旨在追究社交媒体巨头对青少年造成伤害的责任。
- 在加州北区联邦地区法院的证词中,Instagram 负责人 Adam Mosseri 在检方的 严厉质询 下,被问及该应用延迟推出基本安全功能(包括针对青少年私信的裸体过滤器)的原因。
- 在洛杉矶县高等法院的另一场诉讼中,一项内部 Meta 研究发现,家长监督和控制对孩子的强迫性社交媒体使用影响甚微。研究还指出,经历压力性生活事件的儿童更容易难以适当地调节社交媒体使用。
公司声明
Instagram 解释说,他们旨在避免不必要地发送通知,因为过度使用可能削弱其效果。
“在努力实现这一重要平衡的过程中,我们分析了 Instagram 的搜索行为,并咨询了自杀与自残咨询小组的专家。我们选择了一个需要在短时间内进行多次搜索的阈值,同时仍保持审慎。虽然这意味着有时我们可能在没有真实担忧的情况下通知家长,但我们认为——专家也认同——这是正确的起点,我们将继续监测并倾听反馈,以确保我们走在正确的方向上。”
推出时间及未来计划
这些警报将在下周于美国、英国、澳大利亚和加拿大推出,其他地区将在今年稍后开放。
未来,Instagram 计划在青少年尝试与应用的 AI 进行关于自杀或自残的对话时,启动这些通知。