Pixabay
社交媒体巨头 Meta Platforms(原脸书公司)于本月8日宣布,将进一步加强对其旗下平台青少年用户的安全保护措施。最新规定明确指出,16岁以下的 Instagram 用户,未经父母明确同意,将被禁止在该社交平台进行直播。此外,对于16岁以下的青少年用户,取消直接消息中模糊处理裸露内容的功能也将需要获得父母的许可。
青少年安全升级:保护措施扩展至脸书与 Messenger
Meta 公司同时宣布,此前应用于 Instagram 的青少年账户安全保护措施,将扩展至其子公司脸书(Facebook)和即时通讯软件 Messenger 的 18 岁以下青少年用户。这一举措旨在为更广泛的青少年群体提供更全面的在线安全保障。
据悉,这项最新的安全政策将率先在美国、英国、加拿大和澳大利亚推出,并计划在接下来的几个月内逐步推广至全球范围内的用户。
家长监管成关键,Meta 持续强化青少年账户保护
社交媒体对青少年生活的影响日益受到全球范围内的关注。为了赋予家长更多监督孩子在线活动的选择权,Meta 公司于去年 9 月推出了适用于 Instagram 的青少年账户安全计划。Meta 官方数据显示,该计划启动后,新增的青少年账户已超过 5400 万个,显示出家长和青少年用户对更安全网络环境的需求。
根据 Meta 发布的博客文章,此次规则修改的核心在于,16 岁以下的 Instagram 青少年用户,在未经父母明确许可的情况下,将无法使用 Instagram Live 直播功能。此外,如果他们希望关闭“在直接消息中将疑似裸露图像模糊处理”的安全保护功能,也必须首先获得父母的批准。
现有保护措施再升级,覆盖内容与互动限制
此前,Instagram 针对青少年用户已实施了一系列安全保护措施,包括将青少年账户默认为私密账户、限制陌生人发送私信、严格过滤包含打架等敏感内容、提醒青少年在连续使用 60 分钟后休息,以及在就寝时间暂停接收通知等。这些措施旨在限制青少年接触不当内容和不必要的互动,并帮助他们更合理地分配在线时间。
Meta 公司表示,类似的自动保护措施也将逐步应用于脸书和 Messenger 的 18 岁以下青少年账户。这些措施将有助于限制不适宜的内容和不必要的联系,并确保青少年能够更有效地利用他们的在线时间。
皮尤研究中心 2022 年的数据显示,青少年使用社交媒体的普及率极高,高达 95% 的 13 至 17 岁青少年表示使用社交媒体平台,超过三分之一的青少年甚至表示他们“几乎一直”在线。
令人担忧的是,社交媒体对青少年心理健康的影响正日益受到重视。去年 6 月,时任美国公共卫生署署长维韦克·穆尔西(Vivek Murthy)公开表示,社交媒体是导致年轻人心理健康危机的重要因素之一。Meta 此番进一步加强青少年账户安全管理,无疑是对这一严峻挑战的回应,旨在为青少年营造更安全的在线环境。