【新近解封的文件揭露Meta 的7宗罪】(DS摘译时代周刊文)Meta平台被指控长期纵容性交易内容并危害青少年——法庭文件揭露内部真相**根据上周五解封的法庭文件,Meta旗下社交平台存在的性交易内容不仅难以举报,还受到公司默许。在一起针对四家社交媒体巨头的集体诉讼中,Instagram前安全与健康负责人瓦伊什纳维·贾亚库马尔作证称,她于2020年加入Meta时震惊地发现,公司对涉嫌“性交易”的账号实行“17次违规”政策。贾亚库马尔证实:“账号可累计16次卖淫和性诱导违规,直到第17次才会被停用。”她强调这“在任何行业标准下都是极高的违规门槛”。原告方称该证词与公司内部文件相互印证。**系统性欺骗与青少年安全危机**这份向加州北部地区法院提交的诉状指控Meta明知平台存在严重危害,却采取系统性欺骗手段淡化年轻用户风险。文件指出,Meta清楚其平台上有数百万成年陌生人联系未成年人;产品会加剧青少年心理健康问题;与饮食失调、自杀及儿童性虐待相关的内容频现却鲜被删除。公司不仅未向公众和国会披露这些危害,更拒绝实施本可保护年轻用户的安全措施。“Meta设计的社交媒体产品明知对儿童具有成瘾性,且这种成瘾会导致一系列严重心理健康问题,”原告首席律师普雷文·沃伦表示,“如同烟草行业,这是将危险产品推向儿童的行为。他们执意为之,因为更多使用量意味着更高利润。”**千余原告联署的史诗级诉讼**这些指控源于一项前所未有的跨地区诉讼。超过1800名原告——包括儿童、家长、学区和州检察长——在联合起诉书中指控Instagram、TikTok、Snapchat和YouTube的母公司“不惜一切代价追求增长,鲁莽忽视产品对儿童身心健康的影响”。Meta的最新指控仅是这场庞大诉讼的冰山一角。诉状援引了Meta现任及前任高管宣誓证词、内部通讯记录以及诉讼取证过程中获取的公司研究文件。其中披露,自2017年起Meta便积极追逐年轻用户,尽管内部研究显示其产品可能对儿童成瘾且危险。员工曾提出多种减轻危害的方案,但均因高管担心影响用户活跃度而遭否决。**安全改革迟来四年间的数十亿次危险接触**诉讼提起数年后,Meta才推出部分安全功能。2024年,Instagram推出青少年账户,默认设置隐私保护、限制敏感内容、夜间关闭通知并禁止陌生成人私信。Meta发言人表示此举旨在“显著重塑数千万青少年的使用体验”。但诉状揭露Meta曾多年抵制此类改革。前合作伙伴副总裁布莱恩·博兰作证称:“我的感受始终是——他们并非真正关心用户安全。这从来不是他们的优先事项。”**核心指控全景透视**1. **性交易内容监管失效** 尽管Instagram对儿童性虐待材料持“零容忍”态度,却未提供便捷举报渠道。更令人震惊的是,平台对性交易账号采取“17次警告”机制,意味着需累计16次举报才能封禁账号。原告强调:“Meta从未告知家长、公众及地区政府,其允许性交易账号违规超15次。”2. **对国会隐瞒平台危害研究** 2019年Meta开展的“停用研究”发现,停用Facebook和Instagram一周的用户焦虑、抑郁和孤独感显著降低。但公司终止研究并隐瞒结果,辩称研究受“媒体负面报道影响”。2020年参议院司法委员会质询时,Meta仅以“否”字否认知晓青少年使用与抑郁焦虑的关联。原告断言:“Meta向国会撒谎。”3. **纵容成人骚扰青少年** 2019年研究人员建议将青少年账户默认设为隐私模式以防陌生成人接触。但增长团队评估此举将导致Instagram每年流失150万月活青少年用户。内部员工直言:“消除不良互动将导致参与度和增长难以为继。”尽管安全、法务等多部门联合推荐该方案,Meta仍推迟至2024年才实施。其间Instagram上成人-青少年不良互动量达Facebook Messenger的38倍。2022年内部审计显示,“推荐关注”功能单日向青少年用户推送140万可疑成人账户。4. **激进 targeting 低龄用户** 内部文件显示,扎克伯格要求“将青少年使用时长作为2017年首要目标”,2024年文件仍强调“获取新青少年用户对Instagram至关重要”。公司通过学区合作、资助全美家长教师协会等组织渗透校园,甚至利用定位数据实施“校园轰炸”推送。内部发言露骨道:“需要优化在化学课桌下偷看手机的使用场景:)” 更令人不安的是,Meta被指刻意开发针对5-10岁儿童的产品。内部员工谴责:“瞄准11岁群体感觉就像几十年前的烟草公司——必须趁早让他们上瘾。”5. **安全功能为商业利益让路** 2019年Instagram推出隐藏点赞的“雏菊计划”以缓解社交比较压力,但因损害广告收入被叫停。增长团队员工悍称:“这就是个社交比较应用,他妈的习惯就好!” 同样,明知美颜滤镜会加剧饮食障碍和体象烦恼,Meta在2019年短暂禁用后,因担忧“负面增长影响”次年重新启用。研发团队曾构建识别不良内容的AI分类器,却被CEO莫塞里直接否决。6. **有害内容清理机制存缺陷** Meta的AI系统即使100%确认内容违反儿童性虐待或饮食障碍政策,也不会自动删除。自残内容需达到94%违规确信度才被清理,导致大量有害内容留存。2021年内部调查显示,过去一周内13-15岁用户中超8%曾在Instagram目睹自残行为。7. **刻意淡化产品成瘾性** 内部研究人员直言:“Instagram简直是毒品,我们就是毒贩。”2018年研究显示58%美国用户存在“问题性使用”,但2019年公开报告仅提及3.1%的严重案例。开发团队提出的“静音模式”等防沉迷功能因影响增长指标被搁置。有研究员曾建议警示产品对心理的操纵效应,但未被采纳。这份长达百页的法庭文件描绘了一家将商业利益置于用户安全之上的科技巨头图景。在四年拖延实施安全措施期间,数十亿次青少年与陌生人的危险互动已然发生。随着诉讼推进,更多被密封的证据或将浮出水面,揭开社交平台光环下的阴暗角落。
