社交媒体巨头推特(Twitter)称,其平台上防止儿童性虐待材料(CSAM)传播的新系统已 “无缝部署”,该系统测试了非营利组织 Thorn 开发的技术。
Twitter 安全账户周二宣布,它参与了该组织人工智能驱动的 Safer 解决方案的测试,以主动检测、删除和报告包含儿童性剥削内容的文本材料。
通过与@thorn的持续合作,我们为创建一个安全的平台做出了更多努力。X 参与了 Thorn 解决方案测试阶段的测试,以主动检测基于文本的儿童性剥削。这项工作建立在我们为打击儿童性剥削所做的不懈努力之上。
“通过与 Thorn 的持续合作,我们正在做更多工作来创建一个安全的平台,”Twitter 安全账户写道。”这项工作建立在我们不懈努力打击网络儿童性剥削的基础上,具体目标是扩大我们的能力,打击对儿童有直接风险的高伤害内容。”
“这个自托管解决方案被无缝部署到了我们的检测机制中,使我们能够锁定高风险账户,”它继续说道。
2012年,演员黛米-摩尔(Demi Moore)和阿什顿-库彻(Ashton Kutcher)创办了Thorn公司,该公司开发的工具和资源主要用于保护儿童免受性虐待和性剥削。今年 4 月,谷歌、Meta 和 OpenAI 签署了由 Thorn 和其他非营利组织 “All Tech is Human “共同发布的一份承诺书,誓言在其人工智能模型周围实施警戒线。
“Thorn 的数据科学副总裁丽贝卡-波特诺夫(Rebecca Portnoff)告诉 TCN:”我们从测试版中学到了很多。”虽然我们知道儿童性虐待表现在各种类型的内容中,包括文本,但我们在这次测试中具体看到了针对文本的机器学习/人工智能如何在规模上产生实际影响。”
正如波特诺夫所解释的那样,Safer AI 模型包括一个针对儿童安全相关文本训练的语言模型和一个针对文本序列生成多标签预测的分类系统。预测分数从 0 到 1 不等,表示模型对文本与各种儿童安全类别相关性的信心。
虽然波特诺夫无法透露还有哪些社交媒体平台参与了 “更安全 “系列产品的测试,但她表示其他公司的反应都很积极。
“波特诺夫说:”一些合作伙伴分享说,该模型对于识别有害的儿童性虐待活动、优先处理举报信息以及支持调查已知的不良行为者特别有用。
由于自 2022 年 ChatGPT 推出以来生成式人工智能工具的激增,英国互联网观察基金会等互联网监督组织已经对暗网论坛上大量流传的人工智能生成的儿童色情内容敲响了警钟,称这些非法材料可能会淹没整个互联网。
在 Twitter 安全团队宣布这一消息的几个小时前,欧盟要求 Twitter 解释 “内容审核资源减少 “的报告。
Twitter 向欧盟监管机构提交的最新透明度报告称,自 2023 年 10 月以来,埃隆-马斯克(Elon Musk)的成本削减措施已将该平台内容审核团队的规模缩小了近 20%,并将监控语言的数量从 11 种减少到 7 种。
“该要求还补充说:”委员会还在寻求更多细节,以了解与生成式人工智能工具对选举进程、非法内容传播和基本权利保护的影响有关的风险评估和缓解措施。
欧盟于 2023 年 12 月启动了针对 Twitter 的正式诉讼程序,原因是该公司在多个领域违反了《数字服务法》,包括风险管理、内容节制、”黑暗模式 “和研究人员的数据访问。
欧盟委员会表示,推特必须在 5 月 17 日前提供所要求的信息,并在 5 月 27 日前解决其他问题。