儿童安全组织推出新AI模型 基于真实儿童性虐待图像训练

儿童安全组织推出新AI模型 基于真实儿童性虐待图像训练

1分钟 ·
播放数2
·
评论数0

你知道吗?在打击儿童性虐待图片传播的战斗中,人工智能技术正在发挥越来越重要的作用。近日,著名儿童安全组织Thorn与人工智能解决方案提供商Hive合作,推出了一项突破性的技术。

这项技术是对现有CSAM(儿童性虐待材料)检测工具Safer的扩展。过去,通过哈希技术,平台可以自动检测已知的CSAM内容。但对于新的或未知的虐待内容,平台往往难以及时发现和处理。而这个新推出的AI模型,正是为解决这一难题而生。

这个AI模型使用了先进的机器学习分类技术,通过分析来自失踪和被剥削儿童国家中心(NCMEC)的真实数据,学习识别有害图片和视频中的特征模式。当系统发现可疑内容时,会生成一个风险评分,并交由人工审核人员进行最终确认,这种人机结合的方式可以更快速、更准确地发现和处理这类有害内容。

Hive公司的CEO Kevin Guo表示,他们进行了大量测试来降低误判率。这项技术的推出,将帮助各大在线平台更有效地打击儿童性虐待内容的传播,为创造一个更安全的网络环境迈出重要一步。

点击查看全文>>