中国日报网10月7日电 苹果近期发布了三项保护儿童安全的新功能,其中一项为"信息通信安全",会扫描13岁以下用户的imessages,识别和模糊化色情图片,并在孩子打开或发送含有此类图片的信息时提醒父母。乍听之下,这可能会是保护儿童不受性侵的一个好方法,事实上,这种方法可能会得不偿失。
虽然所有的父母都希望孩子安全,但对许多孩子来说,这是不现实的。尤其是lgbtq 的青少年面临着父母实施暴力和虐待的危险,离家出走的可能性是其他青少年群体的两倍,而这一类孩子占总寄养人数的三成。此外,他们更有可能因缺乏性教育而发送露骨图片。一旦父母发现了这些短信,就会暴露孩子们的性偏好,可能会导致儿童遭受家庭暴力,甚至无家可归。
由于这一功能所依托的技术在检测有害图像方面不太可能特别准确,因此此功能的弊也许会大于利。据称,苹果将使用“设备上的机器学习来分析图像,并确定照片是否具有性暗示”。由13岁以下的用户持有的苹果账户发送或接收的所有照片都将被扫描,如果该账户与指定的父母账户相连,则将向家长发送通知。
目前还不清楚这种算法的效果,也不清楚它能准确检测到什么。一些性暴露内容的检测算法是根据皮肤显示的百分比来标记内容的。例如,该算法可能标记出一对穿着泳衣的母女在海滩上的照片。如果两个年轻人互相发送一张衣着暴露的名人照片,苹果就可能向他们的父母发送通知。
计算机视觉存在众所周知的难题,而现有的算法(如检测人脸的算法)有诸多缺点,包括经常无法检测到非白人的脸。苹果的系统出现误差的风险特别高,因为大多数学术界发表的裸体检测算法都是以成年人的图像作为检测对象的。苹果没有提供任何有关所使用算法的详细信息,所以不知道效果如何,特别是在检测年轻人自己拍摄的图像方面。
这些算法准确性的问题令人担忧,因为它们有可能对年轻人产生误导。当人们过分热衷于判定行为“坏”或“危险”时——甚至是青少年之间分享泳装照片,会干扰年轻人的判断能力,让他们无法察觉真正什么对他们真正有害。
事实上,这个功能还告诉年轻人,他们没有隐私权。剥夺年轻人的隐私和同意权,与联合国儿童基金会关于防止在线和离线儿童性剥削和虐待的循证指南所建议的完全相反。此外,这一功能不仅会造成伤害,还会让私人谈话暴露在光天化日之下,包括政府的监视。
在设计技术以保护年轻人的网络安全方面,需要做得更好,并从让可能受伤害的人自己参与安全系统的设计开始。让受技术影响最大的人参与进来,是防止伤害和让技术更有效的解决途径。到目前为止,青少年还没有成为技术企业或研究人员所考虑的因素。
必须记住,单凭技术不能解决社会问题。重要的是将资源和努力集中在预防有害情况的发生上。例如,通过遵循联合国儿童基金会的指导方针和基于研究的建议,推进实施全面的、人们同意的性教育计划,可以帮助青少年安全地了解性行为,培养健康的性观念。
(编译:金怡萝 编辑:王旭泉)