近日,浙江省杭州市公安机关侦破一起利用人工智能(AI)技术伪造活体视频,突破部分网络平台登录认证,窃取用户信息的案件。这起案件也引发了公众对于AI技术使用安全问题的关注。
近几年来,随着AI技术的快速发展,其正以强大的数据处理能力和模拟学习能力影响着社会生活的方方面面,也给个人信息保护、网络安全治理带来了新的挑战。从此次公安机关侦破的案件看,不法分子将静态照片输入AI大模型中,可以生成一段能够模仿真人点头、眨眼等动作的活体视频,从而突破部分网络平台的人脸登录认证限制。这些不法分子在登录他人账号窃取用户敏感信息后,将其出售获利。这不仅侵害了用户的个人信息权益,也给整个网络安全带来了严重威胁。
事实上,这只是AI技术被滥用的一个缩影。从此前发生的利用AI“换脸”“拟声”实施诈骗犯罪,到借助AI技术合成虚假新闻扰乱视听,再到使用“AI换脸”软件生成虚假淫秽视频……这些都表明,AI技术是一把“双刃剑”,其既可能成为人类的帮手,帮助人们提升工作效能、改善服务体验,也有可能成为不法分子的帮凶,给公众生活带来难以防范的安全隐患。这一方面警示网络平台要持续升级安全防护措施,对任何利用技术手段实施违法犯罪的行为进行有效拦截反制;另一方面也启示我们要与时俱进织密法网,更好发挥法治对于人工智能健康发展的规范和保障作用。
值得注意的是,此前我国制定的网络安全法、数据安全法、个人信息保护法等法律,已在一定程度上涉及对人工智能的安全监管。同时,我国还专门针对人工智能的治理出台了一些部门规章。在近期举行的2024年国家网络安全宣传周上,相关部门还发布了《人工智能安全治理框架》1.0版。公安、网信等部门也对各类利用AI技术手段实施违法犯罪的行为进行有力打击,取得了一定积极成效。但对AI技术潜在风险的防范与治理注定是一项长期工程,必须久久为功。
总之,只有在引导鼓励人工智能创新发展的同时,对AI技术滥用可能引发的安全风险予以依法防范化解,让相关各方清晰认知并守住使用AI技术的法律边界,才能让AI等新兴技术更好地服务经济社会发展,成为推动社会发展进步的积极力量。(马树娟)