4月23日,以“融合·创新·突破”为主题的第二届武汉网络安全创新论坛在武汉市东西湖区国家网络安全人才与创新基地启幕。在当天下午举行的“人工智能安全分论坛”上,政、产、学、研精英齐聚,围绕人工智能国际化合规路径、安全可信评估、标准体系建设、开源创新与共治、未成年人服务安全等议题展开深入研讨。
第二届武汉网络安全创新论坛人工智能安全分论坛现场(主办方供图)。
此次论坛上,多位专家提及了在人工智能时代出现的“新型风险挑战”。华为中国首席网络安全隐私保护官李加赞指出,AI时代面临着层出不穷的安全威胁与挑战,比如系统漏洞攻击、代码攻击、容器攻击等计算环境的威胁,针对AI的各种新数据、模型、提示语等等攻击威胁,还有应用和服务滥用的威胁等。
华为中国首席网络安全隐私保护官李加赞作主旨演讲(主办方供图)。
浙江大学研究员、君同未来创始人韩蒙的分享着眼于“人工智能体”的发展与可控,他强调像“MCP、A2A类协议”在可信安全层面设计的重要性。韩蒙认为,当前智能体快速发展,但其全生命周期的风险是巨大的,通过技术完成可信增强势在必行。而作为智能体最受关注的支撑协议——“MCP协议”仍存在上下文隔离缺失、大模型防护薄弱、信息不对称、授权认证不完善等较多问题,他呼吁各界迫切建立开放可信的智能体协议的生态。
浙江大学研究员、君同未来创始人韩蒙作主旨演讲(主办方供图)。
深信服科技股份有限公司高级副总裁AI首席专家邱亮提出了AI新形势下面临的6点安全挑战,包括黑客专门攻击、渗透攻击常态化、传统安全方法难以有效保护大模型业务、企业内部边界在AI时代被打破、应用发展速度快于安全、智能终端仍在不断迭代等。
深信服科技股份有限公司高级副总裁AI首席专家邱亮作主旨演讲(主办方供图)。
在“人工智能开源创新与共治”圆桌研讨中,中国科学技术法学会人工智能法专委会执行主任刘朝也提到了开源AI的三点突出风险。其一,开发者因技术开放性丧失用户行为控制权,模型可能遭非法篡改并用于制造虚假信息、实施网络犯罪;其二,用户端因缺乏持续性技术责任主体,面临模型透明度不足、训练数据合规性存疑等权益保障难题;其三,恶意攻击者可能借开源特性植入高危代码,降低技术犯罪门槛,加剧网络黑产危害。
“人工智能开源创新与共治”圆桌会议(主办方供图)。
论坛上,也有专家关注到了随大模型出现的多种新型漏洞,如“奶奶漏洞(提示词攻击)”“无限思考漏洞”“不充分训练Token level漏洞”“特殊Token漏洞”等。还有“模型投毒”也值得关注,即通过加入少量的“有毒数据”,让模型产生大量的错误信息,造成模型幻觉。专家认为,开展人工智能的可信评估具有非常重要的意义。
据悉,本届论坛由武汉市人民政府主办,中国网络空间安全协会、武汉临空港经济技术开发区管委会承办,中国互联网发展基金会支持,“人工智能安全分论坛”由中国网络空间安全协会人工智能安全治理专业委员会主办。
免责声明
本站转载的文章,版权归原作者所有;旨在传递信息,不代表本站的观点和立场。不对内容真实性负责,仅供用户参考之用,不构成任何投资、使用等行为的建议。如果发现有问题,请联系我们处理。
本站提供的草稿箱预览链接仅用于内容创作者内部测试及协作沟通,不构成正式发布内容。预览链接包含的图文、数据等内容均为未定稿版本,可能存在错误、遗漏或临时性修改,用户不得将其作为决策依据或对外传播。
因预览链接内容不准确、失效或第三方不当使用导致的直接或间接损失(包括但不限于数据错误、商业风险、法律纠纷等),本网站不承担赔偿责任。用户通过预览链接访问第三方资源(如嵌入的图片、外链等),需自行承担相关风险,本网站不对其安全性、合法性负责。
禁止将预览链接用于商业推广、侵权传播或违反公序良俗的行为,违者需自行承担法律责任。如发现预览链接内容涉及侵权或违规,用户应立即停止使用并通过网站指定渠道提交删除请求。
本声明受中华人民共和国法律管辖,争议解决以本网站所在地法院为管辖法院。本网站保留修改免责声明的权利,修改后的声明将同步更新至预览链接页面,用户继续使用即视为接受新条款。