在北京举办的一场以“大模型时代:安全如何洗牌”为主题的TVP AI与安全高峰论坛上,来自安全领域的顶尖专家和行业领袖汇聚一堂,共同探讨了大模型技术给安全行业带来的深刻变革与挑战。此次论坛由腾讯云TVP和中国计算机学会(CCF)联合主办,旨在通过深入的技术交流和思想碰撞,为安全行业的未来发展提供新的思路和方向。
论坛开场,赛博英杰科技创始人兼CEO谭晓生表示,随着人工智能技术的飞速发展,尤其是ChatGPT等大模型的推出,安全行业正面临前所未有的机遇与挑战。他指出,开发者和企业在利用新技术提升安全能力的同时,也必须关注新技术本身的安全问题,这是一个与十年前大数据概念兴起时相似的经历。
腾讯安全副总裁董志强在致辞中强调,大模型技术正在重构网络安全战场。他指出,攻击者利用大模型技术使得攻击手段更加工业化且成本降低,而防御方则相对滞后,这加剧了攻防不对称,增加了防御难度。大模型在训练和部署阶段也面临数据脱敏、越权访问等安全隐患。针对这些问题,董志强建议使用小模型或专用安全模型,并加强合规管理措施。
论坛上半场围绕“AI赋能安全”展开,深信服科技AI安全业务总经理张振礼分享了AI如何推动安全能力升级的实践探索。他提出,安全领域需要统一规划大模型算力,实现各类场景的适配;同时,安全大模型需要具备快速融合和集成优秀基础模型的能力。张振礼还介绍了深信服在AI安全领域的落地实践,如开发基于AI的安全助手和提供AI安全培训体系。
安恒信息高级副总裁王欣则聚焦于AI智能体的发展,他认为智能体与网络安全体系的融合将是未来的发展趋势。通过引入智能中台,实现数据、知识、情报及安全产品的整合,可以应对各类安全场景,提升整体安全效能和响应速度。王欣还分享了AI智能体给行业带来的变革,如业务专家角色的转变和智能体在任务调度与执行中的重要作用。
360集团首席科学家潘剑锋在演讲中探讨了安全大模型的发展路径。他提出,当前大模型主要模拟人脑的“快思考”,而在需要本质性理解的“慢思考”场景中,大模型仍有待提升。潘剑锋分享了360在安全语料生产、模型分区训练和慢思考实现方面的实践经验,旨在通过持续探索提升大模型在安全领域的效能。
腾讯安全副总裁吴石则介绍了腾讯在AI+安全方面的研究与实践。他强调,大模型虽然提升了威胁检测效率与安全防护能力,但仍存在处理低频威胁、对抗性样本防御及实时决策等方面的性能瓶颈。吴石分享了腾讯通过优化prompt、利用外挂知识库和数据库以及开发Agent等方式提升大模型安全能力的经验。
在下午的论坛中,北京大学人工智能研究院助理教授杨耀东就“大模型的安全价值对齐”问题发表了演讲。他指出,确保大模型符合人们的价值观和意图是一个重要挑战,当前的对齐工作主要以强化学习为主,但仍面临模型抗拒对齐等问题。杨耀东提出了通过事前Moderation、事中数据对齐和事后后置对齐器等方式提升模型安全性的思路。
Certik首席安全官李康、中国科学院信息工程研究所主任陈恺、火山引擎大模型应用防火墙产品负责人郑炎亭以及中国科学院计算技术研究所实验室主任曹娟等专家也分别就AI系统的安全风险、AI模型的安全性分析、大模型应用落地的安全风险与防护实践以及AIGC内容安全治理趋势与实践等议题进行了深入探讨。
论坛还设置了分组讨论和观点PK环节,数十位专家围绕大模型时代安全行业的发展方向、安全大模型的选择策略以及隐私敏感场景下大模型的使用等热点问题展开了激烈讨论。通过思想交流与碰撞,与会者共同探索了AI与安全共生发展的新模式。