科技日报记者 刘艳 杨雪
大模型热潮持续,短短数月间,数十家国内公司先后宣布进入大模型领域,近日在上海举办的2023世界人工智能大会成为集中秀场,30余款来自不同企业的大模型产品和技术亮相。
科技部新一代人工智能发展研究中心近期发布的《中国人工智能大模型地图研究报告》显示,以“大数据+大算力+强算法”相结合的人工智能大模型,在中国正在得到迅猛发展,中国研发的大模型数量排名已居全球第二,仅次于美国,目前中国10亿参数规模以上的大模型已发布79个。
以大模型为代表的人工智能技术的巨大潜力正在加速释放,抓住它所带来的巨大机遇,警惕它存在的潜在风险和隐患,是当前产业界的双向任务。
技术应用向上向善
据中国信息通信研究院测算,2022年中国人工智能核心产业规模已达5080亿元人民币。
人工智能已成为全球数字技术创新最活跃的领域之一,为人们的生产生活带来巨大变革和便利,也带来了诸多风险挑战,构建安全、可信的人工智能,是当前各界关注焦点。
阿拉伯信息通信技术组织秘书长穆罕默德·本·阿莫在日前举办的世界互联网大会数字文明“尼山对话”主论坛上表示,建立一个安全可信的人工智能系统,要首先考虑数据隐私与安全、透明度、责任与问责、稳健性和弹性等因素。此外,还需要建立一个道德框架,通过以人为本的设计来优先考虑人类福祉。
全球移动通信系统协会首席执行官洪曜庄表示,只有在道德准则的约束下,人工智能才能真正改善世界。我们必须共同努力构建一个可信赖的环境,建立以人为本的方法体系,确保人工智能对于每个人都可靠、负责和公平,最重要的是,能够普惠所有人。
加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控,是中国推进人工智能治理的方向。
早在2017年,国务院印发《新一代人工智能发展规划》明确提出,到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。
尽管相关科研机构和科技企业在人工智能系统设计之初就考虑到人工智能安全、可控的风险,但技术应用趋利避害却往往难以一蹴而就。
中国科技大学公共事务学院网络空间安全学院教授左晓栋表示,人工智能的风险和传统的风险相比,有一些独特的特点,比如,人工智能是高度的自主智能的,极大依赖数据,而且还有算法黑箱的问题,还有算法不可解释的问题,都使得人工智能的风险很难预测,而且大量的是未知事物。
为应对可见的挑战和不可知的风险,我国应加快建立人工智能领域相关法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,这是各界对我国人工智能发展的共识。
技术发展和安全可控双轮驱动
百度创始人、董事长兼首席执行官李彦宏说:“过去一年,人工智能在技术、产品、应用等各个层面,以‘周’为迭代速度向前突进。大模型成功压缩了人类对于世界的认知,让我们看到了实现通用人工智能的路径。”
以今年3月百度率先发布大语言模型文心一言为标志,我国大模型创业潮奔涌,社会各界关于大模型的疑惑也越来越多,但在百度看来,安全问题并不是大模型出现才带来的新问题,安全是相应的产品和解决方案的必选项。
“已迭代至3.5版本的文心大模型,不仅是技术上的升级,更是安全上的升级。”李彦宏介绍,文心大模型3.5版本采用业界主流的大模型基础能力评估方法开展评估,在数据质量、生成效果和内容安全性上,都得到了明显提升。
“大模型之前的人工智能时代,我们已经发现人工智能本身具有所谓的内在安全。人工智能算法可能会被对象样本攻击,正常样本加入少量对抗就会误导识别结果。不管是数字世界还是物理世界,很多场景都存在这种情况。”清华大学计算机系长聘教授、清华大学人工智能研究院副院长朱军近日全球数字经济大会上指出,正在探索中的第三代人工智能新的范式,或能将数据和知识有机融合在一起,发展更加安全可靠的人工智能框架。
在朱军看来,AIGC特别是ChatGPT出现以后,安全问题越来越严重,而算法本身是否存在政治偏见和数字鸿沟,数据采集过程中会不会侵犯知识产权等问题,也是大模型时代需重点关注的问题,可从以下几个层面尝试解决。
首先,从人工智能基础尝试,针对深度学习、深度神经网络,学术界一直在探索第三代人工智能新范式,希望能够将数据和知识有机融合在一起,发展更加安全可靠的人工智能框架,其优势在于安全、可信、可靠和可拓展。
其次,提升安全评测能力,主要关注对抗攻击评测、角色扮演与诱导欺骗评测、混淆指令欺骗评测、标识性能评测、数据安全评测、伦理安全评测方面。
还有,构建人工智能安全治理有效工具,如人工智能本身的安全平台,安全评测、防御和整个态势的评估,可以通过平台化的方式对人工智能的算法和服务进行评测。
安全互信计算起步
如北京智源人工智能研究院院长、北京大学多媒体信息处理全国重点实验室主任黄铁军所言,AI越来越强大。风险显而易见,与日俱增,如何构建一个安全的AI?我们仍知之甚少。
面对这样的现实,需要业界的思考和探索。
李彦宏说:“新技术应用往往先于规范,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德,才能营造良好的创新生态。着眼未来,在重视防范风险的同时,也应同步建立容错、纠错机制,努力实现规范与发展的动态平衡。”
6月28日,火山引擎发布大模型服务平台“火山方舟”,面向企业提供模型精调、评测、推理等全方位的平台服务(MaaS,即Model-as-a-Service)。
“企业使用大模型,首先要解决安全与信任问题”,火山引擎总裁谭待表示,“火山方舟”实现了大模型安全互信计算,为企业客户护佑数据资产安全。基于“火山方舟”独特的多模型架构,企业可同步试用多个大模型,选用更适合自身业务需要的模型组合。
与小模型“自产自用”不同的是,大模型的生产门槛很高,数据安全成为大模型时代的新命题。谭待认为,企业使用大模型,最担心的是数据泄露;如果将大模型私有化部署,企业将承担更高的成本,模型生产方也会担心知识资产安全。“火山方舟”的首要任务,就是做好大模型使用者、提供者和云平台可以互相信任的安全保障。
据火山引擎智能算法负责人吴迪介绍,“火山方舟”已上线了基于安全沙箱的大模型安全互信计算方案,利用计算隔离、存储隔离、网络隔离、流量审计等方式,实现了模型的机密性、完整性和可用性保证,适用于对训练和推理延时要求较低的客户。
黄铁军表示,所有的探索刚刚开始,我们面临着全新的挑战,原有的经验和方法可能都无法解决新问题。
但是,无论从技术趋势,还是产业应用来看,大模型都绝不是昙花一现的风口,而是影响人类发展的重大技术变革,是拉动全球经济增长的引擎,是绝对不能错过的重大战略机遇。
李彦宏说:“坚持技术发展和安全可控的双轮驱动,才能行稳致远。如果我们安全、负责任地驾驭AI发展之路,大模型就会重塑数字世界,人工智能就可以为中国经济乃至全球经济创造无与伦比的繁荣,提高全人类福祉。”