行业报告:大模型的发展现状

原创 | 文 BFT机器人 

图片

随着人工智能技术的不断发展,大模型已经成为该领域的一个重要趋势。大模型是指参数量巨大的深度学习模型,具有强大的计算能力和学习性能,可以处理更加复杂的数据和任务本文将介绍大模型的发展现状,包括以下几个方面:

01

软大模型驱动新一轮科技革命

近十余年间,人工智能技术泛化能力、创新能力及应用效能不断提升,成为了推动经济及社会发展的重要引擎。

2015年前后,人脸识别算法达到接近人眼的识别能力,被视为人工智能技术工业级应用水平的代表性事件。

2022年,以ChatGPT为代表的大模型为用户带来了全新交互体验。通过其在内容生成、文本转化和逻辑推理等任务下的高效、易操作表现,大模型正逐步成为当前主流应用程序的重要组成部分。

图片

图片来源:视觉中国

随着数据、算法和算力的不断突破,大模型将不断优化演进。在数据方面,海量、多模态数据将持续应用于大模型预训练,提升大模型的知识、理解和推理能力。

算法方面,将转向跨知识领域、跨语种、多模态特征的海量知识挖掘及执行等复杂任务的处理。在算力方面,智算中心及算力网络等基础设施加速建设,为大模型的开发和服务提供充足性能支持。

到2026年,Gartner预测超过80%的企业将使用生成式人工智能的API或模型,或在生产环境中部署支持大模型应用。以通用智能体、具身智能和类脑智能等为代表的大模型应用可能会带来新一轮的科技革命和产业变革。

02

大模型加速赋能产业应用

“大模型+”模式加速应用赋能,助推人工智能产业升级。

当前,人工智能已经成为全球新兴技术领域的核心竞争力,各国政府加快研发、部署人工智能技术,推动产业高速发展。

据统计,我国人工智能核心产业规模已达5000亿美元,企业数量超过4300家。2023年始,我国大模型市场火爆,百度、商汤科技、科大讯飞、阿里巴巴等单位先后发布自研大模型,并于2023年下半年逐步面向用户提供服务。

大模型广泛应用于能源、金融、教育、医疗、交通、政务等领域,主要应用场景聚焦数据分析、客服、营销、办公等。其中,以能源、金融为首的两大行业结合行业数据建设基础,积极布局大模型应用落地,加速行业智能化转型。

图片

大模型技术生态逐步完善,大幅降低行业应用门槛。一方面,开源大模型加速大模型应用渗透,打通预训练、微调、部署、评测等开发阶段,进一步降低大模型研发应用成本。

2023年7月,上海人工智能实验室正式开源了书生·浦语大模型70亿参数的轻量级版本InternLM-7B,并推出首个面向大模型研发与应用的全链条开源体系,同时提供免费商用,受到了学术和产业界的广泛关注。

同年7月,OpenAI向用户正式开放了代码解析插件CodeInterpreter,使得ChatGPT和GPT-4可以根据用户问题来编写和执行代码,从而拓展了模型在数据分析、复杂计算与功能调用方面的能力。

另一方面,大模型正在逐步向智能体方向进化,从理解生成迈向复杂任务处理能力。通过将大模型与动作执行器结合,智能体可以在接受用户输入后,通过大模型进行规划和决策,并对第三方插件或工具进行调用,从而实现复杂的任务处理能力,进一步降低了应用门槛。

03

大模型可信赖备受关注

大模型在快速发展的同时也带来了一系列潜在的风险和挑战。

一方面,大模型所需的海量数据、复杂参数以及工程难度放大了人工智能固有的技术风险,如数据窃取、泄露等安全问题,模型黑盒导致决策结果难预测和难解释问题,以及模型面对随机扰动和恶意攻击的鲁棒性问题。

另一方面,大模型的多场景通用性也放大了隐私风险、歧视风险和滥用风险等应用风险。这些问题引发了全球范围的关注,对人工智能治理能力与治理水平提出了新的挑战。

目前,全球大模型治理正处于探索阶段,从人工智能伦理准则等基本共识出发,逐步深入推动大模型监管政策法规和企业治理落地实践。国际组织积极制定人工智能治理原则及倡议,重点关注大模型的治理和监管问题。

政策方面,2021年11月,联合国教科文组织通过了《人工智能伦理问题建议书》,旨在促使人工智能系统造福人类、社会、环境和生态系统、防止危害,同时促进和平利用人工智能系统。

图片

2023年6月,联合国秘书长安东尼奥·古特雷斯明确提出计划在今年年底建立一个国际人工智能监管机构,定期审查人工智能治理工作。

2023年11月,在英国人工智能安全峰会期间,包括中国、美国、英国等 28 个国家和欧盟共同签署了《布莱切利宣言》确保人工智能以人为本、值得信赖并负责任,通过国际伦理和其他相关倡议促进合作,应用人工智能带来的广泛风险。

同年11月,世界互联网大会发布了《发展负责任的生成式人工智能研究报告及共识文件》,就发展负责任的生成式人工智能提出十条共识。

在标准方面,ISO/IEC JTC1 /SC42人工智能分委会正在开展人工智能可信赖国际标准研制工作,为指导利益相关方研发、使用可信赖人工智能相关技术和系统提供参考,主要标准包括 ISO/IEC TR 24028:2020《人工智能的可信赖概述》、ISO/IEC 38507:2022《组织使用人工智能的治理影响》等。

全球主要经济体加快推进大模型治理和监管相关政策制定步伐。中国在人工智能监管方面主张“包容审慎的分类分级监管”原则,国家网信办已于2023年7月10日颁布了首部面向大模型监管的《生成式人工智能服务管理暂行办法》,后续将进一步针对生成式人工智能技术特点及其在有关行业和领域的服务应用,制定相应的分类分级监管规则或指引。

2023年10月8日,中国科技部发布《科技伦理审查办法(试行)》,提出从事人工智能科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,并建立伦理高风险科技活动的清单制度,对可能产生较大伦理风险挑战的新兴科技活动实施清单管理。

2023年10月18日,国家网信办发布《全球人工智能治理倡议》,提出发展人工智能应坚持相互尊重、平等互利的原则,各国无论大小、强弱,无论社会制度如何,都有平等发展和利用人工智能的权利。

在标准方面,中国信息通信研究院已经启动《大规模预训练模型技术和应用评估方法》系列标准研制的工作,全面覆盖大模型的开发、部署和应用环节,其中第四部分可信要求是目前国内首项针对大模型领域的可信赖标准。

与此同时,全国信息安全标准化技术委员会已经启动包括《信息安全技术 生成式人工智能服务安全基本要求》在内的三项生成式人工智能安全国家标准编制工作,以支撑大模型的监管落地。

欧盟现行人工智能立法仍主要集中在传统人工智能,但已经开始关注通用人工智能以及生成式人工智能的问题,主张尊重人格尊严、个人自由和保护数据及隐私安全

2023年6月14日,欧洲议会投票通过《人工智能法案》,该法案基于风险等级将人工智能系统分成四类,并制定了不同程度的监管要求。该法案提出生成式人工智能系统通常属于有限风险的人工智能系统,需遵守最低限度的透明度义务,但可能会因其适用的领域和生成的内容而落入高风险人工智能系统的范畴,并明确了通用人工智能、生成式人工智能以及基础模型提供者等不同主体的合规义务。

为配合法案落地,欧洲电信标准化协会(ETSI)正在计划将人工智能安全工作组重组为人工智能安全技术委员会,进一步加强法案配套标准的研制工作。

美国主张监管需以促进人工智能负责任的创新为目标,应通过监管和非监管措施减少人工智能开发和部署的不必要障碍,同时保护美国的技术、经济和国家安全、公民自由、人权、法治、隐私和尊重知识产权等核心价值观。

2023年5月13日,美国白宫总统科技顾问委员会(PCAST)成立生成式人工智能工作组,以帮助评估关键机遇和风险,并就如何更好地确保这些技术的开发和部署尽可能公平、负责任和安全提供意见。

2023年10月30日,美国总统拜登签署人工智能行政令,旨在加强对人工智能潜在风险的监管,发展安全、可靠和值得信赖的人工智能,促进人工智能创新,确保美国在人工智能领域继续领跑全球。

同时行政令在标准方面,提出美国国家标准与技术研究所(NIST)将制定严格的人工智能安全测试标准,人工智能系统在公开发布前需根据这些标准进行广泛的测试以确保安全。

业界人士积极呼吁加强人工智能监管,企业加速大模型可信赖技术落地。2023年3 月,特斯拉首席执行官埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及其他上千名AI研究人员签署公开信,呼吁暂停研究比GPT-4更先进的AI技术,提醒更多的用户关注大模型的潜在危险。

由微软等企业发起的商业软件联盟(BSA)公开发文,呼吁在国家隐私立法基础上制定管理人工智能使用的规则。

2023年7月21日,亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI七家企业自愿向美国政府做出围绕安全、保障和信任等原则的自愿性承诺,主要内容包括开发部署面向生成内容的数字水印技术,公开披露模型或系统的功能、局限性和适用领域,以及优先研究人工智能系统带来的社会风险等。

目前,微软、谷歌、OpenAI、百度、商汤科技、蚂蚁等企业都发布了面向大模型的可信赖工具或平台,例如商汤科技的可信AI基础设施平台SenseTrust包含完整覆盖数据、模型、应用治理环节的可信AI治理工具,助力打造可信赖的大模型服务。

图片

大模型治理和监管已经成为全球国际组织和主要经济体的首要目标,各国的监管机构正在尝试通过法律法规以及标准文件对大模型进行治理和监管,行业各界也积极推动人工智能治理工作。

但与传统人工智能的风险相比,大模型的风险来源涉及框架、数据、模型、生成内容等多种因素,因此更加具有不确定性,亟需通过技术、管理和监管等手段进行协同治理。

结语:

总之,大模型已经成为人工智能领域的一个重要趋势,其发展前景广阔。未来随着技术的不断进步和应用场景的不断拓展,大模型将会在更多领域中得到应用并发挥重要作用。

在大模型发展的过程中,也会产生消极影响的一面,因此在注重大模型发展的同时也要克服大模型滥用的情况。相信在未来,在国家和大型科技企业正确的带领下,大模型发展会走向造福全人类的趋势。

参考文献:商汤科技中国信通院

若您对该文章内容有任何疑问,请与我们联系,将及时回应。

猜你喜欢

转载自blog.csdn.net/Hinyeung2021/article/details/134941838