EN 中文
首页 > 研究 > 研究评论 > 厘清大模型金融应用路径与治理重点
Home > Research > Research Comment > 厘清大模型金融应用路径与治理重点

厘清大模型金融应用路径与治理重点

作者Author:杨涛 2025-10-16 2025年10月16日

进入2025年,全球大模型技术快速迭代,呈现多模态交互技术逐渐成熟、强化学习解锁复杂推理能力、任务型智能体日益完善、主动化大模型能力开始显现等特点。其中,OpenAI发布的GPT-5采用统一系统架构,整合了高效基础模型、深度推理模块和实时路由系统。国内则出现DeepSeek-V3-0324的持续优化与性能提升、Qwen2.5系列的多模态能力突破等。在此背景下,大模型在金融领域的应用也呈现爆发式增长态势,同时也面临更加突出的风险与挑战。

一、大模型金融应用现状

近期,腾讯研究院联合毕马威发布的《2025金融业大模型应用报告:体系落地,价值共生》认为,大模型的应用目前正呈现两大趋势:一是从内部提效向核心创收领域加速转移,在智能理财助理、财富管理、保险代理人等客户触达场景中已率先实现突破;二是从单纯的效率工具向深度参与决策的协作伙伴升级,以智能体(Agent)为代表的应用新形态正在重构投研等领域的人机协作模式,展现出重塑行业的巨大潜力。

事实上,金融行业已经涌现出许多优秀的行业和机构大模型应用。以银行业为例,工商银行发布了国内银行业首个企业级千亿参数金融大模型技术体系 “工银智涌”,该系统截至2025年二季度累计调用量已突破10亿次,深度赋能公司金融、个人信贷、财富管理等20余类核心业务,覆盖智能客服、风险监控、交易结算等200余个实际应用场景。平安银行则着力构建大模型能力体系及应用生态,提供低代码的大模型开发模式,支持员工自主使用和构建生成式人工智能应用;2024年末,该行已上线知识数据Agent、风险RiskGPT、CoPArtner代码辅助平台、办公智能助手等大模型应用场景超200个。此外,北京银行正在升级建设“京智大脑”企业级人工智能平台,通过研发百亿级参数“京智”大模型、推广京翼大模型服务(MaaS)平台、京骑AI智能体应用平台、AIB人工智能创新平台,形成“大模型+通用机器学习模型”驱动的技术体系。

以证券业为例,目前招商证券、华泰证券、中信证券等行业代表机构都在加大持续性资源投入,在大模型应用领域率先突破,形成了从技术架构搭建到业务场景落地的完整生态。例如,招商证券依托 “招证天启大模型体系”,构建了贯穿前中后台的数智化生态。华泰证券的FICC大象平台助力固定收益业务实现显著超额收益,业务竞争力持续增强,并且集成策略研发、智能交易、风险控制全链条功能,支持境内外全品类做市业务。

以保险业为例,人保寿险的“AI保宝”平台是其大模型技术应用的集中体现,该平台面向公司内勤、外勤两大群体,覆盖了从办公助手、坐席问答到产品咨询等11个业务场景,切实解决了保险业务中的诸多痛点,这标志着保险服务全链条正在被AI技术深度重构。同时,中国太保则在不断完善“数智太保”战略顶层设计,聚焦“AI+”,完善大模型基础设施,强化数智化能力,积极探索“AI+”对业务一线获客、增员等方面的赋能方式。

综合来看,当前大模型金融应用一方面聚焦于客服助手、文档生成、智能识别、代码生成、办公辅助等外围业务场景,另一方面也逐渐开始向智能风控、智慧运营等核心场景拓展,呈现由内及外、由简单到复杂、由边缘到核心的发展趋势。

二、大模型金融应用的技术挑战

为了推动金融大模型应用的健康、安全、高效发展,需要直面相关的问题与挑战。

首先,从人工智能到大模型的技术演进路线虽然逐渐成熟,但仍然存在技术层面的不足与挑战。例如,大模型幻觉是指其生成看似合理但实际与事实不符或无中生有的内容,这对于金融应用来说尤其难以接受,因为或许会导致错误决策或误导客户。究其原因,可能是由于数据层面的瑕疵或污染、训练环节采取了较差的训练策略、推理阶段存在不恰当的表达方式等。大模型幻觉问题一直制约其在垂直行业的严谨应用,即便是OpenAI刚发布的GPT- 5,其幻觉率只有o3的六分之一,但仍未从根本上解决矛盾。对此,除了持续推动技术自身的完善,大模型短期内仍难以直接用于许多面向客户的服务场景,更多是发挥辅助功能,同时还需要专业知识的微调和保障,从而尽可能弥补相关短板。

其次,大模型金融应用还需适应监管与客户需求。例如,大模型的复杂算法如同 “黑箱”,输入数据与输出结果之前的关联性并不清晰,内部算法决策机制无法体现直观解释性。对于监管者来看,这就意味着无法有效评估其合理性与合规性,也难以在出现风险与问题时进行有效追责。对于金融消费者与投资者来说,则可能难以建立与算法类金融产品之间的信任,也可能担心算法背后有更多的人为操纵性。由此,当大模型在金融领域应用之时,需全面梳理可能带来的新型金融风险与挑战,“对号入座”进行有效治理和应对,尽可能减少应用中的信息扭曲与引发新的信息不对称。尤其需要注意的是,大模型在金融应用中的风险不仅体现在微观业务层面,而且一旦产生算法同质化的问题,还有可能给金融市场稳定带来系统性冲击,这更是各国监管者所担忧的。

最后,大模型金融应用需符合金融科技伦理原则。一方面,随着人工智能大模型的迭代,相关技术伦理一直受到高度重视。如2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则—发展负责任的人工智能》,明确将“负责任”作为人工智能治理的重要原则。2023年3月,国家互联网信息办公室等七部门,联合发布《生成式人工智能服务管理暂行办法》,成为我国首个针对生成式人工智能产业的规范性政策。另一方面,新技术在金融应用中的伦理问题同样受到普遍关注。2022 年1月,中国人民银行在《金融科技发展规划(2022—2025年)》中明确提出“加强金融科技伦理建设”。2022年10月,《金融领域科技伦理指引》发布,并提出守正创新、数据安全、包容普惠、公开透明、公平竞争、风险防控、绿色低碳七大核心原则。由于在人工智能大模型金融应用层面的伦理挑战日益突出,在各方更加重视金融消费者保护的背景下,这也使得相关标准和规则也亟待完善。

三、大模型金融应用的场景与模式

首先,需改善大模型金融应用的投入产出模式。近年来,金融机构的科技投入不断增加,其中较大比重是布局于人工智能大模型领域,相关投入包括底层基础设施建设、AI人才引进、研发投入等。然而,由于数据、场景、监管等多方因素制约,与高昂的技术投入相对应,短期内大模型却难以给金融机构带来突出的业务价值。同时,如果金融机构的整体数字化水平有限,则大模型也难以带来“拔苗助长”的效果。对此,未来应该依托“精准投入、降本增效”的思路,避免“为AI而AI”,持续优化投入结构,探索混合技术路线,尽可能匹配好大模型应用的成本收益比。

其次,以增强金融机构的可持续发展能力为基础。以银行业为例,根据金融监管总局的相关数据,2025年上半年商业银行净息差为1.42%,较一季度微降0.01个百分点。分银行类型来看,不同机构息差表现分化:国有行、股份行息差分别为1.31%、1.55%,较一季度分别收窄2个基点、1个基点;城商行、农商行息差则稳定在1.37%、1.58%,与一季度持平。虽然净息差收窄趋势略有企稳,但整体上已意味着银行可持续发展能力遭遇突出挑战。事实上,在面临经济周期下行挑战之时,银行业如何跨越周期生存下去,成为数字金融助力银行高质量发展的关键环节。由此,将来大模型金融应用也应更着眼于如何帮助银行改善资产负债管理、提升风险管控能力等,充实银行业机构保持稳健发展的基础能力。

还有,需助力金融机构高质量服务实体经济。在建设金融强国的目标指引下,金融机构被赋予了更重要的服务实体任务。其中,银行业作为金融体系的“主力军”,需同步做好科技金融、绿色金融、普惠金融、养老金融等大文章;证券业除了服务好企业上市融资与资产管理之外,还需充分利用资本市场为居民增加财产性收入;保险业则需直面充满不确定性的内外环境,协助各类经济主体做好风险管理与分散。因此,大模型在不同金融子行业的应用,都需要以能否助力提升服务实体的效果为衡量原则之一,不仅是为金融机构自身创造价值,而是应通过提升金融资源配置的精准性,为企业和居民创造更多价值。

最后,需理性认识大模型金融应用的现实价值。在大模型等前沿技术应用中,尤其需避免“短期内高估、长期内低估”的现象。事实上,虽然各方已经逐渐形成共识,认为大模型将在长期内给金融业带来颠覆式影响,但显然短期内还并不容易实现。例如,大模型金融应用也离不开小模型的协同,从而融合智慧与敏捷功能,实现性能、效率与成本的有效平衡,打造一个智能化的、动态自适应的服务系统。尤其对诸多小银行来说,更适于走轻量化发展道路,通过大模型训练后形成的小模型来融入应用场景。再如,当前智能体变得愈加火热,头部金融机构已经全面推动智能体平台建设,提供流程编排、插件开发、Agent部署等全方位功能支持。但也要看到,工程化实践能力不足、实际效果衡量难等也制约着智能体的价值,如果“一哄而上”推动多智能体建设,或许只是增加一些“高级实习生”,反而带来任务冲突、资源滥用或执行效率降低。

四、大模型金融应用的治理与保障

首先,需尽快完善相关制度体系,包括法律法规与标准化的保障。近年来,全国金融标准化技术委员会先后印发《人工智能算法金融应用评价规范》和《人工智能算法金融应用信息披露指南》。前者规定了人工智能算法在金融领域应用的基本要求、评价方法、判定准则,为金融机构加强智能算法应用风险管理提供指引;后者对人工智能算法在金融领域应用过程中的信息披露进行了指导。但这些仍停留在行业标准的“软法”层面,无法适应大模型金融应用快速推进中的“上位法”需求。对此,未来亟待进一步探索出台专项法规体系,用于规范大模型金融应用中的风险控制、角色权责、使用边界等。

其次,应持续推动金融数据、算法、算力等基础要素的完善。一则,如果训练数据中存在噪声和错误信息,大模型应用就会出现错误的判断和输出,由此大模型金融应用离不开高质量金融数据集和知识库的建设。二则,算法如同是大模型的 “智慧大脑”,决定了模型如何学习和理解数据,也是大模型推动金融智能化的关键。对于日益复杂的金融决策与创新需求,同样需要算法的持续迭代优化。三则,算力就是大模型的 “动力引擎”,对于多数中小金融机构来说,也面临成本投入能力的制约,因此探索行业通用算力共享平台建设,也是值得思考的重点。

另外,需强化大模型金融应用的评估与评价机制。对于多数金融机构来说,相对可行的模式是通过开源模式融入金融服务,或按需接入各类大模型API等,这就需要有相对客观的、面向大模型金融应用的评估模式,来解决金融机构选择大模型的信息不对称问题。无论是模型基础、金融安全与价值对齐、金融风险控制、金融专业认知、金融业务辅助拓展这些基础能力,还是结合银行、证券、保险、基金等重点应用场景的业务需求及大模型适配性,都需要进行系统、准确的评估。虽然现有许多第三方机构和行业协会已经在开展相关工作,但仍需要更具有权威性、科学性、可信性的评价体系建设。

再者,需完善与大模型金融应用产品相关的金融消费者保护机制。一方面,近年来金融消费者保护的难点日益突出,大模型的应用有助于促使消保机制实现从“被动防御”到“主动预测”的转变,更加精准地服务和满足金融消费者的需求。另一方面,大模型金融应用自身就会带来全新的消费者保护挑战。例如,当金融消费者的数据被用于大模型训练时,若保护不当,极易引发数据泄露风险;如果在信贷、信用卡等场景中存在数据和技术瑕疵,则可能产生算法偏见和法律纠纷等。由此,需要全面厘清各类大模型金融应用中的消费者保护痛点,努力实现风险、责任与权利边界的合理分担。

最后,还应促进大模型在金融监管中的应用水平。监管部门要更好地规范大模型金融应用,自身也应该成为大模型应用的实践者。在目前日益复杂的金融市场与产品结构中,金融监管更强调行为监管和穿透式监管。通过大模型技术的应用,一方面,可不断提升监管数据报送的自动化流程,大幅提高工作效率并减少人工干预,能够确保各类监管报表的及时性和准确性。另一方面,通过应用大模型基于文本、图像、声音等跨模态的能力,可以识别、分析和解读各类金融市场主体的行为,帮助监管部门从海量数据中提取关键信息,精准定位潜在风险并保障决策的科学性。