转自:新华财经
自从2022年11月OpenAI发布产品ChatGPT以来,生成式AI(大模型)进入飞速发展期,此后通用大模型、垂直大模型等陆续问世。今年初,我国国产大模型Deepseek的问世,更是对全球科技格局产生了深远的影响。大模型技术的快速迭代不仅促进了文字生成领域的发展,还扩展到图像、音频和视频等多模态内容创作,极大地丰富了AI技术的应用场景,加速其在各行各业的商业化进程。目前各个金融机构都在探索大模型的应用,落地的应用包括金融知识智能问答、智能反欺诈、智能客户聊天机器人、NL2SQL、代码生成、智能BI及分析决策、文案创作、文档生成等。由于金融是强监管行业,安全合规是大模型落地应用的前提条件和重要保障。大模型的应用需要在符合国家政策情况下考虑模型的成熟度,明确金融行业和具体场景的限制条件。
一是大模型应用需要符合国家政策。2023年7月,国家网信办、工业和信息化部、公安部等七部门联合发布《生成式人工智能服务管理暂行办法》,提出“国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引”。作为我国首部 AIGC领域的监管法规,可以视为关于大模型的总的监管政策。2023年中央金融工作会议强调要做好数字金融大文章,2024年政府工作报告提出数字经济创新发展,加快发展新质生产力,开展人工智能+行动。2024年7月,北京市印发了《北京市推动数字金融高质量发展的意见》,其中提到“鼓励金融机构运用大模型提升信用评估、运营管理和资本管理水平,建设大模型风险评估与预警系统,研发金融合规大模型助手,提高风险管理效率和准确性”。这些政策和报告说明了金融大模型正获得国家和地方政府的高度重视和支持。但是从具体执行层面看,现有政策文件都是指导性、纲领性的,相应政策细则还没有出台。还没有明确哪些模型可以运用、哪些不可以?金融大模型在哪些具体的领域可以用?可以运用到什么程度等都明确说明。金融大模型相应的细则出台对指导金融机构更好地运用大模型产生直接且重要影响。
二是所使用的大模型技术一定要成熟。由于金融行业的特殊性,信息安全等级保护高、对于准确性、精准性的要求特别高。对数据安全、隐私保护、风险防控要求非常严格。技术的成熟度是决定大模型在金融领域应用的重要因素。从这几年的实践来看,现在大模型技术还不是很成熟,尤其是通用大模型尚存在较大的潜在安全可信威胁,其稳定性、可靠性和安全性有待提升,面临着不少风险和挑战,如内容安全、数据泄露、隐含偏见、技术滥用、算力数据方面的问题。大模型本身不具备判断能力,无法完全保证生成内容或所得结论的真实性。如果不加以校验,生成式人工智能很容易推导出“似是而非”的结论。对同一个预测问题,不同的大模型会给出截然不同的答案。大模型可能会受到恶意攻击,如对抗样本攻击、模型篡改等。这些攻击可能会导致模型输出错误的结果,从而影响金融决策的准确性和可靠性。在强监管背景下,大模型本身的性能、大模型使用工具的能力、大模型做预测决策的可靠性都是需要重点考虑的问题。金融行业使用大模型的目的是降本增效,为行业赋能,不是简单的节省人力成本,更重要的是利用大模型的技术赋能所有的员工,对于员工协作而非取代关系。因此,大模型技术的成熟度决定了大模型赋能员工的水平。
三是需要找到合适的应用场景。金融行业属于信息密集型行业,是大模型技术的最佳应用场景之一。从金融机构角度讲,选择大模型应用,很重要的是识别和选择场景,没有场景就没有大模型的应用。大模型会应用到金融服务效率与体验提升、业务运营与智慧决策、金融异常监控与智能识别、金融风险管理与信用评分等方面,未来,大模型将重构银行业务的流程,银行内部组织架构和银行服务的模式,重塑智慧金融创新业态,对金融业带来一场全方位的深刻的变革。(本文作者杨珂系中国邮政储蓄银行总行数据管理部数据分析师, 戴明锋系商务部国际贸易经济合作研究院副研究员、高级统计师)
编辑:张煜