近年来,人工智能技术加速迭代升级,在为多产业持续赋能的过程中,对金融行业发展产生了尤为深远的影响。当前,这一技术已广泛渗透到资本市场相关业务中,有效助力证券经纪商、资产管理机构、金融交易所及监管自律组织等市场参与主体提升运营效率。
然而,人工智能技术的创新应用也给金融监管带来了全新的挑战。对此,欧盟、美国和我国均高度重视,纷纷对人工智能技术的应用制定了相关监管政策。具体到资本市场领域,AI模型的数据缺陷风险、恶意使用AI风险及技术过度依赖风险,是需要重点关注的三大隐患。基于此,后续监管工作可重点从三个方面发力:一是加大投资者保护力度,筑牢市场安全底线;二是深化跨领域、跨区域监管合作,形成监管合力;三是加强人工智能技术监管引导,为行业健康发展提供科学、高效的顶层设计指引。
一、人工智能在境内外资本市场领域应用的特有场景
根据联合国对AI的定义,人工智能包括一系列可定义为“自我学习、适应系统”的技术。但由于AI在资本市场的应用场景具有一定特殊性,国际证监会组织IOSCO对AI的定义更具针对性:“基于机器的系统根据收到的输入信息推断并生成输出的结果,如预测、建议或决策等。”目前,应用于资本市场的人工智能技术主要包括:以决策树为代表的传统AI技术、机器学习(ML)及深度学习(DL)、自然语言处理(NLP)与大语言模型(LLM)、生成式人工智能(Gen AI)等。这些技术在证券经纪商、资产管理机构、金融交易所及监管自律组织中均发挥着重要作用,形成了具有行业特色的应用场景。
(一)证券经纪商:聚焦客户服务、算法交易与风险监控
证券经纪商近年来在多个业务环节中广泛引入人工智能技术,以提升服务质量与运营效率。在客户沟通服务方面,聊天机器人或虚拟助理等AI驱动通信系统大幅使用于客户沟通。在风控与合规方面,依托人工智能技术构建的智能化风控体系可用于风险防控与合规管理,阻止恶意攻击及监测非法活动等,多家券商构建法规知识库并使用合规问答助手,提升风险预警智能化水平。在算法交易方面,AI可用于算法交易协助资产定价、交易执行及交易事前事后分析等,进而捕捉市场信号、分析交易价格及交易情绪。
(二)资产管理机构:助力投研效率提升、智能投顾、资产管理及宏观监测
资产管理机构积极借助人工智能技术优化业务流程,在多个关键领域实现效能提升。在投资研究环节,通过模型整合多维数据成为重要手段,其中生成式人工智能被用于搜索论文,助力精准分析行业动态,从而提高投研效率。在智能投顾及资产管理服务方面,机器学习等技术被用于机器人投资顾问,能够根据客户的风险偏好及投资目标优化投资组合。国内部分证券机构也建立了智能投顾系统,既覆盖业务办理、交易规则等客户高频咨询场景,又包含个股分析、基金诊断、账户评估等员工高频展业支持场景,形成了完善的投顾服务智能解决方案。
(三)交易所及行业自律组织:优化交易结算、强化市场监控与合规管理
交易所及行业自律组织积极运用人工智能技术,在多个业务领域推动效能提升与管理升级。在交易结算环节,交易所借助人工智能技术优化交易前及交易后流程,例如纳斯达克通过AI自动调整股票订单的等待时间,有效提高了交易成交速度。在市场监控方面,GenAI和LLM技术被用于交易异常事件监测。以港交所为例,其在审查新股发行时,利用AI技术追踪交易账户是否存在关联;在交易环节,AI能够监测跨账户同步下单行为,从而精准识别违法违规行为,切实保护投资者权益。
二、全球对AI应用于金融领域的监管趋势分析
随着人工智能技术在资本市场的渗透程度的不断加深,其在算法交易、风险管理、市场监测、投顾等关键领域的监管挑战也随之加剧。目前,尽管各国已开始探索金融领域人工智能的监管框架,但针对资本市场具体场景的监管细则几乎空白。同时,全球主要国家或地区的监管理念和实施路径也呈现明显差异。
(一)欧盟:以《欧盟人工智能法案》等为基础框架,强调金融领域模型透明度与投资者保护
欧盟对人工智能监管呈现出适用范围广、风险分类细及监管措施严三大特征。尽管在金融领域人工智能应用的监管方面,已提供了方向性指引,但针对资本市场的相关政策仍在酝酿之中。从基本法律框架来看,欧盟监管主要遵循2024年5月通过的《欧盟人工智能法案》,包括总则、人工智能禁止使用的场景、高风险人工智能数据库、上市后信息监测共享和监督、授权与委员会程序及最后条款等。从监管特点看,区域适用呈现出明显长臂管辖特征。在架构设计层面,欧盟采用自上而下双层监管体系:欧盟层面设立人工智能实验室,各成员国由各自市场监督管理机构承担相应职责。
欧盟将人工智能划分为不可接受风险、高风险、优先风险及最低风险四个等级。其中,不可接受风险类是指对人的健康、安全和基本权利构成明显威胁的,涉及严重侵犯人权与人类安全的,需绝对禁止;高风险类是指对人的健康、安全和基本权利产生较高威胁的,需严格监管并进行持续性监测与评估;有限风险类是指对人的健康、安全和基本权利产生较低威胁的,需在用户知情和可控性方面达到较高标准;最低风险类如简单的推荐系统等,监管要求相对较少。同时,《法案》制定了极具威慑力的罚款机制,罚金可能高达企业全球营业额的7%。
就金融监管而言,德国金融监管局强调AI模型应采用透明、简单和可解释的模型;法国金融市场管理局明确应加强投资者保护,将AI技术应用纳入合规框架;欧洲金融管理局发布了关于金融机构向散户提供投资服务时使用AI相关指引。
(二)美国:以原则性指导为主,聚焦机构职责,监管集中于信贷及期货交易场景
美国对人工智能的监管呈现去中心化、非强制性及推动企业进行自我监督的特点。从指导性政策看,2023年11月发布的《关于安全、可靠和值得信赖的人工智能的行政命令》,确立了推动AI发展的基本原则、安全标准与建设、创新与国际化及政府内部治理与公众保护等多项原则。2025年5月,美国通过“大而美”法案(One Big Beautiful Bill Act),其中包含对国内 AI 基础设施建设(如数据中心、半导体制造)的资助、税收优惠及外资限制等产业扶持条款,并禁止各州和地方在法案生效后的10年内限制人工智能模型、人工智能系统或自动化决策系统。从监管特点看,联邦各机构在各自职责范围内评估AI安全标准,未设立新的法规或专门机构,立法主要集中于州政府层级。
就金融领域而言,美国目前针对人工智能的监管规则较少。其中,具有较强约束力的规范,当属美国消费者金融保护局针对 AI 信贷领域的要求——明确禁止以算法黑箱特性为由,规避因拒贷或降低信用额度所产生的责任;美国商品期货交易委员会(CFTC)则是在对人工智能使用的公开意见征询稿中,强调了AI在交易领域的订单处理、市场监测、安全系统防护应用及保证金计算等方面的风险。
(三)中国:呈现垂直管理特点,金融领域以算法监管为核心
从政策法规看,目前我国尚未出台人工智能专项法律。但是,2023年网信办联合发改委等七部门发布了《生成式人工智能服务管理暂行办法》,该办法旨在规范生成式AI服务开发和应用,防范技术滥用风险,保障用户权益和社会公共利益。就监管特点而言,强调算法在互联网信息服务平台备案并进行信息标准化披露,以实现分管各个业务领域的监管部门能够“看得清”。在金融领域,2021年人民银行发布了《人工智能算法金融应用评价规范》,2023年发布《人工智能算法金融应用信息披露指南》,要求金融机构对人工智能使用的产品和服务信息、重大风险事件进行披露。2022年中国银行业协会发布《人工智能模型风险管理框架》,对人工智能模型风险分为3个等级,为银行业提供了重要参考。
三、AI创新给资本市场带来的风险及监管挑战
根据国际证监会组织(IOSCO)2025年调查报告,AI创新给资本市场带来的风险主要涉及数据治理、算法开发、测试与监控等领域。对市场参与者的问卷调研显示,高频提及的风险可归纳为AI模型与数据缺陷风险、恶意使用AI风险及技术过度依赖风险。
(一)AI模型与数据缺陷风险,导致分析结论出现偏误
AI 模型与数据存在的缺陷,可能引发分析结论出现偏误,这一风险主要体现在三个方面:一是模型本身存在可解释性不足、假设错误、幻觉效应等缺陷,比如模型偏见在数据抽样情况中无法公平对待不同的投资者群体及投资品种;二是数据质量不高,例如数据不够干净完整、存在数据代表性不足等,再加上使用Gen AI合成数据中可能包含虚假或错误信息,导致数据质量难以得到保证;三是数据存在漂移。以LLM为例,其使用历史数据训练模型,难以适应快速变化的市场环境,进而影响分析结论的准确性。
(二)恶意使用AI风险,损害投资者对资本市场的信任
恶意使用AI行为,会对投资者对资本市场的信任造成损害,这类风险主要体现在三个方面:一是不法分子利用AI进行信息造假。例如在自动化网络的钓鱼计划,创建虚假身份和档案,生成更可信的信息,投资者识别难度加大。二是利用AI网络攻击。引入AI技术的金融企业拓宽了攻击面,不法分子可利用AI自动分析系统漏洞、规划攻击路径,使得网络攻击变得更为隐蔽和复杂;三是造成数据隐私泄露。不法分子可能会操纵LLM训练结果泄露相关信息,或者利用AI与原有系统整合的契机造成信息泄露。
(三)技术过度依赖风险,加剧监督与问责难度
对技术的过度依赖,会加剧监督与问责的难度。首先,由于AI在开发成本、计算能力等方面需要大量资源投入,目前金融领域AI模型使用多外包给少数集中供应商,而这些供应商不受金融监管部门的直接管辖,导致难以对模型透明度、数据安全及数据合规性进行审查。其次是AI监管人才缺口较大。金融机构缺乏既熟悉AI技术,又精通风险管理及法律法规的复合型人才,这使得对AI的有效监督难以实现,进而影响对投资者利益的保护。同时,问责机制的缺乏也带来挑战。金融机构在使用AI过程中过度依赖AI技术,甚至可能被AI误导。一旦出现违规情况,机构容易将责任推卸给AI技术供应链的第三方,导致后期问责及执法过程面临诸多困难。
四、监管启示与思考
中国资本市场规模大,散户众多,交易活跃。监管更应高度关注人工智能技术在资本市场的应用,重点防范相关风险,可从以下方面重点发力:
(一)强化投资者保护,提高警示教育频率与力度
一方面,可考虑发布涉及AI证券投资欺诈的警示教育案例,提醒广大中小投资者在投资AI概念股票或使用AI投资顾问时增强风险意识,做好尽职调查。另一方面,加强对金融机构的监管,敦促其在借助AI开展披露、注册及投资营销等业务时,严格遵守现有法律法规,例如,SEC已针对虚假陈述的AI和实体进行多项执法活动,为这一监管方向提供了实践参考。
(二)开展国际监管合作,应对跨境监管挑战
一方面,可考虑派员参加IOSCO等国际证监会组织开展的相关人工智能监管课程,同时通过论坛等形式加强交流,以增进对国际监管动态的了解。另一方面,开展AI在金融领域监管国际经验的研究工作,对成熟市场的经验进行扬弃式借鉴。例如新加坡金融管理局2023年启动的关于AI在金融服务领域应用的“MindForge项目”、英国行为监管局AI实验室开展情况等。
(三)完善监管框架,制定准入标准并探索适应我国实际的监管模式
一方面,要探索人工智能模型准入标准和风险等级,设置合理的备案机制,提高准入门槛,从源头防范风险。另一方面,由于人工智能对舆情管理、风控制度及模型采购等多领域带来了新的挑战,在监管过程中,交易端与监管端应加强跨机构合作。同时,在对我国资本市场领域人工智能应用现状进行充分调研的基础上,加强对AI应用场景、管理方式及供应商等方面监管引导。