当前位置:文档之家› 量子计算在智能金融发展中的应用前景分析

量子计算在智能金融发展中的应用前景分析

摘要:智能金融发展迅速。

大数据是支持人工智能发展的基础,但随着全球数据体量的爆炸式增长,以及摩尔定律趋于失效,经典计算资源的算力瓶颈问题逐渐显露。

而量子计算具有远超经典计算资源的计算能力,能够提升金融服务的智能化水平和响应速度,缩小计算设备的体积,节省能耗,在金融业的应用前景可期,但也任重道远。

基于此,本文提出如下建议:一是持续跟踪和支持量子计算技术的发展;二是推动建立量子人工智能商业化研究机制;三是参与量子人工智能技术的研究和攻关。

关键词:量子计算;智能金融;人工智能;机器学习;金融业当前,我国经济发展已进入新旧动能转换的攻坚期。

金融业的基础框架和生态体系也正经历着全面深刻的变革,人工智能技术成为金融业经营模式转型的重要工具。

2017年,国务院颁布《新一代人工智能发展规划》,明确提出要加快推进金融业智能化升级,建立金融大数据系统,创新智能金融产品服务,鼓励智能客服、智能风控等技术的广泛应用。

然而,和其他新生事物一样,金融业的智能化发展不可能一帆风顺。

数据体量增长、研发能力不足、技术风险增加、监管制度滞后等因素,都是我国金融业智能化发展必须面对的困难和挑战。

其中,计算能力不足将成为最难克服的障碍之一。

数据的爆炸式增长提升了对计算资源的要求,而摩尔定律趋于失效又使得经典计算的算力难以突破,计算资源成为大数据应用的瓶颈。

近年来,全球量子信息技术发展迅速,量子计算成为各国竞争的热点领域,并逐步被推向市场,一场“量子霸权”之争呼之欲出。

量子计算具有强大的计算能力,能够突破经典计算的极限,在包括金融业在内的许多领域,均具有广泛的应用前景。

本文将就量子计算在智能金融发展中的价值、需要克服的困难,以及如何推进量子计算在金融业的应用展开探讨。

一、智能金融发展的现状、趋势与技术机制尽管人工智能概念已提出半个多世纪,但其真正蓬勃发展是在2011年以后。

随着大数据、云计算和互联网等信息技术的发展,泛在感知数据和GPU 等推动以深度神经网络为代表的人工智能技术快速发展,让人工智能得以广泛投入各类应用中。

人工智能根据可应用性分为专用人工智能和通用人工智能。

前者是专门在某个特定领域应用的人工智能技术,后者则是能够胜任各种任务的人工智能技术。

从近期看,人工智能发展进程主要集中于专用智能领域,在金融业的应用,也是在特定板块代替人力向客户提供个性化和专业化的金融服务。

(一)智能金融的应用现状及趋势金融业的客群庞大,储备着大量真实有效的数据,从而为智能金融的发展打下了可靠基础。

目前,人工智能在金融领域比较典型且相对较为成熟的应用主要包括生物识别、智能客服、智能营销、智能信贷等。

除此之外,人工智能在金融监管、风险防控、反欺诈、反洗钱、量化交易、信用评级、智能投顾等领域,也取得了实质性突破。

人工智能正在加速覆盖金融应用领域,并逐步替代人工,向客户提供高速、高质的个性化服务。

金融数据服务商Kensho开发的智能程序,仅用1分钟就能完成分析师40小时才能完成的工作。

其创始人哈佛大学博士Nadler预测,到2026年金融业中33%~50%的工作都将被电脑取代。

事实上,无论是专家,还是权威机构都看好智能金融的发展前景。

美国人工智能学会主席Ben Goertzel在“2016全球创新者大会”上预测,到2025年通用人工智能将达到人类的智力水平,并可能介入全球大部分金融交易。

全球知名的管理咨询公司A.T.Kearney预测,2020年智能投顾行业的资产规模将达到2.2万亿美元。

智能金融的发展无疑得益于金融科技的技术突破,而宏观政策的支持则加速了智能化应用的进程。

在当前人工智能快速发展的趋势下,世界主要国家纷纷进行战略布局。

2016年10月,美国白宫发布《国家人工智能研究与发展战略计划》,提出人工智能的七大战略:基础研究战略、人机交互战略、社会学战略、安全战略、数据和环境战略、标准战略、人力战略。

2017年3月,日本AI技术战略委员会在《人工智能技术战略》的报告中公布了政府制定的“工程表”,即以2020年和2030年为时间节点,分三阶段实现不同领域效率的大幅提高。

2017年10月,英国政府发布《在英国发展人工智能》的报告,分析人工智能的发展现状,并提出从数据获取、人才培养、研究转化、行业发展四方面推动英国人工智能产业发展。

2018年4月,欧盟发布名为《欧盟人工智能》的政策报告,提出从财政支出、教育培训、道德法律三个方面为人工智能的发展提供支持。

我国的人工智能发展水平也处于国际前列,并制定了相应的发展规划。

2016年8月,国务院发布《“十三五”国家科技创新规划》,明确人工智能为新一代信息技术的主要发展方向。

2017年7月,国务院发布《新一代人工智能发展规划》,提出将分别在2020年、2025年和2030年实现人工智能核心产业规模超过1500亿元、4000亿元和10000亿元,并为人工智能在金融业的应用提出了明确的发展方向。

(二)智能金融的技术机制智能金融的广泛应用得益于人工智能技术的快速发展,而具体到技术机制来说,人工智能的发展又离不开算法、数据和硬件算力的支持。

1.算法人工智能的发展首先要具备优秀的算法,例如,当前流行的深度学习算法,正是近年来人工智能取得重大突破的主要原因之一。

深度学习机制主要受人脑生理结构的启发,其实质就是利用统计学方法来模拟人脑神经元网络的工作方式,通过增加神经元网络层次数,提升算法模型的学习能力和性能表现,以缓解传统神经网络算法在训练多层神经网络时出现的局部最优问题。

深度学习算法加速推进了人工智能商用进程,基于深度学习算法的应用效果在某些领域已经达到,甚至超过人类(例如,人脸识别)。

2.数据正如人类获得认知和学习能力主要通过实践和信息积累一样,机器的学习主要以数据为原料,只有通过对数据的深度加工和处理才能产生智能。

数据驱动了理论、方法和技术创新。

以海量数据为原料,深度学习等算法开辟了知识发现的新路径。

互联网的蓬勃发展使得数据体量快速增加,可用数据比例不断提升,为人工智能的训练学习奠定了物质基础,并驱动人工智能取得了质的突破。

这些数据构成了智能金融的原始物料,智能信贷、智能投顾、智能反欺诈等应用,无一不是这些数据深度加工、分析和总结的结果。

3.硬件算力有了数据和算法,还必须有充足的算力支持。

芯片技术的迭代更新,为人工智能发展提供了硬件支持,大幅降低了深度学习所需的时间和成本。

二十年前,一台机器人仅有32个CPU,仅能达到120MHz的速度,无法满足人工智能的需求;而现在,人工智能系统则由数以千计的GPU和新架构的AI芯片来提升算力,使得机器学习能力大幅增强。

人工智能由此才得以实现真正的高速发展。

金融业的信息密集型特征,使得人工智能模型算法更加复杂,数据训练的工作量也更大。

目前,计算机硬件处理能力虽有大幅进步,但相对金融业中复杂的人工智能应用,仍有待提升。

(三)智能金融的未来将面临算力瓶颈一方面,智能金融所依赖的物质基础即大数据的规模正在快速增长。

近几年,全球数据量增长率正以接近24%的速度飞快增长。

根据国际数据公司(IDC)的数字宇宙报告,全球数据中有90%产生于近年;预计到2020年,全球数据总和将达到44ZB(人均数据达5247GB),而中国将产生全球21%的数据。

而在这些数据中,约三分之一数据具有大数据价值。

依托经典计算方式实现如此庞大的数据处理,人工智能的训练学习将因数据量超出了内存和处理器的承载上限而变得十分漫长,甚至无法实现。

因此,大数据的爆炸式增长,势必会给智能金融的升级带来巨大阻力。

另一方面,摩尔定律趋于失效引发经典计算的能力达到瓶颈。

过去半个世纪,计算机科学一直遵守着摩尔定律,即每18到24个月,集成电路上可容纳的元器件数目提升一倍,性能也增加一倍。

然而,近年来摩尔定律逐渐走向崩溃,因为芯片上线条宽度逼近纳米级,晶体管只能容纳几个分子,由此会带来不可忽视的电子在不同线路之间的隧穿,使经典电子线路模型变得不再可靠。

摩尔定律失效后,只能靠增加计算集群中的芯片数量提升经典计算的算力。

单机多核并行、多服务器方案等,都是应对摩尔定律失效的可靠途径;但这相应地需要庞大的硬件机柜和配套的硬件机房,能耗和散热问题都将成为限制因素。

以人工智能为代表的科技革命给半导体产业带来了难以承受的压力,人工智能硬件系统在技术上的局限性正日益凸显。

近年来,量子计算成为炙手可热的技术热点。

下文将就其所具有的强大并行计算能力能否解决智能金融的算力瓶颈问题,加以详细阐述。

二、量子计算的概念原理、发展现状与前景(一)量子计算的概念和原理量子计算(QuantumComputation)就是将量子力学和计算问题结合,利用量子力学规律(量子态的叠加性和纠缠特性)调控量子信息处理单元进行计算的新型计算模式。

这一概念由Feynman 于1982年首先提出。

信息处理单元是一切计算的基础。

在经典存储模式下,一个比特(Bit)只能处于0或1其中一个逻辑态,并通过晶体管的开通与关断来表示所处的状态;但在量子存储中,量子比特(Qubit)可以处于0和1的叠加态,0和1只是众多状态中特殊的两种。

也就是说,一个经典存储器只能存0或1其中的一个数,而量子存储器却能同时存储0和1两个数。

同理,两个经典存储器只能存00、01、10、11四个数中的一个,而量子存储器却能同时存储这四个数。

依此类推,存储器的数量为n时,经典存储器仍然只能承载0和1的2n种组合中的一种,量子存储器却能同时承载2n个叠加状态。

由此可见,量子存储器的存储能力呈指数增长,因此当n足够大时,量子存储器的数据存储能力将变得十分强大。

在计算机科学中,计算的过程就是存储信息变换的过程。

量子计算与经典计算的不同之处就在于,经典计算中对n个存储器操作一次只能变换一个数据,而量子计算中对n个存储器操作一次则可变换n个数据。

这也就意味着,当存储器数量一定时,量子计算机的数据处理能力是经典计算机的2n倍。

这意味着量子计算具有强大的并行计算能力。

(二)量子计算的国内外发展现状量子计算的概念被提出以来,量子计算技术一直是信息科学领域具有革命性和挑战性的研究热点,并在20世纪90年代产生了因素分解算法(Shor算法)、量子搜索算法(Grover算法)等有效的量子算法。

这些理论算法的提出,丰富了量子计算的发展基础。

进入21世纪后,量子计算的实用化发展进程得到加速推进。

同专用人工智能和通用人工智能类似,量子计算机也分为专用量子计算机和通用量子计算机。

目前,通用量子计算发展缓慢,而专用量子计算已经被用来解决实际问题。

从国内外发展进程看,欧美国家凭借其基础学科的发展优势,在量子计算技术方面的研究进展领先于我国。

1.国外发展现状过去几年,欧美等国家的量子计算实用化研究进展迅速。

从研究投入来看,包括Microsoft,Google,IBM,Intel等互联网巨头纷纷拓展合作,成立专门的研究机构或斥资研发量子计算硬件设备。

相关主题