阿里云不稳定 分享 新一代人工智能发展(2017)附下载(6)
1、从原有的CPU架构,转变为GPU并行运算架构深度学习算法运行于CPU架构的指令需求过于复杂。机器学习领域的泰斗杰弗里辛顿开启了深度学习在人工智能领域研究的浪潮,大数据技术带来的数据洪流满足了深度学习算法对于训练数据量的要求,但是算法的实现还需要更快更强大的处理器予以支撑。传统的主流CPU架构如X86、ARM等往往需要数百甚至上千条指令才能完成一个神经元的处理,对于并不需要太多的程序指令,却需要海量数据运算的深度学习的计算需求,并不能很好地匹配与适应。
GPU架构具备与深度学习相匹配的并行运算能力。GPU(图形处理器)最初是个人电脑、工作站、游戏机和一些移动设备上运行绘图运算工作的微处理器,可以快速处理图像上的每一个像素点,其海量数据并行运算的能力与深度学习需求非常符合。当前主流的CPU只有4核或者8核,可以模拟出12个处理线程来进行运算,但是普通级别的GPU就包含了成百上千个处理单元,高端的甚至更多,这对于多媒体计算中大量的重复处理过程有着天生的优势。吴恩达教授领导的谷歌大脑研究工作结果表明,12颗英伟达(Nvidia)公司的GPU可以提供相当于2000颗CPU的深度学习性能,为技术的发展带来了实质性飞跃,被广泛应用于全球各大主流深度学习开发机构与研究院所。
缺少数据支撑与运算力保证的算法驱动模式难以持续发展。人工智能发展以实现计算智能为重要研究方向,充分利用现代高性能计算机的快速计算和记忆存储能力,设计出神经计算、模糊计算和进化计算等求解算法,解决优化筛选、单点搜索、逻辑推理等实际应用问题。尽管深度学习概念和浅层学习算法已经被提出多年,但是一直进展缓慢,究其原因是缺乏海量的数据积累和与之相匹配的高水平计算能力,无法对算法模型进行持续的改进与优化,只停留在理论研究阶段,距离实际应用存在不小的差距。
sql server 2014中的内存数据库是一项可以极大的提升oltp性能的功能,通过测试可以看出oltp环境下使用内存数据引擎来说有几十倍的性能提升,微软同时还提供了内存优化顾问工具来使得迁移更加平滑。
利用互联网、物联网、云计算、大数据等新一代信息技术,建设支撑超大规模深度学习的新型计算集群,构建包括语音、图像、视频、地图等数据的海量训练资源库,加强智能设备基础资源和公共服务等创新平台建设。
(2)在数据的高可用性和存储的性能提升方面,可以分析不同应用程序的特点和时间顺序,将经常访问使用的数据存储在一级存储中,将大量访问频率不高的数据存储在二级存储中。
架构的设计、云计算与大数据基础平台及原生云应用开发方法等1.学习掌握微服务架构的概念与本质2.使用springboot/springcloud构建活动报名系统3.使用netflixoss构建微服务支撑组件(服务注册发现、集中化配置中心、api网关、容错处理)4.使用docker发布服务5.使用docker-compose在开发环境中运行多个服务6.学习掌握微服务的测试策略与pact测试7.学习掌握微服务的安全机制与oauth2.0实现8.学习掌握微服务间的异步通信机制9.学习了解微服务的监控与告警10.学习掌握微服务架构的日志聚合11.构建微服务的持续交付流水线。
专家系统本地化特性限制了人工智能发展步伐。以往的人工智能专家系统是基于本地化专业知识进行设计开发,以知识库和推理机为中心而展开,推理机设计内容由不同的专家系统应用环境决定,单独设定模型函数与运算机制,一般不具备通用性。同时,知识库是开发者收集录入的专家分析模型与案例的资源集合,只能够在单机系统环境下使用且无法连接网络,升级更新较为不便。