| 2018 AI趋势:AI芯片更丰富,用机器学习的企业翻倍-北京精科智创科技发展有限公司
德勤报告 | 2018 AI趋势:AI芯片更丰富,用机器学习的企业翻倍
2018 AI趋势:AI芯片更丰富,用机器学习的企业翻倍
这是一个急速变化但又有很强发展衔接性的时代。
德勤在报告Technology, Media and ecommunications Predictions(科技、传媒和通讯的预测)开头这样说。
这份报告中,德勤预测了增强现实(AR)、智能手机、AI芯片、机器学习、互联网、数字传媒等领域在2018年的大趋势。总体来讲,科技、传媒和通讯领域内将呈现指数级进步,生活中的方方面面也将发生不易察觉的变化。
这份报告长达80页,我们将其中与人工智能相关的两部分编译整理如下。在2017年的尾巴,我们提前去2018年预览一下。
强大的运算力对训练和推理神经网络来说*。
2009年,*块GPU问世,这种专门为密集型计算、高度并行计算设计的芯片,比CPU更能满足机器学习任务的要求。自此,越来越多的类型开始丰富“AI芯片”这个新名词。
德勤预测,2018年,GPU和CPU仍是机器学习领域的主流芯片。
GPU的市场需求量大概在50万块左右,在机器学习任务中对FPGA的需求超过20万块,而ASIC芯片的需求量在10万块左右。
△ GPU、FPGA和ASIC芯片需求与2016年对比图
在年底,超过25%的数据中心中用来加速机器学习的芯片将为FPGA和ASIC芯片。
△ FPGA和ASIC芯片的*超过25%
那么,每种类型的芯片到底向什么方向发展,德勤给出了详细的预测:
机器学习优化的GPU:在2018年,GPU制造者将推出专门优化机器学习任务的特别版GPU。其实现在已经能看到这样的案例,英伟达称自己的Volta架构将使深度学习训练加速12倍,在深度学习推理任务上比Pascal架构还要快6倍。
机器学习优化的CPU:在GPU市场蒸蒸日上的同时,我们也可以看到CPU公司推出机器学习的CPU芯片。比如英特尔Knights Mill芯片,比非机器学习优化芯片的性能提升了4倍。
机器学习优化的FPGA:在2016年,FPGA芯片的销售额已经超过40亿美元。在2017年年初报告《Can FPGAs Beat GPUs in Accelerating Next-Generation Deep Neural Networks?》中,研究人员表示在某些情况下,FPGA的速度和运算力可能比GPU还要强。
目前,微软、亚马逊AWS和百度也称将FPGA用于机器学习的相关任务中。总体来说,2018年机器学习任务对FPGA的需求超过了20万。
机器学习优化的ASIC芯片:ASIC是只执行单一任务的芯片,目前ASIC芯片的制造厂商很多。在2017年,整个产业的总收益大约在150亿美元左右。
综合各芯片厂商放出的消息,英特尔的收购的Nervana,能在2018年生产出自己的芯片。此外,日本富士通也计划在2018年推出一款名为深度学习单元(DLU)的芯片。
TPU:TPU是谷歌为适应机器学习任务推出的ASIC芯片,适用于处理在开源的TensorFlow中的任务。在谷歌数据中心的推理任务中,TPU已经显示出良好的性能,和CPU相比,性能可以提升10到50倍。据谷歌预测的数据显示,2018年对TPU的需求大约在10万块左右。
低能耗机器学习加速芯片:德勤预测,在2018年,手机、平板和其他移动设备对机器学习芯片的需求量在5亿左右。移动端芯片的zui大特点就是低能耗,GPU芯片的功率大致在250瓦左右,相比之下TPU芯片需要的功率仅为75瓦。对传感器网络来说,所需功率需要低于10毫瓦。
德勤预测,可能再过两三年,低功率的机器学习芯片才能有突破性进展。
光流芯片:除了上面几种,还有一种特殊的芯片类型,IBM的True North芯片就是一种光流芯片,它能加速机器学习任务,并且非常。不过德勤表示,现在还很难预测这种光流芯片在2018年的体量,但整体来说可能低于10万块,甚至低于1万块。
△ 翻倍再翻倍
在报告中,德勤重点提出了让机器学习更广泛应用企业中的5个重要推动力,分别为数据科学的自动化、训练数据需求的减少、训练速度的加快、解释结果和本地部署等。
1. 数据科学自动化:像数据开发和特征工程这种耗时的机器学习任务,可能会占用数据科学家80%的时间。好消息是,这种繁琐的工作正在逐步被自动化取代。从耗时的工作解放出来后,数据科学家执行机器学习试验的时间从几个月缩短到了几天。自动化在一定程度上缓解了数据科学家的短缺,为企业赋予和更多活力。
2. 减少训练数据的需求:训练一个机器学习模型可能需要数以百万计的数据元素,为训练数据获取标记数据也是一件耗时且成本高的事情。目前,已经涌现出致力于减少机器学习需要的训练数据的技术,包括数据合成、算法生成的模拟真实数据特征等。
3. 加速训练:正如上面所说,像GPU、FPGA等机器学习专有硬件的出现可以缩短机器学习模型的训练时间,加速研究进展。
4. 解释结果:虽然机器学习的进展日新月异,但机器学习模型通常存在关键缺陷,比如黑箱,意味着我们无法解释其中的原理。这些不清楚让模型无法适应更多的应用。如果黑箱消失、结果都可解释,是机器学习应用的一大进步。
5. 本地部署:机器学习将随着部署能力一同成长。德勤去年曾经预测,机器学习正在走进移动设备和智能传感器,带来智能家庭、智慧城市、无人驾驶、可穿戴技术和物联网技术。
像谷歌、微软、Facebook等科技*正在尝试将机器学习模型压缩到便携设备上,比如谷歌的TensorFlow Lite、Facebook的Caffe2Go和苹果的Core ML。