英特尔AI这张网

英特尔人工智能在2019年到底赚了多少钱?

文︱亚亚君

图︱英特尔

“35亿美元”意味着什么?

折合人民币约为250吨;相当于AMD 2018全年营收一半多点;超越一般AI独角兽的估值,更别谈人工智能公司的营收了,著名AI公司DeepMind去年还亏了5亿美元。

而35亿美元是英特尔预估的在2019年AI领域的收入。

当竞争对手发布芯片,企图在CPU老大哥面前秀一波肌肉,并将舆论短暂性点爆时。突然发现事情没那么简单,AI奇袭,世界突然一下就变了。连英特尔在2019年一整年里,都时不时会提到以数据中心的转型。这到底转的哪门子型?

英特尔2019年AI新品总览

今年一月份,英特尔宣布推出Nervana神经网络推理处理器(NNP-I)。那时中国大地还处于等待春节的气氛中,2018年一肚子人工智能“墨水”准备着与长辈们唠嗑,毕竟举手投足都是上亿的估值与项目,眼神里透着微醺的骄傲。

据官方介绍,NNP-I是全新构建的,具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。“能够实现大规模无缝云原生推理,在现有的数据中心基础架构上面即插即用。” 英特尔人工智能事业部副总裁兼人工智能平台和市场研究总经理Julie Choi在前几天举行的“2019英特尔实践AI媒体分享会”一句话总结了它的作用。

Facebook已经行动大于心动,并在先进深度学习编译器Glow的支持扩展到NNP-I。

随后三月份,英特尔与Bluefors和Afore合作推出量子低温探测仪Cryogenic Wafer Prober。旨在加快量子计算解决方案的研究。英特尔发现需要借助量子测试工具来收集更多关于量子芯片的数据。

这一量子项目的推出,比“量子波动速读”火爆的时间点足足早了7个月。不过,这里无法统计“量子波动速读”机构到底摸了多少钱,所以无法与英特尔量子技术进行金钱的正面衡量。

英特尔中国研究院院长宋继强博士在媒体采访中提到量子称:“包括量子计算,目前学术界和产业界还是把它用在服务器,就是云计算里面作为现在已经有的高性能计算的处理器,它会是更高计算能力的处理器。”而英特尔中国战略合作与创新业务部董事总经理李德胜把量子称作登月飞船,即便有了飞船,飞机、高铁、自行车还是必不可少,这里飞机高铁自行车类似是英特尔的CPU产品。当然笔者只想说,有了量子芯片,还要什么自行车?

英特尔中国研究院院长宋继强博士

4月,英特尔发布第二代至强可扩展处理器,集成了加速人工智能深度学习推理的英特尔深度学习加速(DL Boost)技术。并在8月宣布下一代的至强可扩展处理器系列(代号Cooper Lake)将提供每插槽最多56颗处理器核心,并在标准的插槽式CPU内提供内置的人工智能训练加速。其中,通过在英特尔 DL Boost中增加对bfloat16的支持,Cooper Lake将是第一款提供内置高性能人工智能训练加速功能的x86处理器。Cooper Lake将在2020年上半年上市。

Julie Choi表示,搭配英特尔软件使用,效果更佳。一个关于Photoshop的例子,曾经修图可能需要几小时,加入至强CPU,“任何一部PC都可以变成有AI能的PC,一键修图。”

7月,英特尔推出代号为“Pohoiki Beach”的800万神经元神经拟态系统,以此支持全球生态系统合作伙伴继续开拓神经启发式算法研究的下一个前沿。资料显示,这套系统包含64块Loihi研究芯片。

宋继强博士解释道:“Loihi是一个神经拟态计算芯片,它区别于原来的通用计算和像现在的深度学习、脑启发计算,它充分利用了人脑比较低功耗的工作方式,脉冲神经网络的方式,它更形象的把模拟神经元的计算硬件连接起来,形成异步的电路,通过脉冲的方式激活,只有用到的部分耗电,不用的部分休息。”并且Loihi芯片是英特尔2017年提出的。

11月,英特尔展示了面向训练(NNP-T1000)和面向推理(NNP-I1000)的Nervana 神经网络处理器(NNP)。

Julie Choi展示英特尔Nervana神经网络训练处理器NNP-T

这里的NNP-T和前面提到的NNP-I像是一对孪生兄弟,Julie Choi表示,NNP-T针对深度学习训练开发,在计算、通信和内存之间取得了平衡,最终的目的是赋能分布式训练。此外,百度AI系统架构师丁瑞全分享了双方在英特尔NNP-T和百度X-Man的合作,优化PaddlePaddle(飞桨)提升日益复杂的模型训练效率。

刚过去不久的美国时间11 月 12 日举行的2019 英特尔人工智能峰会期间(Intel AI Summit 2019)上,英特尔推出代号为Keem Bay的下一代Movidius VPU,可用于边缘媒体、计算机视觉和推理应用,并计划于明年上半年上市。性能方面,与上一代VPU相比,Keem Bay的推理性能提升了10倍以上。用直观对比数据来看, Keem Bay是英伟达TX2的4倍,比Ascend 310快25%。在功耗方面,Keem Bay提供的每瓦推理性能是英伟达的TX2的6倍。英特尔还发布了全新的英特尔DevCloud for the Edge,旨在解决开发人员的主要痛点。

Julie Choi展示代号为Keem Bay的下一代Movidius VPU

当月,英特尔还公布了一款基于Xe架构的通用GPU,专门针对高性能计算和人工智能加速进行优化,研发代号为“Ponte Vecchio”。专为高性能计算建模、模拟工作负载以及人工智能训练而设计。

一个月内,英特尔还发布了一项全新软件行业计划oneAPI,释放高性能计算与人工智能技术融合时代多架构计算的潜力,同时发布了一个oneAPI beta产品。简单来说,英特尔oneAPI行业计划,为跨多种包括CPU、GPU、FPGA和其他加速器在内的异构计算,提供了一个统一和简化的应用程序开发编程模型。

这时候就有底气说,“在英特尔,我们所看到,随着AI继续成为所有体验的一部分,我们正在建立AI的能力,把它内置到我们所有英特尔的产品当中,我们许多的硬件和软件产品都有内置的AI能力,从CPU到GPU,再到FPGA,再到客户定制的ASIC,把AI融入到一切。”

Julie Choi一句话把英特尔产品线串了起来,对于这些产品,发言人如数家珍。但在AI这场遭遇战中,产品虽是基石,但不是全部。

生态与人才

关于生态,英特尔有什么?

“一万五千名软件工程师做优化和赋能工作;超过两千万X86架构的开发者,以及多年来的硬件技术积累。”从英特尔亚洲人工智能销售技术总监伊红卫的发言中,笔者简单总结了英特尔优势,生态与人才相辅相成。

英特尔亚洲人工智能销售技术总监伊红卫

李德胜称AI生态建设是一个系统的工程,并从三方面解读了英特尔所做的工作:“第一就是人才,我们现在看到500万人才缺口,且会越来越多。AI与传统产业的复合人才培养周期将会更长,所以英特尔会打造实训平台,给学生或者传统行业进行培训。

英特尔中国战略合作与创新业务部董事总经理李德胜

第二就是创新广度,AI无处不在,需要跟产业融合。我们要利用生态来挖掘更多创新项目出来。今年英特尔强调的AI百佳创新项目,虽表面上是100个项目,但实际可能带动上千个项目。

第三就是深度,比如单纯医疗行业,就会有许多方面涉及AI,只有深入才能达到最终所要的目的。”

然而产业人才与研究人才又有些许差别,宋继强表示:“英特尔研究院已经部署非常多工业研究员,希望所做的东西能在三五年应用到产品领域。科研人才需要突破原有的框框,通过时间把知识转化为新的技术。”

对于企业来说,科研人才就像奢侈品。短期内不能直接带来真金白银,但我们在做未来布局时,万万不能少的。而产业型人才,能够直接带来收入,持续给科研人才供血。宋继强表示,相较而言,英特尔对产业人才需要更大,如果不能产生商业价值,新技术就会脱节,就不能产生正循环。

那么AI的正循环则更需要全产业链的协同,从人才培养到技术落地,应用之间更需要开放协同。这也不难理解为什么英特尔如此强调生态协同,与合作伙伴的密切配合。背后是超越“35亿美元”的存在,正如李德胜所说::“生态合作伙伴通过与英特尔的合作,一起在行业内取得的收入将要乘以10甚至100,也就是350亿美金、3500亿美金,我们可以看见这个市场巨大的潜力。”





你可能会喜欢

发表评论

电子邮件地址不会被公开。 必填项已用*标注