让芯片变得智能,到底有多难?

我有一个梦想,“让芯片通过学习的过程而使得算法和软件自动演进,如此一来,所需功能的芯片自动就有了。”

 

与此相反的一个状况是,“当芯片设计人员用6个月来思考定义,头脑风暴许久只为与别人做出不一样的芯片。再到市场阶段早已过去两三年,突然发现做出的芯片没有市场。”

 

以上构想和惨况不是我凭空想来,是在前几日在Cadence 2019年度CDNLive大会上,清华大学教授魏少军博士在做主题为“软件定义芯片”演讲时所说。后者更接近现状,而前者却成了芯片从业人员或者科研人员的梦想。

 

遥不可及吗?不见得。

 

今年的CDNLive将目光瞄上了智能二字,主题设为“智能系统设计” (Intelligent System Design),主论坛的演讲嘉宾分别是Cadence公司总裁Anirudh Devgan、清华大学教授魏少军,以及人工智能独角兽依图科技创始人、CEO朱珑出席了大会,阵容上囊括了产业与学术界。

 

三位大咖的演讲横穿智慧芯片的过去现在和未来,让笔者顿觉,在芯片的最前方似乎有一座乌托邦,不用“扬鞭”,便能“自奋蹄”。这到底是怎样的愿景?背后又藏着怎样的生意?

 

 

为什么要智能芯片?

“机器学习/深度学习、自动化、更卓越的设计能力、5G和边缘计算等概念的推动下,使得汽车、工业、医疗等各行业都在经历空前的数字化转型,并促进了针对其特定应用需求而优化的定制系统和SoC的开发。” Anirudh Devgan这句话从当下现状来剖析智慧化势不可挡:“我们已进入智能系统设计时代。”

Cadence公司总裁Anirudh Devgan

 

魏少军教授和朱珑同时认为这是一场“算法、数据、算力(芯片)”大爆炸的结果,魏少军表示,自上世纪80年代人工智能诞生的惊喜开始,不仅成就了David hunter的诺贝尔奖荣誉,也为人们打开了另一个智能世界。

清华大学教授魏少军

 

“神经元比作节点、突触比作连接线,组成一个人工神经网络。神经元通过突触进行通信,而突触的权重决定是否能够通信。如此一来,任何神经元就是一堆数据,加权重,再到下一级。这是一种全新的计算方式”,魏少军如此形容如今大伙的神经网络,也表达了背后关于数据量的变化:“处理人工神经网络需要的数据量是惊人的,VGG19模型就达到196亿每秒浮点运算次数。(如下图右侧柱状图)”

图源现场拍摄(魏少军演讲PPT)

 

朱珑表示:“信息时代在过去30年里,算法、算力、数据都提升百万倍。但在智能时代仅仅过去5年里,在算法上提升百万倍、算力提升十万倍、数据提升万倍。”这里的分界点是阿法狗出来那一刻,如今那个机器,在算法上又提升了一百万倍。

依图科技创始人、CEO朱珑

 

同时这也是一个算法不断迭代演进的年代。魏少军认为,“算法每6个月或者3个月就要变一次,一个算法对应一个应用,没有通用的算法对我们硬件(芯片)来说是灾难性的。”

 

要应对这场“灾难”,显然需要本文开头构想的场景——“让芯片通过学习的过程而使得算法和软件自动演进”。

 

到底有多难和怎么做?

“计算量足够大,能量效率还要足够高,这之间很难平衡。从现在以T为单位的计算量来看,几乎是要在单芯片上实现超算,本来我们想象在5nm/10nm才有所需求,人工神经网让芯片早就达到了超算能力。”魏少军如此说道,他眼中的智慧芯片需要具备至少以下8个特点。

 

1,可编程性,适应算法不断变化;

2,改变架构,来适应算法 获得最佳计算效率;

3,非常好的架构变换能力;

4,很高的计算效率,用指令肯定不行;

5,很高的能量效率;

6,低成本;

7,体积小;

8,简单,开发应用要简单。只需软件工程师会编程即可。

 

随后魏少军补充道:“如今的CPU、CPU+GPU、CPU+FPGA、CPU+ASIC统统不是理想的架构。”

 

至此,魏少军认为“软件定义芯片”才是最佳做法。其概念是就是将分块软件/程序不断送到数据通道,使芯片能实时地根据软件或产品的需求改变功能,实现更加灵活的芯片设计。在去年美国国防部先进计划署(DARPA)推动的电子产业振兴计划(ERI),其中一个课题就是软件定义硬件的概念。

 

当然,当下软件定义芯片架构并没有逃开冯·诺依曼架构,可以看出该架构在计算完备性上是有理论基础的。

 

魏少军提出了“AI芯片设计路线图”,(如下)AI芯片0.5代表最早的如英特尔CPU、英伟达GPU一类芯片,用传统芯片实现人工智能。

图源现场拍摄:图横轴表示算法,纵轴表示架构

 

1.0时代则包括TPU等,追求性能同时追求低功耗。1.5时代则包括DPU Thinker等,不仅要可重构,还要追求能量效率和灵活性。2.0时代,则包括了前面所有有点。魏少军认为AI芯片2.0才是真正的智慧,但还没有出现。

 

不同于魏少军所表达的宏观概念,Anirudh Devgan和朱珑聚焦在了市场上,前者关注EDA智能系统设计,后者关注视觉方面的AI芯片。

 

Cadence公司副总裁,中国及东南亚地区总经理徐昀女士表示,2019年是公司特殊的一年,正式踏入了系统设计、系统分析领域,旨在帮助用户在日常开发中实现更多智能化。

 

这里的智能系统设计策略就是Anirudh Devgan所说的:“以技术(计算)软件为核心能力,包括引用AI和算法优化设计工具、扩展到新系统领域、以及执行核心EDA和IP。”

此外,为了优化设计方案,Cadence 提出了 Machine Learning 与 EDA 相互融合的理念,并在中国IC设计市场带来了全新的思路,如下:

(1)ML Inside:通过最新的机器学习引擎,改善数字设计工具,带来更好的PPA。通过对过往的大数据分析和决策,来加速未来的智能版图设计。

(2)ML Outside:自动化的设计流程,提升整个设计的生产效率。

(3)ML Enablement:软件和硬件的协同设计,以及 Cadence 独有的 Tensilica 处理器 IP,应用机器学习为系统级的优化带来提升。

 

AI芯片公司的突破口

本来前面部分已经可以结束“智慧芯片”这一话题,但依图CEO朱珑的演讲像是一针鸡血扎入我大动脉。鸡血之下其实也阐述了关于国内AI芯片的活法。

 

朱珑感叹做AI芯片实在太难了,做AI的人不懂芯片,做芯片的人不懂AI。总结三句话:“1,没有典型场景应用没有意义;2,没有超越NVIDIA的芯片没有意义;3,没有世界级的算法没有意义。”

 

本来AI芯片的企业活着就不容易,还要和世界顶尖芯片厂较劲?干不过就没有意义。按照朱珑的说法,还有几家芯片公司有意义?

 

超越的方法被朱珑浓缩为两个字——理念。

 

“如果能猜对重要的场景,并猜对重要的算法,来应对架构本身的不确定性。那就大有可为。” 依图的思路放在了视频视觉处理上,实现“用1个机柜支撑1万路摄像头的全解析,让能耗、成本和空间都获得大幅度的减低和压缩。” 在演讲中可以看出,朱珑所“猜”的场景是智慧城市。

 

如此一来,让笔者越发觉得芯片这行太难了,前方乌托邦式的“智慧芯片”,再加完美的应用场景,设计工具本身就要兼具智能系统。外加人才、资本、政策协助,才是一个完整的芯片升级之道。

 





发表评论

电子邮件地址不会被公开。 必填项已用*标注