系统正在维护中,有的功能可能无法正常使用,给您带来的不便敬请谅解!
首页 \ 资讯列表 \ 资讯详情

联发科:我们要做AI的普及者!

312 Feb 1, 2018 6:59:44 PM

相对于云端人工智能来说,在终端侧部署人工智能有四大优势:

1、可以降低延时,提升反馈的速度。如果人工智能计算完全放到云端的话,就需要设备把数据全部传输到云端,然后等待云端进行处理之后,再将信息传输回来,才能做出反馈。显然,这样可能会出现延时性。所以,人工智能的操作和运算最好是发生在离它最近的地方,这样可以实时的对数据进行处理,并做出反馈。这对于自动驾驶等对于延时要求较高的应用来说尤为重要。

2、有利于用户隐私的保护。很多用户不喜欢将数据传输到云端,因为这可能会有隐私泄露的风险,而且再数据传输的过程当中也有可能会出现泄露的风险。

3、可以降低对于网络连接的依赖。如果人工智能完全依赖于云端,那么在没有网络的情况下就无法使用,显然这将极大的影响用户体验。而在终端侧部署人工智能则能够在一定程度上摆脱网络的限制。另外,随着接入网络的智能终端数量越来越多,随时随刻都会产生大量数据,如果所有的数据都依赖在云端处理,这将会对于网络带宽提出非常高的要求。不但会增加用户对于网络带宽成本的支出,也会增加云端服务提供商对于网络带宽成本的支出。

4、有利于功耗的降低。首先,如果所有的数据都传输给云端来处理,无疑将极大增加云端计算的功耗。据联发科介绍,现在我们整个云端的功耗已经占整个地球的大概5%左右的电力。而且大量的数据从终端通过无线网络进行发送和传输也会提升终端的功耗。所以终端能够进行AI处理的话,将会把整个系统的功耗降下来。

正因为如此,此前联发科总经理陈冠州就曾表示,“现阶段(联发科)的AI的策略是瞄准边缘端”。联发科认为,鉴于数据,AI的技术需要经历学习和应用两个阶段。AI的学习体现在云端,应用是在边缘端;成熟AI的学习能够移植到边缘端,用户的体验才是最好的。

NeuroPilot人工智能平台详解

为了推动人工智能在边缘的部署,在今年的CES展会期间,联发科正式推出了NeuroPilot 人工智能平台。这个平台通过整合联发科的SoC当中的CPU、GPU、APU(AI处理器:Artificial intelligence Processing Unit)及软件(如NeuroPilot SDK),来形成一个完整的人工智能解决方案。也就是说,CPU、GPU、APU都会参与到人工智能运算当中。

联发科技CTO办公室协理林宗瑶表示:“通常来说,CPU主要是负责控制的功能,GPU负责运算功能,APU则是对整个AI运算做特殊的加速。事实上,CPU、GPU也能够做AI运算,只不过效率会比APU差,但是比APU更具弹性,APU没法做其他无关应用。而现在AI功能并不是所有都需要APU来加速计算,有些会放在CPU、GPU上来做(比如英特尔会在CPU当中加一些AI功能,Nvidia则是在GPU里加一些AI的功能 ),所以我们才做异构运算,不同的工作我们会根据它的特质,把它放到APU/CPU/GPU上面。比如,如果它是一个平行运算量很高的应用,而且它需要的是浮点性运算的话,我们就把它放 GPU 到上面来。如果它需要定点性运算,而且需要长时间运算,功耗比较低,所以需要有效率的运算的话,我们放到APU。如果它是一个很多控制的运算,我们就把它放到CPU上。我们会根据它下一个指令与下下一个工作的分布,去看这个工作需要放到CPU、GPU还是APU,这个其实跟早期的我们CorePilot 有点类似。CorePilot做的是大小核,哪些工作放大核,哪些工作放小核,这些是透过类似像scheduler(调度程序)的概念。我们现在把 CorePilot的功能从大小核演变到它可以去和CPU、GPU、APU做异构运算。 联发科过去在大小核这边是领先的,所以我们会延续下去。”