大家知道,云计算解决了算力需求与硬件成本之间的矛盾,边缘计算,让人们能轻松实现各类数字化应用。
随着运用普及,云计算也会面临新问题。试想一下,如果大家都在玩一个很火的-,而它的服务器只部署在a城市这一个中心数据节点。那就会出现以下情况:一是距离较远的b城市的游戏的玩家玩起来--高,因为服务器离用户太远了,fpga边缘计算,传输时延随之增加。二是中心节点不堪重负,由于数据高度集中,访问流量都汇聚到a城市节点,带宽或者性能一旦跟不上,就容易出现拥塞。这些会导致云端响应慢,-高,-卡成了看幻灯片,这种用户体验谁也受不了。
为应对这些新挑战,边缘计算应运而生。人们对云计算的集中化结构进行了拆分,把需要快速响应的服务能力部署到网络边缘,也就是尽可能靠近用户的地方。这样既缩短了服务器到用户的距离,又通过分布式结构有效-了中心节点的压力。简单的说,把云计算延伸到网络边缘,在靠近用户的地方提供服务,就是边缘计算。
如果用快递来打个比方,或许你就能-理解“边缘计算”节点的概念。买家在网购下单后,到货速度当然越快越好,但如果从北京发货到重庆,再快也不可能当日达。于是,网购平台在重庆建了个“本地仓”,这样不仅重庆用户可以当天就收货,而且还节约了邮费。你把快递包裹-成数据,物流-成网络,新基建边缘计算设备,那么“本地仓”就是边缘计算节点。
从那时起,边缘计算能力一直在提高。
2017年,为了扩展低性能的计算设备,movidius神经计算棒以低于100美元的价格,fpga边缘计算,仅需0.5w的电量便能进行每秒一千亿次浮点计算。
2018年,华为推出了麒麟980处理器,在0.1w的电量下可以完成每秒五千亿次的浮点计算。其他供应商紧随其后。谷歌发布了edge tpu units,瑞芯微rockchip公布了rk3399。这两个约每秒能够处理3万亿次浮点计算,成本在100美元左右。
2019年,带有-技术硬件加速的器-是神经网络的特定微型计算机得到普遍使用。所有关键的硬件厂商都陆续发布了ai软件栈的边缘优化版本,这进一步提高了性能。目前,一般使用的ai板有,谷歌的edge tpu——使用专门的asic芯片制作而成用以处理ai的预测推理功能。价格低于100美元的英伟达jetson nano 配备了128个英伟达cuda。瑞芯微发布的 rk3399 pro——带有神经网络处理器的开发板其性能甚至略优于英伟达jetson nano。
物联网技术的大幅提高让我们得以发展nbox——这款边缘计算设备不仅能够借助多达12个通道记录高音频,并且还可以通过边缘计算实现-。所谓边缘计算,是指大多数处理过程将通过本地设备实现而无需交由云端完成。
边缘计算中的边缘指的是网络边缘上的计算和存储资源,这里的网络边缘与数据中心相对,无论是从地理距离还是网络距离上来看都更贴近用户。边缘计算则是利用这些资源在网络边缘为用户提供服务的技术,使应用可以在数据源附近处理数据。如果从仿生的角度来理解边缘计算,我们可以做这样的类比:云计算相当于人的大脑,边缘计算相当于人的神经末端。当到手时总是下意识的收手,然后大脑才会意识到到了手,因为将手收回的过程是由神经末端直接处理的非条件反射。这种非条件反射加快人的反应速度,避免受到的伤害,同时让大脑-于处理智慧。未来是万物联网的时代,思科预计 2020 年将有 500 亿的设备接入互联网,我们不可能让云计算成为每个设备的“大脑”,而边缘计算就是让设备拥有自己的“大脑”。
|