在线工博会

大数据来自哪里?如何迎接大数据的挑战
为节省流量,手机版未显示文章中的图片,请点击此处浏览网页版
移动计算、网络数据以及规模庞大的数据集在不久的将来会急剧增长。这些都是我们熟悉的发展趋势,但是这通常没有一定的参照。在这些趋势中,讨论的主题包括对数据中心硬件的影响,所有数据最终都要汇集到这里。
2014 年度国际固态电路大会 (ISSCC) 的全体大会上,大家对如何解决这些难题畅所欲言。在两个主题演讲中,MediaTek 主席兼 CEO Ming-Kai Tsai 以及思科网络部副总裁和 CTO Susie Wee 分别清楚的阐述了全世界生活方式的改变怎样导致数据量的爆发 — 移动设备的使用和会议。
CERN 仪器专家 Erik Heijne 从不同的角度介绍了 CERN 的大型强子对撞机 (LHC) — 用于证实是否存在希格斯场的最大的仪器。在这一过程中,Heijne 简要介绍了 LHC,以及定制混合信号 IC 开发,了解其规模惊人的大数据。
Tsai、Wee 和 Heijne 定量的介绍了这种挑战:来自无所不在的移动设备巨大的数据流;从以前相对较少,但是越来越多的远程监控系统;以及嵌入式系统庞大的数据集。一些数据流只是在网络上流过而已。有些会进行精细的分析:从监控图像流中找出绑架了儿童的汽车牌照,或者每月才出现一次的希格斯玻色子等。
对于这些挑战,需要大幅度提高网络和计算带宽。Wee从系统级,雅虎创始人斯坦福大学的Chair Mark Horowitz从芯片设计的角度,解释了会出现怎样的改变。在得到重要的答案之前,我们应该从简单的起点开始:智能电话。
移动海啸
很难说清楚移动数据量的增长规模 (参见图1)。这就是Tsai明确的信息。一个原因是,大部分增长来自我们不认为有大数据量的地方:发展中国家。在这些地方,虽然贫穷,增长难度大,但是有巨大的增长前景,有爆炸式增长的潜力。

(图片)

图1. 思科也是预测不久的将来移动数据流会呈指数增长的公司

Tsai 介绍说: “肯尼亚一直缺少银行。这个国家最近引入了移动设备上的无网点银行。目前,肯尼亚相当于40%国内生产总值的数据流是通过移动银行系统传送的。”
Tsai 继续为说明其观点提供了一些全球数据。他预测, “到 2030 年,会有 50 亿中产阶级。目前,地球上平均每个人有 10 台无线电设备。到那时,会有 100 台。”
不但用户数量在增长,而且每个用户的数据量也在增长。Tsai 说: “采用 LTE-A 移动设备,用户可以在两分钟内下载 50 gigabyte (GB) 的电影,只消耗了设备 3% 的电池能量。”
Wee 说,企业的数据流增长也是如此。思科 CTO 演讲的开始是一段视频剪辑,模拟了未来的一次视频会议。一面墙大小的 4K 超高清 (UHD) 显示屏给人的印象就像是对方的会议室,并且建立了一个共享的电子白板。多个用户通过双手手势进行交互。
视频剪辑演示后,Wee 介绍了一些硬件需求,包括容量巨大的触摸传感显示屏以及4 K UHD 视频采集和压缩。更具挑战的是,系统需要能够传送多个UHD视频流的网络链接,这些视频流要求有非常低的往返延时才能实现出席人员在同一块虚拟白板上自然的进行交互。目前的大部分企业网络恐怕都无法满足这类需求。
大数据来自哪里?
在Wee的描述中,园区里到处都是忙碌的工作人员,对延时要求非常高的视频流充满了他们的企业网络,而 CERN 的 Heijne 给出的例子则是一次科学实验的数据 “淹没” 了整个世界。这一实验是要寻找确认希格斯玻色子,实验所在地是瑞士日内瓦附近的 LHC。
Heijne 先描述了 LHC,埋在地下周长 27 公里的环形电磁场。前几代对撞机留下的加速器环将质子对注入到环中,质子对的每个质子穿过不同的方向。加速器环将质子加速到 7 TEV,使其对撞,释放出寿命非常短的粒子。

(图片)

图2. 清楚的显示了LHC CMS探测器规模的照片。照片版权属于CERN

在对撞点,就在巨大的圆柱体结构内,每一对质子对撞。含有金字塔状的固态粒子探测器 (参见 图2) 非常大,甚至可以开机车。这一巨大的结构包括了几个探测器同轴圆柱体,每一层能够探测粒子穿透结构层后产生的电子穴对。同轴层从内部开始包括了像素探测器、微带、热量计和介子管 (参见图3)。

(图片)

图3. LHC的CMS探测器原理图,显示了探测器同轴圆柱体,以及粒子穿过设备的踪迹。照片版权属于CERN

每个探测器芯片承载或者连接至提供数字信号的模数转换器 (ADC)。两个质子碰撞产生了大量的粒子,从而引发巨大的数据采样。
质子对以40 MHz的频率进入圆环面,每一次碰撞经过同步,采集来自探测器的大量数据。采样数据从ADC输入到预处理硬件模块中:ASIC 和 FPGA。这些芯片将数据保持 2-3 μs,进行分析,寻找是否有感兴趣的码型。如果没有,释放掉这些采样数据。如果有,保存这些采样数据。CERN积累这些保存的采样数据,将其转发给大学网络,以便进行深度分析。
这一过程每秒进行 4 千万次,每天 24 小时,每星期 7 天。Heijne 说,结果是每年产生 25 Petabyte 的数据。这些数据中含有能够证实存在希格斯场的粒子踪迹,或者颠覆整个标准模型的数据。
对此,我们应怎么办?
移动网络、企业远程监控、真正的大数据应用的数据规模都在显著增长,最明显的问题就是我们怎样传送并处理这些数据。ISSCC 全会发言人准备好了如何回答这些问题。
在传送问题上,Wee 介绍了一种新出现的网络。她建议, “未来是通用 CPU 上的软件定义网络。” 数据速率已经超出了 CPU 自己的处理能力范围,Wee 认为不应采用专用硬件,而是结合使用 CPU 和数据包处理加速器。她预测, “在我们的产品线上,会混合了基于 CPU 以及基于硬件的处理。”
Horowitz 认为,问题在于数据处理,或者找到能够处理数据的技术。他注意到,CMOS 一直在不断发展。Horowitz 说, “现在的 CPU 内核面积不到 3 mm2,功耗不到 1W,性能是 Cray-1 超级计算机的十倍。” 但是,他提醒说,规模的不断增长即将到头。
Horowitz 说, “到 2005 年,频率增长将止步于 3 GHz。1W/mm2 是我们功率密度的极限。电压的发展也慢慢停下来。所有现代工艺都工作在 1.0-0.9V 范围,只有 FinFET 工作在 0.8V。”
有很多讨论都是关于革命性的新器件,以突破这些限制。但是 Horowitz 并不乐观。他说, “只要玻尔兹曼统计规律有效,承载的电荷是 1,那就很难有所突破。好消息是我们已经开始重新研究 CMOS 了。我们可以开发速度非常快,非常可靠的逻辑门,每次运算达到 1 千亿分之一焦耳。我们现在的工作是降低每次运行的系统功耗,同时保持足够的性能。”
Horowitz 注意到,整个行业加速向多处理发展,以达成这一目标。原理上,如果您将任务分配给 N 个处理器,把系统时钟频率减小不到 N 倍,那么,就能够降低电压,整体上降低功耗。但是很快,降低时钟不再能够降低每次运算的功耗:达到了工艺的最小工作电压,泄漏导致能耗损失,这种开销超出了所获得的增益。
因此,Horowitz 建议在系统级关注能耗。Horowitz 说,谷歌的统计显示,在其数据中心,DRAM 功耗占据了能源总预算的 25%,而硬盘为 15%。芯片级也出现了相似的情况:8 核 CPU 群的功耗要低于为其提供支持的 L1-L3 高速缓存。
在微体系结构级,问题更大。Horowitz说, “看一下现代CPU内核,ADD指令需要大约 70皮焦耳 (pJ)。对此,实际的加法运算需要大约0.1 pJ。其他的能耗来自读取、解码、分发、流水线控制和其他开销。”
Horowitz建议, “看一看ASIC。在某一任务中,您设计的ASIC能效要比CPU高很多。但是,ASIC之所以效率高是因为有非常特殊的原因。其计算主要使用短整数。数据基本上都在本地。很少使用外部存储器。”
Horowitz介绍了ASIC理想应用的一个例子:他称之为“模板应用”。在这一场景中,一个小窗口—模板,逐渐在大块数据上移动。每次移动,应用程序将一小部分数据存放回后面的数据区,装入刚刚到达区域的一小部分数据,对当前窗口的数据进行大量计算 — 也就是,在本地中间暂存器中。这类应用很少使用外部存储器,因此,极大的提高了效率。
Horowitz说,为能够实现这种优势,需要有算法专家,他能够以高能效的方式重新组织应用程序。这种方法的改变需要对芯片设计进行高级抽象,不采用C程序或者逻辑结构的寄存器传送级 (RTL) 描述来表达算法。这意味着,需要经过预验证的函数库,例如,芯片构造器按照结构正确的方式,从函数中装配IC设计。
Horowitz建议,这类改变使我们能够降低计算的能耗成本,从而让更多的计算单元去解决最难的问题,把计算单元放到以前不能放置的地方。这样,我们能够克服大量数据带来的问题。 1/29/2015


电脑版 客户端 关于我们
佳工机电网 - 机电行业首选网站