丹佛计划
软件
丹佛计划,微软将会在2012年底发布Windows 8系统,而Denver处理器很可能在这之前就发布。
软件介绍
在CES 2011之前,所有的业界分析家都对NVIDIA的前途表示悲观:它没有自身的计算平台,图形业务一度被AMD超越,芯片组业务也烟消云散,只剩下通用计算技术还保持优势。这已是最危险的时刻——拥有GPU资源的AMD集团可以轻松地将NVIDIA关在门外,任何基于AMD处理器的计算设备,都不可能有NVIDIA的存在。而Intel更是与NVIDIA交恶多年,并且一直想做同样的事情。Intel的集成图形技术虽然水平较低,但凭借与CPU的芯片级整合,使NVIDIA的生存空间岌岌可危,剩下那些可怜的高端游戏市场,还要遭受AMD的竞争。
不过在CES 2011上,我们看到这一切骤然改变:NVIDIA与ARM的联姻,成为CES 2011上的重磅炸弹,NVIDIA已默默开发ARM架构的桌面/服务器处理器,打造自己的计算平台。籍此消息,仅2011年1月13号单日,NVIDIA的股价就飙升了15%。NVIDIA突然从腹背受敌变成未来霸主,这戏剧化的一幕,到底意味着什么呢?
概念
历史教训:巨头们是如何倒下的?
我们抛开NVIDIA和ARM不言,先来看看历史的教训——那些昔日风光一时的巨头们是如何倒下的。很多人的直觉都会认为,巨头们倒下,大多是管理不善、被竞争对手斩于马下。但纵观历史,我们会发现事实恰恰相反。巨头们的灭亡,反而是因为他们成功地消灭了竞争对手,导致产业生态寸草不生所致;而此时,那些被消灭的“杂草们”又联合创建了新的产业来代替它。最终巨头们悲剧地发现,它们死于自身之手。
在上个世纪70年代,IBM和DEC垄断了大型机市场。当时的DEC风云一时,IBM的一位管理者曾经说过:“没有DEC存在的时代将会是个寂寞的时代。”但IBM、DEC两强主宰计算机市场的格局并没有一直持续下去,PC的出现一度被这两家巨头视作无关紧要,但PC随后的崛起却令大型机市场不断没落,DEC最终被比自己弱小的康柏收购。IBM也因此陷入多年的困境,直到郭士纳时代才成功转型,以软件和高端咨询业务为重。到今天我们可以看到,传统意义的大型机舞台只剩下IBM Power架构,SPARC、安腾的份额无足轻重,而它们在整个计算机家族中所占的比例几乎不值一提。
第二个同样因此失败的巨头就是音频领域的创新。创新与傲锐在上个世纪末棋逢对手,它们为PC赋予了美妙的音频,两家公司也在激烈地竞争。最终,创新好不容易消灭来老对手傲锐,一人独霸整个PC音频市场—但这个时候,创新却发现一件糟糕的事情:音频效果相对拙劣的整合声卡大面积普及,用户不再需要独立声卡,这最终要了创新的老命……多年以后的今天,我们发现创新虽然还存在,但它只是一家贩卖声卡、音箱和耳机产品的二流厂商。
微软的帝国是第三个失败的代表。在过去的很多年里它们都没有竞争对手,Linux、Mac、Solaris对微软的竞争此起彼伏,IBM和SUN的联手也未撼动微软分毫。直到今天,微软依然还是软件王国的巨无霸,但它突然发现,一家之前没有推出操作系统、办公软件的企业却成为它致命的威胁,这就是Google。微软控制了PC,而Google控制了互联网的主要版图,它反过来对微软造成威胁。不幸的是,前相比,微软的盈利模式并没有丝毫改进,贩卖软件的行当看起来岌岌可危,因为用户有大把大把的免费软件可选择,而即将到来的云计算时代,Windows操作系统和Office软件也都有被边缘化的危险。
Google在搜索引擎领域完全没有对手,事实上它成功地垄断了这个领域,雅虎、百度这样的竞争对手无法对它造成任何威胁……然而,Google的好运气同样无法继续,它遭遇了Facebook;Facebook从来都不是一家搜索引擎厂商,它只是一个哈佛学生创办的社交网站,同Google的搜索引擎业务看起来毫不关联,但Facebook携带巨大人气和开放生态系统,随时都可能正面冲击Google的搜索广告业务。
诺基亚是另一个失败的巨头,在过去的十年间,诺基亚是手机市场的统治者,摩托罗拉、三星这些竞争对手也只能紧紧跟随,诺基亚旗下的手机产品有上百款之多,它稳稳地占据传统意义上的手机市场,竞争对手完全无力对它构成挑战。然而,此前从未开发过手机的苹果公司给它带来致命威胁,苹果仅凭借iPhone系列一款手机,就在几年内击败了诺基亚,稳稳占据高端市场。这也最终导致诺基亚Symbian阵营的解体,最终诺基亚从手机市场的领导者变成追随者,都仍深陷泥潭,看到iPhone和Android的风靡无力反击。
纵观这些历史和现实,便会发现一个事实:当企业在自身领域做到极致,消灭掉一切竞争对手的时候,往往难逃盛极而衰的命运。一个市场如果寸草不生、缺乏活力,那就意味着有新的市场来代替它,即便你垄断了旧有市场也没有意义。
大型机曾经就是计算机工业的全部,而今天它只占极微小的一部分,跟不上时代的IBM和DEC都只辉煌一时。
x86体系将遇到同样事情,Intel和AMD默契地准备除掉NVIDIA这个威胁,共同垄断x86市场,但它们还没能坐下来分享盛宴,却突然发现巨大的麻烦开始出现在身边。高能效+广泛授权:ARM悄然攻陷移动终端
高能效+广泛授权:ARM悄然攻陷移动终端
x86体系完全垄断了PC市场,它甚至也垄断了服务器市场。这并不是因为x86的技术如何优秀,恰恰相反,x86是一种没有优化过的指令系统,它的执行效率明显逊色于RISC。RISC阵营的代表者包括IBM Power/PowerPC、MIPS、Oracle/SUN与富士通的SPARC,还有就是ARM。当苹果转向x86的时候,PowerPC就被宣告死亡,SPARC行将就木,连SUN都干脆被Oracle收购,MIPS仅停留在工业SoC领域,而ARM则从未进入过主流计算机市场,它过去只是活跃在掌上电脑、移动电话这样看起来无关紧要的设备上。
从MID、上网本、笔记本电脑到桌面PC、企业服务器甚至超级计算机系统,x86完全一统天下,没有任何敌手。Intel和AMD共同垄断了这个市场,二者都将注意力紧紧地放在对方身上,双方从设计思想、发展方向、芯片微架构到半导体工艺,都进行着针锋相对的竞争,任何一方提出的新颖创意,很快就会被对方所吸收。而在这两大巨头的夹缝下,业务单一的NVIDIA艰难生存,但这个市场的空间已经变得越来越窄,因为Intel和AMD都同时拥有CPU和GPU技术。
当x86高歌猛进的同时,RISC体系的ARM却以另一种方式悄然崛起。ARM是一家位于英国的半导体企业,它是ARM指令系统的创立者,自身并不生产CPU,而是完成ARM CPU的芯片设计,然后将知识产权授权给其他厂商,其他厂商根据需要进行修改后再生产。ARM处理器具有非常高的能效,准确地说是目前能效最高的CPU,x86世界中能效最高的Atom处理器,在它面前也毫无还手的能力,其原因就在于ARM在指令架构上具有不对称的优势,x86芯片无论如何完美,都难以在芯片效率上同RISC产品较量。
Intel代号为“Oak Trail”的新一代Atom平台,原本针对嵌入市场开发,但因低能高功耗而受到市场冷遇。
正是凭借能效比的优势,ARM是掌上电脑、手机这类掌上电子产品的最佳选择,在过去的十余年间,ARM几乎悄无声息占领了这一市场,而对此Intel和AMD几乎不以为然——Intel曾经拥有自己的ARM芯片业务,但它认为这个业务无足轻重,最后将其出售给了Marvell公司;AMD则曾经拥有MIPS架构的Alchemy嵌入处理器和嵌入图形业务,可这些业务在2008年卖给了高通。Intel和AMD都不约而同地相信,x86才是计算工业的未来,它拥有最广泛的软件支持和最多的用户基础,在嵌入市场击败ARM、MIPS这样的货色只是时间问题。
然而,智能手机的快速崛起葬送了x86体系跟随者们的美好愿望。当SmartPhone(智能手机)出现在市场上的时候,还没有多少人喜欢它,消费者们都认为手机可以通话就足够了,单独的掌上电脑更适合用于管理个人数据。而实际上,第一代智能手机也的确十分糟糕,用途单一,电池续航力很短,价格也不低。无论是微软的Pocket PC、Smartphone系统,还是诺基亚的Symbian平台,都大同小异,始终没有让智能手机为普通消费者所接受。直到苹果推出iPhone之后,情况才发生悄然的变化——iPhone的热销让人们迅速对智能手机产生兴趣,黑莓的流行也带动了这股风潮,Google以Android系统加入战局更是推波助澜。手机业从此天翻地覆:老牌巨头诺基亚无法跟上节节败退,多年历史的Symbian系统毁于一旦;濒临倒闭的摩托罗拉则攀上Android快车重整旗鼓,原本作为老三的三星也中断了大好的发展势头,反而是之前名不见经传的HTC超速崛起,短短两年就从小角色变成一线厂商。通讯业在不经意间就直接跨入智能手机时代。
ARM与X86的市场增长速度对比,ARM在新兴的市场需求极为强劲,并且不断将触角延伸至新的领域。
此时,智能手机已经演变为一部掌上计算机:拥有CPU、内存、闪存,拥有操作系统,可以安装软件,可以运行3D游戏,智能手机的计算性能变得至关重要,半导体工艺的提升,频率从500MHz到1GHz的门槛短短半年就被跨越,1.5GHz高频和多核处理器也已现身,它们将成为2011年度智能手机市场的新热点。而伴随着智能手机市场的高速增长,耕耘于这一领域的ARM成为大赢家,几乎所有智能手机都是采用ARM架构的嵌入处理器。
进入2011年后,类似iPad的便携平板设备无疑是消费电子中的新宠,这是一个即将爆发的市场,ARM同样将成为最大的赢家,Intel的Atom固然是能效比最高的x86处理器,但在这类便携设备中,高功耗的x86委实是一个糟糕的选择,ARM将会顺利地垄断这个市场。
计算机工业形成泾渭分明的格局:x86占据体积较大的笔记本电脑、桌面PC和服务器,ARM则占据体积较小的智能手机、MID、平板电脑市场,后一个市场正处于高速发展区间。人们普遍认为,伴随着云计算时代的到来,便携终端将取代PC成为主角,这意味着ARM占据了通往下一个计算时代的大门。即便没有任何外在推力,双方爆发战争也只是时间问题而已。
ARM架构为何具有效率优势?
ARM为何能够占据掌上设备市场?原因就在于ARM是能效比最高的指令架构。我们知道,CPU的操作行为是由指令系统来定义的,指令系统是指计算机最底层的机器指令集、CPU能够直接识别。指令系统定义了CPU的工作方式,计算机史上共有十余种指令系统,但它们都可以分属为CISC(Complex Instruction Set Computer,复杂指令计算机)和RISC(Reduced Instruction Set Computer,精简指令集计算机)两大阵营。
CISC与RISC有哪些不同?
1.CISC与RISC有哪些不同?
CISC是上世纪50年代后出现的第一代指令架构。我们知道,早期的计算机部件比较昂贵,CPU的主频低,运算速度慢。为了提高运算速度,计算科学家逐渐将越来越多的指令加入到已有的指令系统中,以提高计算机的处理效率。这些功能复杂的指令,原本是由软件来实现的,直接固化到硬件的指令系统后,可以显著提高计算机的执行速度。所以从计算机诞生后直到上世纪80年代,计算工业都基于这种CISC体系。Intel后来为PC所设计的x86指令,也是一种CISC指令系统。
不断增加新指令对于提升性能是有助益的,但随着时间推移,CPU的指令变得越来越庞大,给硬件造成的负担也越来越大,对整体性能反而造成拖累。1975年,IBM位于纽约Yorktown的JhomasI.Wason研究中心的科学家们开始研究指令系统的合理性问题,因为它们当时已经察觉到CISC的弊端所在。而在1979年,以帕特逊教授为首的一批科学家也开始在美国加州大学伯克莱分校开展这一研究,双方的研究结果都表明,CISC存在许多先天性的缺陷:在CISC计算机中,各种指令的使用率相差悬殊,一个典型程序运算时使用的80%指令,只占整个指令系统的20%。换言之,就是CISC的所有指令中,只有20%是处于常用状态,80%的指令都是不常用的,但这些指令却占据着80%的硬件资源。这说明CISC存在硬件资源的浪费问题,它的运行效率较低,而且不论如何优化,其硬件效率不高的弊病都难以解决。
有鉴于此,帕特逊等人提出了精简指令的设想,即指令系统只包含那些使用频率很高的少量指令,同时提供一些必要的指令以支持操作系统和高级语言——按照这种原则发展而成的计算机被称为精简指令集计算机(Reduced Instruction Set Computer)结构,简称RISC。RISC非常精简,指令系统所占据的硬件资源更低,开发者可以轻易实现更高的主频和更强大的并行计算能力,从而制造出性能更高的处理器。RISC思想提出之后迅速为计算科学界所接纳,IBM率先推出了Power指令系统,并制造出高性能处理器,它的性能远远超过同时代的x86芯片。在这之后,无论DEC的ALPHA、SUN的SPARC还是MIPS和ARM,也无一例外都隶属于RISC体系。
鉴于RISC的性能优势,当时的服务器、工作站和超级计算机,无一例外都是RISC的天下,x86因先天不足,无法提供可与RISC芯片相抗衡的性能,只能停留在PC领域。不过虽然RISC在技术上具有绝对优势,它在市场推广方面却节节败退,原因在于x86更加开放,加上平价的PC大流行,带动了一个庞大的产业;相比之下,RISC体系大多非常封闭,无论IBM、SUN还是MIPS,都无一例外,最终也导致市场不断萎缩。不过,秉承开放大旗的ARM公司却获得了成功,它也成为今天RISC阵营反击CISC阵营的号手。
ARM“发家史”
2.ARM“发家史”
1978年12月5日,物理学家赫尔曼·豪泽(Hermann Hauser)和工程师克里斯·柯里(Chris Curry)在英国剑桥创办了一家名为“CPU”(Cambridge Processing Unit)的公司,业务方向是成为一家计算机供应商。次年,这家公司更名为Acorn计算机公司,开始了自己的业务。
Acorn一开始打算用摩托罗拉的16位处理器,但他们发现这种芯片过于昂贵,性能也不理想;于是他们向Intel索要80286的设计资料,这种唐突的行为当然被Intel拒绝了。一怒之下,Acorn决定自行设计处理器。1985年,Acorn发布他们的第一代RISC处理器,该芯片采用32位设计,频率为6MHz,它被称为“ARM(Acorn RISC Machine)”,这也是ARM这一名称的由来,而这枚芯片的设计者是罗杰·威尔逊(Roger Wilson)和史蒂夫·费伯(Steve Furber)。
Acorn在后来的几年里都没有什么大发展。直到1990年,苹果公司、芯片厂商VLSI与Acorn三方合作,将Acorn改组为ARM计算机公司。当时苹果公司在寻求一款可以代替摩托罗拉68K CISC处理器的RISC芯片,VLSI则打算设计出一块精简高效的RISC处理器用于集成系统中,Acron自身也准备为它们的新一代Archimedus电脑开发更强悍的处理器。颇富戏剧性的是,这三家企业最终都没有实现自己的目标,苹果当时非常没落无暇他顾,VLSI也遇到了状况,结果ARM成立不久就提前进入不景气,失业阴霾压在工程师们的心头。在这种情况下,ARM根本没有能力自行生产和销售芯片,有鉴于此,ARM作出了一个意义深远的决定:自身只从事芯片设计业务,然后将芯片的设计方案授权给其他公司,由其他公司进行二次开发和生产。ARM本身则不生产芯片成品。
这种广泛授权的模式最终令ARM遍地开花。摩托罗拉、意法半导体、德州仪器、高通、三星电子、Intel、AMD、NVIDIA、索尼、佳能等重量级企业都是ARM的客户,而ARM的全球客户数量多达几千家,基于ARM架构的CPU芯片广泛应用于工业控制、路由器、数码相机、智能手机、MP3、掌上电脑、数字电视等领域,在全球嵌入市场中占据高达90%的份额。而所有这些设备的总量,显然要远远大于x86业界。凭借授权模式,ARM成功地创建了一套生机勃勃的CPU生态系统。
开放模式令ARM成功地垄断了嵌入领域,但这些应用领域都相对专业,软硬件往往是一体化的,直到智能手机和平板时代的到来,情况才悄然发生改变,人们似乎突然发现,ARM其实可以朝向更高的领域进军,这也赋予ARM更广阔的舞台。
概览ARM现行状况
3.概览ARM现行状况
ARM之所以能占领嵌入市场,除了得益于开放授权的模式外,ARM自身所具有的高能效才是关键。作为RISC体系的佼佼者,ARM架构具有非常高的执行效率,在提供同等性能的条件下,ARM处理器所消耗的能源仅有同时代x86处理器的零头,所消耗的晶体管总量也是x86产品的几分之一,各种原因就在于ARM的指令系统精简而高效,不会像x86那样不分优先级都得占用同等的晶体管资源。
凭借这两方面的优势,ARM架构的处理器被广泛用在各类嵌入产品中,芯片尺寸都非常微小,发热量也很低,可以毫不费力地集成在诸如数码相机、智能手机这样小尺寸的设备中。反观x86业界,当前功耗最低的AtomZ系列也不可能用于手机上,因为空间占用、散热、电池续航力都会成为问题。
ARM Cortex-A15逻辑架构,将达2.5GHz频率,针对下一代智能手机、xPAD平板设备开发。
在ARM的内核大家族中,ARM7、ARM9、ARM10和ARM11四代微架构的影响力最大,为包括Intel、德州仪器(TI)、高通、摩托罗拉、Atmel在内的重量级半导体企业所采用。
2010年初,ARM发布第一代双核心架构处理器:Cortex A9,这款处理器核心具有八级流水线、支持指令四路发射,拥有出众的执行效率。不过,该架构最大的特点还是支持灵活的多核心设计,芯片制造商可以根据需要轻易拿出双核、三核乃至四核心的产品,从而满足诸如上网本之类需要较高运算性能的设备需要。
Cortex A9的性能指标十分强悍,在1GHz频率下,它的实际运行表现优于1.6GHz的Atom平台,芯片尺寸仅有其1/3,功耗水准仅有Atom平台的1/6;如果在休眠状态下,Cortex A9平台的能耗水平干脆只有Atom平台的1/50——显然,这些数字相当惊人!Cortex A9架构最高可以达到2GHz的频率,这足以让它获得超越新一代Atom平台的性能,同时保持既有的低能耗、小尺寸优势。ARM希望Cortex A9能进入到更广阔的空间,譬如MID、智能本(Smartbook)等领域。
基于Cortex A9内核的设备还未来得及上市,ARM又加速带来了效能更高的继任者:Cortex-A15。Cortex-A15在A9基础上设计,它可以集成1~4个内核,工作主频最高达到2.5GHz,且可以根据不同的应用灵活调配。比如智能手机和移动计算的1GHz~1.5GHz单/双核心、数字家庭娱乐的1GHz~2GHz双/四核心、家庭和Web服务器的1.5GHz~2.5GHz四/八核心乃至更大规模互联,显然,Cortex-A15是ARM谋求更高端市场发起的冲击,在同等功耗水平下,它可以带来5倍的性能提升,这也意味着Cortex-A15将提供接近于主流级x86产品的性能。Cortex-A15将面向32nm、28nm工艺时代,未来将会一直延伸到20nm。
由于ARM并不直接推出处理器产品,它的桌面战略只能依靠合作伙伴来完成,但ARM过去的传统合作伙伴,包括高通、德州仪器、意法半导体、三星、Marvell等厂商都是面向嵌入市场,在桌面领域缺乏足够的影响力,毕竟要进入桌面,光靠一款处理器是远远不够的——芯片组、GPU和软件的配合都至关重要。更何况ARM处理器都是针对嵌入应用设计,功耗指标固然优秀,但绝对性能明显不及主流x86平台也是事实。假如ARM要进入桌面领域,就必须同时具备高性能架构、稳健的芯片组平台、高性能图形以及操作系统支持。
夹缝求生:NVIDIA的困境与创造新大陆
当ARM在数年前谋划进入桌面大计的时候,有一家公司比它更迫切,这就是NVIDIA。自AMD并购ATI之后,NVIDIA不仅失去了一个有力的盟友,也迎来了更强大的敌人:AMD同时具有高端CPU、芯片组和GPU资源,组建了属于自己的封闭平台。而作为老大的Intel早就抱有这种想法,它也雄心勃勃地开发Larrabee处理器,意图通吃图形和流计算市场。NVIDIA已意识到这是生死存亡的时刻,要么转型,谋求新的业务空间,要么也打造一套属于自己的计算平台。
AMD Fusion APU一经推出就大受欢迎,也意味着CPU集成图形将成为标准,NVIDIA的市场空间被不断挤压。
事情的发展也不出人们所料,AMD并购ATI之后,也拥有了芯片组资源,NVIDIA的nForce系列无奈终结。而在Intel平台,NVIDIA无法得到QPI总线授权,只有落伍的FSB前端总线还对NVIDIA开放,在Atom推出之后,NVIDIA推出ION离子平台,也一度风光。但所有人都知道这无济于事,2010年11月,黄仁勋公开表态不再研发制造三方芯片组,意味着将彻底退出芯片组市场。
麻烦不仅于此,作为NVIDIA根基的图形业务也同样地位难保:AMD在Fusion APU中融合了GPU模块,Intel不仅快速效仿而且走在前面,所有的桌面、移动处理器都直接深度整合了GPU,可以满足99%的用户需要,剩下1%需要独立显卡的用户,又有一大部分选择了AMD平台。NVIDIA图形业务的衰落看来只是时间问题。
一家称得上伟大的公司,魅力并不在于它拥有多大的规模,占有多高的市场份额,而在于百折不挠的勇气和绝处逢生的能力——NVIDIA当之无愧。在并购事件发生之后,NVIDIA迅速祭出CUDA通用计算平台,为GPU通用计算提供一整套的开发环境,包括软件的CUDAC语言编译器、Fortran语言编译器、OpenCLAPI和SDK,硬件上则专门推出Tesla高并行处理器(基于GeForce GPU),开发者借助CUDA平台,就能够快速将原有在CPU上运行的程序移植到Tesla平台上来,从而实现几十倍乃至上百倍的性能增长。
仅仅几年时间,CUDA就获得高性能计算用户的广泛认可,CUDA被广泛应用于流体动力、医疗救助工程、数字内容制作、电子设计自动化、生命科学、石油天然气探测、医疗成像、游戏物理加速、光线追踪、复杂信号处理、宇宙探索等广泛的科学领域。NVIDIA最早提出了GPU通用计算的理念,并将它变成事实,然后从无到有创建出一个庞大的市场,并成为该领域的事实标准。
在NVIDIA的努力下,GPU加速成为计算机界的共识,几乎全部新一代超级计算机都采取此种做法:由传统的CPU负责任务分配,GPU则负责实际的计算工作,这也意味着在高性能计算系统中,GPU的地位与CPU同等重要,而伴随着程序支持的进一步完善,我们可以预见到GPU将取代CPU、成为高性能计算的主角。
NVIDIA另一个令人钦佩的领域在于,它果断地与ARM合作,推出Tegra(图睿)平台转战嵌入市场。Tegra是一种系统级芯片,它同时整合了ARM CPU内核、GeForce图形内核、音效处理器以及所有的I/O功能,可以为掌上设备带来不俗的3D体验。Tegra定位于智能手机、MID和其他掌上设备,不过第一代Tegra没有掀起多大的波澜,它仅在微软Zune HD等少数产品中获得采用,反响平平。
不过,第二代的Tegra让NVIDIA彻底打了个翻身仗,Tegra2采用台积电40纳米工艺制造,它集成了8个不同功用的处理器:包括两个频率达1GHz的ARM Cortex A9核心、一个ARM7处理器、一个音频处理器(Audio Processor)、一个图像处理器(Image Processor)、一个高清影片解码处理器(HD Video Decode Processor)、一个高清影片编码处理器(HD Vide Encode Processor)以及一个图形处理器(2D/3D Graphics Processor)。NVIDIA在2007年收购了PortalPlayer公司,也取得了高端音频处理器技术。
NVIDIA Tegra2功能全面、性能强悍、功耗又极低,将成为2011年最受欢迎的嵌入处理器产品。
Tegra2的实际表现相当强悍,它可以在低于0.4W的功耗下流畅地播放1080p影片,也可以胜任各种嵌入3D游戏,芯片本身还可支持200万像素的摄像头——总之,Tegra2是一款功能强大、性能卓越的系统级芯片。
Android与苹果的战争让智能手机市场热火朝天,Android 2.3的到来也让平板市场的战争即将打响,在CES 2011大展上,我们看到大量的Android智能手机和平台设备,手机厂商和PC厂商都铆足了劲准备在2011年大干一番,而Tegra2也就成为最大的受益者。得益于Tegra2的强劲需求,NVIDIA向台积电投下的订单大幅猛增了60%之多,这其中有一大半产能都将用于Tegra2处理器,预计Tegra2处理器的出货量有望超过1500万颗。而除了智能手机和Android平板设备外,奥迪汽车已宣布在车载娱乐和导航系统中采用Tegra平台,福斯汽车集团(Volkswagen AG)旗下的其他汽车品牌也将会选用相同的系统,这些品牌包括保时捷(Porsche)、意大利的兰博基尼(Lamborghini)、英国的宾特利(Bentley)、西班牙的喜悦(Seat)、捷克的斯科达(Skoda)等等,这不仅将给NVIDIA带来新的滚滚财源,而且也籍此进入了一个规模庞大的新市场。
Denver计划:NVIDIA与ARM的高层次联姻
当芯片组业务被终结,NVIDIA建立了Tegra平台来代替它;当桌面图形市场被萎缩,NVIDIA藉由CUDA平台进入利润更丰厚的领域。然而,故事才刚刚开始。NVIDIA想进入桌面领域,打造一套完整的计算平台同Intel、AMD正面对抗,这也是未来计算业界将发生的最精彩的一幕。
早在2006年,NVIDIA就收购了一家名为Stexar的公司。这家公司由当年英特尔Pentium 4 NetBurst微架构的主要开发人员所创立,此项收购让NVIDIA获得整个团队的资深x86工程师。2008年,NVIDIA获得全美达的LongRun、LongRun2动态节能技术的专利授权。当VIA发布Nano处理器的时候,NVIDIA与其一度关系暧昧,NVIDIA收购VIA CPU业务的传言尘嚣日上。种种迹象都表明,NVIDIA在谋求x86处理器业务。当时业界分析家也认为,如果NVIDIA想在未来继续生存,就必须及早掌握x86处理器资源。
黄仁勋在多个场合断然否认了这个传言,他表示Intel已经在这个领域做得足够好了,NVIDIA不可能赶上;另一个致命的障碍在于,x86指令集是掌握在Intel手里的,NVIDIA不可能获得授权(甚至AMD也是通过协议的方式从Intel手中取得授权)。既然如此,NVIDIA的未来看来除了退出桌面市场、转战其他领域外,没有更好的前景。
不过,NVIDIA没有走上这条道路,它采取一种极度激进的做法:与ARM进行秘密合作、设计基于ARM指令集的高性能处理器——这也就是在CES 2011上高调披露的“丹佛计划(Project Denver)”。与Tegra不同,Denver并没有直接采用ARM所设计的CPU内核,而只是采用ARM的指令系统。CPU内核部分,由NVIDIA的处理器团队独立完成,包括微架构、缓存系统与内存接口,等等。简而言之,Denver就好比是IBM Power架构的Power 7处理器。
Denver项目已经暗中进行了数年,NVIDIA独立设计了高性能的微架构,RISC指令系统的优势注定了Denver将有出色的效能。
Denver将完全面向桌面、服务器与高性能计算市场,与x86的定位完全重叠。我们无需担忧Denver的性能,因为ARM作为RISC体系,在执行效率上有着先天的优势。今天代表RISC阵营最高性能水平的就是IBM Power 7处理器,在双方都为最高频率条件下,它的单核心效能要比Nehalem EX高出两倍多,足见RISC指令架构的优越性。而在能效方面,ARM甚至比PowerPC更为优越(至少在嵌入领域是如此)。理论上说,在消耗同等数量晶体管和能耗的条件下,Denver处理器可以在绝对性能上轻松超越一切x86对手。那么,的关键就在于,NVIDIA会将Denver设计成什么样的规模?
我们显然无需担忧这个问题,NVIDIA在设计大尺寸芯片方面功底深厚,Denver的晶体管规模和功耗应该会与同时代的x86处理器相当,也就是移动版在15W~50W之间,桌面和服务器版会在40W~150W之间,对于ARM处理器而言,这样的能耗水平足以驱动相当可怕的性能。
除了包括高性能ARM内核,Denver还将集成新一代GPU核心。很显然,我们相信Denver的图形性能可以轻松超越Intel,也绝对不会逊于AMD,而CPU的绝对性能,几乎有100%的几率可以大幅度超过x86对手。
Denver计划已经秘密进行了几年,NVIDIA在本届CES上的高调披露也意味着开发进入尾声,也许不需要太长的时间,我们就能够看到Denver处理器的真面目!而问题的关键是:Denver平台如何获得操作系统和应用软件的支持?因为要进入桌面平台,没有Windows几乎是不可想象。
Windows 8支持ARM:Win-NV联盟取代Wintel联盟
Denver的最大障碍其实也不再是问题,或许在几年前NVIDIA开始这个项目时,并未意料到微软会对ARM提供支持,或许NVIDIA私下作了不少的工作——总之事实就是,微软下一代Windows 8将支持ARM,宣告ARM进入桌面市场将成为事实。
微软作出这个决定显然不是心血来潮,尽管是智能手机和平板电脑的提出者,但微软却没有抓住智能手机与平板机市场爆发的机遇,它的Windows Mobile 6系统非常落伍,Windows Phone 7平台则姗姗来迟,而且是匆忙之作,微软干脆没有一款针对平板机的操作系统,眼睁睁地看着Google Android攻城掠地。
由于这些领域都是ARM平台的天下,为ARM开发新一代操作系统已经非常迫切。微软认为,NVIDIA是它在ARM领域的可靠盟友,卓越的图形能力让其他对手很难与Tegra平台长久抗衡,支持NVIDIA、建立新的同盟是微软的明智选择——正如当年的Wintel同盟一样。
姗姗来迟的Windows Phone 7完全落后于Android,微软也错失了智能手机的发展良机,被迫寻找强有力的同盟。
基于共同的利益,微软Windows 8将会对ARM提供全面支持,这不仅包括智能手机、平板机系统,也将包括桌面和服务器版本。到此为止,Denver计划可以说成功大半,微软将帮助NVIDIA解决软件问题,而作为回报,NVIDIA将会帮助Windows重新夺回智能手机和平板市场。
尽管Intel对外界的回应就是Windows 8是个机遇,但Wintel联盟解体的事实已经难以掩盖——继续与x86捆绑,就意味着市场被Google占领,最后让Google成为云计算时代的霸主。而微软也早已垄断了x86市场,Wintel联盟的历史任务终结。对微软来说,建立Win-NV的联盟将有助于把握下一个时代,毕竟它已经错过了最佳机会,不得不奋起直追。
鉴于Win-NV联盟的高度可能性,我们认为微软下一代Xbox游戏机很有可能采用Denver平台。
云计算:Denver猎杀x86的催化剂
在Denver计划中,市场趋势的转变至关重要。而在Denver活跃的时代,也就是未来的几年,云计算将进入大规模应用,并将会在十年内成为主流的形态。精简的计算终端与强大的远程服务器成为主角,复杂的全功能PC变得次要。很显然,Tegra可以轻松地占据主要的终端设备市场,Denver自身则进入桌面和笔记本市场,而Denver与Tesla联手构建高性能平台进入服务器领域。
如果NVIDIA同样效仿对手,将自家的Tesla处理器与Denver进行捆绑的话,x86对手们会在服务器世界里有什么样的下场?因为我们知道,NVIDIA是GPU通用计算领域的领导者,而GPU是新一代超级计算系统的核心。AMD虽然也拥有强大的GPU,但它提供的解决方案非常初级,以至于没有多少用户采用。一旦Denver平台和操作系统成熟,NVIDIA完全可以采取捆绑策略,将x86对手们驱逐出服务器市场。
对于传统的PC用户来说,选择传统的x86还是Denver是一个问题:x86更成熟,但Intel平台图形性能注定较差,谈不上对大型游戏的支持;而AMD平台CPU较差,能耗也较高;由于笔记本电脑将作为主流的应用形态,无线应用将高度普及,电池续航力会成为敏感的指标——Denver平台籍ARM的锋芒,几乎注定可以在该指标上取得胜利。
Denver的成功还有许多额外的助力,比如所集成的GeForce GPU,注定会对各类型的硬件加速提供良好支持,比如网页中的Flash动画是CPU资源大户,GPU加速将彻底解决这个问题。微软与Adobe过去一直在密谈如何共同对抗苹果,不乏有微软收购Adobe的传言。但无论如何,Denver都在这些应用中具有更大的优势。
再见x86:计算工业终须面向未来
在未来的数年,Intel和AMD都将面临一场残酷的考验,也许今天它们在高歌猛进,但剧烈冲击的格局已然形成。不幸的是,Intel很难采取有效措施进行反制,比如釜底抽薪收购ARM——虽然ARM市值很低,很容易被收购,但围绕ARM是一个巨大的生态圈,Intel一旦发起并购的念头,就会引发生态圈内巨头们的联合反制。Intel的另一个选择就是并购NVIDIA,如果能够通过反垄断的审查,那么这是Intel的最好选择。
Denver与Windows 8的联手,将深刻改变未来计算业界的格局,我们相信Denver会带来令人耳目一新的改变,也相信那些被压迫已久的PC厂商们对Denver热情高涨,这是一个让所有人可以改变的时刻——毕竟,x86统治这个时代已有三十余年,它的历史任务也该结束,先进的RISC代替落后的CISC也符合技术进化准则。而当Denver平台确立自己的优势后,Intel和AMD将会发现,除了追随开发ARM架构的高性能处理器外,他们可能别无选择。
参考资料
最新修订时间:2024-02-10 12:53
目录
概述
软件介绍
参考资料