当前位置:首页 > 【组图】「智慧计算」对AI起到多大助力?

【组图】「智慧计算」对AI起到多大助力?

时间:2017-07-14 18:52:10来源:搜狐媒体平台

原标题:「智慧计算」对AI起到多大助力?

  图:pixabay

  人工智能诞生60年了,我们现在每天都能够看到不同新算法、新架构、新工具在AI领域的应用。其实,数年前,AI还没有现在这么热,当时的科学家提出各种不同的想法完全是对当时运行缓慢、体积臃肿,以及昂贵机器的妥协。

  2006年,深度学习这一概念随着Geoffrey Hinton等人发表的论文而大热,深度信念网络(DBN)被提出,这种快速学习算法可用于受限玻尔兹曼机(RBM),深度学习开始迅速腾飞。而该算法需要在成千上万的并行处理器上运行。而改变这一切的,正是计算机的运行速度,当然,还有价格因素。

  从整体角度来看,计算力、大数据、算法这三者对于人工智能的助推作用是其加速发展的必要条件。具体来看,计算力的提升,随着时间的推移,针对深度学习的计算机软硬件设施都有所改善,深度学习模型的规模也随之增长。

  可以说,深度学习的出现、神经网络理论重新被人提及是与一个重要的定律分不开的,那就是“摩尔定律”。深度学习的训练过程需要数百万计,甚至亿计的数据量,同时,神经网络无论是深度,还是复杂度都是几十年前的数百倍,而这些在90年代以前是不可想象的。同时GPU性能的高速提升,以及其近几年价格的迅速降低,亦促进了深度学习的大面积应用。

  既然计算力对于人工智能如此重要,那么“智慧计算”便应运而生了。何为“智慧计算”?中国工程院院士、浪潮集团执行总裁王恩东曾表示,智慧计算“以云计算为基础平台、大数据为认知方法,深度学习为优化工具”。他认为,智慧计算的出现实际上是计算技术发展"分而后合"的一种选择,最初的数学计算演变为科学计算和商业计算两大分支,并在之后的60年中衍生出诸如高性能计算、数据库、关键计算、云计算、大数据、深度学习等众多计算类型。而随着云计算、大数据和深度学习的相互促进、相互融合、共同发展,科学计算与商业计算再次"合二为一",催生了智慧计算这种新的计算类型。

  浪潮执行总裁王恩东

  伴随着传统计算到大数据、深度学习等新兴的智慧计算转型,作为基本计算设备——服务器的设计也迎来了升级挑战。而就在近日,作为中国服务器的领军企业,浪潮M5服务器的发布便进入了机器人圈的视野,而吸引机器人圈留意的,除了其丰富的AI产品线布局、针对深度学习优良的产品性能本身,更是浪潮大踏步开拓AI市场的决心,以及在智慧计算领域绝对的信心。

  智慧计算与AI“相生相依”

  今年年初,浪潮宣布成立人工智能事业部,而在这背后,则是其立足行业的实力。根据Gartner和IDC2017Q1最新数据表明,浪潮服务器的销售额、销售量在中国市场稳居第一,互联网行业稳居第一,同时浪潮已成为中国AI领域最大的计算平台供应商。

  浪潮集团副总裁彭震

  实际上,为了应对人工智能时代,智慧计算已经成为“逃不掉”的话题,我们现在经常探讨的无人驾驶、AlphaGo、人脸识别等,都是智慧计算的具体呈现。浪潮集团副总裁彭震在现场表示:“智慧计算实际上它是以云计算为计算的平台,以大数据为认知的方法,以深度学习为优化工具,未来的智慧计算都会构建在云计算的平台之上,以更大规模、分布式的计算模式进行。同时,所有的东西都是基于大数据,基于大量的海量数据的统计、分析,基于深度学习这样的一种学习方法使得我们具备了足够的智慧计算能力。”

  过去的服务器主要面向通用市场设计,一个服务器适用于多种场景,而随着大规模部署的数据中心的出现,以及云计算、大数据、人工智能等应用场景的不断深化,实际上服务器也发生了非常大的、本质性的变化。基于以上三大场景,浪潮推出了新一代服务器M5。

  “最领先”我敢拍胸脯

  在当天的媒体专访环节,彭震表示:“从某种角度来说,我们现在在AI方面的产品应该是全球‘最领先’的。我们敢拍着胸脯说这句话,可能云计算、大数据,大家都各有所长,我们也很难确定地说,浪潮就是第一,但我认为浪潮的AI产品一定是全球最丰富的。”

  彭震说这话的底气源自于浪潮针对AI领域的丰富布局。我们一起来看看:

  浪潮拥有2U2、2U4、2U8的GPU服务器,以及4GPUBox、国内唯一的16GPUBOX。在美国GTC17上,浪潮推出加速人工智能计算的超高密度服务器AGX-2;在IPF上,浪潮与百度联合发布了面向更大规模数据集和深层神经网络的超大规模AI计算平台—SR-AI整机柜服务器;在德国ISC17上,浪潮发布了可灵活扩展的新型AI加速计算产品GX4……

  AI服务器中的“超算”

  众所周知,机器学习在模型训练阶段需要百万级次的迭代,而这当然需要GPU的性能发挥出最大效能。从这个角度看,在发布会现场,最吸引机器人圈眼球的无疑是浪潮刚刚推出的NF5288M5 GPU服务器。据现场的产品经理介绍,与传统的PCIe- GPU服务器相比,该服务器的GPU单独效能可以提高60%以上,这是浪潮迄今为止研发的GPU密度最高的一款服务器,“当然从全球来看,这是浪潮提供的密度最高的支持8块nvLink GPU的服务器”,他补充道。

  拥抱开源

  实际上,随着深度学习时代的到来,越来越多的大厂商开始开源,把各自的资源贡献出来。在深度学习框架领域,比较知名的有谷歌的TensorFlow、微软的CNTK 、已被亚马逊官方采用的MXNet、LISA lab的Theano,其中在图像处理领域,我们不得不提的就是于UC Berkeley诞生的Caffe,而Caffe是单机版的,并没有针对大量网络环境情况下的版本。

  针对上述情况,浪潮发布了集群版的Caffe版本——Caffe-MPI,并在GitHub上开源公布所有代码,以此为客户提供更强大的深度学习平台。根据浪潮提供的官方数据,使用GoogleNet模型,在不同GPU数量的情况下,对比每秒处理图像的速度,Caffe-MPI几乎是TensorFlow的两倍。

  “Caffe并没有做更多的并行化,偏实验性,但是相对比较成熟。所以,我们在里面做了大量的并行化的工作,就是为了给客户做大规模并行学习提供的这样一种能力。所以,我们做了很多的开源投入。”对于为何在开源方面投入资源,彭震补充道:“当然,这一切源于浪潮在HPC上有很多积累,在整个程序的并行化和优化方面有很多积累,我们希望它能够变成一个帮助客户提升业务能力的一个平台,所以我们做了这个事情。”

  其实,浪潮对于开源,远不止Caffe-MPI这一件事这么简单。实际上,本次M5新一代产品里采用了很多的开放标准和协议,全线引入Open BMC和Redfish。浪潮目前亦积极参与并设计开放的硬件平台和标准,加入多个开源社区,比如OpenStack、OCP、ODCC、Open19等。

  “对于开源而言,云计算造就了开源,开源成就了云计算?在云计算的场景里,大家不希望被某一厂商锁定,需要一个更加开放的平台。实际上,当有了云计算之后,客户希望要自主可控,开源社区便应运而生,之后又极大地推动了云计算的普及,把过去很多的技术门槛全部打掉了,使得很多开发者能够快速地进入到某一领域,推出一个自己觉得不错的开源系统。”彭震解释道,“云计算需要管理那么多设备、有那么多应用,面向这么多复杂的场景,这根本不是任何一个厂商所能够自己对付得了的,所以需要集所有人各种各样的力量参与进来一块做。”

  浪潮将开源上升为整个公司的策略,并将其定位于“源于开源、回馈开源、高于开源”。彭震最后强调:“我们在设计里还是有自己压箱底的东西,要高于开源,做出更多创新的东西,要领先别人。”

  纵观整个发布会,我们不难发现,在智慧计算时代下,浪潮在AI产品线提供了最完整的AI解决方案,同时在云计算和大数据领域,浪潮亦提供了完整的产品布局。可以说,浪潮M5新一代服务器产品将帮助客户应对智慧计算时代带来的挑战,助力客户向智慧时代转型。

声明:本网部分信息转载于其他网站,如稿件涉及版权等问题,请联系我们!

1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19  20  21  22  23  24  25  26  27  28  29  30  31  32  33  34  35  36  37  38  39  40  41  42  43  44  45  46  47  48  49  50  51  52  53  54  55  56  57  58  59  60  61  62  63  64  65  66  67  68  69  70  71  72  73  74  75  76  77  78  79  80  81  82  83  84  85  86  87  88  89  90  91  92  93  94  95  96  97  98  99  100  101  102  103  104  105  106  107  108  109  110  111  112  113  114  115  116  117  118  119  120  121  122  123  124  125  126  127  128  129  130  131  132  133  134  135  136  137  138  139  140  141  142  143  144  145  146  147  148  149  150  151  152  153  154  155  156  157  158  159  160  161  162  163  164  165  166  167  168  169  170  171  172  173  174  175  176  177  178  179  180  181  182  183  184  185  186  187  188  189  190  191  192  193  194  195  196  197  198  199  200  201  202  203  204  205  206  207  208  209  210  211  212  213  214  215  216  217  218  219  220  221  222  223  224  225  226  227  228  229  230  231  232  233  234  235  236  237  238  239  240  241  242  243  244  245  246  247  248  249  250  251  252  253  254  255  256  257  258  259  260  261  262  263  264  265  266  267  268  269  270  271  272  273  274  275  276  277  278  279  280  281  282  283  284  285  286  287  288  289  290  291  292  293  294  295  296  297  298  299  300  301  302  303  304  305  306  307  308  309  310  311  312  313  314  315  316  317  318  319  320  321  322  323  324  325  326  327  328  329  330  331  332  333  334  335  336  337  338  339  340  341  342  343  344  345  346  347  348  349  350  351  352  353  354  355  356  357  358  359  360  361  362  363  364  365  366  367  368  369  370  371  372  373  374  375  376  377  378  379  380  381  382  383  384  385  386  387  388  389  390  391  392  393  394  395  396  397  398  399  400  401  402  403  404  405  406  407  408  409  410  411  412  413  414  415  416  417  418  419  420  421  422  423  424  425  426  427  428  429  430  431  432  433  434  435  436  437  438  439  440  441  442  443  444  445  446  447  448  449  450  451  452  453  454  455  456  457  458  459  460  461  462  463  464  465  466  467  468  469  470  471  472  473  474  475  476  477  478  479  480  481  482  483  484  485  486  487  488  489  490  491  492  493  494  495  496  497  498  499  500  501  502  503  504  505  506  507  508  509  510  511  512  513  514  515  516  517  518  519  520  521  522  523  524  525  526  527  528  529  530  531  532  533  534  535  536  537  538  539  540  541  542  543  544  545  546  547  548  549  550  551  552  553  554  555  556  557  558  559  560  561  562  563  564  565  566  567  568  569  570  571  572  573  574  575  576  577  578  579  580  581  582  583  584  585  586  587  588  589  590  591  592  593  594  595  596  597  598  599  600  601  602  603  604  605  606  607  608  609  610  611  612  613  614  615  616  617  618  619  620  621  622  623  624  625  626  627  628  629  630  631  632  633  634  635  636  637  638  639  640  641  642  643  644  645  646  647  648  649  650  651  652  653  654  655  656  657  658  659  660  661  662  663  664  665  666  667  668  669  670  671  672  673  674  675  676  677  678  679  680  681  682  683  684  685  686  687  688  689  690  691  692  693  694  695  696  697  698  699  700  701  702  703  704  705  706  707  708  709  710  711  712  713  714  715  716  717  718  719  720  721  722  723  724  725  726  727  728  729  730  731  732  733  734  735  736  737  738  739  740  741  742  743  744  745  746  747  748  749  750  751  752  753  754  755  756  757  758  759  760  761  762  763  764  765  766  767  768  769  770  771  772  773  774  775  776  777  778  779  780  781  782  783  784  785  786  787  788  789  790  791  792  793  794  795  796  797  798  799  800  801  802  803  804  805  806  807  808  809  810  811  812  813  814  815  816  817  818  819  820  821  822  823  824  825  826  827  828  829  830  831  832  833  834  835  836  837  838  839  840  841  842  843  844  845  846  847  848  849  850  851  852  853  854  855  856  857  858  859  860  861  862  863  864  865  866  867  868  869  870  871  872  873  874  875  876  877  878  879  880  881  882  883  884  885  886  887  888  889  890  891  892  893  894  895  896  897  898  899  900  901  902  903  904  905  906  907  908  909  910  911  912  913  914  915  916  917  918  919  920  921  922  923  924  925  926  927  928  929  930  931  932  933  934  935  936  937  938  939  940  941  942  943  944  945  946  947  948  949  950  951  952  953  954  955  956  957  958  959  960  961  962  963  964  965  966  967  968  969  970  971  972  973  974  975  976  977  978  979  980  981  982  983  984  985  986  987  988  989  990  991  992  993  994  995  996  997  998  999  1000