本篇文章2748字,读完约7分钟
俄勒冈州prineville山上350,000平方英尺( 32516.064平方米)的大楼里,有一个facebook最有价值的人工智能工具big sur,嵌入在无形的服务器机架狭缝中。 采用从世界各地筛选出的庞大数据,利用这座大楼内的超级计算能力,在几个小时内就能完成以前需要几个月的事情。 通过big sur,facebook可以启动桌面游戏的播放程序和帮助软件“解读”图像,并训练向人们解释图像复制的人工智能程序。
big sur系统可以在第二代脸书的prineville数据中心找到,第一代建成仅仅是六年前。 prineville是俄勒冈州中部的一个小城市,居民只有9,000多人。 这座城市象征着facebook这家社会交流互联网公司的第一个美国服务器场,这些服务器是为了接受facebook急剧增长的客户数量和网站的激增而建造的。 现在,这个小区包围了100万平方英尺的土地,735 connect大街上有大约6幢整体的灰色大楼,从126大街向各个方向延伸。
其运营方式不像数据中心,而像政府办公楼,安全措施涵盖了整个进出口。 对于科技产业以外的人来说,他们很容易把big sur看成机密文件,存放在深建筑群中被封锁的多层物理空之间。
facebook prineville第二代两个数据操作中心的内部第三代数据中心正在建设中。
真正的惊喜:第三代数据中心确实没有严格保密。 事实上,facebook去年宣布,big sur在取代prineville数据中心和美国其他几个地方的系统之前将成为开源项目。 该企业已经将big sur的设计提交给开源计算项目( open compute project )。 facebook创立的数据中心社区旨在更有效地节省硬件能源,并分享企业及其竞争对手从整个美国不断增长的服务器组中学到了什么。
通过使用8本昂贵的nvidia显卡解决方案( nvidia gpus )和制造商quanta的设计参考书,也可以像facebook制作的那样,自己制作初级版本的big sur。 但是,如果不像facebook那样用prineville连接千万个基于gpus的系统,就无法获得进行符合设计初衷的人工智能训练的能力。 要建立真正可靠的big sur设施,只有谷歌和微软这样的大企业需要投资的资源。 (这两家公司都参与了开源计算项目,如果需要,可以创建类似的big sur版本。 )
“我们的职责不是保守秘密”,kevin lee是facebook技术项目经理,负责big sur和prineville上的其他服务器设计。 “我们的目标是了解世界,推动人工智能的快速发展。 ”当然,谷歌有自己的训练人工智能的开源软件tensor flow,所以facebook出于与谷歌竞争的理由,将继续分享其秘密。
lee表示,人工智能是脸书未来的三大支柱之一。 首席执行官马克·Zuckerberg 4月在f8开发者大会上绘制了facebook 10年战术蓝图,社交网站Facebook是如何成为这类企业的第一步的,其多个移动APP是第二个测试。 未来十年,zuckerberg希望facebook引领互联网互联、无人机、增强现实、虚拟现实和人工智能领域。
人工智能帮助facebook软件看清世界,理解人类语言,独自推理,安排自己的行动过程。 其中一点已经可以实际操作了。 例如,facebook的新多语言播放器( multilingual composer )可以用一种语言制作副本,并自动翻译成另一种语言。 另一个新例子是使用facebook的人工智能分解图像,向盲人和盲人客户说明图像拷贝。 我建议你每次进入图像时,都要训练big sur的图像识别算法,识别脸部,对图像中的人们进行标记。
在这些特征中,各特征的中心是机器学习,是具有与人工智能本身大致相同历史的人工智能训练技术。 由于庞大的数据集开放和近来计算能力的飞跃,机器学习已经成为改进这类软件的有效方法。 和多家竞争对手一样,facebook利用机器学习训练神经互联网。 机器学习是一种受人脑启发,一边描绘模式,一边从众多复杂的数据集中提取概率结果的算法。
ian buck,美国国家航空加速计算部副总裁,与facebook人工智能和数据中心团队密切合作,他说:“我们第一次培训独立神经互联网花了整整三个月的时间, “采用新的nvidia gpus优化培训硬件后,培训时间缩短到了一个月。 他还说,如果有配备最新nvidia硬件的big sur,现在不到一天,就可以训练神经互联网来完成以前人们需要的任务。
nvidia公司的ian buck站在由big sur训练的神经互联网旁,基于12,000多幅绘画创作艺术
buck在低级facebookprineville数据中心的深处实时展示了这一场景。 由big sur训练的facebook人工智能,一边消耗着法国印象派画家一样的画,一边自己开始画画。 他不用虚拟的画架和画笔,根据这些消耗掉的画设想画应该怎么画,做成图形文件。 buck表示,团队提供了12,000张左右的画,并在30分钟内开始输出原创作品。 他补充说,有训练它的更细致的做法,人工智能例如开始关注无云的画,不太关注描绘黑暗天空空的作品。
这还是一个测试版本,google deep dream的神经互联网也同样采用了计算机视觉来构建超现实的图像。 但是,facebook的概念验证含蓄地指出,计划人工智能远远超出图像标记和翻译的范围的facebook企业刚刚开始探索这些可能性。
facebook的绘制人工智能含蓄着超越图像标记的计划。
现在,facebook希望通过更强大的部件来改善big sur。 lee表示,该系统已模块化,支持更新的gpus、各种服务器和机架设计。 在目前的状态下,facebook的数据科学家们和人工智能研究者们可以登录位于prineville的服务器,采用还没有引入big sur培训的离线算法。
facebook的kevin lee在facebookprineville上展示了big sur系统
这家企业也没有回避过让第三方研究者接触这些机会的问题。 企业和个人可以通过开源计算项目加入这个团体,采用开源硬件和软件做出贡献。
“对硬件保密不是我们要做的事。 “一位参观记者说,他聚集在从服务器机架移动的big sur系统前,说明lee说的并不虚。 在李拿出零件说明功能的时候,记者们一直在疯狂地拍照。 big sur对内部动作的强烈趣味性,在lee看来,95页的pdf在线文件似乎能够准确地传达big sur的样子、工作原理、以及应该如何构建它。
来源:UI科技日报
标题:“探秘Facebook的人工智能大脑:Big Sur硬件系统”
地址:http://www.ulahighschool.com/uiitzx/756.html