深度学习解決方案

秒建事情環境

Matrix Fusion在云端预安装主流深度学习框架、数据科学资料库和GPU驱动,用户无需泯灭时间搭建开发情况,可在一分钟内通过简朴的鼠标点击完成开发情况设置,可以迅速灵活调用CPU和GPU资源。



智能化資源調度

Matrix Fusion 支持种种硬件及操作系统,提供端到端的基础设施软件解決方案,治理基础CPU和GPU盘算资源,能够自动进行事情负载资源调配。深度学习是同时利用CPU和GPU处置事情负载的典型应用,Matrix Fusion通过整适用户所有的硬件资源(集群亦或是单机)成为CPU+GPU资源池,再将资源凭据开发者需要重新分配CPU和GPU到开发者的虚拟情况下,治理员也可以将多余的盘算资源灵活分配给其他用户或更为严苛的事情负载。



用戶在差异的虛擬環境中可以選擇在CPU資源上開發,然後在GPU資源中測試,需要擴展訓練到更多GPU上時,可立即調用虛擬環境中任意數量的GPU資源。



容器治理

Matrix Fusion 构建于强大的盘算硬件和GPU虚拟化的基础上,搭载了全方位的容器治理方案。焦点负载引擎容器化,是作为极大简化深度学习和AI事情流程的最新技术,在金钱、人力、时间上投资不菲。而Matrix Fusion无需进行个性化调整,用户只需登录操作界面,就可以直接调用专业化容器解決方案。 Matrix Fusion容器治理层包罗1个内置资源库,可以治理预配置容器(包罗了每一种部署场景或个性化生成容器): 预配置情况:Matrix Fusion预配置最新的深度学习框架和数据科学数据库,用户可以直接使用TensorFlow、Caffe、Torch以及其他社区的最新技术版本。 DIY开发情况:用户可以利用“事情区快照”或“调入容器”来修改并生存容器情况,DIY一个更贴合自己使用习惯的开发情况。Matrix Fusion “调入容器”可以为用户提供一个简约的容器(仅含操作系统、最低配置的数据库和驱动要求),用户自行修改情况,然后上载作为尺度情况进行后续开发。 用户可以通过“事情区快照”利用“Docker生存”事情流程来复制情况,修改后生存到资源库中,以便于下一次的开发事情。 容器导出:容器可导出,作为推理或其他生产部署要求用。



Fusion Core

Matrix Fusion强大的灵活性来源于Fusion Core盘算虚拟化引擎。Fusion Core控制应用和基础GPU盘算之间的API调用指示,允许GPU负载灵活漫衍于当地GPU内存、网络附加GPU、扩展至高达64个GPU,提供强大的整体性能。



因为Fusion Core接纳的是“透明”模式而非虚拟层或其他虚拟化方式,所以不需要对基础硬件或虚拟机情况做任何改变,也不需要改变应用编程自己。这意味着AI开发者和数据科学家可以无缝利用GPU虚拟化的优势,且将成本和集成需求降至最低。



數據卷

深度学习和AI事情负载所需数据通常来源广泛,既有线上也有线下,既有外部也有内部,既有批量文件也有文件系统等等。Matrix Fusion能够简化处置事情数据,让治理员明确网络附加存储位置并映射到容器中。只要主性能够会见数据地址,容器就可以会见数据,这让AI开发者和数据科学家的事情大幅简化. 此外,系统还支持灵活、无限制的数据映射,Matrix Fusion支持每个节点的当地NFS文件系统。这一默认选项提供了事情负载的尺度地址,无论运行多大的深度学习事情负载(包罗运行在多服务器之间的),都可以快速获取运行任务所需的数据