GMI Cloud亚太区总裁:AI出海大潮下,算力如何解决成关键

   发布时间:2024-12-18 15:31 作者:陆辰风

在2024T-EDGE创新大会暨钛媒体财经年会的EDGE Founders Demo Day平行论坛上,GMI Cloud亚太区总裁King Cui发表了关于AI出海大潮中的趋势洞察和GMI Cloud在GPU云平台构建方面的探索的演讲。他提到,尽管GPT4和ChatGPT等AI技术正逐渐改变人们的生活,但与早期的互联网技术相比,AI技术仍处于“技术普惠点”之前的阶段,相当于“1995年的互联网”。

King Cui将云计算的发展分为三个阶段。Cloud 1.0阶段(2010-2015年)是Cloud Base的时代,企业开始将传统IDC业务迁移到云端,云服务主要以裸金属形态存在。Cloud 2.0阶段(2016-2022年)则是Cloud Native的时代,用户和企业从简单的云上迁移到深度用云,PaaS产品从裸金属base转变为VM及Container Base,客户开始更多地使用云厂商提供的PaaS产品,专注于自身业务的研发提效。而Cloud 3.0阶段(2023年至今)则标志着AI Native Cloud时代的到来,以OpenAI发布GPT为起点,AI浪潮席卷全球。

King Cui指出,AI技术的发展速度和对人类生活的影响日益增强,尽管仍处于早期阶段,但已经展现出巨大的潜力和机会。截至2024年8月,全球AI WEB产品总数达到1717个,其中中国AI WEB产品数量280个,出海AI WEB产品数量95个,这意味着有34%的AI产品从一开始就定位为全球化。中国AI企业在海外市场的布局正在加速,但算力成为制约其发展的关键因素之一。

在AI出海过程中,算力为中心的生产矛盾逐渐增多。国内高端算力资源不足、AI Infra建设经验不足、供应商可靠性难保障等问题,导致AI Infra稳定性不足,增加了企业的经济和时间成本。以meta为例,其披露的报告显示,在为期54天的预训练阶段中,总共出现了466次工作中断,其中大部分是硬件问题,GPU问题占比最高。

为了维持AI Infra层的稳定性,企业需要在组网、硬件、软件、工程化等方面做大量工作。King Cui强调,在选择Infra团队时,稳定性比单价低的GPU硬件更为重要。选择具有软件加持和极强运营能力的云平台,比单纯选择价格低的GPU硬件更具性价比。

GMI Cloud作为一个全栈AI应用平台,在GPU硬件架构层和IaaS层拥有完全自研和掌控的硬件和云平台。GMI Cloud致力于支持AI应用开发者,提供高稳定性的GPU集群,以提高AI应用的研发效率和产品竞争力。其Cluster Engine是一个端到端的全栈AI应用平台,从底层GPU硬件架构层到应用层,提供统一的资源管理和调度。

GMI Cloud还具有独特的双验证体系,通过Nvidia认证和内部测试,确保交付给客户的集群是完全可用的状态。GMI Cloud与GPU供应商、IDC合作伙伴间共筑了三角合作的关系,为客户提供更高水平的服务和更贴近源头的问题追溯。GMI Cloud提供24x7x365的全年全天候的监控和支持服务,确保系统稳定性。

GMI Cloud目前为AI Infra选型提供两种方案:PRIVATE CLOUD和ON-DEMAND。PRIVATE CLOUD适用于需要长期占有一个独立集群的企业,GMI Cloud会帮助完成模型从底层到上层的全部优化。而ON-DEMAND则适用于临时使用一两张卡、用几天的情况,以节约成本。

GMI Cloud是一家领先的AI Native Cloud服务商,拥有遍布全球的数据中心网络,为企业提供最新、最优的GPU资源。其凭借高稳定性的技术架构、强大的GPU供应链以及令人瞩目的GPU产品阵容,确保企业客户在高度数据安全与计算效能的基础上,高效低本地完成AI落地。据悉,GMI Cloud在10月完成了A轮8200万美元融资,这笔资金将用于科罗拉多州数据中心的建设,以强化GMI Cloud在全球AI算力服务方面的布局。

 
 
更多>同类内容
全站最新
热门内容
本栏最新