发布千卡规模异构芯片混训平台,无问芯穹要打造最具性价比的 AI 基础建设 | WAIC 2024
基础设施,在 AI 时代里是什么样一个角色?有人说像电,有人说像水。
无问芯穹认为,优良的基础建设,是一种「魔法」,能够让大模型成本有效下降,让更多人拥抱新技术。
7 月 4 日,无问芯穹联合创始人兼 CEO 夏立雪发布了全球首个千卡规模异构芯片混训平台,千卡异构混合训练集群算力利用率最高达到了 97.6%。
四个月前,无问芯穹Infini-AI大模型开发与服务云平台宣布首次公测,已有智谱 AI、月之暗面、生数科技等大模型公司客户在Infini-AI上稳定使用异构算力,还有 20 余家 AI Native 应用创业公司在 Infini-AI 上持续调用各种预置模型 API,使用无问芯穹提供的工具链开发自身业务模型。
建设大模型时代的AI Native基础设施,不仅能够为 AI 开发者提供更加通用、高效、便捷的研发环境,同时也是实现算力资源有效整合,支撑AI产业可持续发展的关键基石。与国际上模型层与芯片层「相对集中」的格局相比,中国的模型层与芯片层更加有多样性。
然而,多样性也意味着挑战,大量的异构芯片也形成了「生态竖井」,不同硬件生态系统封闭且互不兼容,给算力的使用方带来一系列技术挑战。这是构建 AI Native 基础设施的最大难点,也是当前大模型行业面临「算力荒」的重要原因。
无问芯穹具备顶尖的 AI 计算优化能力与算力解决方案能力,以及对「M 种模型」与「N 种芯片」行业格局的前瞻判断,率先构建了「MxN」中间层的生态格局,实现多种大模型算法在多元芯片上的高效、统一部署。
截至目前,Infini-AI 已支持了 Qwen2、GLM4、Llama3、Gemma、Yi、Baichuan2、ChatGLM3 系列等共 30 多个模型,以及 AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡。
「技术上限推高与技术落地扩散不矛盾,且取决于我们决心如何对待这个技术。」夏立雪表示,「未来我们用各种 AI 应用时,也不会知道它调用了哪些基座模型,用到了哪种加速卡的算力——这就是最好的 AI Native 基础设施。」