产品优势
计费模式

按算量计费,仅在计算任务运行时计费,
算力资源0浪费

灵活性

灵活调度GPU资源,
按需弹性扩展/收缩计算资源

配套工具

开箱即用,
提供完整的大模型+Agent开发工具链

直击痛点
  • 算力预算有限

    大模型技术爆发式发展,用户面对动辄数百万一台的智算服务器、昂贵的配套设备成本和维护费用,预算往往捉襟见肘,迫切需要可以按实际用量计费的付费方式

  • 资源浪费严重

    在大模型的全生命周期中,对算力的需求和使用往往是间断的,通过裸金属方式按月按年整租算时的形式会导致算力资源浪费严重

  • 资源弹性不足

    算力用量在大模型的全生命周期的不同阶段波动很大,用户亟需可以根据阶段性需求弹性扩展/收缩算力资源的使用方式

  • 技术门槛较高

    用户需要一个弹性易用的集群环境及在其之上的一个开箱即用的AI大模型训练微调工具链,从而降低智算软硬件基础设施的配置、管理和运维的技术门槛

适用场景

LoRA模型微调

LoRA模型微调

在13B开源预训练模型上,采用30亿tokens数据进行微调,微调任务运行在2张H系列GPU上,耗时不到17小时


行业模型微调

行业模型微调

在33B开源预训练模型上,采用40亿tokens数据微调行业大模型,微调任务运行在8张H系列GPU上,耗时不到2天

行业模型微调

行业模型微调

在175B开源预训练模型上,采用70亿tokens数据微调行业大模型,微调任务运行在64张H系列GPU上,耗时不到2天

模型训练

模型训练

采用1.8万亿tokens数据自主训练一个7B大小的模型,训练任务运行在128张H系列GPU上,耗时约10天

免费体验

「算力包」——智算新引擎,将庞大的计算能力精准切分为适合每位用户需求的小块算力,并提供完整的大模型工具链,带领用户迈入到普惠算力新时代

免费试用

咨询