AI 实验场
一键启用,按秒计费
轻松部署各类 AI Servers / Applications
立即免费试用
预置Qwen3-8B的Open-WebUI服务
WEBUI
H800x1
Qwen
基于 H800 部署,提供自然流畅对话能力,适用于开放领域聊天、知识问答与多轮对话任务
预估¥14.25/小时
新用户免费使用 3 小时
H800 单卡进行 NanoChat 预训练
NanoChat
H800
LLM
训练
快速入门
H800 单卡运行 NanoChat 训练流程,适用于教学示例、小规模实验与训练链路快速入门
预估¥14.24/小时
新用户免费使用 3 小时
部署一个 DeepSeek-R1-Distill-Qwen-32B 模型推理服务
Qwen-32B
DeepSeek-R1-Distill
H800x1
32B
蒸馏
文本生成
基于 H800 单卡运行,支持通用对话、知识问答与文本生成任务,提供稳定高效的中型模型推理能力
预估¥13.99/小时
新用户免费使用 3 小时
使用 Squrve 进行 Text-to-SQL 生成并在数据库上执行查询
Squrve
Text-to-SQL
Database
使用 Squrve 对 Text-to-SQL 任务进行生成并在数据库上执行查询。
预估¥0.26/小时
部署一个 DeepSeek-R1-0528-FP4 模型推理服务
DeepSeek
A800x8
FP4
文本生成
以 FP4 精度在 8 张 A800 上部署一个模型推理服务,相比于 FP16 精度,具备更高吞吐与更快响应,适用于高并发文本生成与问答场景
预估¥51.12/小时
使用 Squrve 进行 Text-to-SQL 生成并进行基准测试
Squrve
Text-to-SQL
Benchmarks
使用 Squrve 对 Text-to-SQL 工作流程进行编排,并对生成的 SQL 进行不同数据集上的基准测试
预估¥0.26/小时
部署一个 MiniMax-M2 模型推理服务
MiniMax-M2
H800x4
文本生成
Agent
Coding
基于 H800 四卡运行的 MiniMax-M2 模型推理服务,在编码、Agent 等任务类型上性能表现突出
预估¥55.96/小时
部署一个面向代码生成的 Qwen3-Coder-480B-A35B-Instruct-FP8 模型服务
Qwen3
H800x8
480B
FP8
代码生成
MoE
使用 H800 八卡以 FP8 精度运行,支持代码补全、生成与解释任务,为开发者提供高效的轻量级智能编程辅助
预估¥111.92/小时
图片生成3D模型的Hunyuan3D服务
Hunyuan3D
H800x1
3D生成
基于 Hunyuan3D-2.1 模型的 AI 3D 生成服务,支持从单张图片生成高质量3D模型
预估¥13.99/小时
新用户免费使用 3 小时
Qwen3-VL-235B-A22B-Instruct-FP8 推理服务
Qwen3
H800x8
FP8
235B
多模态
文本生成
图像理解
H800 八卡部署,支持图像理解、OCR 与图文问答等多模态任务,适合视觉分析与内容理解
预估¥111.92/小时
通过 Gradio 使用 DeepSeek-OCR 模型
DeepSeek
OCR
4090x1
在 4090 单卡部署 DeepSeek-OCR 模型,并通过 Gradio 进行图片识别
预估¥1.99/小时
新用户免费使用 25 小时
通过 Gradio 使用 Qwen-Image-Edit 模型
Qwen-Image-Edit
H800x1
图片编辑
在 H800 单卡部署 Qwen-Image-Edit 模型,并通过 Gradio 进行图片编辑
预估¥13.99/小时
新用户免费使用 3 小时
支持方言的语音生成模型SoulX-Podcast
soul
4090x1
1.7B
语音生成
在 4090 上部署一个面向对话场景的中文语音生成服务,支持四川话、粤语、河南话等方言。
预估¥1.99/小时
新用户免费使用 25 小时
部署一个qwen3-vl-8b-fp8模型服务
qwen
4090x1
8B
文本生成
图像理解
在单张 RTX 4090 GPU 上部署 Qwen3-VL-8B-FP8 模型服务,支持图像理解,高吞吐与快响应,适用于高并发文本生成与问答场景
预估¥1.99/小时
新用户免费使用 25 小时
部署一个 Qwen3-Next-80B-A3B-Instruct 模型推理服务
Qwen
H800x4
MoE
混合注意力
文本生成
基于 H800 四卡运行,支持通用对话、知识问答与文本生成任务,提供稳定高效的中型模型推理能力
预估¥55.96/小时
部署一个gpt-oss-120b模型推理服务
gpt-oss
H800x1
120B
MXFP4
文本生成
MoE
在 H800 单卡以 FP4 精度部署一个模型推理服务,具备更高吞吐与更快响应,适用于高并发文本生成与问答场景
预估¥13.99/小时
新用户免费使用 3 小时
部署一个 Kimi-Linear-48B-A3B-Instruct 模型推理服务
Kimi
H800x4
文本生成
长上下文
高吞吐
基于 H800 四卡运行,支持通用对话、知识问答与文本生成任务,提供稳定高效的中型模型推理能力
预估¥55.96/小时
部署一个qwen3-8b-fp8模型推理服务
qwen
4090x1
8B
文本生成
高性价比之选,在单张 RTX 4090 GPU 上部署 Qwen3-8B-FP8 模型推理服务,高吞吐与快响应,适用于模型精度要求不高的高并发文本生成与问答场景
预估¥1.99/小时
新用户免费使用 25 小时
部署一个gpt-oss-20b模型推理服务
gpt-oss
4090x1
20B
MXFP4
文本生成
MoE
高性价比之选,在 4090 单卡以 FP4 精度部署一个 gpt-oss-20b 模型推理服务,高吞吐与快响应,适用于模型精度要求不太高的高并发文本生成与问答场景
预估¥1.99/小时
新用户免费使用 25 小时
基于 H800 单卡进行 Llama3.1-8b LoRA 微调训练
LoRA
H800
LLM
训练
快速入门
llama3
基于 H800 单卡运行,对 Llama3.1-8b 模型进行微调训练,适用于中小规模数据集的快速实验与验证
预估¥14.05/小时
新用户免费使用 3 小时
基于 H800 单卡进行 Qwen3-8b LoRA 微调训练
LoRA
H800
LLM
训练
快速入门
Qwen3
基于 H800 单卡运行,对 Qwen3-8b 模型进行微调训练,适用于中小规模数据集的快速实验与验证
预估¥14.05/小时
新用户免费使用 3 小时
使用ComfyUI运行Wan2.1-I2V模型
WanAI
H800x1
图生视频
在 H800 单卡运行一个 Wan2.1 的图生视频模型的工作流
预估¥13.99/小时
新用户免费使用 3 小时
部署一个Qwen3-32B-FP8模型推理服务
Qwen3
H800x1
32B
FP8
文本生成
在 H800 单卡以 FP8 精度部署一个模型推理服务,相比于 FP16 精度,具备更高吞吐与更快响应,适用于高并发文本生成与问答场景
预估¥13.99/小时
新用户免费使用 3 小时
Qwen3-VL-30B推理服务
Qwen3
H800x1
30B
多模态
文本生成
图像理解
H800 单卡部署,支持图像理解、OCR 与图文问答等多模态任务,适合视觉分析与内容理解
预估¥13.99/小时
新用户免费使用 3 小时
首充活动