Cloud Skill Runtime

发布私有的 cloud skill

把已经在本地验证过的 skill 放到云端运行,让用户用到能力,而不用拿到你的源码或一套单独搭出来的服务。

用户通过 oo-cli、应用或 agent 使用 skill,而你的实现继续留在服务器端。

私有交付
按量计费
少管运维
Deploy blocks with OOMOL CloudDeploy blocks with OOMOL Cloud

交付一个 skill,不该等于重做一个 SaaS

真正拖慢交付的,往往不是 skill 本身,而是围绕它补出来的那层东西:给用户做入口、让它稳定在线、控制访问、承担运维。Cloud 的目标就是把这一层压到最短。

先发布,按使用增长再付费

你不需要为了验证分发这件事先养一台服务器。先把 skill 发布出去,验证需求,再随着使用量增长付费。

查看详细价格

一个 skill,三种消费路径

同一个 cloud skill 可以继续通过 API、MCP 或自动化被消费,同时仍然只维护一份实现。

01

通过 API 使用

让应用直接通过 API 调用同一个 cloud skill,而不用围绕它再补一层独立后端。

02

通过 MCP 使用

当 agent-native 集成更重要时,把同一个 cloud skill 作为 MCP Tool 暴露给 Agent 和 AI 应用。

03

作为自动化运行

让同一个 cloud skill 按触发器或定时器持续运行,而不是只停留在本地手动执行。

开放运行时,灵活部署

即使你发布的 cloud skill 是私有的,底层运行时基础仍然保持开源。

OOMOL 的虚拟机和运行时核心持续开源,所以无论你用个人服务器、私有基础设施还是公有云,都依然保有部署自由,同时为每个 skill 单独决定如何交付。

OVM

跨平台虚拟机管理器,为 OOMOL 提供统一的容器运行环境

OVM Core

OVM 的核心运行时库,处理容器生命周期和资源管理

OVM Windows

Windows 平台的 OVM 实现,支持 WSL2 和 Hyper-V

OVM macOS

macOS 平台的 OVM 实现,基于 Apple Virtualization Framework

Cloud 不是托管层,而是 skill 的交付层

OOMOL Cloud 不只是代码运行的地方,而是把已经验证过的实现变成 cloud skill,并私有交付给自己、团队或客户的那一层。