为开发者而生的
AI 工作流平台

无需学习新概念,像往常一样编写函数、引用代码库即可生成节点;拖放组合成工作流,高效创造新功能,并支持 API、MCP 工具或自动化程序对外发布,让想法瞬间变为产品。
OOMOL Product Screenshot

四大核心功能

从开发到部署,全链路提效

01|节点即函数:不学新框架,直接上手

在 oomol,节点就是函数。你写的每一行代码,都可以成为能力组件。

• 入参/出参清晰定义,对外调用像使用 API 一样简单
• 引用任意开源库,功能扩展零瓶颈
• VSCode 原生体验
• AI 自动生成节点 + Vibe Coding Block 加速开发
熟悉的方式,不设天花板的能力

02|本地容器化开发:生产即部署

IDE 内置容器环境,随时启用。

• 免环境搭建,开箱即用
• 强隔离,不污染宿主机
• 本地环境与云端环境完全一致
写完就能上云,不再 Debug "环境不一致"问题

03|设备即服务器:让闲置算力上岗

结合容器与反代技术,为设备直接分配域名。

• 个人电脑 & NAS 秒变服务器
• GPU 价值不再浪费(支持 WSL2 调用 Nvidia GPU)
• 私有部署 + 随时远程访问
把你所有的设备变成开发资源

04|一键发布:API / MCP / 自动化程序

工作流与节点均可发布为可调用的能力:

• Serverless API 服务
• MCP 工具,直接接入 AI
• 定时器 / Trigger 自动化流程
写出能力,就能被任何系统使用

社区与分享

加入我们充满活力的社区,分享您的创作,发现精彩工具,与其他创作者协作。

Community Home
Community Detail

融合 APIs 与大模型

使用一个 OOMOL API Token,即可快速调用多种常用 API 与主流大模型,开发体验更简单、更统一。

from oocana import Context
#region generated meta
import typing
Inputs = typing.Dict[str, typing.Any]
Outputs = typing.Dict[str, typing.Any]
#endregion
async def main(params: Inputs, context: Context) -> Outputs | None:
# 融合 API 基础地址
api_url = "https://fusion-api.oomol.com/v1/fal-nano-banana-edit/submit"
# 大模型基础地址,可使用 openai sdk
llm_base_url = "https://llm.oomol.com/v1"
# 从 context 获取 OOMOL token(无需手动输入 API key)
api_token = await context.oomol_token()
return {
# "output": "output_value"
}

基于 OOMOL 的开源项目:PDF-Craft

基于 OOMOL 构建的旗舰开源项目,体验本地算力的强大优势

📄

PDF-Craft 是 OOMOL 官方开源的 PDF 转电子书工具,在 GitHub 上已获得 3000+ Stars。支持本地免费运行、通过 OOMOL 分享给朋友、或使用官方 API 服务 —— 总有适合你的服务。

MIT 开源,完全透明
基于 DeepSeek OCR,模型先进
专业团队维护,开源和服务并行
本地部署

本地算力,免费私密

  • 准备具有 3060 以上显卡的 PC
  • 安装 OOMOL Studio 本地免费部署
  • 使用小应用或者 Flow 运行
官方服务

按量计费,开箱即用

  • 官方维护,品质保证
  • 支持在 PDF-Craft 网站使用
  • 支持开发者调用 API 服务
OOMOL Logo

立即开始使用

下载 OOMOL Studio —— 让你的想法,立即变成可运行的产品。