modal

在云端运行Python代码,享受无服务器容器、GPU和自动扩展服务。适用于部署机器学习模型、执行批量处理任务、调度计算密集型作业,或提供需要GPU加速或动态扩展的API服务。

安装

热度:7

下载并解压到你的 skills 目录

复制命令,发送给 OpenClaw 自动安装:

下载并安装这个技能 https://openskills.cc/api/download?slug=k-dense-ai-scientific-skills-modal&locale=zh&source=copy

Modal - 云端 Python 无服务器执行平台

技能概述


Modal 是一个专为 Python 设计的无服务器云计算平台,让你无需配置服务器即可在云端运行 Python 代码。支持 GPU 加速、自动扩缩容和按需付费,特别适合机器学习模型部署、批量数据处理和定时任务等场景。注册即送 $30/月免费额度。

适用场景

1. 机器学习模型部署


将训练好的 LLM、图像生成或嵌入模型部署为云端 API,支持 GPU 推理加速。Modal 自动处理容器配置、负载均衡和弹性扩容,你只需定义模型和服务逻辑。

2. GPU 加速计算任务


需要 GPU 资源的计算任务(如模型训练、推理、渲染),可直接在 Modal 上申请 T4、A100、H100 等多种 GPU,按使用时长计费,无需维护 GPU 服务器。

3. 大规模批量处理


将数据处理任务并行分配到数千个容器中自动执行,适合处理海量数据集、批量文件转换或分布式科学计算。

核心功能

1. 声明式容器镜像定义


通过 Python 代码定义运行环境,支持安装 PyPI 包、系统依赖、添加本地代码模块或使用现有 Docker 镜像。每次部署自动构建,确保环境一致。

2. 灵活的 GPU 和资源配置


可根据任务需求选择不同类型和数量的 GPU(从单卡 T4 到 8 卡 H100),并自定义 CPU 核心数、内存和临时磁盘空间。按预留或实际使用量计费。

3. 自动扩缩容和并行执行


使用 .map() 方法即可将任务自动分配到多个容器并行执行。支持配置最小/最大容器数、预留缓冲容器等策略,实现从零到千级的弹性扩容。

常见问题

Modal 是什么?适合什么场景?


Modal 是一个面向 Python 的无服务器云计算平台。你只需用 Python 定义函数和运行环境,Modal 会自动处理容器部署、扩缩容和资源管理。特别适合机器学习模型部署、GPU 训练/推理、批量数据处理、定时任务和无服务器 API 等场景。

Modal 支持哪些 GPU?如何选择?


Modal 支持 T4、L4(经济型推理)、A10、A100、A100-80GB(标准训练/推理)、L40S(高性价比,48GB)、H100、H200(高性能训练)和 B200(旗舰性能)。推理推荐 L40S,训练推荐 H100/A100。可通过 @app.function(gpu="A100") 指定,多卡可用 gpu="H100:8"

Modal 免费额度是多少?如何收费?


新用户注册可获得 $30/月的免费额度。计费按实际使用的计算资源(CPU、GPU、内存、存储)计算,支持按预留或实际使用量计费(取较高者)。函数不运行时不产生费用。具体价格可在 Modal 控制台查看。