每个平台的分步指南。学习如何创建、配置和分享AI技能。
有技能要分享?直接提交到我们的目录。
提交技能3 个指南
前往 chat.openai.com,点击你的头像 → My GPTs → Create a GPT
在 'Create' 选项卡中,用自然语言描述你希望 GPT 做什么
配置名称、描述、指令和对话开场白
上传知识文件(PDFs、文档)供你的 GPT 参考
添加 Actions 以连接外部 API(可选)
设置可见性:仅自己、拥有链接的人或公开
点击 'Create' 并分享链接
提示: 为获得最佳效果,请编写清晰具体的指令。在指令中包含输出示例和边界情况。
点击你的头像 → Settings → Personalization → Custom Instructions
在'你希望 ChatGPT 了解你什么?'中填写关于你的角色和需求的背景信息
在'你希望 ChatGPT 如何回复?'中填写输出格式偏好、语气和限制条件
这些指令会自动应用于所有新对话
提示: 自定义指令非常适合设置默认行为,例如'始终用中文回复'或'始终包含代码示例'。
在 GPT Builder 中,前往 'Configure' 选项卡 → Actions
点击 'Create new action' 并粘贴你的 OpenAPI 架构
设置认证方式(无、API Key 或 OAuth)
用示例请求测试 action
GPT 现在可以在对话中调用你的 API
提示: 你可以使用 Zapier 或 Make.com 等服务为你的 actions 创建无代码 API 端点。
4 个指南
前往 claude.ai,点击侧边栏中的 'Projects'
点击 'Create Project',设置名称和描述
添加自定义指令,定义 Claude 在此项目中应如何表现
将文件(PDFs、代码、文档)上传到项目知识库 — Claude 可以引用最多 200K tokens
在项目内发起对话 — Claude 会自动使用你的指令和文件
提示: 项目非常适合特定领域的工作。上传你的公司文档、风格指南或代码库,以获得具有上下文感知的回复。
使用 Claude API 时,在对话开头包含一条 'system' 消息
在系统提示词中定义 Claude 的角色、行为、输出格式和限制条件
包含所需输入和输出的 few-shot 示例
使用 XML 标签如 <instructions>、<context>、<output_format> 以实现清晰的结构
提示: Claude 对使用 XML 标签的结构化提示词反应极佳。请明确说明应该包含什么以及排除什么。
安装 Claude Code:npm install -g @anthropic-ai/claude-code
在项目根目录创建 CLAUDE.md 文件,包含指令和上下文
在 .claude/commands/ 目录中以 markdown 文件形式添加自定义斜杠命令
每个 .md 文件变成一个 /命令 — 文件内容就是提示词模板
使用 $ARGUMENTS 占位符进行动态输入
提示: Claude Code 技能在自动化开发工作流方面非常强大。可以创建用于代码审查、测试、部署等的命令。
Claude Desktop 和 Claude Code 支持 Model Context Protocol (MCP) 工具
安装 MCP 服务器:npx @anthropic-ai/create-mcp-server 或使用 npm 上的现有服务器
在 claude_desktop_config.json 或 .claude/settings.json 中配置
Claude 现在可以在对话中使用 MCP 工具访问数据库、API、文件等
提示: MCP 工具赋予 Claude 真实世界的能力。连接数据库、GitHub、Slack 等。
4 个指南
前往 aistudio.google.com,点击 'Create new prompt'
选择 'Structured Prompt' 以获得一致的、基于模板的输出
定义输入列(变量)和输出列(预期结果)
添加显示输入-输出对的示例行,用于 few-shot 学习
用新输入进行测试并迭代改进你的示例
通过 'Get Code' 按钮保存和分享(Python、JavaScript、REST)
提示: 结构化提示词非常适合需要一致输出格式的分类、提取和转换任务。
点击 'Create new prompt' → 'Chat Prompt'
编写定义 AI 角色和行为的系统指令
如果你的提示词需要调用外部 API,添加工具(function declarations)
配置模型设置:temperature、top-p、最大输出 tokens
在 playground 中测试,准备好后导出代码
提示: 使用 'Safety settings' 为你的特定用例自定义内容过滤。
在 aistudio.google.com → 'Get API Key' 获取你的 API 密钥
安装 SDK:pip install google-genai(Python)或 npm install @google/genai
用你的 API 密钥初始化客户端
使用 generateContent() 处理文本、图像、音频和视频输入
添加工具声明以实现 function calling 功能
提示: Gemini 原生支持多模态输入 — 发送图像、音频和视频配合文本,实现丰富的 AI 交互。
生产环境请在 Google Cloud Console 中使用 Vertex AI
创建端点并部署你调优的模型,或直接使用 Gemini
使用服务账户设置身份验证
配置自动扩缩、监控和日志记录
使用 Vertex AI Pipelines 构建自动化 ML 工作流
提示: Vertex AI 提供 AI Studio 所没有的企业级功能,如 VPC、CMEK 加密和 SLA 保障。
3 个指南
打开 Antigravity 仪表板,点击 'New Workflow'
选择触发器:定时、Webhook、表单提交或事件
从侧边栏拖放操作块:发送邮件、API 调用、数据库查询等
用箭头连接各块以定义流程
添加条件分支(If/Else)实现决策逻辑
配置每个块的设置(API 端点、邮件模板等)
激活前用示例数据测试工作流
将工作流切换为 'Active' 开始运行
提示: 从 2-3 个块开始简单构建,逐步增加复杂性。每次修改后使用 'Test' 按钮。
浏览模板库查看预构建的工作流
点击 'Use Template' 在你的工作区创建副本
自定义模板:更改触发器设置、更新 API 密钥、修改条件
根据提示连接你的账户(Slack、Gmail、CRM 等)
测试并激活
提示: 模板是最快的入门方式。自定义模板而不是从头构建。
前往 Settings → Integrations → Add New
对于不在内置列表中的服务,选择 'Custom API'
输入 API 基础 URL 和认证详情
定义可用操作(端点)及其请求/响应架构
你的自定义集成现在会出现在工作流构建器侧边栏中
提示: 使用 webhook 块与任何支持 webhooks 的服务进行实时集成。
4 个指南
在 npm、GitHub 或本目录中查找 MCP 服务器
安装:npm install -g @modelcontextprotocol/server-name
在你的 AI 客户端设置文件中配置(例如 claude_desktop_config.json)
添加服务器命令和所需的环境变量
重启你的 AI 客户端 — 工具将自动变为可用
AI 现在可以在对话中使用 MCP 工具
提示: 热门 MCP 服务器:filesystem、github、slack、postgres、sqlite、brave-search。查看我们的 MCP 分类,有超过 1,500 个选项。
初始化:npx @anthropic-ai/create-mcp-server my-server
使用 MCP SDK 在 src/index.ts 中定义工具
每个工具需要:名称、描述、输入架构(JSON Schema)和处理函数
添加 AI 可以读取的数据资源(文件、数据库记录等)
添加可重用的提示词模板
本地测试:npx tsx src/index.ts
发布到 npm 供他人使用:npm publish
提示: 专注于清晰的工具描述 — AI 使用这些描述来决定何时以及如何调用你的工具。
Claude Desktop:编辑 ~/Library/Application Support/Claude/claude_desktop_config.json(Mac)或 %APPDATA%/Claude/claude_desktop_config.json(Windows)
Claude Code:编辑项目中的 .claude/settings.json 或全局的 ~/.claude/settings.json
将你的服务器添加到 'mcpServers' 对象中,包含命令和参数
使用 'env' 字段设置 API 密钥的环境变量
本地服务器使用 'stdio' 传输,远程服务器使用 'sse'
提示: 使用环境变量存储 API 密钥 — 永远不要在配置文件中硬编码密钥。
MCP 是开放标准 — 可与任何兼容的 AI 客户端配合使用
对于自定义集成,使用 MCP 客户端 SDK(@modelcontextprotocol/sdk)
在你自己的应用程序中以编程方式连接 MCP 服务器
通过将 MCP 工具架构转换为 OpenAI/Gemini 的 function calling 格式来桥接 MCP
使用 MCP 代理服务器通过 REST APIs 暴露 MCP 工具
提示: MCP 的开放标准意味着你的工具无需重写即可在各 AI 平台间使用。