各プラットフォームのステップバイステップガイド。AIスキルの作成、設定、共有方法を学びましょう。
共有したいスキルがありますか?直接ディレクトリに投稿できます。
スキルを投稿3件のガイド
chat.openai.com にアクセスし、プロフィールをクリック → My GPTs → Create a GPT
'Create' タブで、GPT に何をさせたいかを自然言語で説明します
名前、説明、指示、会話スターターを設定します
GPT が参照するナレッジファイル(PDFs、ドキュメント)をアップロードします
外部 API に接続するための Actions を追加します(オプション)
公開範囲を設定:自分だけ、リンクを持つ人、または一般公開
'Create' をクリックしてリンクを共有します
ヒント: 最良の結果を得るには、明確で具体的な指示を書いてください。指示に出力例やエッジケースを含めましょう。
プロフィールアイコンをクリック → Settings → Personalization → Custom Instructions
'ChatGPT にあなたについて何を知ってほしいですか?'に、あなたの役割とニーズに関するコンテキストを入力します
'ChatGPT にどのように応答してほしいですか?'に、出力形式の好み、トーン、制約を入力します
これらの指示は、すべての新しい会話に自動的に適用されます
ヒント: カスタム指示は、「常に日本語で応答する」や「常にコード例を含める」などのデフォルト動作を設定するのに最適です。
GPT Builder で 'Configure' タブ → Actions に移動します
'Create new action' をクリックし、OpenAPI スキーマを貼り付けます
認証方法を設定します(なし、API Key、または OAuth)
サンプルリクエストで action をテストします
GPT は会話中にあなたの API を呼び出せるようになります
ヒント: Zapier や Make.com などのサービスを使用して、actions 用のノーコード API エンドポイントを作成できます。
4件のガイド
claude.ai にアクセスし、サイドバーの 'Projects' をクリックします
'Create Project' をクリックし、名前と説明を設定します
このプロジェクトで Claude がどのように振る舞うべきかを定義するカスタム指示を追加します
プロジェクトのナレッジベースにファイル(PDFs、コード、ドキュメント)をアップロードします — Claude は最大 200K トークンを参照できます
プロジェクト内で会話を開始します — Claude は指示とファイルを自動的に使用します
ヒント: プロジェクトはドメイン固有の作業に最適です。コンテキストを認識した応答のために、会社のドキュメント、スタイルガイド、コードベースをアップロードしましょう。
Claude API を使用する際、会話の先頭に 'system' メッセージを含めます
システムプロンプトで Claude の役割、動作、出力形式、制約を定義します
期待される入力と出力の few-shot 例を含めます
<instructions>、<context>、<output_format> などの XML タグを使用して明確な構造を作ります
ヒント: Claude は XML タグを使った構造化プロンプトに非常によく反応します。何を含めるか、何を除外するかについて具体的にしましょう。
Claude Code をインストール:npm install -g @anthropic-ai/claude-code
プロジェクトのルートディレクトリに指示とコンテキストを含む CLAUDE.md ファイルを作成します
.claude/commands/ ディレクトリにカスタムスラッシュコマンドを markdown ファイルとして追加します
各 .md ファイルが /コマンド になります — ファイルの内容がプロンプトテンプレートです
動的入力には $ARGUMENTS プレースホルダーを使用します
ヒント: Claude Code のスキルは開発ワークフローの自動化に強力です。コードレビュー、テスト、デプロイメントなどのコマンドを作成しましょう。
Claude Desktop と Claude Code は Model Context Protocol (MCP) ツールをサポートしています
MCP サーバーをインストール:npx @anthropic-ai/create-mcp-server または npm の既存のものを使用
claude_desktop_config.json または .claude/settings.json で設定します
Claude は会話中に MCP ツールを使用してデータベース、API、ファイルなどにアクセスできるようになります
ヒント: MCP ツールは Claude に現実世界の能力を与えます。データベース、GitHub、Slack などを接続しましょう。
4件のガイド
aistudio.google.com にアクセスし、'Create new prompt' をクリックします
一貫したテンプレートベースの出力のために 'Structured Prompt' を選択します
入力列(変数)と出力列(期待される結果)を定義します
few-shot 学習のための入出力ペアを示す例の行を追加します
新しい入力でテストし、例を改善していきます
'Get Code' ボタンで保存・共有します(Python、JavaScript、REST)
ヒント: 構造化プロンプトは、一貫した出力形式が必要な分類、抽出、変換タスクに最適です。
'Create new prompt' → 'Chat Prompt' をクリックします
AI の役割と動作を定義するシステム指示を作成します
プロンプトが外部 API を呼び出す必要がある場合、ツール(function declarations)を追加します
モデル設定を構成します:temperature、top-p、最大出力トークン数
playground でテストし、準備ができたらコードをエクスポートします
ヒント: 特定のユースケースに合わせてコンテンツフィルタリングをカスタマイズするには、'Safety settings' を使用してください。
aistudio.google.com → 'Get API Key' から API キーを取得します
SDK をインストール:pip install google-genai(Python)または npm install @google/genai
API キーでクライアントを初期化します
テキスト、画像、音声、動画入力に generateContent() を使用します
function calling 機能のためのツール宣言を追加します
ヒント: Gemini はマルチモーダル入力をネイティブにサポートしています — テキストとともに画像、音声、動画を送信して、豊かな AI インタラクションを実現しましょう。
本番環境では、Google Cloud Console の Vertex AI を使用します
エンドポイントを作成し、チューニング済みモデルをデプロイするか、Gemini を直接使用します
サービスアカウントで認証を設定します
自動スケーリング、モニタリング、ロギングを設定します
自動化された ML ワークフローに Vertex AI Pipelines を使用します
ヒント: Vertex AI は、AI Studio にはない VPC、CMEK 暗号化、SLA 保証などのエンタープライズ機能を提供します。
3件のガイド
Antigravity ダッシュボードを開き、'New Workflow' をクリックします
トリガーを選択:スケジュール、Webhook、フォーム送信、またはイベント
サイドバーからアクションブロックをドラッグ&ドロップ:メール送信、API 呼び出し、データベースクエリなど
ブロックを矢印で接続してフローを定義します
判断ロジック用の条件分岐(If/Else)を追加します
各ブロックの設定を構成します(API エンドポイント、メールテンプレートなど)
有効化する前にサンプルデータでワークフローをテストします
ワークフローを 'Active' に切り替えて実行を開始します
ヒント: 2〜3 ブロックからシンプルに始め、徐々に複雑さを追加しましょう。変更のたびに 'Test' ボタンを使用してください。
テンプレートギャラリーで構築済みワークフローを閲覧します
'Use Template' をクリックしてワークスペースにコピーを作成します
テンプレートをカスタマイズ:トリガー設定の変更、API キーの更新、条件の修正
求められたらアカウント(Slack、Gmail、CRM など)を接続します
テストして有効化します
ヒント: テンプレートは始める最速の方法です。ゼロから構築するのではなく、テンプレートをカスタマイズしましょう。
Settings → Integrations → Add New に移動します
組み込みリストにないサービスには 'Custom API' を選択します
API のベース URL と認証情報を入力します
リクエスト/レスポンススキーマを使って利用可能なアクション(エンドポイント)を定義します
カスタム統合がワークフロービルダーのサイドバーに表示されるようになります
ヒント: webhooks をサポートするサービスとのリアルタイム統合には、webhook ブロックを使用してください。
4件のガイド
npm、GitHub、またはこのディレクトリで MCP サーバーを見つけます
インストール:npm install -g @modelcontextprotocol/server-name
AI クライアントの設定ファイルで構成します(例:claude_desktop_config.json)
サーバーコマンドと必要な環境変数を追加します
AI クライアントを再起動します — ツールが自動的に利用可能になります
AI は会話中に MCP ツールを使用できるようになります
ヒント: 人気の MCP サーバー:filesystem、github、slack、postgres、sqlite、brave-search。1,500 以上のオプションについては MCP カテゴリをご覧ください。
初期化:npx @anthropic-ai/create-mcp-server my-server
MCP SDK を使用して src/index.ts でツールを定義します
各ツールには、名前、説明、入力スキーマ(JSON Schema)、ハンドラー関数が必要です
AI が読み取れるデータのリソースを追加します(ファイル、データベースレコードなど)
再利用可能なプロンプトテンプレート用のプロンプトを追加します
ローカルでテスト:npx tsx src/index.ts
他の人が使えるように npm に公開:npm publish
ヒント: 明確なツール説明に注力してください — AI はこれらを使ってツールをいつ、どのように呼び出すかを判断します。
Claude Desktop の場合:~/Library/Application Support/Claude/claude_desktop_config.json(Mac)または %APPDATA%/Claude/claude_desktop_config.json(Windows)を編集します
Claude Code の場合:プロジェクト内の .claude/settings.json またはグローバルの ~/.claude/settings.json を編集します
'mcpServers' オブジェクトにサーバーをコマンドと引数とともに追加します
API キー用の環境変数を 'env' フィールドで設定します
ローカルサーバーには 'stdio' トランスポート、リモートサーバーには 'sse' を使用します
ヒント: API キーには環境変数を使用してください — 設定ファイルにシークレットを直接記述しないでください。
MCP はオープンスタンダードです — 互換性のある任意の AI クライアントで動作します
カスタム統合には、MCP クライアント SDK(@modelcontextprotocol/sdk)を使用します
独自のアプリケーションで MCP サーバーにプログラム的に接続します
MCP ツールスキーマを OpenAI/Gemini の function calling 形式に変換して MCP をブリッジします
MCP プロキシサーバーを使用して MCP ツールを REST APIs 経由で公開します
ヒント: MCP のオープンスタンダードにより、ツールを書き直すことなく AI プラットフォーム間で動作させることができます。