Schritt-für-Schritt-Anleitungen für jede Plattform. Lernen Sie, AI-Skills zu erstellen, zu konfigurieren und zu teilen.
Haben Sie einen Skill zum Teilen? Reichen Sie ihn direkt in unserem Verzeichnis ein.
Skill einreichen3 Anleitungen
Gehen Sie zu chat.openai.com und klicken Sie auf Ihr Profil → My GPTs → Create a GPT
Beschreiben Sie im 'Create'-Tab in natürlicher Sprache, was Ihr GPT tun soll
Konfigurieren Sie Name, Beschreibung, Anweisungen und Gesprächsstarter
Laden Sie Wissensdateien (PDFs, Dokumente) hoch, auf die Ihr GPT zugreifen kann
Fügen Sie Actions hinzu, um externe APIs zu verbinden (optional)
Legen Sie die Sichtbarkeit fest: Nur ich, Jeder mit einem Link oder Öffentlich
Klicken Sie auf 'Create' und teilen Sie den Link
Tipp: Für beste Ergebnisse schreiben Sie klare und spezifische Anweisungen. Fügen Sie Beispielausgaben und Grenzfälle in Ihre Anweisungen ein.
Klicken Sie auf Ihr Profilsymbol → Settings → Personalization → Custom Instructions
Füllen Sie 'Was soll ChatGPT über Sie wissen?' mit Kontext zu Ihrer Rolle und Ihren Bedürfnissen aus
Füllen Sie 'Wie soll ChatGPT antworten?' mit Ausgabeformat-Präferenzen, Ton und Einschränkungen aus
Diese Anweisungen gelten automatisch für alle neuen Konversationen
Tipp: Benutzerdefinierte Anweisungen eignen sich hervorragend für Standardverhalten wie 'Antworte immer auf Deutsch' oder 'Füge immer Codebeispiele ein'.
Gehen Sie im GPT Builder zum 'Configure'-Tab → Actions
Klicken Sie auf 'Create new action' und fügen Sie Ihr OpenAPI-Schema ein
Legen Sie die Authentifizierungsmethode fest (Keine, API Key oder OAuth)
Testen Sie die Action mit Beispielanfragen
Der GPT kann jetzt während Konversationen Ihre API aufrufen
Tipp: Sie können Dienste wie Zapier oder Make.com verwenden, um No-Code API-Endpunkte für Ihre Actions zu erstellen.
4 Anleitungen
Gehen Sie zu claude.ai und klicken Sie in der Seitenleiste auf 'Projects'
Klicken Sie auf 'Create Project' und geben Sie einen Namen und eine Beschreibung ein
Fügen Sie benutzerdefinierte Anweisungen hinzu, die definieren, wie Claude sich in diesem Projekt verhalten soll
Laden Sie Dateien (PDFs, Code, Dokumente) in die Projekt-Wissensdatenbank hoch — Claude kann bis zu 200K Token referenzieren
Starten Sie Konversationen innerhalb des Projekts — Claude verwendet Ihre Anweisungen und Dateien automatisch
Tipp: Projekte sind perfekt für domänenspezifische Arbeit. Laden Sie Ihre Unternehmensdokumente, Stilrichtlinien oder Codebasen für kontextbewusste Antworten hoch.
Fügen Sie bei Verwendung der Claude API eine 'system'-Nachricht am Anfang Ihrer Konversation ein
Definieren Sie im System-Prompt Claudes Rolle, Verhalten, Ausgabeformat und Einschränkungen
Fügen Sie Few-Shot-Beispiele der gewünschten Ein- und Ausgaben hinzu
Verwenden Sie XML-Tags wie <instructions>, <context>, <output_format> für eine klare Struktur
Tipp: Claude reagiert außergewöhnlich gut auf strukturierte Prompts mit XML-Tags. Seien Sie spezifisch darüber, was eingeschlossen UND ausgeschlossen werden soll.
Installieren Sie Claude Code: npm install -g @anthropic-ai/claude-code
Erstellen Sie eine CLAUDE.md-Datei im Stammverzeichnis Ihres Projekts mit Anweisungen und Kontext
Fügen Sie benutzerdefinierte Slash-Befehle im Verzeichnis .claude/commands/ als Markdown-Dateien hinzu
Jede .md-Datei wird zu einem /Befehl — der Dateiinhalt ist die Prompt-Vorlage
Verwenden Sie den $ARGUMENTS-Platzhalter für dynamische Eingaben
Tipp: Claude Code-Fähigkeiten sind leistungsstark für die Automatisierung von Entwicklungsworkflows. Erstellen Sie Befehle für Code-Review, Tests, Deployment und mehr.
Claude Desktop und Claude Code unterstützen Model Context Protocol (MCP)-Tools
Installieren Sie MCP-Server: npx @anthropic-ai/create-mcp-server oder verwenden Sie vorhandene von npm
Konfigurieren Sie in claude_desktop_config.json oder .claude/settings.json
Claude kann jetzt während Konversationen MCP-Tools verwenden, um auf Datenbanken, APIs, Dateien usw. zuzugreifen
Tipp: MCP-Tools geben Claude reale Fähigkeiten. Verbinden Sie Datenbanken, GitHub, Slack und mehr.
4 Anleitungen
Gehen Sie zu aistudio.google.com und klicken Sie auf 'Create new prompt'
Wählen Sie 'Structured Prompt' für konsistente, vorlagenbasierte Ausgaben
Definieren Sie Eingabespalten (Variablen) und Ausgabespalten (erwartete Ergebnisse)
Fügen Sie Beispielzeilen mit Ein-/Ausgabepaaren für Few-Shot-Lernen hinzu
Testen Sie mit neuen Eingaben und iterieren Sie Ihre Beispiele
Speichern und teilen Sie über die 'Get Code'-Schaltfläche (Python, JavaScript, REST)
Tipp: Strukturierte Prompts sind ideal für Klassifizierungs-, Extraktions- und Transformationsaufgaben, bei denen Sie konsistente Ausgabeformate benötigen.
Klicken Sie auf 'Create new prompt' → 'Chat Prompt'
Schreiben Sie Systemanweisungen, die die Rolle und das Verhalten der AI definieren
Fügen Sie Tools (Function Declarations) hinzu, wenn Ihr Prompt externe APIs aufrufen muss
Konfigurieren Sie Modelleinstellungen: Temperature, Top-P, maximale Ausgabe-Token
Testen Sie im Playground und exportieren Sie den Code, wenn er bereit ist
Tipp: Verwenden Sie die 'Safety settings', um die Inhaltsfilterung für Ihren spezifischen Anwendungsfall anzupassen.
Holen Sie sich Ihren API-Schlüssel unter aistudio.google.com → 'Get API Key'
Installieren Sie das SDK: pip install google-genai (Python) oder npm install @google/genai
Initialisieren Sie den Client mit Ihrem API-Schlüssel
Verwenden Sie generateContent() für Text-, Bild-, Audio- und Videoeingaben
Fügen Sie Tool-Deklarationen für Function-Calling-Fähigkeiten hinzu
Tipp: Gemini unterstützt multimodale Eingaben nativ — senden Sie Bilder, Audio und Video zusammen mit Text für reichhaltige AI-Interaktionen.
Verwenden Sie für die Produktion Vertex AI in der Google Cloud Console
Erstellen Sie einen Endpunkt und stellen Sie Ihr optimiertes Modell bereit oder verwenden Sie Gemini direkt
Richten Sie die Authentifizierung mit Dienstkonten ein
Konfigurieren Sie automatische Skalierung, Überwachung und Protokollierung
Verwenden Sie Vertex AI Pipelines für automatisierte ML-Workflows
Tipp: Vertex AI bietet Enterprise-Funktionen wie VPC, CMEK-Verschlüsselung und SLA-Garantien, die AI Studio nicht bietet.
3 Anleitungen
Öffnen Sie das Antigravity-Dashboard und klicken Sie auf 'New Workflow'
Wählen Sie einen Trigger: Zeitplan, Webhook, Formularübermittlung oder Ereignis
Ziehen Sie Aktionsblöcke aus der Seitenleiste per Drag & Drop: E-Mail senden, API-Aufruf, Datenbankabfrage usw.
Verbinden Sie Blöcke mit Pfeilen, um den Ablauf zu definieren
Fügen Sie bedingte Verzweigungen (If/Else) für Entscheidungslogik hinzu
Konfigurieren Sie die Einstellungen jedes Blocks (API-Endpunkte, E-Mail-Vorlagen usw.)
Testen Sie den Workflow mit Beispieldaten, bevor Sie ihn aktivieren
Schalten Sie den Workflow auf 'Active', um die Ausführung zu starten
Tipp: Beginnen Sie einfach mit 2-3 Blöcken und fügen Sie schrittweise Komplexität hinzu. Verwenden Sie die 'Test'-Schaltfläche nach jeder Änderung.
Durchsuchen Sie die Vorlagengalerie nach vorgefertigten Workflows
Klicken Sie auf 'Use Template', um eine Kopie in Ihrem Arbeitsbereich zu erstellen
Passen Sie die Vorlage an: Ändern Sie Trigger-Einstellungen, aktualisieren Sie API-Schlüssel, modifizieren Sie Bedingungen
Verbinden Sie Ihre Konten (Slack, Gmail, CRM usw.), wenn Sie dazu aufgefordert werden
Testen und aktivieren Sie
Tipp: Vorlagen sind der schnellste Weg zum Einstieg. Passen Sie diese an, anstatt von Grund auf neu zu erstellen.
Gehen Sie zu Settings → Integrations → Add New
Wählen Sie 'Custom API' für Dienste, die nicht in der integrierten Liste enthalten sind
Geben Sie die API-Basis-URL und Authentifizierungsdetails ein
Definieren Sie die verfügbaren Aktionen (Endpunkte) mit Anfrage-/Antwortschemata
Ihre benutzerdefinierte Integration erscheint jetzt in der Seitenleiste des Workflow-Builders
Tipp: Verwenden Sie Webhook-Blöcke für Echtzeit-Integrationen mit jedem Dienst, der Webhooks unterstützt.
4 Anleitungen
Finden Sie MCP-Server auf npm, GitHub oder in diesem Verzeichnis
Installieren: npm install -g @modelcontextprotocol/server-name
Konfigurieren Sie in der Einstellungsdatei Ihres AI-Clients (z.B. claude_desktop_config.json)
Fügen Sie den Server-Befehl und alle erforderlichen Umgebungsvariablen hinzu
Starten Sie Ihren AI-Client neu — die Tools werden automatisch verfügbar
Die AI kann jetzt während Konversationen die MCP-Tools verwenden
Tipp: Beliebte MCP-Server: filesystem, github, slack, postgres, sqlite, brave-search. Schauen Sie in unsere MCP-Kategorie für über 1.500 Optionen.
Initialisieren: npx @anthropic-ai/create-mcp-server my-server
Definieren Sie Tools in src/index.ts mit dem MCP SDK
Jedes Tool benötigt: Name, Beschreibung, Eingabeschema (JSON Schema) und eine Handler-Funktion
Fügen Sie Ressourcen für Daten hinzu, die die AI lesen kann (Dateien, Datenbankeinträge usw.)
Fügen Sie Prompts für wiederverwendbare Prompt-Vorlagen hinzu
Lokal testen: npx tsx src/index.ts
Auf npm veröffentlichen, damit andere es nutzen können: npm publish
Tipp: Konzentrieren Sie sich auf klare Tool-Beschreibungen — die AI verwendet diese, um zu entscheiden, wann und wie Ihre Tools aufgerufen werden.
Für Claude Desktop: Bearbeiten Sie ~/Library/Application Support/Claude/claude_desktop_config.json (Mac) oder %APPDATA%/Claude/claude_desktop_config.json (Windows)
Für Claude Code: Bearbeiten Sie .claude/settings.json in Ihrem Projekt oder ~/.claude/settings.json global
Fügen Sie Ihren Server zum 'mcpServers'-Objekt mit Befehl und Argumenten hinzu
Setzen Sie Umgebungsvariablen mit dem 'env'-Feld für API-Schlüssel
Verwenden Sie 'stdio'-Transport für lokale Server, 'sse' für entfernte
Tipp: Verwenden Sie Umgebungsvariablen für API-Schlüssel — kodieren Sie niemals Geheimnisse direkt in Konfigurationsdateien.
MCP ist ein offener Standard — er funktioniert mit jedem kompatiblen AI-Client
Für benutzerdefinierte Integrationen verwenden Sie das MCP-Client-SDK (@modelcontextprotocol/sdk)
Verbinden Sie sich programmatisch mit MCP-Servern in Ihren eigenen Anwendungen
Überbrücken Sie MCP zu OpenAI/Gemini, indem Sie MCP-Tool-Schemas in deren Function-Calling-Format übersetzen
Verwenden Sie MCP-Proxy-Server, um MCP-Tools über REST APIs bereitzustellen
Tipp: Der offene Standard von MCP bedeutet, dass Ihre Tools plattformübergreifend funktionieren, ohne sie neu schreiben zu müssen.
Reichen Sie Ihren Skill ein und helfen Sie anderen, ihn zu entdecken.