Guides étape par étape pour chaque plateforme. Apprenez à créer, configurer et partager des compétences IA.
Vous avez une compétence à partager ? Soumettez-la directement à notre répertoire.
Soumettre une compétence3 guides
Allez sur chat.openai.com et cliquez sur votre profil → My GPTs → Create a GPT
Dans l'onglet 'Create', decrivez en langage naturel ce que vous voulez que votre GPT fasse
Configurez le nom, la description, les instructions et les demarreurs de conversation
Telechargez des fichiers de connaissances (PDFs, documents) que votre GPT pourra consulter
Ajoutez des Actions pour connecter des APIs externes (optionnel)
Definissez la visibilite : Moi uniquement, Toute personne avec un lien, ou Public
Cliquez sur 'Create' et partagez le lien
Conseil: Pour de meilleurs resultats, redigez des instructions claires et specifiques. Incluez des exemples de sorties et des cas limites dans vos instructions.
Cliquez sur votre icone de profil → Settings → Personalization → Custom Instructions
Remplissez 'Que souhaitez-vous que ChatGPT sache sur vous ?' avec le contexte de votre role et vos besoins
Remplissez 'Comment souhaitez-vous que ChatGPT reponde ?' avec vos preferences de format, ton et contraintes
Ces instructions s'appliquent automatiquement a toutes les nouvelles conversations
Conseil: Les instructions personnalisees sont ideales pour definir un comportement par defaut comme 'Reponds toujours en francais' ou 'Inclus toujours des exemples de code'.
Dans GPT Builder, allez dans l'onglet 'Configure' → Actions
Cliquez sur 'Create new action' et collez votre schema OpenAPI
Definissez la methode d'authentification (Aucune, API Key ou OAuth)
Testez l'action avec des requetes exemples
Le GPT peut maintenant appeler votre API pendant les conversations
Conseil: Vous pouvez utiliser des services comme Zapier ou Make.com pour creer des points d'acces API sans code pour vos actions.
4 guides
Allez sur claude.ai et cliquez sur 'Projects' dans la barre laterale
Cliquez sur 'Create Project' et donnez-lui un nom et une description
Ajoutez des instructions personnalisees definissant comment Claude doit se comporter dans ce projet
Telechargez des fichiers (PDFs, code, documents) dans la base de connaissances du projet — Claude peut referencer jusqu'a 200K tokens
Demarrez des conversations au sein du projet — Claude utilisera automatiquement vos instructions et fichiers
Conseil: Les projets sont parfaits pour le travail specifique a un domaine. Telechargez vos documents d'entreprise, guides de style ou bases de code pour des reponses contextualisees.
Lors de l'utilisation de l'API Claude, incluez un message 'system' au debut de votre conversation
Definissez le role, le comportement, le format de sortie et les contraintes de Claude dans le prompt systeme
Incluez des exemples few-shot des entrees et sorties souhaitees
Utilisez des balises XML comme <instructions>, <context>, <output_format> pour une structure claire
Conseil: Claude repond exceptionnellement bien aux prompts structures avec des balises XML. Soyez specifique sur ce qu'il faut inclure ET exclure.
Installez Claude Code : npm install -g @anthropic-ai/claude-code
Creez un fichier CLAUDE.md a la racine de votre projet avec des instructions et du contexte
Ajoutez des commandes slash personnalisees dans le repertoire .claude/commands/ sous forme de fichiers markdown
Chaque fichier .md devient une /commande — le contenu du fichier est le modele de prompt
Utilisez le placeholder $ARGUMENTS pour les entrees dynamiques
Conseil: Les competences Claude Code sont puissantes pour automatiser les workflows de developpement. Creez des commandes pour la revue de code, les tests, le deploiement et plus encore.
Claude Desktop et Claude Code prennent en charge les outils Model Context Protocol (MCP)
Installez des serveurs MCP : npx @anthropic-ai/create-mcp-server ou utilisez ceux existants sur npm
Configurez dans claude_desktop_config.json ou .claude/settings.json
Claude peut maintenant utiliser les outils MCP pendant les conversations pour acceder aux bases de donnees, APIs, fichiers, etc.
Conseil: Les outils MCP donnent a Claude des capacites reelles. Connectez des bases de donnees, GitHub, Slack et plus encore.
4 guides
Allez sur aistudio.google.com et cliquez sur 'Create new prompt'
Choisissez 'Structured Prompt' pour des sorties coherentes basees sur des modeles
Definissez les colonnes d'entree (variables) et les colonnes de sortie (resultats attendus)
Ajoutez des lignes d'exemples montrant des paires entree-sortie pour l'apprentissage few-shot
Testez avec de nouvelles entrees et ameliorez vos exemples
Enregistrez et partagez via le bouton 'Get Code' (Python, JavaScript, REST)
Conseil: Les prompts structures sont ideaux pour les taches de classification, d'extraction et de transformation ou vous avez besoin de formats de sortie coherents.
Cliquez sur 'Create new prompt' → 'Chat Prompt'
Redigez des instructions systeme definissant le role et le comportement de l'AI
Ajoutez des outils (function declarations) si votre prompt doit appeler des APIs externes
Configurez les parametres du modele : temperature, top-p, nombre maximum de tokens de sortie
Testez dans le playground et exportez le code quand il est pret
Conseil: Utilisez les 'Safety settings' pour personnaliser le filtrage de contenu selon votre cas d'utilisation specifique.
Obtenez votre cle API sur aistudio.google.com → 'Get API Key'
Installez le SDK : pip install google-genai (Python) ou npm install @google/genai
Initialisez le client avec votre cle API
Utilisez generateContent() pour les entrees texte, image, audio et video
Ajoutez des declarations d'outils pour les capacites de function calling
Conseil: Gemini prend en charge nativement les entrees multimodales — envoyez des images, de l'audio et de la video avec du texte pour des interactions AI riches.
Pour la production, utilisez Vertex AI dans Google Cloud Console
Creez un point d'acces et deployez votre modele optimise ou utilisez Gemini directement
Configurez l'authentification avec des comptes de service
Configurez la mise a l'echelle automatique, la surveillance et la journalisation
Utilisez Vertex AI Pipelines pour des workflows ML automatises
Conseil: Vertex AI fournit des fonctionnalites entreprise comme VPC, le chiffrement CMEK et des garanties SLA qu'AI Studio n'offre pas.
3 guides
Ouvrez le tableau de bord Antigravity et cliquez sur 'New Workflow'
Choisissez un declencheur : Planification, Webhook, Soumission de formulaire ou Evenement
Glissez-deposez des blocs d'action depuis la barre laterale : Envoyer un e-mail, Appel API, Requete de base de donnees, etc.
Connectez les blocs avec des fleches pour definir le flux
Ajoutez des branches conditionnelles (If/Else) pour la logique decisionnelle
Configurez les parametres de chaque bloc (points d'acces API, modeles d'e-mail, etc.)
Testez le workflow avec des donnees exemples avant de l'activer
Basculez le workflow sur 'Active' pour commencer l'execution
Conseil: Commencez simplement avec 2-3 blocs et ajoutez progressivement de la complexite. Utilisez le bouton 'Test' apres chaque modification.
Parcourez la galerie de modeles pour des workflows preconstruits
Cliquez sur 'Use Template' pour creer une copie dans votre espace de travail
Personnalisez le modele : modifiez les parametres de declenchement, mettez a jour les cles API, modifiez les conditions
Connectez vos comptes (Slack, Gmail, CRM, etc.) lorsque demande
Testez et activez
Conseil: Les modeles sont le moyen le plus rapide de demarrer. Personnalisez-les plutot que de construire a partir de zero.
Allez dans Settings → Integrations → Add New
Choisissez 'Custom API' pour les services absents de la liste integree
Entrez l'URL de base de l'API et les details d'authentification
Definissez les actions disponibles (points d'acces) avec les schemas de requete/reponse
Votre integration personnalisee apparait maintenant dans la barre laterale du constructeur de workflows
Conseil: Utilisez des blocs webhook pour des integrations en temps reel avec tout service prenant en charge les webhooks.
4 guides
Trouvez des serveurs MCP sur npm, GitHub ou ce repertoire
Installez : npm install -g @modelcontextprotocol/server-name
Configurez dans le fichier de parametres de votre client AI (ex. claude_desktop_config.json)
Ajoutez la commande du serveur et les variables d'environnement requises
Redemarrez votre client AI — les outils deviennent automatiquement disponibles
L'AI peut maintenant utiliser les outils MCP pendant les conversations
Conseil: Serveurs MCP populaires : filesystem, github, slack, postgres, sqlite, brave-search. Consultez notre categorie MCP pour plus de 1 500 options.
Initialisez : npx @anthropic-ai/create-mcp-server my-server
Definissez les outils dans src/index.ts en utilisant le MCP SDK
Chaque outil necessite : nom, description, schema d'entree (JSON Schema) et une fonction handler
Ajoutez des ressources pour les donnees que l'AI peut lire (fichiers, enregistrements de base de donnees, etc.)
Ajoutez des prompts pour des modeles de prompts reutilisables
Testez localement : npx tsx src/index.ts
Publiez sur npm pour que d'autres puissent l'utiliser : npm publish
Conseil: Concentrez-vous sur des descriptions d'outils claires — l'AI les utilise pour decider quand et comment appeler vos outils.
Pour Claude Desktop : Editez ~/Library/Application Support/Claude/claude_desktop_config.json (Mac) ou %APPDATA%/Claude/claude_desktop_config.json (Windows)
Pour Claude Code : Editez .claude/settings.json dans votre projet ou ~/.claude/settings.json globalement
Ajoutez votre serveur a l'objet 'mcpServers' avec la commande et les arguments
Definissez les variables d'environnement avec le champ 'env' pour les cles API
Utilisez le transport 'stdio' pour les serveurs locaux, 'sse' pour les distants
Conseil: Utilisez des variables d'environnement pour les cles API — ne codez jamais en dur les secrets dans les fichiers de configuration.
MCP est un standard ouvert — il fonctionne avec tout client AI compatible
Pour des integrations personnalisees, utilisez le SDK client MCP (@modelcontextprotocol/sdk)
Connectez-vous aux serveurs MCP de maniere programmatique dans vos propres applications
Faites le pont entre MCP et OpenAI/Gemini en traduisant les schemas d'outils MCP dans leur format de function calling
Utilisez des serveurs proxy MCP pour exposer les outils MCP via des REST APIs
Conseil: Le standard ouvert de MCP signifie que vos outils fonctionnent sur toutes les plateformes AI sans reecriture.
Soumettez votre compétence à notre répertoire et aidez les autres à la découvrir.