Guide passo passo per ogni piattaforma. Impara a creare, configurare e condividere competenze IA.
Hai una competenza da condividere? Inviala direttamente alla nostra directory.
Invia una Competenza3 guide
Vai su chat.openai.com e clicca sul tuo profilo → My GPTs → Create a GPT
Nella scheda 'Create', descrivi in linguaggio naturale cosa vuoi che il tuo GPT faccia
Configura nome, descrizione, istruzioni e avviatori di conversazione
Carica file di conoscenza (PDFs, documenti) a cui il tuo GPT potra fare riferimento
Aggiungi Actions per collegare API esterne (opzionale)
Imposta la visibilita: Solo io, Chiunque con un link, o Pubblico
Clicca su 'Create' e condividi il link
Suggerimento: Per i migliori risultati, scrivi istruzioni chiare e specifiche. Includi esempi di output e casi limite nelle tue istruzioni.
Clicca sulla tua icona del profilo → Settings → Personalization → Custom Instructions
Compila 'Cosa vorresti che ChatGPT sapesse di te?' con il contesto sul tuo ruolo e le tue esigenze
Compila 'Come vorresti che ChatGPT rispondesse?' con preferenze di formato di output, tono e vincoli
Queste istruzioni si applicano automaticamente a tutte le nuove conversazioni
Suggerimento: Le istruzioni personalizzate sono ottime per impostare comportamenti predefiniti come 'Rispondi sempre in italiano' o 'Includi sempre esempi di codice'.
In GPT Builder, vai alla scheda 'Configure' → Actions
Clicca su 'Create new action' e incolla il tuo schema OpenAPI
Imposta il metodo di autenticazione (Nessuno, API Key o OAuth)
Testa l'action con richieste di esempio
Il GPT ora puo chiamare la tua API durante le conversazioni
Suggerimento: Puoi usare servizi come Zapier o Make.com per creare endpoint API senza codice per le tue actions.
4 guide
Vai su claude.ai e clicca su 'Projects' nella barra laterale
Clicca su 'Create Project' e assegna un nome e una descrizione
Aggiungi istruzioni personalizzate che definiscono come Claude deve comportarsi in questo progetto
Carica file (PDFs, codice, documenti) nella base di conoscenza del progetto — Claude puo fare riferimento fino a 200K token
Avvia conversazioni all'interno del progetto — Claude utilizzera automaticamente le tue istruzioni e i tuoi file
Suggerimento: I progetti sono perfetti per il lavoro specifico di dominio. Carica i documenti aziendali, le guide di stile o le basi di codice per risposte contestualizzate.
Quando usi l'API di Claude, includi un messaggio 'system' all'inizio della conversazione
Definisci il ruolo, il comportamento, il formato di output e i vincoli di Claude nel prompt di sistema
Includi esempi few-shot degli input e output desiderati
Usa tag XML come <instructions>, <context>, <output_format> per una struttura chiara
Suggerimento: Claude risponde eccezionalmente bene ai prompt strutturati con tag XML. Sii specifico su cosa includere E cosa escludere.
Installa Claude Code: npm install -g @anthropic-ai/claude-code
Crea un file CLAUDE.md nella radice del tuo progetto con istruzioni e contesto
Aggiungi comandi slash personalizzati nella directory .claude/commands/ come file markdown
Ogni file .md diventa un /comando — il contenuto del file e il modello di prompt
Usa il segnaposto $ARGUMENTS per input dinamici
Suggerimento: Le competenze di Claude Code sono potenti per automatizzare i flussi di lavoro di sviluppo. Crea comandi per revisione del codice, test, deployment e altro.
Claude Desktop e Claude Code supportano gli strumenti Model Context Protocol (MCP)
Installa server MCP: npx @anthropic-ai/create-mcp-server o usa quelli esistenti da npm
Configura in claude_desktop_config.json o .claude/settings.json
Claude ora puo usare gli strumenti MCP durante le conversazioni per accedere a database, API, file, ecc.
Suggerimento: Gli strumenti MCP danno a Claude capacita del mondo reale. Collega database, GitHub, Slack e altro.
4 guide
Vai su aistudio.google.com e clicca su 'Create new prompt'
Scegli 'Structured Prompt' per output coerenti basati su modelli
Definisci colonne di input (variabili) e colonne di output (risultati attesi)
Aggiungi righe di esempio che mostrano coppie input-output per l'apprendimento few-shot
Testa con nuovi input e itera sui tuoi esempi
Salva e condividi tramite il pulsante 'Get Code' (Python, JavaScript, REST)
Suggerimento: I prompt strutturati sono ideali per attivita di classificazione, estrazione e trasformazione dove servono formati di output coerenti.
Clicca su 'Create new prompt' → 'Chat Prompt'
Scrivi istruzioni di sistema che definiscono il ruolo e il comportamento dell'AI
Aggiungi strumenti (function declarations) se il tuo prompt deve chiamare API esterne
Configura le impostazioni del modello: temperature, top-p, token massimi di output
Testa nel playground ed esporta il codice quando e pronto
Suggerimento: Usa i 'Safety settings' per personalizzare il filtraggio dei contenuti per il tuo caso d'uso specifico.
Ottieni la tua chiave API su aistudio.google.com → 'Get API Key'
Installa l'SDK: pip install google-genai (Python) o npm install @google/genai
Inizializza il client con la tua chiave API
Usa generateContent() per input di testo, immagini, audio e video
Aggiungi dichiarazioni di strumenti per le capacita di function calling
Suggerimento: Gemini supporta nativamente input multimodali — invia immagini, audio e video insieme al testo per interazioni AI ricche.
Per la produzione, usa Vertex AI in Google Cloud Console
Crea un endpoint e distribuisci il tuo modello ottimizzato o usa Gemini direttamente
Configura l'autenticazione con account di servizio
Configura la scalabilita automatica, il monitoraggio e il logging
Usa Vertex AI Pipelines per flussi di lavoro ML automatizzati
Suggerimento: Vertex AI fornisce funzionalita enterprise come VPC, crittografia CMEK e garanzie SLA che AI Studio non offre.
3 guide
Apri la dashboard di Antigravity e clicca su 'New Workflow'
Scegli un trigger: Pianificazione, Webhook, Invio modulo o Evento
Trascina e rilascia blocchi di azione dalla barra laterale: Invia e-mail, Chiamata API, Query database, ecc.
Collega i blocchi con frecce per definire il flusso
Aggiungi ramificazioni condizionali (If/Else) per la logica decisionale
Configura le impostazioni di ogni blocco (endpoint API, modelli di e-mail, ecc.)
Testa il flusso di lavoro con dati di esempio prima di attivarlo
Imposta il flusso di lavoro su 'Active' per avviare l'esecuzione
Suggerimento: Inizia in modo semplice con 2-3 blocchi e aggiungi complessita gradualmente. Usa il pulsante 'Test' dopo ogni modifica.
Sfoglia la galleria dei modelli per flussi di lavoro predefiniti
Clicca su 'Use Template' per creare una copia nel tuo spazio di lavoro
Personalizza il modello: modifica le impostazioni del trigger, aggiorna le chiavi API, modifica le condizioni
Collega i tuoi account (Slack, Gmail, CRM, ecc.) quando richiesto
Testa e attiva
Suggerimento: I modelli sono il modo piu veloce per iniziare. Personalizzali invece di costruire da zero.
Vai su Settings → Integrations → Add New
Scegli 'Custom API' per servizi non presenti nell'elenco integrato
Inserisci l'URL base dell'API e i dettagli di autenticazione
Definisci le azioni disponibili (endpoint) con schemi di richiesta/risposta
La tua integrazione personalizzata ora appare nella barra laterale del costruttore di flussi di lavoro
Suggerimento: Usa blocchi webhook per integrazioni in tempo reale con qualsiasi servizio che supporta i webhook.
4 guide
Trova server MCP su npm, GitHub o in questa directory
Installa: npm install -g @modelcontextprotocol/server-name
Configura nel file delle impostazioni del tuo client AI (es. claude_desktop_config.json)
Aggiungi il comando del server e le variabili d'ambiente necessarie
Riavvia il tuo client AI — gli strumenti diventano disponibili automaticamente
L'AI ora puo utilizzare gli strumenti MCP durante le conversazioni
Suggerimento: Server MCP popolari: filesystem, github, slack, postgres, sqlite, brave-search. Consulta la nostra categoria MCP per oltre 1.500 opzioni.
Inizializza: npx @anthropic-ai/create-mcp-server my-server
Definisci gli strumenti in src/index.ts usando l'MCP SDK
Ogni strumento necessita di: nome, descrizione, schema di input (JSON Schema) e una funzione handler
Aggiungi risorse per i dati che l'AI puo leggere (file, record del database, ecc.)
Aggiungi prompt per modelli di prompt riutilizzabili
Testa localmente: npx tsx src/index.ts
Pubblica su npm per farli usare ad altri: npm publish
Suggerimento: Concentrati su descrizioni chiare degli strumenti — l'AI le usa per decidere quando e come chiamare i tuoi strumenti.
Per Claude Desktop: Modifica ~/Library/Application Support/Claude/claude_desktop_config.json (Mac) o %APPDATA%/Claude/claude_desktop_config.json (Windows)
Per Claude Code: Modifica .claude/settings.json nel tuo progetto o ~/.claude/settings.json globalmente
Aggiungi il tuo server all'oggetto 'mcpServers' con comando e argomenti
Imposta le variabili d'ambiente con il campo 'env' per le chiavi API
Usa il trasporto 'stdio' per server locali, 'sse' per quelli remoti
Suggerimento: Usa variabili d'ambiente per le chiavi API — non scrivere mai segreti direttamente nei file di configurazione.
MCP e uno standard aperto — funziona con qualsiasi client AI compatibile
Per integrazioni personalizzate, usa l'SDK client MCP (@modelcontextprotocol/sdk)
Connettiti ai server MCP programmaticamente nelle tue applicazioni
Fai da ponte tra MCP e OpenAI/Gemini traducendo gli schemi degli strumenti MCP nel loro formato di function calling
Usa server proxy MCP per esporre gli strumenti MCP tramite REST APIs
Suggerimento: Lo standard aperto di MCP significa che i tuoi strumenti funzionano su tutte le piattaforme AI senza riscriverli.
Invia la tua competenza alla nostra directory e aiuta gli altri a scoprirla.