Guias passo a passo para cada plataforma. Aprenda a criar, configurar e compartilhar habilidades de IA.
Tem uma habilidade para compartilhar? Envie diretamente para nosso diretório.
Enviar uma Habilidade3 guias
Acesse chat.openai.com e clique no seu perfil → My GPTs → Create a GPT
Na aba 'Create', descreva em linguagem natural o que voce quer que seu GPT faca
Configure nome, descricao, instrucoes e iniciadores de conversa
Faca upload de arquivos de conhecimento (PDFs, documentos) para seu GPT consultar
Adicione Actions para conectar APIs externas (opcional)
Defina a visibilidade: Somente eu, Qualquer pessoa com o link, ou Publico
Clique em 'Create' e compartilhe o link
Dica: Para melhores resultados, escreva instrucoes claras e especificas. Inclua exemplos de saida e casos limite nas suas instrucoes.
Clique no seu icone de perfil → Settings → Personalization → Custom Instructions
Preencha 'O que voce gostaria que o ChatGPT soubesse sobre voce?' com contexto sobre seu papel e necessidades
Preencha 'Como voce gostaria que o ChatGPT respondesse?' com preferencias de formato de saida, tom e restricoes
Estas instrucoes se aplicam automaticamente a todas as novas conversas
Dica: Instrucoes personalizadas sao otimas para definir comportamentos padrao como 'Sempre responda em portugues' ou 'Sempre inclua exemplos de codigo'.
No GPT Builder, va para a aba 'Configure' → Actions
Clique em 'Create new action' e cole seu esquema OpenAPI
Defina o metodo de autenticacao (Nenhum, API Key ou OAuth)
Teste a action com requisicoes de exemplo
O GPT agora pode chamar sua API durante as conversas
Dica: Voce pode usar servicos como Zapier ou Make.com para criar endpoints de API sem codigo para suas actions.
4 guias
Acesse claude.ai e clique em 'Projects' na barra lateral
Clique em 'Create Project' e de um nome e uma descricao
Adicione instrucoes personalizadas que definem como Claude deve se comportar neste projeto
Faca upload de arquivos (PDFs, codigo, documentos) para a base de conhecimento do projeto — Claude pode referenciar ate 200K tokens
Inicie conversas dentro do projeto — Claude usara suas instrucoes e arquivos automaticamente
Dica: Projetos sao perfeitos para trabalho especifico de dominio. Faca upload dos documentos da sua empresa, guias de estilo ou bases de codigo para respostas contextualizadas.
Ao usar a API do Claude, inclua uma mensagem 'system' no inicio da sua conversa
Defina o papel, comportamento, formato de saida e restricoes do Claude no prompt de sistema
Inclua exemplos few-shot das entradas e saidas desejadas
Use tags XML como <instructions>, <context>, <output_format> para uma estrutura clara
Dica: Claude responde excepcionalmente bem a prompts estruturados com tags XML. Seja especifico sobre o que incluir E excluir.
Instale o Claude Code: npm install -g @anthropic-ai/claude-code
Crie um arquivo CLAUDE.md na raiz do seu projeto com instrucoes e contexto
Adicione comandos slash personalizados no diretorio .claude/commands/ como arquivos markdown
Cada arquivo .md se torna um /comando — o conteudo do arquivo e o modelo de prompt
Use o marcador $ARGUMENTS para entrada dinamica
Dica: As habilidades do Claude Code sao poderosas para automatizar fluxos de trabalho de desenvolvimento. Crie comandos para revisao de codigo, testes, deploy e mais.
Claude Desktop e Claude Code suportam ferramentas do Model Context Protocol (MCP)
Instale servidores MCP: npx @anthropic-ai/create-mcp-server ou use os existentes do npm
Configure em claude_desktop_config.json ou .claude/settings.json
Claude agora pode usar as ferramentas MCP durante as conversas para acessar bancos de dados, APIs, arquivos, etc.
Dica: Ferramentas MCP dao ao Claude capacidades do mundo real. Conecte bancos de dados, GitHub, Slack e mais.
4 guias
Acesse aistudio.google.com e clique em 'Create new prompt'
Escolha 'Structured Prompt' para saidas consistentes baseadas em modelos
Defina colunas de entrada (variaveis) e colunas de saida (resultados esperados)
Adicione linhas de exemplo mostrando pares de entrada-saida para aprendizado few-shot
Teste com novas entradas e itere nos seus exemplos
Salve e compartilhe pelo botao 'Get Code' (Python, JavaScript, REST)
Dica: Prompts estruturados sao ideais para tarefas de classificacao, extracao e transformacao onde voce precisa de formatos de saida consistentes.
Clique em 'Create new prompt' → 'Chat Prompt'
Escreva instrucoes de sistema definindo o papel e comportamento da AI
Adicione ferramentas (function declarations) se seu prompt precisar chamar APIs externas
Configure as definicoes do modelo: temperature, top-p, tokens maximos de saida
Teste no playground e exporte o codigo quando estiver pronto
Dica: Use os 'Safety settings' para personalizar a filtragem de conteudo para seu caso de uso especifico.
Obtenha sua chave API em aistudio.google.com → 'Get API Key'
Instale o SDK: pip install google-genai (Python) ou npm install @google/genai
Inicialize o cliente com sua chave API
Use generateContent() para entradas de texto, imagem, audio e video
Adicione declaracoes de ferramentas para capacidades de function calling
Dica: Gemini suporta entradas multimodais nativamente — envie imagens, audio e video junto com texto para interacoes AI ricas.
Para producao, use Vertex AI no Google Cloud Console
Crie um endpoint e implante seu modelo ajustado ou use Gemini diretamente
Configure a autenticacao com contas de servico
Configure escalabilidade automatica, monitoramento e registro
Use Vertex AI Pipelines para fluxos de trabalho ML automatizados
Dica: Vertex AI fornece recursos empresariais como VPC, criptografia CMEK e garantias SLA que o AI Studio nao oferece.
3 guias
Abra o painel do Antigravity e clique em 'New Workflow'
Escolha um gatilho: Agendamento, Webhook, Envio de formulario ou Evento
Arraste e solte blocos de acao da barra lateral: Enviar e-mail, Chamada API, Consulta de banco de dados, etc.
Conecte os blocos com setas para definir o fluxo
Adicione ramificacoes condicionais (If/Else) para logica de decisao
Configure as definicoes de cada bloco (endpoints de API, modelos de e-mail, etc.)
Teste o fluxo de trabalho com dados de exemplo antes de ativar
Alterne o fluxo de trabalho para 'Active' para comecar a executar
Dica: Comece simples com 2-3 blocos e adicione complexidade gradualmente. Use o botao 'Test' apos cada alteracao.
Navegue pela galeria de modelos para fluxos de trabalho pre-construidos
Clique em 'Use Template' para criar uma copia no seu espaco de trabalho
Personalize o modelo: altere configuracoes do gatilho, atualize chaves API, modifique condicoes
Conecte suas contas (Slack, Gmail, CRM, etc.) quando solicitado
Teste e ative
Dica: Modelos sao a forma mais rapida de comecar. Personalize-os em vez de construir do zero.
Va para Settings → Integrations → Add New
Escolha 'Custom API' para servicos que nao estao na lista integrada
Insira a URL base da API e os detalhes de autenticacao
Defina as acoes disponiveis (endpoints) com esquemas de requisicao/resposta
Sua integracao personalizada agora aparece na barra lateral do construtor de fluxos de trabalho
Dica: Use blocos de webhook para integracoes em tempo real com qualquer servico que suporte webhooks.
4 guias
Encontre servidores MCP no npm, GitHub ou neste diretorio
Instale: npm install -g @modelcontextprotocol/server-name
Configure no arquivo de configuracoes do seu cliente AI (ex. claude_desktop_config.json)
Adicione o comando do servidor e as variaveis de ambiente necessarias
Reinicie seu cliente AI — as ferramentas ficam disponiveis automaticamente
A AI agora pode usar as ferramentas MCP durante as conversas
Dica: Servidores MCP populares: filesystem, github, slack, postgres, sqlite, brave-search. Confira nossa categoria MCP para mais de 1.500 opcoes.
Inicialize: npx @anthropic-ai/create-mcp-server my-server
Defina ferramentas em src/index.ts usando o MCP SDK
Cada ferramenta precisa de: nome, descricao, esquema de entrada (JSON Schema) e uma funcao handler
Adicione recursos para dados que a AI pode ler (arquivos, registros de banco de dados, etc.)
Adicione prompts para modelos de prompts reutilizaveis
Teste localmente: npx tsx src/index.ts
Publique no npm para outros usarem: npm publish
Dica: Foque em descricoes claras das ferramentas — a AI as usa para decidir quando e como chamar suas ferramentas.
Para Claude Desktop: Edite ~/Library/Application Support/Claude/claude_desktop_config.json (Mac) ou %APPDATA%/Claude/claude_desktop_config.json (Windows)
Para Claude Code: Edite .claude/settings.json no seu projeto ou ~/.claude/settings.json globalmente
Adicione seu servidor ao objeto 'mcpServers' com comando e argumentos
Configure variaveis de ambiente com o campo 'env' para chaves API
Use o transporte 'stdio' para servidores locais, 'sse' para remotos
Dica: Use variaveis de ambiente para chaves API — nunca escreva segredos diretamente em arquivos de configuracao.
MCP e um padrao aberto — funciona com qualquer cliente AI compativel
Para integracoes personalizadas, use o SDK cliente MCP (@modelcontextprotocol/sdk)
Conecte-se a servidores MCP programaticamente nas suas proprias aplicacoes
Faca a ponte entre MCP e OpenAI/Gemini traduzindo os esquemas de ferramentas MCP para o formato de function calling deles
Use servidores proxy MCP para expor ferramentas MCP via REST APIs
Dica: O padrao aberto do MCP significa que suas ferramentas funcionam em todas as plataformas AI sem reescreve-las.
Envie sua habilidade para nosso diretório e ajude outros a descobri-la.