Guías paso a paso para cada plataforma. Aprende a crear, configurar y compartir habilidades de IA.
¿Tienes una habilidad para compartir? Envíala directamente a nuestro directorio.
Enviar una Habilidad3 guías
Ve a chat.openai.com y haz clic en tu perfil → My GPTs → Create a GPT
En la pestana 'Create', describe en lenguaje natural lo que quieres que haga tu GPT
Configura el nombre, la descripcion, las instrucciones y los iniciadores de conversacion
Sube archivos de conocimiento (PDFs, documentos) para que tu GPT los consulte
Agrega Actions para conectar APIs externas (opcional)
Establece la visibilidad: Solo yo, Cualquiera con un enlace, o Publico
Haz clic en 'Create' y comparte el enlace
Consejo: Para mejores resultados, escribe instrucciones claras y especificas. Incluye ejemplos de salida y casos limite en tus instrucciones.
Haz clic en tu icono de perfil → Settings → Personalization → Custom Instructions
Completa 'Que te gustaria que ChatGPT supiera sobre ti?' con contexto sobre tu rol y necesidades
Completa 'Como te gustaria que ChatGPT respondiera?' con preferencias de formato de salida, tono y restricciones
Estas instrucciones se aplican automaticamente a todas las conversaciones nuevas
Consejo: Las instrucciones personalizadas son ideales para establecer comportamientos predeterminados como 'Siempre responde en espanol' o 'Siempre incluye ejemplos de codigo'.
En GPT Builder, ve a la pestana 'Configure' → Actions
Haz clic en 'Create new action' y pega tu esquema OpenAPI
Establece el metodo de autenticacion (Ninguno, API Key u OAuth)
Prueba la action con solicitudes de ejemplo
El GPT ahora puede llamar a tu API durante las conversaciones
Consejo: Puedes usar servicios como Zapier o Make.com para crear endpoints de API sin codigo para tus actions.
4 guías
Ve a claude.ai y haz clic en 'Projects' en la barra lateral
Haz clic en 'Create Project' y dale un nombre y una descripcion
Agrega instrucciones personalizadas que definan como Claude debe comportarse en este proyecto
Sube archivos (PDFs, codigo, documentos) a la base de conocimiento del proyecto — Claude puede referenciar hasta 200K tokens
Inicia conversaciones dentro del proyecto — Claude usara tus instrucciones y archivos automaticamente
Consejo: Los proyectos son perfectos para trabajo especifico de dominio. Sube tus documentos de empresa, guias de estilo o bases de codigo para respuestas con contexto.
Al usar la API de Claude, incluye un mensaje 'system' al inicio de tu conversacion
Define el rol, comportamiento, formato de salida y restricciones de Claude en el prompt de sistema
Incluye ejemplos few-shot de las entradas y salidas deseadas
Usa etiquetas XML como <instructions>, <context>, <output_format> para una estructura clara
Consejo: Claude responde excepcionalmente bien a prompts estructurados con etiquetas XML. Se especifico sobre que incluir Y que excluir.
Instala Claude Code: npm install -g @anthropic-ai/claude-code
Crea un archivo CLAUDE.md en la raiz de tu proyecto con instrucciones y contexto
Agrega comandos slash personalizados en el directorio .claude/commands/ como archivos markdown
Cada archivo .md se convierte en un /comando — el contenido del archivo es la plantilla del prompt
Usa el marcador de posicion $ARGUMENTS para entrada dinamica
Consejo: Las habilidades de Claude Code son poderosas para automatizar flujos de trabajo de desarrollo. Crea comandos para revision de codigo, pruebas, despliegue y mas.
Claude Desktop y Claude Code soportan herramientas del Model Context Protocol (MCP)
Instala servidores MCP: npx @anthropic-ai/create-mcp-server o usa los existentes de npm
Configura en claude_desktop_config.json o .claude/settings.json
Claude ahora puede usar las herramientas MCP durante las conversaciones para acceder a bases de datos, APIs, archivos, etc.
Consejo: Las herramientas MCP le dan a Claude capacidades del mundo real. Conecta bases de datos, GitHub, Slack y mas.
4 guías
Ve a aistudio.google.com y haz clic en 'Create new prompt'
Elige 'Structured Prompt' para salidas consistentes basadas en plantillas
Define columnas de entrada (variables) y columnas de salida (resultados esperados)
Agrega filas de ejemplo mostrando pares de entrada-salida para aprendizaje few-shot
Prueba con nuevas entradas e itera en tus ejemplos
Guarda y comparte mediante el boton 'Get Code' (Python, JavaScript, REST)
Consejo: Los prompts estructurados son ideales para tareas de clasificacion, extraccion y transformacion donde necesitas formatos de salida consistentes.
Haz clic en 'Create new prompt' → 'Chat Prompt'
Escribe instrucciones de sistema que definan el rol y comportamiento de la AI
Agrega herramientas (function declarations) si tu prompt necesita llamar APIs externas
Configura los ajustes del modelo: temperature, top-p, tokens maximos de salida
Prueba en el playground y exporta el codigo cuando este listo
Consejo: Usa los 'Safety settings' para personalizar el filtrado de contenido segun tu caso de uso especifico.
Obtiene tu clave API en aistudio.google.com → 'Get API Key'
Instala el SDK: pip install google-genai (Python) o npm install @google/genai
Inicializa el cliente con tu clave API
Usa generateContent() para entradas de texto, imagen, audio y video
Agrega declaraciones de herramientas para capacidades de function calling
Consejo: Gemini soporta entradas multimodales de forma nativa — envia imagenes, audio y video junto con texto para interacciones AI enriquecidas.
Para produccion, usa Vertex AI en Google Cloud Console
Crea un endpoint y despliega tu modelo ajustado o usa Gemini directamente
Configura la autenticacion con cuentas de servicio
Configura el escalado automatico, monitoreo y registro
Usa Vertex AI Pipelines para flujos de trabajo ML automatizados
Consejo: Vertex AI proporciona caracteristicas empresariales como VPC, cifrado CMEK y garantias SLA que AI Studio no ofrece.
3 guías
Abre el panel de Antigravity y haz clic en 'New Workflow'
Elige un disparador: Programacion, Webhook, Envio de formulario o Evento
Arrastra y suelta bloques de accion desde la barra lateral: Enviar correo, Llamada API, Consulta de base de datos, etc.
Conecta los bloques con flechas para definir el flujo
Agrega ramificaciones condicionales (If/Else) para logica de decision
Configura los ajustes de cada bloque (endpoints de API, plantillas de correo, etc.)
Prueba el flujo de trabajo con datos de ejemplo antes de activarlo
Cambia el flujo de trabajo a 'Active' para comenzar la ejecucion
Consejo: Comienza simple con 2-3 bloques y agrega complejidad gradualmente. Usa el boton 'Test' despues de cada cambio.
Explora la galeria de plantillas para flujos de trabajo preconstruidos
Haz clic en 'Use Template' para crear una copia en tu espacio de trabajo
Personaliza la plantilla: cambia los ajustes del disparador, actualiza las claves API, modifica las condiciones
Conecta tus cuentas (Slack, Gmail, CRM, etc.) cuando se te solicite
Prueba y activa
Consejo: Las plantillas son la forma mas rapida de comenzar. Personaliza estas en lugar de construir desde cero.
Ve a Settings → Integrations → Add New
Elige 'Custom API' para servicios que no estan en la lista integrada
Ingresa la URL base de la API y los detalles de autenticacion
Define las acciones disponibles (endpoints) con esquemas de solicitud/respuesta
Tu integracion personalizada ahora aparece en la barra lateral del constructor de flujos de trabajo
Consejo: Usa bloques de webhook para integraciones en tiempo real con cualquier servicio que soporte webhooks.
4 guías
Encuentra servidores MCP en npm, GitHub o este directorio
Instala: npm install -g @modelcontextprotocol/server-name
Configura en el archivo de ajustes de tu cliente AI (ej. claude_desktop_config.json)
Agrega el comando del servidor y las variables de entorno requeridas
Reinicia tu cliente AI — las herramientas se vuelven disponibles automaticamente
La AI ahora puede usar las herramientas MCP durante las conversaciones
Consejo: Servidores MCP populares: filesystem, github, slack, postgres, sqlite, brave-search. Consulta nuestra categoria MCP para mas de 1.500 opciones.
Inicializa: npx @anthropic-ai/create-mcp-server my-server
Define herramientas en src/index.ts usando el MCP SDK
Cada herramienta necesita: nombre, descripcion, esquema de entrada (JSON Schema) y una funcion handler
Agrega recursos para datos que la AI pueda leer (archivos, registros de base de datos, etc.)
Agrega prompts para plantillas de prompts reutilizables
Prueba localmente: npx tsx src/index.ts
Publica en npm para que otros lo usen: npm publish
Consejo: Concentrate en descripciones claras de herramientas — la AI las usa para decidir cuando y como llamar a tus herramientas.
Para Claude Desktop: Edita ~/Library/Application Support/Claude/claude_desktop_config.json (Mac) o %APPDATA%/Claude/claude_desktop_config.json (Windows)
Para Claude Code: Edita .claude/settings.json en tu proyecto o ~/.claude/settings.json globalmente
Agrega tu servidor al objeto 'mcpServers' con comando y argumentos
Configura variables de entorno con el campo 'env' para claves API
Usa el transporte 'stdio' para servidores locales, 'sse' para remotos
Consejo: Usa variables de entorno para claves API — nunca escribas secretos directamente en archivos de configuracion.
MCP es un estandar abierto — funciona con cualquier cliente AI compatible
Para integraciones personalizadas, usa el SDK cliente MCP (@modelcontextprotocol/sdk)
Conectate a servidores MCP programaticamente en tus propias aplicaciones
Haz puente entre MCP y OpenAI/Gemini traduciendo los esquemas de herramientas MCP a su formato de function calling
Usa servidores proxy MCP para exponer herramientas MCP a traves de REST APIs
Consejo: El estandar abierto de MCP significa que tus herramientas funcionan en todas las plataformas AI sin reescribirlas.
Envía tu habilidad a nuestro directorio y ayuda a otros a descubrirla.