Apex 1. OpenClaw, Historial de Providers.
Source: Dev.to
Una de las cosas más poderosas que puedes hacer con OpenClaw es bootstrap la memoria de tu agente con años de historial de conversación de otras plataformas de IA. En vez de empezar desde cero, tu agente hereda contexto sobre tus proyectos, decisiones, preferencias y patrones de pensamiento de miles de conversaciones previas.
Ray Fernando demostró esto en su livestream, importando 3 años de historial de ChatGPT (4 000+ conversaciones) y su export completo de Anthropic dentro de su instancia de OpenClaw.
1. Exportar datos de cada plataforma
| Plataforma | Ruta de exportación | Comentarios |
|---|---|---|
| ChatGPT | Settings → Data Controls → Export Data | OpenAI envía un enlace de descarga por email. El export es un ZIP con archivos JSON (≈ 138 MB para 3 años de uso intenso). |
| Anthropic / Claude | Settings → Export Data | El ZIP contiene conversaciones y cualquier Project que hayas creado (muy valioso por los prompts y workflows). |
| Google Gemini | 1. Inicia sesión con la cuenta que usas para Gemini. 2. Busca My Activity → desplázate hasta Gemini Apps. 3. Selecciona Only “Gemini Apps”. 4. Cambia el formato a JSON (en “Multiple Formats”). 5. Pulsa Next step, elige delivery method (email es lo más simple) y crea el export. Google enviará un enlace que puede tardar minutos‑horas. |
Nota: No intentes parsear estos exports a mano; son JSON profundamente anidados con nombres de archivo hash que no tienen sentido para humanos.
2. Herramientas recomendadas
- Cursor (versión 4.6) con Opus – funciona muy bien para escribir scripts de conversión.
- Claude Code o cualquier herramienta de codificación asistida por LLM.
- Repositorio OpenClaw clonado localmente (para que el LLM entienda el formato de los archivos de memoria).
3. Prompt inicial para el LLM
I just exported my ChatGPT history, my Anthropic/Claude history, and my Google Gemini history. The files are in this directory. I want to extract memories from these conversations and convert them into OpenClaw‑compatible markdown files. First, investigate the file structure of all three exports and report what you find. Also, clone the OpenClaw repo (https://github.com/openclaw/openclaw) into a temp directory so you can understand how OpenClaw’s memory system works – look at the workspace and memory directory structure.
Por qué funciona
Al clonar el repositorio, el LLM puede inspeccionar la estructura de memory/ y generar archivos con el formato exacto que OpenClaw espera. Sin ese contexto, el modelo tendría que adivinar.
4. Estrategia de paralelismo (con Cursor)
- Lanza agentes paralelos:
- Uno para cada export (ChatGPT, Anthropic, Gemini).
- Uno para el repositorio OpenClaw.
- Cada agente investiga su conjunto de archivos y devuelve un informe.
- El agente coordinador combina la información y genera el script de conversión.
5. Script de Python (esqueleto)
El LLM debe producir un script que:
- Lea los tres JSON exports.
- Extraiga información clave:
- Resúmenes de temas.
- Decisiones tomadas.
- Contexto de proyectos.
- Preferencias personales.
- Genere archivos markdown compatibles con OpenClaw, organizados bajo
memory-imports/(manteniendo separados los imports de las notas del propio agente). - Cree un archivo
index.mdpara búsqueda eficiente. - Maneje los Anthropic Projects como archivos de memoria de alto valor (contienen system prompts y workflows).
- Sea puramente aditivo – nunca modifique
SOUL.mdniAGENTS.md.
El LLM también debe generar un pequeño script
import.shque copie los archivos al directoriomemory/de OpenClaw y actualice el índice.
6. Transferir los archivos a la máquina destino (Mac Mini)
En la máquina fuente
# Comprime la salida
tar czf openclaw-import.tar.gz openclaw-import/
# Transferencia (ejemplo usando SCP sobre Tailscale)
scp openclaw-import.tar.gz yourusername@100.x.x.x:~/Downloads/
# …o simplemente AirDrop el .tar.gz
En la Mac Mini
cd ~/Downloads
tar xzf openclaw-import.tar.gz
cd openclaw-import
chmod +x import.sh
./import.sh
7. Activar la búsqueda de memoria y reiniciar el gateway
openclaw config set memory.search.enable true
openclaw gateway restart
El agente empezará a indexar los archivos importados. Con 1 000+ archivos, el proceso tarda unos minutos.
Prueba preguntándole al agente algo que sabes que está en tu historial; debería poder encontrarlo y referenciarlo.
Important Notes
- Importa después de completar el soul file bootstrap, no antes. Primero dale identidad al agente (birth), luego rellena sus memorias.
- Mantén las memorias importadas en un subdirectorio separado (
memory-imports/chatgpt/,memory-imports/claude/,memory-imports/gemini/) para que no se mezclen con las notas del agente a futuro. OpenClaw indexa todos los markdown bajomemory/, así que la organización es clave. - El script debe ser puramente aditivo: nunca sobrescriba
SOUL.mdniAGENTS.md. - Revisa siempre el índice generado y, si es necesario, ajusta los tags o metadata para mejorar la relevancia de la búsqueda.
Notas sobre la importación de datos
-
Subdirectorios
Los subdirectorios están bien; también serán buscables. -
Script de conversión
El script de conversión variará según la estructura específica de tus exportaciones.
No esperes un script “one‑size‑fits‑all”; por eso utilizas un LLM para generar uno tailor‑made para tus datos. Cada proveedor tiene sus particularidades en el formato de exportación. -
Proyectos de Anthropic
Los proyectos de Anthropic son particularmente valiosos porque contienen tus system prompts y flujos de trabajo curados.
Priorízalos en tu importación. -
Historial de chat de Google Gemini
El historial está enterrado en Takeout, bajo la sección “My Activity”; no aparece como un servicio separado.
Asegúrate de establecer el formato de exportación a JSON; el HTML predeterminado es mucho más difícil de parsear para los scripts. -
Problemas con
openclawdespués del import
Si, tras el import, el comandoopenclawno se encuentra, recarga tu perfil de shell:# Recargar el perfil (ejemplo para Zsh) source ~/.zshrcTambién puedes abrir una nueva ventana de terminal para que el
PATHse actualice automáticamente.