# Alaya 技术设计文档 **版本**: 1.0 **日期**: 2026-03-31 **状态**: Draft **包名**: `@mitsein-ai/alaya` **发布账号**: shazhou-ww @ npm --- ## 1. 概述 ### 1.1 项目背景 当前 OpenClaw 的 memory 系统存在根本性缺失:只有"业"(raw session logs),没有"识"(可迭代、可查询、可联想的经验智慧)。 Alaya(阿赖耶识)系统基于佛教唯识学理念,将 Agent 记忆分为三层: - **L3 沉淀层(业)**: 原始 session 历史,完整上下文记录 - **L2 联想层(识)**: 知识图谱,概念关系网络 - **L1 唤醒层(现行识)**: 向量检索,快速激活相关记忆 ### 1.2 核心目标 - ✅ 从 session logs 中提炼可复用的知识卡片 - ✅ 建立知识之间的语义关系网络 - ✅ 支持高效的语义检索和联想推理 - ✅ 实现冷热分层,优化内存和查询效率 - ✅ 与 OpenClaw 生态无缝集成 ### 1.3 技术约束 - **服务器环境**: KUMA 2 vCPU / 8GB RAM - **零额外服务**: LanceDB + Kuzu 均为嵌入式数据库 - **轻量级**: Node.js 实现,最小依赖 - **数据目录**: `~/.alaya/` (可配置) --- ## 2. 系统架构 ### 2.1 架构图 ``` ┌─────────────────────────────────────────────────────────────────┐ │ OpenClaw Agent │ │ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐ │ │ │ Session Chat │──────▶│ Alaya Skill │◀────▶│ Alaya CLI │ │ │ └──────────────┘ └──────────────┘ └──────────────┘ │ └────────────────────────────────┬────────────────────────────────┘ │ ┌────────────┴────────────┐ │ Alaya Core Engine │ └────────────┬────────────┘ │ ┌────────────────────────┼────────────────────────┐ │ │ │ ┌───────▼────────┐ ┌─────────▼────────┐ ┌─────────▼─────────┐ │ L1 唤醒层 │ │ L2 联想层 │ │ L3 沉淀层 │ │ (Embedding) │ │ (Graph) │ │ (Raw Storage) │ ├────────────────┤ ├──────────────────┤ ├───────────────────┤ │ LanceDB │ │ Kuzu Graph DB │ │ File System │ │ │ │ │ │ │ │ HOT (Memory) │ │ Nodes: Cards │ │ session-*.json │ │ WARM (Disk) │◀───▶│ Edges: Links │◀──▶│ session-*.md │ │ COLD (Archive)│ │ │ │ context/*.json │ └────────────────┘ └──────────────────┘ └───────────────────┘ │ │ │ └───────────────────────┴────────────────────────┘ │ ┌──────────▼───────────┐ │ Embedding Provider │ │ (SiliconFlow/OpenAI)│ └──────────────────────┘ ``` ### 2.2 数据流 #### 记忆形成(Ingest → Distill) ``` Session End ↓ L3: Ingest (保存原始 session) ↓ Distill (LLM 提取知识) ↓ L2: Create Cards + Links (图谱节点和边) ↓ L1: Generate Embeddings (向量化) ↓ Update Temperature (计算初始热度) ``` #### 记忆召回(Recall) ``` Query String ↓ L1: Vector Search (找到相似 embeddings) ↓ (card_ids) L2: Graph Traversal (沿关系扩展) ↓ (expanded_card_ids) L3: Fetch Context (回溯原始上下文) ↓ Return Ranked Results ``` --- ## 3. 数据模型 ### 3.1 L3 沉淀层(Raw Storage) #### 目录结构 ``` ~/.alaya/ ├── raw/ │ ├── sessions/ │ │ ├── 2026-03/ │ │ │ ├── session-20260331-062900.json │ │ │ └── session-20260331-062900.md │ │ └── 2026-04/ │ └── contexts/ │ ├── card-abc123-context.json │ └── card-def456-context.json └── config.json ``` #### Session 文件格式 ```json { "id": "session-20260331-062900", "timestamp": 1743403740000, "channel": "telegram", "agent": "main", "turns": [ { "role": "user", "content": "帮我分析一下...", "timestamp": 1743403740000 }, { "role": "assistant", "content": "好的,我来分析...", "timestamp": 1743403745000, "tool_calls": [...] } ], "metadata": { "duration_ms": 12000, "model": "claude-sonnet-4.5", "tokens": 2345 } } ``` ### 3.2 L2 联想层(Graph DB) #### 节点类型(Node Schema) ```cypher // 知识卡片节点 CREATE (c:Card { id: STRING, // 唯一标识 "card-{uuid}" title: STRING, // 卡片标题 content: STRING, // 卡片内容(markdown) type: STRING, // 类型: concept/pattern/gotcha/decision created_at: TIMESTAMP, // 创建时间 updated_at: TIMESTAMP, // 更新时间 source_sessions: LIST, // 来源 session IDs tags: LIST, // 标签列表 temperature: FLOAT // 当前温度 (0.0-1.0) }) // Session 元节点(用于回溯) CREATE (s:Session { id: STRING, timestamp: TIMESTAMP, channel: STRING, summary: STRING }) ``` #### 边类型(Edge Schema) | 关系类型 | 方向 | 含义 | 示例 | |---------|------|------|------| | `RELATES_TO` | 双向 | 通用相关性 | A 和 B 都涉及 GraphQL | | `DEPENDS_ON` | 单向 | 依赖关系 | Docker 部署依赖于构建脚本 | | `CAUSED_BY` | 单向 | 因果关系 | 内存溢出由于未设 limit | | `SIMILAR_TO` | 双向 | 相似模式 | 两个 Bug 都是类型错误 | | `CONTRADICTS` | 双向 | 矛盾/替代 | 旧方案 vs 新方案 | | `TEMPORAL_NEXT` | 单向 | 时序后继 | 决策 B 在决策 A 之后 | | `EXTRACTED_FROM` | 单向 | 提取自 session | Card → Session | #### Edge 属性 ```cypher CREATE (a:Card)-[r:DEPENDS_ON { weight: FLOAT, // 关系强度 (0.0-1.0) created_at: TIMESTAMP, reason: STRING // 关系说明 }]->(b:Card) ``` ### 3.3 L1 唤醒层(Embedding DB) #### LanceDB Schema ```typescript interface EmbeddingRecord { id: string; // card-{uuid} vector: number[]; // embedding (1024-dim for BAAI/bge-large-zh-v1.5) card_id: string; // 对应的 L2 Card ID content_hash: string; // 内容 hash,用于检测变更 temperature: number; // 当前温度 (0.0-1.0) tier: 'HOT' | 'WARM' | 'COLD'; last_accessed: number; // 最后访问时间 access_count: number; // 访问次数 created_at: number; // 创建时间 metadata: { title: string; tags: string[]; type: string; }; } ``` #### 冷热分层策略 | Tier | 条件 | 存储方式 | 数量上限 | |------|------|----------|---------| | **HOT** | temp ≥ 0.7 OR 最近 7 天 OR access_count > 10 | 内存常驻 | 5000 | | **WARM** | 0.3 ≤ temp < 0.7 | 磁盘索引,按需加载 | 20000 | | **COLD** | temp < 0.3 AND 未访问 > 30 天 | 仅保留 metadata,丢弃 embedding | 无限 | #### 温度计算公式 ``` temperature = recency_score × frequency_score × relevance_score recency_score = exp(-days_since_created / 30) frequency_score = min(1.0, access_count / 20) relevance_score = avg(similarity_scores from recent recalls) ``` 每次 `introspect` 时重新计算所有卡片温度,并执行升降级。 --- ## 4. CLI 命令详解 ### 4.1 `alaya init` **功能**: 初始化 Alaya 数据库 **行为**: - 创建 `~/.alaya/` 目录结构 - 初始化 LanceDB(创建表和索引) - 初始化 Kuzu(创建节点和边的 schema) - 生成默认配置文件 `~/.alaya/config.json` **输出**: ``` ✓ Created directory structure at ~/.alaya/ ✓ Initialized LanceDB at ~/.alaya/lancedb/ ✓ Initialized Kuzu Graph DB at ~/.alaya/kuzu/ ✓ Created config file at ~/.alaya/config.json ✓ Alaya is ready! ``` **配置文件示例**: ```json { "version": "1.0", "data_dir": "~/.alaya", "embedding": { "provider": "siliconflow", "model": "BAAI/bge-large-zh-v1.5", "dimensions": 1024, "api_key_env": "SILICONFLOW_API_KEY" }, "temperature": { "hot_threshold": 0.7, "warm_threshold": 0.3, "cold_days": 30, "hot_limit": 5000, "warm_limit": 20000 }, "distill": { "llm_provider": "openai", "model": "gpt-4o", "prompt_template": "~/.alaya/prompts/distill.txt" } } ``` --- ### 4.2 `alaya ingest ` **功能**: 导入 session 历史到 L3 **参数**: - ``: OpenClaw session JSON 文件路径 **行为**: 1. 解析 session JSON 2. 提取 metadata(时间、channel、agent、tokens) 3. 保存到 `~/.alaya/raw/sessions/YYYY-MM/session-{id}.json` 4. 生成 markdown 摘要到 `session-{id}.md` 5. 在 L2 创建 Session 元节点 **输出**: ``` 📥 Ingesting session: session-20260331-062900 Duration: 12.0s | Tokens: 2345 | Channel: telegram ✓ Saved to ~/.alaya/raw/sessions/2026-03/session-20260331-062900.json ✓ Created Session node in graph ``` --- ### 4.3 `alaya distill [--session ]` **功能**: 从业(session logs)提炼识(知识卡片) **参数**: - `--session `: 指定 session ID,不指定则处理所有未 distill 的 sessions **流程**: ``` 1. 从 L3 读取 session 内容 ↓ 2. 构建 LLM prompt(见 4.3.1) ↓ 3. 调用 LLM 提取知识卡片 ↓ 4. 解析 LLM 返回的结构化输出 ↓ 5. 在 L2 创建 Card 节点 + 关系边 ↓ 6. 为每个 Card 生成 embedding ↓ 7. 插入 L1 (初始 temperature = 1.0) ↓ 8. 保存 context 到 L3 (card-{id}-context.json) ``` #### 4.3.1 Distill Prompt 设计 **System Prompt**: ``` 你是一个知识提炼专家,负责从 AI Agent 的对话历史中提取可复用的知识卡片。 要求: 1. 识别非平凡的知识点(gotchas、patterns、decisions) 2. 每个卡片独立自洽,包含足够上下文 3. 避免提取常识性内容 4. 识别卡片之间的关系(依赖、因果、相似等) 输出格式(JSON): { "cards": [ { "title": "简洁标题", "content": "详细内容(markdown)", "type": "concept|pattern|gotcha|decision", "tags": ["标签1", "标签2"], "importance": 0.8 // 0.0-1.0 } ], "links": [ { "from_title": "卡片A标题", "to_title": "卡片B标题", "relation": "DEPENDS_ON|CAUSED_BY|SIMILAR_TO|...", "reason": "关系说明" } ] } ``` **User Prompt**: ``` Session ID: {session_id} Timestamp: {timestamp} Channel: {channel} === 对话内容 === {session_content} === 任务 === 提取可复用的知识卡片,并识别它们之间的关系。 ``` **输出示例**: ``` 🧠 Distilling session-20260331-062900 Found 3 cards: ✓ Card: Telegram 消息通知机制 [concept] ✓ Card: Gateway 重启前发通知的模式 [pattern] ✓ Card: 避免漏掉 plugins.allow 配置 [gotcha] Created 2 links: ✓ "Gateway 重启前发通知的模式" DEPENDS_ON "Telegram 消息通知机制" ✓ "避免漏掉 plugins.allow 配置" CAUSED_BY "Gateway 重启前发通知的模式" Generated embeddings for 3 cards ✓ Distillation complete ``` --- ### 4.4 `alaya recall ` **功能**: 从意象/关键词快速激活相关记忆 **参数**: - ``: 自然语言查询 **流程**: ``` 1. 对 query 生成 embedding ↓ 2. L1: 向量检索(top 20,cosine similarity) ↓ 3. L2: 图遍历扩展 - 对 top 5 结果,遍历 1-hop 邻居 - 按关系权重排序 ↓ 4. L3: 获取原始上下文(可选) ↓ 5. 更新 access_count + last_accessed ↓ 6. 返回排序结果(relevance score) ``` **输出格式**: ```json { "query": "Telegram 消息通知", "results": [ { "card_id": "card-abc123", "title": "Telegram 消息通知机制", "content": "...", "score": 0.92, "type": "concept", "tags": ["telegram", "notification"], "related": [ { "card_id": "card-def456", "title": "Gateway 重启前发通知的模式", "relation": "DEPENDS_ON", "score": 0.85 } ], "source_sessions": ["session-20260331-062900"] } ], "took_ms": 45 } ``` **CLI 输出**: ``` 🔍 Recalling: "Telegram 消息通知" [1] Telegram 消息通知机制 (0.92) #concept ...(内容预览)... Related: Gateway 重启前发通知的模式 (DEPENDS_ON, 0.85) Source: session-20260331-062900 [2] ... Found 5 cards in 45ms ``` --- ### 4.5 `alaya trace ` **功能**: 从识(card)回溯到业(原始 session 上下文) **参数**: - ``: 卡片 ID(如 `card-abc123`) **行为**: 1. 从 L2 读取 Card 节点的 `source_sessions` 2. 从 L3 读取对应的 session 文件 3. 读取 `card-{id}-context.json`(提炼时保存的相关 turns) 4. 输出完整上下文 **输出**: ``` 🔬 Tracing card-abc123: "Telegram 消息通知机制" === Source Sessions === - session-20260331-062900 (2026-03-31 06:29 UTC) === Relevant Context === [Turn 3] User: 为什么没收到通知? [Turn 4] Assistant: 我来检查 Gateway 配置... === Full Session === [View at ~/.alaya/raw/sessions/2026-03/session-20260331-062900.json] ``` --- ### 4.6 `alaya introspect` **功能**: 高阶命令,执行深度记忆整理 **子任务**: 1. **Distill**: 处理所有新 session 2. **Consolidate**: 合并相似卡片,发现新链接 3. **Cool-down**: 冷热分层,降温过期 embeddings 4. **Forget**: 合理遗忘(低温 → 归档) **流程细节**: #### 4.6.1 Consolidate(合并相似卡片) ``` 1. 对所有 HOT/WARM 卡片做聚类(embedding clustering) ↓ 2. 对于相似度 > 0.95 的卡片对: - 调用 LLM 判断是否真的重复 - 如果是,合并为一张卡片 - 更新 L2 关系(边指向合并后的卡片) - 删除旧卡片的 embedding ↓ 3. 对于相似度 0.7-0.95 的卡片对: - 检查是否已有关系边 - 如果没有,建议创建 SIMILAR_TO 边 ``` #### 4.6.2 Cool-down(温度降级) ``` 1. 重新计算所有卡片温度 ↓ 2. 按温度阈值重新分层: - temp ≥ 0.7 → HOT - 0.3 ≤ temp < 0.7 → WARM - temp < 0.3 → COLD ↓ 3. HOT 层超限时,按温度排序,溢出部分降为 WARM ↓ 4. COLD 层卡片: - 删除 embedding(释放存储) - 保留 L2 节点和 metadata ``` #### 4.6.3 Forget(合理遗忘) ``` 对于满足以下条件的 COLD 卡片: - temperature < 0.1 - 未访问 > 90 天 - access_count < 3 - 无出边(没有其他卡片依赖它) 操作: - 从 L2 删除节点 - 从 L1 删除 embedding(如果还有) - L3 保持归档(可选的回溯能力) ``` **输出**: ``` 🧘 Starting introspection... [1/4] Distill Processed 12 new sessions Created 28 cards, 41 links [2/4] Consolidate Found 3 duplicate pairs, merged into 3 cards Created 7 new SIMILAR_TO links [3/4] Cool-down HOT: 4823 cards (177 upgraded, 215 downgraded) WARM: 18456 cards COLD: 3201 cards (122 newly archived) [4/4] Forget Deleted 15 low-value cards Freed 15 MB of embedding storage ✓ Introspection complete (took 2m 34s) ``` --- ### 4.7 `alaya link [--rel type]` **功能**: 手动补充 L2 关系 **参数**: - ``, ``: 两个卡片 ID - `--rel`: 关系类型(默认 `RELATES_TO`) **行为**: - 在 L2 创建边 `(a)-[rel]->(b)` - 如果是双向关系类型,也创建 `(b)-[rel]->(a)` **输出**: ``` ✓ Created link: card-abc123 DEPENDS_ON card-def456 ``` --- ### 4.8 `alaya status` **功能**: 各层统计 **输出**: ``` 📊 Alaya Status L3 Raw Storage Sessions: 1,234 (42 GB) Oldest: 2025-11-15 Newest: 2026-03-31 L2 Graph DB Cards: 8,512 - concept: 3,241 - pattern: 2,103 - gotcha: 1,876 - decision: 1,292 Links: 15,678 - RELATES_TO: 6,234 - DEPENDS_ON: 3,456 - SIMILAR_TO: 2,890 - CAUSED_BY: 1,234 - others: 1,864 L1 Embedding DB Total: 8,512 HOT: 4,823 (memory: 120 MB) WARM: 3,567 (disk: 89 MB) COLD: 122 (archived) Temperature Distribution 0.9-1.0: ████████░░ 15% 0.7-0.9: ██████████ 42% 0.5-0.7: ████░░░░░░ 18% 0.3-0.5: ██░░░░░░░░ 12% 0.0-0.3: ███░░░░░░░ 13% ``` --- ### 4.9 `alaya export` **功能**: 导出为可读格式 **行为**: - 生成 `~/.alaya/export/` 目录 - 导出所有 Cards 为 markdown 文件(按 type 分目录) - 导出关系图为 GraphML(可用 Gephi 可视化) - 生成索引文件 `index.md` **输出**: ``` 📦 Exporting Alaya data... ✓ Exported 8,512 cards to ~/.alaya/export/cards/ - concept/ - pattern/ - gotcha/ - decision/ ✓ Exported graph to ~/.alaya/export/graph.graphml ✓ Created index at ~/.alaya/export/index.md Export complete: ~/.alaya/export/ ``` --- ## 5. 与现有系统集成 ### 5.1 OC Skill: `skills/alaya/` #### SKILL.md ```markdown # Alaya Memory Skill Activate when: - Agent needs to recall past knowledge - Session ends (trigger ingest + distill) - User asks "do you remember..." Usage: - `alaya recall ` → inject results into context - `alaya trace ` → show original discussion ``` #### 触发时机 1. **Session 开始时**: ```javascript const recentCards = await alaya.recall(`keywords from user's first message`); // 将相关卡片注入 system prompt ``` 2. **Session 结束时**: ```javascript await alaya.ingest(sessionFile); await alaya.distill(`--session ${sessionId}`); ``` 3. **用户明确询问时**: - "你还记得上次我们讨论的 X 吗?" - "之前关于 Y 的解决方案是什么?" ### 5.2 OC Cron 调度 **定时任务配置** (`~/.openclaw/config/cron.json`): ```json { "jobs": [ { "name": "alaya-introspect", "schedule": "0 */4 * * *", // 每 4 小时 "command": "alaya introspect", "timeout": 600000 // 10 分钟 }, { "name": "alaya-backup", "schedule": "0 3 * * *", // 每天凌晨 3 点 "command": "tar -czf ~/.alaya/backup/alaya-$(date +%Y%m%d).tar.gz ~/.alaya/raw ~/.alaya/lancedb ~/.alaya/kuzu" } ] } ``` ### 5.3 Memex 集成 **导入现有 memex 卡片**: ```bash # 一次性导入(在 alaya init 之后) alaya import-memex ~/.memex/cards/ # 流程: # 1. 读取所有 .md 卡片 # 2. 在 L2 创建 Card 节点 # 3. 解析 [[wikilinks]] 为 RELATES_TO 边 # 4. 生成 embeddings 插入 L1 ``` **持续同步**: - memex 创建新卡片 → 触发 alaya ingest - alaya recall 结果包含 memex 来源标记 ### 5.4 OC Memory Search 替代路径 **当前**: ```javascript const results = await oc.memory_search("query"); ``` **未来**: ```javascript const results = await alaya.recall("query", { include_memex: true, include_sessions: true, max_results: 10 }); ``` Alaya 是 memory_search 的超集,提供: - 更好的语义理解(embedding + graph) - 关联推理(graph traversal) - 冷热分层(更快的查询) --- ## 6. 实施计划 ### Phase 1: MVP(2-3 周) **目标**: 核心功能可用,验证架构可行性 **Scope**: - ✅ L3: 文件系统存储(sessions) - ✅ L1: LanceDB 基础向量检索(仅 HOT tier) - ✅ CLI: `init`, `ingest`, `recall` - ✅ Embedding: SiliconFlow API 集成 - ✅ 简化版 distill(LLM 提取卡片,不做复杂关系推理) **不包含**: - L2 Graph DB(手动维护简单的 JSON links) - 冷热分层(所有 embeddings 都在 HOT) - introspect 自动整理 **验收标准**: ```bash alaya init alaya ingest session-example.json alaya recall "Telegram notification" # → 返回相关卡片 ``` --- ### Phase 2: 完整三层架构(3-4 周) **新增**: - ✅ L2: Kuzu Graph DB 集成 - ✅ Distill 增强:提取关系边 - ✅ Graph traversal recall(从向量结果扩展到关联卡片) - ✅ CLI: `trace`, `link` - ✅ OC Skill 初步集成 **验收标准**: ```bash alaya recall "Docker deployment" | jq '.results[0].related' # → 显示关联卡片(通过 graph) alaya trace card-abc123 # → 回溯到原始 session ``` --- ### Phase 3: 冷热分层与自动整理(2-3 周) **新增**: - ✅ 温度计算与分层逻辑 - ✅ CLI: `introspect`(distill + consolidate + cool-down + forget) - ✅ HOT/WARM/COLD tier 实现 - ✅ OC Cron 调度 **验收标准**: ```bash alaya status # → 显示冷热分层统计 alaya introspect # → 自动合并重复卡片,降温过期 embeddings ``` --- ### Phase 4: 生产优化与生态集成(2-3 周) **新增**: - ✅ Memex 导入与同步 - ✅ OC Memory Search 替代接口 - ✅ Export 功能(markdown + GraphML) - ✅ 性能优化(批量 embedding、索引优化) - ✅ 监控与日志 - ✅ 单元测试与集成测试 **发布**: - 📦 发布到 npm: `@mitsein-ai/alaya@1.0.0` - 📝 编写文档和使用示例 - 🚀 在主人的 OC 环境中部署 --- ## 7. 技术细节与风险 ### 7.1 LLM 调用成本控制 **问题**: Distill 过程频繁调用 LLM,可能产生高额费用 **解决方案**: 1. **批量处理**: 一次 distill 处理多个 sessions 2. **缓存机制**: 相同 session 内容不重复 distill 3. **增量模式**: 只处理新增的 turns(对于长 session) 4. **质量阈值**: 只对"有价值"的 session 做 distill(基于 token 数、工具调用等启发式规则) ### 7.2 Embedding 生成效率 **问题**: 为 8000+ 卡片生成 embeddings 耗时较长 **解决方案**: 1. **批量 API 调用**: 每次请求 100 条(SiliconFlow 支持) 2. **异步队列**: 使用 p-queue 限制并发数(避免 rate limit) 3. **渐进式索引**: 先处理 HOT tier,WARM tier 可延后 ### 7.3 Graph DB 查询性能 **问题**: 复杂 Cypher 查询可能很慢 **解决方案**: 1. **索引优化**: 在 `Card.id`, `Card.type`, `Card.temperature` 上建索引 2. **限制遍历深度**: Graph traversal 最多 2-hop 3. **缓存热门路径**: 对高频查询结果做 TTL 缓存 ### 7.4 数据一致性 **问题**: L1/L2/L3 之间可能不同步 **解决方案**: 1. **写入顺序**: L3 → L2 → L1(出错时从 L3 重建) 2. **校验命令**: `alaya verify`(检查三层数据一致性) 3. **修复工具**: `alaya rebuild-l1` 从 L2 重新生成 embeddings --- ## 8. 配置参考 ### 8.1 完整配置文件 **~/.alaya/config.json**: ```json { "version": "1.0", "data_dir": "~/.alaya", "embedding": { "provider": "siliconflow", "model": "BAAI/bge-large-zh-v1.5", "dimensions": 1024, "api_key_env": "SILICONFLOW_API_KEY", "batch_size": 100, "max_concurrency": 5 }, "temperature": { "hot_threshold": 0.7, "warm_threshold": 0.3, "cold_days": 30, "hot_limit": 5000, "warm_limit": 20000, "recency_decay": 30, "frequency_cap": 20 }, "distill": { "llm_provider": "openai", "model": "gpt-4o", "prompt_template": "~/.alaya/prompts/distill.txt", "min_session_tokens": 200, "max_cards_per_session": 10, "auto_distill": true }, "recall": { "vector_top_k": 20, "graph_expand_depth": 1, "min_similarity": 0.6, "max_results": 10 }, "introspect": { "schedule": "0 */4 * * *", "consolidate_threshold": 0.95, "forget_threshold": 0.1, "forget_days": 90 }, "logging": { "level": "info", "file": "~/.alaya/logs/alaya.log" } } ``` --- ## 9. 总结 Alaya 通过三层架构(L3 沉淀 → L2 联想 → L1 唤醒),将 AI Agent 的"业"(raw logs)转化为"识"(可复用的知识网络)。 **核心价值**: 1. **语义检索**: 从意象快速激活相关记忆 2. **关联推理**: 通过图谱发现知识之间的隐含关系 3. **冷热分层**: 优化内存和查询效率 4. **自动整理**: introspect 定期合并、降温、遗忘 **实施路径**: - Phase 1 (MVP): 核心功能验证 - Phase 2: 完整三层架构 - Phase 3: 冷热分层与自动整理 - Phase 4: 生产优化与生态集成 **技术栈**: - L1: LanceDB (embedding) - L2: Kuzu (graph) - L3: File system (raw storage) - Node.js + TypeScript **下一步**: 主人 review 本文档后,进入 Phase 1 开发。 --- _"业不唐捐,识自流转。" — 愿 Alaya 成为 Agent 的长久记忆。_