avatar
文章
153
标签
131
分类
42
关于笔者
主页
博文
  • 分类
  • 标签
  • 归档
友链
留言板
Roger-Lv's spaceManus最佳实践 返回首页
搜索
关于笔者
主页
博文
  • 分类
  • 标签
  • 归档
友链
留言板

Manus最佳实践

发表于2025-11-03|更新于2025-11-03|agent
|浏览量:

Manus最佳实践

https://manus.im/zh-cn/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus

文章作者: Roger-Lv
文章链接: http://example.com/2025/11/03/2025-11-03-Manus%E6%9C%80%E4%BD%B3%E5%AE%9E%E8%B7%B5/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Roger-Lv's space!
manus
cover of previous post
上一篇
为什么 RAG 的语义检索在信息压缩下仍然可行?
为什么 RAG 的语义检索在信息压缩下仍然可行? 在 RAG(Retrieval-Augmented Generation)系统中,检索阶段的核心逻辑是这样的: 把用户输入(query)和知识库中的文本块(chunk)都转化为固定维度的 embedding 向量,然后通过相似度计算来找到最相关的文档片段。 然而,这里会出现一个令人疑惑的现象—— 为什么短短几十个字的 query 向量,可以与上千字的文档片段向量放在同一个空间中比较? 毕竟,它们的原始信息量差距巨大,却被压缩到同样维度的 embedding 向量里。 本文将深入分析这个“语义压缩悖论”,解释为什么 RAG 的 embedding 检索机制依然是可行的。 一、RAG 检索的核心机制 RAG 的检索阶段要解决的问题是: “给定一个问题,找到语义上最相关的文本片段。” 实现方式通常如下: 对文档进行切块(chunking) 每个文档被分成 200~1000 字左右的小段。 对文本进行向量化(embedding) 使用预训练模型(如 text-embedding-3-large)将文本转化为 d 维向量。 存入...
cover of next post
下一篇
langfuse交互data和task交互原理
langfuse交互data和task交互原理 1. run_experiment 方法核心流程 根据 Langfuse.run_experiment() 方法的实现,data 和 task 的交互过程如下: 12345678910111213def run_experiment( self, *, name: str, run_name: Optional[str] = None, description: Optional[str] = None, data: ExperimentData, # 实验数据 task: TaskFunction, # 任务函数 evaluators: List[EvaluatorFunction] = [], run_evaluators: List[RunEvaluatorFunction] = [], max_concurrency: int = 50, metadata: Optional[Dict[str, Any]] = No...

评论
avatar
Roger-Lv
Send a flare and light the way.
文章
153
标签
131
分类
42
Follow Me
公告
Welcome!
目录
  1. 1. Manus最佳实践
最新文章
langfuse交互data和task交互原理
langfuse交互data和task交互原理2025-11-03
Manus最佳实践
Manus最佳实践2025-11-03
为什么 RAG 的语义检索在信息压缩下仍然可行?
为什么 RAG 的语义检索在信息压缩下仍然可行?2025-11-03
🌌 自然语言语义与高维空间中的低维流形:为什么嵌入模型可行?
🌌 自然语言语义与高维空间中的低维流形:为什么嵌入模型可行?2025-11-03
Rust-just安装
Rust-just安装2025-10-12
©2024 - 2025 By Roger-Lv
搜索
数据加载中