A8体育官方网站首页

a8体育app Karpathy开源第二大脑有接洽,有望替代向量数据库,让AI永不失忆

发布日期:2026-04-06 08:38:29 点击次数:99

a8体育app Karpathy开源第二大脑有接洽,有望替代向量数据库,让AI永不失忆

你觉得 AI 在学习,履行上,每次对话它齐在重学一遍。

你约略也有这么的体验:在 NotebookLM、ChatGPT 上传一系列文献,LLM 处理并生成谜底。但每次 LLM 齐要“从 0 开动”挖掘常识,尤其是当达到使用上限或放弃会话时,就像给名堂作念了一次“记念清空”。

其内容仍然是检索增强生成(RAG)。为了让它记取建树的架构细节,只可用更多的 token 和期间来重建 AI 的险阻文。

当今,OpenAI 独创成员之一、特斯拉前 AI 总监 Andrej Karpathy 通过构建一个耐久的、由 LLM 爱戴的名堂记载,提议了一套全新的有接洽 LLM Wiki。

该有接洽比典型的企业级处置有接洽(向量和 RAG 管说念)更通俗,也更优雅,能够复制粘贴到个东说念主 Agent 中(举例 OpenAI Codex、Claude Code、OpenCode/Pi 等)。在这个系统中,LLM 自己充任的扮装是全职“常识库管制员”:积极编译、检验和贯穿类 Markdown(.md)维基百科式文档。

Karpathy 将多数 token 预算用于结构化常识构建,而非叠加生成样板代码,从而为“第二大脑”的下一阶段绘图蓝图:一个能够自我教训、可审计且统统东说念主类可读的常识体系。

Karpathy 指出,“该步履在约 100 篇著作、40 万字畛域下的成果显耀优于传统 RAG,且统统东说念主类可读、可审计,基本开脱了供应商锁定。”

尽管 Karpathy 称这套有接洽当今还处于靠“一堆蹩脚剧本”兑现的阶段,但已有企业家嗅到了商机,有企业家称:谁能把这个功能打包成平淡用户齐能用的东西,谁就把抓了浩大商机。一款愚弄即可与你常用用具、书签、阅读愚弄、播客愚弄及酬酢媒体优质参谋内容同步。

在 LLM Wiki 有接洽中,LLM 并非只是在查询时从原始文档中检索信息,而是逐渐构建并爱戴一个耐久化的维基:一个结构化的、互相贯穿的 Markdown 文献联接,它位于用户和原始数据源之间。

当用户添加新的数据源时,LLM 不仅会为其进行索引以便后续检索,还会读取、提真金不怕火过失信息,并将其整合到现存的 Wiki 中更新页面,更正主题选录,指出新数据与旧说法相矛盾之处,从而不断修正或强化已有常识体系。常识被编译后可不断复用,无需在每次查询时从头推导。

过失在于,LLM Wiki 是一个不断更新、不断完善的资源。交叉援用毅然建树,矛盾之处已被标志,详细信息则反应了用户阅读过的总计内容。你添加的每个起原、提议的每个问题齐会让 LLM Wiki 的内容愈加丰富。

这么作念的平正是,用户险些从不(或很少)切身编写 Wiki,总计内容齐由 LLM(常识库管制员)编写和爱戴,其一次可处理约 15 个文献。你只需要寻找辛苦、主动探索和提议正确的问题;而 LLM 则防范总计繁琐的做事:追思、交叉援用、存档和信息整理,这些做事使常识库能够长久进展作用。

Karpathy 称,他一边掀开 Agent,一边掀开 Obsidian。LLM 会说明他们的对话进行剪辑,用户能够及时浏览放胆,包括点击贯穿、检验图表视图、阅读更新后的页面。在这种情景下,Obsidian 是集成开辟环境(IDE);LLM 是圭臬员;维基则是代码库。

详细来看,a8体育系统架构分三个不同的阶段运行。

数据导入:原始辛苦,举例研究论文、GitHub 代码库、数据集和汇集著作被导入到 raw/ 目次中。为了将网页著作调理为 .md 文献,Karpathy 使用了 Obsidian Web Clipper 延长,他还竖立了一个快捷键,将总计关联的图片下载到土产货,以便 LLM 可通过视觉功能援用它们。

编译法子:这是架构中的中枢翻新点。LLM 不单是是对文献进行索引,而是对文献进行“编译”。它读取原始数据并生成结构化的维基百科页面,包括生成选录、识别过失见解、撰写百科全书式条款,以及在关联见解之间创建“反向贯穿”。

主动爱戴(代码校对):该系统并非一成不变。Karpathy 描述了运行“健康检验”或“代码校对”的经过,LLM 会扫描 Wiki 以查找不一致之处、缺失数据或新联接。这十分于一个编削态的、能够“自我教训”的常识库。

LLM Wiki 的愚弄场景泛泛,竞争分析、尽责拜访、旅行琢磨、课程札记、兴味酷好深度研究……任何需要不断积存常识,而且但愿有序整理的场景齐不错用到它。

个东说念主成长:跟踪个东说念主目的、健康、感情、自我擢升,可记载日志、著作、播客札记,并跟着期间的推移构建一个结构化的自我形象。

深度研究:对某个主题进行为期数周或数月的深刻研究,举例阅读论文、著作、诠释,并逐渐构建一个包含不断发展的论点的详细维基。

念书札记:边读边整理章节,创建页面记载东说念主物、主题、情节脚迹以及它们之间的谋划。最终,你将领有一个内容丰富的配套维基。以托尔金百科(Tolkien Gateway)为例,其历经数年由志愿者社区构建而成,涵盖东说念主物、处所、事件、谈话等。你不错一边阅读,一边构建肖似的内容,而 LLM 则防范总计的交叉援用和爱戴做事。

业务/团队:一个由 LLM 爱戴的里面 Wiki,内容起原于 Slack 音问、会议记载、名堂文档和客户电话,可能也会有东说念主工参与审核更新。Wiki 之是以能保持更新景况,是因为 LLM 承担了膺惩职责——那些团队中其他东说念主齐不肯意作念的爱戴做事。

咫尺,已有开辟者将 LLM Wiki 时势延长到 OpenClaw 管制的 10 个 Agent 系统中,通过 Hermes(由 Nous Research 考研用于结构化评估)四肢零丁审核关卡对编译后的著作进行评分考证,以确保只须准确的内容插足长久常识库,再生成简报回馈给各个 Agent,从而造成了一个“产生-整理-考证-反馈”的闭环。

Karpathy 将 Markdown 文献看作“真谛之源”,其可幸免向量镶嵌的“黑箱”问题。AI 给出的每一条论断齐不错追忆到特定的 .md 文献,而这些文献不错由东说念主阅读、剪辑或删除。

LLM Wiki 有接洽探索的往常目的是合成数据生成和微调。跟着 Wiki 的增长,数据通过不断的 LLM 代码校对变得越来越“皑皑”,有望成为更竣工的数据考研集。

LLM 不再只是读取 Wiki 的险阻文窗口,在此基础上,用户最终有望在 Wiki 自己上对模子进行微调,从而构建一个更小、更高效的模子。这将使 LLM 通过模子权重掌抓个东说念主常识库,把研究名堂真确滚动为专属的定制化智能。

总体来说,这种有接洽是一种新的理念:通过领有自身记念的主动智能体,幸免了以往“单次”东说念主工智能交互的局限性。

关于个东说念主研究东说念主员而言,这意味着有望告别 LLM“失忆”,转而建树更长久的关连。对企业而言,这预示着原始数据湖正在向编译后的常识钞票挫折。约略,这也意味着咱们正在插足 AI 自主常识库期间。

参考辛苦:

https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f

https://x.com/karpathy/status/2039805659525644595

https://x.com/himanshustwts/status/2039811786602607052

https://x.com/jumperz/status/2040166448492900356

https://venturebeat.com/data/karpathy-shares-llm-knowledge-base-architecture-that-bypasses-rag-with-an

排版:刘雅坤

开云体育官方网站首页