彩票投注
你的位置:正规投注平台官方网站 > 彩票投注 >

新智元报谈
剪辑:犀牛
【新智元导读】Karpathy公开个东谈主常识不停新范式:让大模子把你的一切贵府「编译」成一部活的百科全书——RAG已死,东谈主类只需稳重想考。
就在这两天,AI圈又被一个东谈主引爆了。
不是Sam Altman,不是马斯克,是阿谁低调、却每次起初皆能掀起桌子的男东谈主——Andrej Karpathy。
此次他是作念了一件看起来更「朴素」的事情:把我方的常识不停相貌公开了。
就这?就这。
但「就这」,让悉数这个词开采者社区炸了锅。
他在X上唾手发的一条帖子,短短几天收成了1200多万次围不雅。

卡帕西背后的道理是:大模子的下一个战场,不是写更多代码,而是不停更多常识。
而他给出的决策,叫作念「LLM Wiki」——一种让大模子当你的全职常识管家、24小时不隔断整理、更新、自检个东谈主的全新范式。
GitHub上他附带的一份「宗旨文献」(idea file),不到12小时拿下超2100颗Star。

开采者Farza紧随其后,成功用这套想路,把我方2500条日记、札记和iMessage音讯,让大模子「编译」成了一个领有400篇结构化著作的个东谈主Wiki百科——Farzapedia。
一个给AI Agent用的、对于「你我方」的百科全书。

听起来科幻?但它一经在运行了。
LLM Wiki 到底是什么?
回忆一下你我方的日常:读了一篇好著作,保藏了;看了一篇论文,存了个PDF;开会记了一段札记,扔进了Apple Notes;在微信群看到一个可以的不雅点,截了个图……
然后呢?
然后就莫得然后了。
三天后你需要用到某条信息,翻遍悉数app、悉数文献夹,等于找不到。
要么是要津词想不起来,要么是存的所在太分布,要么干脆等于——铭记看过,但忘了在哪看的。
信息越多,大脑越乱;保藏越勤,渐忘越快。
这等于传统常识不停的死穴——它需要你继续花期间手动整理,而东谈主类天生懒得整理。
那AI能帮衬吗?自然能。
咫尺最主流的作念法叫RAG(检索增强生成):把一堆文档切成碎屑,存进向量数据库,用户问问题的时候,AI去「搜」干系片断,强迫出谜底。
NotebookLM、ChatGPT的文献上传功能,本色上皆是这个门道。
RAG好不好用?能用,但不够好。
卡帕西一口谈破地指出了RAG的根柢问题:它每次皆在从零开动「重新发现」常识。
你今天问一个需要详细五篇论文智商恢复的问题,AI把碎屑翻了一遍给你拼了个谜底。未来你换个角度再问,它得重新翻一遍、重新拼一遍。
什么皆莫得积聚下来,什么也莫得设立起来。
用卡帕西的原话说:「莫得积聚。」(There's no accumulation.)
那他的决策是什么?
让大模子不是每次「搜」你的文献,而是把你的文献「编译」成一部活的百科全书。
这等于「LLM Wiki」的中枢想想。

LLM Wiki的完竣架构
卡帕西在GitHub Gist上公开了他的完竣构想。
自然他刻意写得比拟「抽象」——因为他以为在AI Agent时期,共享的应该是宗旨而非具体代码,让每个东谈主的Agent去笔据宗旨定制杀青——但整套系统的骨架其实绝顶明晰。
第一层:原始数据(Raw Sources)
等于你的素材库。论文、著作、代码、图片、数据集……裕如扔进一个raw/文献夹。
不需要你整理,不需要你分类,扔进去就行。
这一层是「不可变」的——大模子只读取,毫不修改。这是你的信息泉源、真相之本。
卡帕西保举用Obsidian Web Clipper浏览器插件,看到好著作一键转成Markdown,再用快捷键把图片一齐下载到腹地,确保以后网站挂了图也不会丢。
第二层:Wiki(The Wiki)
这是悉数这个词系统的中枢。
大模子读完raw/里的素材后,不是浅易地「索引」它们,而是主动地「编译」出一整套结构化的Wiki。
什么叫「编译」?
就像编译器把你的源代码变成可实施步履相通,大模子把你的「原始贵府」变成了一部可导航、可查询、相互援用的常识体系。
具体来说,大模子会作念这些事:给每篇素材写摘记,抽取要津想法,为攻击主题撰写放心著作,米兰体育app官网在不同页面之间设立反向并吞,真贵一个总索引文献(index.md),记录操作日记(log.md)。
你简直无用手动剪辑Wiki里的任何内容。
写著作的是大模子,打标签的是大模子,建并吞的是大模子。
用卡帕西我方的话说——Obsidian是IDE,大模子是步履员,Wiki是代码库。
第三层:司法文献(The Schema)
这是一份「诠释书」,告诉大模子这个Wiki如何组织、有什么限定、遭遇不真贵况该如何操作。
比如在Claude Code里是CLAUDE.md,在OpenAI Codex里是AGENTS.md。
这份文献由你和大模子「共同进化」——你用着用着发现什么司法好用就加上去,什么不好用就改掉。
四大操作:导入、查询、输出、自检
架构搭好了,日常如何用?
卡帕西给出了四个中枢操作。
操作一:导入(Ingest)
把新素材扔进raw/,告诉大模子:「处理这个。」
大模子读完之后,跟你筹议要津发现,然后写一篇摘记页,更新总索引,何况在悉数这个词Wiki中找到悉数干系的页面——可能是某个想法页、某个东谈主物页、某个对比页——一一更新。
一篇新素材可能会触发10到15个Wiki页面的联动更新。
卡帕西个东谈主心爱一次导入一篇素材,边导入边看大模子写的摘记,确保标的对了。
自然你也可以批量导入,连气儿扔100篇论文,让大模子我方冉冉消化。
操作二:查询(Query)
一朝Wiki积聚到一定例模,你就可以对着它问多样复杂问题了。
卡帕西我方的一个连续Wiki攒了大约100篇著作、40万字。他本以为这个边界得搞一套复杂的RAG才行——收尾发现根柢不需要。
为什么?
因为大模子浅薄把索引文献和摘记真贵得很好,它先读索引,找到干系页面,再钻进去细看。
40万字的边界,草率嘱咐。
而且查询的输出款式不限于笔墨——可以是Markdown著作,投注平台可以是Marp款式的幻灯片,可以是matplotlib图表,任何你想要的可视化体式。
操作三:回填(File Back)
这是最精妙的一步:把查询收尾存回Wiki。
你问了一个对比分析的问题,大模子给了你一份精彩的恢复——这份恢复本人亦然有价值的常识。
卡帕西的作念法是把这些输出「存档」回Wiki,让它成为Wiki的一部分,供畴昔的查询使用。
你的每一次发问,皆在让常识库变得更丰富。用的越多,它越灵巧。
这不是奢侈,是投资。
操作四:自检(Lint)
如期让大模子给Wiki作念一次「体检」。
查验什么?数据不一致的所在;新素材推翻了旧论断的所在;有援用但莫得放心页面的攻击想法;孤独的、莫得任何并吞指向的页面;通过收集搜索可以补全的信息空白。
这让悉数这个词Wiki不仅保抓健康,还在继续助长。
VentureBeat对此有一个精彩的评价:「这就像一个能自我成立的活常识库。」(It acts as a livingAIknowledge base that actually heals itself.)
到这里,你会发现卡帕西作念出来的东西,跟传统常识库完全不是一趟事了。
传统常识库是一个需要你继续喂养的存储用具,而LLM Wiki是一个自运行的常识引擎——大模子稳重整理、更新、自检、助长,东谈主类只需要作念一件事:想考。
Farzapedia:当你的一世被「编译」成百科全书
若是说卡帕西给出了表面框架,那开采者Farza等于第一个把这套表面「跑通」的东谈主。
Farza作念了一件听起来有点豪恣的事:他把我方的2500条日记、Apple Notes札记和部分iMessage对话一齐喂给了大模子,让AI从中「编译」出了一部对于他我方的个东谈主Wiki百科——Farzapedia。

这部「百科全书」包含400篇醒目著作,粉饰了他的一又友们、他创办过的公司、他的连续领域、甚而他最爱的动漫以及这些动漫对他的影响。
每篇著作皆带有反向并吞,酿成了一个完竣的常识收集。
但最要津的小数是——Farzapedia不是给Farza我方看的,是给他的AIAgent用的。
悉数这个词Wiki的结构和并吞相貌,自然允洽Agent爬取。
Farza用Claude Code通达这个Wiki,Agent从index.md(总目次)开动,可以像蜘蛛相通顺着并吞一层层钻到它需要的具体页面。
举个例子:Farza在联想一个新项狡计落地页,他问Agent:「我最近有什么影响了我审好意思的电影和图片?帮我找找灵感。」
Agent如何作念的?
它在Wiki里找到了Farza的「玄学」著作——那边记录了他看一部吉卜力记录移时的札记;找到了「竞品分析」著作——内部有他截图保存的YC公司落地页;甚而翻出了他几年前存的1970年代披头士乐队相近商品的图片。
收尾Agent给出了一份极其精确、极其「懂他」的创意决策。
Farza坦言,他一年前用RAG搭过肖似的系统,但体验很差。
而基于文献系统的常识库,让Agent通过它真的分解的目次结构去查找信息,恶果天差地别。
而Farzapedia最神奇的所在在于——它是「活」的。
当Farza往Wiki里添加新内容(一篇著作、一张灵感图、一份会议纪要),系统会自动判断这条新信息应该归入哪2到3篇已有著作,或者干脆创建一篇新著作。
用Farza的譬如:「它就像一个超等天才文籍不停员,专诚不停你的大脑——它恒久在帮你把东西归到最合适的位置,而且它从不疲钝。」
权利归你
卡帕西在转发Farzapedia时,用了一段话来弘扬他为什么如斯珍贵这种常识不停相貌。
这段话值得仔细试吃,因为它显现了一种对于「AI时期个东谈主数据主权」的深层想考。

他归纳了四个中枢上风:
第一,显式(Explicit)。你的常识不是藏在某个AI的「隐式记挂」里——那种你看不见、摸不着、也不知谈它到底记了什么的黑箱。Wiki是显式的、可导航的,你可以清皎鲜明看到AI知谈你什么、不知谈你什么,可以检视和不停这份「记挂成品」。
第二,你的(Yours)。数据就在你的腹地电脑上,不在某个AI厂商的云表系统里。你不需要牵记「我的数据被谁拿去考研了」,也无用惊骇「若是哪天换了AI就业商,我的记挂还能不行带走」。
第三,文献优于诳骗(File overApp)。悉数这个词常识库等于一堆Markdown文献和图片——最通用的款式。任何用具皆能读取它们,任何Agent皆能操作它们,你可以用Obsidian看,也可以我方写个界面来看。这叫「互操作性」。
第四,自带AI(BYOAI - Bring Your Own AI)。你想用Claude就用Claude,想用Codex就用Codex,想用开源模子就用开源模子。甚而你可以把Wiki当考研数据,微调一个「打从权重层面就闭塞你」的专属AI。AI厂商之间的竞争?让他们卷去,你只管挑最佳的用。
卡帕西的回想很干脆:这种个性化决策把你放在了完全的限定位上。数据是你的,款式是通用的,内容是透明的。用哪个AI随你挑,让AI公司们保抓垂死吧!
常识的「编译时期」来了
回头看卡帕西的LLM Wiki,你会发现它的精神内核其实并不新。
1945年,好意思国科学家Vannevar Bush在那篇驰名的论文《As We May Think》中,就忽视过一个叫「Memex」的构想——一个个东谈主化的、抓续策展的常识存储系统,文档之间由「关联陈迹」(associative trails)并吞起来。

Bush以为,文档之间的并吞和文档本人相通有价值。
这个宗旨比互联网还早了半个世纪。
其后,互联网如实杀青了文档的并吞,但走向了全球化、碎屑化,而非个东谈主化、结构化。
Bush昔时没能惩处的问题只好一个:谁来作念真贵?
咫尺,大模子惩处了这个问题。
卡帕西的决策,本色上是对Bush的Memex作念了一次「当代编译」:AI稳重悉数无聊的真贵责任——更新友叉援用、保抓摘记最新、发现新旧数据的矛盾、真贵几十上百个页面之间的一致性。
东谈主类之是以废弃真贵常识库,不是因为不想,而是因为真贵本钱增长得比价值更快。
大模子放置了这个瓶颈。
咱们正在目击一个新范式的出身——从「AI搜索信息」到「AI编译常识」。
在这个范式里,大模子不再仅仅一个你问什么它答什么的「搜索引擎」,而是一个抓续运转的「常识编译器」。
你的东谈主生资历、责任素材、阅读记录、灵感碎屑,皆是它的「源代码」。
而它的产出,是一部只属于你的、恒久在助长的、从不渐忘的「第二大脑」。
东谈主类稳重想考,AI稳重记着。
这可能是大模子最「朴素」、却也最真切的一个诳骗标的。
不炫技,不烧钱,不需要百万Token的凹凸文窗口,不需要复杂的向量数据库——等于一堆Markdown文献,加上一个费事的AI文籍不停员。
1945年,Vannevar Bush只可把Memex画在纸上。
2026年,你可以把它跑在你的札记本电脑上了。
畴昔已来。
参考贵府:
https://x.com/karpathy/status/2040470801506541998
https://x.com/karpathy/status/2039805659525644595
https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f
开云体育中国官方网站下一篇:没有了
- 2026/04/07真钱投注app平台 卡帕西引爆硅谷!公开「第二大脑」黑科技,1250万东谈主围不雅
- 2026/04/06真钱投注app官网 罗峰表现兽神之心的含金量有多高,连星空巨兽鼻祖直呼太变态了
- 2026/04/06真钱投注平台 十二星座运势查询2026.04.05
- 2026/04/06真钱投注 036期宋凯大乐透意料奖号:后区详细分析
- 2026/04/06真钱投注 前任天国销售认真东说念主Sean:Switch 2加价将不能幸免

