LLM依赖症-思考外包-认知萎缩

3

在大模型越来越广泛的今天, 我的生活已经快被它包围了.

包括但不限于:

  1. 代码编程
  2. 请教 问题/概念
  3. 功能需求: 语言翻译/Debug/审阅简历/DeepResearch
  4. 娱乐需求: 聊天/角色扮演

非常好, 效率提升非常多, 但是问题是: 我只感觉我越来越空洞.

LLM依赖症

什么叫做LLM依赖症, 我总结下来有两个特点:

  1. 思考外包: 不再主动的思考了, 只会被动的接受结论.
  2. 认知萎缩: 对于世界的理解, 不仅没有变得更加敏锐, 而是更加的混沌.

我曾经长时间陷入这种状态, 看起来好像出活很快, 效率很高. 但是并没有让你有本质上的提高.

提高的仅仅是使用AI的效率, 在LLM越来越强大的现在, 我认为我将来使用工具的能力也会被AI超越.

我将这种症状称之为LLM依赖症, 或者叫做AI缺脑.

病因

病因有几个:

  1. 被动的接受结论, 而对于得到结论的过程没有足够的了解
  2. 缺少积累, 你不再记笔记, 也不再写博客, 你不需要回顾知识, 你只会问AI.

一剂良药

推理模型

推理模型太好了, 给的答案非常好, 但是我认为这不是最有价值的部分.

最有价值的部分是推理的部分, 对于大部分的情况下, 我建议你看一看他的推理, 非常精彩. 本质上来说, 它把自己思考的过程告诉了你.

而人类有着强大的模仿能力, 你不能模仿结果, 那太难了.

但是你可以模仿过程, 这种裸露的思考过程不见得很深刻, 但是这可以告诉你结论的推导过程, 这其实非常重要.

Anti-Summarize

总结是AI最强大的能力之一.

但是我觉得你要慎用, 至少当你在阅读文档/论文/书籍的时候, 珍惜跟随老师们的思维之旅, 而不是吃一个干巴巴的压缩饼干.

我反对用AI做总结吗? 不! 我认为当然要用, 但是在一些时候, 不要太过于做选择性思考.

你可以用AI来评估内容的价值, 但是你要知道: 面包是美味, 但是压成面团就不那么可口

Deep Research

Deep Research非常重要.

我认为将来Deep Research会越来越重要, OpenAI的DeepResearch太昂贵.

我强烈推荐你用Gemini Deep Research, 能够把内容变薄很容易, 但是把内容变厚是很难的.

而Deep Research提供了一个非常好的入口, 就是给你一个领域中非常详尽的大纲和结论.

尽管我认为直接用结论是愚蠢的, 但是如果是N个领域/方向的结论相互印证, 这其实是有价值的.

而且, Deep Research中提供的Thought非常关键.

你应该多跟着AI来搜一搜, 尤其你对于一个领域并不十分了解.

笔记/知识管理

多写笔记, 多整理笔记.

用Cubox + flomo + siyuan来构建你的至少管理.

即: 碎片知识整理 + 碎片的知识输出 + 长篇的整理输出/知识持久化

我个人用下来觉得还不错, 给大家推荐一下

用自我知识管理来对抗依赖性和成瘾性, 这可能是最终的答案.