本文纯属本人的碎碎念,不涉及文献参考,也不是宣扬某种方法论,当做一个信息过载的大脑的报错信息即可
最近两年接触到了许多学习和笔记的方法论,也进行了很多的尝试,所以多少有了一些想输出的东西,希望大家不要笑话:)
为什么学习
“好好念书,好好学习,考个好大学,找个好工作”
这样的一套丝滑小连招,我相信大家在成长过程中或多或少的都听到过见到过。我们从小耳濡目染,仿佛学习只有不停的刷题和不停的读书这些方式。
但是学习的最终目的是什么?有古人说学习是为了明理,也有人说是为了入仕。具体展开能收录一大堆,但是堆在这里没啥用(反正除了中小学生写作文会用这玩意谁看啊)。
这些目的的不同,很大程度上取决于这些人自身的价值观,这里不做评价,毕竟这是每个人的个人课题,和我无关(课题分离真爽吧:)。
但是有一点可以肯定的,从古至今,无论如何评价学习,有两个主题绕不开:
“改造自己”和“改造世界”
基于这个目的往前推,我们就可以发现单纯的读书并不等于学习,单纯的应试也不等于学习。“读书无用”或许在某种视角上是成立的,但是“学习无用”则是彻头彻尾的错误——毕竟学习这个事件发生本身就是一种改变的结果。
在学生时代,“读书、笔记、阅读、记忆”这些概念常常和学习混淆,很多人都把读书当做了学习,把记笔记当做了学习(别说学生时代了,哪怕过了学生时代也会有人这么做,参考社交媒体中的笔记区)
实际上,学习其实就是两个阶段——输入和输出(现在许多的方法论中都有提及,这里不展开说了),为了方便理解,我们使用三个阶段来阐述:
输入——处理——输出
其实就是对于信息的处理流程,从人的动物性上来说,学习其实就是一个将外部的信息压缩成模型的一个过程,这个过程能够帮助人类更快的去理解外部世界,从而让我们的祖先在各种复杂的生存环境中生存下来。(参考《人类简史》)(不过这玩意怎么有一种大模型的即视感...)
摘自科普 | 压缩,是一种透过现象看穿本质的能力 - 少数派 (sspai.com):
"压缩"的表象就体现在:喂给大模型进行训练(调整参数和网路结构)的数据可能是数PB(1PB=1024TB=1024*1024GB)级别甚至更多,而最终得出的大模型的大小可能只有几百GB。通过大模型的计算可以得到你通过在海量数据中进行逐个查找的结果,因此海量的训练数据(数PB)和大模型(几百GB)之间是“等价”的,而大模型比海量数据小了上万倍,即完成了“压缩”。
我们进一步探究“压缩”的作为AI大模型的本质在哪里体现:大模型在输入数据进行训练的过程中,其实就干一件事情:学习这些数据之间的内在规律。举个例子,当我们有1万个点沿着一条直线依次排列的时候,我们可以用数学的一次函数y=ax+b来表示这些点。这就是总结规律,同时也完成了压缩(一万个点需要一个坐标点进行表征,而一次函数只需要表示一次)。当然,大模型在表征这些数据之间内在规律的时候,其使用的函数比一次函数复杂太多,但是本质都是一样的。
认识到了这三个阶段,我们就可以对这些概念进行一个划分了:
首先,读书不等于学习,学习不等于笔记
读书是输入的一种方式,输入的最终归宿是输出,输出也只是一个表现方式,“学习”的目标则是出现在这个过程中
笔记则是从输入到输出中间处理过程当中的一个表现方式。
然后,记忆也不等于学习,笔记也不等于记忆。虽然都说好记性不如烂笔头,但是记下来的东西真的就等于是我们的记忆了吗?
——显然不是,不然就不会有这么多诸如第二大脑和知识仓库相关的概念了。
记忆只是中间处理过程当中的一环,它可以重要,也可以不重要。(比如,如果我需要学习法语的话,那么词汇的积累记忆就是非常重要的,但是相较之下对这些词汇的应用则更为重要)
输出的方式也有很多,可以是写出来的读书笔记,感悟或者是分享书摘,也可以是最终考试的结果。
因为学习本身无法让别人感知到,所以大家对于学习的掌握与否只能依靠输出来进行判断。这就导致很多人过度于依靠输出的内容,也经常把一些无关的中间产物当做输出的内容,比如说笔记。
过度依赖输出内容的一个表现就是应试教育。
破执与返璞
将这个过程理顺了,就不至于在这些概念当中执着了,也不至于在【选择什么笔记软件更好?】和【如何高效的记录课程笔记?】这些表层问题上纠结和执着了。
我们更需要问的是:
【我们为什么要学?】和【我们应该怎么达到这一波学习的目的?】等围绕【学习】这个概念相关的事情,让学习这个行为重新变成属于自己的课题(详见《被讨厌的勇气》)
过度的专注与笔记的格式以及输出的方式,反而有些舍本逐末,从某种程度上来说,也是一种自我欺骗和自我感动
破除对于表层的执着,去追求学习本来的样子
我相信我可以做到,毕竟人们都能做到
毕竟,【学习】,是个与生俱来的、刻在基因里的功能