ChatGPT 时代:阅读会不会被取代?

ChatGPT 时代:阅读会不会被取代?

 在这AI 盛行的时代不禁会有人发出疑问,读书对我们来说还有价值吗?本文作者进行了解答并对 2022 年读过的书籍进行了总结和分类,希望能对大家有一定的借鉴意义。文末有留言有礼活动!

引言

在 AI 和搜索引擎越来越强的时代,所有的知识甚至答案都能信手拈来,人们还有必要读书吗?
本文重新反思了读书的意义,认为在 AI 盛行的时代,知识会变得越来廉价,但是知识不能代替人的认知,相反认知会变得越来越重要,而读书正是我们提升认知的过程。
因此好的书籍不能是简单的信息罗列,必须能够以高屋建瓴的方式提出新的视角,最终带领读者提升认知。以此为标准我对我 2022 年读过的书籍进行了总结和分类,希望能对大家有一定的借鉴意义。

读书是为了学习知识吗?

 

认知与知识的区别

同样是学习,认知与知识有什么区别?我认为认知是对事物方向性与原则性的理解,它是知识生长的土壤,哪怕随着时代变迁,知识落后过时了,通过认知我们也能够重新推导出知识。ChatGPT 虽然能够回答你的问题,但是要问什么问题呢?如何继续引导呢?怎么识别它回答正确性呢,答案是否已经过时了呢?这些都需要人靠着认知来判断,所以即使是 ChatGPT 也需要人来指引方向,它只能回答“知识”。
举个例子,马斯克推崇“第一性原理” 。“第一性原理” 主张通过分解问题,将其拆解成基本的物理或数学原理,并从这些基本原理出发重新组合,以得出新的结论或解决方案。这种思考方法可以帮助人们在创新和解决问题时跳出传统思维定式的限制,从而实现真正的突破。马斯克在 SpaceX 的火箭设计中,他从物理原理出发,重新设计了整个火箭的结构,使得火箭的成本大大降低。“第一性原理” 就是一个 “认知”,而火箭相关的技术原理则是 “知识”。
人工智能领域有一个著名的 “莫拉维克悖论”。该悖论发现了一个有趣的现象,尽管计算机在执行诸如微积分、棋类游戏等高智能任务方面表现出色,但在执行一些日常生活中被认为很简单的低智能任务时却表现得很差,甚至远不如人类儿童。比如最简单的行走,机器人学至今没有好的解决方案。相比之下,人类的小脑可以说是相比厉害的“智能”了,当你在走路的时候,从来都不需要思考哪个肌肉需要收缩,哪个肌肉需要拉伸,只需要想一个方向,你的肌肉就会 “自动” 带着你走到那里。这么一想我们是不是早就有 “强大人工智能” 的辅助了?但是它依旧需要 “大脑” 指引一个方向,而无法取代大脑。类比之下,我认为人工智能不会取代任何职业,只会将人类从低层次活动中解放出来,从事更多的方向性工作。

 

知识越来越廉价,而认知越来越有价值

在现代社会中,搜索引擎和 AI 使得人们获取知识和信息的成本越来越低。
然而,只有获取知识本身是不够的,人们需要通过理解和应用这些知识来解决实际问题和面对各种挑战。这就需要人们具备高水平的认知能力。
《未来简史》中指出,人工智能技术将会取代一些重复性和低层次的工作,但在创造性方面,人类仍然具有无可替代的优势。因此,人们需要通过不断学习和实践来提高自身的认知能力,以适应未来的发展和变化。
因此,知识正在变得越来越廉价,但认知的价值则会越来越高。获取知识的成本不断降低,但应用和创造知识的能力则需要不断提高。只有具备高水平的认知能力,人们才能在未来社会中立于不败之地。
一本好书则是我们提升认知的好助手,虽然好书中也会包含大量的知识,但它是有结构,成体系的,最终能够给我们带来更加高屋建瓴的视角和观点。
烂书则是知识和信息的简单罗列,读它还不如用到的时候再去搜索引擎搜索。

图片

论好书的标准:认知升级

都说 “一千个人有一千个哈姆雷特”,每个人都能从同一本书中读到不同的内容,有的人可能觉得一本书不好,有的人可能深受启发。所以好书不一定有一个统一的标准。
但是现在书这么多,个人的时间越来越有限,不可能每一本都去仔细品味。我认为书籍本身客观上也是有优劣之分的,读好书受到启发的可能性会更大,所以我们要用有限的时间尽可能地去读好书。
而好书的标准,就是能够以高屋建瓴的方式提出新的视角,最终带领读者认知升级。相比一篇文章,一本书的内容含量是很高的,作者一定是进行了大量的调研和素材整理,如果用心的话,必然能在其上建立更高的视角和认知。因此用这个方式可以鉴别作者是否用心,是否值得读者花时间学习。
好的文章和好书的标准,我认为也是类似的,只是文章一般比较短,就没法做这么苛刻的要求了,可能会存在不少纯知识分享的好文。但是我对自己的文章都是这么要求的,比如这篇文章就提出了从认知升级视角鉴别好书的观点。

读书的方法

我之前读书一直都是零零碎碎的,想起来就读一本,一年也读不了几本书。但是在去年5月份以来,我一口气读了接近二十本书,虽然其中很多都是小书,但是其中也有我花了一两个月才读完,专业性很强,很厚的书,比如《数据密集型应用系统设计》(524页),《沟通的艺术》(大开本500页)。我归结于以下两个方法:
  • 细水长流法:不管每天读多少,但是每天都要去读,“让读书成为一种习惯”
  • 两遍读书法:所有书读两遍,第一遍精读划线,第二遍整理一个思维导图

 

细水长流法

“花一天时间学完课程?还是用一周时间,每天学一个小时?哪个学习效果更好?”
心理学家曾经做过实验证明后者的效果更好。这跟我们的直觉是一致的。上大学的时候我经常考前“临时抱佛脚”,这种情况下学习的知识,考完就全部忘了,远远不如踏踏实实学一学期的效果好。
我每天只在睡前阅读半个小时的书籍,这样不会影响平时的工作生活进度,也很容易坚持下来。睡前还可以琢磨琢磨书中的内容,产生更深刻的理解。不要认为每天半小时读不了什么内容,最终积累下来的复利效果是惊人的。

 

两遍读书法

通过细水长流法,我们已经将书中的每个点都学习得很通透了。但是因为读书的时间被拉长了(比如《沟通的艺术》我读了两个月),我们很难在读完书的那一刻就将整本书的主线串起来。
因此我一般会再花一个整段的时间(比如周六下午),将整本书总体过一遍,画一个思维导图,总结书中的核心思想。这样才能真正读懂了这本书。

 

关于读书笔记

读书笔记也是一个让我纠结了很久的东西,读书笔记除了巩固记忆外,更重要的是保存和查询检索。有很多笔记可能当时没有用,突然有一天它派上用场了,我却检索不到,就尴尬了,“书都白读了”。比如我读《即兴演讲》这本书的时候并没有实际的用途,只是想了解一下,一年之后我去参加阿里的演讲比赛,被要求将30分钟的演讲压缩成 8 分钟,这本书就突然有了作用,我找到了当时的笔记重新学习了一下,受益良多,最后也帮助我拿了大奖。
最初我是边读书,边在电脑上开一个笔记软件记笔记的,这样记的笔记非常详细,但是存在两个问题:
  • 读书体验太差:读一点就要停下来几个笔记,断断续续的,体验很差,太影响读书兴致

  • 无法确认该记哪些内容:只有站在整本书的角度才能确认哪些是重点,哪些是边角。读一个片段就记笔记的话根本无法确认重点,会导致记的东西很冗余
后来我换了个方法,其实就是两遍读书法:
  • 第一遍读书的时候就认真读书,有什么感想就用笔将其记在书边空白处(电子书的话则直接标注在旁边)
  • 第二遍梳理主线的时候,画一个思维导图,将第一遍读书时的重要笔记也摘录到思维导图中

 

总结

数学家华罗庚在总结自己的读书方法时说 “读书先读厚再读薄”,用来总结我的两个读书方法再好不过了:
  • 先读厚:细水长流法搞清楚每一个细节

  • 再读薄:两遍读书法,梳理清楚书中的核心观点和主线

2022 读书总结

简单总结一下我 2022 年读过的那些书,推荐些好书,也踩一些烂书,我也会给出理由,如果存在观点不一致,欢迎交流。推荐的好书会居多,因为我在读之前也会去网上确认一下评价的。(不分先后顺序)

 

好书推荐

沟通类

《关键对话》

图片

《关键对话》被很多人称为神书,因为其中对于关键对话中人们心理的刻画过于惟妙惟肖,以至于让我怀疑作者是不是在偷窥我平时的心理活动。书中的核心观点是,在关键对话中要先维护安全感,等进入安全状态后再发表自己观点,然后鼓励对方也发表观点。

《即兴演讲》

图片

作者原本是给各大公司高管攥写正式演讲稿的,后来随着互联网等技术的发展,高管正式演讲越来越少,发现生意越来越差,就转行做演讲培训了,诞生了这本书。
虽然书名叫“即兴演讲”,但是内容针对的是所有 “短演讲”。书中的核心技巧 “抓手 + 要点 + 结构体 + 呼吁行动” 概括了很多大佬的讲话套路,并且总结了常见的恶意提问,避免被***难。

《沟通的艺术》

图片

修订了十五版的好书,中文版被归类到了成功学,但其实国外大学的心理学教材,书中有大量的心理学知识与科研实验成果,算是沟通类书籍中专业性最强,也最难读的一本。
但确实也是最高屋建瓴的。如果同时读过多本沟通类书籍,会发现他们存在相互矛盾之处,比如在《即兴演讲》/《金字塔原理》中涉及沟通的部分,主张先讲观点,然后再罗列事实。但是在《关键对话》中主张先分享事实,然后再讲观点。这个矛盾在读《沟通的艺术》时得到了解决,作者认为所有沟通都具备两个性质:
  • 有效性:信息传达是否准确有力

  • 适当性:是否符合沟通者的身份哦。比如晚辈和长辈对话要讲礼貌

而 《即兴演讲》/《金字塔原理》 明显是更加注重沟通的有效性,而《关键对话》更加注重沟通的适当性。并且在东方这种“高语境文化”中,相比西方,更加注重沟通的适当性。

思维类

《深度思维》

图片

思维方法的扫盲书,将市面上常见的思维方法都讲了一遍(比如系统思维,生态思维,六顶思考帽等等),虽然都不深,但是读起来非常轻松,可以作为进一步学习的参考。
作者主张普通人要多做减法,而不是加法。尽可能找到专注的领域,而不是当“斜杠青年”,对此深感认同,有多大能力不重要,重要的是知道自己能力的边界。

《系统之美》

图片

系统思维的开山著作,我今年看的好多本书都在引用这本书,包括但不限于 《深度思维》,《数据密集型应用系统设计》。于是我也读了一下原著。
作者将系统动力学的理论用于社会问题的分析,分析清楚了匪夷所思社会现象背后的简洁系统结构。
人们总是习惯性地认为万物有因有果,但是现实中的很多问题是没有因也没有果的,而是反馈回路间不断相互博弈作用的结果。因为系统思维是一个独立于结构化思维的全新思维方式,更加注重系统中要素和要素间联系的分析。

《是我把你蠢哭了吗?》

图片

脑科学的入门读物,作者是神经学博士兼脱口秀演员,所以这本书非常的幽默风趣。
大脑的运作方式真的很像计算机,海马体就是内存,并且会把其中重要的内容不断地进行编码存储到永久存储-大脑皮质中去。如果海马体出现问题就会出现无法产生新记忆的 “顺行性遗忘症”。
在讲述脑科学的同时,还给了很多生活上的技巧和建议,非常实用,并不是纯象牙塔的学术。

时间管理

《搞定》一到三册

图片

GTD 是风靡时间二十年的时间管理体系,理论和实践我认为是最为完善的,《搞定》是一切 GTD 理论的 “原著”。我把三册都给看了,最为推荐第三册,第三册是作者的最新见解,确实也最为成熟。如果看不下书的话,B 站上也有很多视频讲解 GTD。
《搞定》中蕴含着对时间管理的深刻见解,时间管理的本质不是管理时间,而是设计你的人生,作者主张从 “宗旨+原则+愿景+目标+项目+下一步行动” 逐层去拆解出待办任务。待办是有结构的,围绕目标,而不是平整的列表。我也将自己的待办按照作者的思路重新组织了下,比以前要好用多了。有机会再单独写一篇文章分享。

技术类

非程序员可直接跳过本节。

《数据密集型应用系统设计》

图片

很多人已经吹过这本书了。作者介绍的面比较广,不会深入复杂算法细节,即适合基础设施的开发者也适合应用开发者。
作者从一个高屋建瓴的视角看待整个分布式应用系统。应用系统的本质上就是各种同步和 ETL,将各种不同的派生数据都看成记录系统的索引,通过事件流进行同步。作者认为相比分布式事务,基于事件溯源和发布订阅的最终一致性架构才是未来。

《复杂软件设计之道:领域驱动设计全面解析与实战》

图片

对 DDD 的来龙去脉介绍得非常清楚,相比原著,包含 DDD 的最新进展以及一些开源 DDD 项目的介绍,更加容易理解和学习。
书中不少 DDD 的箴言非常发人深省,比如项目架构从依赖数据库变成依赖领域;核心域才是项目 ROI 最高的地方;依赖开发人员个人灵感而不是科学的方法梳理业务,这不能称为工程项目,只能称为艺术品。
开头可能比较啰嗦,但是读完后收获很大。

《编程与类型系统》

图片

结合 TypeScript 讲类型系统的书。本人是服务端,把它当成一本 TypeScript 入门书读的。也可以作为一本类型系统的入门书,类型系统本身水很深,这本讲得比较浅但是面面俱到,可以作为进一步学习的指引。

 

一些踩坑

对我个人来说,以下的这些书也不能完全算是 “踩坑”,它们对我来说还是有一点个人意义的,但总体上质量不高,对大多数人来说,读它性价比不高。

《卡片笔记写作法》

图片

社会学大师卢曼所使用的写作方法,但这本书不是他写的。而是在他死后人们研究他的笔记时发现的。
在豆瓣上看到一个有趣的评论已经将这本书的内容概括的很好了:
  1. 不断地打怪(阅读)

  2. 收集怪物掉落的碎片(闪念笔记)

  3. 将碎片存起来,记录什么怪物掉什么碎片,下次需要可以再去打(文献笔记)

  4. 将碎片裁剪缝合打磨成自己想要的形状(永久笔记)

  5. 在4中挑选自己需要的材料,制作装备武器,自用或者出售(输出)

这本书的问题是实操性不强,一直在反复地讲理论。

《OKR工作法》

图片

很多 OKR 的指南上推荐这本书,我也去看了看。
这本书的前半部分是一个创业公司使用 OKR 工作法成功的故事,后半部分是理论以及各种大佬写的推荐。
个人觉得这本书的问题在于:
  1. 前半部分的故事又短又尬,一个创业公司原本很失败,用了 OKR 之后突然就成功了
  2. 后半部分拼凑痕迹明显,各种大佬写的推荐,互相之间也没有关系。我看一堆没有关系的文章为什么要读书,而不是去读公众号文章呢?
  3. OKR 本质是个目标管理,但是看不出这本书对于目标管理有任何深刻的认知。学过 GTD 的就知道,OKR 本质就个中期目标管理,但是目标管理远远不止一个中期目标这么简单,理论极其不完善。实践方面还是推荐《搞定》1~3册

我怀疑推荐这本书的都没亲自读过,不过目前 OKR 概念虽然炒得火热,但是确实没什么好书,只能 “蜀中无大将,廖化冲先锋”。期待大佬们把自己的 OKR 实践写成一本好书。

《别独自用餐》

图片

与其说是教你怎么沟通,不如说是作者的自传。
作者出身于贫穷家庭,年轻时通过给有钱人当球童攀上了富贵,通过玩转人际关系,最终成为 CEO 和知名投资人。
读这本书确实开了眼界,“原来有钱人都是这么玩的”,但是里面的东西真的“玩不转”。

《安静,内向性格的竞争力》

图片

随着互联网的发展,很多人倾向于内向(包括我),所以我也看了看这本鸡汤。
不过这本真的只是个鸡汤,罗列了一堆内向者成功的故事,没看到什么太有用的建议。

《数据库系统内幕》

图片

被作者的核心观点所吸引。作者认为,在纷繁复杂的数据库中,它们的核心区别就是存储结构和数据分布。然后从这两部分切入介绍数据库技术的方方面面。
相比《数据密集型应用系统设计》少了流(消息队列)相关的内容,多了一些算法细节(不过写得也让人看不懂)。
只能作为数据库领域的名词扫盲,具体内容写得无聊且晦涩,虽然我坚持看了两遍,但是感觉只懂了 40%。偏理论,没有常见数据库的具体对比。对于应用开发者还是更推荐《数据密集型应用系统设计》。
作者|杜沁园(悬衡)

原文链接:https://www.cnblogs.com/88223100/p/ChatGPT-era-Will-reading-be-replaced.html

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:ChatGPT 时代:阅读会不会被取代? - Python技术站

(0)
上一篇 2023年5月10日
下一篇 2023年5月10日

相关文章

  • NLP_task8:循环神经网络

    1 RNN结构     RNN,循环神经网络。首先看一个简单的循环神经网络,由输入层、一个隐藏层和一个输出层组成: 其中,U是输入层到隐藏层的权重矩阵,o是输出层的值,V是隐藏层到输出层的权重矩阵,权重矩阵W是隐藏层上一次的值作为下一次输入的权重。一般的循环神经网络如下图: 在这个网络中,时刻t接收到输入之后,隐藏层的值是,输出值是。从网络中可以看出,不仅取…

    2023年4月8日
    00
  • tensorflow笔记

    tensoflow笔记 from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Input, Dense, Activation, Model #方法一: layers = [Dense(32, input_shape = (784,)), Acti…

    tensorflow 2023年4月8日
    00
  • 目标检测模型的评价标准-AP与mAP

    为了了解模型的泛化能力,即判断模型的好坏,我们需要用某个指标来衡量,有了评价指标,就可以对比不同模型的优劣,并通过这个指标来进一步调参优化模型。对于分类和回归两类监督模型,分别有各自的评判标准,目标检测模型评价指标主要包含 f1、ap、map、roc计算公式及代码实现与auc曲线绘制等。 目录 目录 目录 前言 一,精确率、召回率与F1 1.1,准确率 1.…

    2023年4月5日
    00
  • CNN卷积神经网络的改进(15年最新paper)

    回归正题,今天要跟大家分享的是一些 Convolutional Neural Networks(CNN)的工作。 大家都知道,CNN 最早提出时,是以一定的人眼生理结构为基础,然后逐渐定下来了一些经典的架构——convolutional 和 pooling 的交替,最后再加上几个 fully-connected layers 用作最后做 prediction…

    2023年4月8日
    00
  • 编译gpu集群版caffe

    在这个版本安装之前,要先装好opencv,openmpi等。 下载地址:https://github.com/yjxiong/caffe.git 我的opencv是2.4.12版本 编译是用了: cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -DCUDA_CUDA_L…

    Caffe 2023年4月7日
    00
  • 使用Keras构建CNN神经网络在医学图像CT上的应用

    个人博客,欢迎来撩 fangzengye.com 1.基础设置 1.1.加载包 import numpy as np # matrix tools import matplotlib.pyplot as plt # for basic plots import seaborn as sns # for nicer plots import pandas as…

    Keras 2023年4月8日
    00
  • RepLKNet:不是大卷积不好,而是卷积不够大,31×31卷积了解一下 | CVPR 2022

    论文提出引入少数超大卷积核层来有效地扩大有效感受域,拉近了CNN网络与ViT网络之间的差距,特别是下游任务中的性能。整篇论文阐述十分详细,而且也优化了实际运行的表现,值得读一读、试一试 来源:晓飞的算法工程笔记 公众号 论文: Scaling Up Your Kernels to 31×31: Revisiting Large Kernel Design i…

    卷积神经网络 2023年4月7日
    00
  • 循环神经网络(一)-RNN入门

    首先学习RNN需要一定的基础,即熟悉普通的前馈神经网络,特别是BP神经网络,最好能够手推。 所谓前馈,并不是说信号不能反向传递,而是网络在拓扑结构上不存在回路和环路。 而RNN最大的不同就是存在环路。   为什么需要RNN 1. 特征之间序列性 普通的神经网络的输入,具备样本独立同分布(iid), 特征也是独立的,多数也是同分布的,特征之间谁先谁后无所谓, …

    2023年4月5日
    00
合作推广
合作推广
分享本页
返回顶部