如今人们获得信息和解决问题的方式可能会发生一些变化,因为大语言模型的出现,让我们可以随时向 AI 提出问题冰火去答案。

目前大语言模型是一问一答机制,也就是需要你先给出一个问题,他才能回答你。因此,要真正发挥AI的价值,仅仅得到答案还不够——学会提问才是关键。

凯文·凯利曾在一次演讲中提到未来发展的12大趋势,其中第11个就是提问。在信息随手可得的时代,“好问题比完美的答案更有意义,也更有价值”。

为何需要提问?

我们正处在一个信息爆炸、观点纷杂、真假难辨的“嘈杂、混乱的世界”中。

在这样的环境下,仅仅被动地接收信息就像一块海绵,虽然吸收了大量“水分”,但无法区分哪些是清水,哪些是污水,这存在着诸多风险。

大语言模型的设置决定了他首要的目的是流畅的输出文字,因此我们接收到的信息并非都经过严格筛选和验证。

在网络上,很多信息发布者(如广告商、政客、甚至部分专家和媒体)可能带有特定目的,他们提供的信息可能存在偏见、不完整、甚至是故意误导或虚假的。

并且网络时代信息发布门槛极低,人人都可以是“权威”,这使得辨别信息来源的可信度更加困难和必要。

我们的大脑倾向于“快思考”或“系统1思维”,喜欢走捷径,依赖现有信息和直觉做判断,这虽然省力但容易出错。其次,我们的大脑还会有证实偏差与信念固着,也就是我们倾向于寻找和接受那些能够证实我们既有信念的信息,而忽略或排斥不同的观点。被动接收会让我们更容易困在自己的信息茧房里。

主动提问,尤其是批判性提问,是一种“淘金式思维” ,它要求我们积极参与,筛选信息,评估论证的质量(如检查论题、结论、理由、证据、假设、有无谬误、有无省略重要信息等),从而决定哪些信息值得相信。

提问迫使我们启动“慢思考”或“系统2思维”,进行更深入、更全面的分析和评估,有助于做出更明智的判断和决策。

往更高层次来讲,依赖被动接收容易成为他人思想的“精神奴隶”。主动提问是理性掌控自己信念和结论,成为独立思考者的基础,使我们能更有力地应对试图说服我们的人。

好问题比答案更能激发思考和想象力,通过提问,我们不仅能更深入地理解现有信息,还能发现问题、挑战假设、探索新的可能性,这是知识生产和创新的起点。

上野千鹤子强调,研究(做学问)不是死记硬背,而是“学而后问”,自己提出问题并寻找答案。

💡

好问题比答案更有价值

沃伦·贝格尔的《如何用提问解决问题》中明确强调“提问驱动思考,答案终止想象”以及“好问题比答案更有价值”。

一个问题,特别是高质量的问题,会激发我们的好奇心,迫使我们的大脑进入探索、分析、联想和评估的模式(即“慢思考”或“系统2思维”)。它打开了认知的大门,让我们去探究原因、可能性和解决方案。

而一个答案,尤其是现成的、被普遍接受的答案,往往代表着思考过程的结束或暂停。一旦我们得到了一个看似“正确”或“足够好”的答案,我们常常会停止进一步的探究和想象

问题开启可能性,答案关闭可能性。

💡

信息爆炸的时代,找到“答案”相对容易(比如通过搜索引擎),但这往往只是信息的被动接收(海绵式思维),不一定带来真正的理解和内化。

提出并试图回答一个问题,则需要我们主动地搜集信息、分析证据、评估论证、识别假设(淘金式思维),这个过程本身就是深度学习和知识内化的过程。

上野千鹤子强调,“做学问”的核心就是“学而后问”,是成为“信息生产者”而非仅仅是“消费者” 。

💡

在快速变化的时代,昨天的“正确答案”可能今天就不再适用,固守旧答案可能导致落后甚至失败。而持续提问的能力,特别是问出预测性、探索性问题的能力,能帮我们保持学习状态,适应变化、预见未来趋势,并不断调整我们的认知和行动策略。

正如《如何用提问解决问题》中提到的,在今天这个答案唾手可得的时代,提出一个“好问题”本身就成了一种稀缺且极具价值的能力。它区分了被动的信息接收者和主动的思考者、创造者与领导者。

💡

提问者的思维模式

布朗的《学会提问》中提到海绵式思维和淘金式思维,具体来讲,海绵式思维是像海绵吸水一样,被动地、尽可能多地吸收信息,淘金式思维是像淘金者筛选沙砾一样,主动地与信息互动。

海绵式的优点是能快速获取大量知识,为复杂思考奠定基础。缺点是缺乏筛选机制,无法判断信息的价值和可信度,容易全盘接受所接触到的内容。

淘金式要求读者/听众不断提出问题,质疑信息的来源、理由、证据、假设等,目的是“淘”出有价值的“金块”(即可靠的结论和有力的论证),并摒弃无用的信息。它强调的是过程中的互动和评估。

这两种思维可以互补,你需要先有信息(海绵吸收),才能进行筛选评估(淘金)。

淘金式思维需要你不断的质疑,必不可少就需要有批判性思维。《学会提问》中提到强势和弱势批判性思维。

弱势批判性思维指利用批判性思维的技能来捍卫自己当前的信念。其目的不是追求真理或美德,而是抵制和驳倒与自己不同的观点,让对方认输。

这是一种封闭的、防御性的思维方式。

强势批判性思维指利用批判性思维的技能来评估所有的主张和信念,特别是自己的主张和信念。它要求我们用同样的标准审视自己的观点,乐于接受对自己信念的批评,目的是为了更接近真理和做出更明智的选择。

这是一种开放的、反思性的思维方式,是布朗倡导的目标。

要成为一个有效的批判性思维者,需要具备三个维度:意识、能力、意愿。

  • 意识 (Awareness):认识到存在一整套环环相扣的批判性问题(如本书各章提出的问题)。

  • 能力 (Ability):能够在适当的时机,以适当的方式提出和回答这些批判性问题。

  • 意愿 (Desire):有强烈的主动性,愿意积极地运用这些批判性问题去评估信息和论证。

不断的质疑与提问的底层驱动力,必不可少的会有“好奇心”。贝格尔《如何用提问解决问题》书中讲到“像 4 岁小孩一样提问”。

4岁的孩子是天生的提问者,每天能问上百个问题。他们提问是因为纯粹的好奇心,想了解世界如何运作。他们不害怕暴露无知,敢于问最基本甚至看似“愚蠢”的“为什么”。他们的思想开放、不受偏见束缚。

随着成长,由于害怕犯错、担心显得无知、社会压力(如好面子而避免提问)等原因,提问的习惯会逐渐减少。培养好奇心驱动的思维,就是要努力找回并保持孩童般的好奇心和提问勇气,克服这些后天形成的障碍。

贝格尔还提到了侦察兵心态和士兵心态。

  • 士兵心态:其职责是防御阵地(即自己已有的信念)。面对挑战或不同信息时,会本能地去捍卫、反驳,更在乎自己是否“正确”。

  • 侦察兵心态:其职责是外出探索、绘制地图,了解真实的地形(即尽可能准确地理解现实)。面对新信息或不同观点时,会感到好奇,愿意修正自己的“地图”,更在乎是否“理解”了真相。侦察兵拥有智力谦逊,认识到自己可能出错,并乐于根据新证据调整看法。追求理解而非固守己见是这种心态的核心。

AI 时代中学习策略的转变

人工智能的加入正在改变我们处理信息和学习问题的策略。在没有AI助手的年代,很多人习惯了线性、 “海绵式” 的学习方式:从头到尾仔细阅读教材或资料,努力将一切信息吸收进来。这种海绵式思维虽然能积累大量信息,但比较被动,缺乏针对性,往往“读到什么就信什么”。

相较之下,批判性思维者更提倡“淘金式”学习——像用淘金盘一样在信息流中筛选黄金。这意味着在获取知识的过程中主动与信息互动、不断提出问题,以筛选出最有价值的见解。淘金式思维要求我们一边阅读一边发问,通过提问来寻找最佳的决策或最合理的信念。

使用 AI,我们可以将淘金式的主动学习策略发挥得淋漓尽致。过去我们学习一个新领域,可能要从厚厚的教材慢慢翻着读,现在我们可以让 AI 提供一个概览,不断追问不断的补全我们不懂的概念,快速建立整体认知框架,然后对于我们需要的得分深入探索。

这种方式结合了海绵式获取基础知识的起点和淘金式主动提问的过程:先用AI快速“吸收”背景信息,再通过不断提问来重点突破

例如,面对一个陌生课题,可以先询问「这个领域的核心概念和分支有哪些?」,获取全景式介绍后,再继续提问「某某概念具体是什么意思,有何应用?」或「当前该领域有哪些尚未解决的问题?」等深入问题。

通过这一来一回的提问,对知识的理解将比从头到尾死读书更高效且有针对性。

以决策为例,过去我们可能依赖个人经验或直觉做决策,如今则可以让AI帮助我们罗列决策要点、评估方案优劣,从而更理性地选择方案。

写作上,传统方式常常是闭门苦思,从构思到成稿周期长;现在通过与AI对话,我们可以快速生成提纲、获取灵感,甚至让AI充当陪练来修改打磨。

AI以前所未有的交互性和知识获取速度,促使我们从被动接受转向主动提问,从而更快更好地达到学习和解决问题的目的。

提示词工程:如何构建高质量提问

与AI交流的过程,其实就是向AI提供提示(Prompt)并获得响应的过程。所谓提示词工程,指的就是设计和优化这些对AI的提问或指令,使模型更好地理解你的意图并产出满意的结果。

高质量的提问并非信手拈来,而需要一些策略和技巧。这里我们从思维方式入手,介绍构建优质AI提示词的几个要点,并提供一些经典的提问模版例子。

  1. 明确角色和语境

AI虽然强大,但并不真正“理解”你没说出口的前提。提供适当的背景和角色设定,可以让回答更符合预期。

你可以这样开头:“假设你是一位具有10年经验的营养师…”“请以历史老师的口吻解释…”。通过指定AI的身份或口吻,你让它在相应专业或风格的框架下思考,生成的内容也会更贴合你的需求。或者在提问前简要说明背景:“我正在写一篇面向高中生的科普文章,主题是气候变化”,接下来再提具体问题。

上下文越清晰,回答越精准

  1. 清晰具体,避免含糊

好的提示应当直截了当表达你的需求,尽量避免模棱两可的措辞。

不要问「帮我写点东西」这种宽泛的问题,而是细化期望——例如:「请帮我写一段300字的介绍,说明人工智能在医疗领域的三个主要应用,并用通俗语言举例。」信息越具体,AI越知道该如何作答。

同时,一次只问一件事效果更好。如果你同时提了好几个不同的问题,模型可能无法逐一详细回答。不妨将复杂的问题拆分成多次提问,循序渐进地获取信息。

  1. 指明所需的输出格式或重点

如果你对答案的呈现形式有要求,一定要在提示中说明。

你希望得到一个要点清单,可以在问题末尾加一句“请用项目符号列出”;如果想让回答分步骤展开,可以要求“请分步骤详细说明”。假如你在做决策比较,想看表格,也可以尝试说“请将上述信息汇总为表格形式”。如果你特别注重某些要点,可以在提问时提示AI关注。比如:「分析一下这个方案的优缺点,特别关注成本方面。」

通过明确指示重点,你可以引导AI把注意力放在你最关心的部分,而不是给出无关冗长的内容。

  1. 善用开放性问题模版

开放性问题往往能够引导AI给出更丰富和深入的回答,而不仅是“Yes/No”或简单一句话。经典的5W1H提问法(即What/Why/Who/Where/When/How)是个很好起点,根据场景选取适合的发问方式。

在学习场景中多用“是什么/为什么”的问题来追根溯源,在决策场景中多用“怎么样/如何”的问题来寻求解决方案。

美国创新咨询顾问沃伦·伯格提出过著名的“Why/What if/How”连环提问模型,用于激发创新思维。我们也可以将其运用在AI对话中:先问“为什么…”,以理解问题的背景或本质;接着问“如果会怎样”,畅想不同假设和可能性;最后问“我们该如何…”,探讨具体的行动方案。例如:

  • Why(为什么):“为什么手机只能用来打电话?”→(AI解释手机功能局限的历史原因)

  • What if(如果……会怎样):“如果手机也能上网,会怎样?”→(AI展开想象手机上网带来的各种新功能和影响)

  • How(如何):“我们要如何实现手机上网?”→(AI提出技术路径如发展移动通信网络等)

通过层层追问,我们可以逼近问题核心,或者从不同角度得到更完整的认知。这种模版对于需要创意和综合分析的问题尤其有用。

  1. 提供示例或参考

大语言模型很善于“模仿”给定的风格和模式。如果你心中对答案形式有预期,可以提供一个简短示例让AI参照。

你想让AI写新闻稿,就可以先展示一小段现成的新闻稿格式,然后请AI按照类似风格生成内容。又或者你在编程,让AI续写代码时,给出已有的代码片段作为格式参考。提供范例可以极大减少AI跑题的概率。

互动过程中如果对上一次回答不满意,你可以用反例或进一步提示来纠正它,比如:“上述回答太笼统了,能否举两个具体例子?” 逐步引导AI朝着你想要的方向改进。

  1. 考虑多轮提问,迭代调整

与其追求一次性把问题问完,不如把AI当作对话伙伴,通过多轮交流逐渐深入。

第一次提问得到基础回答后,你可以根据需要追问细节、要求澄清、或者换个角度提问。比如AI给你提供了一个观点,你可以继续问:“这一观点有哪些前提假设?”或者“有没有相反的观点?” 来丰富讨论。

迭代提问还能帮你不断优化提示词本身——如果AI的答非所问,很可能是提示不够清楚,这时反思并重新表述问题,直到AI准确抓住你的意图为止。

和AI交流是一个动态调整的过程,问题本身可以也是“在场加工”的产物。灵活地迭代,你会发现答案也越来越贴近你的需求。

综合以上要点,我们来看看一个提示优化的小示例:

  • 普通提问“写一篇关于人工智能的文章。”

(AI可能会给出一篇泛泛而谈的文章,涵盖历史、应用等各方面,但未必符合你的特定需求)

  • 优化提问“你是一名科技专栏作家,请以面向小白读者的口吻写一篇约1000字的文章,介绍人工智能的发展历程,并举出3个当今AI在日常生活中的应用实例(如语音助手、个性化推荐等)。文章结构包括引言、AI发展史概览、应用实例、未来展望。”

(AI将依据提示,产出一篇结构清晰、内容贴合要求的文章,措辞也会更通俗易懂。)

优化后的提示清晰指定了身份语气(科技专栏作家、面向小白)、长度(约1000字)、任务细分(介绍发展历程+3个应用实例)、结构(引言/历史/应用/展望)。这样的提示极大降低了AI误解你需求的可能性。

当然,我们拿到草稿后,还需要根据实际需要再做人工润色和补充,但已经节省了大量初稿构思的时间。

提问 AI 需要规避的误区

误区1:提问含糊笼统,期望AI自动猜出需求。

很多人在问问题的时候就会问一些很宽泛的问题,比如说写一篇关于什么的文章。这样的请求很容易就让AI无从下手,只能给出一些模糊的大众化的回答,无法满足用户特定需求。所以我们在提问的时候就尽量问一些具体明确、我们确定想要什么的答案。比如说,如果我们需要文章的话,就交代一下我们的用途、字数、重点想探究的方向。如果你要问知识的话,你可以指出你所关注的角度。

清晰的提问是高质量答案的前提。

误区2:一股脑抛出多个问题,缺乏层次。

我在最开始用AI进行问答的时候,我一般就是恨不得把所有的问题都塞给他,让他一次性回答给我。比如说能不能解释一下A,然后顺便比较一下B和C,然后再给点建议看一看D。结果AI往往只回答部分回应,或者说每个点都潜藏着隐义。

所以我后面就改变了策略,就将复杂的问题拆解,一个一个问题去问,让AI逐步聚焦于每个回答,聚焦更详细,也会给你一些机会去进行思考、消化,然后你才可以更好地去决定下一步你需要怎么做、怎么问。

如果确定确实需要AI一次性覆盖多个点,你可以将问题分段列出,并且强调回答需要涵盖的所有部分。

循序渐进胜过贪多求快。

误区3:只提出要求,不提供任何上下文。

不知道大家有没有就是用AI询问股市的一些股票的一些信息,然后拿一张K线图去问他未来这个股票会怎么样的走势。这肯定是比较不靠谱的一种做法,因为你只给了K线,K线只能看出他过去的一些走势,可以根据一些技术性的分析,但是大语言模型他不能做到一些比较精确的技术性分析。

所以他可能更好做的是一个基本面的分析。那在这个过程中,你就没有给他一些关于公司的一些概况、一些经营情况的一些上下文,那他就无法利用这些答案去给你生成一些有用的分析。所以你每次在提问的时候,你需要先自我审视一下:如果你对一个不认识的人说这句话,给他看一张图,你觉得他能明白你的意思吗?或者说他能解答你的问题吗?

就是你连公司你就提问公司的名字和这个K线图,你连公司他做什么都不交代,没有交代背景,没有描述问题的情境,你就直接提问,这样对方肯定是不知所措的,因为他没有足够的信息去回答。所以与AI沟通就好像你跟你新来的一个同事解释任务一样,你一定要说明,说明清楚所需要的、足够的信息。

而且你在和AI对话的时候,我们之前提到过,AI他是有一个上下文的窗口长度,他的记忆能力是有限的。就哪怕你在很早之前你跟他的对话中提到了这个背景,你为了保险起见,你在提问的时候也需要简要地重申一下关键的细节。

误区4:忽视与AI沟通的反馈循环,提问“一锤子买卖”。

有些用户提完一个问题拿了答案就走,然后下次遇到问题时就开一个新的对话窗口,完全没有利用以前有的一些上下文积累,就好像每次都是从零开始咨询不同的人,这就使得AI每次都要重新理解你的背景。我也注意到,最有效的对话往往是发生在连续多轮的深入交流当中。

所以我们最好将与AI的对话视为一个持续的过程,利用上下文的承接,然后利用上下文给出的结论接着问他细节,或者说我们纠正AI的一个误解。那他下次就可以记住我们对他的纠正,所以不要嫌麻烦。我们最好对于一个主题或者说一个事情,就在同一个对话框里面追问到底。只有通过不断的追问、提问、回答这个反馈循环,AI才能越来越接近你的思路,或者说越来越了解这个事情。

误区5:局限于让AI给答案,忽略了AI可以提问你。

我们用久了AI好像就觉得我们是一个提问者,AI就是一个回答者,但是其实我们也可以反过来,就是说我们告诉AI他现在是一个提问者,我们是一个回答者。

因为有时候我们可能就是不是很了解我们自己的需求,所以在问之前我们可以先让AI来问我们,帮我们去获取完整我们的需求,我们想要问的东西,就是让AI先向我们提几个澄清性的问题,就是他先问我们我们关于这个事情就是AI还有一些不知道的东西,他可以问我们,我们不断地去完善我们可能之前没有想到但是确实又是隐含在里面的一些东西。

最终我们给出了一些问题,真真切切、完完整整想要问AI的东西。所以这种交互方式就是把AI当作真正的顾问,而不是简单的一个单向的指令,而是一个双向的沟通,所以我们可以看到我们的一个人在这里,我们的一个人在这里。

AI 与人的认知分工

在人机合作中,哪些工作可以交给AI,哪些仍需要由我们人类把控,以实现优势互补。

驾驭AI,就像带领一位能力超群但个性独特的助手。要让这位“助手”发挥所长,我们需要明确AI擅长做什么,人类擅长做什么,然后合理分工合作。

毫无疑问,AI 擅长快速处理海量信息,当你提问的时候,它就可以瞬间从中“调取”相关内容并组合成答案。

AI可以在不访问互联网的情况下,基于训练语料对常见问题给出相当详尽的解答(当然,你要小心幻觉),相当于内置了一座百科图书馆。你可以让它解释概念、提供背景知识、列举事实清单等。在需要快速了解陌生领域或获取初步资料时,AI是极好的信息快递员。

AI擅长从杂乱输入中找出模式,并按要求组织语言。例如,总结文章、提炼要点、将数据改写成故事等。这对阅读理解场景尤其有帮助,你可以请AI把复杂内容浓缩成几个关键信息点,形成便于吸收的结构。

因为训练数据包罗万象,AI在头脑风暴方面也很给力。你可以让它提供某个问题的各种解决思路、生成多个备选方案,或者激发灵感(例如写作时让它想标题、提纲,决策时让它想可能的对策清单)。当你感觉思路受限时,不妨把问题抛给AI,看看它给出的“外脑”观点。

对于一些有规则可循的工作,AI可以严格按照指令完成,比如翻译一段文字、按照范例改写语句、排序列表等等。只要你的提示描述了明确的规则,AI往往能不知疲倦地给出一致的结果。

那 AI 不能干什么?或者说,它有哪些明显的短板?

大模型有明显的“幻觉”倾向,有时候会编造不存在的引用、事实或细节。如果不经验证就完全信任 AI 的输出,可能会闹出笑话。因此人必须要作为一个核实者的决策,对于重要信息要习惯性地交叉验证。

AI 可以帮我们分析,但是对于一些价值判断可能不如人,因为很多决策涉及到个人偏好等主观因素,这些是无法直接从数据中得到正确答案的。因此,AI可以是参谋,但最终的决定权和责任必须由你自己承担。换言之,我们运用AI来知己知彼(充分掌握信息和选项),但“取舍之道”仍取决于人。

对于一个事情或者项目,AI 不会自主发现你真正的问题是什么,提出要解决的问题本身是人的任务。

正如上野千鹤子所言:“没人能够替你提出你的问题”。

💡

我们要做的是先确定目标,弄清楚想解决什么、达成什么,然后利用AI朝着这个方向服务。如果人一开始方向不明,AI再努力也只是徒劳地给出一堆无关答案。人类的洞察力和洞见,对于确定正确的问题、甄别真正重要的课题,至关重要。

最最重要的一点,创造力,这也是目前把人和 AI 区分开的重点,虽然AI能模仿各种风格并产生内容,但真正突破性的创意往往源自人类对世界独一无二的体验和情感。写作时,AI可以帮忙润色和提供素材,但文章的灵魂——观点的独特性、情感的真实度——仍需要由作者注入。

另外,AI生成的回答通常趋向于中庸稳妥,这时候就需要人来进行批判性审视,加入个性化的见解或大胆的假设,使最终成果更有深度和新意。

从认知分工上看,可以将AI视作高效率的“分析整理者”和多才多艺的“建议提供者”,而人则充当“问题驱动者”和严谨的“审查决策者”

一个有效的合作流程通常是:人确定目标 -> 提出问题给AI -> AI提供初步答案/方案 -> 人审评、提炼并作出决定或产出

我觉得更重要的,我们人机协作还需要有一定的耐心和教学精神,因为AI有时候他的回答是不尽如人意的,但不是说他无能,而是说我们的问题可能需要调整。我们把和AI交互看作是在训练新人,你需要花时间去调教他,教他明白你的要求,然后去建立好良好的沟通模式。

慢慢地,他就能越来越好地去完成你的任务。所以我们要有一种导师心态,多一点耐心和引导,然后不断去磨合。

解构与评估信息

我们前面讲到,AI会有幻觉,然后他也对一些事实性的问题会有时候会给出一些错误的答案。

对于 AI 给出的信息,我们怎么去使用批判性思维来判断它是否含有一些逻辑性的错误?布朗和基利的《学会提问》在书中展示了如何拆解论证、澄清含义、挖掘隐含信息并识别推理中的陷阱。

在评价任何观点之前,首要任务是理解其论证的骨架。一个论证不仅仅是一个观点,而是试图说服我们接受某个主张的过程。

首先是论题,这是引发讨论或争议的问题,它是整个论证的驱动力。论题通常分为描述性论题和规定性论题。

  • 描述性论题: 关注世界是什么样的。它们涉及对过去、现在或未来的描述是否准确。例如:“导致家庭暴力的最常见诱因是什么?”“音乐学习是否有助于提高数学能力?” 这类问题的答案旨在描述事实或状况。

  • 规定性论题: 关注世界应该是什么样的。它们涉及伦理、道德或规范,探讨什么是对、什么是错,什么是好、什么是坏,什么该做、什么不该做。例如:“公立学校应不应该教授智能设计?”“我们应不应该禁止某种行为?” 这类问题的答案通常包含“应该”或“不应该”。区分这两种论题很重要,因为评估它们的标准和方法不同。

结论是作者或发言者希望我们接受的核心信息或主要观点,它是对论题的回应。结论是需要被其他理由支持的陈述,如果一个断言没有提供支撑理由,那就只是一个纯观点,而非论证的结论。如果有理由,那么理由就是结论可信度的基础,是论证过程中的逻辑依据。

论证 = 理由 + 结论: 只有当理由和结论都清晰地呈现出来时,我们才能开始对其进行有意义的评估。论证有其目的(通常是说服),并且其质量有好有坏。

除了一个整篇的逻辑之外,我们还需要因为每一个词语它天生是比较复杂的,很多词语是有很多含义的,所以可能会导致一些误解,所以我们还需要对于一些词去进行辨析。

我们识别了论证的基本结构并且澄清搞懂了一些关键术语的含义之后,下一步就是去仔细地审查支撑理由的证据的质量。因为证据是论证的人用来证明其事实可靠性的一个信息。强有力的论证必须要建立在高质量的论据之上。

首先,我们区分事实和见解。事实是这个世界是什么样子的,然后可以被验证和陈述,但是事实也不是说绝对的,它的可靠性也是分强弱之分的,并且是受到一个语境的影响。但是见解的话,它其实就是个人的一个判断,它可以是有事实支撑的,但是它还会加入一些个人的判断。纯粹的见解的话,它在论证中的价值是非常有限的,我们需要的见解是基于证据分析过的,更接近事实的一些见解。

证据也分为很多种,比如说个人的经历、典型案例和当事人的证言。这些证据就比较容易产生情感共鸣,因为是跟第一人称相关,但是它代表性不足,因为少数群体不具有普遍性,可能会以偏概全之类的。

还有就是选择性偏差,人们就倾向于选择记住和描述讲述那些符合他们期望或者是利益的经历,这样就会忽略他们的反面信息。而且我们很容易被证据提供者的真诚、热情和名气所打动,就会导致我们不会去基于理性判断。

有些证据是个人的观察,有时候个人的观察在第一现场可能就能提供第一手资料。但是观察也不是纯粹的,会受到观察者的价值观、偏见、期望等因素的过滤和影响。不同的观察者对同一个事件的描述可能也是不一样的。

然后,可能更权威一点的就是一些研究报告。研究报告中科学方法强调的是公开证实,就是可重复性,然后要可控,还有精确性,语言要清晰。因此,高质量的科学报告通常是可靠的证据来源。

提问的力量

提问驱动的人机互动,不仅让我们更高效地获取知识和完成任务,更深刻地培养了批判性思维和创造力。

通过在学习研究中刨根问底,我们不再囿于书本局限,而是以自己的好奇心为指引,淘取知识的真金;通过在辅助决策时发问,我们跳出直觉和惯性的陷阱,做出更加理性且符合价值观的选择;通过在写作输出中对话,我们突破了一个人大脑的墙壁,借助AI的力量拓展思路、完善表达,让作品既有广度又保留深度;通过在阅读理解时质疑,我们不做被动的信息消费者,而是主动求索真相,哪怕面对权威观点也能见微知著。

这一切的核心,在于我们赋予了AI正确的角色:它不是替代我们的思考,而是扩展我们的思考。我们用提问来驾驭AI,让它成为认知过程的加速器;同时,我们以人类独有的判断力来把关AI的输出,将机器智慧与人类智慧融为一炉,产生远胜以往的效果。可以说,AI时代最强大的并非AI本身,而是那个会使用AI的人。而“会使用”的第一要义,就是会提问。

Continue Reading
All Articles
2025年4月12日
2025年4月25日
AI 时代,我们还需要读书吗?
使唐僧成为唐僧的并不是那卷经书,而是那段取经的路
© 2025 愚人哲
www.yrzhe.space