Deepseek 教我的法則:不是要「會提問」,而是要「早動手」

Deepseek 教我的法則:不是要「會提問」,而是要「早動手」

tangchengying 2025-03-15 知乎 3 次瀏覽 0個評論

Matrix 首頁推薦?

Matrix?是少數(shù)派的寫作社區(qū),我們主張分享真實的產(chǎn)品體驗,有實用價值的經(jīng)驗與思考。我們會不定期挑選 Matrix 最優(yōu)質(zhì)的文章,展示來自用戶的最真實的體驗和觀點。?
文章代表作者個人觀點,少數(shù)派僅對標題和排版略作修改。


最近 AI 的智力升級了,時不時就有大佬們出來說:「人工智能時代,會提問的人,會比回答問題的人更加重要?!勾罄袀冊捳f了一半,然后就露出蒙娜麗莎的微笑,讓群眾們(含本人)都有點懵。

「學會提問」、「深度思考」、「底層邏輯」成為了一門顯學,暢銷書都把這些詞語用大字印在封面上,看來印上去書比較好賣。經(jīng)過與 AI 友好地請教與磋商,我發(fā)現(xiàn)其實把問題問好也沒那么神乎其技。

我們提問,就是要想辦法搞懂一些事情、找 AI 拿一個好方案。如果我們已經(jīng)參加工作,標準化的流程無非是:展開調(diào)查、分析規(guī)律、拿出方案、實施看看。

對應要問的問題是:問題找對了沒有,按什么規(guī)律辦事,有啥方案,實施有啥要注意。

別被各種術(shù)語騙了,這些都是我們的日常。為了蹭熱度,我也拿開源卷王 · 服務器繁忙 · ChatGPT克星 · 美股蹦迪選手 · 深度思考版的 DeepSeek 來舉例。

想象一個普通的場景,我們打開對話框輸入:我想去日本旅游,有什么好推薦。

正常情況下,我們會得到一堆景點、美食、交通、注意事項等,然后要根據(jù)自己的需求去進行排列組合。 ?

這時可以打上一個萬能補:你先不要著急回答我的問題,為了質(zhì)量更高的答案,我還需要補充哪些信息?這是 DeepSeek 給出的答案:

Deepseek 教我的法則:不是要「會提問」,而是要「早動手」

這個問題揭示了一個事實:每個人都有自己的地圖。它代表著我們自己獨特的背景、資源、目標。很多時候,我們會有個盲區(qū),以為大家都是去日本,所以看日本的地圖就夠了。但從廣州還是上海出發(fā),會讓安排區(qū)別很大,我們地圖除了日本,也要包含自己出發(fā)的地點。

就像我們找人請教問題,不能看別人的地圖,而是要拿著自己的地圖來給人看。DeepSeek 除了把價格打下來,比 ChatGPT 更大威力的按鈕是上傳資料和搜索按鈕。因為它提供了比「提示詞」更多的「背景」。

Deepseek 教我的法則:不是要「會提問」,而是要「早動手」
記得用好這兩個功能

你先不要著急回答我的問題,為了質(zhì)量更高的答案,我還需要補充哪些信息?

對應的元問題是:這個問題的「問題空間」是什么?

有兩個概念單列一下:所謂元問題是關(guān)于考慮「問題本身」是否設置正確的問題,而非直接解決原問題的內(nèi)容。而所謂的問題空間,就是包含了所有可能的變量、約束和潛在解決方案的集合,它并非把所有「可能事項」都納入問題空間,只有與核心目標強關(guān)聯(lián)的要素才被包含。

問題空間的大小決定了答案的廣度和深度。有的問題本身無比簡單,但問題空間巨大。比如蘋果為什么從樹上掉下來,關(guān)于它的問題空間,如果是生物學領域,是因為蘋果熟了。如果是物理學領域,那會推導出:萬有引力。

我們問問題,主要就是想知道為什么、怎么辦。除了補充問題的相關(guān)信息,在問怎么辦之前,先問問「底層邏輯」。

說到底層邏輯那就厲害了,它常見于互聯(lián)網(wǎng)大公司黑話,等于什么核心洞察啦、第一性原理啦、根因分析、系統(tǒng)基模、奧卡姆剃刀、溯因推理、范式、戰(zhàn)略焦點啦(可能是大家 PPT 標題如果沒有用這些詞,就要扣績效)。

其實底層邏輯就是問這個事情的規(guī)律是啥。規(guī)律是指事物之間內(nèi)在的、必然的、穩(wěn)定的聯(lián)系或重復出現(xiàn)的本質(zhì)特征。它反映了現(xiàn)象或過程在一定條件下的確定性、有序性和可預測性。

它揭示了我們從問題的起點到答案的因果關(guān)系。連去日本旅游都有「底層邏輯」:

Deepseek 教我的法則:不是要「會提問」,而是要「早動手」

我發(fā)現(xiàn)了一個有趣的問題:當我們對一個事情的本身理解不夠深入的時候,如何確認答案里的邏輯夠不夠底層?我的理解是一個邏輯更底層,是因為它的例外更少。

我們沒有辦法從正面去判斷一個邏輯是不是夠底層,就應該用反例對它進行「碰撞測試」。多問問 AI:你的這個邏輯都有些啥例外呢?

Deepseek 教我的法則:不是要「會提問」,而是要「早動手」

因為對牛頓力學的例外的「碰撞測試」,我們誕生了:相對論。

對事情的規(guī)律判斷清楚后,我們可以問:這件事的可能性空間是什么?

可能性空間是指某個問題、系統(tǒng)或情境中所有可能存在的狀態(tài)、解決方案或結(jié)果的集合。它反映了在給定條件和約束下,所有潛在的可能性范圍。其實沒這么復雜,簡單點說就是問 AI 有啥方案可以選。

Deepseek 教我的法則:不是要「會提問」,而是要「早動手」

?

選完了方案還有兩個附加題,讓方案更可靠一點:

  • 第一個是:有哪些措施能讓這個方案的容錯率更高?畢竟事情都是動態(tài)發(fā)展的,要多想想 plan B。
  • 第二個是,最小關(guān)鍵步驟是什么,如何用 20% 的動作解決 80% 的問題?正因為事情是動態(tài)發(fā)展的,這個世界是一個復雜性系統(tǒng)。

面對復雜性系統(tǒng),除了要預測,更要小步快跑做迭代。但每次迭代和演進都是有成本的,找找最小關(guān)鍵步驟。

我們上面講了很多關(guān)于 why 和 how,但其實我留了個陷阱。

我們老想著快點得到答案,因為思考很累很費腦,它涉及到高強度的推理、總結(jié)和演繹。AI 恰恰可以很快地提供答案,它認真地解釋為什么一件事情能導致另外一件事情。真是瞌睡碰上枕頭,口渴碰上奶茶。

可最大的風險在于,高質(zhì)量的推理需要滿足以下幾個特點:

  1. 連貫,就像講故事一樣,每一步都要和前一步有明確的關(guān)系,不能跳躍。
  2. 一致,前后說的結(jié)論后面不能改。
  3. 可溯,每個結(jié)論都要能找到它是從哪里推理出來的。
  4. 封閉,只用已知的信息來推理,不能隨便加入新的假設。
  5. 可信,結(jié)論必須確定無疑,不能把「可能是這樣」當成「一定是這樣」。

AI 在推理的每一個方面都有「裂痕」:盡管 AI 可能說得頭頭是道,但它在邏輯連貫性、內(nèi)容真實性和推理可靠性等方面都存在明顯不足,也很難對其結(jié)論的來源進行有效追溯。

如果不好理解,想想我們進行文生圖的時候,生成出來人像的手指殘缺,它是 AI 推理質(zhì)量的一種表現(xiàn)。比起 why 和 how,真正重要的是 what,先問是不是,再問為什么。

AI 只是玻璃缸里的大腦,和現(xiàn)實完全脫節(jié),它只能給意見,沒辦法給驗證。所以,能分辨 what 的能力才是將提問轉(zhuǎn)化成生產(chǎn)力最核心的能力,對推理中結(jié)論堅實性的把控能力成為了區(qū)分 AI 使用效果的關(guān)鍵因素。

如何可以提高確認 what 的能力呢?首先,我們需要在場,沒有人能代替你,因為每個人都有自己的地圖。然后,我們需要一點點的……審美:如果不知道什么是真的,至少要知道什么是美的。最后,早點動手吧,實踐是檢驗真理的唯一標準。

其實,提問沒那么復雜,就是先想可能性,后選方案的過程。先發(fā)散再收斂,人類的帶寬不行,而 AI 的腦子很快。

雖然 AI 推理的質(zhì)量好壞要打一個問號,但是多、快、省。它能快速產(chǎn)生大量可能性,這本身就是一種聰明。發(fā)散需要聰明,但收斂需要智慧和勇氣。選擇方案需要仔細分辨方案的優(yōu)劣,做出行動,然后承擔后果。

AI 思考最大的意義在于,它讓試錯的成本變得極低,我們可以快速產(chǎn)生各種假設,然后通過實踐來驗證、迭代和收斂到最優(yōu)解,從一個點子直通實踐。

當 why 和 how 的探索變得極為便捷,在問題現(xiàn)場去分辨 what 的能力將變得更加稀缺,當「知道」無限廉價,「行動」將閃閃發(fā)光。這種快速實踐和迭代的方式,才是我們在前額葉皮層,長出的「數(shù)字新腦區(qū)」的方式。

不是「完全不行」也不是「人類要完」。人類歷史上第一次電力可以轉(zhuǎn)換成智力,每個人的日均 token 消耗量將成為區(qū)分人群的重要指標。

這不是因為我們想得更久,而是因為我們嘗試得更多。

延伸閱讀

  • 年度計劃必讀:計劃完不成,可能是好事
  • 讓新知識成為冒險游戲,用 ?AI ?重構(gòu)「學習」這件事
  • 工作最忙的 78 天,我用 ChatGPT 考了 CFA

轉(zhuǎn)載請注明來自濟南富森木工刀具制造有限公司 ,本文標題:《Deepseek 教我的法則:不是要「會提問」,而是要「早動手」》

百度分享代碼,如果開啟HTTPS請參考李洋個人博客
每一天,每一秒,你所做的決定都會改變你的人生!

發(fā)表評論

快捷回復:

驗證碼

評論列表 (暫無評論,3人圍觀)參與討論

還沒有評論,來說兩句吧...

Top