Site icon Sting Tao 陶韻智

AI時代下的思維革命:無聲的就業海嘯正席捲而來

批判性思考——駕馭AI的唯一核心能力。

三年前我開始在台大D-School教的課,強調的實際能力就是發問力,而不是解題力。

在AI時代下,解題能力變得非常cheap,很快能做出來,反覆試錯,這是一個生產力的大幅提升。試錯後判斷該往哪個方向前進,則需要能從證據與邏輯中思索並決定的技能。

本質上這就是批判性思考發問力。AI時代下,這個能力變成100%重要,但能找出價值連城的問題的人變得更加昂貴且稀缺。

要增加AI帶來的就業海嘯下強大的競爭力,筆者認為就是要在 批判性思考與提問力上著手,那麼就能與AI建立強大夥伴關係,帶來100x的商業產出價值。

<<//stingtao的廣告>>

文太長,想直接*免費* 實作學習創新提問力嗎?學習創新提問力, 提問力設計師

https://questioning.stingtao.info

<<//stingtao的廣告>>

無聲的就業海嘯

當AI的浪潮席捲而來,我們不僅見證技術的進步,也目睹就業市場一場前所未有的結構性轉變。

曾經被視為高薪保證的矽谷軟體工程師,其職缺數量正經歷一場「雪崩式」的下跌。

根據美國人力資源服務公司Indeed的資料,自2022年達到高峰以來,軟體開發職位職缺指數到2025年5月已劇減約70%,甚至回到與疫情剛爆發時相近的低谷 。

這股衝擊尤其對年輕人與職場新鮮人造成了不成比例的影響 。

一份史丹佛大學的研究指出,自2022年底生成式AI普及以來,在那些最容易受到AI影響的領域中,22至25歲的年輕工作者就業率相對下降了13% 。

其中,軟體工程師等高度暴露於AI的職位,在2022年底至2025年7月間,年輕工作者的就業率更是驟降了近20% 。

與此形成鮮明對比的是,年紀較長的、更有經驗的專業人士,他們的就業狀況不僅保持穩定,甚至在某些情況下還成長了6%至9%。

華爾街日報的報導也指出,許多企業現在認為,AI已經可以勝任許多傳統上由職場新鮮人負責的例行性任務,這使得雇用大學畢業生的理由變得「很少」。

這場就業市場的重大轉變,核心在於AI的兩種不同應用模式:

「自動化」(Automation)與「增強」(Augmentation) 。

當AI被用於完全取代人類的智力勞動,例如基本的寫程式或資料輸入,知識工作者就業機會便會減少 。

但當AI被用來增強人類的能力、提升生產力時,則能創造新的職位與機會 。

這意味著,

未來的競爭力不再是「能做什麼」,而是「能如何運用AI來做」

工作的價值從「執行」轉變為「決策」,從「如何做」轉向「做什麼」。

本文核心想法是:

在AI時代,批判性思考不再只是一項「加分」的軟技能,而是你駕馭AI、做出卓越決策的唯一核心能力。

AI的效率與便利性就像一把雙面刃,它帶來驚人好處的同時,也藏著兩個隱形陷阱:

一是讓我們變得懶惰,開始「卸載」我們的思考;

二是讓我們盲目相信那些看似合理、實則有缺陷的AI產出。

歡迎追蹤我的 臉書 threads, 可以常常看到這類文章以及其他。

AI時代的新型領導力

現在與即將的未來,AI能以光速為你產出所有問題的答案。你的工作不再是絞盡腦汁尋找解法,而是從如潮水般湧來的「好答案」中,選出那個最好的。

當生成與執行的成本趨近於零,工作的價值不再取決於「如何做」,而是聚焦於「要做什麼」——也就是你做出判斷與決策的能力。

筆者閱讀了來自不同國家、不同語言的洞見,從AI的內在弱點,到人類的監督責任,再到批判性思考的實用方法與練習,強烈建議未來的領導者必須學會培養一種健康的「質疑文化」,掌握提示詞工程等實用技巧,並將內容審查變成日常習慣。

最終,批判性思考將成為你在與AI這位「超能隊友」共同前行的道路上,維繫核心價值、保持主導地位的唯一競爭力。

從認知超載到認知惰性的思維困境

1.1. 答案的氾濫:選擇的挑戰大於生成的挑戰

在AI時代,生成式AI以前所未有的速度與規模,為任何問題提供了大量的優質解決方案 。

這從根本上改變了我們的工作方式,把人類的首要任務從「如何產出一個正確答案」轉變為「如何從眾多答案中評估並選出最優解」。

然而,當答案來得太容易,也可能讓我們少了深入參與和學習的機會 。

這形成了一個隱藏的悖論:資訊過度豐富,反而會引發一種新的「認知惰性」。

過去,我們最大的挑戰是資訊稀缺;現在,我們面對的是資訊爆炸。我們的腦袋並沒有天生就具備處理如此龐大資訊的能力,這種超載狀態反而會讓我們變得被動與消極。因此,AI提供的答案越多,我們判斷、組織並選擇資訊的能力就越發關鍵 。

批判性思考正是應對這一新挑戰的重要解方。

1.2. 當AI思考,人類為何停止思考?

AI時代最核心的風險之一,是所謂的「認知卸載」(cognitive offloading)現象。

簡單來說,就是我們把記憶、決策和資訊檢索等思考任務,統統外包給AI這個外部工具 。一項針對666名參與者的研究顯示,AI工具使用頻率與批判性思考能力之間存在顯著的負相關 。

研究進一步證實,「認知卸載」正是造成這一現象的關鍵中間環節:

頻繁使用AI工具會導致更多的認知卸載,而這反過來又會削弱我們的批判性思考能力 。

由於AI工具處理速度快又方便,這會減少我們獨立解決問題與深度思考的機會 。

這不只是一項技能久未使用的問題,更像是一種根本性的「認知肌肉萎縮」。當你的大腦長期將評估證據、做出判斷等複雜任務交由AI代勞,它獨立運作的能力也會逐漸退化。

這形成了一個惡性循環:我們越依賴AI,就變得越不具備獨立思考的能力,進而更需要依賴AI。這特別在年輕族群(17-25歲)中更為明顯,而年長的專業人士(46歲以上)因為在AI普及之前就已經培養了這些技能,所以對AI的依賴度較低,但批判性思考能力得分卻較高 。

這提醒我們,

將批判性思考整合到AI驅動的學習與工作框架中,已是當務之急 。

1.3. 模擬專業與真實智能的界線

生成式AI透過對海量現有數據進行訓練,能夠辨識並重組既有模式,從而「模仿」專業知識 。

然而,它的運作基礎是機率與統計分析,而非真正的理解或推理 。

這和人類的「真實智能」存在著根本性的區別。真正的智能體現在解決前所未有的新穎問題的能力上 。

而AI的產出則主要取決於knowledge cut off day。

AI缺乏對現實世界的認知,也無法展現人類獨有的直覺、倫理判斷、情商與細微情感 。

例如,AI可以分析X光片,但缺乏對病患的整體理解與床邊照護能力 。

正如研究指出的,AI可以提供答案,但它無法真正理解問題 。

因此,「批判性地評估證據」與「處理不確定性」的能力,以及「以創新與切合情境的方式應用知識」,是AI無法替代的獨特人類技能 。

把AI當作無所不知的「神諭」來獲取確定答案是個錯誤的觀點。更恰當的比喻是將它視為「增強智能」(augmented intelligence)或「協作夥伴」

——一個能夠強化而非取代人類智慧與專業知識的工具。未能理解這種區別(即將AI視為模仿者而非真正的思考者),是導致我們過度依賴與認知惰性的根源 。

洞察錯誤:AI的缺陷與人類的審查責任

2.1. AI幻覺:為何「一本正經地胡說八道」?

AI「幻覺」(hallucinations)是生成式AI一個眾所周知且難以避免的副作用 。

這不是軟體故障,而是其機率性設計的固有特徵 。

所謂幻覺,指的是AI模型生成的、看似合理但事實上錯誤或無關的內容 。由於這些錯誤的內容往往聽起來令人信服,因此很難被察覺 。

AI幻覺的根本原因有很多,包括訓練資料的局限性與偏見、缺乏對現實世界的直接經驗,以及其統計分析的內在限制 。

AI模型無法判斷外部現實中的資訊是「真實」還是「虛假」 ,它只是根據訓練資料中的機率模式來預測下一個最有可能出現的詞或元素 。

其結果可能包括編造不存在的法律案例、提供錯誤的財務資訊,或是捏造新聞摘要中的細節 。正如研究指出的,AI犯的不是簡單的錯誤,而是「更為聰明的錯誤」 。

這些錯誤不是顯而易見的拼寫或語法錯誤,而是需要深厚的領域知識與批判性分析才能發現的細微、情境性謬誤。

因此,人類的審查任務已從簡單的「校對」轉變為更為複雜的「事實核查與情境驗證」 。這要求我們在審查流程中,從表面檢查轉向對每一個主張進行嚴格的詰問。

2.2. 偏見的根源:從資料收集到演算法設計

AI偏見是AI系統中普遍存在的內在風險,它可能在AI生命週期的多個階段產生:從資料收集、標註、模型訓練到最終部署 。

常見的偏見類型包括選擇偏見、確認偏見、測量偏見與刻板印象偏見。

這種偏見不僅是靜態的缺陷,更是一個動態的、自我強化的系統。

正如研究員Cathy O’Neil所警告的:「演算法是嵌入在程式碼中的觀點」 。

一個由有偏見的資料訓練出的AI,會產生帶有偏見的結果,這些結果被應用於現實決策(如招聘、貸款、執法)中,進而加劇現有的社會不平等 。

這將產生新的有偏見的數據,並重新訓練下一代演算法。只有批判性思考才能打破這個迴圈,透過積極質疑其潛在假設並挑戰「演算法共識」來達成 。

要系統性審查AI的產出,以下這張表提供了一套實用的檢查清單:

表2:AI錯誤類型與偵測方法

錯誤類型根源與成因簡要範例人類偵測方法
幻覺(Hallucination)訓練資料不足、缺乏現實認知、機率性設計捏造不存在的法律案例、新聞摘要、虛假網站連結事實核查:對AI聲稱的事實與數據進行多重權威來源交叉驗證 。要求引用來源:要求AI提供來源並手動核查其真實性 。
資料偏見(Data Bias)訓練資料缺乏多樣性或具歷史性偏見招聘演算法偏愛男性、面部辨識對深膚色人種準確率低多元視角審查:評估內容是否只呈現單一視角,並主動尋求多樣化的觀點 。檢查代表性:評估資料集是否涵蓋了真實世界的各個群體 。
演算法偏見(Algorithmic Bias)演算法設計與參數設置不當貸款審核演算法對低收入社區的申請者更為嚴苛審查決策邏輯:要求AI解釋其推理過程,並識別其中是否存在不公平的權重或優先級 。
刻板印象偏見(Stereotyping Bias)訓練資料強化了社會刻板印象翻譯模型將「護士」與女性代名詞關聯、圖片生成器將工程師描繪為男性識別與修正:主動尋找並修正任何強化性別、種族或職業刻板印象的內容 。
認知卸載(Cognitive Offloading)對AI便利性的過度依賴使用者不做任何思考,直接接受AI答案後設認知:在使用AI後反思自己的思考過程與決策原因 。定期手動驗證:刻意進行手動操作以維持獨立分析能力 。

2.3. Human-in-the-Loop:高風險場景下的唯一解方

鑑於AI天生的缺陷,人類的監督與介入已非可選項,而是不可或缺的必要條件。

Human-in-the-Loop, HITL正是描述這種協作關係的框架 。

HITL要求人類積極參與AI的生命週期,從訓練資料的標註到模型的評估與運行 。在醫療或法律等高風險領域,任何錯誤決策都可能造成嚴重後果,因此HITL是「不可避免的」 。

事實上,HITL不僅能增強AI的準確性、緩解偏見、提高透明度,還能建立使用者對系統的信任 。HITL有不同的程度:

人類的角色不僅僅是「糾正」AI的錯誤,更是「訓練」它變得更好。
研究顯示,人類的回饋與介入(例如,修改少量程式碼或提供標註),可以對AI的準確性產生「巨大的影響」 。
這種關係將其從簡單的監督者-下屬模式,轉變為一種動態的、共同進化的夥伴關係。這要求領導者具備新的技能:不僅是領域專業知識,還必須理解AI的局限性,並提供有效、結構化的回饋,成為其人類與AI「隊友」的「思維教練」與「創造性導師」。

批判性思考的方法論:與AI agent的協作框架

3.1. 批判性思考的核心構成:質疑、評估與決策

批判性思考並非簡單的懷疑,而是一個有結構的後設認知過程 。

它指的是客觀分析資訊並做出理性判斷的能力 。它的核心構成可以分解為三個關鍵步驟:

  1. 質疑(Questioning)
    這是在接受任何資訊為真之前,質疑其假設並尋找證據的過程 。這包括檢視資訊的來源、目的、其邏輯連結,以及其是否與其他資料存在衝突 。
  2. 評估(Evaluating)
    這一步要求從多元視角,評估資訊的可信度、相關性與準確性 。這不僅限於評估證據,還包括評估結論的有效性 。
  3. 問題解決與決策(Problem-Solving and Decision-Making)
    這是將所學知識應用於複雜、新穎問題,並找出創新與符合倫理的解決方案的能力 。

批判性思考是一種「高階認知功能」,它綜合了分析、邏輯、創造性與倫理推理等多種能力,以應對複雜的資訊環境。
這使其不僅僅是一項技能,更是一種整合多種能力的「元技能」(meta-skill)。它是所有其他寶貴人類技能(如創造力、情商)的基礎,並能放大它們的價值 。它是驅動領導者「連結不同想法」並「挑戰既有假設」的引擎。

3.2. 領導AI的五大思維維度

有效領導AI需要將批判性思考以結構化的、多維度的方式應用。

  1. 目的性使用與目標校準
    領導者的首要任務是運用批判性思考來定義目標與受眾,然後才開始撰寫提示詞 。這確保AI工具是被用來填補業務流程中的空缺、支持核心目標,而非僅僅為了使用技術而使用 。
  2. 後設認知循環
    這涉及有意識地反思自己在與AI互動時的思考過程與潛在假設 。領導者必須自問:「我對此資料的解讀是否存在任何預設?」或「我為此問題帶來了何種獨特視角?」。
    這種自我反思是避免認知惰性的關鍵。
  3. 理解AI的優勢與劣勢
    批判性思考者深知AI「很好,但沒那麼好」。
    這意味著要了解不同AI工具的局限性(例如,某些工具擅長定量分析,而另一些則適合定性分析),並意識到其潛在的偏見。
  4. 迭代改進循環
    批判性思考並非一次性的檢查,而是一個持續的過程,包括「精煉提示詞並追問後續問題」 。
    領導者透過提供回饋,讓AI得以學習與改善,將單向的指令關係轉變為雙向的訓練夥伴關係。
  5. 情境感知決策
    最終維度是將AI的輸出,與人類的直覺、行業知識與情商相結合 。這確保決策能考量AI無法處理的因素,例如長期目標、團隊士氣與客戶關係 。

這五個維度,共同將領導者的角色從被動的AI成果消費者,轉變為主動的AI工作流程架構師。這要求領導者以一種「有意識」的方式使用技術 ,設計從提示詞、審查流程到最終決策的每一步,以確保成果的品質、倫理與情境相關性 。

3.3. 批判性思考的十大常見謬誤

AI雖然能提供大量的資訊,但其產出也可能無意間包含邏輯或認知上的謬誤,這需要我們主動辨識。以下是與AI協作時特別需要留意的十大常見謬誤:

  1. 人身攻擊(Ad Hominem)
    當AI在評論某個觀點時,卻轉而攻擊提出觀點的人,而非論證內容本身 。
    例如:「這個提議沒有價值,因為提議者過去曾犯過錯誤。」
  2. 轉移焦點(Red Herring)
    AI在回答一個問題時,巧妙地引入一個與主題無關、但聽起來很吸引人的論點,藉此避開核心問題。
  3. 稻草人謬誤(Straw Man)
    AI透過簡化或誇大對手的論點,創造一個容易攻擊的「稻草人」,然後再反駁這個不存在的論點。
  4. 滑坡謬誤(Slippery Slope)
    AI提出一連串未經證實的事件推演,聲稱一個微小的開端將不可避免地導致極端的後果 。
  5. 倉促概括(Hasty Generalization)
    AI基於少數幾個案例或不具代表性的數據,就做出過於廣泛或籠統的結論 。
    例如:「我問了兩位科技業的年輕人,他們都覺得工作很累,因此所有科技業年輕人都對工作感到不滿。」
  6. 訴諸權威(Appeal to Authority)
    AI引用某個權威人士的說法來支持一個觀點,但該權威的專業領域與當前主題無關。
  7. 錯誤二分法(False Dilemma)
    AI將複雜的情境簡化為只有兩個極端選項,忽略了所有其他的可能性 。
    例如:「如果我們不全面擁抱AI,就註定會被時代淘汰。」
  8. 沉沒成本謬誤(Sunk Cost Fallacy)
    AI建議你繼續投入一個專案,因為你已經為此投入了大量的時間或金錢,即使這個專案的未來前景並不明朗。
  9. 模稜兩可(Equivocation)
    AI在回答中刻意使用有多重含義的詞語,造成混淆或誤導。
  10. 訴諸新穎(Appeal to Novelty)
    AI主張一個想法或產品更好,僅僅因為它是新技術或新概念,而沒有提供實質的證據 。

3.4. 識別與改進:與AI協作的實戰步驟

要有效駕馭AI,你必須將其視為一個需要不斷引導與審查的「隊友」。以下是一套實用的步驟,幫助你從被動接受答案轉變為主動的「思維教練」:

  1. 從目標開始
    在開始之前,問自己:「我真正想解決什麼問題?」和「我期望AI產出什麼樣的結果?」 。這有助於你設計清晰、具體的提示詞,並使用動詞明確你的期望,例如「列出重點」、「撰寫摘要」或「分析趨勢」 。
  2. 辨識錯誤與偏見
    AI可能提供看似可信但事實錯誤或有偏見的內容 。當AI的回答出現以下跡象時,請保持警覺:
    • 幻覺:AI編造不存在的事實、數據、來源或網址 。這類錯誤特別難以察覺,因為AI會以一種極具說服力的語氣呈現。
    • 偏見:AI的回答只呈現單一視角,或包含性別、種族、文化上的刻板印象 。
  3. 執行驗證
    不要盲目相信AI產出 。進行事實核查,與權威來源(如學術論文、政府網站、知名媒體)交叉驗證其內容 。特別注意數字、日期、引用與統計數據的準確性 。
  4. 後設認知與反思
    在使用AI後,有意識地反思你的思考過程與決策 。這有助於你釐清自己帶入的假設或偏見,並更清楚地理解你的「人類價值」所在 。
  5. 重新提問與迭代
    如果AI的回答不理想,不要放棄 。透過「精煉提示詞」與「提出後續問題」來改進。這是一個持續的、來回往復的迭代循環 ,就像一位思維教練引導學生一樣。

<<stingtao的廣告>>

把履歷跟面試事前準備好對於找到好工作非常關鍵!讓AI幫忙! 免費使用我做的服務:幫你針對目標職位對你的履歷健檢,還能 AI 模擬面試:
對想要去的工作,模擬面試一下

https://jobs.stingtao.info/?lang=zh-TW

<<//stingtao的廣告>>

練習:將批判性思考力轉化為實踐

4.1. 案例解析:批判性思考在AI協作中的成功應用

成功的AI整合並非單純的將任務委託給AI,而是創造一個能有效結合人類與AI獨特優勢的新型工作流程。

案例一:醫療研究中的Human in the loop

醫療研究人員使用AI來生成複雜的答案與分析大型資料集 。

然而,他們仍依賴自身的批判性思考進行倫理判斷與診斷推理,這些是AI無法提供的。他們將AI視為一種輔助工具,而非替代品,藉此來增強自身的認知能力。

案例二:七步內容分析工作流

一項詳細的內容分析工作流展示了批判性思考如何被整合到具體的商業流程中 。

這些案例表明,成功的AI整合並非關於「人類能做什麼」或「AI能做什麼」,而是一種新的工作流程,它讓AI處理重複與繁重的任務(如模式分析、資料摘要),而人類則專注於高階、關鍵的任務(如定義問題、解讀細微之處、驗證結論與做出最終決策)。

4.2. 實用練習:批判性思考提示詞工具包

提示詞工程是一種「精心設計清晰、具體與詳細指令」的技能。

當批判性思考被融入這些提示詞中,AI就從一個簡單的答案提供者,轉變成一個「思維陪練夥伴」 。這些提示詞將高階認知過程外部化並模型化,使領導者能夠藉助AI來應用先進的思維框架。

表1:批判性思考提示詞精選

提示詞類型提示詞範例目的與功用
假設偵測器「我相信[你的信念]。我可能做出了哪些隱藏假設?有哪些證據可能與此信念相矛盾?」幫助你發現那些未經證實便已接受的信念,避免做出錯誤決策 。
魔鬼代言人「我正計劃[你的想法]。如果你要說服我這是一個糟糕的主意,你會提出哪些最有力的論據?」強迫你質疑自己的想法,揭示可能存在的致命缺陷。
漣漪效應分析器「我正在考慮[潛在決定]。除了明顯的第一層影響,還可能產生哪些意想不到的第二與第三層後果?」幫助你評估決策的長期、非預期性影響。
盲點照亮者「儘管我嘗試了[你的解決方案],我仍持續遇到[問題]。我可能忽略了哪些因素?」幫助你發現可能遺漏的組織或外部變數。
現狀挑戰者「我們一直以來都[當前做法],但效果不佳。為什麼這種傳統做法可能正在失敗?有哪些激進的替代方案?」幫助你挑戰現有方法,重新設計令人沮喪的流程並探索新可能。

4.3. 練習題:與AI agent的實作對話

筆者在台大跟知識衛星上開的課,都強調以練習為核心,都有出很多作業。透過作業實作模擬,批判性思考力才能有效落地。


以下三個練習題,目的是幫助你將批判性思考方法應用於實際情境。

每個練習題都包含一個情境與AI的初始回答。你的任務是辨識AI回答中可能存在的錯誤或謬誤,然後思考如何重新提問,以獲得更好的答案。

練習一

練習二

練習三

4.4. 批判性思考作業

讀完本文後,你已經掌握了與AI agent協作的基本方法。現在,請將你的批判性思考力應用於以下三個真實場景。請將你的答案寫在留言中,也可參考我在知識衛星上開課 https://sat.cool/course/80 的內容來思考。

作業一:行銷策略的盲點

作業二:專案管理的挑戰

作業三:社群媒體的假新聞

第五章:結論:AI時代下,人類價值的唯一燈塔

5.1. 批判性思考與創造力、情商的共生

雖然AI可以模仿、分析資料與自動化任務,但它無法複製人類的創造力、情感與倫理判斷 。

批判性思考與這些技能之間存在著共生關係。

批判性思考並非眾多技能之一,而是一項主導技能

它是評估創造力原始輸入的認知引擎,是為倫理決策提供情境認知的基礎,並為情商所需的溝通提供結構。它是一個元層面,使人類智能在快速變革的世界中,展現出獨特的適應性與力量。

5.2. 做事情的成本為零,做什麼事變得最重要

本文筆者不斷重複的核心論點:

當任何事情都能以近乎零成本完成時,「行動」的價值便會下降,而「戰略」的價值則會上升。

AI將例行任務自動化,解放了人類領導者,使他們能夠專注於戰略性思考 。世界經濟論壇將批判性思考與問題解決能力,列為2025年全球最受歡迎的兩大技能 。

領導力的核心也已從「管理日常運營」轉變為「推進戰略目標與創新」。

在AI驅動的經濟中,企業的競爭優勢將不再取決於誰能最有效率地執行任務,而是誰能辨識出最具價值和創新性的問題來解決。

這是全新的戰略前沿。只有批判性思考,才能精準地定義問題、質疑既有規範,並構想出激進的替代方案,從而抓住這一優勢。

5.3. 批判性思考作為人類與AI共同進化的核心驅動力

未來並非人類與AI之間的競爭,而是一個共同進化的夥伴關係。

批判性思考正是這一合作的關鍵。正如研究顯示,「human in the loop」不僅關乎控制,更關乎在人類與AI「隊友」之間建立信任 。

教育的目標也從死記硬背,轉向培養能夠「深度思考、明智評估並大膽創造」的學生 。以人為本的AI模型,其目標是平衡自動化與人類控制,以增強技術可靠性與人類主體性 。

因此,AI時代的終極挑戰與機遇,是「學會有效利用AI」 。

透過將批判性思考視為不可妥協的核心技能,領導者可以確保人類不僅僅是技術的被動消費者,更是在這場變革中,持續進步與繁榮的唯一主導者。

歡迎追蹤我的 臉書 threads, 可以常常看到這類文章以及其他。

Exit mobile version