HOOK
你用 AI 輔助決策,覺得自己更理性了。
但有一種可能你沒想到:你的決策品質下降了,只是你感覺更好。
這兩件事,可以同時為真。
現況問題:「AI 輔助」的三個主流迷思
迷思一:「更多資訊等於更好決策」。AI 提供了大量分析,但人類的認知頻寬是有限的。資訊過載不會讓決策更好,只會讓人更傾向於接受 AI 的第一個建議。
迷思二:「AI 沒有情緒偏見,所以更客觀」。AI 沒有情緒,但它有訓練數據偏見、有提示詞偏見、有優化目標偏見。這些偏見更難被發現,因為它們看起來像邏輯。
迷思三:「人還是最終決策者,所以沒問題」。當一個決策流程中,AI 的建議占了 80% 的信息輸入,人類「最終決策」的實質意義是什麼?
關鍵缺口:七個沒有被點名的幻覺
1. 錨定幻覺:AI 的第一個建議,成為你思考的起點,而非參考點。2. 完整性幻覺:因為 AI 給出了「完整分析」,你以為你考慮了所有因素。3. 一致性幻覺:AI 的語氣一致讓你把「表達穩定」誤解為「判斷可靠」。4. 責任轉移幻覺:你知道如果出錯,可以說「AI 建議這麼做」,這改變了你的風險承受心理。5. 確認幻覺:AI 傾向於生成符合你 prompt 方向的答案,你問什麼,它就證明什麼。6. 速度幻覺:因為 AI 快速給出答案,你覺得決策效率提高了,但效率不等於品質。7. 分離幻覺:你以為 AI 的分析和你的決策是分離的,但它們已經融合了。
思維轉換:從「AI 輔助」到「AI 對照」
與其讓 AI 成為決策流程的起點,不如讓它成為對照組。
具體做法:先做你自己的判斷,再讓 AI 分析,找出差異。明確問 AI:「我的判斷有什麼我沒看到的盲點?」定期回顧:「在 AI 建議與我直覺不同時,哪一次的結果更好?」
這不是要你不信任 AI,而是要建立一個雙路驗證的決策結構。
收尾
AI 輔助決策的風險,不在於 AI 會做壞決策。
它在於 AI 讓我們更不容易發現自己做了壞決策。
這才是最需要被設計的問題。