最近,AI 界最受關注的話題之一,莫過於 DeepSeek-R1 這款推理模型 (Reasoning Model)。與傳統大語言模型 (Large Language Model, LLM) 不同,推理模型在回答問題時,會包含 「思考」或「推理」過程,使其更適合處理複雜任務 (無法一步到位),例如數學解題、程式競賽問題,甚至邏輯推理。因此,如摘要、翻譯或基於知識的較簡單問答,並不需要使用推理模型。但隨著 R1 的熱度飆升,也有不少人們開始反思:這是否真的代表了推理模型的突破?還是說,還有其他更高效的方式能達成類似效果?