發表文章

當 AI 越來越會做研究,研究者更該守住什麼?

這幾年,AI 迅速進入學術研究的各個環節。從文獻搜尋、資料整理、重點摘要,到初稿生成、語句潤飾,甚至程式除錯與流程自動化,AI 幾乎已經成為研究工作的新工具箱。面對這樣的變化,很多人開始問:如果 AI 能做的事情越來越多,那麼研究者在研究中的核心價值,究竟還剩下什麼? 最近,一套名為 FARS 的全自動科研系統引發廣泛討論。根據報導,這套系統連續運行 417 小時,也就是整整 17 天,總共產出 166 篇論文,平均 2 小時 17 分鐘就完成一篇。它從翻閱文獻、尋找題目、提出假設、撰寫程式、執行實驗、分析資料,到最後生成論文,幾乎完整複製了一名研究生或博士生的日常研究流程。這樣的消息之所以讓人震撼,不只是因為它快,而是因為它讓我們第一次非常具體地看見:AI 正在從研究助理,逐步朝「研究者」的位置逼近。 如果從人與工具的分工方式來看,科學研究大致可以分成幾個不同層次。最早的研究方式,是研究者主要依靠紙筆、頭腦與自身知識累積來思考問題、推導理論、整理觀點。這種方式最能鍛鍊深度思考,也最能培養對知識結構的扎實理解,但它同時受到人的記憶、時間與資訊取得速度的限制。當知識更新越來越快、跨領域整合越來越重要時,單靠個人腦力與手工處理,研究的效率與廣度都會受到很大約束。 接著是比較典型的現代研究模式,也就是以人為主體,但會主動借助外部資料庫與網路資源。研究者透過 Google Scholar、論文資料庫或各式線上資源擴展視野,再靠自己閱讀、比較、判斷與撰寫。這種模式的優點,在於它仍然保留了研究者作為思考主體的地位,同時也讓研究者能夠吸收更廣、更即時的知識。從學術訓練的角度來看,這仍然是最穩健、最成熟的基礎模式。 而現在,越來越多人已經進入第三種狀態:透過 AI 聊天介面與模型互動,讓 AI 協助做文獻整理、概念釐清、研究架構規劃、文字修飾,甚至直接生成初步草稿。這種研究方式最大的特點,就是速度。很多以前需要花很久時間完成的工作,現在能在更短時間內形成初步成果。對研究者來說,AI 像是一位高效率的研究助理,也像是一面即時回應的鏡子,幫助我們更快看見自己想法的輪廓。 但問題也正在這裡。當 AI 越來越會整理、越來越會生成,研究者很容易在不知不覺中,把「自己真的理解了」和「AI 幫我整理得很像我理解了」混為一談。表面上看起來,工作變快了、文本變完整了,但真正的推敲、懷疑、判斷與內化,...

在 AI 時代,我為什麼還是用紅筆改學生論文?

最近,我在修改幾位學生的論文。 我不是用 AI 改。 我拿起紅筆,一字一句看過,親手修改。 為什麼? 因為我越來越清楚一件事: 在 AI 時代,真正稀缺的,不是產出內容的速度,而是分辨品質高低的能力。 AI 很強,但也讓「80 分作品」失去價值 這段時間,我每天都在學新的 AI 技能。 從改進 prompt、整理 md 檔案,到各種自動化工作流程,我都持續在摸索、在練習。 AI 確實很強。 強到你很快就能做出一個 80 分的作品 。 但問題也正出在這裡。 當每個人都能快速做出 80 分的東西時, 80 分就不再有價值了 。 你必須追求的,不再是「做得出來」,而是「做得夠好」,甚至做到 90 分、95 分,乃至 99 分 。 問題不在 AI 做不到,而是你看不出差別 以我的使用經驗來說,AI 其實有能力做到 90 分。 但多數人真正的限制,往往不是工具,而是自己目前的經驗與知識不足,導致你根本無法判斷: 什麼是 80 分? 什麼是 90 分? 那 10 分的差距,到底差在哪裡? 當你沒有這種鑑別能力時,你就不可能下出真正有效的 prompt。 因為你根本不知道該要求什麼,也不知道該追問什麼。 所以很多人看起來在用 AI,其實只是把工作「外包」給 AI,最後拿回一份自己也看不懂好壞的成果。 為什麼需要老師傅?因為好壞之間,差的是眼力 一個新手要成長,通常需要有人帶。 你需要一位老手、一位師傅,或者一位在業界打滾很久的前輩,告訴你: 什麼叫做好 什麼叫做非常好 哪些細節不能省 哪些地方才是真正拉開差距的關鍵 但現實是,這樣的人往往不容易遇到。 就算遇到了,也不一定願意手把手教。 這也是為什麼現在很多報導都在談: AI 正在砍掉新鮮人成為專業人士的路徑。 以前,初階工作雖然辛苦,但它是一條訓練路徑。 你透過一次次做、一次次被修正,慢慢建立判斷力。 可是現在,很多初階工作直接被 AI 吃掉,新人還沒來得及在基礎工作中鍛鍊,就已經被要求交出成熟成果。 結果就是:工具變強了,但人成長的階梯卻變少了。 回到學校:論文,是你展現工程實力最好的舞台 對學生來說,論文不只是交差,也不只是畢業門檻。 它其實是你展示自己工程能力、邏輯能力、細節掌握能力的最好舞台。 所以,我想跟學...

當 AI 幫你寫論文時,你是否真的理解你寫下的每一句話?

OpenAI 推出專門輔助科學寫作的 AI 工具,能直接生成 LaTeX 格式的學術內容。對許多人而言,這象徵著研究效率的巨大躍進,彷彿只要想法到位,論文就能被迅速「寫出來」。然而,對仍在學習如何成為研究者的大學生與研究生來說,這類工具帶來的,未必全然是好消息。 科學寫作從來就不是文字生成的問題,而是理解的問題。它要求研究者能精確表達物理定律、數學模型與背後的假設邏輯。當一名學生對這些基礎理解仍不夠扎實時,AI 並不會補上這個缺口,反而可能把理解不足所導致的錯誤,包裝成看似專業、結構完整的文字。真正的風險不在於 AI 會不會犯錯,而在於使用者是否有能力辨識那些錯誤。 這樣的風險,在缺乏文獻閱讀訓練的情況下會被進一步放大。學術寫作的風格、語氣與結構,其實是一種長時間浸泡在高品質論文中才會逐漸形成的「內在標準」。透過大量閱讀,研究者才會知道哪些論述在學術社群中是可接受的,哪些表述會被視為過度延伸或不夠嚴謹。當學生尚未建立這樣的判斷力,就過早仰賴 AI 生成內容,他們很可能只是無意識地複製了一套自己無法評估好壞的寫作模式。 許多人以為 AI 的出現會讓寫論文這件事變得輕鬆,但實際上,它改變的是責任分配,而不是努力總量。過去,研究者大致是「懂多少,寫多少」;現在,卻很容易變成「寫出來的內容,超過自己真正理解的範圍」。在這種情況下,研究者理應在事後投入更多心力去驗證每一句話的正確性,確認其中的物理意義、數學敘述與邏輯推論都站得住腳。理論上,AI 使用得越多,文獻閱讀與反覆查證就應該越密集,而不是越少。 也正因如此,閱讀文獻這件事,在 AI 時代不但無法被取代,反而變得更加關鍵。當部分文字不再完全出自自己的腦袋,研究者就更需要透過文獻來建立「校準點」,確保所寫下的內容沒有偏離學術社群的共識與規範。對真正想成為研究者的人來說,邊寫作、邊大量閱讀文獻,是一個最低限度的要求。 在這樣的背景下,指導教授的角色也變得更加重要。AI 不會為論文品質負責,期刊與審稿人也不會因為工具的存在而降低標準。真正需要承擔後果的,仍然是學生與指導教授。因此,負責任的指導並不是全面禁止 AI,而是清楚界定使用工具的時機與界線,並要求學生能對自己論文中的每一段敘述,給出清楚且合理的解釋。 AI 的確能加速寫作流程,但它無法替代理解、判斷與責任感。對正在學習做研究的學生而言,真正值得投入時間的,依然...

一日水電工,讓我重新理解「不會被 AI 取代」是什麼意思

我住的地方地板淹水。 水電師傅來了,看了一下排水孔,很快下了結論: 「水孔有阻塞,但這個不是我能處理的,要找別人。」 我站在濕答答的地板上,一時之間有點不知所措。 那時,我腦中突然浮現一篇我看過的報導: AI 最容易取代的,是那些「坐在電腦前、重複處理資訊與文字」的工作; AI 最難取代的,反而是真正動手、處理現場不確定性的工匠型工作。 於是我做了一個決定: 在 AI 的幫助下,我自己修。 從小蘇打到通管器 第一步,我照著建議,使用小蘇打加熱水。 結果很快就知道—沒效。 於是第二步,我跑了一趟五金行,買了通管器。 接下來幾個小時,是不斷重複的嘗試、失敗、調整姿勢、再嘗試。 老實說,一度非常挫折。 就在我心裡想著「再試最後一次,不行就放棄」的時候,我突然抓到了使用的訣竅。 不是用力,不是快,而是慢慢旋進、感覺阻力、再調整角度。 我感覺到阻塞開始鬆動了。 水通了,但問題還沒結束 水開始能排了,但我心裡出現一個疑問: 我怎麼知道,水管裡還剩多少污垢? 我不可能看到水管內部,也不可能知道是否真的「完全清乾淨」。 用排隊理論理解排水這件事 我突然意識到,這個問題其實可以抽象成一個排隊系統: arrival rate(λ) :進入系統的水流量 service rate(μ) :排水系統能處理、排出的水流量 阻塞的本質,不是「有沒有垃圾」,而是: 當 λ > μ,系統就會累積,水就會回湧。 清管這件事,並不是一定要把 μ 提升到「無限大」, 而是只要讓 μ 大於我實際使用時可能出現的最大 λ,系統就會穩定。 於是,我換了一個驗收標準。 我找出自己平常使用時的最大水流量,用這個流量做測試, 再加上一個「一次大量倒水」的極端情境。 只要在這兩種情況下: 水位不持續上升 停水後能在合理時間內排空 那就代表,在我的使用模型下, μ 已經足夠大了 。 學到的兩件事 回頭看這件事,我其實更體會到兩件事。 第一,AI 並不是讓我們「什麼都不用會」。 我更清楚地知道: 哪些事可以請 AI 幫忙思考, 哪些事必須自己動手、感受、修正。 第二,不會被 AI 取代的能力, 不只是單純的「體力活」, 而是在不確定的現場, 把問題轉換成 可理解、可驗證模型 的能...

你不是沒天分,你只是逆著大腦的「紋理」在努力

大學裡最常見的一種焦慮,不是「我做不到」,而是「我做得到,但我好像不快樂」。你可能也有過這種感覺:課你都能上,報告你也能寫,考試也能過,可是每一步都像在消耗,做完之後不是成就感,而是更深的空洞。於是你開始懷疑自己:是不是我不夠聰明?是不是我其實沒有天分?是不是我永遠都找不到方向? 《紐約時報》暢榜冠軍作家Robert Greene 在《精通》(Mastery)提過一個很重要的提醒:真正能走到卓越的人,往往不是靠硬逼自己,而是找到了自己大腦天生的偏好,把努力變成內在驅動。這句話聽起來像勵志語錄,但它的底層其實非常科學,也非常殘酷——因為它暗示了:你痛苦,不一定是你不行,很可能是你一直逆著自己的神經系統在前進。 我們可以把大腦想像成一塊木頭,它有自己的木紋。有些方向切下去,會很順,刀子滑過去的那一刻甚至會帶著快感;有些方向切下去,不是切不動,而是每一下都要更大的力氣,還會裂開、卡住、磨損。這就是所謂「大腦的紋理」。它不是你有沒有意志力的問題,而是你在做的事情,和你的注意力系統、獎勵系統、學習模式是否匹配。 你一定見過這樣的人:有人看一眼就懂圖像與結構,有人一碰到語言就進入某種神奇的狀態,也有人只要遇到可以拆解與推理的問題就停不下來。這些不是努力多寡造成的差異,而是每個人的神經迴路在「被什麼吸引」「如何形成連結」「什麼會帶來快感」這些地方,本來就不同。真正的差距,常常不是智商,而是匹配。 那我們要怎麼找到自己的紋理?最早的線索,通常藏在童年。不是你小時候拿過什麼獎,也不是你小時候被說很厲害的那件事,而是你小時候「會自己做很久」的事。你不需要有人鼓勵,不需要有人肯定,就算沒人看,你也會重複做。你甚至可能曾經因此被罵過:為什麼一直拆東西?為什麼一直問為什麼?為什麼一直沉迷在那些奇怪的小細節?那種「內心的微弱拉扯」,就是你真正的種子。 很多人會問:如果每個人都有種子,那為什麼我們長大後都迷路了?原因很簡單:種子沒有不見,只是被外部動機蓋住了。進入學校之後,分數變成指標;進入職場之後,薪水變成指標;你開始被告訴哪些路才是有前途、哪些選擇才是聰明。你當然可以順著走,而且你也可能走得很成功,但如果那條路不符合你的紋理,你會慢慢發現:努力變成消耗,成就感變得脆弱,你需要更多外界回饋才能撐住自己。你不是不努力,你只是把意志力用來對抗自己。 所以,真正重要的不是「我要選什麼工作」,...

AI 時代,為什麼你還是需要按順序讀教科書?

現在的大學生越來越習慣用 AI 來學習。遇到什麼不懂的地方,就立刻開 AI 問一句,幾秒鐘就能得到答案;有些人甚至乾脆跳過教科書,覺得一個問題一個答案的方式比較快、比較有效率。 這看起來很合理,但在多年教學生涯裡,我越來越清楚地看到一件事: 如果只靠 AI,學生學到的往往是許多「點」,但缺乏能把這些點串起來的「線」和「架構」。 AI 給你的通常是直接、快速、簡化的回答,像是告訴你某一棵樹長什麼樣子。但真正的學習需要的是看懂整片森林——它怎麼長出來、樹之間有什麼關係、為什麼森林裡的生態是這樣運作。沒有這些脈絡,就算聽起來懂了,通常也只是表面的理解。一旦遇到更複雜的題目或需要跨章節整合的內容,就會突然卡住,因為缺少的是 整體的思考路徑 。 其實,教科書的章節順序不是用來折磨學生,而是作者幫你排好的一條「最佳學習路線」。它的設計邏輯就是要一步一步帶你往上走:先建立基礎,再慢慢增加難度,等到你走到最後,整套系統已經在你腦中成形。如果跳過這些該打的地基,只靠 AI 回答問題,很容易看懂當下那一段文字,卻無法真正掌握背後的知識架構。 AI 的確是一個很棒的工具,但它最適合的時機不是「取代教科書」,而是「當你真的卡住時,來幫你補破洞」。先跟著教科書的順序走,遇到某個地方怎麼看都看不懂,這時候再問 AI,它就能把複雜的概念拆得更清楚,或用不同角度重新說一次,甚至舉些生活化的例子,讓你換個方式理解。這樣的學習方式既能保持整體架構,又能利用 AI 增強理解,效果反而更好。 說到底,AI 可以讓學習變得很快,但它沒辦法替你補足架構。真正能讓你在考試、專題或未來的工作中站得穩的,是那一層一層累積的基礎與脈絡。那些看起來比較慢的章節順序,反而是幫你省去未來迷路的時間。 如果你願意把教科書當成主幹,把 AI 當成輔助,你會發現自己的理解會越來越完整,也更能真正掌握你學的東西。

為什麼強化學習比大型語言模型更接近「真正的智慧」?

圖片
近年來,大型語言模型(Large Language Models, LLM)如 ChatGPT 席捲全球,不僅能寫程式、生成文章,甚至能通過一些專業考試。很多人因此認為這就是「人工智慧」的終極形態。 但強化學習(Reinforcement Learning, RL)的奠基者之一 Richard Sutton 卻持不同看法——他認為 LLM 是一條「死胡同」,而真正的智慧必須回到 RL 的核心:和世界互動、嘗試、犯錯,並學會從後果中成長。 以下整理 Sutton 的觀點,以及我對這些觀點的延伸思考。 1. LLM 只是模仿,而 RL 在學習世界如何運作 LLM 的學習方式,本質上是「模仿」:它透過龐大的文本資料學習「人類在特定語境下會說什麼」,因此能很擅長接話或補完句子。 但這樣的學習過程並沒有觸及世界的因果規律。對 LLM 而言,重力、摩擦、推力、甚至「如果我推倒一個積木會發生什麼」這些,都只是文字裡的描述,而不是它透過經驗學到的真實規則。 相反地,RL 是一個 行動-回饋循環 :它讓智能體(agent)在環境中採取行動,觀察結果,然後根據「獎勵」來調整策略。這種方式更接近人類與動物的學習方式。 2. 真正的智慧來自「與世界互動」 嬰兒學走路、學說話,並不是因為有人給他一個完整的「語料庫」;而是因為他們跌倒過、模仿過、嘗試過,最後才逐漸掌握規律。 智慧不是被動地「吸收」文字,而是來自主動的探索。 智慧 = 嘗試 + 觀察 + 修正 。 3. 目標智慧的核心 LLM 的唯一目標是「預測下一個詞」,這是一個 封閉的、與現實脫節的目標 。它沒有在真實世界中「成功」或「失敗」的概念。 相對的,RL 的目標是最大化獎勵,例如走迷宮要走到出口、打籃球要把球投進籃框。這些目標讓智能體有了明確的方向,能區分「好」與「壞」,並因此不斷改進。 就像籃球練習一樣: 模仿別人投籃的動作(LLM)不代表你能投進球,但透過一千次投籃並調整角度(RL),你才真正學會如何投進球。 4. LLM 與 RL 的關係:模仿 + 試錯 這並不是說 LLM 一無是處。LLM 可以幫助我們快速掌握知識、模仿專家語言,甚至在早期給 RL 提供參考的啟發。 但若要走向真正的智慧, RL 的試錯學習必不可少 。模仿只能給你一個起點,真正的進步來自與世界的互動。 5. 為什麼機器人是關鍵? Sut...