30 秒看重點

  • ICLR 2026 在巴西里約落幕,從 11,617 篇投稿中收錄 3,462 篇論文,Apple 發表的 SHARP 模型能在一秒內把平面照片變成 3D 場景,ParaRNN 則讓傳統 RNN 訓練速度飆升 665 倍。
  • Intel 第一季營收 136 億美元大幅超越華爾街預期,股價單日暴漲近 24% 創下 26 年來新高,背後原因是 AI 產業正從「訓練 GPU」轉向「推理 CPU」的新階段。
  • 西北大學研究團隊成功列印出能與真實老鼠腦細胞溝通的人造神經元,研究發表於《Nature Nanotechnology》,為腦機介面和低耗能 AI 運算開啟新可能。

ICLR 2026 在里約落幕,今年 AI 研究有什麼重要方向?

ICLR 2026 在 4 月 23 到 27 日於巴西里約熱內盧舉行,今年從 11,617 篇投稿中錄取了 3,462 篇,錄取率約 29.8%,是目前 AI 學術圈規模最大的年度盛會之一。據大會官方公布,Amazon、Google、Microsoft、Apple、Meta 等大廠全數到場,連 Jane Street 和 Citadel 這類華爾街公司也來了。

先說最搶眼的。Apple 這次帶了兩個重量級研究去里約。第一個是 SHARP(Single-image High-Accuracy Real-time Parallax),據 9to5Mac 報導,你丟一張普通照片給它,不到一秒就能生成一個可以旋轉、移動視角的 3D 場景。Apple 在現場用搭載 M5 晶片的 iPad Pro 做即時展示。跟之前最好的方法相比,SHARP 在影像品質指標上提升了 21% 到 43%,合成速度快了三個數量級。你可以想像成以前建一棟 3D 模型的房子要好幾個小時,現在拍張照就搞定。

另一個是 ParaRNN,被選為大會 Oral(口頭報告,只有最頂尖的論文才有這個待遇)。它解決了一個困擾學界多年的老問題:RNN 在訓練時只能一步一步來,沒辦法像 Transformer 那樣平行處理。ParaRNN 把訓練速度提升了 665 倍,還成功訓練出第一個 70 億參數的古典 RNN,語言能力居然能跟 Transformer 打成平手。Apple 已經把程式碼開源了。

大會最佳論文頒給了「Transformers are Inherently Succinct」,從理論角度證明 Transformer 架構能用極精簡的方式編碼概念。講白了,這篇論文幫 Transformer 找到了數學上的優勢證明,解釋了為什麼它能稱霸 AI 領域這麼多年。

名詞小教室:ICLR(International Conference on Learning Representations)是全球 AI 領域的頂尖學術會議,你可以把它想成 AI 界的奧運。每年各大公司和頂尖大學把最新研究成果拿到這裡發表、較量,能在 ICLR 發論文,在學術圈是很重要的履歷加分。

Intel 股價為什麼創下 26 年新高?

Intel 在 4 月 24 日公布第一季財報後,股價單日暴漲 23.6%,是 2000 年以來最大的單日漲幅,市值一夜之間增加約 500 億美元,並且突破了 2000 年 8 月寫下的歷史紀錄。

數字本身就夠震撼。據 Yahoo Finance 報導,Intel 第一季營收達 135.8 億美元,比華爾街預期高出超過 10 億美元,每股盈餘 0.29 美元也遠超分析師共識。其中資料中心與 AI 業務營收 50.5 億美元,年增 22%。2026 年至今,Intel 股價累計上漲超過 110%。

但最有意思的不是帳面數字,而是背後的產業轉折。過去幾年 AI 的主角是 NVIDIA 的 GPU,因為訓練大型模型需要大量的平行運算能力。但現在 AI 進入新階段:模型訓練好了,接下來要讓幾億人每天使用。這個「推理」階段對 CPU 的需求反而大增,而 CPU 正好是 Intel 的主場。

你可以這樣理解:GPU 像是蓋房子的施工隊,負責打地基、灌水泥這些重活;CPU 像是管理整棟大樓的物業團隊,負責日常的水電和電梯運作。房子蓋好之後,你需要的不是更多施工隊,而是更好的物業管理。AI 產業現在正從「蓋房子」轉到「住進去」的階段,Intel 剛好搭上這班車。

不過 Axios 分析也提醒了一件事:Intel 花了 26 年才回到歷史高點,本身就是一個警示。當年它也是科技股之王,結果用了四分之一個世紀才爬回原點。今天追高 AI 股的人,記得這段歷史。

人造神經元真的能跟大腦溝通了?

西北大學的研究團隊成功開發出能與真實腦細胞進行電訊號溝通的人造神經元,成果於 4 月 15 日發表在頂尖期刊《Nature Nanotechnology》,由 Mark C. Hersam 教授領導。

原理其實蠻直覺的。研究團隊用兩種奈米材料做成特殊的「電子墨水」:二硫化鉬(MoS₂)當半導體,石墨烯當導體。接著用「氣膠噴射列印」技術,把這些墨水印在軟性塑膠基板上,製作出可彎曲的人造神經元。

關鍵實驗是這樣的:團隊把印出來的人造神經元放到老鼠的腦切片旁邊,結果人造神經元產生的電訊號,真的讓旁邊的真實腦細胞產生了反應。簡單來說,機器跟大腦「對上話」了。

這代表什麼?短期來看,這可能推動腦機介面和神經義肢的進展,例如更精準的人工耳蝸或視覺輔助裝置。長期來看更令人興奮:如果能模仿大腦的運作方式來設計晶片,AI 運算的能耗可能大幅降低。人類大腦只用大約 20 瓦的功率(跟一顆 LED 燈泡差不多)就能處理極其複雜的任務,現在的 AI 資料中心動輒消耗數百萬瓦電力。學會大腦的「省電秘訣」,可能是解決 AI 能源危機的終極方案。

名詞小教室:腦機介面(Brain-Computer Interface, BCI)就是在大腦和電腦之間架一座橋。你可以想像成幫大腦裝一個 USB 插孔,讓思想可以直接控制電腦或機械裝置。目前最知名的例子是 Elon Musk 的 Neuralink,已經進入人體臨床試驗階段。

編輯觀點:AI 正在同時往兩個方向衝刺

今天三則新聞看似毫無關聯,但拼在一起會看到一個清楚的輪廓:AI 正在同時往兩個方向發展。

一個方向是「大規模落地」。Intel 的財報告訴我們,AI 不再只是實驗室裡的展示品,而是正在滲透進每個人的日常,帶動的產業洗牌比很多人預期的還快。搭配前幾天提到的 DeepSeek V4 開源模型把推理成本壓到地板價,在自家伺服器跑 AI 的門檻正在快速降低。另一個方向是「根本性突破」。ICLR 的論文和西北大學的人造神經元,都在探索更深層的問題:有沒有比 Transformer 更好的架構?能不能讓 AI 像大腦一樣省電?這些研究現在看起來離商業化很遠,但一旦突破,衝擊會比任何一次模型更新都大。

對台灣的開發者和企業來說,現在是認真評估自建 AI 推理能力的好時機,別只盯著雲端 API 的價格戰。

明天值得關注

Amazon 和 Alphabet 本週將公布第一季財報,兩家合計對 Anthropic 投入超過 650 億美元,市場會嚴格檢視 AI 投資的回報率。Apple 的 ParaRNN 開源碼剛釋出,社群的第一波實測報告應該很快就會出來,看看 RNN 復興是真的有戲還是只是學術圈的自嗨。


常見問題 FAQ

ICLR 是什麼會議?為什麼 AI 圈這麼重視?

ICLR(International Conference on Learning Representations)是全球最頂尖的 AI 學術會議之一,2026 年在巴西里約熱內盧舉行,共收到 11,617 篇投稿、錄取 3,462 篇,錄取率約 29.8%。Google、Apple、Microsoft、Meta 等大廠都會在此發表最新研究,是觀察 AI 技術未來走向的重要風向標。

Intel 在 AI 領域扮演什麼角色?跟 NVIDIA 有什麼不同?

Intel 主要生產 CPU 處理器,NVIDIA 則以 GPU 為主。AI 發展初期,GPU 的平行運算能力讓 NVIDIA 成為訓練大型模型的首選,但隨著 AI 進入大規模部署的「推理」階段,CPU 的需求大幅回升。Intel 2026 年第一季資料中心與 AI 營收達 50.5 億美元,年增 22%,股價創 26 年新高,正反映了這個產業轉折。

人造神經元什麼時候可以用在人類身上?

西北大學目前的研究仍在實驗室階段,測試對象為老鼠腦切片。從實驗室到人體臨床應用通常需要數年到十幾年的時間,還要經過更多動物實驗、安全性測試和人體臨床試驗。不過這項技術使用可列印的軟性材料,成本較低且可量產,在腦機介面和神經義肢領域的潛力被學界普遍看好。


覺得這篇快報有幫助嗎?歡迎分享給同樣關注 AI 趨勢的朋友,我們每天更新,讓你不錯過任何重要的 AI 動態。