30 秒看重點
- 前 OpenAI 技術長 Mira Murati 創辦的 Thinking Machines Lab 發表互動模型 TML-Interaction-Small,能同時聽、看、回應,延遲僅 0.4 秒,比 OpenAI 的即時對話模型快近 3 倍。
- OpenAI 推出 Daybreak 資安平台,結合 GPT-5.5-Cyber 模型與 Codex Security,聯手 Cisco、CrowdStrike 等 8 家大廠,從程式開發階段就攔截漏洞。
- Google 威脅情報團隊首度以「高度信心」確認駭客利用 AI 模型生成零日漏洞攻擊程式,並成功在大規模攻擊發動前攔截。
- 根據 KFF 調查,美國 16% 成年人已使用 AI 聊天機器人尋求心理健康建議,30 歲以下更達 28%,但超過四成使用者曾收到錯誤資訊。
Mira Murati 的新公司推出了什麼讓人眼睛一亮的技術?
Thinking Machines Lab 發表了一種全新類型的 AI 模型,稱為「互動模型」,讓 AI 同時接收聲音、影像和文字輸入,並即時產生回應,延遲僅 0.4 秒。
這家公司是前 OpenAI 技術長 Mira Murati 離開後創辦的,一直非常低調。據 SiliconANGLE、The AI Insider 等多家科技媒體報導,首款模型 TML-Interaction-Small 最大的賣點是「全雙工」設計,AI 可以邊聽你說話邊回應,不用等你講完才開始想答案。目前主流的 AI 對話系統,包括 OpenAI 的 GPT-Realtime-2.0,平均要等 1.18 秒才開始回話,TML 把這個數字壓到了 0.4 秒。
技術上有兩個關鍵創新。第一個是「多串流微輪次」(Multi-Stream Micro-Turn)架構,每 200 毫秒為一個處理週期,持續接收輸入和產生輸出。第二個是「無編碼器早期融合」(encoder-free early fusion),直接在模型內部用輕量嵌入層處理原始音訊和視覺訊號,省去傳統笨重的外部編碼器。
對一般人來說,這代表未來跟 AI 語音助手對話會更接近真人聊天。不會再有「我說完了,AI 停頓兩秒才回」的尷尬感。目前模型還在研究預覽階段,預計數月內開放有限測試。
名詞小教室:全雙工(Full-Duplex)通訊就像打電話,雙方可以同時說話、同時聽。目前大多數 AI 語音助手是「半雙工」的,你要等它講完才能插話,或它要等你停下來才開始回答。全雙工的 AI 能做到像真人聊天一樣自然,你講到一半它就能回應,甚至能讀懂你的語氣來調整回答方式。
OpenAI 為什麼突然跨足資安領域?
OpenAI 在 5 月 11 日發布 Daybreak 平台,結合專門用於資安的 GPT-5.5-Cyber 模型與 Codex Security 工具,讓開發者和資安團隊能在軟體開發過程中自動掃描漏洞、分析攻擊路徑,並驗證修補是否有效。
這個時間點很微妙。就在Anthropic 的 Mythos 模型曝出能自動攻破 Linux 核心之後不到一週,OpenAI 就端出了防禦端的解答。據 PYMNTS、Engadget 等媒體報導,Daybreak 被明確定位為對標 Mythos 的回應。
Daybreak 底下有三層模型:一般用途的 GPT-5.5、給經過驗證的資安團隊使用的 GPT-5.5 Trusted Access for Cyber,以及最開放的 GPT-5.5-Cyber,允許紅隊演練和滲透測試等更積極的防禦操作。合作夥伴陣容也很豪華:Akamai、Cisco、Cloudflare、CrowdStrike、Fortinet、Oracle、Palo Alto Networks、Zscaler,幾乎是資安產業的全明星隊。
講白了,之前我們介紹的 GPT-5.5 主要是給一般使用者的聊天體驗升級,現在 OpenAI 把同樣的模型底座套上資安專業外殼,等於宣告 AI 不只會攻也要會防。Codex Security 能掃描整個程式碼庫、找出最可能被利用的攻擊路徑、建議怎麼修,甚至幫你驗證修完之後到底有沒有堵住洞。
Google 是怎麼攔截史上首起 AI 生成的零日漏洞攻擊的?
Google 威脅情報團隊(GTIG)在 5 月 11 日公開報告,以「高度信心」確認他們攔截了一起由 AI 模型生成的零日漏洞攻擊程式。這是公開紀錄中首次有明確證據顯示駭客利用大型語言模型來發現並撰寫攻擊程式。
根據 Google Cloud 官方部落格的技術分析,事件涉及一個犯罪駭客組織(不是國家級駭客),他們用 AI 模型在一款熱門的開源網頁系統管理工具中找到了零日漏洞,可以繞過雙因素驗證。這個漏洞是「語意邏輯缺陷」,開發者在程式碼中硬寫了一個信任假設,不是傳統的記憶體損壞問題。
怎麼看出是 AI 寫的攻擊程式?Google 研究員列了幾個破綻:程式碼裡塞滿教學式的文件註解、有一個 AI 自己幻想出來的 CVSS 風險評分、格式整齊到不像人類手寫、還有非常「教科書」的 Python 結構。這些特徵跟大型語言模型訓練資料的模式高度吻合。
這件事讓資安圈緊張的原因是:LLM 特別擅長找這類「邏輯層面」的漏洞,它能理解開發者的意圖,再找出程式碼中跟意圖矛盾的地方,傳統自動掃描工具反而抓不到。好消息是 Google 在大規模攻擊發動前就攔下了,並已完成漏洞通報。
名詞小教室:零日漏洞(Zero-day Vulnerability)是軟體中還沒被修補的安全弱點,「零日」代表開發者發現時修補時間為零。你可以想像成你家門鎖有個出廠瑕疵,連鎖匠都不知道,小偷卻先發現了怎麼打開。過去找這種漏洞需要頂尖資安專家花好幾週,現在 AI 可能幾小時就找得到。
AI 聊天機器人正在成為心理諮詢工具,但準備好了嗎?
根據美國凱撒家庭基金會(KFF)2026 年初的追蹤調查,16% 的美國成年人在過去一年使用過 AI 聊天機器人獲取心理健康資訊或建議,30 歲以下族群比例更達 28%。
這個數字成長的速度令人吃驚,而且不是玩票性質。據 Fortune 報導,在這些使用者中有 38% 表示每週都會使用 AI 來處理心理健康問題。焦慮(79.8%)、憂鬱(72.4%)和壓力(70%)是最常見的求助原因,超過三分之一的人說選擇 AI 而不是真人諮商師,最大的理由是「害怕被評判」。
但問題也很明顯。根據多項調查,超過 41% 的使用者表示曾收到錯誤或有誤導性的建議。在學術研究層面,只有 16% 的 AI 心理健康研究通過了臨床療效測試,大多數還停留在早期驗證階段。
對台灣讀者來說,這個趨勢同樣需要關注。當越來越多人把 ChatGPT 當成情緒出口,但這些工具既沒經過臨床驗證,也不會在你真的需要幫助時轉介專業人員,這中間的落差不能輕忽。AI 可以是不錯的輔助,但當成唯一的心理健康支援管道,目前還太早了。
編輯觀點:AI 的攻防戰全面升級
今天這 4 則新聞有個共同脈絡:AI 正在從「幫你完成工作」走向更深層的改變。Murati 的互動模型在重新定義人機溝通的速度和自然度;OpenAI 與 Google 的動作顯示 AI 資安攻防已經不是紙上談兵,而是每天都在發生的實戰;AI 心理健康工具的快速普及,則挑戰了「專業服務該由誰提供」的基本假設。
對台灣的開發者和企業來說,Daybreak 這類工具未來可能變成軟體開發流程的標配,資安思維要從「事後補洞」轉向「寫的時候就擋」。一般使用者則要記住:AI 很好聊,但遇到真正的心理困擾,專業人士還是最安全的選擇。
明天值得關注
Thinking Machines Lab 的互動模型何時開放公開測試,以及各國政府對 AI 生成攻擊程式的立法回應,都是接下來幾天的重要觀察方向。
常見問題 FAQ
Thinking Machines Lab 的互動模型和 ChatGPT 有什麼不同?
Thinking Machines Lab 的 TML-Interaction-Small 是一種「互動模型」,最大特色是全雙工設計,AI 能同時接收音訊、影像和文字並在 0.4 秒內回應,比 OpenAI 的 GPT-Realtime-2.0 快近 3 倍。傳統 AI 對話是你講完它才回,互動模型則是邊聽邊回,更接近真人對話體驗。目前仍在研究預覽階段,尚未開放一般使用。
OpenAI Daybreak 是什麼?一般人用得到嗎?
OpenAI Daybreak 是 2026 年 5 月推出的 AI 資安平台,結合 GPT-5.5-Cyber 模型和 Codex Security 工具,能自動掃描程式碼漏洞、分析攻擊路徑並驗證修補效果。目前主要面向企業開發團隊和資安專業人員,已有 Cisco、CrowdStrike、Cloudflare 等 8 家大廠加入合作,一般使用者暫時不會直接接觸到。
AI 聊天機器人適合用來處理心理健康問題嗎?
根據 KFF 2026 年調查,美國已有 16% 成年人使用 AI 聊天機器人尋求心理健康建議,但超過 41% 使用者曾收到錯誤資訊,且僅 16% 的相關研究通過臨床療效測試。AI 聊天機器人可作為初步的情緒紓壓輔助,但不應取代專業心理諮商,遇到嚴重困擾仍建議尋求專業人員協助。
覺得這篇快報有幫助嗎?歡迎分享給同樣關注 AI 趨勢的朋友,我們每天更新,讓你不錯過任何重要的 AI 動態。