Anthropic重磅亮相:AI服務設計新焦點

Anthropic重磅亮相:AI服務設計新焦點

千尋與服務設計 · Episode #8 · · PT9M52S

Host · 姜千尋

Summary

本集節目深入探討了AI巨頭Anthropic在三月份的一系列突破性行動,包括其AI插件如何顛覆傳統SaaS市場、推出能直接轉移ChatGPT記憶的工具以搶奪用戶,以及為企業客戶量身打造的「Claude Marketplace」如何簡化AI服務採購。節目同時聚焦Anthropic的技術飛躍,如Claude Opus與Sonnet實現百萬token上下文視窗,並推出創新的互動式視覺化功能,進一步強化其AI生態系。更為震撼的是,Anthropic為了堅持其AI倫理與安全防護措施,不惜起訴美國國防部,引發了一場關於AI倫理、國家安全與企業社會責任的「世紀大辯論」。節目最終指出,Anthropic兼具積極的市場挑戰者與堅定的倫理守護者雙重身份,其在商業擴張與道德堅守之間的拉扯,是整個AI產業都將面臨的關鍵課題,也將深刻影響未來AI服務的設計走向。

Transcript

哈囉,大家好,歡迎回到我們的節目,,我是你們的主持人姜千尋。 最近AI世界簡直像搭上了高速列車,每天都有新里程碑。

特別是我們一直關注的Anthropic,它在三月份的動作可說是「王炸」連發, 讓人既興奮又帶點緊張。

你知道嗎? Anthropic不只在技術上持續突破,甚至還和美國政府槓上了, 這背後的故事,遠比你想像的更精彩、更深層。

我們先來看看Anthropic最近在市場上是如何出招的。 還記得我們在第七集聊過,Anthropic推出的Claude Cowork以及法律相關插件,

如何透過直接整合AI解決方案,深度顛覆了傳統SaaS模式, 讓許多軟體公司的股價應聲大跌,甚至有人用「SaaSpocalypse」來形容這種劇變嗎?

Claude這些插件的核心創新在於,它們能直接處理特定專業領域的複雜任務, 將AI模型融入工作流程,有效解決了傳統SaaS在高度客製化和智慧化方面的痛點, 提供前所未有的效率與精準度。

嗯,Anthropic顯然沒打算停下來。 三月初,他們更直接推出一個工具,讓ChatGPT用戶能將記憶資料直接轉移到Claude上。

這招真是高明,擺明了就是要從競爭對手家裡「搶人」,直接挑戰ChatGPT的用戶黏著策略。 緊接著,三月六號,Anthropic又大動作推出了「Claude Marketplace」。

這可不是一個普通的應用商店,而是一個專為企業客戶設計的電商平台, 讓企業可以直接採購那些深度整合了Claude大型語言模型的第三方軟體服務。

想像一下,過去企業採購AI工具,可能需要找好幾家廠商,分別進行測試、 談判,耗費大量時間與資源。

現在,Anthropic直接將這些解決方案整合好,提供一站式的採購體驗。 這就像是企業版的App Store,只不過規模更大,服務也更專業。

首批合作夥伴就包括了Harvey AI、Snowflake、 GitLab這些業界巨頭。 美國Cox Automotive的產品長Marianne Johnson直言:

「Claude Marketplace讓我們這些團隊能更快地行動, 將我們對Anthropic的投資,自然延伸到所需的夥伴工具中, 採購流程變得更簡化,也對這些工具的協同運作更有信心。

」這段話精準點出了「簡化採購」和「協同運作」對企業客戶的巨大吸引力, 直接解決了企業導入AI時的整合痛點。

企業不再只是單純地想「用AI」,他們更想讓AI「擁有工作流程」。 過去AI多半扮演輔助工具的角色,而現在Anthropic的野心是讓它成為企業流程的核心。

市場研究數據也驗證了這點,截至今年三月,Anthropic在新增企業客戶的競爭中, 擊敗OpenAI的勝率高達七成,遙遙領先。

甚至在企業大型語言模型的支出市場中,Anthropic也以四成的市佔率超越OpenAI的兩成七, 和Google的兩成一。

這顯示了企業對Anthropic的企業優先策略和安全性考量的高度認可。 像Deloitte這樣擁有近五十萬名員工的全球性企業,也在大規模部署Claude。

Block執行長Jack Dorsey曾說過:「任何沒有將自身打造成智慧驅動的公司, 都會在未來一兩年內面臨生存危機。

這就是我每天都在思考的問題——這東西可能會徹底消失。 」這話聽起來有些殘酷,卻真實地反映了AI時代下,企業必須轉型的巨大壓力與緊迫性, 而Anthropic正抓住了這個脈動。

不僅如此,Anthropic在技術上的「軍備競賽」也從未停歇。 三月十三號,他們宣布Claude Opus 4.6和Sonnet 4.6的上下文視窗正式達到一百萬個token。

一百萬個token是什麼概念? 這大約等同於兩千頁的文字量,你可以想像Claude現在能夠一次性消化如此龐大的資訊, 並在如此長的語境下進行精準推理和內容生成。

這對於需要處理複雜報告、詳盡法律文件,或企業內部海量數據的專業領域來說, 無疑是個革命性的突破,徹底解決了長文本處理的效率與準確性痛點。

舉例來說,在法律領域,AI的應用已從去年底的少數試點,到今年三月已有近七成法律專業人士採用生成式AI,

更有八成七的企業法務部門積極部署,而Claude Opus 4.6在專業法律推理基準BigLaw Bench上的得分高達九成二, 可見其專業能力。

不過,我們也必須清醒地認識到,單純增加上下文視窗長度並非萬靈丹。 業界有個說法叫做「Context Rot」,意思是在處理極長文本時,

AI可能會在大量資訊中遺失細節,導致資訊準確度、判斷速度與相關性下降。 這就像我們人類,給你一本書要你立刻找出關鍵字,和你一口氣讀兩千頁後再作答, 效果肯定不一樣。

所以,這也對服務設計師提出了更高的要求,要如何精準地設計「上下文工程」, 讓AI能在海量資訊中依然高效運作,並且平衡潛在的延遲和運算成本, 這將是未來企業應用AI的關鍵挑戰。

除了長文本能力,他們還推出了全新的互動式視覺化功能,用戶無需編寫任何程式碼, 就能在對話中直接創造動態、不斷演進的視覺內容,讓AI的應用變得更直覺、 更有趣。

為了進一步鞏固和擴大這個龐大的生態系,Anthropic更在2026年前投入一億美元, 啟動Claude夥伴網路計畫,提供包括培訓、專屬支援和共同行銷等多方位服務。

這簡直是將單純的「軍備競賽」提升到了「生態系競賽」的層次, 希望透過這種方式,讓Claude成為企業AI應用的首選。

然而,最令人震驚的,莫過於他們竟然起訴了美國國防部。 這簡直是聞所未聞。 事件的起因是美國國防部將Anthropic列入「供應鏈風險」黑名單,

理由是Anthropic拒絕了國防部提出的要求,不願從其AI系統中移除某些核心安全防護措施。 這些防護措施的設計目的,正是為了防止AI被用於自主武器或國內監控等潛在危險應用。

Anthropic認為,國防部的這一舉動嚴重侵犯了他們的言論自由和正當程序權利。 這起事件不僅僅是一場單純的法律訴訟,更是一場關於AI倫理、 國家安全與企業社會責任的「世紀大辯論」。

Anthropic一直以來都極力推崇其「憲法式AI」原則, 意即在AI訓練過程中就內建了嚴格的倫理和安全限制,以確保AI不會產生有害、 偏見或危險的內容。

我們之前也曾提及有中國AI實驗室被指控非法「蒸餾」Claude模型, 試圖進行逆向工程,這也側面印證了Anthropic對其技術安全與倫理邊界的極度重視。

Anthropic執行長Dario Amodei多次強調, AI的安全性和可靠性是他們的核心價值。

如今,他們為了捍衛這份價值,甚至不惜與政府對簿公堂。 「這些行為是前所未有且非法的。 憲法不允許政府利用其龐大的權力,僅僅因為一家公司的受保護言論而懲罰它。

」這種態度極為強硬,也充分展現了他們在AI倫理上的堅定立場。 這引發了一個深刻且複雜的問題:當AI技術日益強大,我們究竟該如何平衡國家安全的需求與AI的倫理限制?

這也導致了兩種截然不同的觀點。 一方面,美國國防部可能認為,在國家安全面前,AI公司應該配合移除限制, 以確保技術能最大化地服務於國家利益,特別是在快速變化的地緣政治格局中。

他們或許會擔心,AI的內建限制可能阻礙其在關鍵時刻的應用, 甚至被敵對勢力利用。 但另一方面,Anthropic堅信AI的設計必須以倫理為本, 避免技術被濫用。

他們認為,如果政府可以隨意要求移除AI的核心安全措施,那麼未來AI可能會走向失控, 帶來無法預測的社會風險。

經濟學家Ara Kharazian就曾指出,Anthropic的這種「文化護城河」, 也就是對倫理和安全的堅守,反而在企業市場上為他們贏得了更高的品牌信任度。

事實上,數據顯示,自從這起訴訟事件曝光後,Claude的行動應用市場份額增加了兩倍, 企業對Anthropic的採用率也從八月的五成五下降到二月的不到四成,

可見公眾和企業都對其倫理立場給予了正面回應。 這也說明,市場似乎開始願意為「有原則的AI」買單了。

當一家AI公司為了堅持自身的道德底線,甚至願意冒著被政府列入黑名單的巨大風險, 這在科技史上也實屬罕見。

它背後,或許也透露了科技巨頭們對於AI潛在威脅,有著更深層的擔憂與警惕。 一方面,Anthropic是市場上積極的挑戰者,運用尖端技術和強大的生態系策略顛覆現有軟體市場;

另一方面,他們又是堅定的倫理守護者,甚至不惜與政府對簿公堂, 捍衛AI的設計原則。 這種商業拓展與倫理堅守之間的緊張關係,不單是Anthropic一家公司的困境,

更是整個AI產業未來都將面臨的普世挑戰。 當AI公司在商業競爭中追求極致效率與市場份額的同時,它們又該如何堅守倫理底線, 並與國家安全、社會規範保持平衡呢?

這場商業利益與道德原則之間的拉扯,將最終引導AI服務的設計走向何方? 這將是我們持續關注的議題。

下次節目再見!