全世界只有中國人在瘋搶"龍蝦" 你不覺得哪裡不對嗎
由於Moltbot這個名字十分拗口,不久之後,斯坦伯格又將它改為OpenClaw。誰料,這一原本被迫的調整,卻意外轉動了OpenClaw的命運齒輪。由於OpenClaw開始支持多模型,這款智能體很快引起了多家AI公司(尤其是中國AI公司)的興趣,它後來的流行,很大程度上就得益於這些公司的推波助瀾。而名字裡的那個Open,則為斯坦伯格迎來了OpenAI的橄欖枝。不久之後,他就接受薩姆·奧特曼(Sam Altman)的邀請,入職了OpenAI。

“龍蝦”是什麼?不是什麼?
通過上述對OpenClaw產生史的簡要回顧,我們不難看到,OpenClaw本質上就是在用戶的計算機與AI大模型之間的一個代理層,自身其實沒有什麼能力。自媒體上所看到的各種能力,歸根到底還是來自大模型,它能做的,只是幫助人去調動這些模型。所以,一個“龍蝦”厲害不厲害,還是要看接入它的模型到底怎麼樣。事實上,在被迫與Claude“分手”之後,就有很多用戶反映,OpenClaw在調用別的模型時能力大不如前,其原因,就是它後來調用的模型在能力上與Claude存在較大差距。
當然,如果像一些人那樣,認為“OpenClaw只是一個殼,本身毫無意義”,這也不客觀。作為一個代理,它仍然可以幫助人們做到很多在直接調用大模型時難以實現的功能。
首先,由於Open Claw可以部署在本地,所以在獲得權限的前提下,它可以直接對本地電腦進行操作,並對硬件進行管理,這就好像讓AI智能體長出了手腳。相比之下,AI大模型以及部署在雲端的智能體(如早期的Manus),則即使再聰明,也對本地硬件鞭長莫及。需要指出的是,這種操作本地硬件的便利也是有代價的,這意味著它可能帶來的風險也更高。而相比之下,通過雲端調用大模型,或者將智能體部署在雲端,則相當於天然安裝了一個“沙盒”,在安全性上更有保障。
其次,OpenClaw能夠擁有大模型所不具備的長期記憶。在使用大模型時,我們經常會遇到一種情況:在之前的一個對話中,我們對其提出了很多要求,並且在那個對話中,它也照辦了。但一旦換一個對話,它就會完全忘記這些要求,需要我們重新提示。而OpenClaw則構建了一套外部化的長期記憶機制,將用戶偏好、任務結果、錯誤經驗等關鍵內容寫入外部存儲,並在後續任務中將其注入到上下文中。這樣一來,OpenClaw就具備了長期記憶,不用我們反復叮囑。
再次,OpenClaw還可以通過Skill文件不斷擴展能力。所謂Skill文件,可以理解為一份標准化的任務說明,開發者可以把工作流程寫進去,供智能體後續直接調用。由於這些Skill還可以分享和復用,因此一只“龍蝦”學到的新本領,也可以快速復制給其他“龍蝦”。在此基礎上,OpenClaw還能通過任務循環不斷重復規劃與執行,從而持續工作直到任務完成。相比之下,AI大模型則更多只能提供建議,而很難直接完成各項工作。
通過以上分析可以說,如果把AI大模型比作一個顧問,那麼OpenClaw就是一個代理人,更像一個可以交代事務的下屬。你不再需要一步步操作,而是說一句“幫我做一個競品分析”,它就開始自己查資料、整理數據、生成報告。這種體驗確實新鮮,而且在一些場景下確實有效。但問題也恰恰出在這裡:把“可以幹活”誤解為“什麼都能幹”,是關於OpenClaw最常見的誤判。
首先,它並沒有變得更聰明。OpenClaw本身並不包含新的認知能力,能力上限仍然取決於背後的大模型。如果模型本身在推理、理解或生成上存在局限,那麼無論外層的代理結構多麼復雜,最終表現都不會突破這個上限。換言之,“龍蝦”能做到什麼,很大程度上取決於你接入的是哪個模型,而不是它自身“進化”出了什麼新智能。
其次,它會行動,並不等於它真正理解。它確實可以拆解任務、執行步驟,但這種拆解往往是基於語言概率生成的,而不是穩定、嚴謹的規劃能力。因此,在復雜任務中,它很容易走偏,比如重復操作、誤解目標,甚至陷入循環。一旦出現這樣的情況而不及時幹預,那麼用戶除了得到一張金額不菲的詞元費賬單外,很可能無法得到任何有效結果。
點個贊吧!您的鼓勵讓我們進步
這條新聞還沒有人評論喔,等著您的高見呢
“龍蝦”是什麼?不是什麼?
通過上述對OpenClaw產生史的簡要回顧,我們不難看到,OpenClaw本質上就是在用戶的計算機與AI大模型之間的一個代理層,自身其實沒有什麼能力。自媒體上所看到的各種能力,歸根到底還是來自大模型,它能做的,只是幫助人去調動這些模型。所以,一個“龍蝦”厲害不厲害,還是要看接入它的模型到底怎麼樣。事實上,在被迫與Claude“分手”之後,就有很多用戶反映,OpenClaw在調用別的模型時能力大不如前,其原因,就是它後來調用的模型在能力上與Claude存在較大差距。
當然,如果像一些人那樣,認為“OpenClaw只是一個殼,本身毫無意義”,這也不客觀。作為一個代理,它仍然可以幫助人們做到很多在直接調用大模型時難以實現的功能。
首先,由於Open Claw可以部署在本地,所以在獲得權限的前提下,它可以直接對本地電腦進行操作,並對硬件進行管理,這就好像讓AI智能體長出了手腳。相比之下,AI大模型以及部署在雲端的智能體(如早期的Manus),則即使再聰明,也對本地硬件鞭長莫及。需要指出的是,這種操作本地硬件的便利也是有代價的,這意味著它可能帶來的風險也更高。而相比之下,通過雲端調用大模型,或者將智能體部署在雲端,則相當於天然安裝了一個“沙盒”,在安全性上更有保障。
其次,OpenClaw能夠擁有大模型所不具備的長期記憶。在使用大模型時,我們經常會遇到一種情況:在之前的一個對話中,我們對其提出了很多要求,並且在那個對話中,它也照辦了。但一旦換一個對話,它就會完全忘記這些要求,需要我們重新提示。而OpenClaw則構建了一套外部化的長期記憶機制,將用戶偏好、任務結果、錯誤經驗等關鍵內容寫入外部存儲,並在後續任務中將其注入到上下文中。這樣一來,OpenClaw就具備了長期記憶,不用我們反復叮囑。
再次,OpenClaw還可以通過Skill文件不斷擴展能力。所謂Skill文件,可以理解為一份標准化的任務說明,開發者可以把工作流程寫進去,供智能體後續直接調用。由於這些Skill還可以分享和復用,因此一只“龍蝦”學到的新本領,也可以快速復制給其他“龍蝦”。在此基礎上,OpenClaw還能通過任務循環不斷重復規劃與執行,從而持續工作直到任務完成。相比之下,AI大模型則更多只能提供建議,而很難直接完成各項工作。
通過以上分析可以說,如果把AI大模型比作一個顧問,那麼OpenClaw就是一個代理人,更像一個可以交代事務的下屬。你不再需要一步步操作,而是說一句“幫我做一個競品分析”,它就開始自己查資料、整理數據、生成報告。這種體驗確實新鮮,而且在一些場景下確實有效。但問題也恰恰出在這裡:把“可以幹活”誤解為“什麼都能幹”,是關於OpenClaw最常見的誤判。
首先,它並沒有變得更聰明。OpenClaw本身並不包含新的認知能力,能力上限仍然取決於背後的大模型。如果模型本身在推理、理解或生成上存在局限,那麼無論外層的代理結構多麼復雜,最終表現都不會突破這個上限。換言之,“龍蝦”能做到什麼,很大程度上取決於你接入的是哪個模型,而不是它自身“進化”出了什麼新智能。
其次,它會行動,並不等於它真正理解。它確實可以拆解任務、執行步驟,但這種拆解往往是基於語言概率生成的,而不是穩定、嚴謹的規劃能力。因此,在復雜任務中,它很容易走偏,比如重復操作、誤解目標,甚至陷入循環。一旦出現這樣的情況而不及時幹預,那麼用戶除了得到一張金額不菲的詞元費賬單外,很可能無法得到任何有效結果。
| 分享: |
| 注: | 在此頁中閱讀全文 |
