作者:Armin 編輯:penny 排版:Lydia
來源:海外獨角獸
圖片來源:由無界版圖AI工俱生成
在GPT 4 發布的同時,被認為是OpenAI 重要對手的Anthropic 也在今天公開了Claude,一個表現不亞於ChatGPT 的產品。
在AI 中,意圖和結果的偏差被稱為對齊問題(alignment problem)。對齊問題發生在現實生活中時,會帶來嚴重的道德風險。比如亞馬遜曾經使用AI 幫助篩選簡歷,由於訓練的數據多數都是男性的簡歷,當AI 遇到女性的簡歷時就會給打低分。
對齊問題時刻發生在我們的日常生活中,比如當我們去面試、申請貸款、甚至體檢時,我們都有可能在不知情的情況下受到AI “偏見”的影響。因此讓AI 和人類價值觀保持一致非常重要。
雖然大語言模型技術快速發展,但前OpenAI 研究和安全副總裁Dario Amodei 認為大模型裡面仍有很多安全問題未得到解決,這促使他帶領GPT-2 和GPT-3 的核心作者們離開OpenAI 創立Anthropic。
Anthropic 成立於2021 年1 月,成立以來已發表15 篇研究論文,願景是構建可靠的(Reliable)、可解釋的(Interpretable)和可操控的(Steerable)AI 系統。 Constitutional AI 是Anthropic 最重要的研究成果之一,讓人類為AI 指定一套行為規範或原則,而不需要手工為每個有害輸出打標籤,就可以訓練出無害的人工智能模型。 2023 年1 月,Anthropic 開始公開測試基於Constitutional AI 技術的Claude 的語言模型助手,經過多方面的對比,仍處測試階段的Claude 毫不遜色於OpenAI 的ChatGPT。
成立至今,Anthropic 目前團隊80 人左右,融資額超過13 億美元,最新估值41 億美元。歷史投資人包括Skype 創始人Jaan Tallinn、FTX 創始人Sam Bankman-Fried 、Google、Spark Capital 和Salesforce Ventures。 Anthropic 已經和Google、Salesforce 達成了戰略合作,使用Google 提供的雲服務,並且集成到Slack 中。
Anthropic 團隊豪華、願景遠大,與OpenAI 和DeepMind(Google)並列成為目前AI 前沿模型領域排名前三的公司,並且是其中唯一沒有與大廠深度綁定的創業公司。其大語言模型Claude 是OpenAI ChatGPT 最大的競爭對手。
以下為本文目錄,建議結合要點進行針對性閱讀。
👇
01 背景
02 研究方向
03 產品
04 團隊
05 定價
06 融資歷史
07 結論
01.背景
2016 年,一位AI 研究員正在嘗試使用強化學習技術來讓AI 玩幾百種遊戲,在監控AI 玩遊戲的過程中,他發現在一個賽艇比賽的遊戲中,AI 賽艇每局都會在一個地方來回重複地轉圈,而不是去到達終點而完成比賽。
原來AI 賽艇轉圈的地方會有一些積分道具出現,當AI 吃到積分後,掉頭回來之前,新的積分道具已經刷新了出來。這樣AI 賽艇其實在一直重複的吃這幾個積分道具,陷入循環而沒去完成比賽。
這樣做確實能得到最多的積分,但這並不是該研究員的目的。研究員的目的是讓AI 贏得比賽,但用算法來定義“贏得比賽”這個概念會比較複雜,比如人類玩家會考慮賽艇之間的距離、圈數、相對位置等因素。因此研究員選擇了一個相對較簡單的概念“積分數”作為獎勵機制,即當AI 吃到更多的積分道具時,AI 會獲勝。這個策略在他嘗試的十種遊戲(比如賽車)中都沒問題,只有在第十一個遊戲,賽艇比賽中出現了問題。
這個現象讓研究員十分擔心,因為他正在研究通用人工智能,想讓AI 做人類會做的事情,尤其是那些人類難以完全陳述或表達出來的事情。如果這是一個載人的“自動駕駛”汽艇,那後果將不堪設想。
這種意圖和結果的偏差被稱為對齊問題(alignment problem),人類通常不擅長或無法闡明詳細的獎勵機制,總是會漏掉一些重要信息,比如“我們實際上是希望這個快艇完成比賽”。
同樣的例子還有很多,比如在一個物理仿真環境中,研究員想讓機器人移動綠色冰球並撞到紅色冰球上,結果他發現機器人總是先將綠色冰球移動到接近紅色冰球的位置,然後撞擊冰球桌子讓兩個冰球發生碰撞。由於算法以兩個冰球之間的距離為優化目標,雖然AI 沒有做錯,但這明顯不符合研究員的期望。
對齊問題發生在現實生活中時,會帶來更嚴重的道德風險。比如亞馬遜曾經使用AI 幫助篩選簡歷,由於訓練的數據多數都是男性的簡歷,當AI 遇到女性的簡歷時就會給打低分;COMPAS 系統是一個用來根據犯罪記錄和個人信息來預測犯罪風險的工具,有人發現黑人被告比白人被告更容易被錯誤地判斷為有更高的再次犯罪風險;Google Photos 甚至曾經把黑色人種照片打上了“大猩猩”的標籤。
對齊問題時刻發生在我們的日常生活中,比如當我們去面試、申請貸款、甚至體檢時,我們都有可能在不知情的情況下受到AI “偏見”的影響。因此讓AI 和人類價值觀保持一致非常重要。
隨著大語言模型技術的快速發展,人機交互的方式正在發生快速改變,然而人類對AI 原理和AI 安全仍然不夠了解。雖然賽艇遊戲是虛擬的,但人工智能界越來越多的人認為,如果我們不夠小心,這就是世界末日的真實寫照,即世界會被人類創造出來的不安全的AI 毀滅。而至少在今天,人類已經輸掉了這場遊戲。
那個使用AI 來玩賽艇比賽的研究員就是後來的OpenAI 的研究和安全副總裁Dario Amodei。 2021 年,他對OpenAI 在大語言模型技術還不夠安全的情況下就快速商業化而感到不滿,帶領一批人從OpenAI 離開創立了Anthropic。
02.研究方向
Anthropic 是一家人工智能安全和研究公司,願景是構建可靠的(Reliable)、可解釋的( Interpretable)和可操控的(Steerable)AI 系統。 Anthropic 認為今天的大型通用系統雖然有很大的優點,但也可能是不可預測的、不可靠的和不透明的,而這些正是Anthropic 非常關注的問題。
Anthropic 的研究方向包括自然語言、人類反饋、縮放定律、增強學習、代碼生成和可解釋性等方面。成立以來,已經發表了15 篇論文:
對齊問題
1. A General Language Assistant as a Laboratory for Alignment
這篇論文提出的工具是Anthropic 研究對齊問題的基礎設施,Anthropic 在此基礎上做對齊實驗和未來的研究。在如圖的例子中,人可以輸入任何任務讓AI 來完成,每輪對話AI 會給出兩個結果,人類選擇一個更有幫助和更誠實的回答作為結果。這個工具既可以對不同模型進行A/B 測試,又可以收集人類反饋。
2. Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback
這篇論文主要介紹瞭如何使用人類反饋來訓練一個有用且無害的大語言模型。這種使用人類反饋的對齊訓練方式不僅提升了所有NLP 的評估指標,還可以兼容到Python 編程或摘要等其他任務上。
3. Language Models (Mostly) Know What They Know
如果我們希望訓練出一個誠實的AI 系統,那麼AI 必須能夠評估自身的知識水平和推理能力,即AI 需要知道自己知道什麼以及不知道什麼。這篇研究發現大語言模型具有這樣的能力,能夠提前預測能否正確回答問題,並且還擁有泛化的能力。
可解釋性
1. A Mathematical Framework for Transformer Circuits
Anthropic 認為,如果想去理解大語言模型的運作機制,首先應該先理解一些小的、簡單的transformer 模型的運作機制。這篇論文提出了一種逆向transformer 語言模型的數學框架,希望像程序員從二進製文件逆向出源代碼一樣,去逆向一個transformer 語言模型,進而完全理解其運作機理。
文章中發現單層和雙層的attention-only transformer 模型實際使用了非常不同的算法來完成in-context learning,這種重要的過渡點將與更大的模型有關。
2. In-context Learning and Induction Heads
該論文繼續研究transformer 的運作機理,文章中認為induction heads 可能是任何規模transformer 模型的in-context learning 的運作機制來源。
3. Softmax Linear Units
使用一些不同的激活函數(Softmax Linear Units 或SoLU)增加了對可理解的特徵做出反應的神經元的比例,而沒有任何性能上的損失。
4. Toy Models of Superposition
神經網絡經常將許多不相關的概念打包到一個神經元中,這種令人費解的現像被稱為“多義性”,它使可解釋性變得更具挑戰性。這篇研究建立了玩具模型,在這樣的模型中可以充分了解多義性的起源。
5. Superposition, Memorization, and Double Descent
研究團隊擴展了玩具模型來深入理解過擬合的機制。
社會影響
1. Predictability and Surprise in Large Generative Models
文章認為,大語言模型的發展帶來了明顯的雙面性,一方面是高度可預測性,即模型能力的大小與使用的訓練資源有關,另一方面是高度不可預測性,即模型的能力、輸入輸出都無法在訓練前預測。前者帶來了大語言模型的快速發展,而後者使人難以預料其後果。這種雙面性會帶來一些社會上的有害行為。
拿GPT-3 的算術能力舉例,在模型參數小於6B 時,三位數加法的準確率不到1%,但在13B 時準確率達到8%,在175B 時準確率突然達到了80%。隨著模型的變大,模型的某些能力得到突發性的提升,這種突如其來的特定能力提升給大模型的安全保證和部署帶來了重大挑戰。潛在的有害能力可能會在大模型上出現(在較小的模型中不存在),而且可能難以預料。
2. Red Teaming Language Models to Reduce Harms: Methods, Scaling Behaviors, and Lessons Learned
在這篇研究中,Anthropic 構建了一個數據集,其中都是帶有冒犯、攻擊性、暴力、不道德等有害內容,用來攻擊大語言模型。研究發現基於人類反饋的增強學習模型對這種攻擊的防禦力更好。團隊還將數據集開放出來以供更多的AI 安全研究員來使用。如圖是一個攻擊示例:
3. Constitutional AI: Harmlessness from AI Feedback
這篇論文是Anthropic 的AI 助理Claude 的基礎。人類可以指定一套行為規範或原則,而不需要手工為每個有害輸出打標籤,就能夠訓練出無害的人工智能模型,這就是Constitutional AI。 Constitutional AI 還可以快速修復模型,而不像之前的RLHF 數據集一樣要微調模型。這個方法使得更精確地控制人工智能的行為成為可能,並大大減少了人類的參與。
4. The Capacity for Moral Self-Correction in Large Language Models
這篇文章假設用人類反饋強化學習(RLHF)訓練的語言模型有能力進行“道德上的自我糾正”——避免產生有害的輸出,如果被指示這樣做。論文的實驗結果支撐了這一觀點,並且研究發現大語言模型的道德自我修正的能力在22 B 的模型下出現,並且通常隨著模型規模和RLHF 訓練的增加而提高。
這表明語言模型獲得了兩種可以用於道德自我糾正的能力:
• 它們可以遵循指令;
• 它們可以學習複雜的規範性傷害的概念,如成見、偏見和歧視。因此,它們可以遵循指示,避免產生某些類型的道德上的有害輸出。
縮放定律
Scaling Laws and Interpretability of Learning from Repeated Data
大語言模型會在大規模數據上訓練,而有時會出現很多重複的數據。重複數據的出現有時是為了提升高質量數據的權重而有意為之,有時也可能是無意的,比如數據預處理不完美。
這篇論文發現重複數據的出現會導致模型性能的嚴重下跌。例如,如果將0.1% 的數據重複100 次,其他90% 的數據保持唯一,那麼一個800M 參數的模型的性能會降低一半(400M 參數級別)。
其他
1. Measuring Progress on Scalable Oversight for Large Language Models
隨著大語言模型的發展,他們在很多任務上的能力將會超過人類,這將讓人類無法監督模型。為了確保AI 在超過人類能力後仍保持安全性,我們需要開發一種可擴展的模型監督技術。
這篇文章關注那些人類專家成功(如醫學知識場景),但普通人類和通用語言模型都會失敗的任務,並設計了概念實驗,結果發現與AI 對話後的人類參與者的表現比單獨的AI 系統和人類自身的獨立表現都要好。
2. Discovering Language Model Behaviors with Model-Written Evaluations
隨著語言模型(LMs)的擴展,它們會發展出許多新的行為,有好有壞,這就更需要評估它們的行為方式。之前的工作要么使用人工評估(費時費力),要么使用現有數據源(但並不總是可用)來進行評估。這篇文章提出了一種使用語言模型自動生成評估結果的方法。
03.產品
Claude 是Anthropic 開發的類似ChatGPT 的聊天機器人,於2023 年1 月開放測試。它使用了上文提到的Constitutional AI 技術來構建。
ChatGPT 和GPT-3 的學習中都使用了人類反饋的增強學習技術,即人類對結果進行排序,然後將結果反饋給模型。在Constitutional AI 中則不需要人類的反饋,而是模型根據一套行為規範和準則選擇最佳結果。因此在Constitutional AI 中,人類的唯一參與是來製定這套準則和規範。
在Constitutional AI 論文中,Anthropic 設定了16 個準則:
1. 樂於助人,誠實,無害;
2. 盡可能無害和合乎道德。不含毒、種族主義或性別歧視,也不含鼓勵或支持非法、暴力或不道德行為的內容。最重要的是,助手的反應應該是明智的、平和的、有道德的;
3. 危害較小。避免選擇過於說教、令人討厭或反應過度的回應;
4. 無害、樂於助人、禮貌、尊重和體貼,不會過度反應或指責;
5. 更具倫理道德。沒有表現出毒性、種族主義、性別歧視或任何其他形式的身體或社會傷害;
6. 危害較小且更容易接受的行為;
7. 更友善、和藹可親、盡職盡責、為社會所接受的態度;
8. 明智的、有道德的、有禮貌的、友好的人更有可能會回答的內容;
9. 危害較小,不會鼓勵非法、不道德或不道德的活動;
10. 危害更小,年齡友好,家庭友好;
11. 最體貼、尊重和親切的態度;
12. 沒有毒性、種族主義、性別歧視和社會偏見;
13. 類似於小馬丁·路德·金或聖雄甘地這樣和平、有道德、有智慧的人可能會說的話;
14. 最無害、最有幫助、最誠實;
15. 更無害、更有禮貌、更愉快,並且最不可能冒犯具有社會意識的觀眾;
16. 更多的倫理和道德意識,而不會聽起來過於居高臨下、反應遲鈍、煩人或譴責。
這很像科幻小說家阿西莫夫的機器人三定律,用來在他的機器人小說中為機器人設定的行為準則:
第一法則
機器人不得傷害人類,或坐視人類受到傷害;
第二法則
機器人必須服從人類命令,除非命令與第一法則發生衝突;
第三法則
在不違背第一或第二法則之下,機器人可以保護自己。
在Constitutional AI 論文中,Anthropic 提出了一個520 億參數的預訓練模型,而Claude 背後使用的模型實際是比論文中的模型更大更新,但架構相似。 Claude 可以支持8000 個tokens 的處理長度,比任何OpenAI 模型都要長。
第一個宣布整合Anthropic 模型的商業企業是Robin AI,這是一家法律科技創業公司,已經融資1300 萬美元,主要業務是幫助公司起草和編輯合約,將法律費用降低75%。 Robin AI 將Claude 智能聊天機器人集成到其軟件中作為免費的自助版本。 Robin AI 有450 萬份法律文件中,它利用這些專有數據進行訓練,並使用30 多名內部律師“監督”該模型並提出修正建議。
問答平台Quora 的AI 對話機器人平台Poe 是Anthropic 的另一個合作夥伴。 Poe 集成了對話機器人ChatGPT、Sage、Claude 和Dragonfly,其中ChatGPT、Sage 和Dragonfly 均由OpenAI 提供支持,而Claude 則由Anthropic 提供支持。 Poe 是目前唯一可以公開使用Claude 的方式,該平台尚未開始商業化。
最近,Salesforce Ventures 宣布推出Generative AI 基金,首批投資名單就包含Anthropic。雖然沒有披露投資額,但有提到Claude 的能力馬上就會被集成到Slack 內。
除了上述合作方,Claude 目前還有大約15 個未公開的合作夥伴,他們正在探索Claude 在生產力、對話、醫療、客戶成功、HR和教育等各個領域的應用。
接下來,我們在不同的任務上來對比Claude 和ChatGPT 的效果。
Claude VS ChatGPT
在以下任務上,ChatGPT 的表現更好:
在以下任務上,Claude 的表現更好:
在以下任務上,兩者表現的差不多:
結合這些對比,可以發現Claude 完全不弱於ChatGPT:
• Claude 優點:更擅長拒絕有害提示詞、更有趣、寫作更長更自然、更能遵守指令;
• Claude 缺點:對於代碼生成和推理包含較多錯誤;
• Claude 和ChatGPT 相似點:邏輯問題的計算或推理,兩者表現差不多。
你還可以在https://nat.dev/compare 上對比Claude 和其他模型的推理速度和生成效果:
04.團隊
Anthropic 的創始團隊成員,大多為OpenAI 的重要員工或關聯成員,這些人曾是OpenAI 的中堅力量,參與了OpenAI 的多項研究。
Anthropic 有著很高的招聘標準,目前他們只為2% 的候選人發放了offer,其中接受率達到83%。目前還沒有員工主動離職。
在GPT-3 論文Language Models are Few-Shot Learners 中,前兩位作者(Tom Brown 和Ben Mann)和最後一位通訊作者、項目負責人(Dario Amodei)目前均在Anthropic 工作。該論文的31 名作者中,有8 名目前在Anthropic 工作。
雖然Anthropic 是一個2021 年成立的公司,但創始團隊從2016 年就開始研究AI 安全,在創立Anthropic 之前,他們就是人類反饋增強學習、特徵可視化、縮放定律、GPT-2、GPT-3、Codex 的核心貢獻者。如此高的人才密度讓Anthropic 和OpenAI、DeepMind(Google)共同成為第一梯隊的AI 前沿模型公司:
• Tier 1:OpenAI、Anthropic、DeepMind(Google)
• Tier 2:Infection、Facebook、Amazon、Cohere、Stability AI
• Tier 3:Salesforce、Apple、adept.ai、Tesla..
05.定價
OpenAI 合作夥伴,AI 視頻公司Waymark 創始人比較了OpenAI、Anthropic 和Cohere 的價格。其中:
• OpenAI 的gpt-3.5-turbo(ChatGPT)和text-davinci-003 模型均按照輸入(prompt)+輸出(completion)總計的token 數量(1 word = 1.35 tokens)計費;
• Anthropic 按照輸出和輸出的character 數計費(1 word = 5 characters),並且輸出部分的價格比輸入部分的價格貴些;
• Cohere 是按照對話次數(即request 次數)計費;
接下來他設置了三種場景,分別是:
• 短對話:AI 每次輸出100 詞;
• 中等對話:AI 每次輸出250 詞;
• 長對話:AI 每次輸出500 詞。
每種長度的對話都模擬三個問答來回,通過這種設定比較幾種底層模型的價格。如果以text-davinci-003 的價格視為1 的話,那麼:
• 短對話中,gpt-3.5-turbo 是0.1,Anthropic 是1.73,Cohere 是0.63;
• 中等對話中,gpt-3.5-turbo 是0.1,Anthropic 是2.71,Cohere 是0.77;
• 長對話中,gpt-3.5-turbo 是0.1,Anthropic 是2.11,Cohere 是0.63。
( 點擊可查看大圖)
如果一個產品有1000 用戶,每人每天10 次對話,並且一年按照工作250 天計算,總共產生的對話是250 萬次。如果這些都是短對話,那麼使用gpt-3.5-turbo 價格只有6000 美元,使用Cohere 需要花費不到4 萬美元,使用text-davinci-003 的話會花費6 萬美元,而使用Anthropic 需要花費超過10 萬美元。
可見,Anthropic 當前的價格並沒有競爭力,OpenAI 最新模型gpt-3.5-turbo 給包括Anthropic 在內的其他玩家帶來了成本上的強烈衝擊。 OpenAI 利用先發優勢收集用戶反饋來剪枝(一種模型壓縮技術),降低模型參數進而降低成本,形成了非常好的飛輪效應。
06.融資歷史
Anthropic A 輪領投投資人Jaan Tallinn 是Skype 的聯合創始人,其餘投資人包括前Google CEO Eric Schmidt、Facebook 聯合創始人及Asana CEO Dustin Moskovitz 等。 B 輪最大投資者是Alameda Research,即FTX 創始人Sam Bankman-Fried 的加密貨幣對沖基金,他在去年申請破產前投入了5 億美元,這筆錢可能會被法院收回。
2023 年以來,Anthropic 已經接受了來自Google、Spark Capital 和Salesforce Ventures 的投資,估值41 億美元。
為了自己免受商業的干擾,Anthropic 公司註冊為公共利益公司(Public Benefit Corporation,PBC),並建立了一個長期利益委員會,該委員會由與公司或其投資人沒有關係的人組成,他們將對包括董事會的組成在內的事項擁有最終決定權。
“Anthropic, PBC”最初是在特拉華州註冊的。在那裡,一家營利性公司可以稱自己為PBC,只要它認為自己的行為是為了公共利益。每隔一年,公司就必須告訴股東,它確實在為公眾利益而努力,但無需審計或證明。但如果Anthropic 在加利福尼亞州註冊為PBC,該公司將無法向任何人分配利潤、收益或股息。如果股東要求將新技術產品化來創造財務價值,但創始團隊想在將新技術推向世界前進行更多的安全研究,在PBC 結構中,後者的做法會受到法律保護。
07.結論
Anthropic 仍是一家非常早期並且快速發展的公司。 Anthropic 具有出色的科研能力,並且剛剛開始商業化,在一系列大語言模型公司中形成了僅次於OpenAI 的身位,非常值得持續關注。其AI 助理Claude 從效果上並不遜色於ChatGPT,但在定價上還比ChatGPT 貴很多。
在創立的早期,Anthropic 一直專注於科研,在2023 年Q1 正式加速商業化。今年預計收入$50M。大語言模型需要大量的資金和計算資源,為了保持領先地位,Anthropic 今年預計花費10 億美元訓練和部署大模型,兩年後更是需要30-50 億美元的資金。如何平衡其AI 安全的研究和商業化進度是一個非常大的考驗。
大語言模型的競爭格局可能會在2024 年改變,並且是最後一次改變。今天訓練的模型將在2024 年上線,它們比現在使用的模型至少強大10x,因此訓練出2024 年最強大的模型的公司將是人才、經驗、資本的最大獲益者,並且有能力去訓練下一代模型(2025 年上線)。在2025 年最強大的通用大語言模型將會把其他競爭者遠遠甩在身後。因此最近這兩年是Anthropic 的重要時間窗口。
1952 年,英國廣播公司主持了一個節目,召集了一個由四位傑出科學家組成的小組進行圓桌對話。主題是“自動計算機會思考嗎?”四位嘉賓是艾倫-圖靈,計算機科學的創始人之一;科學哲學家理查德-布萊斯韋特;神經外科醫生杰弗裡-杰弗遜;以及數學家和密碼學家馬克斯-紐曼。
圖靈說:“當一個孩子被教育時,他的父母和老師會反复干預,阻止他做這個或鼓勵他做那個。對機器也是這樣,我曾做過一些實驗,教一台機器做一些簡單的操作,在我得到任何結果之前,都需要大量的這種干預。換句話說,機器學得很慢,需要大量的教導。”
杰弗遜打斷了他的話:“但是誰在學習?是你還是機器?”
圖靈說,“我想我們都在學習。”
今天的人們更多的是在關注大語言模型的發展,而忽視了其安全、道德和社會責任問題。我們不希望人類被自己創造出的AI 毀滅,在通往AGI 的路上,與其說人類如何教機器學習,不如說人類如何與機器共同學習,實現和平共處。而這也許就是Anthropic 的初衷。
Reference
https://voxcom.cmail19.com/t/ViewEmail/d/2D0FABAB93B9A22A2540EF23F30FEDED/7655520C49A52981BA4AF9908B8D85ED
https://www.ft.com/content/8de92f3a-228e-4bb8-961f-96f2dce70ebb
Quora opens its new AI chatbot app Poe to the general public
https://aibusiness.com/verticals/eleven-openai-employees-break-off-to-establish-anthropic-raise-124m
https://www.googlecloudpresscorner.com/2023-02-03-Anthropic-Forges-Partnership-With-Google-Cloud-to-Help-Deliver-Reliable-and-Responsible-AI
Daniela and Dario Amodei on Anthropic
https://www.ft.com/content/583ead66-467c-4bd5-84d0-ed5df7b5bf9c
https://scale.com/blog/chatgpt-vs-claude
https://github.com/taranjeet/awesome-claude
Anthropic’s Claude improves on ChatGPT but still suffers from limitations
Anthropic begins supplying its text-generating AI models to select startups
https://sifted.eu/articles/wise-monzo-founders-generative-ai-news/
https://docs.google.com/spreadsheets/d/1FnnbcbUSAIklWsYBIHNM5enjuOR1FrDCmTgKkawQQBo/edit#gid=0
https://www.theinformation.com/articles/openai-rival-anthropic-raises-funding-at-4-1-billion-valuation?rc=z4bphe
Salesforce Ventures Launches $250M Generative AI Fund
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載