
具有更強的代碼能力!更長的上下文!免費!
近日,Anthropic公司發(fā)布了他們最新的模型Claude 2,支持200,000 token,可免費使用。
Anthropic公司是由OpenAI前研究副總裁Dario Amodei等人在2021年創(chuàng)建,該公司還得到了谷歌、Salesforce和Zoom等公司的投資,目前估值為 41 億美元。今年5月,Anthropic便是受邀參加白宮會議的四家人工智能公司之一,其他三家分別為谷歌、微軟和OpenAI。
Claude 2 相對于ChatGPT的優(yōu)勢——
1、Claude 2 比 GPT-4 便宜5倍。
2、Claude 2 有更新的數據。這些數據是網站、第三方授權的數據集以及2023年初用戶自愿提供的數據的混合。
3、Claude 2 在 GRE 寫作和 HumanEval 編程基準測試上表現優(yōu)于 GPT-4。
4、Claude 2 上下文窗口有100,000個token,是所有商業(yè)模型中最大的。
5、Claude 2 可以分析大約75,000個單詞,大約是一本書的長度;相比之下,ChatGPT 可一次性處理 3,000 個單詞的文本,而 GPT 4 則可以處理 25,000 個單詞的文本。
6、Claude 2 可以輕松處理任何與代碼相關的任務。
網友實測Claude 2 的代碼功能:

網友實測Claude 2 的文檔總結功能:

Claude 2技術論文:https://arxiv.org/abs/2212.08073
一直以來 Llama 可以說是 AI 社區(qū)內最強大的開源大模型。但因為開源協(xié)議問題,一直不可免費商用。7月19日,Meta 終于發(fā)布了免費可商用版本 Llama 2。
此次 Meta 發(fā)布的 Llama 2 模型系列包含 70 億、130 億和 700 億三種參數變體。相比于 Llama 1,Llama 2 的訓練數據多了 40%,上下文長度也翻倍,并采用了分組查詢注意力機制。具體來說,Llama 2 預訓練模型是在 2 萬億的tokens 上訓練的,精調 Chat 模型是在 100 萬人類標記數據上訓練的。

在幾乎所有基準上,Llama 2 70B 的結果均與谷歌 PaLM (540B) 持平或表現更好,不過與 GPT-4 和 PaLM-2-L 的性能仍存在較大差距。

Llama 2技術論文:
https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/
7 月 7 日,在開發(fā)者大會 2023(Cloud)上,華為重磅發(fā)布盤古大模型 3.0,將圍繞行業(yè)重塑、技術扎根、開放同飛三大創(chuàng)新方向,為行業(yè)客戶、伙伴及開發(fā)者提供更好的服務。

模型聚焦三層架構,賦能千行百業(yè)——
L0 層包括NLP、視覺、多模態(tài)、預測、科學計算五個基礎模型,提供滿足行業(yè)場景中的多種技能需求。盤古3.0 提供了100 億、380 億、710 億和1000 億參數等基礎大模型,以匹配不同場景、時延、響應速度的行業(yè)多樣化需求。
L1 層是多個行業(yè)大模型,華為云既可以提供使用行業(yè)公開數據訓練的行業(yè)通用大模型,包括政務,金融,制造,礦山,氣象等大模型;也可以基于行業(yè)客戶的自有數據,在盤古大模型的L0 和L1 層上,為客戶訓練自有的專用大模型。
L2 層提供了更多細化場景的模型,更專注于政務熱線、網點助手、先導藥物篩選、傳送帶異物檢測、臺風路徑預測等具體行業(yè)應用或特定業(yè)務場景,為客戶提供“開箱即用”的模型服務。
7月19日,IDC發(fā)布《AI大模型技術能力評估報告,2023》,IDC對其中9家技術服務提供商進行了技術評估,分別為阿里巴巴、百度、第四范式、科大訊飛、瀾舟科技、云從科技、智譜AI、中國電信智科以及中科聞歌。
9家大模型技術能力綜合評分:

另外,百度文心大模型、阿里巴巴通義大模型、科大訊飛星火大模型、智譜AI大模型在通用能力上表現滿分。“通用能力”指標反映的是大模型的整體技能,包括語音識別、語音合成等自然語言處理;圖片生成、圖片搜索等計算機視覺;機器學習/深度神經網絡等底層技術能力的差異化優(yōu)勢;意圖識別、泛化能力、知識庫構建能力等。
主流大模型各項指標評分:

早前,沙利文根據AI大模型在產品技術能力、戰(zhàn)略愿景能力、生態(tài)開放能力三個維度的綜合表現對比相關廠商的綜合競爭力,評分靠前的依次為商湯(SenseCore 商湯 AI 大裝置 + 商湯日日新 SenseNova大模型體系)、百度(AI 大底座+文心大模型)、阿里(M6-OFA +“通義”大模型)、華為(ModelArts + 盤古大模型)、騰訊(HCC 高性能計算集群+混元大模型):
