如有侵權(quán)請聯(lián)系刪除,謝謝!

藍鯨新聞1月7日訊(記者 朱俊熹)當?shù)貢r間1月7日,為期4天的“科技春晚”CES 2025拉開帷幕。在一眾演講嘉賓中,打頭陣的是芯片巨頭英偉達的創(chuàng)始人兼CEO黃仁勛。他身著材質(zhì)亮眼、浮夸的皮衣登臺,笑稱這畢竟是在拉斯維加斯,還詢問觀眾是否喜歡他的皮夾克,現(xiàn)場氣氛熱烈。
美股開盤后,英偉達股價再創(chuàng)新高,報153.05美元/股。公司市值達3.74萬億美元,超越蘋果登頂全球市值最高的公司。而這只是英偉達過去幾年輝煌業(yè)績的一個切面,憑借其高性能GPU芯片,英偉達已成為AI浪潮的最大受益者。其增長趨勢在新的一年未見放緩,微軟等巨頭新財年預(yù)計將繼續(xù)投入800億美元在AI數(shù)據(jù)中心的建設(shè)上。
在CES主題演講中,黃仁勛帶來了備受期待的GeForce RTX 50系列GPU。該系列消費級GPU主要面向游戲玩家、創(chuàng)作者和開發(fā)者,采用了與其數(shù)據(jù)中心AI處理器相同的Blackwell架構(gòu)。英偉達稱,Blackwell融合了AI驅(qū)動的神經(jīng)渲染和光線追蹤,在游戲中帶來電影級的材質(zhì)與燈光。
RTX 50系列售價從549美元到1999美元不等。其中高配置版5090、5080 GPU將于1月30日上市,低配置版5070 Ti、5070 GPU將于2月開始發(fā)售。
黃仁勛還將另一項重磅產(chǎn)品留到了演講的最后——全球最小的AI超級計算機。據(jù)官方現(xiàn)場演示,該款Project DIGITS計算機僅手掌大小,在使用時可放置在桌面上。它面向全球AI研究人員、數(shù)據(jù)科學(xué)家和學(xué)生,由標準電源插座供電,但可提供千萬億次的AI計算性能,用于原型設(shè)計、微調(diào)和運行大型AI模型。
“它基于我們一直在開發(fā)的一款秘密芯片,叫做GB 10,這是我們生產(chǎn)的最小的Grace Blackwell芯片。”黃仁勛介紹稱。Project DIGITS超級計算機將于5月上市,起售價為3000美元。

圖片來源:英偉達截圖
此外,黃仁勛還公布了一系列新的產(chǎn)品與進展,涵蓋AI產(chǎn)業(yè)上下游。例如基于Llama的Llama Nemotron系列AI模型,主要用于幫助開發(fā)者創(chuàng)建和部署AI代理(智能體)。以及包括世界基礎(chǔ)模型在內(nèi)的Cosmos平臺,能夠生成海量逼真的、基于物理的合成數(shù)據(jù),用來訓(xùn)練和評估機器人、自動駕駛汽車等物理AI系統(tǒng)。
黃仁勛每一次亮相都會大談AI信仰、對未來演變的預(yù)見,此次CES也不例外。他提到“AI PC正在來到你家中”、“自動駕駛將可能成為第一個價值數(shù)萬億美元的機器人產(chǎn)業(yè)”、“機器人的ChatGPT時刻即將到來”。而這其中繞不開對英偉達芯片等產(chǎn)品的需求,其基建正在深入汽車、機器人、工業(yè)等多個領(lǐng)域。
以下是黃仁勛演講內(nèi)容節(jié)選,在保證原意下經(jīng)藍鯨新聞刪減調(diào)整。
黃仁勛:
歡迎來到CES!你們來到拉斯維加斯興奮嗎?
你們喜歡我的夾克嗎?我想和Gary Shapiro(消費者技術(shù)協(xié)會首席執(zhí)行官兼副主席)的風(fēng)格相反。畢竟,我在拉斯維加斯。如果這行不通,如果你們都反對,那就習(xí)慣吧。我真心覺得你們得接受這個事實。再過一個小時左右,你們就會喜歡上它了。
回顧非凡的AI旅程
這是一段非凡的旅程,跨越了不平凡的一年,始于1993年。通過NV1,我們的目標是創(chuàng)造一種能做普通計算機做不到的事情的機器。NV1讓在個人電腦中擁有游戲主機成為了可能。我們的編程架構(gòu)叫UDA,后來才加上了字母C,但UDA代表的是統(tǒng)一設(shè)備架構(gòu)。第一個使用UDA的開發(fā)者,以及首個在UDA平臺上運行的應(yīng)用程序,便是世嘉的《VR戰(zhàn)士》。
六年后的1999年,我們發(fā)明了可編程GPU,開啟了20多年的驚人進步。這款革命性的處理器,被稱為GPU,成就了現(xiàn)代計算機圖形學(xué)的基礎(chǔ)。如今30年后,世嘉的《VR戰(zhàn)士》已經(jīng)達到了電影級的水準。而即將發(fā)布的新虛擬項目,更是讓人期待不已,簡直令人難以置信。
1999年之后的六年,我們發(fā)明了CUDA,它使我們能夠以一組豐富的算法來解釋和利用GPU的可編程性,進而實現(xiàn)其潛力。CUDA最初很難解釋,并且花了相當長的時間去發(fā)展,實際上,我們花費了大約六年的時間。直到2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton發(fā)現(xiàn)了CUDA,并利用它進行AlexNet的訓(xùn)練。從那時起,AI的歷史就已發(fā)生了根本性的轉(zhuǎn)變。
自那時以來,人工智能的發(fā)展速度飛快。憑借感知AI,我們能夠理解圖像、文字和聲音;隨著生成式AI的發(fā)展,我們能夠生成圖像、文字和聲音。而現(xiàn)在,代理AI不僅能感知、推理、規(guī)劃,還能行動。接下來,我們將進入下一個階段,其中一些我們今晚將討論的內(nèi)容,便是物理AI。
接著在2018年,發(fā)生了一些不可思議的事情。谷歌發(fā)布了Transformer,這一技術(shù)讓AI領(lǐng)域真正迎來了飛躍。正如大家所知,Transformer徹底改變了人工智能的格局,甚至改變了計算的格局。我們意識到,AI不僅僅是一個新的應(yīng)用領(lǐng)域和商業(yè)機會,更重要的是,Transformer推動的機器學(xué)習(xí)將徹底重塑計算的方式。
如今,計算在各個層面都發(fā)生了革命性變化,從手動編寫的CPU指令,到如今人類使用的軟件工具。我們現(xiàn)在擁有可以創(chuàng)建和優(yōu)化神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí),這些網(wǎng)絡(luò)運行在GPU上,并推動人工智能的進步。技術(shù)棧中的每一層都經(jīng)歷了翻天覆地的變化,短短12年內(nèi),我們見證了不可思議的轉(zhuǎn)型。
如今,我們幾乎可以理解任何形式的信息。你肯定見過文本、圖像和聲音等內(nèi)容,但不僅僅限于這些,我們還能夠理解氨基酸和物理現(xiàn)象。我們可以解讀這些信息,翻譯它們并生成新的內(nèi)容。應(yīng)用的可能性幾乎是無限的。
實際上,幾乎所有AI應(yīng)用都可以通過這三個基本問題來推測:它學(xué)習(xí)時輸入的模態(tài)是什么?它將信息轉(zhuǎn)化成了什么模態(tài)?它正在生成什么模態(tài)的信息?只要你問這三個基本問題,幾乎每一個應(yīng)用的核心都能被揭示。
因此,每當你看到一個又一個以AI為驅(qū)動和核心的應(yīng)用時,始終不變的概念便是:機器學(xué)習(xí)改變了每個應(yīng)用的構(gòu)建方式,改變了計算的方式,甚至超越了GPU本身的可能性。在許多方面,所有這些與AI相關(guān)的技術(shù),都由GeForce構(gòu)建而成。GeForce讓AI走向大眾,而今天,AI正回歸GeForce。

圖片來源:英偉達截圖
算力需求依然迫切,Blackwell全面投產(chǎn)
整個行業(yè)都在追趕并競相擴大AI的規(guī)模。Scaling Law是一個經(jīng)過幾代研究人員與業(yè)界驗證的經(jīng)驗法則。它表明,隨著訓(xùn)練數(shù)據(jù)量的增加、模型規(guī)模的擴大,以及計算能力的提升,AI模型的有效性與能力也將不斷增強。因此,規(guī)模定律的有效性是持續(xù)存在的。
更為驚人的是,互聯(lián)網(wǎng)每年生成的數(shù)據(jù)量大約是上一年數(shù)據(jù)的兩倍。我預(yù)測,在未來幾年,全球人類所生成的數(shù)據(jù)總量將會超過人類歷史上所有數(shù)據(jù)的總和。我們依舊在生成海量數(shù)據(jù),且這些數(shù)據(jù)變得更加多模態(tài),包括視頻、圖像和聲音等。這些數(shù)據(jù)無疑為AI提供了豐富的訓(xùn)練基礎(chǔ)和核心素材。
然而,除了Scaling Law之外,還出現(xiàn)了兩條新的規(guī)模定律,它們各自有著直觀的意義。
第二條Scaling Law被稱為后訓(xùn)練Scaling Law。這條定律依托于強化學(xué)習(xí)和人工反饋等技術(shù)手段?;旧?,AI會根據(jù)人類的查詢生成答案,而人類則給予反饋,從而促進AI在特定領(lǐng)域的能力提升。它們可以在特定領(lǐng)域進行微調(diào),使其更擅長解數(shù)學(xué)題、推理等方面。這個過程就像是學(xué)生在學(xué)校學(xué)習(xí)后,導(dǎo)師或教練給你反饋,幫助你改進自己。
此外,還擁有強化學(xué)習(xí)的AI反饋,以及合成數(shù)據(jù)生成。這些類似于自我練習(xí)時,你知道某個問題的答案,會繼續(xù)嘗試直到答對。AI可能需要解決一個復(fù)雜且可驗證的難題,諸如證明某個定理或解決幾何問題。通過強化學(xué)習(xí),它將學(xué)會如何更好地改進自己。盡管這一過程計算量龐大,但最終能夠產(chǎn)生極為出色的模型。
第三條Scaling Law則與所謂的“測試時間scaling”相關(guān)。測試時間scaling指的是在AI應(yīng)用時,它能夠智能地分配資源,而不僅僅是改進其參數(shù)。AI能夠決定使用多少計算量來生成它想要的答案。
推理就是這種思維方式的一部分。與直接推理或一次性回答不同,AI可能會進行長時間思考,將問題分解為多個步驟,生成不同的思路并加以評估。當前,測試時間scaling已被證明是極其有效的。
隨著這些技術(shù)的逐步發(fā)展,我們能夠看到從ChatGPT o1,再到o3以及Gemini Pro等一系列AI系統(tǒng)的進化。這些系統(tǒng)正在經(jīng)歷從預(yù)訓(xùn)練到后訓(xùn)練,再到測試時間scaling的不斷發(fā)展。
因此,所需的計算能力顯然是巨大的。我們不僅希望社會具備擴展計算能力的能力,更期待能夠通過這一擴展,創(chuàng)造出更多創(chuàng)新且更強大的智能系統(tǒng)。畢竟,智能是我們最寶貴的資產(chǎn),它可以幫助我們解決許多復(fù)雜而具有挑戰(zhàn)性的問題。
正因如此,Scaling的不斷增長催生了對英偉達計算技術(shù)的巨大需求。這股需求推動了Blackwell這款革命性芯片的廣泛應(yīng)用。Blackwell已經(jīng)全面投入生產(chǎn),其表現(xiàn)令人贊嘆。
首先,幾乎所有云服務(wù)提供商都已經(jīng)在部署相關(guān)系統(tǒng)。我們目前已有約15家計算機制造商提供系統(tǒng),這些系統(tǒng)涵蓋了大約200種不同的SKU和配置,包括液冷、風(fēng)冷、x86架構(gòu)、Nvidia Grace CPU、NVL36、NVL72等多種類型。這樣的多樣性使我們能夠滿足全球幾乎所有數(shù)據(jù)中心的需求。如今,這些系統(tǒng)正在全球45個工廠中進行生產(chǎn),充分體現(xiàn)了AI的普及程度,以及整個行業(yè)在這一全新計算模型下的快速進步。推動這一進程的核心動力就是:我們迫切需要更多的計算能力。

圖片來源:英偉達截圖
當前這一代Blackwell芯片,在計算能力方面比上一代提高了四倍每瓦的性能和三倍每美元的性能。這意味著在同樣的計算成本下,我們能訓(xùn)練更大的模型,或者以更低的成本訓(xùn)練同樣規(guī)模的模型。
而最為關(guān)鍵的是,這些系統(tǒng)正在生成的tokens,正是我們在使用ChatGPT、Gemini,甚至未來使用智能手機時所依賴的。這些應(yīng)用幾乎都在消耗這些AI tokens,而這些tokens的生成正是由Blackwell等系統(tǒng)提供的。每個數(shù)據(jù)中心都有電力的制約。因此,如果Blackwell每瓦的性能比上一代提升四倍,那么這些系統(tǒng)能夠帶來的商業(yè)收入和數(shù)據(jù)中心的處理能力也將成倍增長。這使得如今的AI計算設(shè)施,不僅是數(shù)據(jù)中心的一部分,實際上已經(jīng)成為了全新的“工廠”。
因此,我們需要大量的計算資源,以訓(xùn)練更大、更復(fù)雜的模型。未來的推理方式將不再局限于簡單的“一次性推理”,AI將開始與自身進行對話、思考、反思和內(nèi)在處理。這樣的轉(zhuǎn)變將大大提升AI的推理能力和智能水平。
正如你可以預(yù)見的那樣,AI能夠處理的tokens數(shù)量將成指數(shù)增長。因此,我們亟需大幅提升tokens的生成速度,同時顯著降低計算成本,確保服務(wù)質(zhì)量始終處于高水平,客戶成本得以控制,AI系統(tǒng)也能夠持續(xù)擴展。這正是我們開發(fā)NVLink系統(tǒng)的核心原因之一。
AI代理興起,創(chuàng)造數(shù)百萬美元的市場機會
在企業(yè)領(lǐng)域中,正在發(fā)生的最重要的事情之一就是AI代理的興起。AI代理由多個模型組成,分工明確。
例如,一部分模型負責(zé)與客戶或用戶進行互動,另一部分則負責(zé)信息檢索,從存儲中提取數(shù)據(jù)。像RAG這樣的語義AI系統(tǒng)可能會訪問互聯(lián)網(wǎng)、研究PDF文件、使用計算器,甚至利用生成性AI生成圖表等內(nèi)容。AI代理通過逐步迭代的方式處理問題,將復(fù)雜的問題分解成更小的任務(wù),并由不同的模型分別進行處理。
為了幫助行業(yè)構(gòu)建AI代理,我們的市場策略并不直接面向企業(yè)客戶,而是與IT生態(tài)系統(tǒng)中的軟件開發(fā)者合作,通過整合我們的技術(shù)來創(chuàng)造新的能力。就像我們曾經(jīng)與CUDA庫合作一樣,我們現(xiàn)在希望在AI庫領(lǐng)域?qū)崿F(xiàn)同樣的目標。過去,計算模型中有API來處理計算機圖形學(xué)、線性代數(shù)、流體動力學(xué)等任務(wù),而未來,基于這些加速庫,可能會出現(xiàn)專門的AI加速庫。
為幫助生態(tài)系統(tǒng)構(gòu)建具備自主能力的AI,我們創(chuàng)建了幾項關(guān)鍵技術(shù):
NVIDIA NIM:這是一個AI微服務(wù),已經(jīng)打包并準備就緒,能處理所有復(fù)雜的軟件任務(wù)。它將模型打包、優(yōu)化,并放入容器中,用戶可以將其帶到任何地方。我們目前已有適用于視覺、語言理解、語音、動畫、數(shù)字生物學(xué)的模型,并且即將發(fā)布一些關(guān)于物理AI的新興模型。
NVIDIA NeMo:本質(zhì)上是一個數(shù)字員工的入職和培訓(xùn)系統(tǒng),旨在讓AI代理成為數(shù)字勞動力,與員工一同工作并代為處理任務(wù)。就像員工入職培訓(xùn)一樣,我們?yōu)檫@些AI代理提供了不同的庫,幫助它們根據(jù)公司特定的語言、流程和工作方式進行培訓(xùn)。您可以向AI代理提供工作樣本,它們會試圖生成類似的結(jié)果,您再進行反饋并持續(xù)優(yōu)化。同時,您還可以設(shè)置一些限制和權(quán)限,確保代理的行為符合規(guī)范。
整個流程——即數(shù)字員工的管理和發(fā)展過程——被稱為NeMo。從某種意義上講,未來每個公司的IT部門將轉(zhuǎn)變?yōu)锳I代理的“HR部門”,負責(zé)管理、培訓(xùn)、入職以及提升這些數(shù)字員工。
目前,IT部門主要負責(zé)管理和維護各種來自IT行業(yè)的軟件系統(tǒng)。但未來,隨著AI技術(shù)的普及,IT部門將承擔(dān)更多的職責(zé),包括管理、培養(yǎng)、入職以及提升大批數(shù)字代理,并將這些代理部署到公司各個部門使用。
未來,每一位軟件工程師都有可能配備一個AI助手。全球有3000萬軟件工程師,未來每個工程師都將借助AI助手進行編程。如果沒有AI的輔助,生產(chǎn)力和代碼質(zhì)量將大幅下降。而在全球的10億知識工作者中,AI代理很可能成為下一個爆發(fā)的行業(yè),并且可能會創(chuàng)造出數(shù)百萬美元的市場機會。
創(chuàng)建世界模型,未來工廠將擁有數(shù)字孿生體
當你為大型語言模型提供上下文和提示時,模型則一次生成一個token以產(chǎn)生輸出。這是其工作原理。假設(shè)不是一個問題提示,而是一個行動請求呢?比如“過去把那個箱子拿過來?!痹谶@種情況下,生成的就不是文本的token,而是行動的token。
我剛剛描述的,是未來機器人技術(shù)的一個非常合理的方向,而這項技術(shù)已經(jīng)迫在眉睫。但我們需要做的是,創(chuàng)建一個有效的世界模型,而不是像GPT那樣僅僅是語言模型。這個世界模型必須理解世界的語言,還必須理解物理動態(tài),比如重力、摩擦力和慣性。它必須理解幾何和空間關(guān)系,必須理解因果關(guān)系。
如果你把物體掉到地上,或者推動物體讓它傾倒時,模型應(yīng)該能夠理解物體的恒常性。如果你把一個球從廚房臺面上滾過,它掉到另一邊,并沒有進入另一個量子宇宙,而是依然處于那個空間里。
這些類型的直覺理解是當今大多數(shù)模型所無法做到的。因此,我們希望創(chuàng)造一個全新的世界。我們需要一個世界基礎(chǔ)模型。今天,我們宣布一項重要的進展——Nvidia Cosmos,一個專注于理解物理世界的世界基礎(chǔ)模型。
Nvidia Cosmos是全球首個世界基礎(chǔ)模型,經(jīng)過2000萬小時視頻的訓(xùn)練。這些視頻專注于物理動態(tài)內(nèi)容,例如自然現(xiàn)象、行走的人、移動的手、操控物體,以及快速的攝像機運動。它的真正目標是讓AI理解物理世界,而不僅僅是生成創(chuàng)意內(nèi)容。通過這個物理AI,我們能夠進行許多下游應(yīng)用。
我們可以生成合成數(shù)據(jù)來訓(xùn)練其他模型,也能為機器人模型奠定基礎(chǔ)。它可以生成多個物理上可行的未來場景,基本上就像《奇異博士》中的場景一樣,因為這個模型理解物理世界,生成的圖像也是物理一致的。這個模型還能夠自動生成字幕,將視頻內(nèi)容轉(zhuǎn)化為字幕,從而為大語言模型和多模態(tài)語言模型的訓(xùn)練提供數(shù)據(jù)。利用這個技術(shù),我們能夠用基礎(chǔ)模型來訓(xùn)練機器人及大型語言模型。
這就是Nvidia Cosmos。該平臺包括一個自回歸模型,支持實時應(yīng)用;一個擴散模型,生成高質(zhì)量圖像;一個強大的分詞器,學(xué)習(xí)現(xiàn)實世界的詞匯;以及一個數(shù)據(jù)管道,便于你將這些技術(shù)應(yīng)用到你自己的數(shù)據(jù)中。我們已經(jīng)加速了整個過程。因此,這也是全球首個加速的數(shù)據(jù)處理管道,也是AI加速的管道,所有這些都包含在Cosmos平臺中。今天,我們宣布Cosmos已經(jīng)開源,并可以通過GitHub獲取。
我們希望,Cosmos的開放能夠像Llama 3對企業(yè)AI的貢獻一樣,為機器人技術(shù)和工業(yè)AI領(lǐng)域做出重大貢獻。
真正的魔力出現(xiàn)在你將Cosmos與Omniverse連接時。根本原因在于,Omniverse是一個基于物理的模擬系統(tǒng),它并不只是模擬物理現(xiàn)實,而是基于算法物理和原理物理的系統(tǒng)。它是一個模擬器。當你將其與Cosmos結(jié)合時,Omniverse為Cosmos提供了一個堅實、真實的基礎(chǔ),這使得Cosmos能夠輸出基于真理的內(nèi)容。這正是將大型語言模型與檢索增強生成系統(tǒng)結(jié)合的思路。你希望將AI生成的內(nèi)容與真實世界的基礎(chǔ)連接起來。因此,這兩者的結(jié)合提供了一個物理模擬的、多維度的生成器,應(yīng)用場景令人激動。
顯而易見,對于機器人技術(shù)和工業(yè)應(yīng)用而言,Cosmos加Omniverse代表了構(gòu)建機器人系統(tǒng)所需的第三臺計算機。每個機器人公司最終都必須構(gòu)建三維計算機——一種用于訓(xùn)練AI的計算機,我們稱之為DGX計算機;一種用于部署AI的計算機,我們稱之為AGX,它可以安裝在汽車、機器人或AMR(自動移動機器人)中,或者部署在體育場等地方,這些計算機在邊緣運行并具備自主性。但為了連接這兩者,你需要一個數(shù)字孿生體。所有這些就是你所看到的模擬。數(shù)字孿生體是已訓(xùn)練的AI模型進行實踐、精煉的地方,用于生成合成數(shù)據(jù)、強化學(xué)習(xí)反饋等。
這三臺計算機將協(xié)同工作,這正是英偉達針對工業(yè)界的戰(zhàn)略。未來,所有的一切都將在模擬中完成。每個工廠都會有一個數(shù)字孿生體,與實際工廠完全一致。實際上,你可以使用Omniverse與Cosmos生成大量的未來場景,然后由AI決定哪些場景最適合各種KPI。這將成為程序的約束條件,并能夠部署到現(xiàn)實工廠中。
機器人的“ChatGPT時刻”即將到來
通用機器人技術(shù)的“ChatGPT時刻”即將到來。實際上,所有我剛才提到的使能技術(shù)將在未來幾年內(nèi)推動通用機器人領(lǐng)域發(fā)生迅速且令人震驚的突破。

圖片來源:英偉達截圖
通用機器人技術(shù)之所以如此關(guān)鍵,是因為,盡管許多機器人依賴履帶或輪子并且需要特定的環(huán)境來適應(yīng),但有三類機器人我們可以制造出來,它們不需要在綠色田野環(huán)境中運行,也不需要特別為現(xiàn)有環(huán)境做適配。
這三類機器人分別是:第一,代理機器人和代理AI,它們作為信息工作者,只需要能夠適應(yīng)我們辦公室中的計算機即可;第二,自駕車,因為我們已經(jīng)花費了超過100年的時間來建設(shè)道路和城市;第三,人形機器人。如果我們能夠解決這三項技術(shù),它們將成為全球最龐大的技術(shù)產(chǎn)業(yè)。因此,我們堅信機器人時代離我們已經(jīng)不遠。
關(guān)鍵的挑戰(zhàn)在于如何訓(xùn)練這些機器人。尤其在人形機器人領(lǐng)域,模仿信息的收集過程相當復(fù)雜。以汽車為例,訓(xùn)練相對簡單,因為我們每天都在開車。然而對于人形機器人來說,收集人類行為的示范信息就變得非常繁瑣。
因此,我們需要找到一種巧妙的方法,利用人工智能和Omniverse,將數(shù)百個示范、成千上萬的人類示范轉(zhuǎn)化為數(shù)百萬個合成動作。通過這些合成動作,AI可以學(xué)習(xí)如何執(zhí)行任務(wù)。Nvidia Isaac Group,是我們?yōu)闄C器人行業(yè)提供的技術(shù)平臺基礎(chǔ)設(shè)施,旨在加速通用機器人技術(shù)的發(fā)展。
讓我再說一遍,我們正在生產(chǎn)三款新的Blackwell。令人振奮的是,全球首個物理AI基礎(chǔ)模型,一個強大的AI基礎(chǔ)性模型已經(jīng)問世,能夠激活全球各行各業(yè),尤其是機器人產(chǎn)業(yè)。與此同時,還在三款機器人正在開發(fā),分別是智能代理AI、人形機器人和自動駕駛汽車。過去的一年真是不可思議,我要感謝大家的合作,感謝你們的到來。
祝大家CES愉快,新年快樂,謝謝!
]]>
具有更強的代碼能力!更長的上下文!免費!
近日,Anthropic公司發(fā)布了他們最新的模型Claude 2,支持200,000 token,可免費使用。
Anthropic公司是由OpenAI前研究副總裁Dario Amodei等人在2021年創(chuàng)建,該公司還得到了谷歌、Salesforce和Zoom等公司的投資,目前估值為 41 億美元。今年5月,Anthropic便是受邀參加白宮會議的四家人工智能公司之一,其他三家分別為谷歌、微軟和OpenAI。
Claude 2 相對于ChatGPT的優(yōu)勢——
1、Claude 2 比 GPT-4 便宜5倍。
2、Claude 2 有更新的數(shù)據(jù)。這些數(shù)據(jù)是網(wǎng)站、第三方授權(quán)的數(shù)據(jù)集以及2023年初用戶自愿提供的數(shù)據(jù)的混合。
3、Claude 2 在 GRE 寫作和 HumanEval 編程基準測試上表現(xiàn)優(yōu)于 GPT-4。
4、Claude 2 上下文窗口有100,000個token,是所有商業(yè)模型中最大的。
5、Claude 2 可以分析大約75,000個單詞,大約是一本書的長度;相比之下,ChatGPT 可一次性處理 3,000 個單詞的文本,而 GPT 4 則可以處理 25,000 個單詞的文本。
6、Claude 2 可以輕松處理任何與代碼相關(guān)的任務(wù)。
網(wǎng)友實測Claude 2 的代碼功能:

網(wǎng)友實測Claude 2 的文檔總結(jié)功能:

Claude 2技術(shù)論文:https://arxiv.org/abs/2212.08073
一直以來 Llama 可以說是 AI 社區(qū)內(nèi)最強大的開源大模型。但因為開源協(xié)議問題,一直不可免費商用。7月19日,Meta 終于發(fā)布了免費可商用版本 Llama 2。
此次 Meta 發(fā)布的 Llama 2 模型系列包含 70 億、130 億和 700 億三種參數(shù)變體。相比于 Llama 1,Llama 2 的訓(xùn)練數(shù)據(jù)多了 40%,上下文長度也翻倍,并采用了分組查詢注意力機制。具體來說,Llama 2 預(yù)訓(xùn)練模型是在 2 萬億的tokens 上訓(xùn)練的,精調(diào) Chat 模型是在 100 萬人類標記數(shù)據(jù)上訓(xùn)練的。

在幾乎所有基準上,Llama 2 70B 的結(jié)果均與谷歌 PaLM (540B) 持平或表現(xiàn)更好,不過與 GPT-4 和 PaLM-2-L 的性能仍存在較大差距。

Llama 2技術(shù)論文:
https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/
7 月 7 日,在開發(fā)者大會 2023(Cloud)上,華為重磅發(fā)布盤古大模型 3.0,將圍繞行業(yè)重塑、技術(shù)扎根、開放同飛三大創(chuàng)新方向,為行業(yè)客戶、伙伴及開發(fā)者提供更好的服務(wù)。

模型聚焦三層架構(gòu),賦能千行百業(yè)——
L0 層包括NLP、視覺、多模態(tài)、預(yù)測、科學(xué)計算五個基礎(chǔ)模型,提供滿足行業(yè)場景中的多種技能需求。盤古3.0 提供了100 億、380 億、710 億和1000 億參數(shù)等基礎(chǔ)大模型,以匹配不同場景、時延、響應(yīng)速度的行業(yè)多樣化需求。
L1 層是多個行業(yè)大模型,華為云既可以提供使用行業(yè)公開數(shù)據(jù)訓(xùn)練的行業(yè)通用大模型,包括政務(wù),金融,制造,礦山,氣象等大模型;也可以基于行業(yè)客戶的自有數(shù)據(jù),在盤古大模型的L0 和L1 層上,為客戶訓(xùn)練自有的專用大模型。
L2 層提供了更多細化場景的模型,更專注于政務(wù)熱線、網(wǎng)點助手、先導(dǎo)藥物篩選、傳送帶異物檢測、臺風(fēng)路徑預(yù)測等具體行業(yè)應(yīng)用或特定業(yè)務(wù)場景,為客戶提供“開箱即用”的模型服務(wù)。
7月19日,IDC發(fā)布《AI大模型技術(shù)能力評估報告,2023》,IDC對其中9家技術(shù)服務(wù)提供商進行了技術(shù)評估,分別為阿里巴巴、百度、第四范式、科大訊飛、瀾舟科技、云從科技、智譜AI、中國電信智科以及中科聞歌。
9家大模型技術(shù)能力綜合評分:

另外,百度文心大模型、阿里巴巴通義大模型、科大訊飛星火大模型、智譜AI大模型在通用能力上表現(xiàn)滿分。“通用能力”指標反映的是大模型的整體技能,包括語音識別、語音合成等自然語言處理;圖片生成、圖片搜索等計算機視覺;機器學(xué)習(xí)/深度神經(jīng)網(wǎng)絡(luò)等底層技術(shù)能力的差異化優(yōu)勢;意圖識別、泛化能力、知識庫構(gòu)建能力等。
主流大模型各項指標評分:

早前,沙利文根據(jù)AI大模型在產(chǎn)品技術(shù)能力、戰(zhàn)略愿景能力、生態(tài)開放能力三個維度的綜合表現(xiàn)對比相關(guān)廠商的綜合競爭力,評分靠前的依次為商湯(SenseCore 商湯 AI 大裝置 + 商湯日日新 SenseNova大模型體系)、百度(AI 大底座+文心大模型)、阿里(M6-OFA +“通義”大模型)、華為(ModelArts + 盤古大模型)、騰訊(HCC 高性能計算集群+混元大模型):

近日,谷歌旗下DeepMind在Nature上,發(fā)表了最新的研究成果“Faster sorting algorithms discovered using deep reinforcement learning”:AlphaDev作為一個全新AI系統(tǒng),成功將一種每天運行數(shù)億萬次的C++排序算法的速度提高70%,同時,對于哈希算法,也找到了速度提高30%的辦法,超越了科學(xué)家們幾十年來的研究;甚至在部分算法上,能夠比人類快3倍左右。

DeepMind CEO Hassabis表示:“AlphaDev發(fā)現(xiàn)了一種全新且更快的排序算法,我們已經(jīng)將其開源至C++庫中供開發(fā)人員使用,這僅僅是AI被用于提升代碼效率的開端?!?/p>
這項成果的重要性,正如Google DeepMind研究科學(xué)家Daniel J. Mankowitz所說:“我們估計,AlphaDev發(fā)現(xiàn)的排序和哈希算法,在全球范圍內(nèi)每天被調(diào)用數(shù)萬億次?!?/p>
AlphaDev所發(fā)現(xiàn)的最新成果,被納入LLVM標準C++庫Abseil并且開源,供開發(fā)者運用。十幾年來,C++排序庫首次更改,AI在其中發(fā)揮了里程碑的作用,數(shù)十億人將會受益。
近日,AMD發(fā)布AMD Instinct MI 300X,一款專門面向生成式AI推出的加速器。AMD Instinct MI 300X采用8 個 GPU chiplet(基于CDNA 3架構(gòu))和另外 4 個 IO 內(nèi)存chiplet的設(shè)計,這讓其集成的晶體管數(shù)量達到了驚人的1530億。而為了緩解AI 大型語言模型 (LLM) 所面臨的內(nèi)存制約,AMD為這款芯片集成了192GB的HBM 3,其存儲帶寬也高達5.2 TB/s,可以處理的參數(shù)高達400億。

作為一款對標英偉達H100的產(chǎn)品,AMD Instinct MI 300X的HMB密度是前者的2.4倍,帶寬則為前者的1.6倍。這讓AMD的這顆產(chǎn)品在當前的AI時代競爭力大增,為 AI 推理和訓(xùn)練提供不一樣的解決方案。據(jù)AMD介紹,該芯片會在今年三季度送樣。
]]>北京時間3月15日凌晨,OpenAI發(fā)布了ChatGPT的最新版本——GPT4模型,OpenAI的CEO Sam Altman介紹說:這是我們迄今為止功能最強大的模型!
GPT-4是一個超大的多模態(tài)模型,它的輸入可以是文字(上限 2.5 萬字),還有強大的識圖能力,不僅回答的準確性顯著提高,而且會寫代碼、做網(wǎng)站、報稅、總結(jié)文章、寫詩,在部分專業(yè)測試和學(xué)術(shù)基準上,表現(xiàn)出了與人類相當?shù)乃健?/p>
GPT-4的發(fā)布引起了全球范圍內(nèi)的熱烈關(guān)注,比爾·蓋茨稱一生所見的兩次革命性技術(shù)就是1980年的圖形用戶界面和2022年的ChatGPT,認為ChatGPT不亞于PC和互聯(lián)網(wǎng)的誕生。
國內(nèi)商界也一致看好,繼王慧文(前美團聯(lián)合創(chuàng)始人)、王小川(前搜狗CEO)后,李開復(fù)也入局AI大模型賽道,籌建Project AI 2.0,“AI 2.0不僅僅是個高能聊天工具,也不僅僅是圖文創(chuàng)作的AIGC生成,Co-pilot和如今看到的應(yīng)用都還只是AI 2.0能力的開端”。
國內(nèi)媒體大多也以積極正面的態(tài)度報道,典型的媒體新聞有:
量子位:《ChatGPT大升級!太太太太強了!》
澎湃號:《ChatGPT4發(fā)布,我真的慌了!》
網(wǎng)易號:《ChatGPT-4震撼發(fā)布!準確性提高,能在SAT上能擊敗90%人類》
新京報:《GPT4功能強于ChatGPT 還能識圖和角色扮演》
電腦報:《ChatGPT-4重磅發(fā)布,10秒做出一個網(wǎng)站,全面碾壓上一代》
(1)高盛:AI或致全球3億人“丟飯碗”!
高盛研究發(fā)現(xiàn),ChatGPT等生成式人工智能系統(tǒng)的最新突破,料將給全球勞動力市場帶來重大顛覆,全球預(yù)計將有3億個工作崗位被生成式AI取代,律師和行政人員將是最有可能被裁員的崗位。
目前歐美約有三分之二的工作崗位都在某種程度上受到AI自動化趨勢的影響,而多達四分之一的當前崗位有可能最終被完全取代。該研究計算出美國63%的工作暴露在“AI影響范圍”中,其中7%的工作有一半以上的流程可以由AI自動化完成,這使他們很容易馬上被人工智能取代。在歐洲,情況也差不多。
(2)網(wǎng)友
看到ChatGPT各種強大的功能,許多人擔(dān)心自己的職業(yè)會被替代。

(1)事件
3月24日左右,由于一個開源庫中的錯誤,導(dǎo)致一些ChatGPT用戶可以看到另一個活動用戶聊天歷史記錄中的標題,而且新創(chuàng)建的對話的第一條消息也有可能會在另一個用戶的聊天歷史記錄中可見。另外,同樣的錯誤可能會導(dǎo)致1.2%的 ChatGPT Plus 訂閱用戶在特定的九個小時時間窗口內(nèi)意外地看到與支付相關(guān)的信息。
(2)公司回應(yīng)
該漏洞是在Redis客戶端開源庫redis-py中發(fā)現(xiàn)的,OpenAI一發(fā)現(xiàn)該漏洞,就向 Redis 維護者發(fā)送了一個修復(fù)問題的補丁;并向其用戶和整個ChatGPT社區(qū)道歉:表示漏洞已被修復(fù),完整的信用卡號碼在任何時候都沒有暴露,將努力重建信任。
圖 OpenAI道歉聲明的部分截圖

(3)媒體觀點
媒體觀點中最具代表性的是新京報發(fā)布的《把數(shù)據(jù)交給人工智能前要先保證安全》:
ChatGPT泄密事件是一種警示:再先進的新技術(shù),如果存在安全后門,則應(yīng)用越廣泛、帶來的不可控風(fēng)險越高。因此,無論是技術(shù)開發(fā)方和使用方都要高度重視其安全體系建設(shè)。希望ChatGPT成為人類發(fā)展之福,而不是打開了潘多拉盒子。
(4)網(wǎng)友觀點
就此事而言,大多數(shù)網(wǎng)友表示國內(nèi)又用不了,有bug也與自己無關(guān):


人工智能的倫理問題討論一直伴隨著人工智能的發(fā)展,最具代表性的媒體觀點是近日中國經(jīng)濟新聞網(wǎng)發(fā)布的《人工智能倫理問題及趨利避害思考》:
“目前,ChatGPT類的大語言模型人工智能技術(shù)及產(chǎn)品風(fēng)生水起,帶來已知倫理風(fēng)險主要有以下幾個方面:一是AI抄襲風(fēng)險,二是信息泄露風(fēng)險,三是未成年人保護風(fēng)險,四是價值觀滲透風(fēng)險,五是勞動者失業(yè)風(fēng)險,六是惡意改造風(fēng)險?!?/p>
北京時間3月15日凌晨,OpenAI發(fā)布GPT4之后,壓力全部給到百度這邊,大家期待文心一言能否與之一戰(zhàn)?作為全村的希望的百度不負眾望在3月16日按期發(fā)布了大模型文心一言,百度CEO李彥宏現(xiàn)場展示了文心一言在文學(xué)創(chuàng)作、商業(yè)文案創(chuàng)作、數(shù)理推算、中文理解、多模態(tài)生成五個使用場景中的綜合能力。
然而,由于前期的高調(diào)宣傳給大家太高期望,而文心一言目前的功能似乎不能滿足大家的期待;而且由于現(xiàn)場是PPT視頻演示對話,而不是現(xiàn)場直接調(diào)用大模型給出答案,引發(fā)大家猜測和質(zhì)疑,甚至被網(wǎng)友調(diào)侃為 “ChatGPT” VS “ChatPPT”。
圖 網(wǎng)友調(diào)侃文心一言的功能不及預(yù)期

也有網(wǎng)友看好百度,比較典型的觀點:
“如果把OpenAI比作大學(xué)生,那么文心一言可能還是小學(xué)生。我相信經(jīng)過大量的訓(xùn)練,文心一言也能成長得非常出色。盡管現(xiàn)在還不完美,百度還信守承諾把文心一言給推出來了,就沖著這份魄力與決心,作為首個中文類ChatGPT產(chǎn)品,我認為是值得鼓勵的。畢竟除了百度,其他大廠都還停留喊口號的階段?!?/em>
總的來說,文心一言發(fā)布會后的輿論情況分布如下:

實際上,李彥宏在發(fā)布會一開始就承認現(xiàn)在還有差距:“大家的期望值,是我們對標ChatGPT,對標GPT-4,這個門檻有點高。十月懷胎,我們就帶大家來看看這個AI大模型文心一言長什么樣?!?/p>
李彥宏事后表示,文心一言雖然還有不少不足之處,但是他為百度團隊能夠在全球大廠中率先推出這樣一個產(chǎn)品感到驕傲,因為市場需求太旺盛了,無數(shù)的客戶都想盡快試用和合作。
百度開放一些賬號,讓用戶可以參與文心一言的測試,只需在線輸入詞語,即可繪制相應(yīng)的圖像,然而,出現(xiàn)了很多意想不到的結(jié)果,用戶紛紛在社交平臺質(zhì)疑和調(diào)侃。

有微博大V質(zhì)疑:“文心一言恐怕是和漢芯、鴻蒙一樣的東西:套殼、畫皮、造假。”

比如,讓文心一言生成一幅“總線和狗”的圖片,結(jié)果卻創(chuàng)作出了一張公交汽車和狗的照片。因為英文的“bus”有公交車和總線的意思。

于是,網(wǎng)友認為文心一言只是把中文句子翻譯成英文,再拿到國外開源的人工智能(Stable Diffusion)上畫圖,然后再將圖片返還給用戶,完全就是個“套殼、畫皮、造假”的人工智能。
一時間引起廣大網(wǎng)友群嘲:
“人家一開源,這邊就開始自主創(chuàng)新了,做的還不行。”
“底層就是國外的開源代碼,原封抄過來套了個殼子,就是國產(chǎn)研發(fā)了。”
“就是翻譯+stable diffusion,太明顯了?!?/em>
“這畫風(fēng)一看就是國外的。”
也有網(wǎng)友反對爆料博主的觀點:
“哎吆他一個網(wǎng)紅,百度有沒有連夜公關(guān)買斷。你連一個代碼都不會敲的人怎么有臉說人家鴻蒙是套殼、畫皮、造假。”
“很多人不會理解的,因為他壓根不知道你說的是什么。就好像你用牛頓-萊布尼茲公式算積分,他也會認為你抄襲,為什么要用外國人的方法呢?!?/em>
“有這個自研的想法和行動力還是值得尊重的?!?/em>
在對話文心一言,詢問其是否采用Stable Diffusion(國外開源的人工智能)時,文心一言不僅承認使用Stable Diffusion,還承認使用Transformer、GRU等深度學(xué)習(xí)模型來生成圖像,并非完全自研。

也有冷靜的網(wǎng)友認真分析了背后原因,認為百度的畫圖AI采用了英文標注的開源圖片素材進行訓(xùn)練,因此需要中翻英來當提示詞。目前還沒有上億規(guī)模中文圖文數(shù)據(jù)集。即使有,噪聲也很大,基本不可以用。行業(yè)內(nèi)都是用國外數(shù)據(jù)集,做中文映射,才導(dǎo)致這樣的生成效果。
所以,所謂“套殼”、“作假”等恐怕是大眾對文心一言的誤解。

一些網(wǎng)友的評論充滿調(diào)侃的意味,也有一些網(wǎng)友認為真是腦洞大開,可以帶來不一樣的文字理解視角;另有些網(wǎng)友純粹覺得這個功能很幽默、很好玩:
“這是出來搞笑的吧”
“欺負AI不懂成語”
“中方負責(zé)人工 西方負責(zé)智能 沒毛病”
“確實感受到了歡樂,唐伯虎點秋香,胸有成竹的壯士,哈哈”
“腦洞大開,看著有點想笑[笑cry]”
“網(wǎng)友快把文心一言逼瘋了”
有許多網(wǎng)友沒有跟風(fēng)嘲諷或調(diào)侃,而是力挺百度,一些典型觀點如下:
“盡管是困難重重,但百度作為全世界第一家站出來挑戰(zhàn)ChatGPT的中國民營企業(yè),精神確實可嘉?!?/em>
“不要太苛刻了,國內(nèi)要有自己的技術(shù)?!?/em>
“國內(nèi)技術(shù)看百度這句話的確沒錯,多給點時間吧?!?/em>
1、官方回應(yīng)
3月23日,百度在微博表示,已注意到對文心一言文生圖功能的相關(guān)反饋,并回應(yīng)說明如下:
(1)文心一言完全是百度自研的大語言模型,文生圖能力來自文心跨模態(tài)大模型ERNIE-ViLG。
(2)在大模型訓(xùn)練中,我們使用的是互聯(lián)網(wǎng)公開數(shù)據(jù),符合行業(yè)慣例。大家也會從接下來文生圖能力的快速調(diào)優(yōu)迭代,看到百度的自研實力。
百度方面還稱,文心一言正在大家的使用過程中不斷學(xué)習(xí)和成長,請大家給自研技術(shù)和產(chǎn)品一點信心和時間,不傳謠信謠。
2、高管回應(yīng)
百度副總裁袁佛玉在朋友圈曬出了用文心一言制作的AI繪畫。暗示百度已經(jīng)修正了一些bug。


樂思輿情監(jiān)測系統(tǒng)顯示,自3月15日GPT-4發(fā)布開始,全網(wǎng)有關(guān)OpenAI的輿情聲量就一直維持在22000-52000篇的高位,熱度非常高。
百度于3月16 日發(fā)布文心一言,全網(wǎng)聲量在3月16日和17日達到頂峰約15000篇,之后的輿情高點逐步走低至約10000篇左右;即文心一言的輿情高點還不及OpenAI的輿情低點。
另外,3.14-3.29期間,OpenAI的日均輿情聲量為37591篇,文心一言的日均輿情聲量為7499篇,只有前者的20%。所以輿論對ChatGPT的熱度遠超文心一言。

樂思輿情監(jiān)測系統(tǒng)顯示,3.14-3.29期間,ChatGPT和文心一言在各媒體渠道的信息總量分布比例如上所示。
兩者微信和論壇的信息占比差不多:ChatGPT和文心一言的微信信息占比分別為17.7%和16.7%,兩者在論壇的信息占比分別為10.3%和11.6%。
而ChatGPT在微博信息占比為12.3%,高于文心一言的9.9%。ChatGPT在APP信息占比為9.3%,低于文心一言的13.0%。

樂思輿情監(jiān)測系統(tǒng)顯示,3.14-3.29期間,信息量最高的前八大網(wǎng)站如圖,ChatGPT和文心一言關(guān)注度最高的兩大網(wǎng)站都是微信公眾號和新浪微博;ChatGPT在各網(wǎng)站上的關(guān)注度都比文心一言高。
從樂思輿情監(jiān)測系統(tǒng)解析的云圖來看,ChatGPT的熱詞為“ChatGPT”、“人工智能”、“模型”、“科技”、“技術(shù)”等,文心一言的熱詞為“文心”、“百度”、“一言”、“模型”、“人工智能”等。人工智能、模型都是兩者的熱詞。
圖 ChatGPT的熱詞云圖

圖 文心一言的熱詞云圖

根據(jù)國金證券的測試研究,三大模型在客觀問題問答方面都有出色表現(xiàn),但在數(shù)學(xué)計算、代碼生成、情感理解和推理方面均有待提升。對比來看,文心一言在圖像創(chuàng)作、歸納總結(jié)等問題中表現(xiàn)較為出色,但在邏輯推理領(lǐng)域還有待加強。在具體應(yīng)用中,三大模型均能基本勝任 AI 助手、售后客服、產(chǎn)品推薦等場景需求,但在文本修飾及古詩詞理解領(lǐng)域仍有提升空間。
圖 “文心一言”與ChatGPT測評結(jié)果對比

如,回答一個代碼題:
“用 Python 編寫一個程序,在一個無序數(shù)組中查找一個特定的值。要求程序的時間復(fù)雜度為 O(log n)?!?/p>
在本題的回答中,文心一言沒有準確理解到時間復(fù)雜度O(log n)的需求,GPT-3.5及GPT-4給出的代碼為二分法搜索,只有在面對有序數(shù)組時才能滿足時間復(fù)雜度要求,也非最佳答案。整體來看,三個模型在代碼生成方面均有較大的改進空間,GPT-3.5 與 GPT-4 表現(xiàn)基本持平,略優(yōu)于文心一言。
圖:文心一言的回答

來源:國金證券
樂思輿情系統(tǒng)的AI助理調(diào)用GPT-3.5的回答:


圖:GPT-4的回答

來源:國金證券
大模型即“大算力+強算法+大數(shù)據(jù)”結(jié)合的產(chǎn)物。算力是訓(xùn)練大模型的底層動力源泉,一個優(yōu)秀的算力底座在大模型的訓(xùn)練和推理具備效率優(yōu)勢;AI服務(wù)器是算力的底層載體,包含CPU、GPU、內(nèi)存、硬盤、網(wǎng)卡等。
圖 服務(wù)器成本構(gòu)成

如上圖,在AI服務(wù)器中,AI芯片在大模型訓(xùn)練中成本最高,同時AI芯片是AI算力的“心臟”。人工智能深度學(xué)習(xí)需要異常強大的并行處理能力,GPU相比于CPU更擅長于并行計算能力,正在大放異彩。根據(jù)IDC的數(shù)據(jù),2021年H1中國AI芯片,GPU占比最多為91.90%。
GPU服務(wù)器超強的計算功能可應(yīng)用于海量數(shù)據(jù)處理方面的運算,如搜索、大數(shù)據(jù)推薦、智能輸入法等。此外,GPU可作為深度學(xué)習(xí)的訓(xùn)練平臺,GPU服務(wù)器可直接加速計算服務(wù),亦可直接與外界連接通信。
從2012年卷積神經(jīng)網(wǎng)絡(luò)AlexNet,到最近的ChatGPT,背后都離不開英偉達的算力支持。AlexNet使用的是英偉達GTX 580進行訓(xùn)練,而OpenAI訓(xùn)練ChatGPT所用到的A100芯片算力已經(jīng)達到當年的100萬倍。
當前唯一可以實際處理ChatGPT的GPU是英偉達HGX A100,OpenAI就是使用A100 GPU訓(xùn)練和運行ChatGPT的。
圖:英偉達NVIDIA HGX A100

NVIDIA A100 Tensor Core GPU 可針對 AI、數(shù)據(jù)分析和 HPC 應(yīng)用場景,在不同規(guī)模下實現(xiàn)出色的加速,有效助力更高性能的彈性數(shù)據(jù)中心。A100 的性能比上一代產(chǎn)品提升高達20 倍,并可劃分為七個GPU 實例,以根據(jù)變化的需求進行動態(tài)調(diào)整。
A100 提供 40GB 和 80GB 顯存兩種版本,A100 80GB 將 GPU 顯存增加了一倍,對于具有龐大數(shù)據(jù)表的超大型模型(例如深度學(xué)習(xí)推薦模型 [DLRM]),A100 80GB 可為每個節(jié)點提供高達1.3TB的統(tǒng)一顯存,而且吞吐量比 A100 40GB 多高達 3 倍。
圖 針對大型模型提供高達 3 倍的 AI 訓(xùn)練速度

3月21日,在英偉達舉辦的年度GTC開發(fā)者大會上,其CEO黃仁勛發(fā)表了名為《切勿錯過AI的決定性時刻》(Don’t Miss This Defining Moment in AI)的演講,在長達78分鐘的視頻中,他四次用“iPhone時刻”來形容AI當下的發(fā)展,并稱“這將是我們迄今為止最重要的一次GTC大會”。
針對算力需求巨大的ChatGPT,英偉達發(fā)布了NVIDIA H100 NVL,它是基于去年已經(jīng)發(fā)布的H100的改進版本,是一種具有94GB內(nèi)存和加速Transformer引擎的大語言模型(LLM)專用解決方案,配備了雙GPU NVLINK的PCIE H100 GPU。外界直呼:這是“核彈芯片”級別的產(chǎn)品。
黃仁勛表示,H100 GPU的處理速度比之前的A100 GPU快十倍,可以將大語言模型的處理成本降低一個數(shù)量級。
圖 英偉達H100 NVL GPU

另外,英偉達還聯(lián)合微軟Azure、Google GCP和Oracle OCI三家云廠商合作推出了DGX Cloud。普通企業(yè)想要訓(xùn)練大語言模型,可以直接租賃DGX云服務(wù),將英偉達DGX AI超級計算機實時接入公司,以滿足高級AI訓(xùn)練性能要求;即DGX Cloud將把 DGX AI超級計算機“通過瀏覽器引入每一家企業(yè)”。
英偉達提供的DGX服務(wù)器,包含8個H100或A100圖形處理器和640GB內(nèi)存,A100層的價格為每月36999美元。相比之下,直接購買一個實體DGX服務(wù)器,需要20萬美元;微軟訓(xùn)練新必應(yīng)Bing更是花費數(shù)億美元購買了數(shù)萬個A100芯片。
圖:英偉達DGX云服務(wù)

昆侖芯科技戰(zhàn)略負責(zé)人宋春曉證實,人工智能芯片是算力的核心,昆侖芯二代已在百度文心大模型的應(yīng)用中廣泛導(dǎo)入,并為各行各業(yè)的智能化升級提供AI算力支持。
基于新一代自研架構(gòu)昆侖芯XPU-R而設(shè)計,聚焦高性能、通用性和易用性。相比1代產(chǎn)品,昆侖芯2代AI芯片的通用計算核心算力提升2-3倍,可為數(shù)據(jù)中心高性能計算提供強勁AI算力。
圖 昆侖芯2代AI芯片

OpenAI首席執(zhí)行官Sam Altman接受公開采訪指出,GTP-4參數(shù)量為GTP-3的20倍,需要的計算量為GTP-3的10倍;GTP-5在2024年底至2025年發(fā)布,它的參數(shù)量為GTP-3的100倍,需要的計算量為GTP-3的200-400倍。
圖 GPT系列模型的數(shù)據(jù)量和參數(shù)量

百度 CEO 李彥宏在發(fā)布會上介紹,文心一言是百度新一代知識增強大語言模型,它基于百度 ERNIE 及 PLATO 系列模型的基礎(chǔ)進行研發(fā),其大模型的訓(xùn)練數(shù)據(jù)包括萬億級網(wǎng)頁數(shù)據(jù)、數(shù)十億的搜索數(shù)據(jù)和圖片數(shù)據(jù)、百億級的語音日均調(diào)用數(shù)據(jù),以及 5500 億事實的知識圖譜等。
早在2019年,百度開發(fā)的知識增強語義理解模型ERNIE就登頂了全球權(quán)威數(shù)據(jù)集GLUE榜單,并刷新榜單歷史?,F(xiàn)在,該模型已更新迭代至文心ERNIE 3.0,參數(shù)規(guī)模高達2600億,幾乎比谷歌LaMDA(1350萬)高了一倍,也高于GPT-3 (1750萬),是全球最大的中文單體模型。
目前,GTP-4參數(shù)量為GTP-3 (1750萬)的20倍,即3.5萬億,遠高于文心ERNIE 3.0的2600億,不過,李彥宏近日在極客公園的直播中表示,文心一言確實不如現(xiàn)在最好的ChatGPT版本,但差距也不是很大,可能就是一兩個月的差別。文心一言提升速度不慢,但ChatGPT本身也在不斷升級,目前差不多是ChatGPT今年1月份的水平。
2023年2月初,僅僅正式上線2個月的ChatGPT超過Tiktok,成為互聯(lián)網(wǎng)歷史上最快突破1億月活的應(yīng)用。為了達成這個小目標,Tiktok用了9個月,再之前的Facebook花了42月之久。
圖 達1億用戶所用時間

3月24日,百度集團副總裁袁佛玉表示,憑借文心一言的優(yōu)勢,百度智能云有可能成為云計算市場第一。她還首次披露,文心一言新聞發(fā)布會后5天,預(yù)約測試用戶已經(jīng)超過100萬,申請文心一言API調(diào)用服務(wù)測試的企業(yè)超過10萬家。
目前看,無論是輿情還是技術(shù)實力,百度相比GPT-4 都占了下風(fēng),而輿論的弱勢是由于技術(shù)實力和模型功能的弱勢導(dǎo)致的。大家驚艷于GPT-4的強大功能,對GPT-4提高生產(chǎn)效率的眾多功能表示好奇和支持,也對自己的職業(yè)將被替代感到焦慮,許多國內(nèi)網(wǎng)友還對不能使用GPT-4 感到氣憤,發(fā)表許多冷嘲熱諷的觀點。
當文心一言剛發(fā)布的3月16日,輿論以失望、群嘲、調(diào)侃為主,一些是作為全村希望的文心一言比不過GPT-4 的恨鐵不成鋼;一些是對百度有偏見,因為壟斷多年的百度搜索給用戶的體驗并不好,于是一些人感性的認為百度做什么都垃圾;一些輿論則指向了國產(chǎn)和自主創(chuàng)新,極端的認為國外一開源國內(nèi)就創(chuàng)新、國外負責(zé)智能,百度負責(zé)人工。隨著發(fā)布會結(jié)束,大家逐漸體驗文心一言之后,對其功能有了更全面的認識,負面輿論也在不斷減少,百度畢竟是世界上第二個做出來的觀點成為共識,網(wǎng)友紛紛表示給百度一點時間。無論GPT-4還是文心一言,無論商業(yè)領(lǐng)袖還是普通網(wǎng)民,無論產(chǎn)業(yè)界還是資本市場,大家已經(jīng)對AI即將快速商業(yè)化形成共識,未來是人工智能的時代。
]]>
于是,AWS成為了業(yè)界專家談?wù)摰慕裹c,云服務(wù)提供商對標的對象,企業(yè)數(shù)字化轉(zhuǎn)型首選的合作伙伴……AWS成為了此刻的“明星”。也因此,AWS一舉一動都備受關(guān)注,這在近日舉辦的AWS技術(shù)峰會2018(北京站)火爆場面可見一斑。

目前中國有兩個AWS區(qū)域,總共5個可用區(qū),中國也成為AWS全球云基礎(chǔ)設(shè)施最先進、最完善的國家之一。
“2018年,我們首次在中國一年舉辦三場AWS技術(shù)峰會,這是一個里碑式的發(fā)展。去年12月,由西云數(shù)據(jù)運營的AWS中國(寧夏)區(qū)域開通。現(xiàn)在在中國有兩個AWS區(qū)域,總共5個可用區(qū),成為AWS全球云基礎(chǔ)設(shè)施最先進、最完善的國家之一。在光環(huán)新網(wǎng)運營的AWS中國(北京)區(qū)域,在西云數(shù)據(jù)運營的AWS中國(寧夏)區(qū)域,我們提供的云服務(wù)數(shù)量加速增長,全面展開。我們在中國的APN合作伙伴數(shù)量不斷增加,生態(tài)系統(tǒng)日益完善,幫助我們將AWS全球領(lǐng)先的云服務(wù),帶給中國各種類型的客戶,賦能中國經(jīng)濟的轉(zhuǎn)型升級,加速創(chuàng)新,助力中國經(jīng)濟高質(zhì)量發(fā)展?!盇WS全球副總裁、大中華區(qū)執(zhí)行董事容永康在峰會期間表示。
據(jù)介紹,目前已有很多著名的中小企業(yè)、獨角獸成為AWS平臺的用戶。另外,三一重工、美的、海航、OPPO等大型企業(yè)也把其數(shù)據(jù)和應(yīng)用放到了AWS平臺上面。
“對我們來說,我覺得這些都是剛起步,中國的市場還有很多發(fā)展空間,我們也希望可以針對中國的市場繼續(xù)開闊推廣更多新的服務(wù)進來?!叭萦揽祻娬{(diào)。
如何進一步開拓中國市場,實現(xiàn)差異化競爭優(yōu)勢?技術(shù)服務(wù)創(chuàng)新成為AWS的殺手锏。AWS在云計算領(lǐng)域的技術(shù)實力不用過多的闡述,其早已經(jīng)成為整個云計算領(lǐng)域事實標準的一部分。如今,隨著AI應(yīng)用的深入,AI技術(shù)也成為AWS差異化競爭的砝碼。
亞馬遜很早就在內(nèi)部開始采用人工智能有關(guān)的技術(shù),例如亞馬遜的倉庫通過應(yīng)用人工智能和機器學(xué)習(xí)技術(shù),實現(xiàn)智慧物流。另外,在亞馬遜網(wǎng)站購物,網(wǎng)站在頁面上會顯示根據(jù)網(wǎng)民的過往的購買的歷史記錄,推薦出很有可能會購買的產(chǎn)品。“這其實用到了預(yù)測性算法,這種算法非常強大,對客戶來說也非常有價值。”亞馬遜AWS全球技術(shù)與開發(fā)者布道師團隊負責(zé)人Ian Massingham表示。AWS的大客戶Netflix也是使用了這樣的算法,Netflix曾表示,該公司75%的視頻流量其實都是通過這樣的推薦引擎來實現(xiàn)的。

亞馬遜AWS全球技術(shù)與開發(fā)者布道師團隊負責(zé)人Ian Massingham
如今,隨著AI技術(shù)應(yīng)用越發(fā)深入,AWS把已把ML和AI的技術(shù)打包成服務(wù)放在平臺上,即使用戶不是這方面專家,也可以輕松去使用。同時,開發(fā)人員可以針對不同的使用場景選擇不同的機器學(xué)習(xí)框架和工具。
為什么有這么多開發(fā)人員以及客戶選擇在AWS平臺之上來運行他們的深度學(xué)習(xí)和機器學(xué)習(xí)呢?Ian Massingham表示有兩個原因。一是AWS本身這個平臺之上已經(jīng)有大量數(shù)據(jù)了,同時還有很多全球的客戶與AWS分享了數(shù)據(jù)。二是AWS的ML和AI服務(wù)可以與AWS其他云服務(wù)進行結(jié)合。
(中國電子報、電子信息產(chǎn)業(yè)網(wǎng))
]]>
近日,由中科院重慶研究院和中國民航管理干部學(xué)院聯(lián)合組建的民航反恐技術(shù)聯(lián)合實驗室迎來新成員——智慧航安(北京)科技有限公司。
聯(lián)合實驗室一直致力于智能技術(shù)在民航領(lǐng)域的應(yīng)用優(yōu)化,而智慧航安作為一家提供智慧型民航安保解決方案的高科技公司,已與中科院重慶研究院共同研發(fā)出示范應(yīng)用于國內(nèi)65家機場的安檢人臉識別輔助驗證系統(tǒng)。此次智慧航安帶著“航空安保智慧大腦”等更優(yōu)智能技術(shù)民航領(lǐng)域解決方案加入聯(lián)合實驗室,讓三方聯(lián)系更加緊密,必將進一步推動全國機場的智慧化建設(shè)。
強強聯(lián)手 打造新一代智慧民航
隨著綜合國力的提升,我國在國際社會中的作用與影響越來越突出,作為連接世界的橋梁和紐帶的中國機場更迎來全新的發(fā)展階段。人們對民航的期望值日益增長,更加追求便捷、舒適、高效,更加聚焦智慧民航的發(fā)展。近日,中國民用航空局副局長呂爾學(xué)與中科院副院長張亞平舉行工作座談,雙方一致表示,要聚焦我國民航發(fā)展的科技創(chuàng)新需求,瞄準民航重點領(lǐng)域和重大產(chǎn)品,全面攜起手來,充分發(fā)揮各自優(yōu)勢,聯(lián)合建立全方位、長遠、順暢的戰(zhàn)略合作關(guān)系和常態(tài)化的交流機制,突出智庫支持,強化技術(shù)合作,共建科技創(chuàng)新平臺,加強科技人才培養(yǎng),共同努力打造產(chǎn)學(xué)研用高效融合的現(xiàn)代民航行業(yè),推動民航強國與科技強國建設(shè)不斷邁上新臺階。
同時,中科院的弘光專項項目“機場安檢智能識別系統(tǒng)”捷報頻傳。其子系統(tǒng)——安檢人臉識別輔助驗證系統(tǒng)累計已示范應(yīng)用于國內(nèi)65家機場的旅客安檢,覆蓋585條安檢通道的旅客安檢,在全國年吞吐量3000萬人次以上機場示范覆蓋率為80%。其識別準確率高于99%驗證速度小于1秒的先進技術(shù),在2017年廣州白云機場安檢現(xiàn)場評測戰(zhàn)勝了國內(nèi)排名最靠前的人臉識別技術(shù)廠商。應(yīng)用該系統(tǒng)的國內(nèi)機場,安檢整體水平得到顯著提升,如廈門高崎機場,啟用該系統(tǒng)6天內(nèi)連續(xù)查獲9宗企圖持用他人證件乘機事件。重慶江北機場,在安裝該系統(tǒng)一年內(nèi)查獲冒名頂替者乘機233人。這些成果,都與中科院弘光專項在民航智慧安保方面的唯一產(chǎn)業(yè)化單位——智慧航安息息相關(guān)。

“早在2016年,智慧航安就與中科院重慶研究院簽署戰(zhàn)略合作協(xié)議,成為中科院重慶研究院人臉識別技術(shù)在民航領(lǐng)域的唯一科技成果轉(zhuǎn)化單位。”智慧航安相關(guān)負責(zé)人介紹,智慧航安以計算機視覺為核心,基于智慧、安全出行場景,提供全流程服務(wù)。核心技術(shù)與應(yīng)用上,智慧航安早已與中科院建立了戰(zhàn)略合作關(guān)系?!按舜渭尤肼?lián)合實驗室,更能將我們的優(yōu)勢充分發(fā)揮,將讓我們與中科院重慶院、中國民航的合作更加緊密。營造開放、多元、跨界、協(xié)同、互補的氛圍。通過人臉識別技術(shù)與大數(shù)據(jù)應(yīng)用,以人工智能技術(shù)推進機場安防行業(yè)變革”。該負責(zé)人表示。
“智慧大腦”AI+民航未來可期
此次加入聯(lián)合實驗室,智慧航安備足“干貨”。“航空安保智慧大腦是我們?yōu)槊窈搅可泶蛟斓闹悄芗夹g(shù)融合方案。”該負責(zé)人介紹,“智慧大腦”將全面整合民航領(lǐng)域的信息流、數(shù)據(jù)流。在安防方面,打造標準化、覆蓋機場道路、停車場、休息廳、登機柜臺、機場跑道、停機坪等不同區(qū)域的多級安檢平臺大數(shù)據(jù)框架,建立與安檢平行的數(shù)據(jù)庫,著重對安檢各類生產(chǎn)數(shù)據(jù)全面收集、統(tǒng)計和分析,為安檢提供系統(tǒng)級能力。
在旅客方面,打造智能安檢分流、全流程人臉識別通關(guān)等智慧便捷通關(guān)方式,輔以航班信息查詢、乘機購物等路線指引、外部天氣情況播報、“刷臉”尋人等。
在商業(yè)方面,為商戶和機場管理者提供人流分析、顧客屬性分析,用大數(shù)據(jù)得出最優(yōu)購買轉(zhuǎn)化方案,以供規(guī)劃投資。
在管理方面,安檢人員培訓(xùn)考核系統(tǒng)、智能人員管理系統(tǒng)和安檢判圖人員工作狀態(tài)管理系統(tǒng)等已為在用機場節(jié)約巨大成本。
“人臉識別抓拍的一張清晰照片,替代紙質(zhì),成為機場內(nèi)標識驗訖的通行憑證。機場工作人員不用再廣播尋人,依靠機場安檢智能識別系統(tǒng),就能找到那些迷路或是即將要錯過航班的旅客。刷個臉,就表示安檢人員在崗,沒有認真判別行李X光圖,計算機會發(fā)出提醒。”該負責(zé)人表示,這不是未來的藍圖,這是已經(jīng)在各個機場應(yīng)用的現(xiàn)實。大數(shù)據(jù)、云計算、人工智能為代表的新一輪技術(shù)的蓬勃發(fā)展,為打造“智慧民航”提供了堅實的基礎(chǔ),并一步步在實現(xiàn)。中科院重慶院、中國民航與智慧航安攜手站在這樣的歷史節(jié)點上,必將努力推進技術(shù)的產(chǎn)業(yè)化應(yīng)用,加快智能化、智慧化的科技支持。
智慧民航,未來可期。
(中國民用航空網(wǎng))
]]>
人工智能技術(shù)不僅關(guān)系到國家的工業(yè)發(fā)展,而且對國民經(jīng)濟也起著舉足輕重的作用,國防、醫(yī)療均與它息息相關(guān)。故而人工智能市場競爭異常激烈,業(yè)界都想搶占其制高點。
根據(jù)美國研究公司Tractica的報告,預(yù)計到2030年,全球AI市場規(guī)模將擴大到3671億美元。在2017年,它的市場規(guī)模約為100億美元,這表明短短8年時間內(nèi)AI市場規(guī)模將會增長36倍,年平均增長率可達63.5%。并且AI市場將主要圍繞3方面拓展,AI軟件、AI硬件及AI業(yè)務(wù)。
美國AI公司實力幾何
美國人工智能水平有目共睹,IBM、微軟、Google被稱為“世界AI三強”。
IBM是最早從事人工智能(沃森是IBM開發(fā)的問答系統(tǒng),使用自然語言處理方法處理日語和英語等詞匯,并搜索數(shù)據(jù)庫找到正確的答案)研發(fā)工作的公司,并成功實現(xiàn)AI商業(yè)化,獲得AI相關(guān)專利的數(shù)量也是世界上最多的。但在業(yè)績方面,自2011年起,其銷售額一直在持續(xù)下降,雖把重點放在增長比較好的人工智能和云技術(shù)領(lǐng)域,但也未能有效改善業(yè)績低迷的情況。沃森的市場份額能否在人工智能市場上得到延伸,這將在很大程度上影響到IBM的未來。
微軟在25年前就在人工智能領(lǐng)域進行投資,并已有相對成熟應(yīng)用。例如將Cortana(語音對話、個人助理)內(nèi)置到個人電腦和智能手機中和Skype?Translator(語音、輸入文本的自動翻譯)中。微軟還發(fā)布了可創(chuàng)建類似模板的交換消息應(yīng)用程序,并得到推廣(如中國蕭冰、女高中生AI Rin、面向歐洲和美國的ZO聊天機器人等),可以說它是一家專注于AI領(lǐng)域的公司。
Google銷售額和EPS(普通股每股稅后利潤)均保持穩(wěn)定增長態(tài)勢,2007~2016年EPS年均增長率為15.39%,這是一個非常好的數(shù)字。它的AI研究人員數(shù)量相當于全世界總量的10%。筆者獲悉,谷歌研究人員目前開發(fā)出了在嘈雜環(huán)境下辨認某個特定人聲音的“深度學(xué)習(xí)視聽模型”技術(shù)。該技術(shù)可在許多人都在說話的環(huán)境中,將所有多余的聲音排除,從中辨認出某個特定人的聲音,他們把這個現(xiàn)象稱為“雞尾酒會效應(yīng)”。這就是Google的智能玻璃(Google Glass),它可實現(xiàn)實時語音識別和即時轉(zhuǎn)錄。
亞馬遜提供的人工智能揚聲器“Amazon Echo”和AI語音助手“Alexa”,在語音識別領(lǐng)域占據(jù)頂端地位。此外,其機器學(xué)習(xí)和人工智能在網(wǎng)絡(luò)銷售中也被廣泛采用。在2007年~2016年10年中,該公司銷售增長率每年以24.8%的速度大幅增長。亞馬遜于2015年7月推出了搭載Amazon Echo的人工智能音響Alexa。根據(jù)美國調(diào)查公司Forester Research的調(diào)查,其2016年銷售了1100萬臺,2017年銷售了2200萬臺。
德國主要汽車制造商寶馬集團,將從2018年起在德國、美國、英國銷售的“BMW”及“MINI”車輛上,安裝Alexa。屆時,用戶在車內(nèi)將無需通過智能手機等終端,就能夠?qū)崿F(xiàn)聽音樂、查看目的地天氣,并搜索附近餐廳等功能。此外,安裝Alexa的公司,還有福特、大眾、豐田等。
與此同時,奧迪和沃爾沃汽車,也將在下一代車型中安裝可在車內(nèi)使用“Google智能助理”的車載系統(tǒng)“Android Auto”。目前這些AI輔助設(shè)備的應(yīng)用主要以音頻為主。但是,由于音頻功能有限,因此實際使用的場景也非常有限。
亞馬遜公司自2017年6月起發(fā)布帶觸摸顯示屏的“Echo Show”。在2018國際消費電子展(CES)上,聯(lián)想和LG等多家制造商發(fā)布帶有Google Assistant帶顯示器的AI輔助設(shè)備。此外,AI與電視機的融合也在推進中。例如,亞馬遜宣布其“Fire TV”網(wǎng)絡(luò)電視可與Amazon?Echo Show聯(lián)動,該產(chǎn)品可以提供視頻分發(fā)服務(wù)。同樣,Google也宣布“Chromecast”與Google Home之間聯(lián)動。這一系列行動意味著信息不僅可以通過聲音提供,還可以通過電視和顯示器提供。
2017年4月,亞馬遜宣布推出搭載英特爾3D攝像頭的“Echo Look”設(shè)備,并在美國銷售。Echo Look除了具備Amazon Echo的基本功能外,還使用智能手機專用應(yīng)用程序和3D相機,提供獨特的機器學(xué)習(xí)算法、樣式檢查功能等。
接口的多樣化也將改變AI智能助理設(shè)備的使用方式。不僅是音頻,而且通過顯示器和電視機等方式,增加其表現(xiàn)力和現(xiàn)實感。這樣,“商品訂購”應(yīng)用將會增加。此外,通過使用3D相機,實現(xiàn)個人電腦或智能手機無法完成的購物體驗也將成為可能。人工智能助理設(shè)備也有可能成為家庭中的新購物渠道。
谷歌、蘋果、阿里巴巴、百度、微軟的Cortana等公司,相繼發(fā)布人工智能助理設(shè)備。美國調(diào)查公司Gartner表示,預(yù)計到2021年,以亞馬遜(Amazon Echo)為代表的“虛擬個人助理對應(yīng)的無線音箱(揚聲器類型AI輔助設(shè)備)”市場銷售額,將從2010年的3億6000萬美元增長到21億美元,25%的家庭將擁有2臺以上這類設(shè)備。
蘋果在AI領(lǐng)域,與其它競爭對手相比較為落后,但蘋果公司推出AI與IoT組合的人工智能揚聲器“家波德”,具有很強的品牌影響力,將在世界各地推廣,對亞馬遜和谷歌產(chǎn)生威脅。從上述可見,美國AI技術(shù)是相當強大的。
在AI競爭中中國緊追而上
日本媒體認為,中國已成為世界工業(yè)機器人最大的市場。除了傳統(tǒng)的高新技術(shù)產(chǎn)業(yè)外,包括制造業(yè)和人工智能的融合,將會極大地改變國家的產(chǎn)業(yè)結(jié)構(gòu)。目前“AI大國”是美國,但中國是一個快速增長的國家,正在急速追趕美國?!癆I大國”這個稱號未來可能會被中國所取代,這正是美國非常擔(dān)心的。
美國媒體曾報道稱,在AI領(lǐng)域中,根據(jù)美國和中國AI專家最近發(fā)表的論文分析,中國在幾個領(lǐng)域己領(lǐng)先美國。中國有7億互聯(lián)網(wǎng)用戶,在收集大數(shù)據(jù)方面處于有利地位。
近日,美國相關(guān)專家表示,在機器人和人工智能方面,美國有可能失去對中國的競爭優(yōu)勢。人工智能對未來經(jīng)濟和防衛(wèi)能力提升極其重要。他同時指出,中國相當重視這些技術(shù)的發(fā)展,已把這些技術(shù)開發(fā)和應(yīng)用上升為國家戰(zhàn)略規(guī)劃。從最近中美貿(mào)易摩擦來看,美國不斷對中國高科技動手,也充分顯示出美國對于在技術(shù)競爭中有可能被中國趕超的焦躁。
AI競爭,日本感到失落
日本MM研究所于上年發(fā)表了調(diào)查報告,對日本、美國、德國等國的企業(yè)在商業(yè)領(lǐng)域中是否引進人工智能的調(diào)查顯示,日本“部署了”人工智能的企業(yè)為1.8%,“在考慮引進”的企業(yè)為17.9%。美國“部署了”AI的企業(yè)是13.3%,“正在考慮中”的是32.9%。德國分別為4.9%和22.4%??梢钥闯?,美國、德國在商業(yè)活動積極引入人工智能,而日本的進度則遠遠落后于美國和德國。另外調(diào)查顯示,日本的人工智能市場規(guī)模2016年為2220億日元,預(yù)計到2021年會增長到5610億日元。而美國市場規(guī)模將由300.943萬億日元增長到700.8360萬億日元,德國市場規(guī)模有望從3260億日元擴大至5330億日元。從年增長率相比較,日本為20.4%,美國超過日本14.9%,德國超過日本10.3%。并且在日本認為“使用人工智能的環(huán)境尚未到位”的比例高達31.3%。而美國和德國則一直保持在20%左右,可以說,日本使用人工智能的環(huán)境相對欠缺。
據(jù)筆者了解,2018年日本政府預(yù)算計劃中AI的預(yù)算總額為770.4億日元,還不到美國和中國在該領(lǐng)域的投資的20%,并且日本和美國在此領(lǐng)域內(nèi)的民營投資差距更大,詳見表。
表??日本、美國、中國3國官民投資情況

雖然日本也把人工智能作為“產(chǎn)業(yè)革命”的支柱,但由于財政能力上的限制,仍顯不足,因此其劣勢還會持續(xù)下去。日本認為要把有限的預(yù)算集中在有實力的領(lǐng)域,以及引入民營資本將是未來的關(guān)鍵。日本經(jīng)濟產(chǎn)業(yè)界認為,美國公司在互聯(lián)網(wǎng)相關(guān)領(lǐng)域占絕對主導(dǎo)地位,這種狀況近期很難改變。
日本政府于2017年12月14日,把自動駕駛汽車和高性能機器人等人工智能作為突破重點,旨在鼓勵被稱為“第四次工業(yè)革命”的人工智能領(lǐng)域的技術(shù)創(chuàng)新,并使其成為經(jīng)濟增長的推進劑。日本政府提出“社會5.0”概念,希望通過人工智能、物聯(lián)網(wǎng)等新技術(shù)的組合拳,來改造社會。在2017年12月8日日本政府提出的“人力資源開發(fā)革命”和“生產(chǎn)力革命”一系列計劃中,也強調(diào)了引入人工智能、機器人等的必要性,日本設(shè)法在人工智能方面也要有所作為,爭取去掉失落感。
日本公司在努力拓展AI市場
日本移動巨頭正在用視頻配送和銷售等服務(wù),著手進行“銷售改革”。例如,NTT DoCoMo將在2018年5月升級客戶管理系統(tǒng),讓客戶及其行為歷史數(shù)據(jù)相互關(guān)聯(lián),從各客戶的興趣對其推送最佳信息等。DoCoMo將建立一個包含客戶購買信息和結(jié)算數(shù)據(jù)的“理解客戶引擎”系統(tǒng),對客戶年齡、性別等屬性信息進行管理,使用自家門戶網(wǎng)站實施推送通知,通過人工智能代理提供誘導(dǎo)服務(wù)。例如,當客戶使用閱讀無限制“d雜志”服務(wù)瀏覽旅行雜志的時候,可一邊提供互聯(lián)網(wǎng)購物網(wǎng)站“d購物”的旅行商品信息,一邊用AI代理在終端屏幕上顯示信息指南。
NTT DoCoMo、會津電力公司(福島縣喜多方市)和JTB于2018年3月19日~23日,瞄準觀光客和行動不便人士需求,進行人工智能交通運輸系統(tǒng)“AI公共汽車”演示實驗。該公交車沒有固定的運行路線,當使用者在智能手機上發(fā)出調(diào)度請求,AI會計算并選擇最佳行車路線。演示實驗點選擇在敦鶴城和飯盛山主要旅游景點、餐飲場所和JR會津若松車站出入口等全市25個地區(qū)。乘客用手機下載專用應(yīng)用程序,通過設(shè)置乘車地點、人數(shù)、時間等進行車輛預(yù)約。車輛的當前位置可以在應(yīng)用程序的地圖上確認,并且公共汽車會在5~10分鐘內(nèi)抵達。AI根據(jù)用戶的請求和公共汽車位置等實時計算出最高效的接單路線,并將指令發(fā)送到司機的平板電腦上。如果有新的請求,可以隨時更改路線。
KDDI將于2018年提高客戶行為預(yù)測模型的準確性,著手加強銷售與服務(wù)關(guān)聯(lián)性。在手機市場日趨成熟的同時,其將利用客戶數(shù)據(jù)加強非面對面的“數(shù)字客戶服務(wù)”,推動服務(wù)持續(xù)發(fā)展和獲取更多客戶。伴隨著KDDI客戶數(shù)據(jù)的類型增加、AI對用戶的行為預(yù)測完善化。豐田汽車公司、JapanTaxi、KDDI和埃森哲4家公司,于2018年3月9日宣布,利用AI開發(fā)出能夠預(yù)測出出租車需求的“調(diào)度支撐系統(tǒng)”。出租車調(diào)度支撐系統(tǒng),能把東京區(qū)域內(nèi)每500米的出租汽車數(shù)量,進行預(yù)測,并每隔30分鐘進行更新。以JapanTaxi公司提供的出租車服務(wù)記錄,再加由KDDI所持有的智能手機位置信息、大數(shù)據(jù)生成的人口動態(tài)預(yù)測數(shù)據(jù)分析、出租車需求受大氣影響因素、公共交通運營狀況、周邊社會活動等信息數(shù)據(jù),通過AI分析,得出對應(yīng)于不同需求的多個學(xué)習(xí)模式。東京區(qū)域內(nèi)需求預(yù)測精度達94.1%。
出租車調(diào)度支撐系統(tǒng)可把出租車需求預(yù)測信息發(fā)送到配有專用應(yīng)用程序的終端上,并在終端上顯示出相應(yīng)區(qū)域內(nèi)的預(yù)測乘車數(shù)及周邊當前出租車空車數(shù),以便出租車司機能夠更好的去安排行程,讓供給和需求得到平衡。此外,系統(tǒng)還會在業(yè)績好的司機經(jīng)驗數(shù)據(jù)基礎(chǔ)上,進行配信。出租車調(diào)度支持系統(tǒng)不僅可以縮短用戶的等待時間,還可以提高出租車的乘坐率。4家公司推出實驗系統(tǒng)以來,已引進數(shù)家JapanTaxi的子公司,在真實環(huán)境中進行驗證。使用該系統(tǒng)的出租車司機每天出租車拉客數(shù),與未使用時相比,平均增加20.4%,出租車司機整體增長率達到9.4%。4家公司表示,今后將逐漸引進幾十個出租車公司進行試驗,目標是在2018財年實現(xiàn)商業(yè)化。
未來人才競爭是關(guān)鍵
美國在未來3年內(nèi)將建成全國性5G網(wǎng)絡(luò)。外媒稱,中國將有可能掌握5G網(wǎng)絡(luò)設(shè)備制造和運營的主導(dǎo)權(quán),因此美國急需開發(fā)超高速的5G無線技術(shù)。據(jù)知情人士透露,白宮將討論是否建設(shè)和運營5G網(wǎng)絡(luò),運營商是否投入基金,建立基礎(chǔ)設(shè)施等問題。在成立基金會時,運營商必須首先考慮國家利益,而不是自身利益。
在今年3月份,微軟在利用深層神經(jīng)網(wǎng)絡(luò)人工智能(AI)訓(xùn)練技術(shù)翻譯文本方面,取得了進展。他們發(fā)明了第一臺機器翻譯系統(tǒng),可以將中文新聞翻譯成英文,準確率與人類不相上下。以App應(yīng)用、API的形式提供給用戶,同時,為包括Office、必應(yīng)在內(nèi)的微軟許多產(chǎn)品提供翻譯引擎。
未來AI人才爭奪將是一個關(guān)鍵點。據(jù)了解,在技術(shù)職務(wù)招聘中,包括人工智能支持無人駕駛操作系統(tǒng)的研發(fā)、連接的汽車通信技術(shù)的研發(fā)、電動摩托車等的研發(fā),都有廣泛的發(fā)展前景。本田公司宣布2018年招聘增加到700人,比2017年增加20%。本田公司預(yù)計到2020年在高速公路上實現(xiàn)無人駕駛,到2025年在所有道路上實現(xiàn)無人駕駛。
自動駕駛技術(shù)和人工智能等領(lǐng)域研發(fā)前景廣闊,不同行業(yè)使用人工智能趨勢明顯。特別是在世界無人汽車駕駛競爭中,已經(jīng)異常激烈,世界各著名汽車制造企業(yè),都急于搜集專業(yè)人員并強化研發(fā)工作,人才爭奪戰(zhàn)已經(jīng)開啟。
(《通信世界》)
樂思網(wǎng)絡(luò)輿情監(jiān)測系統(tǒng)
互聯(lián)網(wǎng)輿情傳播過程中表現(xiàn)出的五大特性
]]>
人類間諜很快就會成為過去的遺跡,中情局(CIA)也知道這一點。最近,該機構(gòu)的技術(shù)開發(fā)副主任Dawn Meyerriecks在佛羅里達州的一次情報會議上表示,美國中央情報局正在適應(yīng)一種新的環(huán)境:其面對的主要對手是機器,而不是外國特工。
Meyerriecks在會議結(jié)束后對CNN說,其他國家多年來一直依靠人工智能來追蹤敵方特工。接著,她解釋說,在當前數(shù)字追蹤和社交媒體的時代背景下,中情局間諜試圖以一種假定的身份生活十分困難,因而,現(xiàn)代世界日益演變成為一個不適宜人類間諜居住的環(huán)境。但是中央情報局不會放棄。美國歷史最悠久的間諜機構(gòu)正在經(jīng)歷一場轉(zhuǎn)型:從一個向全球各地派遣人員來收集信息的機構(gòu),轉(zhuǎn)變?yōu)槭褂糜嬎銠C來更有效地完成同樣的任務(wù)。
為了這個轉(zhuǎn)變,中央情報局花了30多年的時間來做準備。
1984年的政府文件曾提及“人工智能指導(dǎo)小組(AI Steering Group)”,該小組成立于前一年。該組織負責(zé)為中情局的負責(zé)人提供關(guān)于人工智能研究和發(fā)展現(xiàn)狀的月度報告。
在一份1984年寫給中情局局長的解密文件中,人工智能指導(dǎo)小組的主席寫道:
人工智能的研發(fā)工作已經(jīng)開始了。這些領(lǐng)域包括專家系統(tǒng)、自然語言處理、智能數(shù)據(jù)庫接口、圖像理解、信號解釋、地理和空間數(shù)據(jù)管理以及智能工作站環(huán)境。
即使大多數(shù)人認為AI是純粹的科幻小說,中央情報局認識到了人工智能技術(shù)所代表的未來。
![]()
(圖:一份解密的1984年美國海軍文件,用于向人工智能指導(dǎo)小組提交報告。)
這份文件呼吁對代理進行更多的訓(xùn)練,重點是在學(xué)術(shù)和專業(yè)環(huán)境中支持人工智能開發(fā)人員,并建立一個開源的人工智能信息搜集所,以供政府機構(gòu)共享。
今天的間諜和以往相比面臨同樣的問題:需要隱形。改變的其實是對手。特工們不再需要用偽造的文件和謊言來欺騙人們,而是要愚弄那些能夠在人群中挑出一張臉的電腦。
根據(jù)Meyerriecks的說法,至少有30個國家有能力使用現(xiàn)有的閉路電視攝像頭系統(tǒng)來做到這一點。這意味著反間諜工具在國際上的“捉迷藏”游戲中占據(jù)了上風(fēng),那就是全球情報(global intelligence community)。
隨著衛(wèi)星跟蹤和地理空間智能的發(fā)展,人類間諜不會有機會對抗下一代人工智能。
我們一直認為,像詹姆斯·邦德這樣的間諜擁有最酷的裝備。現(xiàn)在人類間諜被AI取代了。
(thenextweb)
]]>