国产精品久久久久久久久久久久午衣片,国产成人精品男人的天堂网站,熟女一区二区中文字幕,亚洲精品国产精品乱码在线

AI一周見(jiàn)聞:谷歌從模型到應用全面沖刺,OpenAI3D建模只需100秒,Meta開(kāi)源新模型,AI學(xué)會(huì )人類(lèi)感知 | 見(jiàn)智研究|天天視訊

每周日AI一周見(jiàn)聞與您相約。AI一周見(jiàn)聞涵蓋四大部分:每周見(jiàn)聞、企業(yè)新品發(fā)布、AI黑科技、下周看點(diǎn)。

每周見(jiàn)聞

本周要點(diǎn)匯總:

1、谷歌從模型到應用全面進(jìn)擊AI,PaLM2讓Bard更強大,辦公套裝Workspace叫板Office。

2、3D建模大突破,OpenAI推出文本生成3D模型—Shap-E,生成3D模型從2分鐘優(yōu)化到100秒。


(資料圖)

3、Meta開(kāi)源 ImageBind 新模型,AI學(xué)會(huì )人類(lèi)感知,圖片是嫁接橋梁。

4、GPT4最強對手Claude史詩(shī)升級,解讀百頁(yè)資料僅需一分鐘。

5、還有三種黑科技,AI超寫(xiě)實(shí)數字人為何凸顯商業(yè)價(jià)值、AI更懂視頻等內容。

企業(yè)新品發(fā)布

1、谷歌從模型到應用全面進(jìn)擊AI

本周谷歌的I/O發(fā)布會(huì )備受矚目,新品發(fā)布效果超出市場(chǎng)的預期。谷歌不僅僅發(fā)布了新模型PaLM2,還將AI全面接入辦公套裝Workspace,直接叫板Office。

值得關(guān)注的是,新推出PalM2模型有四種大小,包括Gecko、Otter、Bison和Unicorn。Gecko作為最輕量的版本,可以部署到移動(dòng)端,易于微調各類(lèi)細分模型,提供每秒處理20個(gè)token的能力。

此前大模型在邊緣側終端的應用主要是依靠API接口調用的方式,大模型的訓練和推理仍在云端進(jìn)行,對邊緣側終端及芯片形態(tài)更新沒(méi)有太大需求。

輕量化Gecko版本,能夠提供AIGC更為定制化、時(shí)延更低,安全性、隱私性更好的應用,開(kāi)拓AI模型在終端芯片推理的場(chǎng)景,邊緣側智能終端以及SoC有望全面升級,進(jìn)入新的更新?lián)Q代周期。

見(jiàn)智研究認為:谷歌的PalM2模型推出,能夠更好的驅動(dòng)機器人Bard升級,不僅能夠使用100中語(yǔ)言回復用戶(hù),多模態(tài)版本的Bard還更新了圖像、編程、應用集成等功能;而且還在醫學(xué)上被認達到臨床專(zhuān)家水平。

此外,PalM2大模型的又一亮點(diǎn)就是全球首個(gè)支持移動(dòng)端部署的大模型AI,被看做是點(diǎn)燃移動(dòng)邊緣端的Ai大模型競賽。意味著(zhù)大模型競賽的路線(xiàn)現在已經(jīng)從PC端拓展到手機和IOT領(lǐng)域。

從谷歌的研發(fā)力和生態(tài)的角度來(lái)看:

在A(yíng)I基礎設施上:A3虛擬機訓練速度目前比其他設施快80%,成本低50%;Vertex AI平臺能夠給開(kāi)發(fā)者提供多種基礎模型,用于微調從而盡快得到專(zhuān)屬模型。

在應用生態(tài)上:谷歌搜索推出Converse的生成式AI功能,不僅能夠寫(xiě)郵件、寫(xiě)文案、做表格、PPT能力直接對標Office,而且在決定購買(mǎi)性?xún)r(jià)比更好的產(chǎn)品時(shí)候特別有用。

之后最值得關(guān)注的是谷歌將推出基于Bard的拓展插件,擴大機器人的應用場(chǎng)景,比如讓Adobe 生成全新的圖像,用REDFIN進(jìn)行一個(gè)地區的所有房地產(chǎn)市場(chǎng)研究,購物、訂酒店、找工作都不在話(huà)下。

2、3D建模重大突破,OpenAI推出文本生成3D模型—Shap-E

傳統3D模型需要開(kāi)發(fā)者進(jìn)行手動(dòng)建模,而Shap-E模型可以只用過(guò)自然語(yǔ)言的描述創(chuàng )建3D模型,極大的提高了創(chuàng )作的效率和質(zhì)量。Shap-E模型可在GitHub上免費獲得,并支持在PC上本地運行。下載完所有文件和模型后,不需要聯(lián)網(wǎng)。最重要的是,它不需要OpenAI API密鑰,完全免費。

見(jiàn)智研究認為:Shap-E應用于更常見(jiàn)的擴散模型,與此前發(fā)布的Point-E模型區別在于:Shap-E直接創(chuàng )建物體的形狀和紋理,并采用稱(chēng)為神經(jīng)輻射場(chǎng)(NeRF)的特征來(lái)克服早期模型的模糊性,使三維場(chǎng)景看起來(lái)像逼真的環(huán)境。Point-E是根據文本提示生成3D點(diǎn)云。

此外,每個(gè)Shap-E樣本在單個(gè)NVIDIA V13 GPU上生成大約需要100秒,Point-E將花費多達兩分鐘的時(shí)間在同一硬件上渲染。因此Shap-E比Point-E運行效率更快。

但該模型也仍有一定的缺陷,比如它在組合概念方面的能力有限,未來(lái)通過(guò)收集或生成更大的帶注釋的3D數據集可能有助于解決這些問(wèn)題。生成的樣本通??雌饋?lái)粗糙或缺乏細節,編碼器有時(shí)會(huì )丟失詳細的紋理。

雖然文字生成3D模型暫且比不上圖片的呈現效果,但仍舊是未來(lái)一個(gè)重要的方向。

3、Meta開(kāi)源ImageBind 新模型,AI學(xué)會(huì )人類(lèi)感知

Meta在開(kāi)源大模型的路上一騎絕塵,繼兩個(gè)月前開(kāi)源LLaMA大模型之后,再次于5月9日開(kāi)源了一個(gè)新的AI模型—— ImageBind。這個(gè)模型與眾不同之處便是可以將多個(gè)數據流連接在一起,包括文本、圖像/視頻和音頻、視覺(jué)、IMU、熱數據和深度(Depth)數據。這也是業(yè)界第一個(gè)能夠整合六種類(lèi)型數據的模型。

見(jiàn)智研究認為:ImageBind無(wú)需針對每一種可能性進(jìn)行訓練,而是直接預測數據之間的聯(lián)系的方式類(lèi)似于人類(lèi)感知。

ImageBind 通過(guò)圖像的綁定屬性,將每個(gè)模態(tài)的嵌入與圖像嵌入對齊,即圖像與各種模式共存,可以作為連接這些模式的橋梁,例如利用網(wǎng)絡(luò )數據將文本與圖像連接起來(lái),或者利用從帶有 IMU 傳感器的可穿戴相機中捕獲的視頻數據將運動(dòng)與視頻連接起來(lái)。這對于多模態(tài)發(fā)展來(lái)說(shuō)具有重大意義。

4、GPT4最強對手Claude史詩(shī)升級,解讀百頁(yè)資料僅需一分鐘

據Anthropic官方介紹,升級后的Claude-100k版本,對話(huà)和任務(wù)處理能力雙雙得到極大提升。一方面,是“一次性可處理文本量”的增加,另一方面則是“記憶力”的增加。

見(jiàn)智研究認為:此前大模型都存在對讀取超長(cháng)文本的困難,而Claude-100k打開(kāi)此該領(lǐng)域的天花板,GPT-4也不過(guò)才做到3.2萬(wàn)token,而Claude-100k能做到一次記憶10萬(wàn)token;能學(xué)習論文、幾小時(shí)的博客、財報等等都不在話(huà)下,更重要的是它不僅能通讀全文總結其中的要點(diǎn),還能進(jìn)一步完成具體任務(wù),如寫(xiě)代碼、整理表格等。本次更新對于機器文本學(xué)習來(lái)說(shuō)是重大躍遷。

AI黑科技

1、 AI藝人、女友商業(yè)價(jià)值顯現

本周AI女友Caryn、“AI孫燕姿”都爆火出圈;無(wú)論是和網(wǎng)友談戀愛(ài)收費每分鐘1美元 ,還是永生藝人,都讓數字人的商業(yè)價(jià)值備受矚目。

見(jiàn)智研究認為:AI虛擬人、數字人商業(yè)價(jià)值的提高,本質(zhì)原因是AI讓建模數字人的成本大幅降低。此前,CG建模數字人的制作周期通常需要1-2個(gè)月,報價(jià)在百萬(wàn)元左右不等,而現在A(yíng)I建模技術(shù)的快速迭代,讓3D寫(xiě)實(shí)數字人的價(jià)格降至千元級別。這也是為什么該應用能夠快速進(jìn)行推廣的核心原因。

2、AI看視頻:檢索關(guān)鍵字,精準卡位時(shí)間點(diǎn)

Twelve Labs能夠做到讓AI讀懂視頻,并且通過(guò)關(guān)鍵字搜索的方式從視頻中提取特征,例如動(dòng)作、對象、屏幕上的文本、語(yǔ)音和人物。


見(jiàn)智研究認為:此功能必然是視頻創(chuàng )作者的福音,能夠讓機器批量檢索大量視頻,并且精準定位所需要的視頻畫(huà)面,效率非常高。此功能是將視頻中的信息逐一定義為向量,從而實(shí)現快速檢索的功能。

3、 4D渲染—實(shí)現高清動(dòng)態(tài)還原

Synthesia Research 發(fā)布HumanRF(運動(dòng)中人類(lèi)的高保真神經(jīng)輻射場(chǎng)),通過(guò)視頻輸入來(lái)捕捉運動(dòng)中人的全部外觀(guān)細節,能夠讓合成的視頻更加高清,從4MP的分別率升級到12MP運行。HumanRF極大的解決了攝像機拍攝后進(jìn)行高分辨率視頻合成的困難。


見(jiàn)智研究認為:4D高清合成的突破性,對于視頻創(chuàng )作來(lái)說(shuō)具有重大意義。當下看到可以應用場(chǎng)景包括電影制作、電腦游戲或視頻會(huì )議等,邊界還能夠不斷拓展到超寫(xiě)實(shí)數字人的視頻生成領(lǐng)域。

下周關(guān)注重點(diǎn)

OpenAI向所有ChatGPT Plus 用戶(hù)開(kāi)放聯(lián)網(wǎng)功能和眾多插件!從Alpha 到 Beta,它們將允許ChatGPT 訪(fǎng)問(wèn)互聯(lián)網(wǎng)并使用70多個(gè)第三方插件。這些插件包括創(chuàng )建新網(wǎng)站,文本轉音頻,購物比價(jià)下單,總結和分析PDF文檔,創(chuàng )建專(zhuān)屬自己的智能工作流等等,涵蓋日常生活的衣食住行各個(gè)方面。

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: