国产精品久久久久久久久久久久午衣片,国产成人精品男人的天堂网站,熟女一区二区中文字幕,亚洲精品国产精品乱码在线

中信建投:谷歌旗下兩大AI實(shí)驗室合并 機器人模型進(jìn)展有望進(jìn)一步加速


(資料圖)

中信建投發(fā)布研報稱(chēng),2023年4月20日,Google宣布將Google Brain和DeepMind兩大世界級AI實(shí)驗室合并,成立Google DeepMind部門(mén),以谷歌的計算資源作為后盾,加速人工智能研發(fā)和應用的推進(jìn)。Google Deepmind在2023年6月和7月發(fā)布了其最新研究成果,具備“自我完善”能力的“RoboCat”和融合大語(yǔ)言模型能力的VLA模型“RT-2”,機器人智能化進(jìn)一步加速,有望掀起新一輪AI革命。

中信建投主要觀(guān)點(diǎn)如下

從Gato到RoboCat,更大規模的訓練數據集和創(chuàng )新的自我完善方法助力打造更強的機器人智能體。在2022年5月提出的Gato模型將智能體擴展到機器人控制領(lǐng)域中,但“通用性”和“智能性”仍有較大提升空間,其模型架構和控制任務(wù)數據的序列化方式是后續模型發(fā)展的重要基礎。2023年7月提出的RoboCat則基于Gato的模型基礎,將訓練數據集擴充至400萬(wàn)個(gè)機器人相關(guān)片段,并創(chuàng )新性的提出“自我完善”的方式來(lái)進(jìn)一步豐富訓練數據,這兩點(diǎn)創(chuàng )新讓RoboCat在實(shí)現了訓練任務(wù)的性能提升并具備了一定的泛化性能,并且能夠在少量數據微調的情況下處理未見(jiàn)過(guò)的任務(wù)。

從RT-1到RT-2,大語(yǔ)言模型帶來(lái)更強的泛化能力、邏輯推理能力、知識能力,深度賦能機器人智能化。2022年12月提出的RT-1模型構建起了特定的指令、圖像和機器人指令之間的橋梁;2023年3月的PaLM-E模型則能夠處理輸入的文本和圖像信息,將復雜任務(wù)轉化為RT-1能夠接受的指令;2023年7月提出的RT-2是二者的融合, 在大語(yǔ)言模型強大能力的賦能下,RT-2能夠完成分解復雜任務(wù)、簡(jiǎn)單的計算、識別人臉等現實(shí)場(chǎng)景中常見(jiàn)但以往的模型無(wú)法完成的任務(wù),智能化程度大幅提升。

差異路線(xiàn)引領(lǐng)發(fā)展,團隊整合協(xié)同革新。Google Brain和DeepMind兩個(gè)團隊從兩個(gè)不同的切入點(diǎn)出發(fā)逐步推進(jìn)AI機器人模型發(fā)展,DeepMind團隊從智能體(Agent)的角度出發(fā)不斷提升機器人能力,因此RoboCat中的訓練數據大多來(lái)自強化學(xué)習,模型參數量控制表現更為優(yōu)秀,能夠實(shí)現更高頻率的機器人控制;而Google Brain則嘗試將大語(yǔ)言模型應用到機器人的控制領(lǐng)域,因此RT-2的模型參數量更大,在泛化能力、知識和推理能力方面有更強的表現。隨著(zhù)兩個(gè)團隊進(jìn)一步合并,深化數據、模型等方面的協(xié)同合作,谷歌的機器人模型進(jìn)展有望進(jìn)一步加速。

關(guān)鍵詞: