安徽省發(fā)布的批目錄共896項,主要包括5G、人工智能、工業(yè)互聯(lián)網(wǎng)、數(shù)據(jù)中心、超算中心、物聯(lián)網(wǎng)等L域的新技術(shù)、新產(chǎn)品、新服務(wù)。其中,5G類157項,包括海康威視5G超G清攝像機、科大國盾5G安全接入終端等;人工智能類400項,包括科大訊飛智慧教育AI大腦、華米科技智能手表等;工業(yè)互聯(lián)網(wǎng)類87項,包括三只松鼠食品行業(yè)工業(yè)互聯(lián)網(wǎng)平臺、聯(lián)寶電子智能制造云平臺等;物聯(lián)網(wǎng)類98項,包括科大智能電力物聯(lián)網(wǎng)應(yīng)用技術(shù)、合工大智能研究院物聯(lián)網(wǎng)車輛智能綜合平臺;數(shù)據(jù)中心類86項,包括蚌埠京東云數(shù)字經(jīng)濟皖北區(qū)域中心、云銘科技公共衛(wèi)生大數(shù)據(jù)中心等;超算中心類4項,包括神威國產(chǎn)桌面?小超算、可見光單向數(shù)據(jù)隔離傳輸系統(tǒng)等;其他類64項,包括科大國盾量子保密通信技術(shù)、東超科技可交互空中成像技術(shù)。
pdf下載 安徽省新型基礎(chǔ)設(shè)施建設(shè)L域技術(shù)產(chǎn)品服務(wù)目錄
皖政〔2020〕6號,圍繞人工智能、集成電路、硅基新材料、機器人等領(lǐng)域,在有條件的市高標準組建5—8家省級產(chǎn)業(yè)創(chuàng)新中心,爭創(chuàng)國家級產(chǎn)業(yè)創(chuàng)新中心。發(fā)展產(chǎn)業(yè)共性技術(shù)研發(fā)平臺。加快構(gòu)建科技研發(fā)、技術(shù)熟化、產(chǎn)業(yè)孵化、企業(yè)對接、成果落地的完整機制。
人形機器人市場規(guī)模預(yù)計從 2024 年的 20.3 億美元增長到2029 年的 132.5 億美元,復(fù)合年增長率達 45.5%;中國 60% 的企業(yè)將把AI 融入其主要產(chǎn)品和服務(wù)中,并且這些 AI 功能將成為收入增長的主要驅(qū)動力
從數(shù)據(jù)看數(shù)據(jù)標準和治理保障體制不完善,數(shù)據(jù)流通利用基礎(chǔ)較為薄弱;從算法看模型自身存在不可解釋性和可靠性風(fēng)險;旺盛的大模型應(yīng)用場景需求加劇人才供需矛盾
十五五”時期推進新型工業(yè)化主要統(tǒng)籌好“四對關(guān)系”:一是高質(zhì)量供給引領(lǐng)和滿足內(nèi)需的關(guān)系;二是做優(yōu)增量和盤活存量的關(guān)系;三是產(chǎn)業(yè)國內(nèi)根植與海外布局的關(guān)系;四是有效市場與有為政府的關(guān)系
AI迎賓接待機器人的核心是人機交互,在智能人機交互的研究中,對情感的識別、分析、理解、表達的能力是重點研發(fā)方向;從人類的語音,面部表情等多個維度捕捉情感信息,并對其進行分析和判別
多模態(tài)感知技術(shù)讓機器人具備類似人類五感的多模態(tài)智能感知能力;通過表情識別、語音情感分析等技術(shù),讓機器人感知人 類情緒并做出相應(yīng)情感回應(yīng),增加親和力和互動性
AI陪伴機器人在外觀設(shè)計具備人類相似特征;在行為模式上模仿人類的行為,具備手眼協(xié)調(diào),動態(tài)足控制能力;在各個領(lǐng)域的實際應(yīng)用和用途,協(xié)助人類完成各種復(fù)雜任務(wù)
機器人機械手有多個關(guān)節(jié)和多個自由度,具有很高的靈活性;配置了必要的傳感器,可以精確控制機械手的操作;微小的外形尺寸使得機械手具有很高的操作精度
展廳迎賓機器人的“小腦”核心技術(shù)正在從基于模型的控制方法向基于學(xué)習(xí)的控制方法演進,視覺-語言模型為機器人學(xué)習(xí)復(fù)雜技能提供了新的范式,有很強的泛化能力,能夠根據(jù)不同的指令組合技能
基于模型的小腦技術(shù)路線控制方法有ZMP判據(jù)及預(yù)觀控制,混雜零動態(tài)規(guī)劃方法,虛擬模型解耦控制;基于學(xué)習(xí)的小腦技術(shù)路線控制方法有強化學(xué)習(xí)和模仿學(xué)習(xí)
迎賓服務(wù)機器人需要整合視覺,聽覺,觸覺等多種感知模態(tài),使機器人在復(fù)雜場景中做出更準確的決策;結(jié)合聽覺和觸覺信息,機器人可以更好地理解人類的指令和情感狀態(tài)
LLM(大語言模型+VFM(視覺基礎(chǔ)模型)實現(xiàn)人機語言交互、任務(wù)理解、推理和規(guī)劃;VLM(視覺-語言模型)實現(xiàn)更準確的任務(wù)規(guī)劃和決策;VLA (視覺-語言-動作模型)解決機器人運動軌跡決策問題
迎賓機器人需要具備與人類實時的任務(wù)級交互能力,快速理解人類通過語言,手勢等方式給出的指令,有效執(zhí)行;迎賓機器人需要能夠通過視覺、聽覺、觸覺等多種感官獲取信息