【智慧駕駛】基於計算機視覺的自動駕駛演算法研究綜述

產業智慧官發表於2018-02-20

近年來,隨著人工智慧技術的迅速發展,傳統汽車行業與資訊科技結合,在汽車自動駕駛技術方面的研究取得了長足進步,業內很多大公司都在此領域投入巨資進行研發,如國外的谷歌、豐田,國內的百度、比亞迪等公司都推出了自動駕駛汽車,且實驗結果令人滿意:

  • 谷歌的自動駕駛汽車已經安全行駛超過 14 萬英里;

  • 豐田則宣佈旗下自動駕駛系統將於 2020 正式量產;

  • 百度在 2015 年底宣佈,其自動駕駛汽車計劃三年商用五年量產,比亞迪已與百度深化合作,共同研發無人駕駛汽車。

可以預見,在不遠的將來,隨著技術不斷髮展完善,自動駕駛技術將進入實用階段,普及到千家萬戶,人們可以自由出行而無需擔心人為駕駛事故,如無證駕駛、超速、疲勞駕駛、酒駕等人為引起的交通事故。因此,自動駕駛技術有著廣闊的應用前景。

1 自動駕駛技術

自動駕駛技術分為基於傳統特徵和基於深度學習駕駛技術。

在現有的基於傳統特徵的自動駕駛中,目標識別是核心任務之一,其包括道路及道路邊沿識別、車道線檢測、車輛識別、車輛型別識別、非機動車識別、行人識別、交通標誌識別、障礙物識別與避讓等等。目標識別系統利用計算機視覺觀測交通環境,從實時視訊訊號中自動識別出目標,為實時自動駕駛,如啟動、停止、轉向、加速和減速等操作提供判別依據。

由於實際路況極度複雜,基於傳統目標檢測的輔助駕駛技術效能難以得到大幅提升,現有的自動駕駛技術,一般依賴於先進的雷達系統來彌補,顯著增加了系統實施的成本。隨著技術的發展,採用卷積神經網(Convolutional Neural Networks,CNN)可以直接學習和感知路面和道路上的車輛,經過一段時間正確駕駛過程,便能學習和感知實際道路情況下的相關駕駛知能,無需再通過感知具體的路況和各種目標,大幅度提升了輔助駕駛演算法的效能。

2 基於傳統特徵的自動駕駛技術

自動駕駛技術中傳統的特徵指的是人工提取的特徵,如 HOG(梯度直方圖)特徵、SIFF(尺度不變特徵變換)特徵和 CSS(顏色自相似)等特徵。

目前,主流自動駕駛技術都基於視訊分析。交通場景下捕捉到的視訊序列中包含各種不同視訊目標,如行人、汽車、路面、障礙物、背景中的各種物體等,需要在測試影像中標識出感興趣類別的目標物件,用來提供給車輛控制系統作為決策依據。

特徵的檢測與表示是關鍵步驟,涉及到如何編碼描述目標影像資訊的問題,比較理想的特徵表示方法要能適應各種干擾因素的影響,比如尺度、外觀、遮擋、複雜背景等情況。

2.1 道路與車道識別

道路與車道識別是自動駕駛技術的基礎內容,如 Caltech lane detector中論述。常見的道路的識別演算法基於影像特徵進行計算,其分析影像中表示車道線或道路邊界等的灰度,顏色,紋理等特徵,通過神經網路、支援向量機、聚類分析和區域生長等方法便可以分割出路面區域。這類方法對道路曲率的變化有很好的魯棒性。

最近基於條件隨機場的道路檢測方法取得了重要的進展。由於道路及邊沿的種類繁多,紛雜的車輛以及路邊雜物的遮擋,樹木以及建築物的陰影干擾等,使得最基本的道路檢測存在需要進一步提升的空間。

2.2 車輛檢測技術

車輛檢測技術為自動駕駛領域研究的熱點之一。前向車輛碰撞預警系統是一種有效降低主動事故發生率的技術,其廣泛採用車輛定位的方法實現,可以利用車輛自身的影像特徵,如陰影、對稱性、邊緣等,例如常用的底部陰影以及車輛的兩個縱向邊緣構成的 U 型特徵等,快速定位車輛感興趣的區域,再利用多目標跟蹤演算法對檢測的車輛進行跟蹤。

2.3 行人檢測及防碰撞系統

以「行人保護」為目的的行人檢測及防碰撞系統也成為自動駕駛領域的研究熱點。目前統計學習方法在行人檢測中應用最為廣泛,特徵提取和分類定位是基於統計學習方法的兩個關鍵問題。

基於統計學習的行人檢測主要包含基於生成式模型(區域性)的檢測方法和基於特徵分類(整體)的檢測演算法:

  • 基於生成式模型的檢測方法通常採用區域性特徵或者肢體模型來描述區域性屬性,結合區域性特徵的空間結構特性或分佈模型進行分類。

  • 基於特徵分類的檢測方法目的是找到一種能夠很好地描述行人特徵的方法。通過提取行人的灰度、邊緣、紋理、顏色等資訊,根據大量的樣本構建行人檢測分類器,從樣本集中學習人體的不同變化,把視訊影像中的行人目標從背景中分割出來並精確定位。

2005 年 Dalal 提出梯度直方圖(Histogram of Oriented Gradient,HOG)是一個最基本的特徵,具有非常強的魯棒性,其他很多行人檢測的演算法都是在使用 HOG 的基礎上,加上其它特徵,如尺度不變特徵轉換(Scale-invariant Feature Transform,SIFT)、區域性二值模式(Local Binary Pattern,LBP)、顏色自相似(Color Self—Similarity,CSS)、多通道等等。

Cheng 等人觀察到物體都有閉合邊緣,基於 HOG 特徵提出了一種二進位制歸一化梯度特徵(BING)來預測顯著性視窗的方法,該方法執行速度非常快,可以達到 300 fps。趙勇等在 HOG 的基礎上提出了一個具有較好的尺度不變特徵 eHOG,將 HOG 中梯度直方圖中每個 bin 的特徵重構成一個位平面,再計算其 HOG 特徵。實驗表明,在計算量沒有大幅度增加的情況下,正確率比原 HOG 高 3 ~ 6 個百分點。HOG 特徵存在一個問題,即整個 HOG 特徵被拉長成一個向量,弱化了原來在二維平面區域性空間的梯度特徵之間的區域性關聯特性。

張永軍等人提出的 I-HOG採用多尺度的特徵提取演算法和構建梯度直方圖之間的關聯,增強了行人邊緣資訊在二維平面空間的區域性關聯, I-HOG 特徵相較於原 HOG 特徵較大幅度的提高了檢測率。SIFT 是一種檢測區域性特徵的演算法,該演算法通過求一幅圖中的特徵點及其有關尺度和方向的描述得到特徵並進行影像特徵點匹配,用於檢索或者標準相簿類別的識別時,其不僅具有尺度不變性,即使改變旋轉角度,影像亮度或拍攝視角也能夠得到非常好的檢測效果。

3 基於深度學習的自動駕駛技術

基於視訊分析的目標檢測與識別技術經歷了從傳統特徵,如:HOG、SIFT、Bag of visual words和 Fisher 核向量到深度學習的過渡過程。

HOG 得到的描述保持影像的幾何和光學轉化不變性。Fisher 核向量能統一各類特徵的維度、壓縮時精度損失很小等,這些傳統直觀的特徵,在目前階段取得了很好的使用效果。但由於目標的種類繁多,變化較大,以及視角的變化等等,使得傳統基於特徵的目標檢測遇到了很難超越的瓶頸。

近年來,深度學習的興起,使得大量多類多狀態下目標檢測與識別的效能可以大幅度提升到擬人水平,甚至在許多方面超越人類。深度學習特徵為從大量訓練資料中自動學習到的特徵,較傳統特徵相比,更能刻畫目標的本質。

深度學習有多個常用模型框架,如自動編碼器、稀疏編碼、限制波爾茲曼機、深信度網路、卷積神經網路等。其中基於卷積神經網路(Convolution Neural Network,CNN)的深度學習模型是最常用的模型和研究熱點之一。

20 世紀 60 年代,Hubel 和 Wiesel在研究貓腦皮層中用於區域性敏感和方向選擇的神經元時發現其獨特的網路結構可以有效地降低反饋神經網路的複雜性,繼而提出了 CNN。K.Fukushima 在 1980 年提出的新識別機是 CNN 的第一個實現網路。隨後,目標檢測通過掃描窗來學習並進行檢測,大大提高了多類檢測目標識別的效率。最具有代表性的是深度學習鼻祖 Hinton 的工作 ,作者訓練深度神經網路來對 LSVRC-2010 和 LSVRC-2012 的 120 萬張影像進行 1000 種以上的分類,獲得當時最高的檢測率。這種基於掃描窗的方法主要缺點是:掃描窗的大小和位置組合太多,導致計算量過大而難以實現。

CNN 思路近年來經過不斷改進,其精確度和計算效率得到極大提升。2014 年 Girshick 等人提出了 R-CNNL ,其思想為將每個圖片分為約 2000 個區域輸入 CNN 訓練,從預選框中通過 CNN 提取出固定長度的特徵,最後通過特定類別的支援向量機(SVM)來分類。由於需將每一個候選區域分別送人到 Alexnet 中進行檢測,導致檢測速度很慢,因此何覬名等人提出SPPnet 。SPPnet 改變以往使用剪裁一幅圖片使其尺寸滿足 Alexnet 輸入要求,而是使用任意尺寸圖片作為輸入。

Fast-RCNN在 SPPnet 的基礎上,使用顯著性檢測方法在原始影像上提取出預選區域,並將每一個區域座標對映到特定圖上,在進行目標檢測時,使用 ROI 池化層選取對映的座標區域,部分卷積影像送人分類器,無需對每一個預選區進行卷積運算,大大提高了檢測速度。

2015 年 Ren 等提出 Faster-RCNN ,在之前的基礎上使用一個 RPN 網路,使用卷積運算一次得到卷積特徵影像,Faster-RCNN 是對 Fast-RCNN 的進一步加速。在 2015 年 12 月的 ICCV 國際會議上,鄒文斌博士在 R-CNN 的基礎上,提出了基於 RCNN 的多層次結構顯著性目標檢測方法 ,在 MSRA-B ,PASCAL-1500 和 SOD 三個資料集上的實驗表明,其檢測率達到當時業界最高水平。在該會議上,Kontschieder 舊引等提出了在 CNN 各層輸出的特徵基礎上,採用隨機森林,在公開的資料集 MNIST 和Imagenet上,獲得了較高的檢測率。

CNN 和多通道處理結合的方法在影像識別上也有不錯的效果:

  • 2011 年 Pierre Sermanet等人提出多尺度 CNN 演算法,將原始影像和其子取樣的卷積結果通過線性分類器分類,其 GTSRB 資料集上精確度達到 98.97%。

  • 2012 年 Dan Ciresan等人提出使用多通道深度神經網路的方法識別交通訊號。該方法將訓練圖片同時輸入 N 個深度神經網同時訓練,進行預測時,計算輸入影像的 N 個深度神經網預測結果的平均值作為最終結果,其預測結果準確率達到 99.46%,超過了人工識別精度。

  • 2014 年 Karen Simonyan釗等人將連續視訊分為空間流和時間流,使用不同的 CNN 處理同一段視訊的物體特徵和行為特徵,並將二者結合進行行為判別,也極大地提升了識別的精確度。

在輔助駕駛和自動駕駛中,需要識別和估計的目標繁多,包括前方機動車、非機動車、行人、道路標識、道路本身、車道線等等,導致基於目標監測與識別的學習演算法變得十分複雜。在自動駕駛與機器人導航中,另一種方法直接從視訊影像中學習前進方向的角度來尋找路徑和繞開障礙物,以及Yann Lecun 的工作 ,即通過端到端學習,以實現非道路上的障礙物避讓,使用 6 層的 CNN 學習人的駕駛行為,可以在穿越視野內區域的同時學習低層和高層特徵,消除人工的校準、矯正、引數調整等等,該系統主要的優點是對各種不同環境下的非道路環境有非常好的魯棒性。

640?wx_fmt=jpeg

圖 1 深度駕駛演算法架構

以上工作均為通過深度學習直接將影像對映到行駛的角度下進行的。在這一思想的影響下,在 ICCV 2015 上,普林斯頓大學提出了深度駕駛演算法,其演算法架構如圖 1 所示,通過深度神經網路直接感知駕駛操控(driving affordance),不僅大大簡化了演算法的複雜度,而且大大提高了自動駕駛的魯棒性和智慧化水平,是自動駕駛技術上的一個重大突破。

深度駕駛的技術,通過採用 CNN 來直接學習和感知一段時間正確駕駛過程以後,就能學習和感知到實際道路情況下的相關駕駛智慧,無需通過感知具體的路況和各種目標,大幅度提升了輔助駕駛演算法的效能。

4 總結與展望

自動駕駛技術是未來汽車智慧化的研究熱點之一。從綜述的文章中可以得出,基於傳統目標檢測最有效 HOG 特徵、SIFT 特徵、CSS 等特徵的自動駕駛技術已經取得了不錯成績。

由於實際路況極度複雜,基於傳統目標檢測的輔助駕駛技術效能難以得到大幅度提升,現有的自動駕駛技術,一般依賴於先進的雷達系統,顯著增加了系統實施的成本。深度駕駛技術能同時感知道路和道路上的各類目標,為自動駕駛系統提供駕駛邏輯支援,是未來自動駕駛技術研究的方向之一。

在具體的輔助駕駛演算法中,如果對路況和目標缺乏整體感知,則很難達到實用化和商用化水平。吸取傳統自動駕駛技術中的精華,借鑑深度學習研究的最新成果,整合傳統特徵和深度學習特徵,以提供更多資訊,不失為一個較好的解決方法。設計自動駕駛技術的新演算法,進一步提升深度駕駛的擬人化和實用化水平,是一條值得去繼續探索的道路。



自動駕駛新思路:現實域到虛擬域統一的無監督方法

來源:專知 

【導讀】近日,針對無人駕駛中端到端模型缺乏訓練資料以及訓練資料噪聲大、模型難解釋等問題,來自卡內基梅隆大學、Petuum公司的Eric P. Xing等學者發表論文提出基於無監督現實到虛擬域統一的端到端自動駕駛方法。該方法具有如下優勢:1)將從不同源分佈中收集的駕駛資料對映到一個統一的域; 2)充分利用標註的虛擬資料,這些資料是可以自由獲取的; 3)學習除了一個可解釋的、標註的駕駛影像表示方法,其可以專門用於車輛指揮預測。所提出的方法在兩個公路行駛資料集的大量實驗表明了方法的效能優勢和可解釋能力。 


論文:Unsupervised Real-to-Virtual Domain Unification for End-to-End Highway Driving

640?wx_fmt=png

摘要



 

在基於視覺的自動駕駛領域中,端到端模型在效能上表現不佳並且是不可解釋的,而中介感知模型(mediated perception models)需要額外的中間表示,例如分割的masks或檢測邊界框(bounding boxes),在進行大規模資料訓練時,這些大量的標籤資訊的獲取可能是非常昂貴的。 原始影像和現有的中間表示中可能夾雜著與車輛命令預測無關的瑣碎的細節,例如,前方車輛的風格或超過了道路邊界的視野。 更重要的是,如果合併從不同來源收集的資料,所有以前的工作都不能有效應對這種域轉移問題,這極大地阻礙了模型的泛化能力。


在這項工作中,本文利用從駕駛模擬器收集的虛擬資料來解決上述問題,並且提出了DU-驅動,一種無監督的真實到虛擬域的統一框架,用於端到端駕駛。 它將實際駕駛資料轉換為虛擬域中的規範表示,從中預測車輛控制命令。 提出的框架有幾個優點:1)將從不同源分佈中收集的駕駛資料對映到一個統一的域; 2)利用標註的虛擬資料,這些資料是可以自由獲取的; 3)它學習除了一個可解釋的、標註的駕駛影像表示方法,其可以專門用於車輛指揮預測。 兩個公路行駛資料集的大量實驗表明了DU驅動的效能優勢和可解釋能力。


介紹



 

基於視覺的自動駕駛系統是一個長期的研究問題。在已有的各種解決方案中,將單個正面攝像機影像對映到車輛控制命令的端到端駕駛模型吸引了許多研究興趣,因為它消除了特徵工程的繁瑣過程。 也有許多方法嘗試了利用中間表示來提高階到端模型的效能(圖1)。 例如,[33]使用語義分割作為一個輔助任務來提高模型的效能,而[8]在進行駕駛決策之前,首先訓練一個檢測器來檢測附近的車輛。 然而,隨著我們向更大的規模邁進,駕駛資料的收集和中間表示的標註可能會非常昂貴。

640?wx_fmt=png

圖1:各種已經提出的基於視覺的駕駛模型的方法。 標準的端到端模型(a)在效能上不可解釋且不是最理想的,場景解析(b)或物件檢測(c)需要昂貴的註釋資料。 提出的方法(d)將不同資料集的真實影像統一到虛擬領域的規範化表示中,避免了多餘的細節,提高了車輛指令預測任務的效能。


此外,由於現實場景的複雜性,駕駛場景的一般影像和中間表示中含有多餘的細節。這些細節中的許多資訊既不相關,也對預測任務沒有幫助。例如,高速駕駛的人類駕駛者不會根據前面的汽車品牌或道路邊界外的視野來改變自己的行為。理想情況下,模型應該能夠通過觀察人類駕駛資料來學習關鍵資訊,但是由於深度神經網路的黑盒性質,我們難以分析模型是否學會了基於正確的訊號進行預測。


文獻 [6]視覺化了神經網路的啟用,並表明,模型不僅學習駕駛關鍵資訊,如車道標記,同時也學到了不需要的特徵,如不規則型別的車輛類別。文獻 [18]提出了由因果濾波器改進的注意力map的結果,它包括相當隨機的注意力blob。很難證明學習這些資訊是否有助於駕駛,而且本文認為從駕駛影像中有效地提取最少的且足夠的資訊的能力對於提高預測任務的效能是至關重要的。

 

相比之下,來自於駕駛模擬器的資料自然地避免了這兩個問題。 一方面,通過設定一個機器人汽車,我們可以很容易地獲得用於控制訊號標註的、源源不斷的駕駛資料。 另一方面,我們可以控制虛擬世界的視覺外觀,並通過將多餘的細節保持在最低限度,來構建規範的駕駛環境。

 

這促使作者開發一個能夠在虛擬領域有效地將真實的駕駛影像轉化為規範表示的系統,從而促進車輛指揮預測任務。許多現有的工作利用了虛擬資料,通過生成對抗網路將虛擬影像轉化為類似於真實的影像,同時在輔助目標的輔助下保持標註的完整。


本文的方法雖然也基於GAN,但在幾個方面有所不同:首先,有別於其他方法,作者嘗試將真實影像轉換為虛擬域中的規範表示。通過規範表示,作者參考了畫素級表示,其從背景中分離出預測任務所需的最小的足量資訊。由於任何影像只能有一個規範表示,因此在生成過程中不會引入任何噪聲變數。其次,本文並不直接保留標註,因為影像中確定車輛命令的確切訊號是不清楚的。相反,本文提出了一種新的聯合訓練方案,將預測關鍵資訊逐漸提取到生成器中,同時提高模型訓練的穩定性,防止駕駛關鍵資訊的模型崩潰。

 

這次工作有三個貢獻:

  • 首先,作者引入一個無監督的真實到虛擬域的統一框架,將真實的駕駛影像轉換成虛擬域的規範表示,並從中預測車輛命令。 

  • 其次,作者開發了一種新的訓練方案,不僅逐步將預測關鍵資訊提取到生成器中,而且有選擇地防止生成對抗網路的模型崩潰。 

  • 第三,作者給出了實驗結果,證明了在虛擬域中使用統一的、規範的表示來進行端到端自動駕駛是具備優越性的。


模型簡介:




640?wx_fmt=png

圖2:DU-Drive的模型架構。 生成器網路G將輸入的真實影像轉換成虛擬影像,由預測器網路P預測車輛指令。 判別器網路D試圖將假虛像與真虛像區分開來。 對抗目標和預測目標都驅使生成者G生成最有助於預測任務的虛擬表示。 為了簡單起見,省略了每個卷積/全連線層之後的例項標準化和啟用層。 (縮寫:n:filters數量,k:kernel大小,s:stride大小)


 

640?wx_fmt=png

圖3:DU-Drive的域統一框架。 對於每一個真實域,訓練一個獨立的生成器,以將真實影像轉換成虛擬域中的虛擬影像。 訓練單個虛擬影像進行車輛指令預測,並在多個真實域上進行預測。


實驗結果



 

640?wx_fmt=png

表1:資料集的細節

 

640?wx_fmt=png

圖4:我們的工作使用的樣本資料。從上到下依次為:從TORCS模擬器捕獲的虛擬資料,來自於comma.ai的真實駕駛資料,來自Udacity挑戰的真實駕駛資料。

 

640?wx_fmt=png

圖5:DU-Drive的影像生成結果,考慮了那些對駕駛行為不重要的資訊,例如晝/夜照明情況。而視野超出道路邊界。有趣的是,車輛也從場景中移除,但是考慮到我們在實驗中只預測轉向角度,所以這實際上是合理的。另一方面,駕駛車道這樣的關鍵資訊得到很好地儲存。

 

640?wx_fmt=png

圖6:在TORCS模擬器中的6個軌道的形狀,並從中收集虛擬資料。 

 

640?wx_fmt=png

圖7:條件GAN的影像生成結果。在背景和前景、車道標記發生的模型崩潰不予儲存。


640?wx_fmt=png

640?wx_fmt=png

圖8:CycleGAN的影像生成結果。第一行:真實的源影像和生成的虛擬影像。下一行:虛擬源影像和生成的假的真實影像。

 

640?wx_fmt=png

表2:轉向角度預測效能。平均絕對誤差(MAE)及其標準差(SD)。其中,DU-drive優於所有baseline方法。

 

640?wx_fmt=png

圖9:隨著虛擬資料集的多樣性增加,預測任務的絕對誤差平均值的變化。


結論




我們針對公路駕駛提出了一種無監督的真實到虛擬域的統一模型,或稱為DU-drive,它使用條件生成對抗網路來將真實域中的駕駛影像變換到虛擬領域中的規範表示,並從中預測車輛控制命令。 在存在多個真實資料集的情況下,可以為每個真實域獨立地訓練生成器(從真實到虛擬域的生成器),並且可以用來自多個真實域的資料來訓練全域性預測器。 定性實驗結果表明,該模型能夠將實際影像有效地轉換到虛擬域,並且只保留足夠的最小資訊量,結果證明了這種規範表示能消除域偏移,提高控制指令預測任務的效能。


參考連結:

https://arxiv.org/abs/1801.03458

640?wx_fmt=png

人工智慧賽博物理作業系統

AI-CPS OS

人工智慧賽博物理作業系統新一代技術+商業作業系統“AI-CPS OS:雲端計算+大資料+物聯網+區塊鏈+人工智慧)分支用來的今天,企業領導者必須瞭解如何將“技術”全面滲入整個公司、產品等“商業”場景中,利用AI-CPS OS形成數字化+智慧化力量,實現行業的重新佈局、企業的重新構建和自我的煥然新生。


AI-CPS OS的真正價值並不來自構成技術或功能,而是要以一種傳遞獨特競爭優勢的方式將自動化+資訊化、智造+產品+服務資料+分析一體化,這種整合方式能夠釋放新的業務和運營模式。如果不能實現跨功能的更大規模融合,沒有顛覆現狀的意願,這些將不可能實現。


領導者無法依靠某種單一戰略方法來應對多維度的數字化變革。面對新一代技術+商業作業系統AI-CPS OS顛覆性的數字化+智慧化力量,領導者必須在行業、企業與個人這三個層面都保持領先地位:

  1. 重新行業佈局:你的世界觀要怎樣改變才算足夠?你必須對行業典範進行怎樣的反思?

  2. 重新構建企業:你的企業需要做出什麼樣的變化?你準備如何重新定義你的公司?

  3. 重新打造自己:你需要成為怎樣的人?要重塑自己並在數字化+智慧化時代保有領先地位,你必須如何去做?

AI-CPS OS是數字化智慧化創新平臺,設計思路是將大資料、物聯網、區塊鏈和人工智慧等無縫整合在雲端,可以幫助企業將創新成果融入自身業務體系,實現各個前沿技術在雲端的優勢協同。AI-CPS OS形成的字化+智慧化力量與行業、企業及個人三個層面的交叉,形成了領導力模式,使數字化融入到領導者所在企業與領導方式的核心位置:

  1. 精細種力量能夠使人在更加真實、細緻的層面觀察與感知現實世界和數字化世界正在發生的一切,進而理解和更加精細地進行產品個性化控制、微觀業務場景事件和結果控制。

  2. 智慧:模型隨著時間(資料)的變化而變化,整個系統就具備了智慧(自學習)的能力。

  3. 高效:企業需要建立實時或者準實時的資料採集傳輸、模型預測和響應決策能力,這樣智慧就從批量性、階段性的行為變成一個可以實時觸達的行為。

  4. 不確定性:數字化變更顛覆和改變了領導者曾經仰仗的思維方式、結構和實踐經驗,其結果就是形成了複合不確定性這種顛覆性力量。主要的不確定性蘊含於三個領域:技術、文化、制度。

  5. 邊界模糊:數字世界與現實世界的不斷融合成CPS不僅讓人們所知行業的核心產品、經濟學定理和可能性都產生了變化,還模糊了不同行業間的界限。這種效應正在向生態系統、企業、客戶、產品快速蔓延。

AI-CPS OS形成的數字化+智慧化力量通過三個方式激發經濟增長:

  1. 創造虛擬勞動力,承擔需要適應性和敏捷性的複雜任務,即“智慧自動化”,以區別於傳統的自動化解決方案;

  2. 對現有勞動力和實物資產進行有利的補充和提升,提高資本效率

  3. 人工智慧的普及,將推動多行業的相關創新,開闢嶄新的經濟增長空間


給決策制定者和商業領袖的建議:

  1. 超越自動化,開啟新創新模式:利用具有自主學習和自我控制能力的動態機器智慧,為企業創造新商機;

  2. 迎接新一代資訊科技,迎接人工智慧:無縫整合人類智慧與機器智慧,重新

    評估未來的知識和技能型別;

  3. 制定道德規範:切實為人工智慧生態系統制定道德準則,並在智慧機器的開

    發過程中確定更加明晰的標準和最佳實踐;

  4. 重視再分配效應:對人工智慧可能帶來的衝擊做好準備,制定戰略幫助面臨

    較高失業風險的人群;

  5. 開發數字化+智慧化企業所需新能力:員工團隊需要積極掌握判斷、溝通及想象力和創造力等人類所特有的重要能力。對於中國企業來說,創造兼具包容性和多樣性的文化也非常重要。


子曰:“君子和而不同,小人同而不和。”  《論語·子路》雲端計算、大資料、物聯網、區塊鏈和 人工智慧,像君子一般融合,一起體現科技就是生產力。


如果說上一次哥倫布地理大發現,擴充的是人類的物理空間。那麼這一次地理大發現,擴充的就是人們的數字空間。在數學空間,建立新的商業文明,從而發現新的創富模式,為人類社會帶來新的財富空間。雲端計算,大資料、物聯網和區塊鏈,是進入這個數字空間的船,而人工智慧就是那船上的帆,哥倫布之帆!


新一代技術+商業的人工智慧賽博物理作業系統AI-CPS OS作為新一輪產業變革的核心驅動力,將進一步釋放歷次科技革命和產業變革積蓄的巨大能量,並創造新的強大引擎。重構生產、分配、交換、消費等經濟活動各環節,形成從巨集觀到微觀各領域的智慧化新需求,催生新技術、新產品、新產業、新業態、新模式。引發經濟結構重大變革,深刻改變人類生產生活方式和思維模式,實現社會生產力的整體躍升。



產業智慧官  AI-CPS


用“人工智慧賽博物理作業系統新一代技術+商業作業系統“AI-CPS OS”:雲端計算+大資料+物聯網+區塊鏈+人工智慧)在場景中構建狀態感知-實時分析-自主決策-精準執行-學習提升的認知計算和機器智慧;實現產業轉型升級、DT驅動業務、價值創新創造的產業互聯生態鏈


640?wx_fmt=png

640?wx_fmt=png

長按上方二維碼關注微信公眾號: AI-CPS,更多資訊回覆:


新技術“雲端計算”、“大資料”、“物聯網”、“區塊鏈”、“人工智慧新產業:智慧製造”、智慧金融”、“智慧零售”、“智慧駕駛”、智慧城市新模式:“財富空間“工業網際網路”、“資料科學家”、“賽博物理系統CPS”、“供應鏈金融”


官方網站:AI-CPS.NET


本文系“產業智慧官”(公眾號ID:AI-CPS)收集整理,轉載請註明出處!



版權宣告產業智慧官(公眾號ID:AI-CPS推薦的文章,除非確實無法確認,我們都會註明作者和來源。部分文章推送時未能與原作者取得聯絡。若涉及版權問題,煩請原作者聯絡我們,與您共同協商解決。聯絡、投稿郵箱:erp_vip@hotmail.com




相關文章