人工智慧是今年最盛行的話題,由於Google子公司DeepMind出的人工智慧AlphaGo系列造成了震撼:AlphaGo在2015年打敗歐洲圍棋棋王,2016年四比一打敗世界棋王李世乭,而且在2017年初以AlphaGo Master在網路圍棋上狂敗各國圍棋高手。最近AlphaGo Zero又從零開始發展,以兩台機器對下的方式在三天達成贏過AlphaGo打敗李世乭的版本,四十天超越AlphaGo Master的程度。一掃之前人們之前認為在圍棋上,機器智慧不可能這麼快趕上人類的成見,而現在不但成真,而且以這麼短的時間就超越了。
人工智慧相關研究開始的很早:上個世紀西元1950年著名的英國密碼學家圖靈發表了論文提出「圖靈測試」:讓一台電腦跟人類在兩個不同房間內回答另外一個人的詢問幾個問題,通過條件是詢問的人無法辨別兩個房間裡的是人類或是電腦;而西元1956年達特茅斯學院的會議中確定了人工智慧的研究領域:人工智慧之父John McCarthy提出了人工智慧三大概念–感知、認知、移動,開始了人工智慧研究的第一階段,當時的學者認為20年內可以完成完全智能的機器,且ARPA(美國國防高等研究計畫署)等政府機構開始對人工智慧投入大量資金,但後來發現其實低估了人工智慧的難度,整體發展進度十分緩慢,也因此在1973年英國跟美國政府停止了這方面的撥款,人工智慧也因此沈寂了一陣子。1980年,「專家系統」這一類的人工智慧程式,用來做知識處理的工具成了當時的主流,全世界開始採納,人工智慧盛行的第二階段開始。專家系統是依據一組從專門知識中推演出的邏輯規則在某一特定領域回答或解決問題。但也因為專家系統使用領域的局限性,在1988年開始衰退,人工智慧又再度沈寂。1993年IBM深藍電腦開始跟人類下西洋棋,並於1997年戰勝人類西洋棋王,吸引了世人的注意力,因此盛行的第三階段開始了。深藍電腦是利用它強而有力的計算能力,把所有的可能棋步都算出來,藉此打敗了人類棋王。後來2004年DARPA (美國國防高等研究計劃署)在內華達州的沙漠開始舉辦無人駕駛車穿越212公里的競賽,在2005年就有四輛用電腦控制、雷射導引無人車完成,這也讓Google在2009年開始了他們的自動駕駛車專案計畫。2011年Google開始跟史丹佛教授Andrew Ng(吳恩達)合作Google 大腦計畫,2012年成功完成從大量Youtube影片中識別出有貓的一千多萬張數位影像。2012年IBM Watson超級電腦在美國的問答節目競賽Jeopardy(危險邊緣)打敗了兩大人類常勝冠軍,接下來Watson開始跟醫療院所合作,協助醫療診斷,並於2016年協助醫生救治了66歲日本女性癌症病患山下女士。2012年,蘋果公司開始在iPhone等設備上推出雲端人工智慧Siri,Google在2013年也推出Google Now,連網後智慧型手機上就可以提供與人類對答的人工智慧了,2017年蘋果公司更提出了iPhone X手機端的影像辨識人工智慧晶片A11 Bionic及影像辨識模組,讓大家了解到,手機端也可以不用連網就有人工智慧應用。
其中2006年開始發展的深度學習網路(機器學習的一支,而機器學習又是人工智慧的一類):利用類神經網路的原理,透過大量資料訓練學習,可以找出最適合的收集資料,預測與觀察異常的人工智慧模式。其實類神經網路的理論從1943年開始就有數學模型了,後來的發展因為其需要大量運算而電腦能力無法跟上,而被忽視,直到最近因為電腦的運算能力好,彼此合作的多台分散式運算系統架構強,讓這樣的用大量運算而找出模式,變成不再困難。AlphaGo系列就有深度學習,而讓影像辨識、語音辨識的準確率超過人類,更是讓深度學習被廣泛應用的決定關鍵。
而物聯網的發展,可以說跟電腦發展趨勢有緊密關係,從1946年賓州大學為美國陸軍製造ENIAC這個第一台真空管電腦開始,1964年IBM開發了第一台大電腦,1977年蘋果電腦開發了第一台有螢幕的個人電腦Apple II,1980年IBM開發了IBM-PC 5150,到1985年Toshiba開發了第一台筆記型電腦Toshiba T1100。由此看到電腦晶片越來越小,運算速度遵循摩爾定律越來越快:到了1999年麻省理工學成立AUTO-ID中心,提出物聯網概念;2003年比爾蓋茲展示了他西雅圖豪宅中設備都夠聯網而且智慧,讓大家感受到了物聯網的魅力。而2007年的第一代iPhone,讓智慧型手機成為生活必備之後,它可以輕鬆整合物聯網設備,讓物聯網開始逐漸興起。
物聯網的各個類別,往往被稱為「智慧XX」(如智慧家庭、智慧城市…)。按照物聯網系統的基本的「感測層」、「網路層」、「應用層」三層架構,可以智慧的部分比較多是在網路層傳輸後儲存資料的雲端伺服器:透過運用人工智慧的機器學習和大數據,提供消費者符合或超出期待的服務,讓消費者有好的體驗。於是,人工智慧開始跟物聯網整合,成為AIoT。
AIoT的展現,有很多例子:2014年全世界第一個懂得識別人類情緒的機器人Pepper開始在軟銀門市展示,他的超萌,懂得跟人類聊天的機器人,現在在台灣很多地方都看得到。2015年Google展示他們的自動駕駛車由盲人首次完成在公共道路上的駕駛,讓各大車廠開始緊張,接下來都公佈了自己自動駕駛車的計畫。同年中國大疆的無人機開始在農田裡協助灑農藥;而電商巨擘亞馬遜也展示自家的送貨無人機原型,並在2016年在英國展開無人機送貨服務。另外,亞馬遜在2015年開始販賣的Echo系列產品,展示它直覺好用的Alexa人工智慧,讓這喇叭已經賣超過一千五百萬台,而很多大廠也搶著跟亞馬遜合作,以使用Alexa的系統,這也讓亞馬遜領先Google、蘋果公司,成為智慧家庭的現任霸主。更不用提亞馬遜去年展示,打算今年正式上陣的Amazon Go智慧零售系統,透過影像辨識、大數據等技術,讓你買東西,拿了就可以直接出零售店,不用排隊結帳,解決了去實體零售店最大的痛點–等待。
上面的例子,都是用人工智慧的機器學習的方法協助達成。而針對人工智慧在物聯網上的運用,我們可以歸納成以下六大方式:
1. 影像辨識分析:例如
i. 台灣便利商店透過攝影機,用得到的影像資料分析來店客戶的大約年齡、性別;
ii. 裝置智慧家庭的門口的數位攝影機,在得到的影像資料分析後可以正確判斷在門口按門鈴的是家中成員還是其他人或陌生人;
iii. 機器人Pepper透過身上的攝影機(眼睛),用得到的影像辨識人的表情對應到資料庫中的情緒種類,了解對象的情緒狀況;
iv. iPhone X使用臉部辨識模組,達成對使用主人的認證。
2. 聲音辨識分析:例如
i. 透過麥克風收集到的聲音的能量與頻率,可以分析出對象背後的情緒;
ii. 透過麥克風收集到人的聲音資料,辨識分析後轉成文字。
3. 自然語言處理:例如
i. Google翻譯器將各國語言之間做對應翻譯;
ii. 將麥克風收集到的人的聲音轉成文字意義後做語意分析;
iii. Amazon Alexa辨識出聲音的意義,然後對答或下命令。
4. 大數據–利用各種資料整合,正確判斷出趨勢:例如
i. 智慧工業透過平時收集的機器運作資料,在機器壞掉前,可以透過分析而找出最適時間,讓保養人員做預防性保養;
ii. 智慧醫療透過穿戴式裝置及家用可上傳資料的血糖/血壓計收集到的資料,根據既有的模式分析之後,發現病人可能需要看病,就可以建議前去醫院看病。
5. 透過各種資料的整合深度學習,提高判斷正確率:例如
i. 透過整合攝影機攝影到的影像、聲音加上分析後的語意,等等資料一起做深度學習處理,從得到的結果正確判斷機率大增。
6. 主動做出決策並行動:例如
i. nVidia的自動駕駛車整合多種感測器的資料,判斷車子的行進模式,以做到在路上安全自動駕駛;
ii. 無人機在空中透過影像與雷達資料,即時判斷前方狀況,以躲開路途上障礙物;
iii. 機器人Pepper在家庭中,主動與人溝通,並且自主行動。
由以上的論述可知人工智慧在物聯網中所扮演的角色十分重要,不只是系統的大腦,更是強化感測器能力的必要支柱,在未來物聯網世界扮演非常重要的角色。
而2015年起各大廠商開始釋出人工智慧機器學習開放原始碼:包含Google的TensorFlow系統、中國百度的PaddlePaddle系統、三星的VELES系統、 Facebook的Torchnet框架及Caffe2框架、微軟的LightGBM框架與DMTK/CNTK工具包,Intel基於Apache Spark的BigDL工具庫、亞馬遜的DSSTNE工具,與亞馬遜AWS強力支援的MXNet框架,以爭取開發者社群合作的動作,希望透過利用與社群共創,強化企業本身的深度學習能力,找出更多的可能商機與應用,同時,企業在找人才時,如果是熟悉企業自家開放原始碼系統的人,就少了很多訓練時間。另外,因為深度學習需要大量資料學習,如果是已經標記好的資料更是省下大量時間,所以Google在2016年10月又開放了跟卡內基美隆大學與康乃爾大學建置的 Open Images 資料庫 ,提供了 900 組已經由電腦、人工修正標記資料的圖形資料庫,及總長度時間超過 50 萬小時的 800 萬組影片資料庫YouTube8-M (一樣由電腦、人工方式完成預先標記好)。透過這些資料,學習深度學習者不但可以很快上手,更可以很快專注強化自己想做的部分。
而在這些協助學習的軟體開放原始碼工具中,TensorFlow是到目前為止最受歡迎的,而Google也因此在2012年,設計了一款專用運算晶片TPU(TensorFlow Processing Unit),加速TensorFlow相關的軟體運算。而現在更是進到第二代,在今年人工智慧年會Deep Mind黃士傑博士的演講中,更對外宣告AlphaGo Zero因為用了第二代TPU才能有這麼好的學習表現。不過TPU並不出售,只供Google內部使用。
從上例可知好的硬體設備是很重要的,在2012年的ImageNet的大型視覺識別挑戰賽中,多倫多大學的Alex Krizhevsky使用2片nVidia的GPU卡及自己創建的AlexNet深度學習模型,不但將視覺辨識準確率大為提升,更將原來CPU需要40天的運算提升到3天完成,一舉得到當年的冠軍,讓大家發現到GPU是深度學習大量運算的好幫手,這也讓nVidia發現自己在這個領域的機會,全力發展, 最後將GPU導入了百度、Google、Facebook、微軟…等等企業做機器學習運算。而Intel也為了強化自己這方面的能力,在2015年買下Altera,2016年買下Nervana System,接下來準備用自己設計的專用晶片出擊,準備在各種人工智慧領域挑戰nVidia,尤其是自動駕駛車。
自動駕駛車是AIoT的重要領域:在2016年Tesla電動車在美國出了駕車死亡車禍後,nVidia取代了以色列ADAS(先進駕駛輔助系統)著名開發商Mobileye,成為Tesla半自動駕駛方案的提供者。而Intel在2017年初,為了強化自己在自動駕駛車領域的能力,花了153億買下Mobileye;高通Qualcomm在2016年初,也為了能強化車用晶片領域,買下已經佈局自動駕駛一段時間的恩智浦半導體公司(NXP Semiconductors);三星電子買下了美國車用電子公司哈曼(Harman),並且在2015年底就開始自動駕駛的研究。由這些訊息,可以看出各大晶片公司的用心佈局,而台灣的聯發科也成立了相關部門。
不只美國在這方向努力前進,中國大陸的BAT三雄(百度、阿里巴巴與騰訊)也不遑多讓。百度在2010年請了中國Google研究院副院長王勁加入,2014年五月請了Google大腦的吳恩達博士出任百度首席科學家,促成了百度的無人車發展,並且在今年七月宣布推出無人車開源軟體Apollo ,並在九月升級至1.5版。阿里巴巴在2009年開始發展阿里雲,在人工智慧也有不小斬獲,在中國的Pepper機器人的大腦就是運用阿里雲,而且在2016年提出城市大腦的概念,在杭州試行智慧交通系統,接管了128個路口紅綠燈,即時監控道路周邊人流、車流量,提升通行效率,使區域通行時間平均減少15.3%。而騰訊在今年八月成立AI影像醫學實驗室,並且發布AI影像醫學產品騰訊覓影,也針對食道癌的AI影像偵測篩選,有對早期食道癌發現率高達90%的好成績,目前跟廣東省很多大型醫院合作。
除了這三雄之外,中國的科大迅飛在中文語音辨識人工智慧上的辨識率超強,贏過各路英雄,並且在今年被美國麻省理工評比為全球最聰明企業的第六名,為中國大陸名次最前者。而BAT與科大迅飛,也在今年11月被宣告為中國首批國家新一代AI開放創新平台,而這四大公司展現的強項,都是AIoT的一環。
因為人工智慧主導AIoT系統的服務,而台灣的廠商在這個時代雖然沒有美國與中國的強大資源與人工智慧軟體實力,但是可以考慮從這些大公司所沒能顧及的部分當利基切入,或是台灣自己本身已經能力不錯的利基部分切入。
台灣已經能力不錯的利基,我認為可以從製造、醫療與IC設計切入。台灣有強大的製造業:製造經驗與數據是可以協助發展相關人工智慧的,成就智慧工業的AIoT能力,目前台積電跟鴻海就有不錯的成績;世界華人週刊報導指出,台灣強大的醫學技術為全球第三(亞洲第一,僅次於美國、德國),又有品質良好又時間夠久的全民健保資料庫,台灣發展智慧醫療AIoT其實是很好的,目前鴻海旗下的永寧基金會跟台大合作,臺北醫學大學使用其三間醫院內部資料與健保相關論文建立模型來應用,都有不錯的成果。而因為隱私權的考量,前端設備未來有很多會具備人工智慧晶片,讓人體生物辨識認證的工作直接在前端設備就完成,不必連到雲伺服器運算後才能認證;而人工智慧雲端硬體為了加速與減少發熱,接下來很多相關特製晶片也可能會因應而生,這其實都是台灣晶片設計業的機會,而且nVidia(輝達)也宣佈跟台灣科技部合作,將前端晶片設計的核心技術提供台灣廠商合作,強化人工智慧晶片設計的能力,這也剛好結合科技部人工智慧策略的半導體射月計畫。
除了半導體射月計畫,科技部還提出了其他四大AI策略:建構AI主機(預備跟nVidia合作買入以它生產的晶片組為核心的超級電腦)、打造智慧機器人基地(座落在中科、南科)、設立AI創新研究中心(台大、成大負責生技醫療、交大主責智慧服務、清大則主攻智慧製造)、科技大擂台(明年展開第一次比賽,針對台灣人國語的語音語意),以及中央研究院成立了台灣人工智慧學校(現在招生中,民國107年1月28日第一期開課),這都是政府現在針對台灣可以發展人工智慧的領域與人才培育所做的努力。
而除了上述的醫療、製造、半導體設計方面適合以產業生態系組國家隊在全球競爭,關於食(包含農業)、衣、住、行、生活環境、以及零售各方面的AIoT,也有很多特別利基可以切入。例如台灣農業的植物工廠或溫室,利用環境感測器獲得的資料,收集及解析大數據,產生最佳生產模型,這樣在管控良好下,生產出來的農作物真正有機,而且快速、茂盛;以穿戴式裝置而言,智慧手環、手錶、智慧紡織品,都可以跟智慧醫療結合,從健康方面偵測與預防醫療切入,針對醫療檢測結合的結果做大數據分析與人工智慧應用;而針對擴增實境/虛擬實境/混合實境裝置,廠商可以考慮加入Microsoft Hololens及HTC Vive的生態系,協助內容產生,或針對相關數據分析,以達成更好的客戶個人化享受,進而增加使用客戶的黏著度;智慧家庭部分,台灣本土有TaiSEIA101的通訊協定(CNS16014 X2025國家標準),台灣現在很多家電廠商與IT廠商的產品都遵從此標準,遠傳電信、中華電信也加入支援,而提供物聯網產品,協助相關廠商的數據分析與影像辨識是很好的利基;在行的部分,台灣的公共汽車為了環保而自製且電動化是趨勢,協助這些電動公共汽車廠商做數據分析提高效率,減低油耗是不錯的機會;在生活環境部分,現在在台灣很多大都市都搶著做智慧城市,特別是六都,過程中有很多需要利用物聯網設備、人工智慧及大數據分析以達成效率最佳化的機會,例如我在資料科學年會就看到廠商幫忙政府做空氣污染的數據與空氣動向分析,揪出不肖排放污氣工廠;零售業雖然7-11、全家超商等幾家大公司已經有相關AIoT的專案展開與設施建置完成,但是針對商圈與小零售商們,仍有很多機會參與分析與協助建置物聯網環境。
AIoT多層架構代表的也是參與價值鏈廠商的合作架構,而只要找到適合的利基,成為價值鏈的一員,新創也能有很好的機會:就像盾心科技發展影像監控,協助客戶場域中的安全防護;行動貝果利用人工智慧幫客戶找出機器的預防保養時間,減少損失,這都是有好的商業模式,幫客戶解決痛點的好典範。
也就是說,而要在AIoT上成功,不是只要有好的技術就好,要以領域專業知識出發,結合物聯網前端感測器傳回的資料,選出適合的組合,才能用人工智慧建立適合的模型,以針對客戶的痛點及需求提供好的價值主張,然後提供好的服務,讓客戶擁有好的體驗(如B2C的客戶滿意,B2B客戶賺錢或省成本), 則客戶就會心甘情願掏錢出來。
而這不是一家公司可以全部做完的,必須要整個生態系的相關價值鏈的公司一起跨領域的協作來提供。而新創企業在這邊的機會,絕大部分是生態系的參與者,而非平台的主導者,而如何跟其他生態系的成員一起合作,發揮自己在生態系中的價值,則是其中成功的要素。
而台灣的中小企業,想要針對AIoT升級轉型,只發展具備感測器的前端裝置是不夠的,還需要結合人工智慧,以參與生態系的角度考慮。還沒開始做人工智慧佈局的,可以考慮派人參加台灣人工智慧學校學習,好發展相關技術,或是跟其他專業的人工智慧公司(如DT42、行動貝果…等等)合作以提供好的服務。
人類常常高估新興科技大潮二、三年的影響,卻也低估了它十年後的影響,上次網際網路在西元2000年泡沫化之後,台灣社會對網際網路不如美國、中國的關注密切,以致於錯過網際網路再興起與手機移動網路的浪潮。而這次AIoT的大潮,隨著趨勢與需求的確定,我認為在10年內將大起,台灣新創與企業們怎麼能不在這個時候抓住屬於自己的利基妥善佈局呢?