AI 時代下的產品思維(一):AI不是神

AIBigbull2050發表於2019-12-24

本文講述了AI 產品常出現的問題,並從中窺見背後的AI 產品思維。

目錄:

  • 序:產品思維
  • 一、普遍問題
  • 二、AI無神通
  • 三、機遇與挑戰
  • 後記:PDF資料

首先要問一下,什麼是產品思維呢?

簡單的說,產品思維就是產品經理在打造產品時的思考方式。

說到這個詞,可能很多人都會聯想到梁寧在“得到”上的《產品思維30講》的課程。

梁寧老師為大眾科普了產品經理的思維方式。但是真正的產品經理,光學習科普知識還是不夠的,更需要深入專業和實戰。雖然很多企業都設定有產品專員的崗位,但可能由於職業分工的限制,培養效果並不好。反而那些由優秀的設計師、程式設計師和運營轉崗的產品經理,往往表現得更加出色。

究其原因,產品經理本身就是一個綜合性極強的崗位,優秀的產品經理不是學出來的,而是“打”出來的。關於產品經理的成長可以看之前文章:

也有人說,產品經理是CEO的預備班,像馬斯克、貝索斯、賈伯斯、雷軍、馬化騰、張小龍,不僅僅是卓越的產品經理,還是優秀的企業家。

那產品經理需要怎麼樣的思維方式呢?

產品經理本質上負責的就是企業的產品創新。國際著名的設計諮詢公司IDEO,曾對於“創新”有這樣的定義,所謂“創新”就是要平衡人、商業、技術三方面因素,IDEO稱之為Design Thinking:

  1. 人的渴望:解決使用者的需求,讓產品擁有良好的體驗,比現有的解決方案要好上 10 倍;
  2. 商業的可行性:需要充分的考慮到商業價值,能夠不斷為企業創造收益;
  3. 技術的可實現性:使用合適的技術手段保質保量的實現產品功能;

產品思維就是創新的思維,Design Thinking也是我這些年來在產品崗位的最底層思維模式。不管產品經理是什麼崗位出身,評判他是否專業,就在於他如何能平衡好三者之間的關係。

如今,AI 毫無疑問是當下炙手可熱的話題,許多產品也逐步的 AI 化。AI 時代的產品思維究竟有怎麼樣的不同?

在寫這個話題之前,我也看過一些AI產品的書籍,大多都在講概念,講如何解決問題的偏少。而我的初心也很簡單,透過總結我在實踐中踩的一些坑,和大家一起去發現與以往不一樣的產品思維。少談一些概念,多談一些思路,也是我寫此文的一個目標。

在AI產品的實踐過程中,我們發現事情並沒有那麼簡單。我們遇到了諸多的問題和挑戰。 如果要使用AI,我們首先需要先將AI請下神壇,破除對它的迷信。當下的AI產品有三個較為普遍性的問題:容易偏離、可解釋性弱、可靠性差。

1. 容易偏離

2016年3月26日,微軟釋出了一個聊天機器人 Tay。微軟原本是想讓 Tay 扮演一個少女角色,能夠線上與 Twitter 上面的任何人進行交流。除了聊天,Tay 還能完成向使用者講笑話、對使用者發給“她”的照片進行評論等其他任務。

剛上線的時候,Tay 說:“世界你好!”並且@網友說:“見到你們太激動啦,人類超酷的”,但只用了一天的時間從“純情少女”變為反人類的“納粹”,微軟在上線 16 小時之後就不得不把 Tay 下線。

可以確定的是,工程師在程式設計時並沒有為她編入這些亂七八糟的極端言論。那為什麼會產生如此的錯誤?其原因是少數使用者利用 Tay 模仿說話的漏洞,對 Tay 進行了錯誤的訓練。

Tay 彷彿一面鏡子,她反應的不是微軟的技術,而是網友的人性的惡的一面。在面對真實世界的時候,即使是有最先進演算法的機器人也會措手不及。

2. 可解釋性弱

2017 年 6 月,Facebook 人工智慧研究所(FAIR)使用機器學習方法,對兩個聊天機器人進行對話策略的迭代升級,Facebook 的人工智慧研究院 (FAIR) 想要訓練一個聊天機器人,讓它學會談判。但很快,研究人員就發現,聊天機器人正在創造他們人類無法理解的語言。

同年 7 月,Facebook“關閉”了這個引發廣泛爭議的智慧對話機器人專案,避免機器人“非人”的道路上越走越遠。Facebook 的這個機器人使用的生成式對抗網路(GAN, Generative Adversarial Networks )是一種深度學習模型。這個模型至少兩個模組,透過互相博弈學習產生良好的輸出。一個優秀的 GAN 應用需要有良好的訓練方法,否則可能由於神經網路模型的自由性而導致輸出不理想。由於深度學習是一個黑盒,研究人員無法像傳統程式設計師一樣透過修改程式碼邏輯來改 bug,只能暫停專案,重新設計模型方案,儘可能避免同類問題的發生。

3. 可靠性差

Uber 為了加快商業化的步伐,其測試的無人駕駛汽車數量就不斷增加。2018 年 3 月 26 日,一輛 L4 自動駕駛汽車(改造於沃爾沃 XC90)在亞利桑那州的公共道路上撞擊一位行人並致其死亡。這也是世界首例 L4 車輛因車禍致人死亡事件。

在汽車界,通常將自動駕駛分類六級,分別是:L0 是無智慧、L1 輔助駕駛、L2 部分自動駕駛、L3 條件自動駕駛、L4 高度自動駕駛、L5 完全自動駕駛。

自動駕駛汽車需要有一堆複雜的裝置做支撐。只要有一個模組出問題,就可能釀成大錯。

根據美國國家交通管理局NTSB認為,該車禍的主要原因為Uber淡薄的安全意識,車輛沒有開啟緊急制動系統,沒有及時對安全員進行監督————事故發生時,車上安全員仍在看影片而非及時採取措施。導致了這場悲劇。

近幾年,特斯拉也事故頻發,儘管如此,依然經常會聽到,駕駛員在開著自動駕駛睡著飆車的新聞。下圖為一個使用者喝醉後開著特斯拉的自動巡航,在邊睡覺邊在高速上狂奔。

現實不是遊戲,當“無知”的人類將生命交給 AI 的時候,他們是否意識到:萬一系統出了 bug ,生命再也無法重來?在那些講給投資人故事之外,可能自動駕駛拷問的並不是技術,而是資本與人性的貪婪。

上面提到的問題只是冰山一角。Al 也並非沒有優勢,機器可接受的輸入資料範圍要比人類大得多,計算機處理資料能力比人類強大。視覺識別和語音識別等一些領域,AI 幾乎達到了人類水平。

但AI 依舊難以達到智慧生命體一樣的智慧。究其原因,計算機初衷是為了解決邏輯計算問題,而智慧生命體的智慧是透過上千萬年進化習得的。前者善於邏輯計算,後者善於適應環境。

而如今人工智慧卻越來越多地在模擬人類的本能行為,才導致“莫拉維克悖論”也愈發明顯。

莫拉維克悖論是指:

人類所獨有的高階智慧能力只需要非常少的計算能力,例如推理,但是無意識的技能和直覺卻需要極大的運算能力。也就是,要讓電腦如成人般地下棋是相對容易的,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的。

其實,AI的底層只是資料和演算法。多數 AI 模型解決是特定領域的分類和聚類的問題,這可以類比人類的歸納法和演繹法。

由於機器缺乏對事物理解能力,導致應變能力和遷移能力非常弱,AI 並不會像人類真正體會到事物背後的含義。

AI 能將廣告上的董明珠,誤判為亂穿馬路的行人,也不足為奇。因為從資料角度,AI確實在馬路上捕捉到了人臉。

另外,機器也不會有情感感受。例如,AI可以識別出一隻貓,它可以給這張圖打上一堆的標籤,但並不會像人類一樣,覺得這隻小貓有多麼的可愛。

有許多藝術家開始使用所謂的“神經網路軟體”來創作藝術品,也有些以天價拍賣,但AI只是藝術家的創作工具,他們透過匯入訓練素材,不斷調整引數來獲得作品,本質上和 用3ds Max做效果圖渲染沒太大區別。所以,也不代表AI有創作力。

現階段,AI 做不了事情還有很多。它只是一個工具,脫離了人類,AI什麼也不是。人類也不用擔心 AI 像電影中講的那樣反叛和統治人類。

有學者分析了未來 10 年內,各行各業被 AI 取代機率。自工業革命以來,人類從未被如此大規模的被機器取代。

雖然看上去有點嚇人,但對於 AI 產品創業者來說卻是一個不錯的機遇,但把握住這個機遇並非易事。很多時候,新技術的應用並不會一帆風順。

根據高德納總結的“新興技術炒作週期”規律,新技術往往會經歷萌芽期、膨脹期、破滅期、爬升期、穩定期,5個階段。

歷史上,人工智慧的命運也是“三起兩落”。接下去是否會迎來新的寒冬,誰也不知道。

但是我們把不成熟的新技術放置使用到產品中,對產品經理本身就是一個巨大的挑戰。

在當下,我們不應過於理想化AI的能力,我們更需要用冷靜和批判性的眼光,去審視 AI 技術的發展和應用。

當我們遇到一個與AI相關需求的時候,與其陶醉於自我,不如提出質疑反而會顯得更加有用:如果AI技術實現得不好怎麼辦?

究竟要怎麼辦?請看下一期:AI時代的產品思維(二):新的挑戰





來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69946223/viewspace-2670369/,如需轉載,請註明出處,否則將追究法律責任。

相關文章