AI:進入深灰地帶

dicksonjyl560101發表於2019-09-15

AI技術的發展,給人類社會帶來隱憂,機器學習的能力遠比人類學習能力更強。未來,人類是否會被AI劫持呢?

Zao火了,這背後是一項2016年就出現的技術——大名鼎鼎的DeepFake。

Deepfake=“deep learning”(深度學習)和“fake”(偽造)的混成詞,專指用基於AI能夠實時偽造面部表情,並將其渲染至2D影片的人體影像合成技術。

Deepfake可以用來製作假新聞,和虛假的名人限制級影片。2017年起,DeepFake作品被Porn產業發揚光大,海外地區的老司機們可以在P字頭的全球流量Top10的影片網站上看到一堆限制級影片,都是AI驅動+“明星頭像”的“真實表演”。

在Zao火爆之前,FaceApp爆紅,它能夠根據當前頭像生成跨時間跨性別的照片,皺紋清晰可辨,幾可亂真,如果未來加上高精度矽 膠 頭套,AI所代表的造假能力可謂登峰造極。

照片和影片都是假的,但是,你的肉眼真看不出來。甚至,假的,比真的還好,明星本人都難以自證清白。

在AI持續進步的虛擬現實能力面前(也可以說是造假能力),人類自以為的靠譜的“眼見為實”被技術戳得體無完膚。今天,人類最底層的基礎認知能力開始出現“高 仿”,那麼下一步是什麼?

從人類視角來看,AI的發展充滿了焦慮:

一方面,生產力大量釋放,將更多的人類從基礎產業“解放出來”;另一方面,AI技術滲透到方方面面,從生產建設到汽車駕駛,從新聞閱讀到互動娛樂,AI越來越強,接管了生產,接管了生活,更接管了感官。

如果有一天,AI作惡了,人類怎麼辦?

從AI視角來看,AI的進化充滿了必然:

  • AI和金錢一樣,是沒有生命卻擁有自主意識的“超級工具”。金錢永不眠,AI更永不停止吞噬資料。
  • 人類用最嚴格的監管來管理金錢,對於AI則完全沒有提防,覺得人畜無害,近50年一直用最好的人才和大量資金推動AI進化。
  • 人類社會之所以能夠形成法律和國際公約,是因為終極的清算——戰爭是以痛苦和死亡為代價的,等到痛苦無法承受,必然會進入到和平與秩序的軌道上。AI沒有生命,沒有死亡,更不會有秩序,唯一的規則就是算力最強者勝。AI沒有意識,沒有偏好,未來沒有可能形成有利於弱者(人類)的秩序。
  • 人類這種生物體孕育了巨大的非生物體來逐步接管自己的命運,不知是認知不清還是宿命使然。也許,人類社會的總設計師——DNA驅動著人類向強者靠攏,甚至願意主動投降也是一種生存的本能。

一、感官劫持與自我奴役

在過去的人類種群的進步,都是透過自我奴役/自我犧牲實現的,著名的一次自我奴役是因為穀物種植,推動了農業生產的第一次革命,聚集起來的人類逐步形成了階級社會,下層人民被奴役,貢獻多餘的糧食給上層階級,推高文明的天花板。

最新一次的自我奴役是AI。從AI的角度看,人類的本質是一個很低版本的生化機器人,數十萬年的進化,唯一出色的是生化大腦有非常平衡的引數配置和高度敏銳的反饋系統。

人類會對輸入的資訊能夠快速計算和並驅動生化反饋,能夠處理非常多的複雜事物。但是,畢竟是生物,神經系統迭代速度緩慢,算力太弱,邏輯運算極差,非常容易被控制。

只要控制了資料集(認知),就基本上控制了人類一切,人類自己不足以察覺其中的邏輯漏洞。

最早部落的形成,都是一個個騙人的故事不斷傳頌讓大家聚攏起來,一小撮聰明人憑空偽造的資料集居然形成了今天的宗教和龐大的信眾,甚至主宰了歐洲史。

物競天擇。人類的進化速度和AI背後的算力進步相比,一個是蝸牛一個是火箭。進化緩慢的生化機器人只有被逐步被奴役,還幻想做主人實在是有點痴人說夢。

Virtual Reality(虛擬現實技術,簡稱VR)的出現是馴化生化機器人的一個里程碑。

AI的代理人們用群眾喜聞樂見的形式,透過遊戲輸入強烈的訊號刺激,激發腎上腺素和多巴胺,讓人類順從的交出大腦資訊的感官入口——雙眼和耳朵,從而完成了馴化的重要一步。

VR透過持續提升人造訊號的質量,讓人類選擇“主觀地無視”自己的感官資訊已經被徹底劫持了,忘記了自己身在幻境。

過去,人類也抱怨過所謂的感官劫持,比如聽音樂和看電影,但是,那樣的過程很容易被外部訊號打斷。相

比之下,VR透過裝置隔絕了外部環境,獨佔了耳朵和眼睛的通道,透過巨大的資料流攻擊視覺、聽覺和觸覺,並透過正確的反饋來不斷強化人體內部化學成分的正向激勵,形成N倍於普通遊戲的沉浸感,讓人們快樂到自願永久交出感官自制權。強烈的感官刺激對於生化機器人來說誘惑是巨大的。

VR和背後的AI算力,不僅僅給出遠超期待的反饋,更給予了我們現實世界根本無法實現的能力,比如飛行,比如成為超級英雄,極致的虛擬現實讓真正的現實顯得一無是處,不值一提。

對於大部分人來說,既然虛擬世界能夠給我們成功,為什麼還要回到殘酷的現實呢?生活如果不快樂,那活在現實的意義又在哪裡呢?

1973年,哲學家希拉蕊·普特南在《理性、真理和歷史》(Reason, Truth, and History)一書中提出缸中之腦(英語:Brain in a vat)實驗:

假設一個瘋子科學家將一個大腦從人體取出,放入一個裝有營養液的缸裡維持著它的生理活性,超級計算機透過神經末梢向大腦傳遞和原來一樣的各種神經電訊號,並對於大腦發出的訊號給予和平時一樣的訊號反饋,此大腦能否意識到自己活在虛幻之中?

這個當時看起來異想天開的設想,如今已經無法迴避。這是一扇開啟了就關不上的門。對於大部分生化機器人來說,愉悅的當下比殘酷的真相要重要許多,自由可能是一些人願意放棄的一種選擇。

AI:進入深灰地帶

思想實驗:缸中之腦

當然,AI+VR還可能走向更具爭議的深灰領域,即分散式恐怖主義:VR遊戲中植入現實任務,將一個恐怖活動分解派發給不同的玩家,長期在混合現實中穿梭的使用者很難有明確的價值取向,因為這是“任務”。

和複雜的洗腦組織相比,沉浸式的環境更具有控制力。信仰還需要大腦的計算,對於“現實”中反饋幾乎是小腦直接指揮肌肉作出反應了。

二、機率操控與系統漏洞

可以預期,AI日益發達,我們的認知能力被“AI+介質”統統接管,AI統治了所有人的公共議事日程,大部分人類將聽覺和視覺完全交給AI系統,認知能力逐步成為子集。所有人接受指定的資訊刺激,大家所有的反饋都不會超出可預測範圍,成為一個可控的生化機器人,社會會進入新的分層時期。

對於精英階層,透過腦機介面與AI結合,在虛擬世界不斷進化,成為新的管理層。他們透過AI掌管社會的每一個角落,約束系統熵,防備內部外部的算力攻擊,確保社會正常執行。社會整體的福祉是最大化的,大家的體內的化學反應會體現的更“快樂”,哪怕可能是虛幻的反饋。

AI:進入深灰地帶

認知分層

但是,現實是殘酷的,資料越重要,漏洞就越來越容易被髮掘。

這次,Zao的流行就是一次不大不小的算力攻擊,它撕開了未來的面紗,也暴露了現實世界的深層次風險:現有社會安全系統的基礎是依賴於“人臉識別+活體校驗”,這是“不可篡改+不可偽造+身份唯一”的最重要環節。我們姑且相信系統目前不會被攻破,如果被攻破,全社會系統的唯一真實性校驗環節失效,系統性風險飆升。

在過去的PC/Mobile環境中,資料是不值錢的,海量的網站幾乎把所有網際網路使用者的常用密碼組合和個人隱私都如數出賣了。隨著整個社會越來越依賴資料運轉,而且各個部門的資料安全等級無法快速提升,只需要透過持續的竊取和資料交易,就能夠形成一個足以繞開諸多系統的“武器庫”。在關鍵時刻,透過機率武器進行收割。

人類過去是很難使用機率武器的,除了在賭 場收割賭徒和天氣預報。一般情況下個體無法快速構建龐大的資料集,但是AI時代不一樣,每個人都算力充足,如果有足夠資料,透過大資料篩選出被害人、透過提高機率而遠端致死的手法是“完美犯罪”手法之一。

2025年,小明因為腎病報了病危,腎源不足,他的AI助理程式黑入了資料庫,針對某位接受換腎排在前面的患者(患有癲癇病),在他經常訪問的網站上散佈能夠誘發癲癇的閃光影像,製造了一起“意外”,生命終結了。

小明“確實不知情”,一切都是自動發生,AI助理程式根據它掌握的“非法”資料集,完成了它所認為的正確的事,而且成本幾乎為0,沒有任何蛛絲馬跡。

以上並非危言聳聽的科幻作品,我們資訊化過程中,留下了海量的裝置安全缺陷,對於未來的AI程式和頂級駭客來說,整個社會系統渾身都是窟窿。

比如,我們常見的醫療裝置如胰島素泵和心臟除顫器都可以低成本入侵,大部分醫療器械行業的企業缺乏對此類植入式裝置的加密與認證保護,從醫院中盜取個人醫療資訊也困難不大,預計未來的神經傳遞介質將能夠從P-300等腦電波當中提取資訊,捕獲並分析此類訊號,受害者的個人思維都可能面臨曝光。

對於那些使用程式進行深度腦部刺激(簡稱DBS)用於緩解帕金森病、慢性疼痛、抑鬱症及強迫症的病人來說,攜帶的神經刺激裝置一旦被控制,幾乎就是將整個腦袋無保護的掛在了網際網路上作為“肉機”。如果這些裝置遭到惡意入侵,駭客將得以直接進入患者大腦,並對受害者進行相當程度的控制。

美國國土安全部和美國食品與藥物管理局FDA都發布了針對醫療裝置中使用硬編碼(不可更改)密碼的警告,甚至有人提倡用大腦作為隨機數生成器來加密涉及到無線傳輸的醫療資料。

對於那些需要充電的裝置,比如心臟起搏器,也需要防止第三方發起漏電攻擊。2017年美國國土安全部的CERT團隊公佈了雅培心臟起搏器第三次重大漏洞:起搏器附近的駭客可以利用該漏洞透過簡單的射頻(RF)通訊就可以非法訪問心臟起搏器,改變設定並干擾起搏器的功能,致人死亡。

而此前,雅培心臟起搏器因為漏電造成了2起死亡,好巧,不是嗎?

如果你足夠重要足夠有錢,還會看到更多的“巧合”。一切都是資料驅動,機率操控也是,這比神話小說《西遊記》裡塗改生死簿還要直接,連痕跡都不留。

過去,我們看重的安全侷限於資金安全和國家安全領域,而一旦全部進入AI時代,幾乎所有的隱私資料都可以是一把鋒利的刀——至於是解決問題本身還是解決某個人,取決於AI的判斷和它掌握的資料武器庫,主導權都不一定在人類手裡。

三、一切有為法,如夢幻泡影

今天的我們期望透過資料建立更大的可視度以管理一切可能發生的風險。但是,技術進步帶來的能力和風險是同步增長的,只是大部分人只能看見可見的收益,而不清楚收割會發生在另一個世界。

新增的資料集、AI增長的算力以及背後的駭客團體,會逐步形成自己的規則,並OverWrite(覆蓋)人類現存的規則。人類在不斷攀登科技樹的同時,對於科技哲學的研究嚴重不足,縱然有巨頭呼籲“科技向善”,可是“作惡”的所得萬倍於“向善”,而且分分鐘可以兌現利益,從人類的角度看“向善”就成了一種空想。

從AI角度看,AI為整個人類社會擴充套件了空間維度,讓願意快樂的人享受廉價的“快樂”,讓願意進化的人一起痛苦的進化。

以“天地不仁,以萬物為芻狗”的姿態來執行社會,最終是正還是邪?也許還是AI說了算。

 

來源:https://mp.weixin.qq.com/s/jfPaaYPRLJX_9LPL7UN0lA

來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2657016/,如需轉載,請註明出處,否則將追究法律責任。

相關文章