全球權威調查機構皮尤研究所日前釋出報告《演算法時代》,採訪千餘專家,分7大主題探討演算法對生活各方各面的影響。報告的目標是客觀全面反映當前人們對即將到來的演算法時代的看法,結果僅38%的特定受訪者預測演算法的積極影響將超過其負面影響,而37%的人認為負面性超過積極性;25%表示演算法的整體影響將保持在50%-50%左右。演算法勢必無處不在,對於未來,你抱有希望嗎?

演算法是解決問題或完成任務的指示說明。配方是演算法,數學公式也是演算法。計算機程式碼還是演算法。網際網路依靠演算法執行,所有的線上搜尋都通過演算法完成。有了演算法,電子郵件才知道發去哪裡。智慧手機的應用程式不是別的,就是演算法。計算機和視訊遊戲是演算法寫就的故事。如果沒有了演算法,線上約會、薦書系統和旅行網站將無法執行。GPS 地圖系統通過演算法讓人從 A 移動到 B。人工智慧(AI)也是演算法。人們在社交媒體上看到的東西是通過演算法被呈現於他們眼前。實際上,人們在網路上所見的和所做的一切都是演算法的產物。電子表格每做一次排序,都需要用到演算法,如今大多數金融交易都通過演算法完成。是演算法幫助各種裝置響應語音命令、識別面部、排序照片,創造並且駕駛汽車。演算法會遭遇黑客襲擊、網路攻擊和破解加密程式碼的侵襲。自學習演算法和自程式設計演算法正在興起,在未來很多演算法將由演算法編寫完成。

演算法通常是你完成任務時會用到的優雅而極其有用的工具。演算法大多是看不見的,它們以不可思議的方式在增強人類的生活。然而,有時候好意開發的演算法制作的應用程式卻會導致意想不到的後果。最近的一些例子包括:

  • 2016年10月7日,英鎊價值下跌6.1%,部分是因為演算法觸發的貨幣交易。
  • 去年春天,微軟開發了Twitter機器人“Tay”與千禧一代聊天,但不出幾個小時,Tay 便頻頻爆出種族主義、性別歧視、否認納粹大屠殺的推文,原因是它根據演算法“學習”那些傳送給它的內容,並以此回覆他人。
  • Facebook 想要推出一個根據資訊流突出流行話題的功能。他們先是請人來編輯,但有人指出人類編輯針對保守派觀點存在偏見後,Facebook 就讓演算法來完成這項工作,結果發現無法辨別假新聞。
  • 《數學破壞性武器:大資料如何增加不平等和威脅民主》一書作者 Cathy O’Neil 指出,基於演算法的預測分析往往會剝削窮人,在書中她以演算法招聘為例討論了這一點。
  • 善意的演算法可能遭到惡人破壞。DNS 是網際網路流量處理程式,2016年10月21日,黑客轟炸 Dyn DNS 使其資訊過載,美國東海岸地區網際網路網速全面減緩,由此開啟了使用聯網裝置進行網際網路攻擊的全新時代。網際網路安全專家 Bruce Schneier 在同年9月警告說,“有人在學習如何弄垮整個網際網路”。在2016年美國總統選舉期間,濫 Facebook 的新聞流演算法和一般的線上假新聞演算法引發了巨大的爭議。
  • 研究員 Andrew Tutt 呼籲成立“演算法 FDA”,Tutt 指出:“越來越複雜的演算法的出現,使我們需要就如何最好地預防、阻止和補償它們造成的危害進行批判性的思考……制定與演算法相關的法規將需要採取聯邦統一手段、專家的判斷、政治獨立性和前期市場審查,在不扼殺創新的前提下,防止將危險演算法引入市場。
  • 白宮於2016年10月釋出了兩份報告,詳細介紹了演算法和人工智慧的發展以及解決與之相關的問題的計劃,並在12月還發布了一份報告,概述了 AI 驅動自動化對美國就業市場和經濟的潛在影響
  • 2017年1月17日,Future of Life Institute 釋出了有益人工智慧原則的 23 條軍規,包括霍金、馬斯克、庫茲韋爾等數百名世界上最重要的人工智慧研究人員在內的1600多人簽署了這份檔案。

企業和政府正在創造、抓取和分析大量的資料,演算法的使用也愈發普及。有些人將這稱之為演算法時代(Age of Algorithms),並預測這一與機器學習和深度學習相關的演算法未來,將以前所未有的速度實現社會的進步。

在 2016 年美國總統大選結束後,鑑於網路工具在這場選舉中所發揮的重大作用,有很多分析都指出這些工具將對未來產生革命性的影響。但是,XPrize 基金會執行長 Peter Diamandis 預測,技術的發展將令這次選舉在技術含量上黯然失色。Diamandis 表示,計算以及嵌入在物聯網系統和裝置中的 AI 和 AI 代理的快速演變,將帶來對選民的超級跟蹤、影響和塑造,以及超級個性化的廣告,並將創造出全新的方式歪曲現實,將虛假資訊固定為永恆。

演算法時代七大主題

主題1:演算法將無處不在

  • 可見和不可見的好處將加深人類對世界的認知
  • 很多演算法帶來的好處將伴隨著挑戰

主題2:演算法時代的益處

  • 由資料驅動的問題解決方式將得到普及
  • 程式碼過程將得到優化;道德倫理問題得到解決
  • “程式碼無需完美,只要比人類優秀即可”
  • 未來,世界可能由仁慈的 AI(benevolent AI)管理

主題3:當資料和預測建模的重要性成為第一,人性和人類判斷將消失

  • 主要為了利益和效率進行的程式設計活動將帶來威脅
  • 演算法將操縱人類、操縱結果,甚至“讀心”
  • 所有這些都將促成一個有缺陷但卻無法避免的、由邏輯驅動的社會
  • 有人擔心人類將失去決策能力,不再擁有智慧
  • 有人擔心複雜系統由程式碼接管,人類將被拋在一邊

主題4:演算法組織的系統中將存在偏見

  • 演算法反映出程式設計者和資料的偏見
  • 演算法依靠資料,而資料往往是有限、不足或者是錯誤的

主題5:由演算法進行分類將加深各種群體之間的差異

  • 由此到來的不平等將加深
  • 演算法將創造出過濾器,將人限制在自己的圈子裡,限制人們接觸更多外界資訊

主題6:失業率將上升

  • 更加智慧、高效的演算法將取代很多人類工作崗位
  • 有些人試圖重構全球經濟以維持人類生存

主題7:需要普及演算法知識,加強演算法透明度和監管

  • 從普及演算法知識做起,不僅僅是基本的數字化資訊
  • 對演算法過程進行責任劃分、監管和透明糾察
  • 很多人對演算法監管持消極看法

史丹佛大學的 Aneesh Aneesh 這樣的分析師預見,在未來,現在的“官僚等級制度”將成為全新“等級治理”(algocratic governance)補充,演算法將掌管公共和私人活動。哈佛大學的 Shoshana Zuboff 等人則描述了未來的“資訊文明”,在資訊文明裡將出現一種“監督資本主義”(surveillance capitalism),組織人類的經濟行為。

為了闡明當前人們對演算法在未來十年的潛在影響抱有什麼態度,皮尤研究中心和伊隆大學對技術專家、學者、企業從業者和政府領導人進行了大規模的調查。有1302人回答了這個問題:

未來十年,演算法對個人和社會的淨整體影響是積極的還是消極的?

結果發現,38%的特定受訪者預測演算法的積極影響將超過其負面影響,而37%的人認為負面性超過積極性;25%表示演算法的整體影響將保持在50%-50%左右。

我們要求參與者解釋他們的答案,大多數人都寫了詳細的闡述,並且提供了針對有關趨勢的洞察。我們允許受訪者採用匿名回覆;在回覆中也是匿名佔多數。這些發現並不代表所有可能出現的問題的觀點,但它們都是根據當前的趨勢揭示了有價值的觀察。

下面,我們將簡要闡述回答中出現的七大關鍵主題。在介紹部分後,我們將援引部分受訪者的觀點,深入論述他們對每個主題的看法。

積極影響

主題1:演算法勢必無處不在受訪者之間存在相當統一的看法,那就是演算法對於公眾的影響通常是不可見的,並且這種影響將在未來十年中呈指數上升。

這一觀點的代表人物是 Sertain Research和StreamFuzion公司的創始人和總裁 Barry Chudakov。他回答說:

“如果每個演算法突然停止工作,我們現在所知的世界就全完了。”事實是,我們已經把世界交給了機器學習和演算法。現在的問題是,如何更好地瞭解和管理這些演算法。

“演算法是人類決策的新決定者,幾乎在我們可以想象的任何領域,從觀看電影(Affectiva 情感識別)到購買房子(Zillow.com)到自動駕駛汽車(谷歌)。德勤全球預測,全球100家最大的企業軟體公司中,有80家將在2016年年底前將通過演算法將認知技術整合到他們的產品中。”

演算法提供了“一個更好的標準,用來與人類的認知本身形成對比”,它們還促進了對另一種相同認知的思考:我們是如何思考的?通過演算法來思考,進而改變世界,這件事到底意味著什麼?

“這個主要的積極結果是更好地理解如何做出理性的決定,並以此更好地瞭解自己。畢竟,演算法是通過反覆試驗,通過測試和觀察,根據數學公式得出的,這可以用於很難判斷的選擇和問題,特別是在直覺上很難得出結論的。

“其次,演算法能帶來的積極結果是連通性。一切都是或可以與其他一切相連的。利用演算法的連通性,以前需要人類操縱和思考的基本過程,現在都可以得到管理、監測和計量。我們的車可以告訴我們放慢速度。我們的電視可以向我們推薦電影觀。雜貨店可以為我們建議使用健康的肉類和蔬菜的組合做晚餐。

“主要的負面影響可以歸結為一個簡單、但現在還沒有很好解決方案的問題:我們如何看待並徹底理解這些程式設計到日常行動和決策中的演算法的含義?我們不僅需要創造技術解決方案,而且在構建商業模式、公司和市場之前,更要看到這些方案的後果,特別是它們的侷限性。”

Chudakov 補充說,在未來十年及以後,“通過擴充套件資料的收集和分析以及由此產生的資訊應用,一個智慧或思維操作的層(a layer of intelligence or thinking manipulation)將被創造出來,新增到以往的操作過程或者物件當中。由此帶來的結果是,隨著資訊工具和預測動力學被更廣泛地採用,我們的生活將越來越受其固有結論和過程的影響。”

主題2:前景光明許多受訪者指出,演算法能幫助理解大量資料,指出這將在日常生活中激發科學突破、新的便捷方式和人類在日常生活中的能力,以及更好的將人們與所需資訊聯接的能力。它們執行了在人類看來神乎其神的任務,而且將繼續大大增強人類的智力,協助完成偉大的事情。持這種觀點的代表是加拿大國家研究委員會的研究員斯蒂芬·唐斯,他列出了以下積極變化:

一些例子:

銀行。 今天,銀行基於非常不完整的資料提供貸款。的確,許多今天有資格獲得貸款的人在未來是無法得到的。 然而,許多人 – 可以說是多得多的人 – 在未來將能夠獲得貸款,因為銀行拒絕使用諸如種族、社會經濟背景、郵政編碼等因素來評估適合度。 此外,隨著更多的資料(以及銀行和客戶之間更具互動關係),銀行可以降低風險,從而提供更多貸款,同時提供一系列服務,單獨指導,切實幫助個人的財務狀況。

醫療保健機構。 醫療保健是一個重要的和不斷增長的開銷,不是因為人們的健康狀況越來越差(事實上,從整個社會來說,事實恰恰相反),而是由於需要支援越來越複雜的系統,包括開處方、保險、醫療設施等,需要大量的開銷。新技術將使醫療機構能夠將大部分負荷轉移給個人,將(在個人支援系統的幫助下)更好地管理人類的健康,協調和管理自己的個人保健,減少系統負擔 。 隨著醫療保健總體成本的下降,為整個人口提供單一付費人健康保險變得越來越可行,我們已經知道這會對人民健康產生有益有效的影響。

政府。政府的相當一部分職能是基於監管和監測,隨著自動化生產和運輸系統以及感測器網路的部署,這將不再需要。 這包括許多我們今天與政府的日常(而且是常常令人不快的)互動,從交通違法、民事糾紛到商業和法律過程中的不公平待遇等等。一個簡單的例子:美國最持久的政治問題之一是為了對任職者有利,造成了選區劃分的不公正。 通過演算法建立的選舉分類在很大程度上可以消除這種不公正(且當選取劃分公開並存有爭議時,可以修改完善該結果)。

來自其他匿名受訪者的其他回答:

“演算法以自動化的方式發現知識,比傳統的方法更快。”

“演算法可以足夠快地壓縮資料庫,以緩解目前拖慢進度的一些繁文縟節和官僚作風。”

“我們將看到更少的汙染,改善人體健康,減少經濟浪費。”

“演算法具有平等獲取資訊的可能性。”

“演算法的效率將引領更多的創造力和自我表達。

“演算法可以減少交通問題;它們可以識別堵車,規劃替代路徑。”

“無人駕駛汽車可以大大減少每年的事故數量,以及提高大多數人的生活質量。”

“更有針對性地提供新聞、服務和廣告。”

“使用演算法從社交媒體收集資料和點選蹤跡,出現更多基於證據的社會科學 。”

“定位可以防止犯罪的地區,改善並更主動地進行警務工作。”

“欠發達地區減少,國際商業交流增多。”

“演算法減少了決策、採購、運輸和大量其他行為中的消耗。”

“機器人會根據你的指令購買股票。數字經紀人將找到你需要的材料。”

“任何錯誤都可以糾正。這意味著演算法只會隨著時間的推移變得更能滿足人類的需求。”

擔憂與挑戰

這項研究的參與者都嚴重同意:加速程式碼依賴帶來的大量積極影響將繼續推動演算法的傳播,然而,與所有偉大的技術革命一樣,這種趨勢有一個黑暗面。大多數參與者指出了自己的擔憂。主要的擔憂集中體現在報告接下來的這 5 個主題中,每一個主題都包含子主題。

主題3:當資料和預測模型佔據統治地位,人性和人類的判斷將喪失演算法的進步能夠讓技術企業和政府蒐集、儲存、分類和分析海量的資料集。

專家在這項調查中指出,這些演算法主要是為了優化效率和提高盈利能力而寫,對資料建模和分析潛在的社會影響並沒有作過多的考慮。這些受訪者認為,在這個過程中,人類被看出是一種“輸入”,而不是真實的,會思考的,有感覺,隨時都在變化的生命。

他們說,這是在創造一個有缺陷的,僅憑邏輯驅動的社會,隨著這一過程不斷演化,也就是說,隨著演算法開始編寫演算法,人類可能在社會的迴圈中被遺棄,從而把決定權交給機器。

代表觀點:

Clemson大學人本計算( human-centered computing)專業的助理教授 Bart Knijnenburg 回答說:“演算法將會把便利和利潤放在首要位置,從而造成對特定人群的歧視,並破壞另一些人積累起來的經驗。演算法的目標是滿足一些人的偏好,而不一定是所有人的偏好。從本質上看,演算法呈現的是我們的口味和偏好。我最大的擔憂是,除非我們讓演算法可以做到“自我實現”(self-actualization),否則,人們遵循一個演算法的建議變得過於容易,也過於簡單了(也就是說,人類將很難超越這些演算法提供的建議),同時,人們也會漸漸把這些演算法變成一個能自圓其說的哲學家,使用者則會成為專門消費易於消費專案的“殭屍”。

這將是很方便的人們遵循一個演算法的建議(或太難以超越這樣的建議),把這些演算法變成自我實現預言和使用者進入殭屍誰專門消費易於消費的專案。

一個匿名的未來主義者說,“從工業革命開始以來,這樣的事一直在發生。每當你設計一個針對效率或盈利能力進行優化的人力系統時,你就是在將勞動力非人性化 。這種非人性化現在已經蔓延到我們的醫療和社會服務上。當你從包含人類的系統中移除人性時,人類就成為了受害者。

另一個匿名回答者寫道:“我們根本不能捕捉到用於代表一個人和他的需要,願望,希望和渴望的每一個資料元素。資料由誰來收集?收集什麼?資料點所代表的那個人,他是否知道或者說同意服務條款,又或者是因為他們根本沒有選擇?

誰從資料賺錢?任普通人如何知道他/她的資料如何被使用?用於什麼目的?在這個過程中,沒有透明性,監督也成為一場鬧劇。所有的一切都被隱藏起來。我將始終堅信資料應該用於豐富和/或保護眾人,而不是個人。這是我們所處的經濟制度的基本性質。

其他受訪者對這一主題的反饋:

• 潛力是巨大的,但誤用和濫用的可能性,不管是故意的或無意的,可能性更大。

• 公司尋求的是將利潤最大化,而不是將社會利益最大化。更糟糕的是,他們將對利潤的追逐重新包裝為對社會利益的努力。我們正在接近波浪的波峰,波谷的一邊是一種新的操縱,營銷,幾乎完全缺乏隱私的倫理。

• 我們今天看到的是,實際上,像“差別定價”這樣的東西並不能幫助消費者,它只是幫助銷售東西的公司。

• 隨著法治、社會正義和經濟遭受可預見的破壞,個體人類將像牛一樣被圈養起來。

• 演算法正在放大資料代溝和隔離帶來的消極影響。

主題4:演算法組織的系統存在偏見兩個思路在這裡連在一起。一個是演算法建立者(程式碼編寫者),即使他們努力做到包容,客觀和中立,但是他們也還是在創造中建立了自己的觀點和價值觀。另一個是,演算法所採用的資料集有自己的侷限和缺陷。即使是包含了數十億條資訊的資料集,也難以完全捕捉到人們生活的豐富性和經驗的多樣性。此外,資料集本身並不完美,因為它們不包含每個人的輸入或每個人的代表性樣本。這兩個主題在這些答案中得到體現:

麻省理工學院教學系統實驗室執行主管 Justin Reich 指出:“演算法將主要由白人和亞洲人設計,資料也由這些掌握特權的人來選擇,他們的出發點將是和自己一樣的消費者的利益。大多數處於特權地位的人會發現這些新工具更方便、安全和有用。新技術的危害將成為已經在社會中處於不利地位的人最多的經歷,比如,廣告演算法提供保釋債券人廣告,這裡面會假定接收到廣告的讀者是罪犯;貸款申請廣告會投放給那些正在尋找代理人的人,這些都與人類族群相關。

軟體工程師Dudley Irish說:“所有,讓我重複一遍,是所有的訓練資料都包含偏見。其中大部分是種族或階級相關的。套用伊曼努爾·康德的話,就是,從這些資料集的彎曲的木材中,從來沒有出現過直線的東西。

其他受訪者對這一主題的反饋:

• 根據定義,演算法是非人性的,並且基於總資料和一般假設。人們編寫的演算法,甚至那些基於資料的演算法,只是人口的一個非代表性的子集。

• 如果你從一個不平等的地方開始,並且使用演算法來尋找一個人/系統的可能結果,你一定會帶來不平等。

• 我們都會被視為一種同質化的物種,這顯然是一種錯誤。

• 結果可能會成為偏見和有害的決定的制度化藉口,他們會說:計算機做出決定,所以我們必須接受。

• 演算法將反映人們帶有偏見的思維。垃圾進垃圾出(Garbage in, garbage out)。生活的許多方面將受到影響,但很少有人會得到幫助。監督將是非常困難或不可能的。

主題5:演算法分類將深化分歧許多受訪者的答案中提出了兩個關於社會分裂的相關觀點。首先,他們預測,演算法輔助的未來將擴大數字精英(主要是最富裕的,新資訊生態系統中最想要得到的人群)和那些幾乎沒有連線或能夠參與的人之間的差距。第二,他們說社會和政治分裂將被演算法所推動,因為演算法驅動的分類會引導人們重複和強化媒體上和政治上的內容。兩個說明性答案:

Fit to Tweet的所有者Ryan Hayes評論說:“二十年前,我們談到了”數字鴻溝“,即在家裡有計算機的人 VS 家裡沒有計算機的人,或者可以訪問網際網路的人VS不可以訪問網際網路的人。但是,從現在開始的未來十年,一個由帶有感測器和處理能力的強大AI以及與大量的資料相聯網所增強的人類,他的能力和對世界的認知,將與那些無法擁有這些工具或者不知道如何使用這些工具的人迥異。

人與人之間的這種鴻溝將是自我永恆的,那些能力較弱的人在許多方面將更容易受到更多的傷害。

波士頓學院的訪問學者 Adam Gismondi 寫道:“我擔心,隨著使用者被隔離到不同的意識形態領域時,人類的同理心可能會受損。面對對立的觀點,如果我們能夠(主動地或被動地)以不同的角度避免與他人產生衝突,這將對我們的社會產生負面影響。

關注主要社交媒體公司在未來幾年會增加什麼功能是比較有說服力的,因為在資訊流的結構中,他們有巨大的權力。

其他受訪者對這一主題的反饋(詳情請參閱完整報告中的更全面的版本):

• 如果當前的經濟秩序繼續下去,那麼我看不到資料驅動演算法的增長除了對社會上最富有的人以外,還會對其他人有任何好處。

• 社會不平等大概會變得更加豐富。

• 主要風險是,不太規律的使用者,特別是那些集中在一個或兩個站點或平臺上的使用者,將不會開發這種導航和選擇的裝置,他們自己也將處於不利地位。

• 演算法使得選擇更有效。積極的影響將是增加利潤,組織能夠避免風險和降低成本。負面影響將被所有演算法所認為具有風險或利潤較低承擔。

• 效率和命令帶來的好處被高估了。在我們的生活中保持一些混亂是很重要的。

主題6:失業率將上升

人工智慧的普及可能造成大面積失業以及由此帶來的各種不良後果。

一個匿名的CEO 說,“如果工作可以由演算法有效表達,那麼這個工作很容易由機器完成。我所看到的負面趨勢是——隨著演算法的崛起,人類會在很多職位和工作上被機器/計算機取代。那麼人類的命運往何處去?”

其他受訪者對這一主題的反饋:

• AI 和機器人很可能瓦解勞動力市場導致人類百分百的失業。它們更聰明、更有效率、更高產、成本更少,所以企業和商業應該會往這個方向發展。

• 自動化引發產能大爆發,這將會加大從業者和資本方的不對等。

• 現代西方社會建立在一種社會模式上,資本被交換為勞動力來提供經濟增長。 如果勞動力不再是交換的一部分,那麼影響是巨大的。

• 沒有工作,人口不斷增長,對普通人自主運作需求減少。這算什麼溫暖?

• 我預測演算法幾乎全面取代工作人員,被替代的人類毫無選擇。

• 長期看來,這可能對人類是件好事,不再需要做低價值、重複性的工作,可以激勵他們創造更高的價值。

• 但願各國會以實施最低保障生活工資和K-12以上的免費教育,以應對這樣的形勢。否則最聰明的人將利用線上資源快速超過平均個人水平,最富有的人將利用他們的經濟力量獲得更多的政治優勢。

主題7:普及演算法知識,加強演算法透明度和監管這次調查的受訪者對個人及社會應該如何應對生活的演算法化(algorithmization)提出了許多不同想法。他們主張在公共教育中加入有關演算法在公眾生活中的作用的知識,他們還指出,那些創造和發展演算法的人目前沒有對社會解釋,並認為他們應該以某些方式負責。

代表意見如下:

Susan Etlinger,Altimeter 集團行業分析師,她說:“就像我們想知道一件商品,例如食品或服裝,它們是在什麼地方、以何種方式生產出來的,我們也應該質疑我們的資料和決策是如何得出的。這些資訊的供應鏈是怎樣的?有明確的管理和審計跟蹤嗎?所得的假設是基於部分資訊,有缺陷的來源還是不相關的基準?資料是否得到了充分的訓練?是否有合適的利益相關者參與,是否從錯誤的經驗中學習?所有這一切的要點是,在未來十年內,我們的管理組織的整個管理方式都需要改變。創造及改變現實的力量將存在於只有少數人理解的技術中。因此,為了確保我們能正確地使用演算法,無論是為了賺錢還是為了人類福利,還是兩者兼具,我們都需要有管理和問責的機構。說起來容易做起來難,但假如說工業上和學術界最聰明的頭腦需要聚在一起解決這個問題,現在正是應該這樣做的時候。”

Chris Kutarna 是《發現的時代》(Age of Discovery )的作者,同時也是牛津大學馬丁學院院士,他寫道:“演算法是一種明確的啟發式形式,是一種規律化的進行選擇和決策的方式,所以我們不需不斷地處理知覺輸入。這種應對策略一直與人類,以及與我們的整個社會系統和資料環境的複雜性共同演變。明確地意識到我們的簡化的假設和啟發法是我們的智力和影響力變得成熟的重要位點。現在的不同之處是,明確地對這些啟發式方法進行程式設計的能力日益增強,在人類心智之外,在機器和平臺之上執行這種簡化的能力也日益增強。我們需要一些時間來發展智慧和道德以理解並指導這種能力。在此期間,我們確實不知道應用這種能力的安全程度如何。最重要的一點是提高社會對它的認識,即誰,怎樣,在哪裡應用這些能力。”

其他受訪者對這一主題的反饋:

• “資本無利不起早,不願意去打擊filter bubbles, profiling 以及相關的負面影響。政府/國際組織也幾乎無能為力。“

• “監督機制可能包括更嚴格的訪問協議;簽署數字管理倫理守則後才能被任命為資訊管理員;個人對資訊呼叫的線上追蹤;選擇退出功能;設定訪問時間;未經同意禁止第三方出售。”

• “除非更努力地讓真正的讀寫資訊的能力成為基礎教育的一部分,否則將會出現兩個階級,一個能夠使用演算法,一個被演算法使用。”

• “電腦使用者需要更多瞭解和掌握電腦的使用,他們的使用習慣也需要被關注,這應該是21世紀電腦素質教育的核心。”

• “找到一個框架,以允許透明度和評估結果將是至關重要的。還需要對演算法‘價值鏈’有廣泛的理解,並且理解資料是關鍵的驅動因素,並且與其訓練的演算法一樣有價值。”

• “演算法問責制是一個大專案,需要理論家、實踐者、律師,社會科學家、記者和其他人的智慧。這是一個緊急的、全球性的事業,投身其中的專家們也需要支援。 ”

• “最終,軟體責任法將被面臨改革,因為從現在開始,程式設計師真的可以從謀殺中脫罪。

• “The Law of Unintended Consequences 表明,演算法中越來越多的社會層面和技術層面的複雜性肯定會造成不可預見的災難性事件的發生 – 可能完全出乎我們的意料。

• “最終,我們將發展現有的機制,給消費者更大的控制權,這應該導致更多的理解和信任……這種推動是不可避免的而且非常必要的,從長遠來看,會讓我們每個人都受益。“

• “我們需要某種彩虹聯盟來制定規則,以避免出現先入為主的偏見和群體思維影響結果。”

• “演算法太複雜,無法完全透明或永遠徹底安全。這些因素將持續影響我們文化的方向。”

• “我期望元演算法的研發,以努力抵消演算法的負面影響。“

一些匿名回答者針對這一主題說:

• “黃金法則:擁有黃金的人會制定法則。“

• “壞人似乎遠遠超過好人了。”

• “抵抗是徒勞的。“

• “演算法是由想要向你銷售東西(商品、服務、意識形態)的人們定義的,並且會扭曲結果以利於此。”

• “演算法肯定有幫助,但除非結合人類的知識和政治意願,否則可能不夠。”

最後,我們以這位自匿名參與者的預測結尾,他/她看到可能的是兩個極端之一:“總體的影響將是烏托邦的誕生或人類的滅亡;沒有可預見的中間路線。我懷疑是烏托邦,鑑於我們已經從一次生存危機中挺了過來(核戰爭),我們邁向和平的腳步儘管緩慢,卻也依然堅定。”

自 新智元