近日,思特沃克(Thoughtworks)釋出了關於未來技術趨勢的分析報告《科技稜鏡》,深度剖析 2022 年乃至更遠的未來推動企業發展的關鍵技術趨勢。基於 Thoughtworks 在新技術普及之前為企業提供前沿技術的獨特方法,這份報告為行業領導者如何更好的參與競爭併成為行業變革者提供了建議。
Thoughtworks《科技稜鏡》未來技術趨勢分析報告將每年更新一次,密切關注企業不斷變化的技術工作重點和對技術的應用。本期《科技稜鏡》未來技術趨勢分析報告,聚焦以下五個視角:
- 持續演進的人機體驗:在走向元宇宙的必然過程中,現實世界和數字世界將進一步融合,為企業開啟新的可能。
- 與人工智慧合作:機器學習(ML)和人工智慧(AI)技術仍備受各行各業青睞。從日常操作流程的自動化到強化戰略決策,我們看到很多案例都在加速採用這兩種技術。
- 加速邁向可持續發展:隨著消費者、政府和投資者要求企業承擔更大的環境責任,企業走綠色環保發展之路已經不再只是一種選擇,而是勢在必行。
- 技術作惡的影響擴大:“惡意” 技術通常與勒索軟體、入侵系統竊取資料或製造計算機病毒等犯罪活動聯絡在一起,但這並不是全部。由於技術形勢的發展,技術作惡的定義也應該相應擴充套件,以包含那些雖然合法甚至被廣泛接受,但最終會威脅社會福祉的行為。
- 實現平臺潛力:平臺建設是現代商業戰略的核心,但也是一個充滿不確定性的領域。我們看到一個新的工作重點即解決圍繞平臺的不確定性,並將平臺構建與明確的業務目標聯絡起來。
該報告重點介紹了通過不同視角能夠發現的各種機會,以及可用於衡量新趨勢發展速度的預兆訊號。我們選取了《技術作惡的影響擴大》的章節,這部分從時間範圍,以及 Thoughtworks 建議的應對策略兩個部分對趨勢進行了分析。
“惡意” 技術通常與勒索軟體、入侵系統竊取資料或製造計算機病毒等犯罪活動聯絡在一起,但這並不是全部。由於技術形勢的發展,技術作惡的定義也應該相應擴充套件,以包含那些雖然合法甚至被廣泛接受,但最終會威 脅社會福祉的行為。
隨著技術變得越來越複雜,技術被誤用濫用的形式也越來越多。人們在日常活動中越來越依賴科技,相應地, 他們日益受到意想不到的、甚至是惡意後果的影響。再加上高度的自動化以機器的速度做出決策,出錯的可 能性就會迅速增加。
根據我們的定義,“作惡” 技術不僅包括惡意軟體和黑客工具等犯罪技術,還包括惡意廣告和客戶定位。一 項技術是否屬於作惡,可能是一個視角問題。有些人並不認為網際網路廣告、跟蹤 Cookie 或社交媒體傳播活動具有侵入性,他們很樂意用自己的資料換取他們認為個性化或特殊價值的服務。有些人則在瀏覽器中安裝了廣告攔截軟體,並完全避開微博、朋友圈等社交應用。對某些人來說,同意跟蹤記錄或收集個人資料基本上是一 種自動選擇;而對另一些人來說,則需要經過謹慎思考。這就是說,由於不同人口群體對技術的獲取和體驗程度不同,以及關於知情同意的資訊和選擇的呈現方式存在各種差異,導致許多人已經忘記了一個事實,即他們首先是有選擇權的。
並非所有的作惡行為都是蓄意或是惡意的。演算法或機器學習系統中的偏差就是一例。由於在構建或開發過程中發生的意外偏差和疏忽,可能會對某些客戶群體表現出惡意傾向,但這種偏差並非由於系統遭到了破壞或 設計者有意為之。
相關預兆訊號包括:
- 技術日益普及,潛在威脅同時也在擴大。海量的聯網裝置就是一個簡單的例子: 弗若斯特沙利文諮詢公 司 (全球最大的企業增長諮詢公司) 預測,到 2026 年,全球活躍物聯網 (IoT) 裝置的數量將超過 650 億臺。所有這些裝置都會存在可能被利用的潛在安全漏洞。
- 消費者對廣告和營銷技術的態度和行為正在發生變化,接受廣泛使用自身資料的人和更關心隱私的人之 間的分歧也越來越大。
- 對於社交媒體在政治競選中的使用和影響,以及社交媒體渠道如何影響健康、政治和其他社會輿論,人 們日益感到焦慮。
- 人工智慧 (AI) 和機器學習 (ML) 的使用越來越多,造成了一些意想不到的後果,如演算法和所收集資料集中 的偏見。對惡意影響的擔憂促使人們試圖控制人工智慧在比如招聘等流程中的使用。
- 圍繞資料收集、保留和使用的法規得到加強,如《中華人民共和國個人資訊保護法》(新版)、《歐洲 通用資料保護條例》(GDPR)、《加州隱私權法》(CPRA) 以及其他司法轄區的同類規定。
隨著資料洩露接近歷史峰值,防範黑客蓄意攻擊和惡意軟體變得日益重要。企業必須在日益擴大的攻擊面上大力投入進行防禦,以對抗資金雄厚、組織嚴密的攻擊者。然而,隨著發生危險的可能性上升,企業還必須考慮惡意技術其他方面的問題。我們相信,尊重客戶的意願,避免” 如影隨形 “的受眾定位,並根除演算法系統中的偏見,不僅從本質上講是合乎倫理的,而且有利於建立信任和積極的公眾認知,最終有利於企業的健 康發展。
據媒體報導,SolarWinds 供應鏈遭黑客攻擊,致使該公司損失了近 2,000 萬美元,保險索賠估計達到 1 億美元, 這表明惡意事件的財務的不良影響很容易失去控制。GDPR 的罰金在緩慢起步後又有所提高,總罰金較上年激增 113.5%。最值得注意的是,亞馬遜在其 2021 年 7 月的財報中宣佈了 8.77 億美元的鉅額 GDPR 罰金,比此前的記錄高出近 15 倍。隨著消費者對隱私日益重視,穩健的安全保護措施已成為某些公司的一大優勢。思科最近的一項調查發現,近 80% 的消費者將資料保護納入購買決策,並願意為隱私標準更高的產品或供應商支付更多費用。
在與英國政府為期七年的一個合作專案中,我們幫助他們改變了與公民互動以及向公民提供公共服務的方式, 從一開始就將信任和安全視為重中之重。該專案將不同的政府網站整合為一個強大而便利的平臺,增強了公民體驗,並大大縮短了部署週期。重要的是,該平臺有一個線上身份認證系統提供支援,從而在公民提交服 務申請時,同時滿足所有必要的資料保護要求,並尊重個人的隱私權。最大限度減少產生負面結果的可能性, 增強人們對平臺的信心,促進了該平臺的迅速普及。
採納(當下存在的技術,正在業界得到充分利用)
- 安全的軟體交付:過去的一年裡,我們觀察到,“軟體供應鏈” 受到的攻擊顯著增加。“軟體供應鏈” 並非軟體本身,而是幫助我們將軟體投入生產的工具、過程和庫。美國白宮甚至釋出了一項關於網路安全的行政令,包括改善供應鏈安全的具體指令,如要求所有政府系統都提供軟體 “材料清單”。安全軟體交付強調,安全問題人人有責,這一理念應貫穿整個軟體生命週期。
分析(受到關注的技術,但依賴不同行業和應用場景)
- 道德框架:任何決定都有後果。在科技界,隨著 AI 決策開始成為主流,倫理學家們一直在探討道德決策框架,試圖讓決策過程變得透明和清晰。
預測(成熟度欠缺的技術,可能在未來幾年產生重大影響)
- 量子機器學習:雖然量子機器學習可能是解決複雜的化學和材料科學問題的一支重要力量,但也可能在資料的倫理使用方面帶來進一步的挑戰。
網路安全是一場與對手的貓鼠遊戲。AI 在各企業中迅速普及,以助力其應對安全威脅,各種各樣的產品正在湧現,以滿足不斷增長的需求。目的是通過自動化手動檢測的任務,提供入侵警報和仔細檢查網路流量等智慧功能,以檢測異常行為、違反政策的情況或機器人故障,從而創造公平的競爭環境。也許 AI 方法最關鍵之處在於,它們不僅能夠限制受攻擊面和填補漏洞,而且還能夠幫助預測未來可能發生的攻 擊,從而可以提前採用適當的風險緩解策略。
AI 不是靈丹妙藥。重要的是要記住,任何用於防禦的技術也可能被攻擊者利用,雖然企業可能會從 AI 中受益,但它不是靈丹妙藥。企業需要擯棄將人工智慧、機器學習和資料導向型工具視為 “一體適用” 的解決方案。相反,任何工具都需要成為貫穿整個組織結構的廣泛智慧戰略的一部分。例如,機器學習 不能孤立地實現有效的安全性 ; 它需要管理資料和模型的生命週期,並反饋結果。更重要的是,安全問題人人有責。這使得零信任架構方法能夠應用於細分現實網路,並以一種安全擴充套件的方式覆蓋安全和數 據訪問原則,根據需要提供資訊 ; 不多不少正好滿足隱私保護的目的。
採用或構建一個資料道德框架,向員工和客戶明確資料是如何儲存、使用和保持安全的。我們建議您只 保留實際需要的資料,不超過所需的量。現代合規性和隱私法要求審慎的高水平審查,這可以轉變為一 個積極的差異化因素。作為資料保留策略和資料集構建和使用的基礎,強大的資料倫理框架也可以在您的整體資料戰略中發揮重要作用。
即使不是一目瞭然,也總是會存在偏見,所以要不斷地努力。偏見很難在事後消除,因此,前期處理 (包括不公平在內的問題) 至關重要。重要的是,記錄資料的方式要允許對基於資料的行動、產品或決策進行審計和分析,以瞭解其對特定群體的影響。需要對資料來源的表述、所提取樣本的人口特徵以及所用演算法的選擇進行具體思考。我們負責任的技術手冊提供了指導和最佳實踐,可以協助實施這一過程。永遠不要假設自己的資料不存在偏見。我們是人類,偏見無處不在。
來自: