報告下載:新增199IT微信公眾號【i199it】,回覆關鍵詞【2022年可解釋AI發展報告】即可

隨著各界對 AI 倫理的日益重視,AI 系統的可解釋性也逐漸成為熱點,甚至上升到立法和監管的要求。許多人工智慧領域的專家都把 2021 年視為AI 可解釋元年,在這一年,不僅政府出臺相應的監管要求,國內外許多科技公司,譬如谷歌、微軟、IBM、美團、微博、騰訊等,也都推出了相應的舉措。 

在這一背景下,騰訊研究院、騰訊天衍實驗室、騰訊優圖實驗室、騰訊 AI Lab 等組成的跨學科研究團隊,歷時近一年,完成業內首份《可解釋AI發展報告 2022——開啟演算法黑箱的理念與實踐》,全面梳理可解釋AI的概念、監管政策、發展趨勢、行業實踐,並提出未來發展建議。

1 11 日線上舉辦的騰訊科技向善創新周透明可解釋 AI 論壇上,由騰訊研究院祕書長張欽坤、騰訊優圖實驗室人臉技術負責人丁守鴻進行了釋出。 

學界和業界專家普遍認為,《可解釋AI發展報告 2022》非常必要,也非常及時。這份報告開了個好頭,推動人工智慧向著可解釋這個極為重要的方向發展。

報告下載:新增199IT微信公眾號【i199it】,回覆關鍵詞【2022年可解釋AI發展報告】即可