|
新一代人工智能技術迅猛發展,并向社會各個L域加速滲透,這給經濟和社會發展帶來了新的變革性機遇,也給人類生產生活帶來了深刻的變化。
科技倫理也成為了當前AI產業技術發展與產業應用中的“必答題”。
可信人工智能的核心原則是讓AI應用滿足可靠、安全、可解釋、隱私保護、責任明確等條件,是落實AI治理的重要實踐,其所遵循的可信特征與AI倫理和相關法律法規等要求一脈相承,均將以人為本作為其本質要求。
可信AI使用系統穩定技術、可解釋增強技術、隱私保護技術、公平性技術等,促成AI的可靠可控、透明可釋、數據保護、明確責任、多元包容,期望解決算法安全應用風險、“黑箱”風險、數據歧視風險、責任主體界定風險、隱私泄露風險等問題。
AI企業作為人工智能技術產品化的主體,在可信人工智能的發展實踐中正發揮著日益積J的作用,谷歌、微軟、百度、京東、曠視等一批國內外企業紛紛投身其中。
科技巨頭們在可信人工智能上的投入除承擔社會公益和行業引L的責任外,在AI商業化上面臨越來越多的限制和挑戰也是關鍵驅動因素。
以可信人工智能所包含的隱私保護為例,部分AI企業在接受監管機構上市問詢時,被重點要求說明其技術、業務及產品中涉及到數據應用的具體環節,相關數據來源與合規性,以及保證數據合規的具體措施等。
這種自上而下的監管推動也將與企業內驅形成合力,共同推動可信人工智能的發展與實踐,可信人工智能也將成為AI產業下一階段發展的重點。
|