移動版
在這裏認識香港



【識港話事】人工智能,如何“自律”?
作者:雨點   來源:識港網    2023-04-03 09:02

人工智能(AI)是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。

如同蒸氣時代的蒸氣機、電器時代的發電機、信息時代的計算機和互聯網,人工智能正成為推動人類進入智能時代的決定性力量。全球產業界充分認識到人工智能技術引領新一輪產業變革的重大意義,紛紛轉型發展,搶灘佈局人工智能創新生態。

當前,人工智能被深度應用於社會的各個領域,推動了社會生產效率的整體提升。然而,作為一種具有開放性、顛覆性但又遠未成熟的技術,人工智能在帶來高效生產與便利的同時,不可避免地對現有倫理關係與社會結構造成衝擊,且已引發不少倫理衝突與法律問題。人類社會的基本價值,如尊嚴、公平、正義等,也正因此面臨挑戰。

人工智能可能帶來的倫理風險:

一是信息信息繭房的風險,即用戶被算法圈住,受困於狹窄的信息視野。

二是回聲效應的風險,即在社交媒體所構建的社群中,用戶往往和持有意見相近的人聚集在一起,因處於一個封閉的社交環境中,這些相近的意見和觀點會不斷被重複、加強。

三是數據隱私的風險,儘管很多國家政府出台過相關法案、措施保護健康隱私,但隨著人工智能技術的進步,即便計步器、智能手機或手錶蒐集的個人身體活動數據已經去處身份信息,通過使用學習技術,也可以重新識別出個人信息並將其與人口統計數據相關聯。

四是算法透明性與其實偏見的風險,用戶被區別對待的「大數據殺熟」屢次被媒體揭露,比如在社交媒體擁有較多粉絲的「大V」,其高影響力等同於高級別會員,在客服人員處理其投訴時往往被快速識別,並因此得到更好的響應。

五是深度偽造的風險,通過深度偽造技術,可以實現視頻、圖像內容中人臉的替換,甚至能夠通過算法來操縱替換人臉的面部表情。如果結合個性化語音合成技術的應用,生成的換臉視頻幾乎可以達到以假亂真的程度。

人工智能應如何約束?

  • 針對人工智能倫理高風險應用場景特別立法,如人工智能系統在醫療領域的應用需被特別關注,其算法產生的結果直接關乎人類的生命福祉,可通過分場景且針對不同風險等級制定不同嚴苛程度法規。
  • 提升科研機構和企業對人工智能倫理的認知和自律,在規避人工智能可能產生的倫理風險上,科研機構和企業更容易在相關實踐中獲得第一手信息,也更應該承擔起構建安全人工智能技術的主要責任。
  • 提高全社會科技倫理意識,倫理問題涉及到社會行為準則和規範,而治理倫理問題則需要從公共管理的角度出發並形成社會對人工智能倫理的共識,進而加強全社會對人工智能倫理的廣泛監督。

人工智能「安全、可靠、可控」的良性發展任重道遠,對於人工智能倫理風險的應對防範,事關未來社會的發展方向和人類整體的前途命運。

       本網評論員 雨點

责任编辑:wang