人工智能(AI)正在不斷“嵌入”人類社會:交通出行、住房家居、教育醫療、養老助殘、文化體育……越來越豐富的應用場景也讓人們對AI治理提出了迫切需求。在昨天舉行的2020世界人工智能大會云端峰會人工智能治理論壇上,針對人工智能應該如何“負起社會責任”這一話題,國內外30多位專家從技術、倫理、法律等不同角度進行探討,倡議社會各方引導AI體現向善價值,“給AI安一顆‘良芯’”。
深度融入社會,AI必須“負起責任”
人工智能需要對社會“負責”嗎?在不少人的意識中,AI僅僅是一種工具,但在專家看來,它必須“負起責任”。
圖靈獎獲得者、中國科學院外籍院士約翰·霍普克勞伏特在報告開場就提出,迄今為止,計算機決策規則一直是與人類決策一致的,但未來,計算機將根據從訓練數據中得來的經驗進行決策,“這是AI的本質,將對人類未來產生重大影響”。他舉了一個極端的例子:有人違章橫穿馬路時被撞身亡,假使我們向AI要解決方案,它可能會建議我們直接拆除公路。
隨著AI的普及,大量社會問題也將浮現,比如算法“黑箱”帶來的歧視與偏見、AI自動駕駛錯誤而引發的交通事故等。如果這些判斷來自人類,在法律上很容易認定責任主體,然而現在,人們首先要問的是:“AI能負責嗎?”
針對這一問題,復旦大學應用倫理學研究中心主任王國豫認為,既然AI產品能夠承擔一定的功能角色,就應該承擔“角色責任”,這來自古老的倫理責任概念,“如果它不能履行責任或者出現了事故,那它就應該被問責”。
“負責任的AI,才是可持續發展的AI。”作為人工智能領域的創業者和技術從業者,曠視科技聯合創始人兼首席執行官印奇認為,AI治理對于產業落地的意義非常深遠——人工智能就像火之于人類文明,如果善待并加以合理利用,將可推進文明進程;如果運用不當,則可能引發災難。
去年,曠視科技在企業內部成立了自己的人工智能治理委員會,并提出AI技術要“既問輸贏,也問對錯”的原則。比如,一種技術無論多么成熟、商業價值有多高,但如果有悖倫理、法律、社會習俗,企業就應選擇不去研發,也不將其應用于產品中。
有“良芯”的AI需技術環境共同驅動
一個AI智能體可能會面臨許多責任拷問,比如它究竟是對企業負責,還是對社會負責?很顯然,人類必須給AI安一顆“良芯”,體現其向善價值。而要解決AI發展帶來的道德倫理、隱私保護、安全風險等問題,需要技術與環境的共同努力。
只需對圖像、音頻、文本稍加干擾,就能讓機器產生誤判;后門技術也可生產虛假新聞、音頻、視頻……復旦大學計算機科技學院院長姜育剛在論壇上介紹了他的團隊攻破這些AI偽造術上的一些方法:只需加入一個不起眼的小模型,就可使抗干擾成功率達到80%左右。在他看來,“攻防永遠都是一對博弈和互促的技術,技術將會在AI治理中發揮極為重要的作用。”
在論壇報告中,從事可信人工智能研究的中國科學院院士何積豐提出,從技術源頭建立起規范,讓AI算法本身就具備安全、可信的素質,顯得尤為重要。從技術角度,他將AI風險總結為數據安全和模型安全兩大類問題。然而,現在不少人工智能安全技術還缺乏理論工具的支撐。他希望有更多年輕人投身這一領域,為夯實AI治理的基礎貢獻智慧。
事實上,AI不僅僅是一個技術系統,而是與人類社會經濟系統、政治系統、文化系統等多維度情境結合在一起的。聯合國人工智能和機器人中心主任伊拉克里·貝里澤透露,目前,全球執法機構均已將AI應用到各個領域,但在執法過程中會產生許多“邊緣案例”。因此,要想真正利用好AI的力量,必須努力確保在遵循原則和國際法律的情況下負責任地使用。
近年來,全球正在就推動人與機器的和諧共生逐步達成共識。在我國,國家新一代人工智能治理專業委員會去年發布了以“發展負責任的人工智能”為主題的治理原則。此次論壇上,上海國家新一代人工智能創新發展試驗區專家咨詢委員會發布了“協同落實人工智能治理原則的行動建議”。這是國內首次提出的系統落實AI治理原則的綜合行動方案,將為進一步推進AI治理提供參考。( 許琦敏)
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.fyuntv.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2020 By All Rights Reserved 豫ICP備20023378號-15 營業執照公示信息
聯系我們: 98 28 36 7@qq.com