
法律試圖規(guī)范人工智能的愿景至今還沒有成功的跡象。目前主導人工智能倫理原則和準則的仍然是技術界
丁瑋
人工智能引發(fā)的倫理問題,反映的是人類設計、制造、使用和對待人工智能的道德關懷,所關注的是人工智能可能對人類帶來的益處和傷害??偟奶魬?zhàn)是,如何在享受技術進步帶來的好處的同時,能夠對其所帶來的風險作出充分的反應。
在人類技術發(fā)展史上,平衡利益和風險的需要總是反復發(fā)生,一再出現(xiàn)的。但是人工智能以一種全新的、潛在的、大規(guī)模的形式對人的工作、生活、教育、社會交往等各個方面產(chǎn)生全面影響,甚至影響如何理解和重新定義人本身。同時,人工智能也促使人們思考:是否應該運用這些新技術去追求提升、超越人類的自身條件?
為人工智能建立道德準則和邊界
目前,人工智能從用途上大致可分為兩類:一類是通過預先設定的程序由自上而下的算法控制的機器人行為;另一類是自下而上的算法,讓機器人從過去的經(jīng)驗中學習并不斷地修正它的算法,達到自我學習和自我發(fā)展的目的。
無人駕駛汽車、人臉識別、模擬人腦的神經(jīng)網(wǎng)絡模式等,都是后一類人工智能的最新發(fā)展。與第一類人工智能需要依賴人類的決策相比,第二類人工智能的發(fā)展不依賴于人類設置的程序、控制和干預。因而,從理論上說,此類人工智能的發(fā)展將難以被預測和控制。
人工智能技術在很多領域的應用有益于人類社會。但過去兩年間的實踐明顯地表明,人工智能的發(fā)展可能會有許多意想不到的后果,更不用說可能被用于反人類的目的。
人工智能被濫用或者失去控制,無疑與人工智能服務于人類的目標背道而馳,不僅為人類未來命運帶來不確定性,也增大了安全隱憂。因此,為人工智能建立道德準則和邊界是引起和學界廣為關注和討論的熱點問題。
宣言和倡議中的人工智能倫理原則
近兩年來,全球發(fā)布了數(shù)量可觀的關于人工智能倫理原則的宣言和倡議。其中,普遍認可的原則包括透明度、平等(非歧視)、責任、安全、隱私等內容。
因為人工智能技術如此深刻地對人類產(chǎn)生影響,人工智能的研發(fā)人員應該負有道德義務向公眾保持一定的透明度。盡管有人擔心,將人工智能釋放給公眾可能有害,但電氣和電子工程師協(xié)會(institute of electrical and electronics engineers,簡稱ieee)致力于在多個層面為用戶提供開放資源和透明度服務。2019年6月26日,歐盟人工智能高水平專家組公布的《值得信任的人工智能政策和投資建議》,認為歐盟國家人工智能研究競爭力來自于保持開放、透明度和創(chuàng)新。
伴隨著真實社會中的偏見和不平等,算法偏見被算法操作者植入人工智能系統(tǒng)中。在人臉識別、聲音識別等系統(tǒng)中,隨處可見算法偏見。隨著機器學習技術擴展到醫(yī)學和等關鍵領域,機器學習中的偏見問題可能會變得更加嚴重。鑒于這種情況,谷歌、ibm等大公司在自己的人工智能原則中將公平作為重要原則,并開始在實踐中搜尋和定位算法偏見。
安全與責任是人工智能發(fā)展的核心原則。與之相關聯(lián)的原則包括可靠性、控制性等。人工智能不能對人造成傷害,這是基本的、也是終極的原則。雖然人類尚不能預見人工智能超出人類控制的情形,但在理論上存在這樣的可能性。因此,人工智能的研發(fā)終究要以安全為本位。
2019年5月,《人工智能北京共識》(以下簡稱《北京共識》)發(fā)布15條原則,從研發(fā)、使用、治理三方面規(guī)范人工智能。
在研發(fā)方面,《北京共識》提倡要有益于增進社會與生態(tài)的福祉,服從人類的整體利益,設計上要合乎倫理,體現(xiàn)多樣性與包容性,盡可能地惠及更多人,對潛在倫理風險與隱患負責,提升技術水平控制風險,共享人工智能發(fā)展成果。在使用方面,提倡要善用和慎用,避免誤用和濫用,以最大化人工智能技術帶來的益處、最小化其風險,確保利益相關者對其權益所受影響有充分的知情與同意,并能夠通過教育與培訓適應人工智能發(fā)展帶來的變化。在治理方面,對人工智能部分替代人類工作保持包容和謹慎態(tài)度,鼓勵探索更能發(fā)揮人類優(yōu)勢和特點的新工作,開展國際合作,共享人工智能治理經(jīng)驗。人工智能的準則與治理措施應做到適應和適度,并開展長遠戰(zhàn)略設計,以確保未來人工智能始終保持沿著對社會有益的方向發(fā)展。
除《北京共識》外,有的倡議從更為抽象的層面表達人工智能的倫理原則,還有倡議認為,人工智能的最高原則是安全可控;其創(chuàng)新愿景是促進人類更加平等地獲得技術能力;人工智能存在的價值是教人學習,讓人成長,而不是取代人,超越人;人工智能的終極理想是為人類帶來更多的自由和可能。
就具體公司而言,英特爾公司的人工智能原則包含了促進創(chuàng)新和開放發(fā)展,創(chuàng)造新的人類開發(fā)機會和保護人的福祉的理念;谷歌的人工智能原則表明人工智能要有利于社會。
規(guī)范人工智能目前主要依賴行業(yè)自律
以上全球人工智能倫理原則各有側重,不盡相同,但又有共同的特點。根據(jù)算法觀察的統(tǒng)計分析,關于人工智能倫理原則的文件大多是在2018年和2019年發(fā)表的??梢?,人工智能倫理是近兩年引起全球高度關注的問題。且許多倡議的發(fā)起者多為技術界、學界聯(lián)盟或機構,大多采取聲明的形式,屬于行業(yè)自律性質。
法律試圖規(guī)范人工智能的愿景至今還沒有成功的跡象。目前主導人工智能倫理原則和準則的仍然是技術界。臉書的行政總裁馬克·曾在美國國會就減少網(wǎng)絡仇恨言論作證時宣稱,臉書將承擔更廣泛的責任,制定前瞻性的針對內容的政策。
其中,人工智能的使用是這一模式的基石。這一聲稱引發(fā)了人工智能局限性的爭議,諸如提前刪除內容缺乏透明度、算法歧視、仇恨言論涉及價值判斷,以及如何應用人工智能的倫理原則和規(guī)范等。然而,國會議員對其沒有足夠的理解,以至于不能對扎克伯格的人工智能技術提出有效反對。挑戰(zhàn)不熟悉的事情幾乎是不可能的,這也是臉書不再等待最高法院而是自己決定人工智能應用規(guī)則的原因。
然而,目前的人工智能倫理原則缺乏內部執(zhí)行或治理機制。倫理原則僅是宣言式的倡議或承諾,缺乏具體程序和規(guī)則。當企業(yè)和其他組織承諾遵守道德準則,而不建立任何治理機制時,我們當然有理由認為,它們只是在做做樣子。在技術樂觀主義和巨大現(xiàn)實利益的裹挾下,未來人工智能領域,法律的作用會非常重要。
(作者系哈爾濱工程大學人文社會科學學院副教授)
(責任編輯:王治強 hf013)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“機電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
