5月2日消息,世界經濟論壇人工智能和機器學習負責人kay firth-butterfield,在近日舉辦的應用人工智能大會上強調,科技巨頭和企業(yè)應該創(chuàng)建咨詢委員會以幫助指導人工智能的道德使用。

kay firth-butterfield表示,近年來,在、facebook和谷歌等公司建立這樣的委員會,使得這一概念在科技行業(yè)成為了一種的準備規(guī)范,但最近幾周,谷歌解散了兩個人工智能倫理委員會,這使人們質疑其有效性。即便如此,她說:“我們非常明確地認為,在公司中使用人工智能的道德咨詢小組是一個非常好的主意,所以我們非常支持谷歌的做法。”
隨著科學技術的快速發(fā)展,人工智能給人類生活帶來更多便利的同時,也引發(fā)了許多倫理道德方面的問題。如今,已有越來越多的組織和國家都開始紛紛嚴格要求人工智能道德問題。

2019年4月8日,歐盟委員會發(fā)布了《人工智能倫理準則》,旨在提升人們對人工智能產業(yè)的信任。該準則由歐盟人工智能高級別專家起草,列出了“可信賴人工智能”的7個關鍵條件:人的能動性和監(jiān)督能力、安全性、隱私數據管理、透明度、包容性、社會福祉、問責機制,以確保人工智能足夠安全可靠。
2019年4月20日,民法典人格權編草案二審稿提交十三屆全國人大常委會第十次會議審議,其中對人體基因胚胎科研活動、“ai換臉”、人體試驗、個人信息保護等問題作出了規(guī)范。針對ai換臉,草案規(guī)定:任何組織或者個人不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。
沒有道德束縛的人工智能,未來難以預料。因此,針對人工智能制定相應的法規(guī)和準則將有利于促進人工智能產業(yè)的有序和規(guī)范發(fā)展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“機電號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
