守住產(chǎn)品底線防范人工智能
未來10-20年,人工智能技術(shù)將滲透到與人類密切相關(guān)的領(lǐng)域,如醫(yī)療、司法、生產(chǎn)、金融技術(shù)等風(fēng)險敏感領(lǐng)域。如果人工智能技術(shù)出了差錯,它將帶來更大的系統(tǒng)性風(fēng)險。"2020年12月29日,清華大學(xué)計算機(jī)系主任、中國科學(xué)技術(shù)協(xié)會全國委員會委員崔鵬在未來科學(xué)獎周舉行的"青年對話"上說。
活動期間,騰訊科技協(xié)會秘書長張倩表示,面對人工智能技術(shù)帶來的風(fēng)險,我們首先要注意的是保持AI產(chǎn)品的底線,即避免技術(shù)危害。
在這方面,美團(tuán)首席科學(xué)家夏華夏認(rèn)為,需要在法律法規(guī)方面做很多工作,包括制定人工智能行業(yè)的標(biāo)準(zhǔn)和規(guī)范,以及從國家層面改進(jìn)和頒布相關(guān)法律法規(guī),以控制人工智能技術(shù)的發(fā)展。
在人工智能標(biāo)準(zhǔn)化實(shí)踐中,中國人民大學(xué)法學(xué)院副教授、未來法治研究所社會責(zé)任與治理中心主任郭瑞提出了兩項原則--人類根本利益原則和責(zé)任原則。
郭瑞承認(rèn),法律本身也有局限性,為了避免人工智能技術(shù)的潛在風(fēng)險,管理者需要對人工智能技術(shù)有一個透徹的了解,以便對其進(jìn)行有效的監(jiān)管。"法律是建設(shè)包容性社會的重要工具,法律界必須與企業(yè)、技術(shù)和其他專家合作,才能實(shí)現(xiàn)依法管理人工智能技術(shù)的目標(biāo)。
興業(yè)資本管理公司合伙人方元認(rèn)為,核心數(shù)據(jù)平臺處于AI風(fēng)險管理的重要地位。在互聯(lián)網(wǎng)和大數(shù)據(jù)時代,大平臺既是數(shù)據(jù)的收集器,也是數(shù)據(jù)的守護(hù)者。明確數(shù)據(jù)使用權(quán)的概念,對人工智能在全社會的發(fā)展具有重要意義。
人工智能技術(shù)的風(fēng)險管理需要科技工作者、企業(yè)經(jīng)理、政策制定者、相關(guān)法律專家和投資者的努力。"中國科學(xué)院計算研究所研究員單世光說。
除了保持底線外,與會者還提到需要澄清邊界,引導(dǎo)技術(shù)向好的方向發(fā)展。
崔鵬指出,犯錯誤對人工智能來說并不是唯一的風(fēng)險,人們也會犯錯誤。目前,如果人工智能技術(shù)犯了一個錯誤,它是不可預(yù)測的,或者在犯了錯誤之后,人們會發(fā)現(xiàn)錯誤的機(jī)制無法從技術(shù)層面加以解釋。這涉及到人工智能在決策和行為上的邊界.
為了澄清界限,人工智能需要了解它會做什么,它不會做什么,人們需要了解人工智能能做什么,它不能做什么等等。崔鵬認(rèn)為,如果邊界不被澄清,人工智能將犯更低級別的錯誤,并帶來更大的風(fēng)險。
郭瑞認(rèn)為,人工智能目前遇到的倫理問題其實(shí)是因?yàn)樗h(yuǎn)未達(dá)到人類的智力水平,但它被賦予了為人類做出決策的責(zé)任。"有人以人工智能技術(shù)為借口,以科學(xué)的名義做出不道德的決定,這是錯誤的。"這取決于人們在需要作出決定的地方作出決定。
在2020年新冠肺炎流行期間,英國使用了一套算法來獲取學(xué)生分?jǐn)?shù),導(dǎo)致近40%的學(xué)生低于老師的估計分?jǐn)?shù),導(dǎo)致許多學(xué)生錯過了著名學(xué)校的學(xué)習(xí)。一些人工智能模型或數(shù)據(jù)模型沒有考慮到社會公平和累積優(yōu)勢,導(dǎo)致計算嚴(yán)謹(jǐn)、結(jié)果準(zhǔn)確,但不足以支持人工智能做出科學(xué)決策,"山井光說。
有專家說,這不是人工智能技術(shù)的錯。夏華夏說,真正的社會責(zé)任是利用人工智能技術(shù)人員、企業(yè)等。人工智能技術(shù)向好的發(fā)展要求整個社會文明發(fā)展到一定階段,形成良好的氛圍。張倩指出,技術(shù)并不可怕,現(xiàn)有的技術(shù)問題可以通過技術(shù)的進(jìn)一步發(fā)展來解決。