辦公系統(tǒng)
個人會員
單位會員
首頁 新聞中心 新聞資訊 正文

【W(wǎng)RC大咖論道】北京大學(xué)法學(xué)院教授張平:《人工智能倫理治理的基本問題》

2024-10-17

2024世界機器人大會以“共育新質(zhì)生產(chǎn)力 共享智能新未來”為主題,為期三天的主論壇和26場專題論壇上,416位國內(nèi)外頂尖科學(xué)家、國際組織代表、院士和企業(yè)家聚焦前沿技術(shù)、產(chǎn)業(yè)動向和創(chuàng)新成果,深入研討人工智能與機器人技術(shù)深度融合帶來的新趨勢、新機遇,共同打造了一場十分精彩的機器人領(lǐng)域前沿觀點盛宴!

在8月23日下午的主論壇上,北京大學(xué)法學(xué)院教授,北京大學(xué)人工智能安全與治理中心主任,北京大學(xué)武漢人工智能研究院副院長張平以《人工智能倫理治理的基本問題》為主題發(fā)表演講。


數(shù)說2024世界機器人大會


論壇


26 家國際支持機構(gòu)

3 大主題 26 場專題論壇

416 名國內(nèi)外頂尖科學(xué)家、國際組織代表、院士和企業(yè)家

74 位國外嘉賓及港澳臺嘉賓參會

線上線下聽眾達 160萬 人次


展覽


27 款人形機器人集中亮相

首發(fā)新品 60 余款

近 170 家參展企業(yè) 600 余件參展產(chǎn)品

參觀人數(shù)近 25萬 人次


大賽


全球 10 余個國家和地區(qū)的 7000 余支賽隊

 13000 余名參賽選手

每天參賽人數(shù) 4000 余人



媒體關(guān)注


近 400 家國內(nèi)外媒體

短視頻平臺話題播放量達 2.9億


1729143090105292.jpg

張平(北京大學(xué)法學(xué)院教授,北京大學(xué)人工智能安全與治理中心主任,北京大學(xué)武漢人工智能研究院副院長)


以下是演講內(nèi)容實錄

感謝主持人,也感謝會議的邀請。前面發(fā)言人都給我們展示了人工智能和機器人帶給我們?nèi)祟惖母l硪约氨憷屛覀兏械椒浅U駣^。未來也有可能每個人都能享受智能的成果。

題目稍微有一點調(diào)整,其實都是講治理,我講人工智能負(fù)面的一些問題,因為人工智能機器人發(fā)展到今天,全世界各個國家都認(rèn)識到安全和治理問題。給大家介紹一下人工智能治理中國實踐以及國際共識,還有我們的擔(dān)憂,也就是我們展望一下未來在這個領(lǐng)域里還有些困難之處。

先看中國人工智能治理的基本理念,現(xiàn)在各個國家都已經(jīng)達成了共識,基本是說人工智能發(fā)展始終要堅持以人為本,智能向善。“以人為本”各個國家理解還是有些差別。中國對于以人為本的理解是強調(diào)人類的權(quán)益,強調(diào)宏觀的高維度權(quán)益。人工智能最終發(fā)展不能夠影響人類生存,同時我們對以人為本還有另外一個理解,就是個體權(quán)利,就是個人權(quán)利不能受到侵害,比如說像基本人權(quán)還有隱私等等。

中國在國際社會上還在倡導(dǎo)人工智能發(fā)展以及機器人的發(fā)展,必須要有平等互惠,就是不能產(chǎn)生智能鴻溝。今天看到在座的、發(fā)言人以及聽眾都對人工智能有非常深度的了解,但是我們也看到社會里面有一類群體,或者世界上有一些國家可能對人工智能技術(shù)本身還沒有認(rèn)識和掌握,我們也希望在國際層面上,中國要展現(xiàn)一下以人為本的理念,和世界各個國家共同承擔(dān)智能發(fā)展,防止智能鴻溝的一個責(zé)任。

智能向善可能有諸多問題,我給大會的主題是安全與倫理。更多是從倫理層面上有諸多解釋,希望構(gòu)建一個可靠、可控、可信的AI,防止欺詐和歧視。特別是現(xiàn)在深度偽造已經(jīng)給社會帶來很大的困惑。因為我們不知道面前是智能體還是人類展現(xiàn)出來的畫面或者信息,所以也會導(dǎo)致混亂。

我們看到中國在2023年就在全球提出了人工智能治理倡議,在這個倡議中再一次強調(diào)發(fā)展、安全、治理這三個方面的主旨。我們也在聯(lián)合國框架下提出了加強人工智能能力建設(shè)國際合作協(xié)議,這是中國在國際上的態(tài)度。具體的AI治理途徑上我們也看到強調(diào)的是構(gòu)建可信的人工智能。

剛才聽到前面技術(shù)專家講到的所有智能成果,最重要的前提是使用者(用戶)要對它相信,如果你不相信或者它不可控,可能它給你帶來的就不一定是利還是弊。治理維度上其實中國也已經(jīng)開始,首先從倫理上,我們制定了一系列的法律、法規(guī)和政策,同時在安全、隱私、透明度、平等、可問責(zé)方面都有具體的措施。這是中國的人工智能治理的框架,這個框架左邊是法律依據(jù)、法規(guī)政策和標(biāo)準(zhǔn),右邊是從安全角度講有各個方面的維度,比如像網(wǎng)絡(luò)安全、數(shù)據(jù)安全、科技安全和社會安全。

具體的實施路徑上也有很多不同的措施,從最左邊的立法開始,因為國際上可能對中國人工智能治理的立法不是特別了解,其實現(xiàn)在已經(jīng)有了四法一條例,從《民法典》、《網(wǎng)安法》、《數(shù)安法》、《個保法》,再加上《生成式人工智能管理暫行辦法》。像這樣具體的法律法規(guī)都已經(jīng)開始實施,知識產(chǎn)權(quán)保護方面也有非常詳盡的制度。

同時像算法治理,對于其他的比如說壟斷的問題,算法算力和數(shù)據(jù)壟斷的問題以及所謂商業(yè)秘密還有開源的政策和規(guī)制的問題。中國從去年到現(xiàn)在已經(jīng)頒布了一系列法律法規(guī),也有很多具體的規(guī)則。同時我們也構(gòu)建了很多技術(shù)標(biāo)準(zhǔn)。這一頁是現(xiàn)行有效標(biāo)準(zhǔn),正在實施的,還有大量技術(shù)標(biāo)準(zhǔn)在制定當(dāng)中。最近看到信標(biāo)委、科評標(biāo)委都在不同角度對人工智能治理方面做出很多標(biāo)準(zhǔn)制定的規(guī)劃。

前面講了中國實踐,下面看一下人工智能治理方面的國際共識。首先全球達到的共識就是倫理先行,就是我們不論發(fā)展哪一個領(lǐng)域里面的人工智能技術(shù),首先要經(jīng)過倫理審查。倫理先行其實表現(xiàn)形式或者帶來的問題已經(jīng)非常嚴(yán)峻了。這里面舉了個例子是智能叛變。其實剛才我們面對那些智能體,包括機器人機器狗,如果它突然有一天不聽人的指揮了,我們想在它的面前,我們?nèi)馍淼淖匀蝗似鋵嵑苋跣?,所以我們一定要防止智能叛變,這一頁已經(jīng)有韓國報道,就是有一名工人在生產(chǎn)線上,由于他沒有按照標(biāo)準(zhǔn)和規(guī)則執(zhí)行工作任務(wù)和行為,已經(jīng)被機器人所獵殺。同時,我們也看到比如數(shù)字人冒充政治人物,冒充名人,在社會上引起恐慌或者深度偽造圖片都有可能造成社會問題。

國際上已經(jīng)意識到倫理問題非常重要,所以從國際組織包括OECD可能是最多發(fā)表這方面政策文件的。像美國、英國、德國以及最近很多區(qū)域性的貿(mào)易組織也在發(fā)倫理的規(guī)制文件。特別是像I-Trip-E也是最早發(fā)了這樣一些技術(shù)標(biāo)準(zhǔn)。中國的科技倫理治理也有很多,包括我們治理的思路、途徑,這些不再展開。

倫理先行屬于全球達到的國際共識,也是人工智能風(fēng)險治理的有效渠道,我們要事先控制這樣一些倫理風(fēng)險。其實倫理問題不僅僅是自然人的生命還有隱私要受到保護,其實它除了科技技術(shù)方面的倫理問題,就是科技倫理問題,同時還有社會倫理問題。人類其實也有一個整體的價值觀,每個國家不同社會形態(tài)也有不同的價值觀和規(guī)范。特別是我們也看到不同民族更是有它自己的信仰和它自己的一些日常習(xí)慣,所以我們看到人工智能技術(shù)的開發(fā),其實你要關(guān)注到這樣的一些社會倫理問題。

中國的政策我就略去了,中國還有一個科技倫理的審查辦法,這個科技倫理的審查辦法能夠解決一部分人工智能的問題,就像我剛才提到我們除了科技倫理,還有社會倫理,我是法學(xué)院的老師,有人經(jīng)常會問,你為什么現(xiàn)在又去到了人工智能研究院,我們北京大學(xué)的人工智能研究院不僅僅去研究和解決技術(shù)問題,它同時吸收了北京大學(xué)優(yōu)勢的人文社科的學(xué)科,政經(jīng)法文史哲的老師都加入到了北京大學(xué)人工智能研究院。

所以我們這些人文社科的老師進去了之后,我們想到的更多是規(guī)則,是說我們在人工智能發(fā)展的過程中如何能夠讓它健康的安全的可靠的去發(fā)展,所以這也就是為什么今天我也能到這樣一個主論壇上做發(fā)言的理由。

其實我一直有一個感受,人工智能這四個字我們已經(jīng)不能說它就代表一種技術(shù),它有可能是一種社會的形態(tài),所以當(dāng)它變成一種社會形態(tài),比如說我們整個社會都是由智能體幫助我們一起來共同建設(shè),來參加的時候,這個時候我們就進入了智能社會,智能社會的治理和我們傳統(tǒng)社會的治理是不一樣的,所以我們現(xiàn)在必須要去探討,去解決現(xiàn)在已經(jīng)發(fā)生的一些問題,能夠去預(yù)防未來有可能發(fā)生的一些風(fēng)險。

我們再來講第三個問題,人工智能治理達到國際共識的方面還有安全保障機制,我們前面講到倫理,其實也是安全的一個方面,但是我們?nèi)绻毞郑€有更多的安全保障措施。

在聯(lián)合國有一系列關(guān)于推動人工智能的決議當(dāng)中提出來一定要確保人工智能的安全性和可信度,包括可靠的、透明的、可問責(zé)的基本原則。這是2024年3月份,我們也看到聯(lián)合國也有一些高級別咨詢機構(gòu)的會議還有一些報告都在強調(diào)人工智能發(fā)展的安全問題。

我們也看到在國際上發(fā)達國家主導(dǎo)的也有一系列的像安全的峰會和論壇,比如說我們現(xiàn)在叫人工智能安全峰會,第一屆就是在英國召開的,在英國召開的時候我們也是看到他強調(diào)的是AI的安全,因為它的題目就叫安全峰會,所以更多強調(diào)的是安全,然后是發(fā)展。

在這個峰會上有28個國家簽字了,中國也在這上面簽字,我們和很多發(fā)達國家,就是有人工智能技術(shù)的這些國家共同都去關(guān)注安全問題。

第二屆的安全峰會是在首爾發(fā)布的,在首爾發(fā)布的時候我們看到前面28個國家也都簽字了,中國沒有簽字,沒有簽字不意味著中國不贊同峰會提倡的安全理念,而我們可能還是希望能夠在聯(lián)合國的層面上有更多的國家來參與,考慮到人工智能的安全問題。

現(xiàn)在我們也看到未來或者是不久的將來就會在舊金山開下一屆的峰會,我們也希望下一屆的峰會能繼續(xù)秉持著我們前面所說的叫以人為本,以人為本就是要考慮人類共同發(fā)展的問題。

我們也看到其它很多的國際組織或者是區(qū)域性的協(xié)定,像OECD、APAC也都有關(guān)于安全的一些原則,特別是像美國、歐盟有一系列的法案、提案,我這里面就略去了。在這里面我們也都知道歐盟最近頒布了《人工智能法》,他的《人工智能法》其實是把人工智能或者我們說現(xiàn)在這種機器人按照風(fēng)險來分級分類進行管理和歸置。

所以我們在這張圖當(dāng)中也看到高風(fēng)險的紅色的那部分是人類不應(yīng)當(dāng)去介入的,也就是說他應(yīng)該是采取的一種禁止性的,所謂的高風(fēng)險就是說你這樣一種人工智能的技術(shù)出來之后,本身就是對人類沒有任何好的一面,沒有任何福祉,反而可能會造成一種災(zāi)難,如果你用在武器方面,它真的給人類造成了毀滅,所以我們看到這類是絕對禁止的。

然后我們看到高風(fēng)險的,高風(fēng)險的就是高監(jiān)管的,也就是說你這個技術(shù)一問世或者在研發(fā)階段,你就應(yīng)該關(guān)注它的風(fēng)險和未來的后果。監(jiān)管部門也可能會有一些主動的審查,還有像黃色的這塊就有可能是說它帶有一定的風(fēng)險,但是由你企業(yè)自己來評估,然后你可以做出自律的一些約束,也就是說我知道我醫(yī)療機器人、農(nóng)業(yè)機器人、看護機器人都應(yīng)該盡到一個什么樣的最基本的人權(quán)保障,所以我們看到這個黃色的就由企業(yè)自己去評估了,我們看到綠色的是絕對對人類有好處的,我們就完全可以放開,讓它去發(fā)展,比如說救援機器人,所以它的這種監(jiān)管和監(jiān)控是按照這樣的一種風(fēng)險等級。

比如說中國的企業(yè)到歐洲就要關(guān)注這部法律,你要到其它國家,你也要關(guān)注每個國家關(guān)于安全和治理方面的一些規(guī)則,如果你遇到一些全新的問題,你覺得這需要我們?nèi)祟惞餐瑏硖接?,你也可以在?lián)合國這個方面拿出你的提案。

我們看到歐盟是按照風(fēng)險去管控的,其實全球人工智能的協(xié)同共治是不可或缺的,不可避免的,不可能是某一個國家去主導(dǎo)人工智能的治理,它一定是各國共同在這上面一起去探討,防止AI的濫用,防止AI的失控,這就是我們說今天為什么我要在這樣一個主論壇上,在大家都去講人工智能技術(shù)的發(fā)展、應(yīng)用這方面,然后我講一下治理,就是因為我們要從源頭開始,從我們?nèi)斯ぶ悄艿目萍及l(fā)展和研發(fā)階段開始就關(guān)注這樣一個話題,這樣才能讓我們的產(chǎn)品更多的造福于人類。

我再用最后幾分鐘的時間展望一下,其實我們在人工智能這里面還有很多問題、很多困難沒有達成共識,前面我們是達成了共識,我們在倡導(dǎo)以人為本、安全和發(fā)展之后,我們看到全球大部分的人工智能研發(fā)者都面對版權(quán)的起訴,大量的文字作品、音樂作品、圖像作品包括我們前面那些機器人的研發(fā)者學(xué)習(xí)的一些數(shù)據(jù),它都會去涉及到個人信息和著作權(quán)的問題,所以今天訓(xùn)練數(shù)據(jù)的合法性變得異常嚴(yán)峻。

如果你的訓(xùn)練數(shù)據(jù)不足夠多,你的智能體就不夠聰明。如果你的訓(xùn)練數(shù)據(jù)很多,你就要去學(xué)習(xí)全球最優(yōu)秀的那些作品,把經(jīng)典著作、影視包括科學(xué)家的報告,包括碩博論文,但是你一旦去學(xué)習(xí)這些東西,你就會受到訓(xùn)練數(shù)據(jù)合法性的問題。

今天我在這里也提出來,其實AI發(fā)展的瓶頸之一就是高質(zhì)量訓(xùn)練數(shù)據(jù)的合法性,我們看到其實像ChatGPT也好,像OpenAI,他們都利用了全球最優(yōu)秀的數(shù)據(jù)庫源泉,但是我們看到中國的一些人工智能的研發(fā)機構(gòu),他還沒有這么豐富的優(yōu)質(zhì)數(shù)據(jù)訓(xùn)練,所以我們也看到在這個問題上能不能達成國際上的一致,能不能達成共識,我們有諸多的渠道,但是今天我們看到還是任重道遠,所以我們也在此呼吁一下,我們看看在人工智能訓(xùn)練數(shù)據(jù)這個方面能不能找出一些解困之道,謝謝!


本文根據(jù)錄音整


返回列表頁

加入會員

學(xué)會官微