欧美人与性动交α欧美精品_色综合久久天天综合_亚洲s黄在线_youjizz国产在线观看_男女猛烈拍拍拍无挡视频免费

首頁 > 資訊 > > 正文

生成式AI發(fā)展與監(jiān)管白皮書②:知產(chǎn)侵權(quán)、算法黑箱何解?

2023-07-28 09:07:05        來源:   21世紀(jì)經(jīng)濟(jì)報(bào)道

記者 王俊 鄭雪 南方財(cái)經(jīng)全媒體記者馮戀閣 北京報(bào)道


(資料圖片僅供參考)

編者按:自1956年“人工智能”的概念首次被提出已過60余年,此間,人工智能從虛化的代碼逐漸轉(zhuǎn)化成實(shí)踐應(yīng)用,催生出一批批商業(yè)故事。不過,人工智能規(guī)模化商用并非坦途,概念的火熱一直以來未能助推技術(shù)突破與商業(yè)應(yīng)用。

時(shí)間來到2022年,生成式AI發(fā)展為人工智能發(fā)展再注入一針強(qiáng)心劑。ChatGPT橫空出世,被視為通用人工智能的起點(diǎn)和強(qiáng)人工智能的拐點(diǎn),引發(fā)新一輪人工智能革命。人工智能發(fā)展似乎找到了自己的主流敘事。

不過,技術(shù)創(chuàng)新的同時(shí)也帶來了監(jiān)管難題。如何平衡發(fā)展與安全,中國正在摸索自己的AI治理路徑。南財(cái)合規(guī)科技研究院與觀韜中茂律師事務(wù)所推出《中國AI治理的獨(dú)立思考——生成式人工智能發(fā)展與監(jiān)管白皮書》,通過分析生成式AI的發(fā)展現(xiàn)狀、政策導(dǎo)向、實(shí)操中面臨的風(fēng)險(xiǎn),以及各國的監(jiān)管路徑,以期為未來的AI治理提供有益思路。

海量數(shù)據(jù)、龐大算力、巧妙算法,是生成式人工智能發(fā)展的三個(gè)核心要素。在“海量數(shù)據(jù)”這一暴力美學(xué)催生下,生成式人工智能突破了某種桎梏,變得無所不知,可以就任何問題侃侃而談。

正如海面上的冰山,只是我們所能看見冰山的一部分,巨大的風(fēng)險(xiǎn)和未知隱藏在冰山之下。

海量數(shù)據(jù)作為燃料催動(dòng)大模型,但因大模型廠商數(shù)據(jù)來源的不合規(guī),現(xiàn)實(shí)生活中面臨來自知識(shí)產(chǎn)權(quán)保護(hù)創(chuàng)意和創(chuàng)新的反擊,不少企業(yè)面臨侵權(quán)訴訟提告。

而作為人工智能“發(fā)動(dòng)機(jī)”的算法,驅(qū)動(dòng)人工智能繼續(xù)發(fā)展,但考慮算法本身透明度和可知性的有限,人工智能能否如同最初所設(shè)想走在正確道路之上、助力人類發(fā)展,同樣面臨來自現(xiàn)實(shí)的挑戰(zhàn)和考驗(yàn)。

海量數(shù)據(jù):或侵犯知識(shí)產(chǎn)權(quán)及商業(yè)秘密

大模型面臨的數(shù)據(jù)侵權(quán)風(fēng)險(xiǎn),是其發(fā)展過程中的先天不足??梢钥吹降氖?,當(dāng)前中國,數(shù)據(jù)已經(jīng)成為生產(chǎn)要素之一在發(fā)揮著自己作用。但同時(shí),數(shù)據(jù)權(quán)利歸屬復(fù)雜,相關(guān)產(chǎn)業(yè)鏈多方主體間利益糾葛、應(yīng)用場景的復(fù)雜多樣,都給數(shù)據(jù)發(fā)展和利用蒙上了一層不確定性的面紗。

大模型亦無法解決因不確定性帶來的知識(shí)產(chǎn)權(quán)法律挑戰(zhàn)。如近日,一批匿名人士向OpenAI,以及其投資方之一的微軟公司發(fā)起集體訴訟。因OpenAI 秘密從互聯(lián)網(wǎng)上竊取了 3000 億個(gè)單詞,竊聽了“書籍、文章、網(wǎng)站和帖子——包括未經(jīng)同意獲得的個(gè)人信息”。這并不是OpenAI第一次陷入數(shù)據(jù)安全、個(gè)人信息泄露相關(guān)的指控,同樣也不會(huì)是最后一次。

具體來看,生成式人工智能的知識(shí)產(chǎn)權(quán)法律風(fēng)險(xiǎn)主要來自于著作權(quán)侵權(quán)、侵犯商業(yè)秘密等。

著作權(quán)侵權(quán)方面,基于大模型對(duì)語料豐富度的較高需求,無論是模型輸入端,還是模型輸出端,均存在較大的侵犯著作權(quán)的可能性與風(fēng)險(xiǎn)。

在輸入端,大模型在構(gòu)建過程中需要“學(xué)習(xí)”大量文本語料,而在獲取文本語料時(shí),可能會(huì)因未征得權(quán)利人許可復(fù)制、改變或者傳播而涉嫌侵犯他人著作權(quán)。例如,某全球知名圖片提供商起訴了某AI繪畫工具的開發(fā)者,稱其未經(jīng)許可從自己的網(wǎng)站上竊取了數(shù)百萬張圖片。需要注意的是,將生成式AI模型應(yīng)用于商業(yè)用途本身已經(jīng)明顯超出知識(shí)產(chǎn)權(quán)法律中界定的“合理使用”的范疇。

在輸出端,判斷著作權(quán)侵權(quán)的第一步是看生成內(nèi)容能否被判定為著作權(quán)法中所定義的“作品”。根據(jù)以往判例,法院在對(duì)“作品”進(jìn)行判斷時(shí),曾認(rèn)定“作品的創(chuàng)作主體應(yīng)限定為自然人”;同時(shí),是否滿足“獨(dú)創(chuàng)性”也是判定是否構(gòu)成作品的標(biāo)準(zhǔn)。

不過,就算生成內(nèi)容無法達(dá)到作品的標(biāo)準(zhǔn),與原作品構(gòu)成實(shí)質(zhì)性近似,仍可能構(gòu)成知識(shí)產(chǎn)權(quán)侵權(quán)。此外,大模型訓(xùn)練的文本語料數(shù)量越是匱乏,生成內(nèi)容的知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)就會(huì)越高。生成內(nèi)容還將受到使用者提問方式的影響,如使用者的提示詞極為限縮、精準(zhǔn),也將增大生成內(nèi)容侵犯他人知識(shí)產(chǎn)權(quán)的風(fēng)險(xiǎn)。

商業(yè)秘密侵權(quán)方面,訓(xùn)練數(shù)據(jù)是修煉大模型的“原材料”,在大模型的靜態(tài)與動(dòng)態(tài)訓(xùn)練的過程中,可能會(huì)出現(xiàn)使用來源不明或者非法的數(shù)據(jù)信息的情況,如果前述信息中包含商業(yè)秘密,那么依據(jù)競爭法下的相關(guān)規(guī)定,將構(gòu)成對(duì)他人商業(yè)秘密的侵害。

同時(shí),隨著大模型影響力的擴(kuò)大,企業(yè)可能會(huì)將其納入辦公系統(tǒng)以提升工作效率。而企業(yè)員工在訓(xùn)練和使用模型的過程中,如不慎輸入企業(yè)的商業(yè)秘密,不僅可能造成公司商業(yè)秘密的直接泄露, 甚至可能被模型存儲(chǔ)于數(shù)據(jù)庫中作為訓(xùn)練數(shù)據(jù), 如遭受黑客攻擊, 公司將進(jìn)一步蒙受損失。

從企業(yè)防止商業(yè)秘密外泄的角度,如何約束員工在利用大模型提高工作效率的同時(shí),又能避免對(duì)企業(yè)商業(yè)秘密的侵犯,也將成為相關(guān)法律合規(guī)部門需要思考的問題。

技術(shù)底座:或存不正當(dāng)競爭和壟斷風(fēng)險(xiǎn)

生成式人工智能的未來,不只是對(duì)話和溝通,甚至?xí)蔀樾碌幕A(chǔ)設(shè)施,賦能行業(yè)和產(chǎn)業(yè)的發(fā)展。以目前趨勢(shì),大模型將成為上層應(yīng)用的技術(shù)底座,會(huì)支撐智能終端、系統(tǒng)、平臺(tái)等產(chǎn)品應(yīng)用落地。

競爭角度來看,生成式人工智能或?qū)⒚媾R不正當(dāng)競爭和反壟斷風(fēng)險(xiǎn)。

不正當(dāng)競爭方面,大模型在協(xié)助編程、廣告設(shè)計(jì)、文學(xué)創(chuàng)作等領(lǐng)域表現(xiàn)優(yōu)異。用戶在使用大模型生成廣告文案時(shí),其生成內(nèi)容可能與他人廣告文案、知名商品名稱、知名企業(yè)名稱等存在相似??紤]到這類文案、名稱等通常篇幅簡短,較難被視作著作權(quán)法上的“作品”,此時(shí),如果用戶直接將生成內(nèi)容進(jìn)行商業(yè)使用,可能構(gòu)成競爭法下中的“混淆行為”。

此外,由于多數(shù)企業(yè)將公開爬取作為獲取數(shù)據(jù)的渠道之一,如果使用非法爬取的數(shù)據(jù)進(jìn)行生成式AI模型訓(xùn)練,形成的數(shù)據(jù)產(chǎn)品若達(dá)到足以實(shí)質(zhì)性替代其他經(jīng)營者提供的相關(guān)產(chǎn)品或者服務(wù)的程度,其仍可能構(gòu)成不正當(dāng)競爭。

同時(shí),雖然互聯(lián)網(wǎng)上存在大量可以自由訪問的信息, 但如果從具有禁止第三方爬取數(shù)據(jù)條款的網(wǎng)站收集海量數(shù)據(jù), 該等數(shù)據(jù)很有可能被認(rèn)定為競爭性財(cái)產(chǎn)權(quán)益, 因此如何避免對(duì)該等數(shù)據(jù)的收集違反競爭法的相關(guān)規(guī)定,也將成為相關(guān)開發(fā)者和服務(wù)提供者所要面臨的一大挑戰(zhàn)。

另一方面,大模型也可能引發(fā)競爭法下反壟斷相關(guān)風(fēng)險(xiǎn)。

一是基于技術(shù)的高尖性,由于目前生成式AI技術(shù)主要掌握在全球大型科技公司手中,如何防止生成式AI技術(shù)的研發(fā)與應(yīng)用成為大公司新型的壟斷手段?就該問題,歐美地區(qū)也正在籌劃制定專門針對(duì)生成式AI的反壟斷法。

二是部分企業(yè)之間試圖通過人工智能達(dá)成“壟斷協(xié)議”,也即價(jià)格算法合謀,例如,某公司通過某生成式人工智能模型對(duì)消費(fèi)者數(shù)據(jù)進(jìn)行消費(fèi)習(xí)慣分析,從而對(duì)消費(fèi)者采取有針對(duì)性的算法壟斷定價(jià)。如何防止這種新型壟斷現(xiàn)象對(duì)消費(fèi)者權(quán)益可能帶來的損害,也將成為需要思考的問題。

算法驅(qū)動(dòng):算法黑箱、信息失真何解?

算法,一組解決問題的步驟和規(guī)則,可以用來執(zhí)行特定的計(jì)算或操作。通常用于設(shè)計(jì)和實(shí)現(xiàn)計(jì)算機(jī)程序,以解決各種問題。其作為人工智能“發(fā)動(dòng)機(jī)”而存在。

需要注意的是,因“算法黑箱”而導(dǎo)致的人工智能系統(tǒng)的不透明與不可解釋一直是人工智能信任與問責(zé)的一大困擾。

實(shí)踐過程中,算法具有不可解釋和不可知的黑箱特性,或?qū)?dǎo)致結(jié)果不可預(yù)知,造成決策風(fēng)險(xiǎn)。算法或?qū)砥缫暎绊懶屎凸?。而其中最?yán)重的,因算法所引起的信息失真風(fēng)險(xiǎn)或?qū)⒊蔀樨灤┤斯ぶ悄馨l(fā)展史的最重要問題。

算法黑箱。由于大模型的算法內(nèi)部機(jī)制和決策過程不可解釋或難以理解,會(huì)導(dǎo)致算法的輸出結(jié)果存在無法解釋的“黑洞”。全球最大的生成式AI模型ChatGPT也因至今未曾公布算法規(guī)則而飽受詬病。

算法的輸出結(jié)果不僅僅取決于輸入數(shù)據(jù),還會(huì)受到算法自身的運(yùn)行過程、模型參數(shù)、超參數(shù)等多方面因素的影響。這種風(fēng)險(xiǎn)可能會(huì)導(dǎo)致企業(yè)難以理解模型的決策過程和預(yù)測結(jié)果,從而難以評(píng)估模型的可靠性和穩(wěn)定性。另一方面,企業(yè)也難以響應(yīng)用戶關(guān)于解釋算法結(jié)論的要求。

例如,某企業(yè)在使用生成式AI模型生成推薦內(nèi)容時(shí),發(fā)現(xiàn)該模型頻繁生成與特定人群利益相關(guān)的內(nèi)容,但無法確定這種情況是因?yàn)樗惴ū旧泶嬖谄娺€是數(shù)據(jù)集本身就存在偏見,此時(shí)企業(yè)可能難以發(fā)現(xiàn)問題的根源和解決方案。

算法歧視。大模型算法在應(yīng)用、決策或預(yù)測時(shí),如其本身的算法規(guī)則對(duì)某些特定的個(gè)體或群體存在偏見,將會(huì)導(dǎo)致企業(yè)的商業(yè)決策不公正,進(jìn)而影響用戶對(duì)其的信任和企業(yè)商譽(yù)與形象。對(duì)用戶而言,其將遭受歧視和不公正的待遇。

例如,某企業(yè)使用生成式AI模型為客戶提供智能客服服務(wù),但由于該模型算法規(guī)則本身存在種族、性別等方面的偏見,導(dǎo)致部分群體的問題無法得到利于其立場或身份的解答,進(jìn)而影響客戶對(duì)該企業(yè)的認(rèn)知與評(píng)價(jià)。

算法決策風(fēng)險(xiǎn)。在使用大模型進(jìn)行決策時(shí),由于模型的不確定性或數(shù)據(jù)量欠缺等原因,可能會(huì)導(dǎo)致錯(cuò)誤的決策或不良后果。同時(shí),由于算法決策形態(tài)本身的多元性,算法決策機(jī)制的隱蔽性,以及算法決策主體的模糊性,都有可能給算法決策帶來風(fēng)險(xiǎn)。

例如,某醫(yī)療保險(xiǎn)公司使用生成式AI模型來決定是否批準(zhǔn)某個(gè)人的理賠申請(qǐng)。如果該模型的算法規(guī)則中沒有納入部分潛在的判定因素,例如此人的醫(yī)療病史、病情危重程度等,就可能會(huì)錯(cuò)誤地拒絕該人的申請(qǐng)。這種錯(cuò)誤決策可能會(huì)導(dǎo)致患者的疾病無法得到及時(shí)治療,甚至危及生命,給公司和患者帶來不良后果。

信息失真風(fēng)險(xiǎn)。信息失真風(fēng)險(xiǎn)并非算法的固有風(fēng)險(xiǎn)。當(dāng)算法所處理的數(shù)據(jù)本身存在錯(cuò)誤時(shí),算法的處理結(jié)果就會(huì)出現(xiàn)信息失真;此外,如果企業(yè)或者用戶出于某種目的故意規(guī)避對(duì)算法和數(shù)據(jù)的監(jiān)管,也有概率導(dǎo)致訓(xùn)練出的模型生成違法、欺詐、誹謗、侵犯隱私等類型的內(nèi)容。這種風(fēng)險(xiǎn)可能導(dǎo)致用戶通過算法模型得到錯(cuò)誤的結(jié)論,產(chǎn)生負(fù)面影響;企業(yè)可能因?yàn)殄e(cuò)誤的或違法的內(nèi)容受到監(jiān)管機(jī)構(gòu)處罰,影響企業(yè)聲譽(yù)和業(yè)務(wù)發(fā)展。

特別是對(duì)于擬自行部署生成式AI模型的開發(fā)者而言,如模型算法本身的語言推理能力有限,造成信息失真甚至“臆想”現(xiàn)象將愈發(fā)嚴(yán)重。

例如,某用戶在使用某企業(yè)提供的生成式AI模型時(shí),由于數(shù)據(jù)有誤,導(dǎo)致其在商業(yè)決策中決策失誤,并由此虧損,其認(rèn)為該企業(yè)提供的模型應(yīng)當(dāng)承擔(dān)相應(yīng)責(zé)任。

大模型研發(fā)者、使用者應(yīng)在算法設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等環(huán)節(jié),不斷提升透明性、可解釋性、可靠性,逐步實(shí)現(xiàn)可審核、可監(jiān)督、可追溯、可預(yù)測、可信賴;研發(fā)主體加強(qiáng)對(duì)數(shù)據(jù)采集和算法開發(fā)倫理審查,充分考慮差異化訴求,避免可能存在的數(shù)據(jù)采集與算法偏見,努力實(shí)現(xiàn)人工智能系統(tǒng)的普惠性、公平性和非歧視性。

白皮書出品團(tuán)隊(duì):南財(cái)合規(guī)科技研究院X觀韜中茂律師事務(wù)所

白皮書撰寫者:王俊 馮戀閣?鄭雪?王渝偉 楊欣如 周丹 錢雨晴 溫泳珊 林婉娜?羅洛

(陸釔潼 王敏 朱敏婕 對(duì)白皮書撰寫亦有貢獻(xiàn))

責(zé)任編輯:王超

標(biāo)簽:

熱門話題
精彩推薦
今日推薦
花木