算法推薦的“技術(shù)中立”成為了許多平臺企業(yè)規(guī)避侵權(quán)責(zé)任的抗辯理由,若加放任,不僅可能導(dǎo)致受害者無法得到應(yīng)有的補償,還有可能導(dǎo)致算法推薦技術(shù)被濫用,不利于行業(yè)的健康有序發(fā)展。
文 | 陳兵 編輯 |朱弢
來源:財經(jīng)E法
隨著移動互聯(lián)基礎(chǔ)設(shè)施的建設(shè)和移動終端設(shè)備的普及,信息通信技術(shù)和數(shù)字?jǐn)?shù)據(jù)技術(shù)的應(yīng)用場景和頻次得到極大豐富和提升,海量的用戶數(shù)據(jù)的生產(chǎn)、流動、使用、開發(fā)得到極大提速,算法技術(shù)的開發(fā)和應(yīng)用得到極大激勵。以海量數(shù)據(jù)為基礎(chǔ)的算法推薦技術(shù)與網(wǎng)約車、網(wǎng)絡(luò)購物、靈活用工等應(yīng)用場景深度融合,給數(shù)字經(jīng)濟高質(zhì)量發(fā)展注入強大動能。然而,算法推薦服務(wù)的廣泛應(yīng)用也可能引發(fā)算法黑箱、算法歧視、信息繭房等問題,對市場秩序、消費者福利以及經(jīng)營者權(quán)益產(chǎn)生不利影響。
近期,中國首例算法推薦案——北京市海淀區(qū)人民法院對北京愛奇藝科技有限公司(下稱“愛奇藝”)訴北京字節(jié)跳動科技有限公司(下稱“字節(jié)跳動”)侵害《延禧攻略》(下稱“延劇”)信息網(wǎng)絡(luò)傳播權(quán)一案作出判決。
在案中,原告愛奇藝訴稱,字節(jié)跳動未經(jīng)授權(quán),在延劇熱播期間,其運營的今日頭條App利用信息流推薦技術(shù),將用戶上傳的截取自延劇的短視頻向公眾傳播并推薦。愛奇藝認(rèn)為,字節(jié)跳動在應(yīng)知或明知侵權(quán)內(nèi)容的情況下,未盡到合理注意義務(wù),存在主觀過錯,侵害了自己對延劇享有的信息網(wǎng)絡(luò)傳播權(quán)。
法院經(jīng)審理認(rèn)定,字節(jié)跳動具有充分的條件、能力和合理的理由知道其眾多頭條號用戶大量地實施了涉案侵權(quán)行為,屬于法律所規(guī)定的應(yīng)當(dāng)知道情形。字節(jié)跳動在本案中所采取的相關(guān)措施,尚未達到“必要”程度。
最終,法院認(rèn)為字節(jié)跳動的涉案行為構(gòu)成幫助侵權(quán),并判定其賠償原告愛奇藝經(jīng)濟損失150萬元及訴訟合理開支50萬元,共計200萬元。
作為全國首例算法推薦案,該案引發(fā)了對提供算法推薦服務(wù)的平臺應(yīng)承擔(dān)何等注意義務(wù)及責(zé)任的廣泛探討。毋庸置疑,明確算法推薦侵權(quán)責(zé)任,將更有利于算法推薦技術(shù)的合理合法應(yīng)用,同時也警醒算法推薦服務(wù)提供者,有助于引導(dǎo)有關(guān)行業(yè)和平臺合規(guī)運營。
算法推薦侵權(quán)歸責(zé)之困
一般情況下,行為人因過錯侵害他人合法權(quán)益造成損害的,應(yīng)承擔(dān)侵權(quán)責(zé)任。然而,隨著自動化算法技術(shù)的廣泛應(yīng)用,平臺可以在無需人為干預(yù)的情況下進行信息推送、合同簽訂以及信息刪除等行為。若這種自動化算法產(chǎn)生的行為導(dǎo)致侵權(quán)損害發(fā)生,將可能面臨法律責(zé)任追究困難的局面,由于算法技術(shù)是中立的,并不存在人為導(dǎo)致的主觀過錯,這種困境也被一些學(xué)者稱為“責(zé)任鴻溝”。
所謂“責(zé)任鴻溝”,是算法的設(shè)計者和運營者未能預(yù)測算法自主學(xué)習(xí)及其運行產(chǎn)生的后果,人對機器的行動并沒有足夠的控制權(quán),因此無法要求人去承擔(dān)類似傳統(tǒng)的機器制造者和操作者的過錯責(zé)任。依照傳統(tǒng)的歸責(zé)原則,一個法律主體只有在其知曉自己的行為及其后果,并且可以自由選擇是否作為的時候,才應(yīng)該承擔(dān)法律責(zé)任。
“責(zé)任鴻溝”在愛奇藝訴字節(jié)跳動一案中亦有體現(xiàn),字節(jié)公司在辯稱其已盡到合理注意義務(wù)時提出,涉案信息流推薦技術(shù)不會識別視頻的具體內(nèi)容,其無選擇推薦涉嫌侵權(quán)內(nèi)容的主觀意愿,不存在法律意義上的推薦行為。總體而言,字節(jié)跳動意在主張推送侵權(quán)視頻是算法推薦技術(shù)所為,公司不具有主觀過錯。
由此,算法推薦的“技術(shù)中立”成為許多平臺企業(yè)規(guī)避侵權(quán)責(zé)任的抗辯理由,若放任其規(guī)避應(yīng)承擔(dān)的相應(yīng)責(zé)任,不僅可能導(dǎo)致受害者無法得到應(yīng)有的補償,還有可能導(dǎo)致算法推薦技術(shù)被濫用,成為平臺企業(yè)規(guī)避法律責(zé)任的“擋箭牌”,不利于相關(guān)行業(yè)的健康有序發(fā)展。
那么應(yīng)如何認(rèn)定算法推薦侵權(quán)的法律責(zé)任呢?
算法推薦侵權(quán)的兩種情形
算法推薦侵權(quán)的法律責(zé)任認(rèn)定,應(yīng)當(dāng)結(jié)合個案具體情形進行判斷,此處將區(qū)分幾種情形進行分析,明確不同類型的算法推薦侵權(quán)的責(zé)任認(rèn)定、責(zé)任分配以及責(zé)任承擔(dān)方式。
在涉及算法推薦侵權(quán)的案件中,侵權(quán)行為通?赡軤可嫒齻主體,包括算法開發(fā)者、算法使用者、算法消費者。
其中,算法開發(fā)者是指開發(fā)設(shè)計算法推薦技術(shù)的主體;算法使用者是指使用算法推薦技術(shù)為用戶提供服務(wù),對算法的運行具有控制力、支配力的主體;算法消費者則是在數(shù)字經(jīng)濟背景下應(yīng)運而生的一種新型的消費者,是通過在智能算法接入互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等網(wǎng)絡(luò)空間,并在算法作用下為生活消費購買商品或接受服務(wù)的消費者,其具有身份上的多重性。
詳言之,算法消費者相對于算法使用者而言,具有行為的對象屬性,是算法使用者所作用的對象,在算法推薦下展開生活消費活動。同時,算法消費者通過使用算法功能來完成生活消費活動,在這一過程,基于人工智能算法的自學(xué)習(xí)能力,消費者其實也參與了算法的開發(fā)與完善。換言之,在人工智能算法技術(shù)廣泛適用的情景下,所有參與其中的主體,無論是開發(fā)者、使用者亦或消費者,其身份和作用的界限只是相對的,是一個動態(tài)變化的過程。故在實踐中對算法推薦侵權(quán)責(zé)任的認(rèn)定,須結(jié)合個案場景予以分析,特別是對責(zé)任主體的識別需持開放多元的態(tài)度,再根據(jù)算法推薦是否直接導(dǎo)致侵權(quán)行為發(fā)生,以及不同主體在該算法推薦服務(wù)場景下的角色和作用予以責(zé)任劃分。由此,可大抵分為兩類情形予以考察。
第一種情形,算法推薦直接導(dǎo)致侵權(quán)發(fā)生。
在此情形中,損害結(jié)果是算法推薦技術(shù)運行造成的,而非人為所致。此時,如何侵權(quán)行為法律責(zé)任進行認(rèn)定與分配?
首先,需要考察算法推薦技術(shù)在設(shè)計上是否存在引發(fā)侵權(quán)損害發(fā)生的因素,并考察這些因素是否源于算法開發(fā)者的主觀過錯。即便算法推薦技術(shù)的自動化運行和深度學(xué)習(xí)過程無需人為干預(yù),但需要注意,算法推薦技術(shù)的開發(fā)與設(shè)計中能夠嵌入開發(fā)者的主觀意圖,使得算法能夠在無需人為幫助的情況下,實現(xiàn)算法開發(fā)者想要達到的特定目的。若算法推薦技術(shù)本身存在導(dǎo)致侵權(quán)損害發(fā)生的因素,譬如,算法推薦技術(shù)在設(shè)計過程中加入歧視性的判定條件,導(dǎo)致算法輸出結(jié)果具有明顯的歧視性,則可以推定算法開發(fā)者存在主觀過錯,此時開發(fā)者應(yīng)當(dāng)對侵權(quán)損害的發(fā)生負(fù)有一定的法律責(zé)任。
其次,需要考察算法使用者在使用算法推薦技術(shù)過程的一系列關(guān)聯(lián)行為是否存在侵權(quán)過錯。這里主要聚焦平臺企業(yè)作為算法使用者的情況,當(dāng)平臺所使用的算法推薦技術(shù)并不是由其開發(fā)設(shè)計時,平臺作為使用者而非開發(fā)者,也可能會承擔(dān)法律責(zé)任。原因在于,即便存在算法黑箱,平臺使用者無法得知算法可能產(chǎn)生損害后果,其對算法的運行也具有實際控制力,因此,當(dāng)其在知道或應(yīng)當(dāng)知道算法推薦技術(shù)的運行會導(dǎo)致侵權(quán)行為發(fā)生,仍放任該侵權(quán)算法運行時,同樣需要承擔(dān)相應(yīng)的法律責(zé)任。
在此類情形中,一般不涉及算法消費者的法律責(zé)任,因為算法消費者僅是接受算法推薦服務(wù)的對象,對算法推薦技術(shù)無直接控制力。當(dāng)然,由于在動態(tài)變化的算法互動場景中,無論是開發(fā)者、使用者亦或消費者的身份皆可能發(fā)生變化。因此,在一些情形中,算法消費者的身份也可能發(fā)生轉(zhuǎn)化而需要擔(dān)責(zé)。譬如,用戶主動上傳內(nèi)容或主動關(guān)閉個性化推薦,都會對算法推薦的精準(zhǔn)性產(chǎn)生影響,此時算法消費者與算法使用者的身份發(fā)生交融,成為算法推薦行為的共同實施者,由此可能需要對相應(yīng)的行為效果承擔(dān)責(zé)任。
簡單來說,當(dāng)算法作為一種商品出售或免費供算法消費者使用時,如果算法消費者擁有算法的直接控制權(quán),能夠基于其主觀意志決定算法的運行與停止,為算法設(shè)定運行目標(biāo),其身份將會轉(zhuǎn)化為算法使用者,當(dāng)其使用和消費算法的行為直接導(dǎo)致侵權(quán)損害發(fā)生時,同樣需要承擔(dān)一定的法律責(zé)任。
再如,一些具有識別能力與編輯能力的算法消費者獲得的是開源算法,當(dāng)其在原算法基礎(chǔ)上進行編輯時,可能會改變算法的原有運行邏輯和用途,此時算法消費者會轉(zhuǎn)變?yōu)樗惴ㄩ_發(fā)者,若侵權(quán)行為的發(fā)生與其編輯行為有關(guān),則需要承擔(dān)法律責(zé)任。
此外,還需要注意的是,人工智能算法的自學(xué)習(xí)能力,會基于算法消費者的行為或者上傳的數(shù)據(jù)不斷調(diào)整和優(yōu)化算法,此時,算法消費者其實也在參與算法的開發(fā),可視為輔助開發(fā)者。然而,此時的消費者與真正的算法開發(fā)者并不能劃等號,前者是被動地參與算法的開發(fā),無法真正參與算法的編輯過程,由此形成的算法并不包含消費者的主觀意圖。因此,即便算法因自動化學(xué)習(xí)導(dǎo)致侵權(quán)行為發(fā)生,這些被動的算法開發(fā)者并不存在主觀過錯,因而無需承擔(dān)與真正的算法開發(fā)者相同的法律責(zé)任。但是,如果算法消費者存在主觀故意的上傳虛假信息,甚至存在利用算法獲取不正當(dāng)利益,將算法消費行為演化為妨礙、破壞算法的行為時,則應(yīng)承擔(dān)相應(yīng)的侵權(quán)責(zé)任,嚴(yán)重者可能面臨刑事責(zé)任。
對于侵權(quán)責(zé)任的分配,則需要考察對侵權(quán)發(fā)生存在主觀過錯的主體數(shù)量,若侵權(quán)行為僅由一方主體所致,且該主體具有主觀過錯,則由其承擔(dān)全部的法律責(zé)任;若侵權(quán)行為由兩個或者兩個以上的主體所致,當(dāng)這些主體存在共同故意或者過失時,或者雖無共同故意、共同過失,但其侵害行為直接結(jié)合發(fā)生同一損害后果的,構(gòu)成共同侵權(quán),則需由這些主體承擔(dān)連帶責(zé)任。若兩個或兩個以上的主體沒有共同故意或者過失,但其分別實施的數(shù)個行為間接結(jié)合發(fā)生同一損害后果的,應(yīng)根據(jù)過失大小或者原因力比例,各自承擔(dān)相應(yīng)的法律責(zé)任。
第二種情形,算法推薦間接致使侵權(quán)發(fā)生。
在此類情形下,算法推薦技術(shù)和服務(wù)并非導(dǎo)致侵權(quán)損失的直接原因,僅起到間接作用。前述愛奇藝訴字節(jié)一案則屬于此類案件,字節(jié)跳動所采用的信息流推薦技術(shù),僅起到了向用戶精準(zhǔn)、高效推薦的作用,其本質(zhì)上是該公司向用戶提供網(wǎng)絡(luò)服務(wù)的輔助工具,不會直接導(dǎo)致侵權(quán)損失的發(fā)生,只會導(dǎo)致侵權(quán)結(jié)果進一步擴大。
與第一類情形類似,在第二類情形中同樣需要對算法的開發(fā)者、使用者以及消費者的法律責(zé)任進行區(qū)分認(rèn)定。與第一類情形不同的是,第二類情形中的侵權(quán)損失主要是由人為所致。以愛奇藝訴字節(jié)跳動為例,作為發(fā)布涉案侵權(quán)短視頻的消費者,其在明知或應(yīng)知愛奇藝擁有該作品獨家版權(quán)的情況下,發(fā)布涉案侵權(quán)視頻,具有一定的主觀過錯,侵害了愛奇藝的作品信息網(wǎng)絡(luò)傳播權(quán)。
值得注意的是,該案中字節(jié)跳動所使用的算法是協(xié)同過濾推薦算法,這一算法的核心思路是用戶喜好相似,則點擊行為也接近。通過內(nèi)容推薦收集到一定的用戶點擊量后,就會進行協(xié)同過濾推薦。協(xié)同過濾推薦技術(shù)不識別視頻的內(nèi)容,主要基于用戶的點擊進行計算和推薦。這意味著,瀏覽和搜索涉案侵權(quán)視頻的算法消費者,實際上也參與到了算法的使用過程中,同時具備算法使用者的身份。
然而,算法使用者的身份并不當(dāng)然導(dǎo)致這些消費者承擔(dān)法律責(zé)任,因為他們的目的僅為瀏覽而非傳播涉案侵權(quán)視頻,且其被動參與算法使用過程,協(xié)同過濾算法推薦特定涉案視頻并不屬于這些算法消費者(使用者)的主觀意愿,僅是源于協(xié)同過濾推薦算法原有設(shè)計者的初衷。故此,這些兼具算法使用者身份的消費者無需承擔(dān)法律責(zé)任,最終導(dǎo)致侵權(quán)內(nèi)容加速傳播、侵權(quán)范圍不斷擴大、侵權(quán)后果加重的責(zé)任仍要追溯到作為控制、支配算法運行、憑借算法推薦獲益的算法使用者上。
概言之,雖然該案中算法消費者和使用者對侵權(quán)損失的發(fā)生、擴大、加重共同發(fā)揮了作用,但是由于兩者在主觀意圖、過錯,應(yīng)負(fù)有的相關(guān)義務(wù),以及對算法推薦的實際控制及行為效果的獲益等方面均有不同,即對侵權(quán)損失的形成、原因及效果比例上不盡相同,故在責(zé)任認(rèn)定、分配及承擔(dān)上亦應(yīng)不同。但值得注意的是,未來對算法消費者的相應(yīng)責(zé)任應(yīng)予關(guān)注。
一般情況下,網(wǎng)絡(luò)服務(wù)提供者對用戶個體的侵權(quán)行為適用“通知-刪除”規(guī)則,因為當(dāng)用戶上傳侵權(quán)內(nèi)容后,網(wǎng)絡(luò)服務(wù)提供者只是基于構(gòu)建網(wǎng)絡(luò)環(huán)境的需要,被動地為網(wǎng)絡(luò)用戶提供信息接入、存儲、定位等技術(shù)性服務(wù),并不主動介入網(wǎng)絡(luò)用戶所提供信息的內(nèi)容,故“通知-刪除”規(guī)則已然能夠阻止個體侵權(quán)信息的傳播。
然而,在愛奇藝訴字節(jié)一案中,平臺在侵權(quán)過程中獲得了巨大流量收益和競爭優(yōu)勢,即取得競爭優(yōu)勢與流量、經(jīng)濟利益與引發(fā)更大侵權(quán)風(fēng)險并存,故從比例原則來看,理應(yīng)承擔(dān)更高的注意義務(wù),采取更加有效的措施來阻止侵權(quán)行為發(fā)生,若僅要求其承擔(dān)“通知-刪除”義務(wù),并不能達到有效制止、預(yù)防侵權(quán)行為發(fā)生的實質(zhì)效果。
“技術(shù)中立”不再是“避風(fēng)港”
愛奇藝訴字節(jié)跳動一案作為中國算法推薦侵權(quán)第一案,不僅為將來隨著算法推薦技術(shù)廣泛應(yīng)用而增多的算法推薦侵權(quán)案件提供指引,也為算法推薦服務(wù)行業(yè)作出了警示,“技術(shù)中立”已難以為算法推薦服務(wù)提供者提供“避風(fēng)港”,其須承擔(dān)更多的注意義務(wù),以規(guī)避法律風(fēng)險。
2022年1月4日,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(下稱《規(guī)定》)進一步細(xì)化了算法推薦服務(wù)者的義務(wù),旨在規(guī)范互聯(lián)網(wǎng)信息服務(wù)算法推薦活動,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益,促進互聯(lián)網(wǎng)信息服務(wù)健康發(fā)展!兑(guī)定》已于2022年3月1日起施行。
《規(guī)定》明確要求,算法推薦服務(wù)提供者應(yīng)當(dāng)加強信息安全管理,建立健全用于識別違法和不良信息的特征庫,完善入庫標(biāo)準(zhǔn)、規(guī)則和程序。發(fā)現(xiàn)未作顯著標(biāo)識的算法生成合成信息的,應(yīng)當(dāng)作出顯著標(biāo)識后,方可繼續(xù)傳輸。發(fā)現(xiàn)違法信息的,應(yīng)當(dāng)立即停止傳輸,采取消除等處置措施,防止信息擴散,保存有關(guān)記錄,并向網(wǎng)信部門和有關(guān)部門報告。
可見,與提供單純的信息存儲服務(wù)相比,算法推薦服務(wù)提供者或者說算法使用者具有更高的注意義務(wù),故其不能再單純依賴“避風(fēng)港”原則,即認(rèn)為收到侵權(quán)通知再采取必要措施即可免責(zé)。同時,在是否采取注意義務(wù)和合理措施的甄別上,不能以采取了刪除、斷開鏈接措施為由,抗辯其對侵權(quán)行為已經(jīng)盡到了合理的注意義務(wù)。這就對作為算法推薦服務(wù)提供者或使用者的平臺企業(yè)提出了更高的責(zé)任承擔(dān)、義務(wù)履行,以及風(fēng)險防范要求。
鑒于此,作為算法使用的主要主體和推薦服務(wù)的主要提供者,平臺企業(yè)應(yīng)不斷提升算法推薦合規(guī)水平和合規(guī)能力,嚴(yán)格遵守《規(guī)定》所明確的義務(wù),建立事前審查和實時完善多場景合規(guī)的立體、動態(tài)的規(guī)則體系,加強算法推薦服務(wù)版面頁面生態(tài)管理,建立完善人工干預(yù)和用戶自主選擇機制,尤其是對于在首頁首屏、熱搜、精選、榜單類、彈窗等重點環(huán)節(jié)應(yīng)當(dāng)重點把關(guān),避免侵權(quán)行為影響進一步擴大化。同時,也需加大對自動識別違法侵權(quán)內(nèi)容的算法識別技術(shù)的研發(fā)。
總體而言,平臺企業(yè)在享受算法技術(shù)為企業(yè)帶來巨大紅利的同時,也需承擔(dān)相應(yīng)的義務(wù)與責(zé)任,提升防范算法侵權(quán)風(fēng)險的技術(shù)水平和治理能力。
作者為南開大學(xué)競爭法研究中心主任、法學(xué)院教授,中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員