從傳統(tǒng)法律概念上講,網絡暴力并非一個法律術語,而是伴隨著社交媒體的興起而產生的一種網絡傳播現象。網絡暴力的本質特征在于其違法性,不僅侵犯了不特定個體的合法權益,還損害到網絡傳播秩序和公共利益。為此,最高人民法院、最高人民檢察院和公安部專門出臺了相關司法解釋,對其進行最為嚴格的治理;同時,網信管理部門近年來也陸續(xù)出臺了相關治理措施。在實踐中,網絡暴力治理遵循特定的法律邏輯,并隨著網絡技術和應用的發(fā)展而逐步演進。本文將根據網絡暴力治理的邏輯關系,探討更具針對性的治理建議。
我國尚未在法律層面出臺“反網絡暴力法”,從民事、行政和刑事現行規(guī)定看,網絡暴力治理分成不同的體系,其中大部分規(guī)定著重強調的是責任承擔的劃分,缺少對技術因素的充分考慮。同時,網絡暴力治理規(guī)定中對技術的影響尚未得到應有的彰顯,導致治理更偏向于事后追責,忽略了更為重要的事先預防。
在法律適用領域,涉及網絡暴力的相關法律法規(guī)主要包括三大體系。
首先,以《民法典》及其司法解釋為代表的民事法律體系,主要從權利人人格權保護、禁令制度、侵權責任和維權訴訟程序角度適用。民事法律體系是保障網民權利的基礎,既是網民進行非訴維權和訴訟維權的民事法律請求權基礎,也是依法提起人格權禁令以保護自身合法權益的基礎。
其次,以《刑法》及其司法解釋構建的刑事法律體系,網絡暴力行為主要涉及以下幾個罪名。第一,誹謗侮辱罪名。該類罪名一般以自訴為原則,公訴為例外。但兩高一部的司法解釋對網絡暴力涉及公共利益和嚴重危害社會秩序做出了更為明確的規(guī)定,使得涉及網絡暴力行為公訴的可能性相較之前大幅增加。第二,侵犯公民個人信息相關罪名。該罪名不僅涉及侵害個人信息犯罪,還可能會涉及非法經營和拒不履行信息網絡安全管理義務等其他罪名。第三,尋釁滋事罪名。該罪名未直接出現在兩高一部的專項司法解釋中,但在之前誹謗罪的司法解釋中已有明確規(guī)定,對于明知虛假信息仍繼續(xù)傳播的行為人,情節(jié)嚴重的可以適用該罪名。值得注意的是,兩高一部的司法解釋增加了“非法利用信息網絡罪”,該罪名與尋釁滋事和非法經營行為較為接近,更側重于那些借機蹭炒熱點的非法營銷行為。第四,拒不履行信息網絡安全管理義務罪。該罪名適用犯罪主體是網絡信息服務提供者,適用前提是拒不履行法定職責而導致損害結果的擴大。該罪名屬于網絡主體責任在刑事法律體系中的延伸,也是網絡安全法律體系在網絡暴力責任認定中的體現。
最后,以網絡安全法律體系為代表的行政責任法律體系,主要包括中央網信辦、公安部、工信部、廣電總局和文旅部出臺的相關網絡信息安全專項規(guī)定。其中,2024 年 8 月 1 日實施的《網絡暴力信息治理規(guī)定》是最典型的專項立法,該規(guī)定主要從信息治理、涉案賬號處置和平臺責任承擔等角度做出規(guī)定。該規(guī)定的法律責任承擔屬于轉致性規(guī)定,責任承擔落腳點在《網絡安全法》《個人信息保護法》等其他法律規(guī)定上。
從民事、行政和刑事法律體系來看,涉及規(guī)制網絡暴力信息、行為和責任的法律、法規(guī)數量眾多,雖然相互交織,表面上看似已經做到了面面俱到,但實質性問題仍未得到解決。
首先,現行具有強制力的立法往往偏向于事后責任追責,缺乏未雨綢繆的預防力。這三種責任的承擔前提都是在網絡暴力結果發(fā)生之后。然而,網絡暴力與其他違法違規(guī)行為不同,一旦發(fā)生,損害結果很難通過事后責任追償進行彌補。
其次,具有預防效果的人格權禁令適用非常困難。《民法典》第 997 條首次規(guī)定人格權禁令,并在兩高一部的司法解釋中再次引用重申。然而,在實踐中,人格權禁令實施成功的案例非常少。即便可以成功獲得禁令,往往也是在網絡暴力結果出現之后,或者在訴前和訴中之時,此時的效果僅在于避免損害結果的擴大,對尚未發(fā)生的預警效果并不理想。
最后,網絡暴力治理是一個綜合體系,需要包括平臺、網民、司法機關、行業(yè)協會和相關機關的全面參與。目前,在尚未出臺統(tǒng)一“反網絡暴力法”的情況下,各個立法機構根據各自的職能范圍進行立法,缺乏統(tǒng)一協調,導致法律適用上存在大量交叉,進而造成責任混同和權能重復的問題。
技術法治化和法治技術化構成了網絡時代法治革新的雙重維度,是推動法治與時俱進的必由之路。技術法治化聚焦于新技術出現對傳統(tǒng)立法、司法及執(zhí)法框架的沖擊與重塑,而新的法治目的則在于將技術規(guī)則轉化成法治手段,這被形象地比喻為“數字即法律”。反過來,有了新的立法后,在平臺、網民等落實過程中,需要以技術的方式執(zhí)行立法目的,只有將技術與法治充分結合,才能避免法治被技術架空,這就是所謂的“法律即數字”。
網絡暴力的治理過程可劃分為兩個階段,其起點便是技術法治化的深入實施。此階段聚焦于針對濫用網絡傳播、數字技術、算法推薦等侵害他人權益的行為,進行專門立法。隨著新立法的確立,治理進程邁入第二階段,即執(zhí)法和司法層面的嚴格執(zhí)行。在這一階段,所有相關主體,包括網絡平臺在內,在執(zhí)行新法的過程中,需要將立法目的與技術相結合,在算法、數據等技術角度,增加人工智能審核和預警監(jiān)管審核制度,以避免立法目的被技術“隔離”。
從技術層面分析,至少在以下幾個部分會對網絡暴力信息和行為的產生決定性影響。
在當今數字化時代,熱搜、熱榜及熱詞幾乎無一不伴隨著或多或少的網絡暴力,而這些現象背后,一個不容忽視的決定性因素便是算法推薦技術。從邏輯層面剖析,算法推薦依托于人工智能學習構建的龐大模型,通過精密計算從數據層面將信息與受眾偏好相匹配。然而,正是這一技術特性,使得網絡暴力信息得以迅速擴散并加劇其影響力,尤其是那些造成嚴重后果的網絡暴力事件,往往離不開算法的推波助瀾。
算法推薦對網絡暴力的影響可歸納為兩個主要方面:一是對信息傳播推送機制及由此產生的熱度流量的影響。這種影響具有顯著的社會性效果,可能導致事實上的“社會性死亡”結果。二是對當事人自身的影響,包括對其關注焦點、偏好及信息選擇權的干預。算法可能將所有與網絡暴力相關的信息均推送給當事人。這種集中推送對當事人的心理和認知造成了巨大沖擊。在發(fā)生網絡暴力的特殊時段,這種推送模式極易導致當事人對網絡環(huán)境的誤判,進而對其自身判斷和社會性后果的評估產生誤導,最終可能引發(fā)不可估量的嚴重后果。因此,亟需建立一種能夠及時識別并熔斷網絡暴力行為和信息傳播的特殊機制,避免權利人承擔難以估量的不利后果。
從世界范圍來看,包括美國和歐盟在內的多個國家和地區(qū)都相繼對人工智能進行了立法,特別是在技術倫理和安全角度進行了規(guī)制。我國先后出臺了針對深度合成和生成式人工智能領域的相關專項規(guī)定,并進一步通過發(fā)布國家標準等規(guī)范性文件,為這一新興領域的健康發(fā)展提供了更為詳盡的指導原則。這一系列舉措標志著人工智能正式邁入法治化管理時代,原則上已初步構建起法治邏輯體系。
聚焦于網絡暴力治理這一特定領域,人工智能技術的運用主要包括以下幾個方面:第一,深度合成和生成式人工智能的信息標記、核實、監(jiān)管和責任。網絡暴力信息中存在大量利用人工智能技術進行深度偽造、深度合成或自動生成的文字、音視頻及圖片信息。這些信息的發(fā)布、審核和標記責任,依法應由生成平臺、發(fā)布平臺和發(fā)布者、轉發(fā)者承擔。第二,在違法違規(guī)檢測過程中,人工智能的模型、數據學習以及機理制度需要持續(xù)的迭代學習。在實踐中,無論是網絡信息內容的發(fā)布審核、推薦審核還是違規(guī)舉報審核,人工智能均是底層基礎邏輯,即所有信息首先由人工智能進行核準,僅在需要人工介入時才會轉交人工處理。因此,為應對不斷變化的審核需求,人工智能必須進行不斷的迭代更新、學習訓練和大模型的發(fā)展。第三,算法推薦的底層邏輯是人工智能大模型按照用戶偏好進行精準推薦的技術邏輯。決定某條信息能否被推送到更大的流量池,以及某條信息是否應該被受眾看到,均是以人工智能為基礎的算法推薦決定判定。
可見,在治理網絡暴力信息和行為的過程中,核心問題集中在平臺服務提供者所應用的人工智能模型是否切實有效。為應對網絡信息和行為可能產生的不利后果,人工智能在深度合成和生成式內容生產、傳播以及算法推薦和違規(guī)舉報審核等領域的應用,應以現行法律為基礎,同時符合傳播倫理和技術倫理的要求。
網絡暴力信息和行為產生的基礎在于網絡賬號的表達行為。根據《網絡安全法》等相關法律法規(guī),網絡真實身份認證制度已經實施多年,但在實踐中,仍存在大量違規(guī)批量賬戶,如“水軍”和傳播矩陣等行為。一些網絡公關公司利用多渠道網絡(MCN)機構,通過控制大量賬號在同一期間發(fā)布同質化內容,從而產生巨大流量,借此影響算法推薦機制,觸發(fā)熱搜、熱榜和熱詞,進而引發(fā)網絡暴力事件。
在司法實踐中,多次出現未履行網絡真實身份認證的賬號侵害他人合法權益的情況,進入司法程序后卻無法找到現實侵權人的對應關系。因此,平臺應在技術上強化真實身份認證制度,杜絕批量注冊賬號、“傀儡賬號”和“僵尸賬號”等違規(guī)賬號注冊行為。同時,應嚴格按照中央網信辦出臺的《關于加強自媒體管理的通知》相關規(guī)定,落實“一人一號,一企兩號”的基本規(guī)定,確保每個賬號都有明確的責任主體。
在賬號認證過程中,按照現行法律法規(guī)規(guī)定,除了需要提供真實身份信息外,還應標識地理位置信息、所屬 MCN 機構信息以及信用等級信息等。對于依法需要資質認定的賬號,如金融、司法、教育、醫(yī)療和新聞機構等,還需審核相關資質證明。此外,對于具有較大社會影響力的大V賬號和營銷號等,應依法、依規(guī)、依約推進前臺實名制落實,確保表達者承擔主體責任和法律義務。
首先,制定“反網絡暴力法”是有效協調法治與技術邏輯的關鍵。目前,涉及網絡暴力治理的專項立法法律位階較低,缺乏跨部門的可協調性。在法治技術化的過程中,各部門需要按照職權責任進行監(jiān)管,同時要求網絡平臺逐一落實相關措施。以《網絡暴力信息治理規(guī)定》為例,預警性指標體系和信用聯合懲戒機制的實施,需要相關標準和信用監(jiān)管部門配合。預警機制和模型至少需要工信管理部門、網信管理部門和標準制定部門介入,而信用聯合懲戒同樣需要跨部門的合作。因此,立法的法律位階應以法律為宜,條例和規(guī)章法律位階難以起到跨部門協調效果。
其次,技術治理是網絡暴力治理的核心抓手,與法治互為表里。法治通過立法明確技術倫理與標準,而技術治理則按照法律規(guī)定展現法治之目的。例如,在“兩高一部”的網絡暴力治理司法解釋中,平臺需要履行網絡信息安全管理者的責任,這種責任在司法解釋中被定義為事后責任。然而,網絡暴力治理需要將事后責任前移至預防責任,這需要立法將責任法轉化為義務法。刑事責任規(guī)定了不履行責任法的法律后果,而義務法則是在未出現損害后果時,權利人也可以行使排除妨害的權利。治理網絡暴力的核心在于避免這種違法犯罪情況的發(fā)生,事后追責只是治理環(huán)節(jié)中的一個部分,不能僅以刑事法律的震懾效果代替技術實現效果。因此,在網絡暴力治理領域中的法治技術化,就是將相關成文法和科技倫理轉化應用于算法推薦、人工智能和賬號審核責任之中。
再次,維權措施的技術化實踐應考慮時限性。按照現有的法治維權邏輯分為按照用戶與平臺協議的約定維權、按照《民法典》為基礎的人格權禁令和通知刪除規(guī)則、按照《網絡安全法》等強制法的違法舉報和按照專項法律規(guī)定的報告制度。然而,在實踐中,上述制度均需要大量時間和人工成本,特別是民法體系中的通知刪除,仍需通知、反通知、轉通知等復雜程序,人格權禁令更需當事人向法院提出申請。即便是按照用戶與平臺約定的在線維權,往往也需要一個工作日或數小時才能完成。鑒于網絡信息傳播速度極快,熱搜存在機制也僅存在數小時,等到維權行動產生實際效果時,損害已經無法挽回。因此,在落實舉報效果方面,網絡平臺應參照中央網信辦出臺的《網站平臺受理處置涉企網絡侵權信息舉報工作規(guī)范》中規(guī)定的“限時加私”技術措施。“限時加私”即在無法判斷舉報真實性,或司法機關和監(jiān)管部門未能及時介入的情況下,根據網絡暴力客觀要求的時限性要求,對相關信息進行技術處理,在一定期限內不予公開。盡管這項技術舉措目前并不屬于法定措施,但可以考慮網絡暴力的時限性和緊迫性,在未來出臺“反網絡暴力法”時予以明確。
最后,應強化基于大數據的預警處理機制。現行網絡暴力治理的專項相關法律法規(guī)均規(guī)定了預警機制,但在實踐中的應用應考慮預警機制與信息發(fā)布、算法推薦、私信聊天、設置話題以及受理舉報等技術相結合。目前,預警級別尚未有國家強制性或推薦性標準,結合實踐操作,預警機制至少應分為兩個級別。當出現集中私信、特定話題討論及高頻提醒某人時,預警機制應判斷是否涉及網絡暴力信息,并應及時通知權利人維權的渠道和措施。當網絡暴力信息初步形成時,結合權利人的維權措施,預警機制應熔斷相關信息發(fā)布與傳播,屏蔽相關話題、熱詞、熱榜和熱搜,并暫停相關群體的私信功能等。預警機制應從立法層面結合技術,落實到實踐層面,從低到高,對應技術和應急處理措施。
(本文刊登于《中國信息安全》雜志2024年第9期)