形成監管、平台、用戶聯動共治
本報記者 金 歆
2025年11月28日08:29 來源:人民網-人民日報
222
點擊播報本文,約
人工智能(AI)、深度合成等新技術快速發展,對加快形成新質生產力、實現經濟社會高質量發展起到關鍵作用,也為人們的生活帶來便利。然而,部分不法分子利用AI技術傳播虛假信息,破壞網絡生態,造成不良影響。
多管齊下防范對AI技術的濫用,促進人工智能健康發展,有利於維護社會共同利益。《人工智能生成合成內容標識辦法》通過標識提醒用戶辨別虛假信息,明確相關服務主體的標識責任義務,規范制作、傳播各環節標識行為。
持續打擊灰色產業鏈
一天,林某躺在床上刷著短視頻,一個名為“AI理財小助手”的賬號出現在屏幕上。林某在其主頁裡瀏覽了一番,發現賬號粉絲數顯示“8.7萬”,但最新視頻的點贊數還不到三位數。
“公式化命名、同質化內容、異常互動數據,這些是AI起號的特征。”某短視頻平台內容安全部門負責人劉珊介紹。AI起號成為一些自媒體的牟利手段,利用AI生成發布吸引眼球的內容,在短時間內吸引大量粉絲,之后通過帶貨或者直接轉讓賬號變現。
“利用AI選擇漲粉領域,打造能夠吸粉的人設,賬號內容也可以通過AI生成。”售賣“AI起號課程”的“培訓師”楊某說。一方面不受做自媒體需要的專業知識、制作能力限制﹔另一方面,可以幫助精准吸粉,並保持“人設一致”。此外,還能同時操作多個賬號,形成矩陣,互相引流,合作推廣。
“情緒急救:人生低谷期如何防止情緒崩盤”“深度療愈:看見潛意識中的自己”……楊某向記者展示了一個剛開號不久的“心理學博主”的賬號頁面。每個標題看上去專業感十足,又直擊特定群體心理需求。“其實文案全靠AI生成。”楊某說。
虛假的人設、不嚴謹的內容、夸張的畫面,如此起號,對網絡空間環境危害不小。
如何打擊利用AI起號的行為?
“AI起號的主要危害在於偽造,治理關鍵也在於此。”北京郵電大學互聯網治理與法律研究中心執行主任謝永江認為,除了強化執法打擊外,平台也應提高對深度偽造內容的檢測精度,明確對AI造假起號等違規行為的界定和處罰標准等。
“起號—轉型—轉賣”的灰色產業鏈,是AI起號相較其他AI偽造現象的獨有特點。
“根據反電信網絡詐騙法規定,任何單位和個人不得非法買賣、出租、出借互聯網賬號。”某電商平台安全運營負責人表示,各個電商平台均已禁止賬號轉賣。但有一些賬號交易還是通過社交媒體發布,借助“隱晦暗語”等私下進行。
“賣號不僅是AI起號的變現途徑,通常還伴隨詐騙等違法犯罪行為。”北京師范大學法學院教授梁迎修建議,監管部門督促平台履行治理責任,建立違規賬號“黑名單”,對高頻、反復觸犯平台規則的賬號主體加大處罰力度,禁止違規賬號進行帶貨、賣課等商業活動,持續開展AI造假起號整治,切斷不法分子獲利渠道。
有效攔截仿冒營銷內容
“今天有事請大家幫忙……先拿出300單老家的土雞蛋給大家發福利!”不久前,在某短視頻平台上,一名廣受喜愛的運動員“推銷老家農產品”,彈幕和評論裡全是“支持”“為偶像沖銷量”的文字。其實,這些帶貨視頻全都是利用AI仿冒的,其中一個商品鏈接顯示已售出4.7萬件。
據某短視頻平台負責人介紹,冒充社會知名人士的情況主要有幾種:利用AI技術生成社會知名人士圖片,用作賬號頭像,仿冒假冒他人﹔利用AI技術生成社會知名人士視頻且不做標注﹔仿冒假冒社會名人賬號和生成內容后,博取關注,通過開設櫥窗售貨等方式不當獲利。
如何治理這一亂象?
“AI仿冒名人,歸根到底還是利用AI造假。民法典對肖像權和聲音權利的規定以及其他相關法規,都已作出相關保護。《人工智能生成合成內容標識辦法》對人工智能生成合成內容標識提出要求。”梁迎修認為,關鍵還是要嚴格執法,公正司法。
“從平台角度來說,除了壓實自身責任,還要與用戶聯動,強化共治。”騰訊相關負責人表示,用戶發現未標注AI生成標識的短視頻時,可提交相關材料進行投訴。經平台審核通過的補充說明將以浮動標注形式展現在原視頻頁面。
抖音相關負責人表示,平台已為社會知名人士建立肖像保護庫,同時努力對仿冒營銷內容進行有效攔截。
多方協作建立辟謠機制
“突發爆炸!火光沖天!傷亡不明!”一則“視頻新聞”在網上流傳,畫面中火光沖天,引發當地群眾恐慌。后來公安機關調查發現,這是賬號所屬機構使用AI批量生成的虛假新聞。該機構一天最多能生成4000至7000篇假新聞,每天收入在1萬元以上。
為何AI制作的虛假新聞在網絡上屢禁不止?
某新聞聚合平台內容安全負責人認為,一些平台的反虛假信息機制效率有待提升,某些賬戶在平台發布AI生成圖片視頻后,“疑似AI技術生成”的提示語數小時后才出現,未能及時提醒風險。
中南大學法學院副院長楊清望認為,平台應根據權威信息立即對相關謠言採取清理、標簽標記等措施,並處置違規賬號。
近年來,相關法律法規不斷健全完善,向AI使用者和平台管理者亮明了法律底線。北京師范大學新聞傳播學院教授許小可建議,針對生成和傳播虛假信息的高風險領域,可以通過司法解釋等形式明確各方義務邊界,進一步制定科學合理的AI侵權責任認定指導標准。
在以技術對抗虛假新聞方面,各地監管部門也在不斷探索。“我們與科研機構、企業密切合作,進一步提高對惡意‘深度偽造’信息的監測預警和快速識別能力。通過與相關部門合作建立網絡謠言巡查監測、核查反饋、會商研判、線索移送、打擊處置的閉環機制,對AI合成的虛假信息第一時間依法依規處理。”遼寧沈陽市公安網絡安全保衛部門負責人說。
若因虛假消息遭受損失,責任誰來承擔?浙江師范大學特聘教授喬巴生認為,內容制作方若涉嫌欺詐,應承擔侵權責任﹔若平台未盡審核義務,需依法承擔連帶賠償責任。此外,用戶也應提升對虛假信息的鑒別能力。
某短視頻平台負責人建議,首先,警惕內容特征,如AI生成文本常出現邏輯斷層、情感表達單一或事實細節模糊﹔視頻可能存在面部表情不自然、光影異常或聲音失真。其次,核查信息來源,優先選擇權威媒體或官方渠道。騰訊相關負責人建議,在一些AI生成內容明顯缺乏可信度、具有信息誤導等特征時,用戶可通過評論區互動等形式相互提醒,並通過投訴等形式及時反饋到平台。
監管、平台與用戶聯動共治,通過技術檢測、投訴機制和法律追責,共同筑牢誠信防線。
《 人民日報 》( 2025年11月28日 16 版)

微信“掃一掃”添加“學習大國”