智能媒體的倫理風險與規制路徑
時間:2022-02-18 04:22:33
導語:智能媒體的倫理風險與規制路徑一文來源于網友上傳,不代表本站觀點,若需要原創文章可咨詢客服老師,歡迎參考。
人工智能技術的快速發展,伴隨著一系列的政策、法律、倫理方面的挑戰。智能媒體既存在人工智能的共性問題,也面臨智能媒體的新問題,引發新聞傳播學界和業界高度關注。本文從倫理視角,梳理我國智能媒體的相關倫理規范,審視其存在的倫理風險,由此提出智能媒體倫理規制路徑。
一、智能媒體倫理規范問題的提出
人工智能技術的應用推動了智能媒體的發展。目前,國內智能媒體主要有兩類:傳統媒體轉型的智能媒體,如澎湃新聞、界面新聞等;互聯網企業所屬的智能媒體,如今日頭條、騰訊新聞等。我國媒體產業的發展經歷了傳統媒體、互聯網和數字媒體、智能媒體三個階段,不同階段媒體產業的倫理問題呈現迭代遞進的特點。對于傳統媒體而言,媒體從業人員在生產經營活動的整個過程中起著主導作用,傳統媒體的倫理規范主要表現為從業人員的倫理規范,即對信息采集、內容生產、內容傳播等環節中所有媒體從業人員的倫理約束。我國現有的有關傳媒行業從業人員的倫理規范文件如《中國報業自律公約》《中國新聞工作者職業道德準則》等,強調媒體從業人員應恪守道德自律,維護新聞報道的客觀性和真實性。互聯網和數字媒體的出現豐富了信息生產和傳播的載體,打破了傳統媒體的職業邊界及信息流通機制,模糊了新聞信息與廣告信息之間的界限,對媒體產業的倫理規范提出了挑戰。智能媒體時代,媒體產業生產流程進一步重構,人工智能技術及設備成為信息采集、內容生產和內容傳播的重要手段。在人工智能倫理規范方面,我國已的相關文件主要有《人工智能北京共識》《新一代人工智能治理原則——發展負責任的人工智能》《人工智能安全發展上海倡議》等,旨在規范人工智能的使用,以期實現人工智能的自律、善治、有序。目前,人工智能技術已經融入媒體產業生產經營活動的各個層面,媒體產業朝著技術與內容并重的方向加速變革。人工智能技術重構了媒體生產的整個流程,深入滲透到用戶識別、信息采集、內容生產、內容傳播等各個關鍵節點,在有效提高媒體產業生產效率和提升新聞信息精準傳播能力的同時,也帶來了新的倫理風險。
二、智能媒體的倫理失范風險
(一)數據不當收集與使用問題。隱私權是公民的一項基本權利,是指公民享有的私人生活安寧與私人信息依法受到保護,不被他人非法侵擾、知悉、收集、利用和公開等的一種人格權。目前,人工智能、大數據、云計算等算法科技使得網絡用戶的隱私空間被擠占。從倫理層面來看,用戶有權利在網絡空間中匿名,但是機器算法是冰冷的,它會借助社會公共利益之名采集用戶個人信息并用于商業用途,這就產生了隱私權與公共利益的沖突。人工智能技術帶來媒體行業內容呈現方式的變革,5G作為新一代移動互聯網技術,其所具有的高速度、低功耗、低時延、泛在性、萬物互聯和重構安全等特性,將使媒體產業由以文字、圖片和影像為主的“平面信息”傳播,向以VR、AR和全景信息傳播為代表的三維“立體信息”傳播轉變,這意味著媒體傳播的信息會越來越實時化、在場化,用戶隱私侵犯也隨之變得更容易、更隱蔽。為了獲得智能媒體的信息服務,用戶往往不得不選擇接受隱私條款,如同意提供個人身份信息、允許平臺獲取位置定位等,而且用戶無法獲知個人信息的使用范圍,也無法取消授權或減少授權范圍、授權期限。一些互聯網平臺和智能媒體經常過度收集一些非必要的用戶信息,并永久性儲存,這無疑加大了信息泄露和隱私侵犯的風險。(二)機器流量與數據欺詐問題?;ヂ摼W流量是指在一定時間內對某網址的訪問量,能夠直觀地反映用戶對網站內容的喜愛程度,已經成為衡量網絡文化產品傳播效果的重要指標,也是互聯網廣告投放的重要考量因素。大數據時代,隨著智能媒體的快速發展,機器流量的學習能力越來越強,在行為表現上越來越趨近于真正的用戶。例如,網絡安全服務商DistilNetworks的《2020惡意機器流量報告》指出,2019年惡意機器流量占比24.1%,惡意機器流量一直潛伏在真實的用戶流量中,伺機搶占網絡資源,牟取暴利[1]。也就是說,許多網站上的訪問者不是用戶,而是自動執行的機器程序。為實現某些商業利益操縱機器流量進行刷量,以此賺取廣告主的廣告費,這種行為實為數據欺詐。國際權威研究與咨詢公司Forrester于2018年的《移動欺詐報告:營銷人員的隱藏威脅》也表明,營銷人員承認他們數據預算的很大一部分由于廣告欺詐而浪費了。數據欺詐是一種非法的和有違社會道德的欺詐行為。當前,由于信息不對稱和數據可見性的缺乏,移動廣告欺詐問題愈加嚴重,破壞了智能媒體生態。機器流量刷量所帶來的只是虛假的繁榮,從短期利益來看,流量造假是對廣告主的欺詐,造成廣告主營銷費用的浪費,加劇廣告主對智能媒體行業的不信任;從長遠角度考慮,機器流量和數據欺詐將會阻礙智能媒體產業發展,侵蝕智能媒體產業鏈上的各方利益。(三)精準推送與信息繭房問題。智能媒體的精準新聞信息推送減少了用戶在選擇新聞信息時的冗余,但基于用戶興趣的新聞推薦本質上會不斷強化用戶固有的立場和觀點,讓用戶困于同質化的信息繭房之中。而長期接觸被篩選的精準信息,會導致“回聲室效應”,即用戶只關注自己感興趣的領域,對其他方面卻一無所知,這種現象會導致用戶喪失批判能力,觀點偏激,對事物不能公正理智地作出判斷。精準推送和信息繭房會導致知識鴻溝的進一步擴大?!爸獪稀奔僬f的提出者美國傳播學者蒂奇諾認為,假如輸入社會體系的大眾媒介信息增加,社會中擁有較高社會經濟地位的人會比社會經濟地位較低的人更快地獲取到信息,兩個不同地位的團體之間的差距可能會越來越大,而非縮小。隨著互聯網媒體的發展,用戶擁有更大的信息選擇權,但個性化的新聞精準推送,會導致用戶主動選擇將自己困在信息繭房之中,不去拓寬自己的知識面,反而會加劇與其他群體的知識鴻溝。此外,在公共領域中,處于繭房中的人其觀點是偏頗的,如果再與其他繭房中的人產生共鳴,會加劇自己的偏見,從而造成群體極化。社會協商的基礎是社會公眾具有一定程度的共同經驗,在這種共識下人與人才能相互溝通與了解,而在精準推送的算法時代,信息繭房導致社會協商共同經驗的缺乏,最終可能會削弱社會黏性。(四)網絡洗稿侵犯知識產權問題。網絡洗稿是指通過篡改、刪減、調換來重現原創內容的獨創思想,與傳統的著作權侵權中的抄襲和剽竊相對應。智能媒體時代,網絡洗稿變得更為智能,有些互聯網媒體企業甚至開發出專業的洗稿軟件,只要將原創內容放入其中即可一鍵洗稿。借助大數據技術對全網的爆款文章進行抓取,借用人工智能技術對文章進行同義詞替換、語句重置等操作,短時間就能生產出一篇新的爆款文章。由于在形式上很難判定是否構成侵權,原創作者維權困難。網絡洗稿是一種贏得用戶注意力,獲取互聯網流量的便捷途徑。從短期利益來看,互聯網媒體平臺的發展依賴于自媒體的繁榮,嚴厲打擊網絡洗稿,可能導致平臺用戶的流失;但從長遠考慮,網絡洗稿破壞了內容創作生態,打擊了作者的原創積極性,影響平臺的健康發展和自媒體生態。因此,對網絡洗稿行為必須加大治理力度。
三、智能媒體的倫理規制路徑
(一)基于用戶數據授權的合理使用。在用戶網絡行為數據化的趨勢下,保護用戶的數據隱私成為智能媒體時代的難題。為了更好地為用戶服務,實現更高的商業價值,智能媒體會不斷深入挖掘用戶的行為數據,從而實現精細的用戶畫像。對于智能媒體而言,用戶數據越精準,數據價值就越高。但是并非所有類型的個人數據都能被用于商業。智能媒體時代,用戶數據要分級保護,涉及用戶高度隱私的敏感數據需要特殊的保護[2]。在1980年經濟與貿易合作組織(OECD)的《隱私保護與個人數據跨國流通指南》(簡稱OECD準則)中,“敏感數據”這一概念首次提出,代指所有值得被保護的個人數據[3]。2018年5月25日,歐盟正式生效的《通用數據保護條例》(簡稱GDPR)界定的敏感數據類型為“種族或民族出身,政治觀點,宗教或哲學信仰,工會成員身份,涉及健康、性生活或性取向的數據,基因數據,經處理可識別特定個人的生物識別數據”[4]。在我國,2020年10月1日實施的《信息安全技術個人信息安全規范》對個人敏感信息的界定:“一旦泄露、非法提供或濫用可能危害人身和財產安全,極易導致個人名譽、身心健康受到損害或歧視性待遇等的個人信息。通常情況下,14歲以下(含)兒童的個人信息和涉及自然人隱私的信息屬于個人敏感信息。”個人敏感信息的類型包括個人財產信息、個人健康生理信息、個人生物識別信息、個人身份信息、網絡身份標識信息和其他信息[5]?!缎畔踩夹g個人信息安全規范》明確規定,在使用個人敏感信息時應取得個人信息主體的明示同意,并確保個人信息主體的明示同意是其在完全知情的基礎上自愿給出的、具體的、清晰明確的愿望表示。通過主動提供或自動采集方式收集個人敏感信息前應做到以下兩點:一是向個人信息主體告知所提供產品或服務的核心業務功能及所必須要收集的個人敏感信息,并明確告知拒絕提供或拒絕同意將帶來的影響。應允許個人信息主體選擇是否提供或同意自動采集。二是產品或服務如提供其他附加功能需要收集個人敏感信息時,收集前應向個人信息主體逐一說明個人敏感信息為完成何種附加功能所必需,并允許個人信息主體逐項選擇是否提供或同意自動采集個人敏感信息。當個人信息主體拒絕時,可不提供相應的附加功能,但不應以此為理由停止提供核心業務功能,并應保障相應的服務質量[6]。智能媒體數據使用的倫理規范應建立在用戶授權的基礎之上,在授權范圍內對數據進行合理的使用。(二)第三方流量數據監測與行業規范。人工智能技術使得數據造假的風險加大,也增加了治理的難度。傳統媒體時代,內容質量是媒體關注的核心,也是最重要的競爭力;智能媒體時代,智能媒體平臺的流量機制和競價機制成為贏得用戶和市場的重要因素,一些智能媒體企業為了獲得經濟效益制造虛假數據,廣告主作為數據欺詐的直接受害方,也會加劇對智能媒體企業的不信任,不利于智能媒體產業的可持續發展。從長遠發展角度來看,對于智能媒體平臺及其利益相關方進行第三方數據監測并形成行之有效的行業規范,成為智能媒體產業發展的保障。一是引入第三方監測平臺監測流量。與傳統媒體相比,依靠大數據成長起來的互聯網媒體企業具有技術優勢、用戶優勢等資源優勢,互聯網媒體企業既扮演廣告投放平臺的角色,又扮演數據監測、流量評估的角色,在經濟利益的驅動下有可能會進行數據造假。媒體和廣告行業協會組織、大型廣告主通過引入獨立、公正的第三方監測平臺對流量數據進行監測,并作為廣告主、廣告公司的決策依據,能有效規避造假這一問題。第三方監測平臺專注于流量監測,相比于智能媒體本身更具技術優勢和行業公信力,能夠更加精準地排查異常流量,并且打通和整合各個渠道的數據,為廣告主、廣告公司提供更加精準的監測數據。目前存在的主要問題是,第三方監測平臺發展尚未成熟,國內一些強勢互聯網企業,例如阿里巴巴、騰訊、百度等,會以保護商業機密為由排斥第三方監測平臺進行數據監測,從而對推進第三方監測造成障礙。針對這一問題,可以依靠行業協會和大型廣告主的力量,建立制度化的監測機制,推進互聯網流量第三方監測的實施。二是制定相關的行業規范。市場監管部門和行業協會組織需要發揮其功能,形成一套操作性強、行之有效的行業規范。在數字營銷領域,一些第三方監測平臺率先了與虛假流量相關的行業報告和標準規范。例如,精碩科技2016年了《廣告反欺詐白皮書》,對機器人虛假流量、視頻類虛假流量及效果類虛假流量等進行解讀。同年,品友互動聯合群邑集團旗下的數字媒體平臺共同了《數字廣告反作弊最佳實踐白皮書》,提出利用先進程序化技術防止流量作弊。此外,相關行業協會也制定了行業標準,監督廣告流量造假行為,如中國無線營銷聯盟2017年的《移動互聯網廣告無效流量驗證標準V.1.0》和《移動互聯網廣告可見性驗證標準V.1.0》兩大標準。從目前來看,智能媒體行業有關規范數據造假行為的相關制度和標準比較少,且約束力不夠強,治理智能媒體產業鏈中頻發的數據造假問題,還需要市場各參與主體長時間、全鏈條的合作。智能媒體平臺需要從自身長遠利益出發,促進行業規范的制定和落實,塑造誠實可信的平臺形象。(三)公共信息與個性化信息結合推送。針對人工智能技術對用戶進行精準推送可能帶來的信息繭房問題,智能媒體新聞信息推送需要遵循公共信息與個性化信息相結合的原則。個性化推送的目的是貼合用戶興趣愛好,達到吸引用戶注意力、實現商業價值的目的,其往往通過用戶在社交媒體、搜索引擎等網絡媒體中瀏覽、點擊、分享的信息建立用戶模型。而這些信息是私人化的,與個人的認知、情緒、態度息息相關,算法可以很好地識別并以此為依據判斷該用戶的信息接收偏好。與之相對的是客觀、冷靜、具有公共價值的公共信息,或許它們無法為智能媒體帶來明顯的流量提升,但這些信息對于用戶整體環境的認知建構具有重要意義,因此,智能媒體并不能以無法獲得高點擊量為由拒絕公共信息內容的推送。對于智能媒體而言,需要保證具有公共價值和專業水準的公共信息的有效傳播,保證用戶能夠有機會接受多方面、多樣化的內容。對于推薦分發機制而言,需要智能媒體的推薦算法向具有公共價值的信息傾斜,保證用戶在看到個性化信息推薦的同時接收相當比例的公共信息,讓那些關乎個體以及社會長遠利益的公共信息能夠打破各種阻礙,暢通地到達每個個體[7]。(四)加強原創內容知識產權保護和自律。事實上,人工智能技術既可用于網絡洗稿,也可用于原創內容知識產權保護。早在2007年,YouTube就逐步投入巨資建立起ContentID版權系統,協助版權所有者識別平臺上的侵權行為,并讓版權所有者在平臺上能夠選擇直接獲取收益或是直接刪除內容。2017年,阿里巴巴文化娛樂集團聯合阿里巴巴達摩院共同鯨觀全鏈路數字版權服務平臺,該平臺通過搭載達摩院數據科學技術研究院的人工智能技術,可實現對視頻的智能編輯,讓其在全網范圍可追溯。該平臺在處理視頻時,會對視頻內容進行各個維度的分析,并為之打上兩萬余種標簽,同時利用知識圖譜對標簽進行多維度編目。這樣一來,視頻內容就像擁有了“指紋”,易于搜索和識別,使得盜版內容毫無生存之地。值得注意的是,現在許多網絡洗稿已經脫離了單純復制文字內容的低級洗稿行為,而是融梗、融框架、融思路的高級洗稿行為,增加了判斷是否構成洗稿行為的難度?,F有的人工智能技術可以通過對比文字選段來判斷復制比例,但對于高級洗稿內容還是難以識別。針對高級洗稿行為,智能媒體平臺在完善原創內容檢測系統,用技術手段保護平臺原創內容的基礎上,還應該大力發展人工智能與人工相結合的內容審查機制,對遭到用戶投訴但機器無法識別的內容進行專業的人工審查,以此來保護原創內容。同時,智能媒體平臺和行業從業者也需要加強知識產權保護自律意識。比如,微信公眾平臺建立的洗稿投訴合議機制,引入由堅持原創且無抄襲記錄的個人作者這一“民間力量”來處理洗稿投訴,就是平臺方提高原創保護力度的有效嘗試。此外,平臺方還應主動標注作品來源及作品中借鑒片段的版權歸屬,樹立尊重版權、維護原創的正面形象。平臺要加大對原創作品的獎勵制度,比如給信譽良好的作品增加曝光、發放獎勵等,激發作者的創新動力,并嚴厲打擊洗稿、融稿行為,提高作者原創積極性,增強平臺用戶對知識產權的保護意識。(五)完善智能媒體行業進入和退出機制。完善智能媒體行業的進入和退出機制,提高智能媒體傳媒行業倫理失范成本,有利于維護智能媒體行業良性競爭的市場環境,促進智能媒體行業健康發展。媒體行業的進入機制是國家規制媒體產業的重要措施之一。完善智能媒體行業的進入機制,一是支持和鼓勵具有創新能力的智能媒體進入市場,二是提高智能媒體行業的準入門檻。2017年,國家新聞出版廣電總局《新聞出版廣播影視“十三五”發展規劃》,明確提出打破層級和區域限制,加快圖書、報刊、廣播、電影、電視資源聚合、產業融合,鼓勵支持傳媒企業跨地區跨行業跨所有制兼并重組,培育一批主業突出、具有創新能力和競爭力的新型骨干傳媒公司[8]。同時規劃又指出,支持符合條件的新聞出版廣播影視企業通過資本市場上市融資、再融資和并購重組做大做強。既支持傳統新聞出版廣播電視媒體控股或參股互聯網企業和科技企業,同時也向社會資本敞開了大門,允許非公有制廣播影視企業以控股形式參與廣播影視制作機構改制經營。除此之外,對于申請進入媒體市場的新型智能媒體企業,政府主管部門需要加大資格審查力度,將履行社會責任作為智能媒體準入的必要條件,嚴把智能媒體市場準入關。媒體行業的退出機制是媒體生態自我調節與優化的有效手段,有利于淘汰不良媒體,凈化媒體生態,在媒體行業管理中不可或缺。完善媒體行業退出機制問題在傳統媒體時代就有討論,政府相關部門制定了諸如《報紙出版管理規定》《期刊出版管理規定》等相關法規,明確規定傳媒行業退出規則和一些法律問題。由于我國媒體行業的雙重屬性,其退出機制也應由市場和政府雙重把控。當智能媒體平臺違反倫理規范,比如傳播違法違規內容、侵犯用戶隱私、侵犯知識產權等,應加大規制懲罰力度。完善智能媒體行業的退出機制,首先需要政府出臺相應的法律法規和行業規章制度,在進入機制、過程機制等已有制度的基礎上,明確智能媒體行業退出的標準和程序,形成制度化、規范化的智能媒體行業退出機制;其次要充分發揮市場這一“看不見的手”的操控力量,提升市場力量在智能媒體行業資源配置中的重要作用;最后還要完善智能媒體退出的補償機制。
四、結語
人工智能技術在媒體行業的應用,在提升智能媒體生產經營效率的同時,也帶來了新的倫理風險,如數據不當收集與使用問題、機器流量與數據欺詐問題、精準推送與信息繭房問題、網絡洗稿侵犯知識產權問題等,這些倫理風險問題亟須予以有效規制,進而為智能媒體發展創造健康有序的市場環境。對于智能媒體倫理風險的治理,建立基于用戶數據授權的合理使用規范,是最為重要的規范路徑,也是確保用戶權益得到保護的必要途徑。數據欺詐作為困擾互聯網行業和智能媒體行業發展的核心問題,需要通過制度化的機制來規范智能媒體企業平臺的數據行為,構建第三方流量監測機制,提高智能媒體企業數據欺詐的風險成本。無論是互聯網企業所屬的智能媒體,還是傳統媒體轉型的智能媒體,都應承擔社會責任,尋求個性化信息與公共信息的平衡[9]。同時,要加強原創知識產權保護和自律,發揮智能媒體平臺在原創知識產權保護中的關鍵作用,提升智能媒體平臺和從業人員的自律意識和能力。由于媒體行業的意識形態特性,智能媒體行業并非一個完全開放的市場,需要政府完善進入與退出機制,加強對智能媒體平臺的科學管理。
作者:廖秉宜 姚金銘 余夢莎 單位:1.武漢大學新聞與傳播學院 2.武漢大學媒體發展研究中心
- 上一篇:畜牧業管理平臺搭建與數據挖掘
- 下一篇:云計算對網絡信息安全的管理