劉海明? 潘潔
【內(nèi)容摘要】隨著 AI 技術(shù)在傳媒領(lǐng)域的廣泛應(yīng)用,新聞生產(chǎn)效能提升,但也帶來了虛假信息傳播、隱私侵犯、算法偏見等倫理問題。本文分析了 AI 時代的傳媒倫理教育現(xiàn)狀,指出理論教學(xué)需要迭代更新,實踐教學(xué)亟待重構(gòu)。技術(shù)發(fā)展帶來的理論挑戰(zhàn)和道德沖突的不可見性,使得傳媒倫理教育面臨新的教學(xué)難題。本文主張通過創(chuàng)新教育理念和重塑教學(xué)場景來應(yīng)對挑戰(zhàn),強(qiáng)調(diào)批判性思維的重要性,并提倡體驗式教學(xué)以錨定問題。最后,本文強(qiáng)調(diào)堅守傳媒倫理底線,培養(yǎng)倫理素養(yǎng)與責(zé)任感,掌握應(yīng)對倫理問題的策略與方法,三者是提升傳媒倫理教育水平的關(guān)鍵。
【關(guān)鍵詞】傳媒倫理;倫理教育;新聞倫理;人工智能
馬驥伸認(rèn)為,“新聞倫理是新聞工作者在其專業(yè)領(lǐng)域內(nèi)對是非或適當(dāng)與否下判斷的良心尺度?!痹谛侣劷逃陌l(fā)展歷程中,新聞倫理教育一直扮演著主要角色,伴隨人工智能技術(shù)的持續(xù)演進(jìn)及其在傳媒領(lǐng)域的廣泛滲透,新聞生成的效能實現(xiàn)了顯著飛躍,而用戶所選內(nèi)容的豐富性亦隨之大增。然而,這種高頻率的信息更新與用戶友好的界面設(shè)計,亦引發(fā)了一系列復(fù)雜的倫理挑戰(zhàn)。這些問題涉及虛假信息的廣泛傳播、個人隱私權(quán)的潛在侵犯、算法決策中的偏見以及對人類自主性的削弱等關(guān)鍵議題。在人工智能時代,傳媒倫理教育的重要性日益凸顯,其不僅是傳媒行業(yè)持續(xù)發(fā)展的基石,也是維護(hù)社會和諧與增進(jìn)人類福祉的關(guān)鍵所在。本文旨在探討人工智能技術(shù)在傳媒業(yè)應(yīng)用背景下,高校傳媒倫理教育面臨何種問題,并探討應(yīng)對之策。
一、AI 時代傳媒倫理教育現(xiàn)狀
(一)新議題引入:理論教學(xué)面臨迭代
傳統(tǒng)媒體時期,傳媒倫理教育的重心多集中于對記者失范行為的探討,包括但不限于制造假新聞、新聞勒索以及侵犯個人隱私權(quán)等。密蘇里新聞學(xué)院的《記者守則》作為傳統(tǒng)媒體時代的典范,一直是卓越傳媒倫理教育的標(biāo)桿。然而,在傳媒業(yè)廣泛采用人工智能技術(shù)的背景下,一系列新的道德問題逐漸浮出水面。變化的焦點在于規(guī)范對象的轉(zhuǎn)變。在傳統(tǒng)媒體時代,規(guī)范的對象主要是特定的記者與傳媒專業(yè)人員。步入人工智能新紀(jì)元,新聞的生產(chǎn)角色已由人工轉(zhuǎn)向機(jī)械。通過審視人工智能在傳媒行業(yè)生產(chǎn)流程中的各個實踐層面,可以清晰地觀察到這一現(xiàn)象。
在媒體內(nèi)容的創(chuàng)作領(lǐng)域,人工智能借助生成式AI 等先進(jìn)技術(shù)手段,成功實現(xiàn)了新聞內(nèi)容的自動化生產(chǎn)及個性化定制服務(wù)。例如,采用實時數(shù)據(jù)抓取和分析算法構(gòu)建動態(tài)新聞系統(tǒng),能夠生成全面的新聞報道。此外,通過分析用戶的在線行為,如瀏覽記錄及偏好,該平臺能夠提供個性化的內(nèi)容推薦,確保信息既及時又符合用戶需求。其次,人工智能在媒體內(nèi)容傳播領(lǐng)域展現(xiàn)出卓越能力,通過應(yīng)用算法推薦和數(shù)據(jù)挖掘等先進(jìn)技術(shù)手段,實現(xiàn)了新聞內(nèi)容的精確投遞與定制化分發(fā)。在媒體內(nèi)容展示方面,人工智能借助虛擬現(xiàn)實和增強(qiáng)現(xiàn)實等技術(shù)手段,顯著提升了用戶的沉浸式閱讀體驗。
然而,人工智能在傳媒行業(yè)的運用亦帶來了倫理挑戰(zhàn)。以人工智能生成的內(nèi)容為例,其可能遭遇的關(guān)鍵挑戰(zhàn)之一是內(nèi)容管理難題,包括合成謬誤與累積謬誤等風(fēng)險。此外,算法驅(qū)動的信息推送機(jī)制可能導(dǎo)致“信息繭房”效應(yīng),進(jìn)而加深受眾信息視野的局限性和意見表達(dá)的兩極分化傾向。同時,人工智能技術(shù)的廣泛滲透也引發(fā)了對新聞行業(yè)職業(yè)道德與知識產(chǎn)權(quán)保護(hù)體系的深刻反思。算法偏見、數(shù)據(jù)隱私保護(hù)與虛假信息的擴(kuò)散已成為當(dāng)前傳媒行業(yè)所面對的關(guān)鍵性難題。算法偏見可能導(dǎo)致信息傳播的不平等與失衡,數(shù)據(jù)隱私問題直接關(guān)乎用戶的個人資料安全,而虛假信息的擴(kuò)散則能誤導(dǎo)公眾認(rèn)知,對社會秩序產(chǎn)生負(fù)面影響。面對新涌現(xiàn)的倫理挑戰(zhàn),傳媒倫理教育的理論指導(dǎo)需要與時俱進(jìn),展現(xiàn)出更高的迫切性與必要性。
(二)新場景融合:實踐教學(xué)亟待重構(gòu)
20 世紀(jì) 80 年代,約書亞·梅羅維茨在《消失的地域:電子媒介對社會行為的影響》中發(fā)展了歐文·戈夫曼關(guān)于場景的理解,提出了“媒介情境論”。時至今日,代表性的數(shù)字媒介已從梅羅維茨時代的電視轉(zhuǎn)變?yōu)槿斯ぶ悄芄ぞ?。但媒介技術(shù)迭代創(chuàng)造新的“情境”與“場景”的理論旨?xì)w仍具有時代價值。人工智能在傳媒領(lǐng)域的運用不僅給新聞生產(chǎn)傳播帶來范式轉(zhuǎn)變,更進(jìn)一步導(dǎo)致以傳媒業(yè)實際情況為實踐教學(xué)場景的傳媒倫理教育面臨新挑戰(zhàn)。
傳統(tǒng)媒體時代,教育者常通過將學(xué)生分組進(jìn)行角色扮演與案例分析的結(jié)合方式,深入探討新聞報道中存在的謬誤、偏頗觀點及侵犯個人隱私的情形,同時審視廣告推廣過程中所涉及的虛假陳述、不當(dāng)競爭等問題。此外,教師亦可安排學(xué)生進(jìn)入新聞機(jī)構(gòu)、廣告公司等傳媒行業(yè)內(nèi)部進(jìn)行實地調(diào)研,以深入了解傳媒倫理規(guī)范的實際應(yīng)用情景。學(xué)生應(yīng)直接參與新聞采訪與報道的實踐過程。讓學(xué)生在采訪實踐中親身體驗新聞采訪和報道的過程,并學(xué)會在采訪過程中遵循倫理原則。
人工智能時代,傳統(tǒng)的應(yīng)用場景正經(jīng)歷著與智能化場景的融合,并呈現(xiàn)出不斷演變的趨勢。借助深度學(xué)習(xí)技術(shù)驅(qū)動的自然語言生成(NLG)系統(tǒng)具備自主創(chuàng)作新聞報道的能力,然而這一自動化流程對終端受眾而言往往隱秘不彰。在人工智能深度介入的背景下,傳統(tǒng)的以記者與編輯為主體的“編輯室”式新聞制作模式正面臨顯著的結(jié)構(gòu)轉(zhuǎn)變與瓦解。變化的新聞生成環(huán)境驅(qū)動著傳媒倫理教育在實踐教學(xué)維度上的重塑。人工智能在進(jìn)行數(shù)字化編碼及運行過程中,與傳統(tǒng)的采、寫、編、評方法存在顯著差異,這一差異性導(dǎo)致了人工智能生成新聞產(chǎn)品時出現(xiàn)了一種“黑箱”現(xiàn)象。具體而言,人工智能通過算法自動處理數(shù)據(jù)、構(gòu)建模型并生成內(nèi)容,這一過程往往對于人類讀者來說透明度不足。與依賴記者的主觀判斷、經(jīng)驗和專業(yè)知識的傳統(tǒng)新聞制作流程相比,人工智能的決策機(jī)制和邏輯并不總是顯而易見或可解釋的。因此,在人工智能生成的新聞產(chǎn)品中,其背后的工作原理和決策過程對用戶而言往往隱藏在“黑箱”之中,難以完全理解和評估。這種黑箱效應(yīng)不僅影響了用戶對新聞內(nèi)容的信任度,也對新聞的客觀性和準(zhǔn)確性提出了挑戰(zhàn),需要通過增強(qiáng)算法的透明度和可解釋性來逐步解決。因存在專業(yè)壁壘,傳媒倫理教育往往難以深入理解計算機(jī)編程運行過程中的倫理挑戰(zhàn)。在當(dāng)前情形下,教育工作者和學(xué)習(xí)者均面臨挑戰(zhàn),難以尋獲新穎的教學(xué)實例。在實踐中,師生往往因技術(shù)的復(fù)雜性而與新聞生產(chǎn)的實際操作產(chǎn)生隔離,難以直接參與和理解其運作過程......(本文為文章截選,完整版請搜索公眾號:“教育傳媒研究雜志社”。)
本文系國家社科基金后期資助項目“媒體道德哲學(xué)”(項目編號:24FXWB:031)、第三批重慶大學(xué)一流專業(yè)核心課程群建設(shè)項目(項目編號:2022-14)的階段性成果。