来源:球探 发布时间:2025-04-11 15:48:27 阅读:1 次 0
刘锐(华中科技大学新闻与信息传播学院副教授);刘芾(华中科技大学新闻与信息传播学院硕士研究生)
通过阐明技术、政策与平台运作的协同效应,本文为实现短视频内容生态的健康治理与可持续发展提出具有借鉴意义的中国特色的人机协同治理框架。
近年来,短视频平台如抖音、快手和微信视频号等迅速崛起,成为当代人文化消费的重要载体。早期的短视频内容依赖于社会化媒体平台的传播,而随着网络的基础设施化,平台实现了从传媒属性到基础平台属性的跃升,并随着算法、技术的不断演进发展成为融合直播、购物、社交等多功能的综合性独立数字平台,当今的网络站点平台不仅是政府、市场创新者和用户的联结交会点,更是一种重要的社会基础设施和社会操作系统[1]。然而,与此相伴而生的是短视频平台治理的难题,其内容生态中的低俗、色情[2]、雷同[3]、侵权[4]等问题日渐突出,对短视频内容生态的治理也促使学术界关注网络站点平台治理的结构性问题。
党的十八大以来,以习同志为核心的党中央格外的重视推进建设网络强国。党的二十大报告提出:“健全网络综合治理体系,形成党委领导、政府管理、企业履责、社会监督、网民自律等多主体参与,经济、法律、技术等多种手段相结合的综合治网格局,推动形成良好网络生态。”短视频平台治理亟须观照中国特色制度和文化环境下的内容生态,适应平台发展新变化,在治理模式上有所创新和突破。
随着互联网形态的演进,网络秩序的建构越来越依赖市场和社会力量的配合,当前的短视频平台治理模式,打破了传统治理中单纯依赖国家作为主体进行约束和权威管理的局限性[5]。如今,治理体系更注重平台和人的力量,通过技术控制和社群管理,将其纳入整体治理框架,无论是主动参与还是被动回应,多元参与已成为互联网有效治理的必然趋势。在已有研究中,钟瑛提出了新媒体行业的技术、平台、政府三维分析框架[6]。吕鹏等提出互联网治理需由政府、私营部门、民间团体和国际组织共同参与才能实现;各利益相关方以自下而上、协商合作的方式,平等参与互联网的技术和公共政策的制定,各司其职。
短视频内容生态的治理需要全面考虑技术、市场、创作者和用户行为的多重影响因素,特别是在平台算法、政策网络、市场之间的竞争和用户之间建立有效的协作机制。基于此,本文将从人机协同即技术—利益相关者协同治理的视角,构建由政府、创作者、算法和用户等利益相关者共同组成的短视频内容生态的治理网络,并提出对应的优化策略,旨在为平台内容质量的提升和可持续发展提供理论支持与实践路径。
治理被广泛定义为“政府、国际机构和非国家行为者在广泛的技术、经济、政治、法律、社会和文化问题上争夺影响力的过程”[7]。早期的互联网治理研究集中在电信政策和网络法等领域,并逐步扩展到通信基础设施的发展、公共政策的构建[8],以及私营企业与社会机构之间的紧张关系[9]。此外,互联网治理的全球性挑战和影响也成为研究的重点[10]。自2001年中国互联网协会成立以来,我国郑重进入政府主导、多方协同参与、治理手段多元化的社会化治理阶段。
国家政策在短视频平台治理中起到了至关重要的引导和规范作用,政策网络呈现了政府机构与利益集团之间的资源交换与互相依赖,这些资源包括权威、资金、合法性、信息与组织五种类型[11]。政府对短视频治理的主导并非单向度的行政控制,而是通过法律和法规的制定、政策的引导,逐步实现了政府与社会多方协同的合作治理[12]。政府通过政策网络来整合公共资源与商业利益,我国已出台了网络安全法、电子商务法、数据安全法、个人隐私信息保护法等法律和法规,网络立法的“四梁八柱”等法律框架,成为为平台设定具体明确的行为规范和法律责任的重要依据。
治理应被理解为一个多层次、多元主体参与的持续过程,在这样的一个过程中,政府不仅是监管者,还扮演了引导者和协调者的角色。尽管“治理”常常被等同于“监管”,但正如Jeanette Hofmann等学者所指出的,治理其实就是一个持续的、多元参与的动态过程[13],它不仅涉及政府和企业的行为,还包括多方协调和互动。
中国互联网治理模式趋向技术赋能与政策协同的综合治理。2022年实施的《互联网信息服务算法推荐管理规定》对平台算法透明及对未成年人、老年人等特殊群体用户的相关义务等进行了明确。该规定回应了平台治理过程中算法治理缺位的问题,以算法为核心,从价值理念、用户模型与标签管理、信息分发与呈现等维度对信息服务规范作出详细规定。这表明在网络内容治理领域,平台治理开始转向“实效重于实质”的“穿透式监管”阶段,政府在平台治理过程中的信息劣势得到扭转,数字社会生产中组织生产与控制权力某些特定的程度回归监管部门。
面对平台的迅猛发展形态趋势,许多西方国家最初选择了自我监督管理模式,允许平台公司自行制定和执行内容标准,国家的角色逐渐从直接监督管理转向超国家监管与行业自律。例如,美国的《通信规范法》第230条为平台提供了豁免权,允许其对第三方内容不承担相应的责任;欧洲的电子商务指令也规定平台在特定条件下免于对用户生成内容负责。在这些政策背景下,社会化媒体平台通过自主监控和内容审查,决定哪些内容可以发布或删除[14]。然而,优先发展的策略使平台无序扩张的弊端日益显现。各国政府慢慢地认识到短视频平台治理的重要性,并开始制定政策以应对潜在的内容风险和社会危害。例如,德国于2018年通过的《网络执法法》(NetzDG),强制要求平台移除违法内容。该法律框架赋予了国家更大的权力对平台实施制裁,若平台未能有效履行其审查责任,可能面临高额罚款[15]。
我国的短视频平台的治理顺应国家治理的宏观框架,强调国家干预与市场自律的结合,通过严格的内容审核和法律责任追究机制,确保平台在内容生产和传播过程中对公共利益的充分保障。这种中国特色的治理模式,不仅能有效应对短视频平台的内容风险,还在某些特定的程度上推动了平台经济的健康发展。
平台通过聚合服务和内容,推动了平台经济和社会的发展[16],反映了全球化背景下的平台经济特征。在全球化背景下,短视频平台的治理不仅是国内问题,也涉及全世界内的跨境监管与国际合作。平台所有者慢慢的变成为或将自己定义为“守门人”,通过充当中介,连接不同的市场主体和用户,扩大其全球影响力。这种私有化和全球化特征,也对现有的媒体监管框架提出了严峻挑战。以字节跳动旗下的TikTok为例,其全球化运营使得其在多个国家面临不同的监督管理要求和政策框架,“围墙花园”阻碍相互连通。如何在国际规则中占据主动并实现跨国治理框架的有效对接,仍是短视频平台治理中的重大挑战。
平台通过内容规则的制定和执行,在创作者和政府之间发挥了重要的“中介”作用。短视频平台在内容治理中的角色不是被动的政策执行者,而是积极的政策制定与实施的参与者。平台通过数据分析与反馈,热情参加政策的制定,借助用户行为数据与内容生产情况的深度分析,协助政府更好地洞察平台生态,在政策制定过程中进行动态调整。平台因此从传统的受控对象转型为政策网络中的关键行动者,一方面,通过政策引导创作者生产符合政府规范的内容,避免触碰政治底线;另一方面,需确保内容生态的活力,使用户得到满足的娱乐需求。平台在调节用户与政府关系的过程中,逐步构建起涵盖内部的算法推荐与内容审核机制,以及外部的政策调适与舆论引导。
算法是短视频平台内容分发的核心机制,也是核心治理工具。Gillespie指出,平台的算法不仅在内容分发中扮演着重要角色,还塑造了用户获取信息的方式[17]。算法治理的“信息茧房”效应进一步加剧了信息传播的碎片化和同质化,影响了公共讨论的多元性与信息对称性。Hall和Pesenti将AI定义为“一组能够有效完成复杂任务的通用数字技术”,并指出其在提高审核效率方面的潜力[18]。自动化治理的优势大多数表现在精准性上,而算法在处理复杂语境和文化细微语义上仍面临显著挑战[19],导致算法在短视频平台上的内容治理效果具有不稳定性[20]。
算法审核不仅面临技术局限性,还存在偏见和透明度问题。由于算法依赖于历史数据进行训练,这一些数据往往带有开发者或用户行为的偏见,导致某些边缘群体或特定内容被不公平地对待[21]。这些偏见不仅源于算法本身,还与平台开发者在训练数据中的偏见息息相关。此外,算法审核的透明度不高,用户无法确切了解审核标准和审核过程,导致各平台之间的审核标准不一致,进一步加剧了用户的不信任感[22]。
尽管AI审核工具在规模和效率方面有着非常明显优势,但仍需依赖于人类的判断和参与[23],人工审核与算法的结合构成了平台治理的重要力量极。内容审核员是短视频平台中无声的秘密劳动力,人工审核不仅需要识别违规内容,还涉及对平台规则的执行与调整,是一种新的“把关人”行为,决定了谁在何时、何地能够正常的看到什么[24]。这一过程通常分为三个阶段:创建、执行和回应。创建阶段涉及制定平台管理用户行为的规则与条款;执行阶段包括识别有问题的内容并决定其是否违反规定;回应阶段则涵盖内部上诉程序以及通过集体行动外部影响平台治理的策略。内容审核员与算法一同承担了审核任务,生动演绎了“人机协同治理”的模式。
创作者作为能动的主体,承担着创业者、文化引领者以及平台治理参与者的角色,成为能动的主体[25]。这一角色的转变既是平台产业化发展的结果,也是创作者主动适应平台机制、创新内容生产方式的体现。创作者通过掌握平台技术、算法、法律和文化规范,积极应对平台带来的不确定性,逐步转型为自我驱动的创业者。
这一角色转变的背后是平台提供的资源赋权与约束并存。一方面,平台通过免费上传、受众分析等工具帮助创作者优化内容生产与传播;另一方面,尽管平台赋予了创作者更大的作品分发与推广自由,但是也对创作者的变现及运营机制做出了相应规定[26]。平台通过算法推荐、变现机制等手段,对创作者的自主性构成威胁[27]。特别是算法的“黑箱”效应,使创作者难以预料自己的内容能否获得平台推荐,加剧了创作中的不确定性和风险。创作者不得不通过不断调整创作策略,尝试在平台复杂的治理体系中找到适应性路径,展现其在平台治理中作为能动主体的地位。
创作者的劳动不局限于内容生产,还涵盖了对平台技术、法律条款和算法机制的掌握,对平台审美和文化规范的理解,以及将新平台无缝整合至自身媒体生态的能力,这种基于多平台的实践被称为“平台劳动”,它要求创作者具备跨平台的适应性和灵活性。
在短视频平台生态中,创作者不仅是内容生产的主要动力,也是平台政策和技术治理的重要利益相关者。创作者的劳动行为与平台的技术架构深度交织,形成了“适应性—规避性—抵抗性”的多重互动关系。适应性体现在创作者通过调整创作策略来应对平台政策变化;规避性则反映了创作者在不同平台之间流动、扩展内容发布渠道以规避平台对自主性的过度限制;而抵抗性则表现在创作者通过个体或集体行动,平台可能带来的不公正算法或不透明管理机制。
随着平台的产业化发展,平台不仅在技术治理网络中占据核心位置,还通过政策、算法分发和管理机制,深刻影响创作者的工作模式和自主权[28]。平台政策的双重标准与“封锁效应”是创作者面临的重要问题之一。平台通常对某些内容或创作者设定较为严格的审核机制,而对其他内容则较为宽松,这种算法的不透明性、双重标准与“一刀切”的审核机制导致创作者无法完全预测或控制自己的内容能否获得推荐或拥有变现机会。
与此同时,平台与创作者之间的共生关系逐渐显现。平台通过技术和政策治理体系,对创作者的行为进行监管与调控,而创作者则通过创新内容生产与跨平台实践,推动平台内容生态的多元化与活力。创作者不仅是平台政策规制的对象,更是平台治理机制的协商者与推动者,双方在利益互动中呈现出一种复杂的博弈关系。这种博弈不仅体现在内容分发与变现的直接利益冲突上,也体现在创作者对于平台规则的抵抗与适应的动态平衡中。
平台通过自动化系统,构建了新的社会技术秩序[29]。由于算法的复杂性以及与商业利益的交织,平台治理中问责制的落实成为一大挑战。问责制分为弱问责制和强问责制:前者仅要求对决策进行解释,而后者则要求对决策结果负有实际责任[30]。在现有的平台治理中,往往只达到弱问责制的标准,缺乏真正的责任追究机制。
平台依赖自动化系统来进行海量内容的审核和推荐,用户常常无法辨识决策的依据,也难以质疑自动化系统的公正性。技术不透明性则进一步加剧了这一问题,平台有时甚至故意模糊裁决与执行的界限,削弱了用户的质疑能力,导致正当程序的缺失。平台的这种操作不仅侵犯了用户的知情权,使用户缺乏有效的手段来质疑或理解平台决策,也强化了平台治理中的权力不平衡[31]。
作为平台治理的接受者,用户的行为、反馈和集体行动能够揭露平台内部的权力不平衡。受平台治理决策影响的用户群体,如从事政治评论的个体、依赖社会化媒体谋生的创作者,以及女性与其他边缘群体,成为学术研究的重点[32]。这些用户群体因身份因素更容易受到不公正的内容审核和限制,他们不仅需要面对平台机制带来的挑战,还一定要通过优化策略、内容创新和抵抗平台规则等方式积极应对平台的治理压力。
作为接收者与执行者,用户首先是平台内容的接收者,他们的使用行为不仅影响平台的运营模式,还为平台算法系统提供了反馈数据。用户通过内容消费与分享,无意中参与了平台算法的优化与调整;作为治理参与者,用户通过个体与集体行动,能够影响平台的政策制定与执行,迫使平台调整算法推荐机制或审核标准。作为抵抗者与创新者,面对平台治理中的不透明与权力不平衡,用户通过跨平台传播、多平台运营等策略性行为,对平台规则的规避性回应[33],以及内容创新与社交互动,推动平台多样性的发展。
平台通过技术治理架构对用户行为来控制,而用户则通过多样化的应对策略影响平台的治理实践。这种动态的双向互动构成了短视频平台治理体系生态。由于短视频平台的内容审核和政治把关具有较高的敏感性,用户会采取隐晦表达、符号化语言等手段规避审查,试图绕过平台的内容审核机制。同时,用户也通过社会化媒体平台集体行动,挑战平台在内容审查、内容分发等方面的不公正行为,推动平台治理机制的透明化与公平化[34],成为平台治理的监督者与影响者。
短视频平台以技术作为基底支撑其运行逻辑,而平台运行既需要遵循商业逻辑,又具有公共性。平台深度嵌入社会公共领域,将各利益相关主体“汇聚一堂”在场于整个内容生态的社会空间,由此带来了多利益相关方协同治理的契机。基于以上行动者网络分析,本文提出短视频内容生态的多利益相关者共同治理模式,作为短视频内容生态中的一种新兴动态治理模式,结合人类智慧与机器技术的优势,构建起以技术为逻辑基底,由政府主导、平台承担主体责任,创作者、用户协同的开放包容的治理网络(如图1)。
短视频内容生态的治理网络由多元利益相关者构成,具体包括技术基础设施(包括算法、API、用户界面等)、机构(政府和平台)以及人(创作者和用户)。各主体形成了相互依存的动态网络关系,各方之间的合作和制衡构成了内容治理的多元互动。在此治理模式中,各主体形成了相互依存的动态网络:政府负责政策网络制定,为内容生态设立基础法规框架,平台作为主要运营者,在遵循法规的基础上通过技术进行日常治理。平台与技术的深层次地融合体现在依托算法的自动化审核机制和数据分析能力,对内容做筛选和推荐,以提升使用者真实的体验、保障内容质量。
具体而言,技术在多元治理网络中处于底层支撑地位,具有双重属性,一方面作为内容推荐和筛选的资本工具,另一方面成为连接各利益相关者的治理工具。技术的基础性角色体现在通过算法和数据分析的自动化筛查及推荐,以高效保障内容质量和使用者真实的体验。技术在文化敏感性和语境理解方面的局限性也要求与人类智慧互补,以提升治理的适用性与有效性。
平台在治理网络中兼具主动性与被动性,其责任在于平衡内容的商业化需求和公共价值的维护。一方面,平台要接受外部力量的治理;另一方面,其要对内部要素诸如商户、创作者、用户等进行治理,以提升用户黏性并使收益最大化,因此在内容审核和推荐上采取积极的算法策略。在实际运行中,平台通过算法对内容做初筛,但当内容涉及伦理或复杂的文化情境时,则会辅以人工审核,确保内容合规并维护社区的良好氛围。
Helberger等指出,平台公司在内容审核与管理中承担着复杂的治理责任,其治理结构往往呈现出私有化和去中心化的特征。平台通过内容审核机制对用户生成的内容做管理,但这种治理方式存在诸多争议[35]。Roberts认为,平台的内容审核机制在处理敏感内容、虚假信息及不当言论方面常常存在滞后现象,审核标准也不够统一[36]。短视频平台在内容治理中,不仅需借助算法和人工智能进行自我监管,还必须应对外部来自政府的政治合法性要求与社会责任压力。这种自我监管与外部压力的调和,使得平台在政策执行和内容管理中常常面临两难境地。
在治理实践中,短视频平台逐渐扮演了政策中介的角色,在保障内容合法性、调和创作自由与客户的真实需求的基础上,形成了中国特色的复杂治理体系。短视频平台一定要遵守《中华人民共和国网络安全法》《互联网信息服务管理办法》等法律和法规。尤其是《网络内容信息生态治理规定》(2020年实施),进一步强化了平台在内容治理中的责任[37]。
我国已将平台发展和平台治理纳入国家顶层制度设计之中,关系网络强国建设和国家治理体系和治理能力现代化。政府通过法律和法规规定了平台内容审核的底线与标准,划定了短视频平台在信息传播中的责任边界,强化平台监管、规范数据和算法、保护平台用户数据安全和平台运营的合规性。随着政策不断细化,政策网络与平台治理之间的互动也体现了法规的适应性,平台在技术层面一直更新算法,调整治理方式以遵循监督管理要求,反馈技术治理成效,以便及时作出调整法律和法规。其实质就是平台向企业让渡平台治理权,同时政府让渡给平台社会治理权。这一双向互动关系不仅确保了治理效率与合规性,还增强了治理的透明度。
基于原则的监管框架通过设定广泛的标准,赋予监督管理的机构在具体情境下做出灵活判断的空间。Pieter Nooren 等指出,基于原则的监管框架比基于规则的监管框架更适合应对快速变化的数字化的经济环境[38]。技术与政策的协同治理模式成为中国治理短视频平台的框架之一。政府通过法律和法规设定平台责任和行为边界,平台则通过技术创新实现自主监控与审核,从而形成了“政府监管—平台自律—技术赋能”的多层次治理体系,在面对平台日新月异的商业模式时,能够更好地应对其中的复杂性。
在人机协同治理模式下,技术不仅是平台依赖的基础工具,也是内容治理网络的一个独立节点,技术是治理网络中的强有力工具,这体现在对违规内容的监控、用户行为的数据分析及内容推荐的优化等方面。内容审核员与自动化系统一同承担内容审查的任务,形成了一种动态的审核生态,他们通过灵活的判断力对算法的片面性做补充,并在人机协作中提高审核的精准度。
作为平台政策的执行者与调整者,内容审核员不仅执行平台制定的审核规则,还依据内容的变化对规则进行动态调整。面对用户的反馈与社会舆论,内容审核员在日常工作中,常常承担起解释平台规则与政策的责任,在某些特定的程度上充当着平台政策的“解释者”。内容审核员是最隐蔽但最直接的内容治理的多重把关者,不仅肩负着判断内容合法性与合规性的责任,还需应对由此产生的社会影响和压力。因此,透明度、算法审计以及内容审核员的心理支持系统将是未来平台治理中亟待改进的重要方面。
视频内容创作者与普通用户作为平台内容生产和消费的主体,在治理中的责任主要集中于内容质量的把控与合法性的维护。Van Dijck、Poell和De Waal认为,平台作为复杂的生态系统,应在治理过程中考虑各方利益。创作者是短视频内容的主要生产者,平台政策的调整直接影响创作者的内容生产动机和方向,创作者的创作行为必须在政策要求和内容商业化倾向之间找到平衡点[39]。
在人机协同治理中,算法推荐的权力往往掌握在平台手中,而创作者和用户的权利则被相对弱化,用户在信息接收上更依赖算法推荐。算法对用户的行为数据来进行分析与建模,通过用户画像和兴趣标签值来进行个性化推荐,用户选择的范围实际上在算法推荐的“框架”内,形成了信息的“有限选择”,而非个体自由意志的完全选择。与此同时,用户作为平台内容的主要花钱的那群人,其行为也受限于平台制定的社区规则和使用条款。Helmond指出,平台通过社区规范、使用条款和隐私政策,规范用户在平台上的行为[40]。
因而,短视频平台的治理政策应朝向更加民主、透明和多元的方向发展。Suzor强调了平台治理中的社会责任,呼吁平台政策制定过程中应更多地纳入公众和创作者的意见,避免规则的单向制定[41]。平台政策制定需要在商业利益与社会责任之间取得平衡,通过构建公开、透明且可追溯的治理机制,提升公众对平台的信任,促进内容生态的健康发展。创作者和用户的治理责任则在于:一方面,创作者应在内容生产中注重多元化表达,避免为了获取推荐而创作低俗或同质化内容;另一方面,用户应提高对算法推荐的认知,增强自主选择意识,避免依赖性选择,一同推动内容生态健康发展。
短视频内容治理正朝着智能化和多元化的方向发展,人机协同的多利益相关者治理模式将成为适应平台生态发展的新趋势,鼓励用户、创作者和监督管理的机构热情参加,共同维护内容生态的健康与多样性。但挑战与机遇并存,该模式在助力治理效率提升的同时也存在着结构性问题。
首要的核心挑战是人机责任模糊与权责失衡。人机协同治理中的责任划分不清晰,导致了治理网络内不同主体的权责冲突。这种模糊的责任边界一方面削弱了治理效率,另一方面也使得平台难以明确自身的治理责任。当前治理网络内存在的权力和资源分配不均,也导致了平台、内容审核员、创作者及用户等主体在治理过程中的权责不对等,削弱了各主体的积极性,也加重了内容审核员的工作负担,使得治理质量难以保障。
算法黑箱与透明性不足成为用户信任的制约因素。平台治理算法的“黑箱”问题,使用户和创作者难以理解内容审核和推荐的逻辑,进而导致对平台的不信任。用户无法确定其内容是否因算法失误而被误删,创作者则不得不迎合算法推荐规则,牺牲内容的多样性。这不仅损害了用户的参与体验,也抑制了内容的创新性和丰富性。
为了更全面地理解人机协同治理模式的运行效果,有必要从内部绩效与外部绩效的双重视角做评估。内部绩效主要关注算法在内容筛查中的准确性和内容审核员的过度劳动,通过算法优化和支持内容审核员来提升整体治理效率。外部绩效则强调社会、用户、政策等多方利益主体的反馈,特别是用户对算法透明度和内容公正性的感知。为克服人机协同治理模式中的结构性障碍,本文围绕评估路径提出以下改进方向。
(一)提高算法透明度。通过算法透明化机制,用户和创作者能够更清楚地了解内容审核的逻辑和机制,从而增强用户的信任感,推动平台的治理公平性。同时,引入反馈机制,收集用户对算法审核的意见,逐步优化算法设计,增强治理网络的公开性与互动性。
(二)增强算法的文化适应性。平台需提升算法在多元文化情境下的识别能力,减少算法对文化敏感内容的误判,以减轻内容审核员的负担。改进深度学习等技术以提升情感分析和语义理解能力,进一步提升内容审核的准确性和效率。
(三)完善多利益相关方协同治理网络。平台应将治理责任合理分配至平台、创作者、用户及监督管理的机构,确保多方主体在治理中的权责平衡。通过政策制定、用户反馈和创作者自律等手段,构建协同治理机制,增强治理网络的协作性和灵活性。各方共同参与内容审核和推荐机制的优化,确保治理网络的透明性和公正性,促进治理网络的良性循环。
(四)改善内容审核员的工作环境。在优化技术的同时,平台还需加强对内容审核员的支持,优化工作策略和模式来减轻内容审核员的负担,为他们提供心理支持与职业保障。通过定期培训和工作环境优化提升内容审核员的审核判断力和工作积极性,确保审核的准确性和灵活性。
短视频平台的人机协同治理模式在短视频平台内容治理中的应用为提升治理效率和合规性提供了新的路径,通过多利益相关者的互动与合作,该治理网络兼具技术优势与人类智慧的补充,适应了复杂的内容生态需求,不仅丰富了内容治理的理论图景,也为技术-人力协同机制的学术研究提供了新的视角。该模式在提升治理效率的同时,也对多元主体的协同治理提出了新的要求,具备一定的现实指导意义。未来的研究应持续关注算法透明性与技术创新、治理网络的权责分配,强化各治理主体之间的协作,逐步形成责任分配明确、权力均衡、具有文化适应性的治理网络,以此来实现平台治理的可持续性和内容生态的健康发展。
【本文为2022年国家社科基金一般项目“短视频内容生态的人机协同治理模式研究”(批准号:22BXW083)成果】
[1] 苏涛,彭兰.虚实混融、人机互动及平台社会趋势下的人与媒介:2021年新媒体研究综述[J].国际新闻界,2022,44(01):44-60.
[3] 吕鹏,王明漩.短视频平台的互联网治理:问题及对策[J].新闻记者,2018(03):74-78.
[4] 宋蓓娜,赵娜萍.新媒体时代下短视频的著作权侵权问题研究[J].河北法学,2022,40(04):159-184.
[5] 胡泳,年欣.自由与驯化:流量、算法与资本控制下的短视频创作[J].社会科学战线] 钟瑛,邵晓.技术、平台、政府:新媒体行业社会责任实践的多维考察[J].现代传播(中国传媒大学学报),2020,42(05):149-154.
[11] 刘锐,徐敬宏.网络视频直播的共同治理:基于政策网络分析的视角[J].国际新闻界,2018,40(12):32-49.
[12] 张志安,冉桢.中国网络站点平台治理:路径、效果与特征[J].新闻与写作,2022(05):57-69.
[31] 周丽娜.智媒时代算法推荐对用户自主性的解构与重构:基于规则治理的视角[J].现代传播(中国传媒大学学报),2023,45(10):69-77.
刘锐,刘芾.短视频内容生态的人机协同治理网络分析[J].青年记者,2024(12):5-12+19.