聚焦个人隐私与版权保护,警惕深度伪造滥用,探究“AI治理AI”新模式,坚持人本主义,是生成式人工智能风险治理的关键。
人工智能的创新应用形塑社会互动模式。在信息传播、医疗、交通、教育等场景中,人工智能成为社会互动的代理,促使人与人的互动越来越多地转换成人机互动。智能技术重构新闻传播的业态和生态,深度嵌入信息获取和决策过程,影响公众的社会阐释框架。
作为社会的信息传递基座,新闻传播业在接受人工智能技术赋能的同时,也成为人工智能风险生成、扩散和演变的关键场域。自2022年以来,人工智能的内容生成和交互水平取得突破性进展。人工智能聊天机器人程序ChatGPT、人工智能图片生成平台Midjourney和文生视频大模型Sora等生成式人工智能出现,掀起内容生产和信息消费热潮。生成式人工智能的数据训练、程序设计和生成结果应用等环节,也可能产生“被制造的风险”(manufactured risks),[1]涉及人机关系、深度伪造、产业变革等多个维度。
一、新闻传播业对人工智能的创新采纳
人类历史从根本上是人与物、物与物纠缠的历史。[2]人与技术物的关系大致有具身关系、诠释关系、它异关系和背景关系四种,[3]技术物是身体认知的放大器,也是人类观察、理解和操纵世界的中介,可以作为它者或准它者与人类共存,也可以融为生活环境的一部分,潜移默化地发生作用。作为一类技术物的人工智能与人类展开长期的互动实践,新闻生产和传播实践就是其中之一。从数据处理到信息分发再到内容生成,人工智能成为新闻传播业的创新驱动力和生产力。
(一)人工智能的发展:“类人”化与“类物”化
无论是将人工智能视作“工具”还是“潜在的合作伙伴”,公众对它的存在已习以为常。人工智能发展和应用是基于不可见的基础设施支撑体系,包含计算、存储、网络硬件等硬件基础设施体系和多样化的机器学习框架、算法以及相关工具软件、PaaS平台、服务等软性基础设施体系。近年来,人工智能的研发致力提升人工智能与人类社会的适配性,沿着“类人”和“类物”两个方向使人工智能融入社会的过程“自然化”。[4]所谓的“类人”,是指不断丰富人工智能算法模型的情感和心理维度,如通过分析文字词频、音频文本中的声调语速、图像文本中的面部表情特征等推测情感类型。所谓的“类物”是将易于交互的人工智能物嵌入人类熟悉的场景,如家庭生活场景中的育儿机器人、养老护理机器人和智能音箱等。
(二)智能化信息生产:人工智能成为生产主体
人工智能在不同场景中“类人”和“类物”的应用发展,也包括对传统信息生产流程的重构。继专业生产内容(PGC)和用户生产内容(UGC)后,人工智能生成内容(AI-Generated Content, AIGC)成为一种新型内容。作为一个复合型概念,人工智能生成内容“既是从内容生产者视角进行分类的一类内容,又是一种内容生产方式,还是用于内容自动化生成的一类技术集合”[5]。而生成式人工智能(Generative Artificial Intelligence, GAI)是指通过复杂的算法和模型对大规模数据进行集中学习,具有“文本、图片、音频、视频等内容生成能力的模型及相关技术”[6],是“根据人类制定的规则训练而成的有立场、一定程度上受控的智能内容生成工具”[7]。在狭义上,人工智能生成内容是生成式人工智能参与生产的结果,但生成式人工智能更聚焦于技术、模型和工具。
生成式人工智能可以完成多模态文本转换,还能模仿人类的不同情绪口吻来输出内容。目前,按照任务类型划分,传媒机构生成式人工智能的应用形态有写作机器人、数智记者和AI主播等。人工智能在灾害事件(地震和暴雨等)、天气预报、财经、体育等垂直领域的报道方面,具有明显的时效性优势。包含生成式人工智能在内的人工智能,将记者从转录、翻译、校对等流程性工作中解放出来。传媒机构希望利用智能工具提升生产力,放大人类记者在新闻深度和事实核查等方面的独特优势,发展解释性报道和建设性新闻,进而巩固行业边界。
(三)智能化信息分发:从个性化走向定制化
人工智能应用于平台型媒体,以场景化、个性化的智能算法分发满足用户需求。通过收集用户的个人信息数据和使用数据,智能算法分析总结出不同的用户画像,根据历史偏好、相似群体偏好以及社交关系进行推荐。同时,平台算法会根据用户的点击量、阅读时长、完播率、个性化设置等不断调整内容推荐模式。
生成式人工智能实现跨平台内容聚合和分析,还能根据用户需求提炼总结出核心关键信息,产出定制化内容。因此,生成式人工智能有望发展成为“下一代网络入口”,[8]也将再次改变内容分发逻辑。
(四)智能化内容呈现:从“认知新闻”到“体验新闻”
人工智能丰富新闻呈现形式,推动“认知新闻”向“体验新闻”转变。面对新闻回避和新闻疲劳的双重挑战,新闻业转型的重要策略是进一步增加音视频形态的新闻数量,[9]以满足用户需求。新闻的数据可视化、碎片化、视频化等趋势,丰富了新闻阅读体验。2023年,安徽寒潮来袭时,大皖新闻的数智记者“小朱姐”迅速上镜播报,省略拍摄场地准备、妆造彩排等步骤,保障了新闻的时效性。川观新闻的数字记者矩阵包含20个真人记者的数字分身,可以充分发挥多线程播报的优势,提升内容生产效率。
近期发布的Sora类文生视频模型,引发使用生成式人工智能进行时空模拟和时空再造的丰富想象。Sora虽然在新闻现场采集、新闻调查和信源核实等方面有缺陷,但能够帮助记者还原一些“难以重回的现场”或制作便于理解和传播的解释性影像,提升新闻覆盖率和受众参与度。
未来,生成式人工智能和AR/VR等技术结合,将会以逼真的感官体验和自由设定,让用户沉浸式体验各类新闻场景。此外,生成式人工智能还能对新闻内容作出调整,以满足不同用户群体的阅读习惯偏好。新闻阅读程序“Artifact”,可以用不同的风格总结用户感兴趣的文章内容,将其改写成Z世代喜爱的风格或一系列便于在社交媒体传播的表情符号。智能社会与图像社会叠加,使世界更加趋于图像化、影像化。用户的认知模式也随之转变,从借助全面、客观、深度的信息进行“认知”转向习惯于通过影像和主观情感联想进行“体验”。
(五)智能化内容治理:用AI治理AI
虚假信息的生产传播是人类社会存在的长期问题之一。事实核查主体和技术变迁主要经历了三个阶段:传统的新闻事实核查;基于大数据、区块链等智能技术的事实核查;用AI治理AI的事实核查。
一是传统的新闻事实核查。传统的事实核查依赖人力核实新闻信源与经过,主要由职业新闻从业者完成,所需时间和人力成本较高。
二是基于大数据、区块链等智能技术的新闻事实核查。大数据和区块链技术出现后,人们能够通过爬梳并分析信息来源的账号特征、文本特征、传播路径特征等信息,开展数据管理、追踪和溯源,核实信息真实性。新冠疫情期间,社交媒体上混合着大量有关疫情扩散与治疗的信息,淹没了可信任的信息来源,影响公众的健康认知和决策,形成“信息疫情”。[10]大数据和区块链技术以分析高效、难篡改、易追踪等优势,为真实防疫信息的共享和传递提供技术支撑。
三是用AI治理AI的新闻事实核查。人工智能推动事实核查进入新的发展阶段,各国传媒机构和科技公司逐步探索“AI治理AI”模式。国际事实核查网络(IFCN)等组织以及相关主题国际会议,推动全球事实核查创新运动的制度化发展。其中,机器作为行动者的角色受到重视。谷歌DeepMind团队和斯坦福大学研究人员开发的搜索增强事实评估器(Search-Augmented Factuality Evaluator, SAFE),可通过大型语言模型分解聊天机器人生成的文本,再分别核查其中所涉及的事实信息准确性。相较于文字文本的核查,音频检测工具的发展应用相对滞后。美国西北大学计算机科学教授苏夫拉曼尼(V.S. Subrahmanian)开展人工智能音频检测实验,测试了14种现有、免费且公开的音频深度伪造检测工具,结果却不尽如人意。尽管目前使用AI工具识别深度伪造内容的难度较大,但构建行动者网络、开展人机协同、“AI治理AI”仍是发展趋势。
二、人工智能技术的媒体采纳带来的行业焦虑
机器主体的参与给人类记者带来职业发展忧虑。生成式人工智能融入新闻生产场域的过程,不是简单的“技术使用”,而是人类行动者与非人类行动者间的交互、协商与磨合。[11]面对新技术的冲击,身处生产一线的记者和编辑能更加敏锐地捕捉到人机权力关系的变化与职业边界的流动。组织、制度、文化变革往往会滞后于技术采纳,形成一段与技术发展不相匹配的转型阵痛期。因此,面对生成式人工智能嵌入导致的新闻生产工作常规重构、组织机制变革、新闻文化重塑,不少一线从业者表现出不同于机构管理层的怀疑和冷漠,甚至是抗拒和抵制。[12]作为传播主体的机器改变了以人为主体的传播生态。记者与编辑要应对行业内外的双重压力,迎接包含机器生产者在内的多元主体的挑战。
生成式人工智能及相关技术的发展带来高阶智能社会的迷思。ChatGPT和Sora等便于交互、面向公众的生成式人工智能出现,带动新的内容创作和消费方式流行。在Sora发布的女性漫步东京街头的视频中,人物在布满霓虹灯牌和广告牌的街头走动,五官和肢体动作都较为自然。尽管Sora生成视频中还存在着细节处理不够精细、自然规律和文化理解错位、叙事逻辑断裂等问题,它仍然承载着公众对于高阶智能社会的想象。
生成式人工智能的应用加剧新闻传播从业者的职业技能恐慌。生成式人工智能通过人机交互来产出内容,因此需要国家、群体或个体具备一定的数字资源调用能力。生成式人工智能可以根据指令实现多模态文本转换,进一步降低了生产门槛,但也考验着使用者自身的综合素质。自主性的提升常被认为具有赋权意味,例如提升个体传播能力和弥合数字文明社会的能力沟,或是增强个体的知觉与连接能力等。[13]然而,技术扩散会受到社会资本不平等的制约。“技术带来的特权越来越多地只属于那些负担得起的人,特别是当国家退出基础设施和公共服务供给时。”[14]当前,生成式人工智能的赋能所需的前置条件涵盖语言能力、创意能力、信息获取能力、技术使用素养和可接入设备条件等多方面。
三、生成式人工智能应用于新闻传播业的多元风险
生成式人工智能的新形态嵌入新闻传播业,不仅会改变新闻生产、分发和接收环节,也会推动相关制度和文化环境发生转型。技术创新、制度创新与知识创新的时差,给新闻业带来多元风险,并经由信息传播扩散至其他社会领域。
(一)数字信任危机:信息真实性和可靠性下降
生成式人工智能参与信息生产,导致人类生成的版权内容与AI生成内容混杂。生成式人工智能的模型训练、内容生产及生成物应用环节,都存在着侵犯版权的风险,如未经授权使用文本数据或者生成结果中模糊版权信息等。2024年2月,Raw Story、The Intercept、AlterNet等新闻机构指控OpenAI及微软的生成式人工智能删除了文章作者和标题等版权识别信息。无版权识别信息的人类产出内容与人工智能生成内容一同出现在信息流当中,客观上会对用户产生误导,干扰用户对生成式人工智能可信度的判断。
生成式人工智能加剧了深度伪造内容泛滥。2024年初,世界经济论坛发布的《2024年全球风险报告》提出,“未来两年全球十大风险”的首位是“人工智能生成的错误信息和虚假信息”。[15]以深度伪造的负面使用为代表,生成式人工智能正在危害公民和国家安全。ChatGPT出现后不久,就被发现用强大的文本处理能力来拼凑、编造虚假信息,对用户“一本正经地胡说八道”。相比之前的Pika、Runway等视频生成模型,Sora生成视频时长较长、分辨率较高且在多角度多景别的镜头变换中能够保持一定的主体一致性。脱离了生产主体等背景信息,许多人工智能生成内容看起来与人类生产的内容极为相似,几乎能够以假乱真。作为深度伪造最典型的应用,“AI换脸”和音频深度伪造也被用于欺诈和侵权。普通用户利用公开数据和生成工具,就可以轻易生成政治名人、娱乐明星甚至普通社交媒体用户的有害内容,侵犯其名誉权和隐私权。鉴别深度伪造内容和控制其传播的成本远远高于生成成本,被侵犯者常常难以自证。此前,有用户故意使用Elevenlabs公司的软件来制作传播种族主义言论的明星发言视频。深度伪造的负面使用不仅仅是用户的个人行为,平台的内容筛选、信息分发等设计也会产生引导作用。相较于图像/视频深度伪造内容,音频的制作成本和技术门槛更低,且缺少视觉线索,增加了鉴别难度。2024年1月,新奥尔良街头魔术师保罗·卡彭特(Paul Carpenter)只花了20分钟和1美元,伪造了美国总统拜登劝阻民主党人投票的音频。深度伪造音频常常通过电话而非在线播放的形式传播,其内容难以被暂停、回放、留存和截取片段分析。
生成式人工智能的应用,使“后真相”征候更加严重。传统新闻生产中,新闻现场的人、物、环境等诸多要素,既是启发记者进行个性化表达的灵感来源,也是新闻真实性的佐证。记者的身体在场和专业素养使现场变为新闻现场,“将各类事情转化为新闻事件”。[16]随着互联网成为信息传播基础设施,新闻传播主体范围拓展至非专业新闻机构、普通社会个体甚至是机器。UGC和AIGC生产模式普及开来,使新闻生产规范受到冲击。监控摄像头和各类传感器等媒介作为记者身体的延伸,开始代替记者进入现场。“身体离场”的方式提升了新闻生产的效率,但也制约了“现场感”的表达和实证功能的发挥。[17]在融合传播环境下,新闻的传播和接收迁移到社交媒体平台,新闻生产流程和新闻文化发生转变。“流量为王”的利益驱动机制以及信息核查的高昂成本,致使部分媒体转而用制造同意替代追求真实。大量不以事实为基础且信息、情感和立场混杂的复合体层出不穷。“后真相”征候频繁出现,表现为“成见在前、事实在后,情绪在前、客观在后,话语在前、真相在后,态度在前、认知在后”[18]。训练数据库中信息质量良莠不齐,会影响人工智能生成内容的质量。在互动过程中,生成式人工智能所“臆造”的内容根据用户要求不断被改写完善,变得更加难以辨别。