Ladies and 乡亲们,拜个早年!欢迎来到「傻瓜 AI 冒险家」周末专栏的第二期,我们主打普通人也能看懂的 AI。
喜欢吃瓜的朋友们可能知道,去年 12 月《纽约时报》状告 OpenAI 的官司,这家百年老报说 OpenAI 未经允许使用了《纽约时报》数百万篇文章,来训练像 ChatGPT 这样的聊天机器人,并且 ChatGPT 在回答用户问题的时候,也时常会成段地使用这些文章里的文字,严重侵犯了《纽约时报》的版权。然后,《纽约时报》说,赔钱是不够的,你必须 order the「destruction」of ChatGPT,将 ChatGPT「销毁」。
狭路相逢,各执一词
这场官司的火药味,相当浓厚,符合《纽约时报》向来「刚烈」的个性。而且《纽约时报》还在自己发的文章里写,这场官司打开了使用「未经授权的出版作品」来训练 AI 的「法律战争」的新战线——其实在《纽约时报》之前,也已经有作家状告 OpenAI,理由也是 ChatGPT 的训练内容侵犯版权,但动静没有《纽约时报》闹得这么大。
《纽约时报》并没有提出具体的金钱赔偿要求,但主张 OpenAI 的侵权行为造成了「数十亿美元的法定和实际损害」。《纽约时报》还说,他们在走上法庭之前,已经找过 OpenAI 和微软,但「协商」没有取得有效的结果。
那么面对着掌握报道机器的《纽约时报》,OpenAI 又是怎么说的呢?
今年 1 月初,OpenAI 发表了一份声明,表示他们不同意《纽约时报》的诉讼——「这没有法律依据」,并且指出 OpenAI 正在与新闻机构合作,创造新的机会,培训 AI 使用的内容是「公开的互联网材料」,属于合理使用(fair use)。关于 ChatGPT 将《纽约时报》的整段内容在聊天中「吐出」的问题,OpenAI 轻描淡写地说这属于「罕见的错误」,他们正在「努力将其将至零」。
听起来,OpenAI 就像在说,我们掌握了最新的技术,还愿意跟你们合作,你们还有什么意见?而《纽约时报》的立场是,我们是有订阅制的,你不仅没有付款就使用我们的内容,还把我们的内容成段地给读者,那我们还怎么挣钱?
在另外的一篇博客文章里,OpenAI 的发言人还补充说,他们实际上与《纽约时报》进行了「有建设性的对话」,主要的协商内容是在 ChatGPT 中对引用了《纽约时报》内容的部分进行标记,所以对于《纽约时报》的这一纸诉状,他们感到很惊讶,并且失望,他们仍然希望能找到一个让创作者从 AI 技术中获益的双赢办法。
这场官司,或者说博弈,目前还没有结果。许多外媒的猜测是,法院确实有权像《纽约时报》要求的那样下令「销毁」ChatGPT,就像销毁其他的侵权或盗版产品一样,但是法院采取这种「极端」手段的可能性不大,因为美国的版权法从未被用于销毁人工智能模型,而且要「销毁」ChatGPT 必须满足两个条件,一是「不得妨碍合法活动」,二是「它必须是可以防止侵权的唯一补救措施」。ChatGPT 的问题,显然要更复杂一些。
打不过就加入?
不过话锋一转,最近《纽约时报》似乎有了一种「打不过就加入」的领悟,说他们正在组建一个新的工程师和编辑团队,来试验可否用生成式人工智能(Generative AI)来产出新闻。当行业大佬走出这一步的时候,大家都知道,我们又将迎来一场内容革命了。
《纽约时报》的这支队伍,将由 Zach Seward 领导。Zach Seward,是 Quartz 的联合创始人、前首席产品官、前主编和前首席执行官,一直以来都是数字媒体技术和体验的先行者,Quartz 也被称为一家「为数字时代而生的商业新闻网站」。根据《纽约时报》给员工的说明,Zach 将协助制定「How we do and do not use generative A.I. 我们如何使用/不使用生成式人工智能」的基本原则,为记者们设计人工智能培训项目,并尝试使用人工智能工具和想法来拓展《纽约时报》的报道范围。
据《华尔街日报》消息,早在去年 8 月份,《纽约时报》就已经在内部会议上讨论如何利用人工智能技术提高现有工作效率,包括生成标题创意或者分析数据等,并且现在内部已经允许员工申请使用人工智能工具。但目前,我们还不知道这次《纽约时报》大举招募工程师之后,是会采用已有的 AI 模型,还是重新建立一个独立的模型。
《纽约时报》在宣布这件事的时候也强调:我们的记者还是会继续做新闻报道的。甚至最近,《纽约时报》还加强了记者简介,并且增加了记者的短视频内容,似乎也是为了对抗 AI 让创作者身份愈发模糊的残酷现实。
过去十年,像《纽约时报》这样的传统大媒体在快速的技术发展中不断受到巨大的冲击,阅读量下跌、广告商撤退,人们似乎只需要从社交媒体上获取内容了,传统媒体竖起的高高的「订阅墙」,也是杯水车薪,连大名鼎鼎的《经济学人》都在机场开了个小店,卖一些他们的杂志,以及更多的其他的杂物。
而过去一年,ChatGPT 的崛起无疑引发了一轮新的恐慌,如果媒体费心产出的内容,聊天机器人都可以随意抓取,那么谁来承担产出优质内容的成本呢?但是,另一方面,人工智能时代,我们真的还需要为内容付出那么高的成本吗?
AI 是否会降低内容成本?
《纽约时报》起诉 OpenAI,回答的是第一个问题,而它转而建立自己的人工智能团队,是在尝试回答第二个问题。
那么当下的人工智能,究竟可以为新闻内容创作做些什么?
在我们日常的实践当中,AI 已经可以很流畅地进行各种语言的翻译和润色、为新闻撰写概要、为一篇报道起一些符合常规的标题、按照一定格式将新闻摘要编入邮件、撰写给读者的信息,它可以非常快速地为你提供选题灵感、搜集网络上所有相关的资料、搜索学术论文、抓取数据、分析你提供的数据并得出趋势结论,乃至进一步撰写整个段落或整篇文章;如果你去做采访,AI 可以为你生成采访提纲,还可以帮你把采访语音迅速转化成文字记录,并且进行要点梳理;如果你学会使用图像生成工具,它甚至可以为你生成真假难辨的照片,或者为你设计栏目的头图;如果你需要的话,你还可以训练 AI 帮你做电话调查。
但是,新闻内容当然还有许多 AI 还无法做到的部分,如果你问 ChatGPT,它会告诉你,它无法理解新闻报道当中的特定背景和文字的微妙语义;它无法进行调查性的新闻报道,因为它缺乏直觉和批判性思维,也不能解读非语言的线索;它无法进行伦理判断,因为 AI 只能遵守人类输入的规则,比如 OpenAI 规定它不能生成「脑机接口」相关的内容,它会告诉你说它不能生成,而且它只知道这好像跟伦理有关,但它并不真的理解;它无法适应可不预测的事件,而这正是新闻的重要组成部分;它可以进行一定程度的创意故事讲述,但是它缺乏对人类情感共鸣的理解,它的故事会缺乏深度,以及与人类的连接。
当然最重要的两点,ChatGPT 意识不到:第一,当前生成式 AI 的内容终究是基于人类已有的庞大内容库,它的东西常常是东拼西凑的,涉及侵权或者抄袭,而且常常「编起来没边」,将不符合事实的内容说得头头是道;第二,AI 并没有亲历生活的能力,它无法感知人类的焦虑,社会的起伏,当你有了想法,把数据输入给它,它可以给你提炼出线索和趋势,但是它无法预判,也无法观察。
所以,人工智能可以一定程度上降低内容制作成本,让所有机械的工作变得更高效,但是新闻报道的核心依然是人,是能够灵活应用 AI 工具来进行报道的人,最终是不是会降低成本,可真不好说。
比如著名科技网站 CNET,去年就因为采用人工智能产出报道而导致了数十篇文章内容出错,被发现之后,CNET 迅速暂停了 AI 工具的使用。现在,CNET 在网站上刊登了详细的 AI 使用政策,包括 AI 生成内容一定是基于他们自有的内容和数据,或者会有专门的编辑仔细检查信息的准确度和来源,避免出现信息错误、抄袭和侵权的情况。同时,他们在训练自有的 AI 的时候,也会着重训练其对内容来源进行准确标记,让所有创作者的内容都获得应有的认可。此外,CNET 还明确写道,他们不会使用 AI 来撰写完整的报道、进行产品评测,以及生成图像或视频。
CNET 禁止的这些,正是很多新闻网站正在采用的方法,而这也成为区隔一家媒体内容质量的一个新的重要指标。
AI 生成内容并不是不能利用,事实上 AI 撰写的段落或者生成的故事,有些还是很有意思的,甚至有时候 AI 能够为我们提供很有趣的创意和灵感。但是,创作者始终应该获得尊重,AI 抄袭和人工抄袭并没有本质区别。另一方面,AI 生成内容有非常多重复的套路和内容,这显然并不能形成一个丰富的内容生态,对于人类智识的增长,并不能带来助益。
对于普通读者来说,可能很多人已经有体会,在浏览新闻的时候总要择机多点击不同的内容,才能让自己的新闻源保持多样性,否则很快新闻源就会被单一内容占据,你再也听不见「不同的声音」,媒体如果依赖 AI 产出核心内容,呈现出来的面貌,恐怕也会是如此,甚至充满谬误。
《纽约时报》的「打」与「加入」,正是应有之义。
原创文章,作者:蔡康淇Stella,如若转载,请注明出处:https://www.cydao.com/22704.html