剥夺了人工编辑工作的人工智能算法会赢吗?

人工智能夺取了权力,“把备胎变成正式成员”的戏剧再次在媒体行业上演。

5月底,微软宣布将解雇50名从事新闻筛选和策划的编辑,代之以与这些人工编辑一起工作了一段时间的人工智能编辑。

结果,英国新闻协会的大约27名编辑被告知,他们将在6月底被解雇,该协会负责维护其在MSN网站和微软边缘浏览器上的新闻主页。

尽管微软明确表示,裁员与新皇冠流行病导致的新闻媒体广告收入下降没有直接关系,但人工智能技术被用来降低新闻团队的人工成本是一个不争的事实。

对于这些无助的“镜头”新闻编辑来说,曾经为他们提供各种新闻和筛选建议的人工智能算法推荐结果是这样一个“秘密锐化”的人工智能。

在报告中,一位即将被解雇的编辑强调,用人工智能完全取代人工智能是有风险的,因为只有手工编辑才能确保网站不会向用户显示暴力或不适当的内容。这对于人工智能来说确实是个问题,因为它更擅长推荐符合人性的内容,但却不能识别一些潜在的社会和道德风险。

当然,自从微软在1995年推出MSN新闻以来,已经有25年了。全球至少有800名编辑仍在从事新闻筛选和推荐。未来,微软的新闻团队仍将与人工编辑和人工智能编辑合作,但人工智能取代人工编辑的趋势可能会明显加快。

从普通吃瓜者的角度来看,我们也被各种新闻信息和视频平台推荐的算法所支配。最明显的经验是,我们花越来越多的时间在让我们“无法停止”的内容上。

人工智能会在取代人类编辑的最后一战中获胜吗?我们将从人工智能算法和人工编辑推荐的顶部和争议来探讨人工智能算法和人工编辑推荐的可能结果。

信息传播:从“人们寻找信息”到“信息寻找人”

太阳没有什么新东西。算法推荐虽然是近几年随着移动互联网内容应用的爆炸式发展才出现的,但本质上仍然是人类信息发布的一种新形式,我们对信息发布的需求自古就存在。

赫拉克利在《人类简史》年提出了一个新的“假设”,即聪明人击败其他物种的原因是我们特别擅长“八卦”和“聊天”。“流言蜚语”帮助整个社区建立情感纽带,并在前进和后退中团结起来。“聊天”有助于传授经验。出去的人告诉村民哪里有危险,老猎人教年轻猎人如何捕捉猎物。这是信息最自然的社会分配,大大提高了人类合作的效率和文明的延续。

从那以后,我们经历了口耳相传的史诗,捆绑绳索的记录,甲骨文篆刻的象征性记录,以及后来的文章和古籍。现代文明的繁荣得益于印刷术的不断进步。在过去的200多年里,新闻报纸、图书出版、广播电视等新的信息传播媒介应运而生,形成了当代社会信息传播的基本格局。

互联网的出现突破了信息传播的时间和空间界限,使信息得以在网上和全球传播。然而,传统的互联网信息传输仍然延续着物理世界的范式。例如,互联网早期出现的门户网站和搜索引擎借鉴了图书馆的目录分类和百科全书的条目索引。

新闻和其他信息的传播依赖于权威和集中组织的收集和报告,用户信息和知识的获取依赖于主动浏览和筛选。

随着信息的爆炸式增长和人们信息消费的碎片化趋势,人们寻找信息的方式遇到了新的挑战。算法推荐和相应内容分发平台的出现,开辟了人类通过机器算法推荐“发现信息”的新模式。

1995年,尼古拉斯尼葛洛庞帝预言的《数字化生存》“我的每日”现在已经成为现实。信息传播正朝着满足受众用户个性化需求的方向发展。

几乎与此同时,明尼苏达大学的团队开发了第一个自动推荐系统GroupLens,它成为了最早的协同过滤推荐算法的发起人。此后,算法推荐系统也在亚马逊的电子商务平台和网飞的视频流服务中投入使用了很长时间。

2016年可以说是新闻算法推荐兴起的第一年。今年,YouTube将深度神经网络应用于内容推荐系统。今年,在中国的新闻和信息发布市场上,算法推动的内容首次超过了50%。

也是在今年,信息算法推荐的标题在今天首次应用,并最终突破了四大门户和英美技术支持的媒体平台,实现了6000万人的日常生活。

但是从那以后,算法推荐本身就一直有争议。2017年9月,Renmin.com专门用三篇社论来批评新闻应用的“算法推荐”,比如今天的头条。当然,社论首先肯定了算法推荐符合时代潮流,满足了人们个性化和多样化的信息获取需求,但具体指出了以下问题:

算法推荐将允许劣质内容的扩散。一些推荐算法只会迎合公众的好奇心,最终只会反复推送那些低质量的内容,最终“烂钱赶好钱”,使得传统媒体的高质量、全面的信息无法到达公众用户手中。

推荐算法中所谓的“个性化”推荐只会机械地推荐一些相关性强但内容单一的信息,甚至过滤掉那些不熟悉、不愉快的信息,形成“信息茧屋”。

该算法推荐的信息抓取可能不仅涉及大量的版权问题,甚至可能走向“创新的反面”。也就是说,智能推荐会变得庸俗、低俗,充斥着大量缺乏独立思考和深入观察的肤浅内容,这反过来又会破坏社会的创新发展。

人民网的批评也代表了许多传统媒体和精英的观点,这些现象确实符合我们大多数人的直觉印象。然而,在达成一致之前,我们仍然需要进一步理解算法推荐的基本方法和开发,并找出为什么人们如此容易被算法“驯服”。算法建议如何突破自身的限制并继续发展?

算法推荐:人类,太人类了

信息传播的本质是将人与信息有效地联系起来。算法推荐的实质是利用机器算法实现大规模的自动信息发布,使信息能够自动发现人。

因此,算法推荐需要解决三个问题:了解信息、了解人、知道人们何时何地需要这些信息。然而,归根结底,算法推荐的核心是了解人,即了解人的使用习惯、兴趣爱好,然后通过加权推荐算法预测用户可能感兴趣的信息和话题。

新闻信息的主要推荐算法来源于一些数学算法。以下算法主要用于主要的新闻信息聚合应用:

1.内容推荐。这是最常用的信息推荐算法。算法系统标记文本内容。一旦用户点击、浏览、喜欢、评论和分享相关内容,系统将为用户标记相应的兴趣。这样,更多相关标签的文本可以与用户标签相匹配。例如,看过“德甲”内容的用户将获得更多关于“德甲”的信息。

对于内容推荐,如果不能事先获得用户的兴趣标签特征,很容易遇到冷启动问题。因此,除了内容推荐之外,还需要其他推荐方法。

2.协同过滤推荐。这是推荐系统中应用最早、最成功的技术之一。它采用了“人是按其种类聚集在一起的”的常识性概念

协同过滤推荐采用体验共享的方式,避免了内容推荐中内容分析不准确、过于单一等问题,能够为用户发现潜在的兴趣偏好内容。

3.受欢迎的推荐。热门推荐来源于传统媒体的思维模式,主要是基于当前热门新闻事件和话题的内容推荐。不同于传统媒体的人工筛选,新闻聚合平台的自动算法推荐是通过数据统计将点击率和关注度最高的新闻推给用户。

此外,还有一系列基于规则、效用、知识和各种组合的推荐算法来实现对用户的个性化推荐。

换句话说,对于那些使用算法推荐的内容平台来说,它们相当于拥有一个“秘密武器”来对付处于信息焦虑和信息饥饿中的移动互联网用户。即使你是一个新手用户,并且平台对你知之甚少,它也会通过允许你定制兴趣标签、尝试不同类型的内容推送、AB测试等方式,快速找到你真正的爱好。

然而,从根本上说,像今天的头条这样的内容平台的一个基本“原罪”是,该平台的目的是尽可能多地抓住用户的时间和注意力,而不是让用户获得基本信息,然后拒绝。

新闻广播也会按时结束,但是这些内容平台可以随时更新,并且可以无限期地提供。获取流量是其运作的本质。因此,该平台的推荐算法将尽可能地取悦用户,并利用用户的人性弱点来反馈信息。

这正是内容平台经常被人们批评的地方:主题派对猖獗,文章泛滥,充斥着人性弱点的色情低俗内容层出不穷。一旦由于好奇而浏览相关内容,该算法将完全推荐更多相关信息。这也是所谓“信息茧屋”的根本原因。该算法纵容人性,这反过来巩固了认知,使用户在他熟悉的信息圈中打转。这也是许多人对内容平台深恶痛绝的深层原因,但他们似乎无法停止。

然而,应该指出的是,算法推荐本身不必为内容平台上的这些问题承担责任。原因很简单,就像“一个人用刀杀人,而责任在于一个人,而不是刀”。事实上,通过算法推荐本身的进化,这种用户的信息“偏食”行为和“信息茧屋”问题可以得到解决。

算法推荐自助:人机合作是正确的方式

无论对算法推荐的批评有多严重,算法推荐的流行和普及都是不争的事实。算法推荐的真正改进在于改变信息分配的方式,即从集中的“责任检查”分配到基于个性化机器智能推荐的“算法检查”分配。

这种分发方式极大地提高了信息分发的效率,当然,它也导致了传统权威和专业媒体分发“算法”的失效和分发内容权重的降低。然而,从现在开始,传统权威媒体不再持有最初的消极和压抑态度,而是以积极的态度拥抱新媒体平台,参与算法推荐的流量竞争,并凭借其官方身份和专业内容在新媒体时代重新获得用户认可。

对于算法推荐带来的“劣币驱逐良币”的问题,这的确是以前算法推荐的弱点。一些最早的机器学习算法和推荐算法无法识别文章的内容是否被怀疑标有派对、假新闻、洗稿、低俗、色情等内容。事实上,这些劣质内容是平台一直试图消除的隐患。

毕竟,平台的发展不能仅仅依靠这些内容,而是会带来大量的版权、投诉和负面的公众意见。目前,各平台加大了内容安全机制的建设,包括高风险内容的识别模型技术的广泛应用和大规模的人工审查和验证。去年,由于虚假新闻的泛滥,就连同样痴迷于算法推荐的脸书也开始使用人工编辑来审查内容。

至于“信息茧室”,正如北京师范大学教授于国铭最近在《算法推荐必然导致“信息茧房”效应吗》论文中指出的,算法推荐不是形成“信息茧室”的必要条件。“信息茧室”产生后,算法推荐没有协同效应,甚至有一定的消化作用。

总之,由于算法的推荐,“信息茧屋”的存在并没有出现。传统社会中单一的信息、严格的媒体控制和个人信息的“偏食”倾向,都是造成“信息茧屋”的原因。相反,在算法推荐时代,个人用户仍然有来自传统媒体渠道、社交媒体渠道和其他来源的多种信息来源,这使得创建这种“信息茧”生成机制更加困难。同时,随着算法推荐技术的不断迭代,用户潜在的信息需求也在不断挖掘和丰富。

最后,在算法推荐和人工编辑推荐的较量中,我们应该真正推广一个具有“人文理性”和“技术理性”的可信算法推荐系统。显然,该算法仍然更容易为用户提供“身临其境”的信息阅读体验,而算法与人之间的互动本质上是“算法背后的设计者价值逻辑或意识形态与用户之间的互动”。这就要求算法设计者在认识到“信息茧屋”可能带来的危害后,积极寻求更优化的解决方案,建立可信的算法推荐系统。

除了算法推荐,最重要的是坚持人机合作,即重视基于算法推荐的手工编辑的应用,包括提供新闻专业性的理念和设置更多的公共议题;提供更多关于利弊的加权信息;提供更多关于随机视角等的信息。

回到微软新闻的裁员问题,前一种模式是人工智能算法来辅助人类新闻编辑,而未来更可能是人类新闻编辑来辅助人工智能算法来优化内容推荐的质量。显然,人工智能算法推荐不能完全取代人工编辑工作。该平台不会放心,它会把所有的信用和内容选项交给人工智能算法。

在人类发展史上,一项技术的发明和应用从未起到助燃剂或催化剂的作用。

就人工智能的算法推荐而言,它既不会破坏传统媒体的生存基础,也不会把人类彻底变成目光短浅、孤立无援的傻瓜。

事实上,如果我们仔细观察,当你发现你周围的老人整天盯着他们的手机,关注发生在他们自己城市里的各种事情,政府发布的各种政策,以及媒体上关于狗血的各种精彩故事,这可能是对他们生活和精神的一种解放,至少拓宽了他们的视野,消除了盯着家里琐事的需要。

然而,对于那些因为人工智能而工作的媒体人来说,没有必要悲观和叹息。夜深人静时,笔耕继续开始你的创作。这些内容平台可能会给你一个更光明的未来。