领导 Cryptocurrency 通货膨胀 伟大的辞职 投资

人工智能能帮助Facebook解决虚假信息问题吗?

2021年4月6日,UTC上午10:30

除了测试美国的民主,11月的选举中接下来冲击美国国会大厦测试一下社交媒体。脸谱网它的竞争对手花了数年时间研发技术,以打击虚假信息、暴力言论和仇恨言论的传播。从某种程度上说,该系统在过滤掉数亿条煽动性帖子方面做得比以往任何时候都好。但最终这项技术失败了,这让许多类似的帖子都被忽略了。

据数据分析公司CrowdTangle称,在大选前几天,Facebook上分享最多的内容是关于普遍存在投票违规行为的未经证实的说法。排名第一的是时任总统唐纳德·特朗普的帖子,他错误地声称内华达州有数千张“假选票”,他赢得了格鲁吉亚。与此同时,大选前Facebook上最热门的新闻报道来自Breitbart和Newsmax等极右翼新闻网站,这些网站夸大了似是而非的选民欺诈指控。这样的谎言为都城被攻陷埋下了祸端。

没有哪家公司像它这样直言不讳地支持使用人工智能来监管内容像Facebook。facebook首席执行官马克·扎克伯格(Mark Zuckerberg)多次表示,就像他在2018年国会作证时所说的那样,“从长远来看,构建人工智能工具将是识别和根除大部分有害内容的可扩展方式。”

翻译过来就是:问题太大了单靠人类是无法监督这项服务的。

Facebook投入巨资,试图在其以技术为中心的解决方案上取得好成绩。有一些进展的证据。例如,Facebook表示,在其删除的所有与恐怖主义相关的内容中,其人工智能在用户标记之前帮助找到了99.8%的帖子。对于图像和暴力内容,这个数字是99.5%。仇恨言论的比例是97%。这比三年前有了明显的改善,主要是因为机器学习的进步。

ART.05.21.AI-Misinformation-Bratislav
Bratislav Milenkovic的插图

但成功可能是主观的。例如,Facebook有一项全面禁止裸体的政策。然而,该公司独立的监督委员会(Oversight Board)最近指责Facebook屏蔽了乳腺癌宣传活动中的图片。监督委员会是一个类似于为对Facebook的调整决定不满的用户设立的上诉法院。监管机构希望Facebook屏蔽那些被用来煽动年轻新兵的恐怖主义视频,但不要屏蔽那些被用于新闻节目的视频。这是人工智能努力做到的区别。

语言的意义也取决于语境。牛津大学互联网研究所(University of Oxford 's Internet Institute)的技术法学教授桑德拉·瓦赫特(Sandra Wachter)说,研究表明,人类识别讽刺的准确率只有60%左右,因此指望人工智能能做得更好是一种奢望。

圣克拉拉大学(Santa Clara University)法学教授埃里克·戈德曼(Eric Goldman)用另一种方式表示:“人工智能永远无法解决的一个问题是,上下文的问题并非来自内容本身的四个角落。”

这并不是说Facebook没有尝试。它目前正在举办一场比赛,鼓励计算机科学家开发能够检测仇恨表情包的人工智能。模因很难理解,因为它们需要理解图像和文本,通常还需要大量的文化信息。“我们认识到这是一个棘手的问题,这就是我们发布数据集和挑战的原因,因为我们需要看到整个行业的创新,”负责Facebook人工智能审核工具的产品经理科妮莉亚·卡拉普恰(Cornelia Carapcea)说。

错误信息——最近最困扰美国人的有害内容——对人工智能来说是一个挑战,因为需要外部信息来验证声明。就目前而言,这需要人工事实核查员。但一旦错误信息被识别出来,人工智能就可以帮助遏制其传播。Facebook开发了先进的人工智能系统,可以识别出什么时候的内容与已经被揭穿的内容本质上是相同的,即使这些内容是为了逃避检测而被裁剪或截屏的。它现在还可以识别相似的图像和同义语言,这些在过去可能无法通过自动过滤器。

这些系统帮助Facebook发布警告超过1.8亿条内容在2020年3月1日至选举日之间的美国。如果这是人工智能成功的标志,它也表明了问题的规模。当人工智能分析的数据随时间变化不大时,它的工作效果最好。但仇恨言论或虚假信息却不是这样。结果是那些传播恶意内容的人和Facebook系统之间展开了一场猫捉老鼠的游戏。

一些人指责Facebook提高了公众对人工智能的期望。圣克拉拉大学(Santa Clara University)的戈德曼说:“如果夸大这项技术的效率能转移进一步的监管,这符合他们的自身利益。”

如果夸大这项技术的效率能转移进一步的监管,这符合它们的自身利益。

Eric Goldman,圣克拉拉大学

还有人说,问题的根本在于:Facebook赚钱的方式欧宝球网站是把用户留在自己的平台上,这样广告商就可以向他们进行营销。而有争议的内容会提高用户参与度。这意味着,如果有害帖子从Facebook的“拉网”中溜走,该公司的其他算法将会放大它们。“商业模式是核心问题,”公民自由非营利组织电子前沿基金会(Electronic Frontier Foundation)的研究员吉0b足球利安·约克(Jillian York)说。

在11月大选后的几天里,随着政治紧张局势达到白热化,Facebook确实调整了其动态消息(News Feed)算法,以淡化传播错误信息的消息源,并增加来自高质量媒体的新闻。但几周后,该公司撤销了这一改变。

目前,Facebook降低了它认定为虚假信息的内容的突出程度,向那些试图分享已知虚假信息的人显示警告,并在人们之前分享的故事后来被揭穿时通知他们。该公司表示,反复分享错误信息的用户很少会被踢出该服务,但他们“会发现自己的整体传播量减少,并将在特定时间内失去广告或盈利的能力”。

Facebook的Carapcea表示,该公司正在考虑对其他有害内容采取类似措施。但人类将继续在决定何时应用它们方面发挥重要作用。

卡拉普恰说:“达到100%是一颗很好的北极星,但最终可能不是这里发生的事情。”

Newsletter-Red-Line-15

人工智能的应用

Facebook的人工智能在帮助识别和删除有害内容方面的记录好坏参半。以下显示了Facebook在没有用户输入的情况下删除了多少不同类别的内容:

99.8%:恐怖主义的内容
97.1%:仇恨言论
92.8%:颂扬自杀和自残
90%:选举压制、虚假信息和威胁(2018年选举)
48.8%:网上欺凌

资料来源:Facebook(2020年第四季度,除非另有说明)

本文发表于4月/ 5月问题欧宝竞技ob标题是“Facebook的复杂清理”。