找回密码
 立即注册
搜索

GAITC 2021智媒专题论坛丨罗杰波:自动检测虚伪信息

6月6日下午,由中国人工智能学会(以下简称CAAI)主办,新浪旧事结合中国传媒大学共同承办的2021全球人工智能技术大会(GAITC 2021)“发展与应战”专题论坛在杭州拉开帷幕。罗彻斯特大学教授、ACM/AAAI/IEEE/SPIE/IAPR Fellow罗杰波在本次专题论坛上,以视频接入的方式与来自业界,学术界的嘉宾们分享了《矛与盾:虚伪信息的鉴别与分布之战》的报告。



罗彻斯特大学教授、ACM/AAAI/IEEE/SPIE/IAPR Fellow罗杰波。

罗杰波教授提到,社交媒体由于它的通用性和开放性,同时也带来了其他成绩。最大的成绩就是虚伪信息,包括谣言以及不实的音讯,从而成为宏大的社会成绩。为了控制谣言的分布加强旧事的可信度,我们必须用自动检测的方法来检测这些虚伪信息。

以下为罗杰波教授演讲实录,内容经编辑略有删减:

大家好,明天给大家报告的标题是《矛与盾:虚伪信息的鉴别与分布之战》。社交媒体近年来曾经成为获取旧事和了解舆情的重要渠道。社交媒体由于它的通用性和开放性,同时也带来了其他成绩。最大的成绩就是虚伪信息,包括谣言以及不实的音讯,曾经成为宏大的社会成绩,为了控制谣言的分布加强旧事的可信度,我们必须用自动检测的方法来检测这些虚伪信息。

明天给大家引见一下我的研讨小组在这方面的工作,包括在一些严重的事情中谣言的影响。

众所周知社交媒体上充满各种谣言和虚伪旧事。虚伪信息检测有很多的运用,对于社交媒体平台来说,这有助于保证他们的可信度;对于旧事、媒体来说,有助于保证旧事的可信度。

谣言检测详细的做法有两个重点:一点就是特征提取,另外一点就是建立一个检测模型。从特征提取来说有这么几大类:有文本的特征、有图像的特征、有用户的特征也有传播的特征,这些特征都是有用的。

对于检测模型来说有两大类的方法,后期大家用的都是检测模型,也就是说建立一个模型把任何一条旧事分类成要么是真实要么是虚伪的。这是针对内容来的,针对内容的方法有一个缺陷,它忽略了谣言传播上的特性。

所当前来有以传播模型为主的检测方法,把旧事传播中的各种entity变成了网络,经过网络的分析停止谣言检测。这样的方法比后面根据内容的方法普通来说要准确的多。但我们可以证明把这两种方法结合在一同,以获得最高的检测度。

明天我大概引见一下后期的三个工作和我们最近正在做的工作。后期三个工作第一个工作是AAAI2016的,它代表的是用graph-based传播模型停止检测的。.ACM Multimedia 2017这个工作次要是对多媒体的内容和特征停止检测。

先讲第一个:我们想经过社交媒体上音讯传播过程中自然会产生的对立的观点来停止谣言检测。图示这个就是框架,有一条音讯传播的过程中有人支持这个音讯有人反对这个音讯。

有三条音讯,这两条音讯互相支持,这两条音讯互相反对。对互相支持的音讯来说,假如我们知道其中一条是可信的,那么另外一条也是可信的。反之,对立的观点假如其中一个是真实的,那么另外一个就是虚伪的。这个特性在以前的工作中没有被采用,我们在这个工作中应用互相支持和互相反对的关系来做谣言检测。

第一步首先要把互相支持和互相冲突的观点找出来。首先有Topic Model,然后有传播网络,传播网络中把冲突的观点找出来,也就是互相支持的音讯就把它标成绿的,互相反对就标成红的。

有了这样的网络之后可以计算这个可信度,详细的可以参见这篇论文,经过互相支持和互相反对的关系在网络中把谣言要么证明要么证伪。

这是详细怎样计算传播中权重的公式。下面讲一下结果,我们会看到这两个工作是后面的工作,是基于内容的,第三个工作是我们计算所合作者组里早先的工作,他们思索到了传播中的特性。 CPCV就是我刚刚引见的方法,是思索到了传播过程中音讯之间互相支持互相反对的关系,因此我们获得了最好的效果。值得一提的是这个方法CPCV有一个特点:谣言传播的早期它的检测的正确率很高,比起后人的工作来说很高。我们要控制谣言,当然最好控制在早期和萌芽之中。这种方法给我们很重要的工具就是可以尽早地控制谣言,这就是我刚刚指出的优点。

第二个工作是2017年的工作,就是怎样样用多媒体的特征来停止谣言检测。我想强调一下我们是用图像信息的,由于我们是多媒体信息。为什么图像信息很重要?图像在社交多媒体中越来越广泛的运用,新浪微博有一个统计,超过一半新浪微博的音讯有图片的。有图片音讯的传播更为迅速,有统计表明,有图片的微博和没图片的微博传播的速度和数量差一个数量级。

我给大家举个例子阐明一下图像在虚伪音讯中的价值,有的是张冠李戴,把早先出现的图片安到新的事情上,有的是容易惹起曲解的图片。

还有一个虚伪图片,图片是造出来。在带图片音讯中文本和图像都有能够暴露音讯的虚伪性,有的在图片里,有的在文字里也是耸人听闻的,因此暴露虚伪性。

这个框架有三个部分:第一部分是经过LSTM来Model文本音讯,当然LSTM同时把文本和社交上下文信息整合在一同。第二部分这个网络是提取视觉的特征,第三个部分的模块经过留意力机制把文本信息,上下文信息和图片的信息整合到一同停止一致的训练。上下文我们指的是标点符号的运用和链接等等,这个看起来不是很多信息,但反而可以暴露虚伪信息。

最后这个留意力机制,把文本和视觉信息进一步整合起来。我们做的实验就是用两个都是多媒体的数据集,一个是从微博抓取的,一个是从推特抓取的。比如说单模态的做法,我们把三个模态分别拿来做监测能做到什么效果。还有一个比较简单、直观的交融模型。还有,我们做了两个以神经网络为基础整合的方式,一个是借用了VQA,另外一个是借用了NeuralTalk。我们把一切的其他方法跟我们提出的框架停止对比,这些就是实验结果。有意思的是社交上下文的信息在微博外面比图像和文本更有效,在推特就不是很有效,这阐明文明上的差异。

我们也做了消融实验。一些用词也会协助我们检测谣言,还有一些经过两个模态分别不是很确定,加在一同就可以确信这个是虚伪音讯。

为了检查相似度,第一大类方法是term based,次要是TF-IDF。有一个改进的版本是BM25,是改进了TF-IDF,是把数据停止了归一化。

讲一下最新的工作,是针对新冠盛行病的。这个工作还没有发表,我们抓取了大概有160万条关于新冠疫苗的推文。我们经过一些手腕知道这些推文是不是发真实的音讯或者谣言,要么是假的要么是正常的。我们借用美国CDC打疫苗的tracker还有统计局的数据,包括疫情的一些死亡率阳性率,最后用回归停止分析。有关疫苗的虚伪信息占比状况大概是1%左右,平均上去大概不到1%是谣言。

下面用了time window计算谣言的数量。这边time window用的是四天,另外正常发的音讯用的是五天。为什么用四天和五天呢?是经过Granger Causality test决议的。关于疫情或者疫苗用的是七天,这些做法都是为了去除噪声。

我们怎样把这些变量加到回归关系中去?早先被另外一个研讨组用的时分,他们思索一些用户的特性,比如说性别、年龄等等。我们同时也思索了用户的经济才能等等。

最后提一下另外的相关工作。如今网络上有很多分布仇恨的言论,有一个现象就是这些分布仇恨言论的人,他们会试图逃避检测软件。检测软件会靠关键字检测仇恨言论,为了逃避这些检测,他们用了代码,这个是比较狡猾的方法。

我们做了一个工作,我们检测这些仇恨言论,是经过仇恨代码,而不是根据关键字。而且是根据文字上下文来检测是不是仇恨言论。还有一个特点,这个方法可以继续跟踪仇恨代码演化。这些分布仇恨的人很狡猾,当他们知道软件发现是这样用的时分会改仇恨代码。我们怎样样持续地跟踪?我们是用自然言语了解的方法分析常常出如今一同别的信息,只需这些别的信息同时出现,可以反推,继续跟踪。

最后我做个小结。第一,虚伪信息检测是非常重要的研讨方向,同时对社会有很大的运用价值。第二,虚伪信息检测中多媒体内容的分析非常重要,而且可以和信息传播的分析一同结合来提高检测率。第三,如今讲可解释的AI,对虚伪信息检测而言可解释性也很重要,我们要知道为什么算法说它是虚伪信息。

最后,在严重事情时期经过检测和发现虚伪信息,我们可以发现很重要的公共意见和舆情信息。关于虚伪信息分布和鉴别的和平是长期的和平,将会是一个持续的研讨课题。(张铭阳)

来源: 中国网迷信

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies