加入收藏 | 设为首页 | 会员中心 | 我要投稿 开发网_开封站长网 (http://www.0378zz.com/)- 科技、AI行业应用、媒体智能、低代码、办公协同!
当前位置: 首页 > 大数据 > 正文

1秒揭穿假新闻,阿里正式推出“人工智能谣言粉碎机”

发布时间:2021-08-17 12:34:48 所属栏目:大数据 来源:互联网
导读:愚人节,对我们而言只是开心一乐。对父母而言,网络谣言可能让他们每天深受其害。 4 月 1 日这个特殊日子,阿里正式推出达摩院研发的AI 谣言粉碎机技术,最快能在 1 秒内识别假新闻,希望帮助社交平台和新闻网站从源头锁住谣言,让父母不再每天都过愚人节。
愚人节,对我们而言只是开心一乐。对父母而言,网络谣言可能让他们每天深受其害。
 
4 月 1 日这个特殊日子,阿里正式推出达摩院研发的“AI 谣言粉碎机”技术,最快能在 1 秒内识别假新闻,希望帮助社交平台和新闻网站从源头锁住谣言,让父母不再每天都过愚人节。
对于此举,网友都堪称良心之作,并纷纷发表了看法:
 
那么,这个 AI 谣言粉碎机究竟有哪些黑科技?下面跟着小编一起来深入了解。
阿里开发 AI 谣言粉碎机,谣言识别准确率达 81%
阿里巴巴达摩院的科学家,造了一个谣言粉碎机,这是一个算法模型,可以识别真假新闻,未来也能应用在各大领域。
这是怎样一种算法?准确率高吗?真的可以终结谣言?“谣言粉碎机”的创造者李泉志做了解释。
①“粉碎机”的前生功能是为记者提供可靠线索
《速转!科学家发现:一味中药 48 小时可杀死 60% 癌细胞!》《晚上喝白开水的朋友,再不看就晚了!》《专家说了,这样东西千万别吃!》……
你有没有收到过父母发来的这些“关怀”?又有多少次是抱着“算了算了,你开心就好”的心态结束话题?“不能保证***准确,但基本可以判断是否为谣言。”
李泉志,达摩院 NLP 团队的核心成员之一,毕业于清华大学,后在美国获得自然语言理解方向的博士学位,目前在达摩院的西雅图办公室工作。
在加入达摩院前,他曾是路透社重要的“情报官”:通过机器筛选成千上万的网络信息,为数千位一线记者提供可靠线索。
“AI 谣言粉碎机”就是借助自然语言实现的。在刚刚结束的 SemEval(自然语言处理领域的国际权威比赛,由国际计算语言学学会举办)全球语义测试中,“AI 谣言粉碎机”创造了假新闻识别准确率的新纪录,达到了***的 81%。
 
②判断一个新闻真假要分三个步骤
“AI 谣言粉碎机”要怎么去判断是否为谣言呢?李泉志说,分三步:
首先,该模型会找到最初的信息源,分析用户画像,包括:专业领域,此前传播或转发过什么,是个人还是机构,注册时间,活跃规律等,来判断发布者是否“可靠”。
然后根据不同态度的人群比例、各自的信誉度等信息,计算出此新闻的可信度。
第二步,寻找网上所有的信息源,看看链接的域名,是否来自可信网站,比如新华社、政府医药管理局等。
第三步,将正文里关键的论证提炼为知识点,与知识图谱里的权威知识库做匹配验证。
如果毫无联系、自相矛盾,减分。李泉志解释,“AI 谣言粉碎机”会考虑一部分人类的想法,更多的则是 AI 的运用。
人工智能有很多人类比不了的地方,比如当一个流言在社交网站上传播很快的时候,我们很难去判断真假,不知道谁接收到了,是出于什么原因转发,不同的人对此的评价是什么,而这些 AI 可以做到。
“假如来一个流言,人可以通过网站去查证,但是 AI 可以快速把科学研究、新闻拉出来,加上后台知识库的对比,做一个验证。人脑中有基本判断,但是没有大型的知识库。”李泉志说。
就拿“AI 谣言粉碎机”的训练样本来说,就要分至少两个层面:
首先拿底层的 2 亿条信息,几百万条新闻,训练语言样本。
再将模型进行谣言的真实性训练。
“是一个复杂且费时的过程。”李泉志表示。
 
③谁制造谣言?论文是否抄袭?未来粉碎机还有更多功能
其实,要建这样一个数据模型,并不容易。李泉志坦言,他在前一家公司就开始研究,到如今,也还需继续完善。
他们有一个小团队专门在研究这一技术,因为,总体来说这不是一个单独能列出来的技术,是自然语言所有技术的综合。
目前,该模型也并未应用于阿里巴巴的任何业务中,李泉志坦言,数据模型需要不断被“训练”,也需要得到社会的认同,而这些,都不是短时间内能解决的。
可以想象的是,“AI 谣言粉碎机”未来将被应用的多个场合。比如,可以识别论文是否为抄袭,用技术从个人的写作风格、方法论、主题等多维度去判断是否为抄袭。
过去有人说某年轻作家后期的作品由人代笔,以后用 AI 就能分析得出结论。
另一方面,可以协助警方找到真正谣言的制造者。通过 AI 去追踪传播路径,从传播路径中,将传播分解,可以发现规律。
比如传播了哪些用户,用户是什么反应,是简单的转发,还是赞成、反对,还是进行了二次加工。
“当然,该模型也还是需要更多的语言训练。比如有些用户转发时,说的是反话、讽刺,有些是隐喻,不知是否是真实的情绪表达,这些作为机器很难对此做出判断,但是通过大量的训练,是可以实现的。”李泉志表示,他和团队会继续研究该模型。

(编辑:开发网_开封站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读