随着外界对在搜索结果中错误信息的批评日益增多,谷歌公司正在采取更强硬的措施,对“颠覆性”或“攻击性”内容加以审核,在计算机算法之外又动用人力,以提供准确性更高、煽动性更少的结果。
所谓人力指的是谷歌与之签约的上万名质量评级员。他们将收到基于真实查询而得到的搜索结果,进行评分,所有操作行为均需按照谷歌提供的规则来完成。
本周二他们得到了一项新指示:根据谷歌公布的操作指南,在搜索结果中寻找“颠覆性-攻击性”内容,例如针对某一特定人群的仇恨或暴力、种族歧视或暴力攻击的术语,以及涵盖动物虐待、虐待儿童、明显与贩卖人口相关的有害活动信息的暴力画面。
此举的目的是:引导那些查询“大屠杀发生”信息的人们前往可信度高的网站,而不会被误导到传播虚假信息或仇恨言论的网站。
谷歌公司负责搜索质量的高级工程师保罗·海尔(Paul Haahr)在接受行业博客“搜索引擎天地”(Search Engine Land)采访时说,互联网巨头正在使用质量评级员提供的数据,找出“明显不准确的信息。海尔表示,谷歌避免使用“假新闻”一词,以免含糊其辞。
操作原理是:例如,谷歌向质量评级员们建议,一条来自白人至上主义网站Stormfront的搜索结果否认了发生大屠杀的事实,应被标记为颠覆性或攻击性内容,而来自History Channel网站的一条关于大屠杀史实的搜索结果属于正常内容。
谷歌表示,质量评级员没有权力改变搜索结果的排名,但这些外包人员的反馈结果可以被工程师和机器学习系统用来改进搜索结果。该公司拒绝就新准则发表评论。
搜索引擎天地的创始编辑丹尼·沙利文(Danny Sullivan)说,“大屠杀发生”的查询结果有所改善。这要部分归功于排名的变化,另一部分原因是为了回应人们对搜索结果的愤慨。质量评级员的新使命将在多大程度上对看到搜索结果的人有所影响,目前还未可知。
谷歌也因搜索结果顶部的闲言碎语而受到攻击。其中一些是不准确的。
海尔对搜索引擎天地网站对此做了表态,“我们将观察这一举措的执行情况。我会实话实说,我们正在边走边学。”