人工智能的进一步发展往往会导致人类劳动力变得更为廉价,但维基百科总部最近推行的做法却并不会带来这个问题。
据计算机科学家Aaron Halfaker介绍,维基百科最近开始使用一套由其自己开发的人工智能系统,该系统可以在文章中检测出恶意破坏或虚假编辑等行为。这将能够帮助维基百科清除掉用户编辑入门的屏障。
该项目的一大动机在于,英语版维基百科的活跃贡献者数量出现了大幅下滑:过去8年间,这一数字萎缩了40%,目前仅为3万人。研究表明,该问题源自维基百科复杂的官僚体系,以及他们对新人所犯错误的苛刻态度。
由于维基百科采用的是“群众众包文章”的编辑模式,所以它必须要对编辑的内容进行严格的审查,防止文章内容被蓄意地曲解或破坏。但与此同时,这让很多本怀着善意且带有可靠信息的用户也开始不再选择在维基百科中编辑词条。为此,维基百科希望利用这套更为智能的AI系统来帮助他们筛选出内容,并等到系统足够强大的时候将对用户放宽编辑条件。
维基传媒基金会高级研究员阿隆·哈尔法克(Aaron Halfaker)帮助该组织发现了这一问题,他目前还在领导一个算法开发项目,以应对这一问题。这套名为“客观修正评估服务”(ORES)的系统可以通过训练对维基百科上新增的改动进行评估,并判断某项改动究竟是善意还是恶意。
不过,仍然有许多人对于现在这套系统是否能够具备永远取代人类进行审查的能力表示怀疑。
Via thenextweb&wired
N软网微信公众号扫一扫
观点新鲜独到,有料有趣,有互动、有情怀、有福利!关注科技,关注N软,让我们生活更加美好!
支付宝扫一扫
微信扫一扫
赏