我冒昧地说,(存在可复制性问题的研究中)很大部分都是来自应用了机器学习的科学项目。

—— Genevera Allen,莱斯大学副教授

大声

02-22 10:00

不少人都认同,人工智能不应取代人类,而是帮助人类做其不擅长的事情。在庞大的数据中寻找规律,这就是其中一样算法拥有相对优势的工作。

来自休斯顿 Rice University 的 Genevera Allen 博士则警告,机器学习正在科学研究领域酿造一场危机。

▲ Genevera Allen,图片来自 BBC

越来越多学者选择采用机器学习软件来分析已有数据,领域从生物医学到天文学都有。有一个问题是,这些算法时常会从数据中找到「无用规律」—— 只存在于数据,不存在于现实生活的规律。

当有其他研究人员以同样方法分析另一组真实数据时,会发现结果和已有(用机器算法分析出来)结果毫无重合之处。一般来说,大家就是在这个时候发现原来的研究有问题。

Allen 博士说道。此外,她表示「可复制性危机」已经是学界公认的问题,「我冒昧地说,其中很大部分问题研究都是来自应用了机器学习的项目。」

《自然》杂志曾于 2016  年报道,在尝试重现他人实验结果的研究人员中,70% 都是以失败收场,50% 的人甚至无法重复自己的实验。

英国心理学会总统奖得奖者 Marcus Munafo 长期关注学界可重复性问题,他认为这是一个非常严重的问题。他在读书时就曾在重复一些论文中的简单实验时失败了:「因此,我对科研产生了信任危机,后来我发现,这是一种非常普遍的现象。」

▲ Marcus Munafo,图片来自英国心理学会

有观点认为,可重复性概率低的问题,一方面是因为前沿技术的可把控性较低,但人人都想找到新发现,假阳性被写入论文情况并不少见。此外,关于发现假阳性的论文也不受研究刊物编辑的欢迎,因此大家去深究的动力也不大。

学界普遍认为,不可复制的问题通常来自不成熟的研究实验模式,让研究人员只看到自己想要的内容,为寻找特定规律而设计的机器学习算法使得这种情况变得更严重。

挑战在于,我们是否可以相信这些研究发现?如果我们获得了另一组数据,用同样方法分析是否会得到同样结果?不幸的是,答案很可能是否定的。

后评论

评论在审核通过后将对所有人可见

正在加载中

用 iPhone 8 的我还是不时拿不稳手机

在我看来,我们往太空发展的原因是为了拯救地球。

查看全文 —— 贝索斯,亚马逊 CEO

时间偏长的电视剧单集不仅被认为是高质量的标志,同时还成为权力的表现。

查看全文 —— Sophie Gilbert,《大西洋月刊》

为什么大家还是会设不安全的密码?因为我们对自己设计密码的系统会产生感情。

查看全文 —— Karen Renaud,网络安全教授

这个世界还有很多比广告算法更重要的科技创新。

查看全文 —— Ashlee Vance,《硅谷钢铁侠》作者

除非你每天 24 小时都在挣扎、苦痛和加班,否则你还工作得不够努力……这是目前科技行业毒性最强、最危险的想法之一。

查看全文 —— Reddit 联合创始人 Alexis Ohanian