网友开发的乳腺癌早筛 AI 准确率达 90%,佩服之余医生有话要说

生活

2018-06-15 19:20

近日,网友 coolwulf 在 V2EX 论坛上分享了自己搭建的深度学习模型,向公众提供了一个完全免费的网站和客户端,用以进行乳腺癌的诊断。

人们可以自己上传自己的乳腺癌 X 光片,然后迅速得到诊断结果,目前这个模型的诊断准确率已经到达 90%。

coolwulf 为了搭建这个深度学习模型,先在本地使用 50 个 Nvidia Geforce GTX 1080 Ti 的显卡作为运算的硬件,接着从欧洲和北美的研究组中获取了乳腺癌影像学的相关数据,用以设计和训练模型。

▲这个模型的硬件组成,图片来自:coolwulf

这个模型在 INBreast 数据库上测试后,准确度达到了 90%。coolwulf 认为这个模型已经可以开放应用,并公布了网址:http://neuralrad.com。

▲ 图片来自:coolwulf

公众只需要在网站上传 JPG 格式的乳腺检查 X 光片,这个 AI 就会直接给出相应的诊断结果。

同时 coolwulf 也公布了一个桌面版本,能够读取和浏览 DICOM 格式的医学影像。

▲ 图片来自:coolwulf

coolwulf 还在帖子中写出了搭建这个模型的初衷。去年,他有一个年仅 34 岁的校友,由于乳腺癌没有获得及时的诊断和治疗去世,留下一个年仅四岁的孩子。在惋惜之余,他决定动手去做些事情,提高乳腺癌的早期检测成功率。

撸起袖子就动手去改变世界,而且还能快速落地应用。简直不要太酷。

在 V2EX 这个帖子的评论区下面,有超过 200 个网友表示佩服和赞许。比如:

mringg:支持!我感觉这才是技术的意义。
WytheHuang:上个星期六,母亲乳房有肿块,检测出四类。对这些不是很懂,不停找资料查看,越看越害怕。尤其是 B 超图片完全看不懂…… 楼主这个是在太赞了,希望能够帮助更多人。

丁香园的首席架构师少楠在评论区表示,他们可以提供脱敏数据,用以训练这个模型。

▲ 一个名为 Deep Fundus 的团队在帖子中留下他们做的预测模型

在评论区,还有提供眼底影像 AI 诊断的团队放出了自己的产品。

对于 coolwulf 的这个模型,爱范儿(微信:ifanr)询问了一位在广州某三甲医院工作的医生朋友 Sukki,她认为人工智能读医疗 X 光片这件事情,还有待进一步的发展:

我之前也围观过 AI 跟医生比赛读 B 超图片,结果 AI 准确率是挺高的,但是还是不如有经验的医生,我觉得可以做为借鉴和参考,但是起码在可见的未来,我更相信医生。

coolwulf 也有提到,这个模型也正在与国内一些医院联系,尝试合作。但在临床医生的眼里,毫无医学知识的人使用这个网站时,依然需要相信医生的诊断,Sukki 说:

普通人使用这个网站,就类似于在百度上求医,我们经常遇到病人跟我们说百度说什么什么,毕竟同一个表现,病史不同,诊断可能完全不同,我们影像是需要结合病史来考虑诊断的,所以单凭一个读片的网站就出结论,很容易造成医患之间相互不信任的。

我们必须承认,像 coolwulf 这样的技术和应用,会让资源不足的人们拥有了更多,也会成为协助医生诊断的工具。但毫无医学知识基础的朋友,还是需要相信医生。

▲人工智能界泰斗之一迈克尔 · 乔丹

加州伯克利大学教授、被称为 “人工智能之父” 的迈克尔 · 乔丹,曾在今年的文章《人工智能:革命尚未到来》中,分享了他女儿出生前的一个故事。

他的妻子在 14 年前怀孕做产检的时候,基因专家指着 B 超结果告诉他们,检查结果上的一些白点,显示他们女儿患上唐氏综合征的可能性为 1/20。

他对这个「白点」与唐氏综合征患病率之间的关系产生了怀疑。后来他经过研究发现,当时英国医学界使用 B 超中的白点作为预测唐氏综合征的指标。而当时他妻子产检那家医院所使用的 B 超机器,成像质量已经有了更多的长进,B 超上多出来的白点,其实只是白噪音。

基金专家知道结果后,她的反应是:「怪不得在前几年新机器投入使用以后,我们开始发现越来越多的唐氏综合症患儿。」

总而言之,人工智能的技术依然在快速发展,其在医学上的应用就会为医生的诊断提供强有力的工具,在目前看来,使用这些工具最好的方式,依然是人机协同。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中