去年的时候,我一个在芝加哥比我小几级的南京大学校友去世了。乳腺癌,发现得晚了,才 34 岁,留下了一个 4 岁的孩子。非常可惜。想想能不能做点什么事情可以帮助大众来提高乳腺癌的早期检测成功率。因为如果在 stage 1 发现乳腺癌的话,5 年存活率是 99%。
想想能否写一个完全免费的网站和 ios app 来让用户可以迅速得到 X-ray Mammogram 的诊断结果。至少可以是 2nd Opinion. 因为用户做完 Mammography 之后有时候需要等好几天才能有 Radiologist 来读片子。而且现在 Radiologist 有 20% 的概率会漏掉早期的肿瘤。我决定用 Deep Learning (深度学习) 来做这件事情。
对于一个足够好的 Deep Learning Model, 一是要有足够多的数据 (即使是做 Transfer Learning 的情况下), 二是要有足够强大的计算力。为了做成这件事情,我在本地搭建了一个 50 个 Nvidia Geforce GTX 1080 Ti 的 GPU cluster, 这是搭成之后的硬件:
有了硬件之后就是设计 Model 和收集数据。我从北美和欧洲的几个研究组获取了 Annotated Breast Mammo 的数据。这些 Annotation 大多都是根据北美 ABR certified 的 Radiologist 做出的。也就是如果这个 Model 能够训练好,就可以达到 ABR Certified Radiologist 的 Reading 的平均水平或者更好。
最终的结果我在欧洲的 InBreast 数据上做了测试,达到了 90% 的准确度 (AUC).
我觉得这个 Model 已经可以给大众实用了,在这里公开出来:
你可以直接上传 .jpg 形式的 Mammo 图片,这个 AI 会给出判断结果. 这是 Screenshot:
这个网站是完全免费使用的。我现在还在继续更新和改进 Model, 也在联系国内的几家医院来合作来获取更多的数据来 Training.
University of Kentucky Hospital 和国内的一家合作公司已经在测试了这个模型
乳腺癌检查去年有个全世界竞赛,他们先用这个竞赛获得第二名程序测试了 MIAS 数据,漏了 10 个 case, 然后他们用我的网站测试了一下,只漏了一个
这个第二名程序发表了一篇自然杂志的论文:
https://www.nature.com/articles/s41598-018-22437-z
这两天,我也公布了完全免费的桌面版本,支持读取和浏览 dicom 文件,并自动转换 Normalize for AI analysis. 在 InBreast 的 Dicom 数据上 AUC (准确率)大概 93%。桌面版本截图:
下载地址就在网页主页上。
[06/12/2018 更新] NeuralRad Mammo AI 桌面版本更新到了 1.2, 修复 dicom/jpg 文件路径有中文或者空格导致无法返回正确结果的问题。依然从主页 http://neuralrad.com 免费下载
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.