关键是要使用幼儿图片
西奈山伊坎医学院教授Bruce Gelb博士指出,这篇论文只使用了一组幼儿的图像,这一选择可能为算法的成功奠定了基础。
“面部特征在蹒跚学步的儿童或幼儿身上最为明显,这种特征在青春期就会逐渐消失——在进入成年期之前。”他说。
不过,他承认,该算法的成功率令人印象深刻,对于那些对特定遗传特征没有高度专业知识的临床医生尤其有用。
“使用FDNA这样的工具可以让临床医生知道他们应该让实验室检测哪些基因。”古罗维奇说,“如果你正确地考虑表型,你就能增加诊断的几率。”
他说,人类做不到这一点。“有些遗传学家尝试过这样做。他们不能,我们可以。”
隐私顾虑
除了令人刮目相看的结果和新的潜在用户,论文作者还强调了一些注意事项和关注的领域。这些实验的基本假设都是病人确实患有综合征,如果是正常人,那应当另外处理。
他们还警告了滥用这项技术的风险。“表型数据是敏感的患者信息,基于此的歧视受到反基因歧视法的限制。与基因组数据不同,面部图像很容易获取。减轻滥用的有效监控策略,可包括通过区块链技术向使用DeepGestalt应用程序的用户添加数字足迹等。”
确实,人脸图像是敏感且容易获取的数据,若使用不慎,看脸识疾病的技术将引发歧视等伦理问题。如果面孔能够揭示基因的细节,那么雇主或保险公司等就可以秘密地利用这些技术,歧视那些可能患有某些疾病的人。
三年前,上海交通大学教授武筱林训练出了可以看脸识罪犯的人工智能系统,准确率达到86%。当时,这项研究引发了广泛争议,也遭受了纷至沓来的批评。不少学者认为该研究充满了歧视和误导,将给无辜的人们带来巨大的麻烦。
也许是因为这样的前车之鉴,FDNA最新研究的作者指出,应防止DeepGestalt技术的歧视性滥用。古罗维奇说,这个技术只开放给临床医生运用。
格里普说,出版论文的重要性在于激发想象力,而非其他。
“最重要的是,这是人工智能如何应用于病人表型的一个例子。这个工具将变得越来越有价值。这个仅是观察面部特征,但对病人来说还有很多。你可以用类似的工具来观察X光片或视网膜的照片。”她说,“这只是一个例子。人工智能方法还可以为下一代表型带来许多其他功能。”
据《信息时报》报道



×