“基于面部特征的深度学习绝不该应用为‘加速’司法公正的工具,如果真的这么做的话,反而会让不公正长存于世。”文章这样结尾道。
5月14日,武筱林撰文向澎湃新闻(www.thepaper.com)进行了独家回应。他指责这种隔空点名的方式并非“我们所熟悉的学术交流”,而是政治斗争上扣帽子的手法。武筱林提到,他们在论文中明确声明“没有兴趣也不够格去解读实验结果”,却“被”解读了。三位美国作者无视声明,将论文原话断章取义,凑成主观臆断强加于他们,扣上了一顶大帽子。
在文章中,武筱林还回应了许多网友提出的“把教授自己的脸放进去试试”的问题,澄清了一种常见的“基础概率谬误”,再次强调他们的研究无意也无法用于实践。
此外,武筱林也对外界的几点技术质疑作出回应。他总结道,“我们感谢所有针对论文的问题和讨论,但坚决反对歪曲我们的初衷”,“这既不专业,也很傲慢。”
“仅仅在文章中用到(面相学)这个词,就足够贴一个科学种族主义的标签了吗?”这是武筱林的疑问。
人工智能伦理讨论无需扣帽子和歪曲事实
(原文为英文,由澎湃新闻记者翻译)
2016年11月,我和我的博士生张熙在arXiv上贴出了一篇题为“Automated Inference on Criminality using Face Images”的论文。该论文在各国学术界,尤其是互联网上引起了广泛的关注和争议。近日,Arcas等三人在Medium网站上发表了《相面术的新外衣》(Physiognomy’s New Clothes)一文。我们赞同三位作者的观点,即AI研究要有益于社会,但我们也发现,他们对于我们的工作,尤其是我们的研究动机和目标存在诸多误读。
扣帽子(name calling)
该文章(即《相面术的新外衣》,下同)的作者暗示我们有恶意的种族主义动机。他们认为这种暗示很明显,导致我们立马在网络上,尤其是中国网民那里成了千夫所指。我们论文里从未宣称要把我们的研究方法用作司法工具,我们对相关性的讨论也从未延伸到因果关系。任何以客观心态读过我们论文的人,都会明白我们只是想知道,机器学习是否有潜力像人类一样,对人脸形成社会性的看法。要知道,这种同时基于观察者和被观察者的看法是很复杂、很敏锐的。