谷歌研究员质疑“看脸识罪犯”,交大教授撰文:我被扣帽子了

2017-05-16 08:17:17来源:澎湃新闻 作者:虞涵棋、杨漾

去年11月,一篇“看脸识罪犯”的论文令学术界和舆论界炸开了锅。

这篇上传在预印本网站arXiv上的论文题为《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)。在实验中,上海交通大学教授武筱林及其博士生张熙选取了1856张中国成年男子的面部照片,其中730张是已经定罪的罪犯身份证照片(330张来自网上的通缉令,400张由一家签署过保密协议的派出所提供),其余1126张是在网络上抓取的普通人照片。经过机器学习,算法鉴别出犯罪嫌疑人的准确率达到89%。

此后,武筱林收到了雪片般飞来的邮件,有些就学术问题进行了交流,有些则直接敦促他“撤稿”。而在半年之后,三名美国作者撰写万字长文,向武筱林隔空喊话,指责其研究在搞“科学种族主义”。

上述三名作者中,Blaise Agüera y Arcas是机器学习领域的著名工程师,2013年从微软跳槽到谷歌;Margaret Mitchell同样是谷歌的人工智能研究员;Alexander Todorov则是普林斯顿大学的神经科学教授。

这篇洋洋洒洒的万字长文,从提出“天生犯罪人”理论的意大利外科医生龙勃罗梭,写到对犹太人进行面相研究的纳粹教材,暗指武筱林的研究是这些“前辈”的继任者。

在文章中,三名美国作者在技术层面提出了一些质疑,譬如实验样本数据集过小,容易造成过拟合;罪犯组照片的着装更为随意,而非罪犯组的照片很多都穿着衬衫;此外,非罪犯组照片更多地在微笑。但文章最核心的担忧是,由于人类司法系统中存在一些歧视(譬如美国司法对白人和黑人存在量刑歧视),用这些带有歧视的人类数据训练机器,机器得到的结果也会是歧视性的。而若将这些内嵌歧视的算法用作司法工具,那么就会形成一个歧视性的反馈循环,让歧视在社会中更为巩固。

阅读全文
    相关标签:
阅读(0) 编辑:ET005
声明:凡本网注明“来源:三门峡生活网”的作品,转载须注明“来源:三门峡生活网”,违者将依法追究责任。凡本网注明来源其它网站作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如有侵权请联系删除。邮箱:smxtougao@163.com
相关阅读
新闻热图更多 >>
今日热点