“基础概率谬误”(base rate fallacy)
来自谷歌的作者们是“为广大的受众,不只是为研究者”写这篇文章的,但他们随意地忽视了一些非技术流的博客和媒体报道里出现的“基础概率谬误”迹象。
人脑往往会被一个特定事件的高条件概率锁住,而忘记了该事件在大环境里发生的极低概率。我们文章中最强的基于深度学习的面相分类器有89%的识别率(注意:这是基于我们目前的训练数据,还有待用更大的数据核实),很多人就认为,这么高,这还不一试一个准!(国外就有文章报道我们时就惊呼“correct 9 out 10 times”)。有人在网上调侃“教授,把你的脸放进去试试”。好吧,这倒是蛮好玩的。假设我的脸被测阳性(被认定为罪犯),我有多高概率有犯罪倾向呢?计算这个概率需要用贝叶斯定理:
P(罪|+) = P(+|罪)*P(罪) / [ P(+|罪)*P(罪) + P(+|非)*(1-P(罪)) ]
上式中P(+|罪)=0.89是罪犯的脸被我们深度学习测试方法判阳性的概率,P(罪)=0.003是中国的犯罪率,P(+|非)=0.07是我们方法假阳性(把一个非罪犯判定为罪犯)的概率。将这些数值代入贝叶斯公式,结果是武筱林有3.68%的概率犯罪。我想,这一路从89%到3.68%走下来,原来不少骂我们的人就释怀了吧。那些叫着要纪委用我们的方法的网友也该歇歇了。不过,我这里再次郑重声明,我们坚决反对在执法司法中使用我们的方法,原因不仅仅是上面演算的结果。
基础概率谬误是媒体惯用的伎俩,夸张地描述某项大众所不熟悉的新技术或新研究,借此操纵大众,逐步灌输对人工智能研究的不理性恐惧。
无用输入(Garbage in)?
尽管我们对来自谷歌的作者们的精英主义论调感到不适,但我们认同他们提出的进步性的社会价值。他们实在没必要像编年史一样列出历史上那些臭名昭著的种族主义者,接着把我们列在后面。但起码在理论上,独立于主流社会观念的研究客观性是存在的。