当数学成为“武器”,被服侍还是被窥探?

科技日报 2019年03月29日 09:46

  你打开手机,突然一堆广告推送给你,好像冥冥之中有双眼睛在注视你的生活,知道你需要贷款、想换房子,也知道你正准备去旅游或读学位,甚至连你青睐哪一款洗发水也洞若观火。这时,你是感到了被服侍的舒坦,还是冒出了被窥探的冷汗?其实,这些都是“算法化生活”的场景片段。

  《算法霸权》(中信出版集团,2018年)这本书对算法笼罩下的社会和生活做了深入而通俗的分析。书的作者凯西·奥尼尔是美国数据科学家、哈佛大学数学博士,曾在对冲基金等公司担任数据科学家,还参与过“占领华尔街”运动。这本书首先让我们重新认识了数学。在很多人心中,说起数学,脑中出现的可能还是陈景润和几麻袋草稿纸,高深莫测。从这本书里,我们知道数学其实已成了现代社会运转最基础的支撑技术之一。数学模型给我们的生活带来了便利,帮助人们规避人类决策时的偏见。然而,水可载舟亦可覆舟,任何模型都是在无法摆脱偏见的数据基础上构建的,于是貌似公正的模型又带来新的偏见。比如,由于医生中男性居多,而护士中女性居多这一事实,当你搜索一名医生的图像时,人工智能会首先呈现男性图像,在搜索护士时则反之。一旦这些偏见被用来建构模型,就会固化甚至制造社会中本就存在的不公正因素。再加上有些企业和机构在牟利目的支配下滥用这些模型,或有意给偏见穿上“科学”的外衣,就更会让大数据技术变成了一种“数学杀伤性武器”。

  作为一本以鞭辟入里的案例分析见长的著作,《算法霸权》这本书举了很多例子。由于作者以美国社会为分析对象,个别例子离我们似乎有些远,但大部分例子还是让人心有戚戚焉。“掠夺式广告”就是其中之一,作者将之界定为“精准找出有迫切需求的群体,并向他们兜售虚假承诺的广告”。互联网基于我们的网上行为所透露出的内在偏好和选择模式,把我们放在数百模型中进行排名、分类以及评分。这为合法的广告营销奠定了基础,同时也助长了掠夺式广告的兴起。掠夺式广告精准打击着人们生活中的焦虑点。比如,你来到一所陌生的城市谋生,在网上搜索招聘信息,你的这些行为就被记录下来,没过几天,你就可能收到某家教育机构的电话,信誓旦旦地许诺“三个月拿到会计证书”,然后就能获得可观的薪水。这是一种对焦虑的消费,也是一场精准的掠夺图谋。“大学排名”是另一个例子。书中对《美国新闻》从1988年开始做的排名进行了分析,指出排名模型建构时遗漏了一些重要的变量:学杂费、学生助学金。这就意味着把教育成本排除在了算法之外,于是,当这一排名具有了教育标准的意义,追求排名的大学校长就会想尽一切办法提高排名。但他们不会把降低成本作为考虑的对象,结果就是学费一路飙升,贫困甚至中产阶级的孩子被拦在了大学校门之外。

  这本书是具有强烈批判性的,但书中的分析又很辩证。依靠算法作出的决策,看起来更加“科学”,那么数学模型是不是比人类的决策更加值得信任呢?作者没有完全否定数学模型的价值,但提醒道,人类决策虽然经常有缺陷,却在可改善性方面有其优势。说到底,人类的学习能力在根本上强于自动化系统。大数据程序只能把过去编入代码,无法创造未来。因为创造未来需要道德想象力,而这只有人类才有。因此,改善算法的关键在于把更好的价值观嵌入代码之中,创造出符合道德准则的大数据模型。

  对于现实,作者充满批判,对于未来,他依然信心满满,“数据不会消逝,计算机也不会,数学更不会。预测模型日益成为我们的必备工具,我们利用这些工具经营各种机构,配置资源,管理我们的生活”,但是,数据模型必须接受审查,还应向公众披露模型使用的输入数据和输出结果,使之公开透明。作者还提出,信息保护方面的欧洲模式是值得借鉴的。也就是规定收集任何数据必须经过用户的批准,用户具有选择权,并且禁止把数据重新用于其他目的。“不可重复使用”这一条款的约束力非常强大,它有效地避免了数据落入数据中间商之手。

  其实在我们的生活中,书中所提到的问题同样存在,只是在不同的国家表现形式有所不同。不管怎么样,算法这个强大的杀伤性武器已经潜入我们的生活,对此,多些警惕没坏处。(胡一峰)