谁在控制算法?

投中网   |   袁雨薇
2019-05-15 18:54:39

仿生人会涮电子羊吗?

“我给一个视频点了赞,算法就开始给我无休止地推荐相似的视频。”

2019年5月6日,一名抖音用户在评论区这样说道。抖音是一款通过算法推荐的短视频应用。截止2019年初,抖音的每日活跃用户数已突破2.5亿。

算法创造了今日的科技巨头。

据麦肯锡公司调查:对比2013年,企业平均花费在人工智能技术方面的投资翻了三倍。因为人工智能算法的确提升了企业的运作效率,“留住了客户”,为公司创造更多利益。

越来越多的资本正流向算法。与此同时,恐惧与疲惫也随之到来。

算法的便利让人惊叹,也让人警惕:凭什么算法可以攫取数据来分析大众的偏好,引导他们的行为。大众开始对算法疲劳,也开始对算法用同类信息编织出来的“信息茧房”感到不满。

人类和算法相处的纪元刚刚开始。在刺激与陌生的接触后,终于来到了疑问时刻:

你是谁?你从哪里来?你要往哪里去?

算法背后的人

算法设立之初,动机是中立的。

其概念的部分源起,不过是尝试解决一个数学上的判定问题:希尔伯特问题中的两个条件,是否都能被图灵机识别。在这个过程中,诞生了今日算法的雏形。

依靠强大的演算能力,算法让很多人力物力得到了解放,简易且枯燥重复的任务有了去处,降低了工业社会的成本。

但随着越来越多的人类想法能够被定义为形式化算法,代码被复杂化,编程者本身开始让算法的客观产生倾斜。

编程者下意识地把自己的偏见编进了算法里,对少数族裔的歧视、性别歧视融入了算法,让它们也拥有了人的偏见。不仅如此,当算法作为数据处理器时,收集到的数据本身带有相应的社会偏见。

当然,对于同一件事,由于编程者关注的重点不同,观察的视角不同,算法呈现出来的东西也不尽相同。

微博上有用户以两个苹果为例解释了这一现象:如果打开闲鱼,算法会怂恿你“卖掉这两个苹果”;如果打开淘宝,它会推荐你“削皮工具”;如果在百度上,你的搜索结果将是“苹果种植基地”。

2018年,快手因为“00后早孕事件”被推上舆论的风口浪尖,CEO宿华在接受采访时曾经被问及“快手的价值观”。

他回答,“社区运行用到的算法是有价值观的,因为算法的背后是人,算法的价值观就是人的价值观,算法的缺陷是价值观的缺陷。”

而谷歌的伦理设计学家特里斯坦·哈里斯也曾在自己的文件中写道,“历史上从来没有一个时刻,人们的生活被三大公司( Facebook、谷歌和亚马逊)里,一群大多数为25~35岁的男性白人技术人员所深刻地影响着。这些人手下诞生的设计决定着数百万人每天该以何种方式度过……(我们技术人员)必须承担起责任。”

算法影响着你我,它却被另一群人控制着。

《连线》的创刊主编凯文·凯利在其著作《失控》中曾说,“人们在把自然逻辑输入机器的同时,也将技术逻辑带到了生命之中。机器人、计算机等人工制造物越来越具有生命属性。”

这无疑在一定程度上支持了“人工智能最终会取代人类、主宰世界”的论调。

但截至目前我们看到的对这个忧虑的解答,大体是从理性、科技及利益的角度给出的。算法是人的智性单向度发展的最新成果,它的特性,诸如输入输出、明确性、有限性和有效性可能已经为它预设了局限性。而在人的秉性中还有其他的维度算法无法达到。

某种程度上,算法的限度就是人的限度。

偏见入,偏见出

《自然》杂志曾刊出一句话,叫做BIBO(Bias In,Bias Out),也就是偏见入,偏见出;在计算机领域也有相同的观点,GIGO(Garbage In,Garbage Out),垃圾数据的入与出。

算法不会分辨人的偏见是好是坏,只会一视同仁地输出,成为“算法偏见”。

就好像是一个孩子,不管是家庭暴力还是亲情缺失,最后都会通过他的行为折射出来,算法亦然。

淘宝曾因为“128元裙子的事件”被声讨,某程序员发微博称只要被算法判定为穷人,搜索“连衣裙”之类关键词时就会首先推荐128元以下的裙子。

而事实是,很多开发者在设计商品推荐系统的时候,的确会考虑用户对价格的敏感性。如果一个用户经常在购买商品时都选这个品类中比较便宜的,开发者设计的算法就判定这个用户价格敏感度高、比较“穷”。系统就会优先把一些特别便宜的东西推给他。

这种“算法偏见”在当时掀起轩然大波,可“偏见”其实早就已经初现端倪。

2014年,亚马逊用来筛选简历的“算法筛选系统”被曝有性别歧视,当算法识别出“女性”相关词汇的时候会给出低分,甚至直接给予降级。

2018年,IG夺冠,王思聪在微博上进行万元抽奖,最后中奖用户为112女1男,经网友分析,发现微博算法容易将男性账号都分类为“机器人”“垃圾账号”,对于不常互动者的“偏见”不言而喻。

由此可见,智能算法的设计目的、数据运用、结果表征等都是开发者、设计者的主观价值选择。

值得一提的是,也曾有公司对算法进行“放养”,如微软公司的聊天机器人Tay。Tay在社交社区潜伏,学习网络用户的聊天内容,最后出人意料地成为了一个反犹太人、性别歧视、种族歧视的“不良少女”。

更别说那些由高等算法自发编出的低等算法,它们只能吸收和学习母程序中的所有数据,包括偏见。

有趣的是,开发者、设计者、编程者把自己持有的偏见嵌入智能算法中,而智能算法有可能会把这种歧视倾向进一步放大或固化,传播给用户。

这些用户中,极有可能有下一任的开发者、设计者、编程者。

这就是“自我实现的歧视性反馈循环”。

当然,开发者们可能对这件事一无所知,但据说乔布斯的孩子们从未玩过IPad。

过去的未来就是现在

人类被偏见影响的历史,几乎和人类本身的历史一样长。

古罗马时期的人们好斗,他们驾驶着战车出征,牵引一辆战车的两匹马的屁股宽度为143.5厘米。于是,这143.5又成为了战车轮距,工业革命后,轮距又进化成了电车的轨道距离,最后成为了当代国际铁轨的标准间距。

这还不是终点,因为航天飞机的两个火箭推进器需要火车运送,所以它的宽度也被设计成了143.5厘米。

古罗马决定了现代航天,过去决定未来,这不是一个伪命题。

在经济学上,这样的情况被称作“路径依赖”。

“路径依赖”讲的是惯性的力量,当人们做了某种选择之后,惯性会让这一选择不断自我强化,最后使人不能轻易走出去。

就像算法的“歧视性反馈循环”,你偏见了,你会偏见着,并会一直偏见下去。

美国经济学家道格拉斯·诺思是第一个提出制度的“路径依赖理论”的学者,他认为各国经济制度的演变和“路径依赖理论”有着很大的关系,这也是有些国家富裕且一直富裕,有些国家贫穷且一直贫穷的原因。

贫穷国家在一开始就选择了相对落后的制度,但无论何种制度都会有受益者,当新制度到来时,受益者会发现自己前期的巨大投入在新制度下一文不值。这在经济学中被称为“沉没成本”。所以即使新制度更好,这些已经投入成本的人也不会愿意改变,只会让自己生存的环境成为一个厄运循环。

随着“路径依赖理论”的面世,人们逐渐发现,它适用于生活中的许多方面,并且经过多次的循环,它愈演愈烈,甚至学会“锁定”。

我们今天使用的键盘,某种程度上就体现着“路径依赖”的“锁定”属性。

现在市场上流行的是QWERTY键盘,但在1932年,DSK键盘才是更优的选择,可因为原本QWERTY键盘使用人数占优,其他类型的键盘较少,考虑到硬件、软件的兼容性,在选择键盘时,QWERTY仍是使用者的首选。所以就算技术更先进,DSK键盘仍被淘汰。

在众多的案例下,我们所看到的“路径依赖”只起到了良性或恶性循环两种作用,但在其他学者的手中,“路径依赖”还有别的功能。

美国政治学家企图用一次循环过后的反馈对“路径依赖”的影响来了解制度如何能够保持对变化的抵抗力;而法国人曾经用“路径依赖”的理论来寻求老年人保障制度的最优解。

而今日,在消费社会中,“路径依赖”从惯性逐步成为了一种手段。

消费社会通过算法的诱导和控制,将“虚假的需求”强加给用户,而用户在接受这些“虚假的需求”后巩固了算法的数据,以此形成一种“路径依赖”。

深受“信息茧房”之苦的用户把责任推卸给那些“天然”喜欢某类节目的受众,有些专家却为这些受众辩护——他们只是市场细分的结果。

在用户到底是“算法的原因”还是“算法的结果”的争论下,我们只能说,他们既是原因,也是结果。

你瞧,鸡生了蛋,蛋也生了鸡。


本文为投中网原创文章,转载或内容合作请点击转载说明,违规转载法律必究
寻求报道,请点击这里

0

第一时间获取股权投资行业新鲜资讯和深度商业分析,请在微信公众账号中搜索投中网,或用手机扫描左侧二维码,即可获得投中网每日精华内容推送。

发表评论

 / 200

全部评论

  • TZ47781 2019-05-15 23:31:02

    阿斯顿法师打发
  • TZ47781 2019-05-15 23:30:23

    撒旦法师打发斯蒂芬阿斯蒂芬
  • TZ53573 2019-05-15 23:03:23

    人工智能用的越来越多了,算法工程师也很稀缺
  • TZ51487 2019-05-15 22:58:23

    我们今天使用的键盘,某种程度上就体现着“路径依赖”的“锁定”属性
—— 没有更多评论了 ——
—— 没有更多评论了 ——