为了实现自动化,人类究竟做出了多大的牺牲?
本文来自 36 氪,编译为 Jane,爱范儿经授权发布。
编者按:在工厂中,机器具有人类所无法比拟的超高效率,为企业创造了巨大的利润。但是,当机器与人类的需求发生冲突时该怎么办,或者机器有潜在伤害人类的可能性时该怎么办?随着机器的快速发展,在提高效率的同时,人类也做出了一些牺牲。如同近期亚马逊员工称公司因为怕机器人冷而拒绝在高温情况下开空调,面对类似的问题,我们该怎么处理人类和机器之间的关系?本文译自 Fastcompany 原标题为 「What we sacrifice for automation」的文章,希望对您有所启发。
作为零售巨头,有关亚马逊的消息几乎每天都会出现在新闻中。仅在过去两周,就有关于亚马逊智能音箱 Echo 对话被录音和转录、员工抗议亚马逊在气候变化问题上的糟糕立场、亚马逊面部识别技术带来恐惧以及盈利 100 亿美元却不纳税等负面新闻。
像亚马逊这样的大公司,在产品和服务方面拥有如此广泛的影响力,必然将会成为新闻焦点 —— 不幸的是,对他们来说,新闻中大多数都描述了他们对世界缺乏同情和兴趣,不愿提供帮助,这一点显而易见,尤其是对人类同胞。
几周前,一篇文章引起了我的注意,文章描述了对一名仓库工人的采访,他抱怨仓库的温度,沙拉德(Rashad Long)对《纽约时报》抱怨称:
「三楼和四楼太热了,即使外面很冷,我也会汗流浃背…… 我们要求公司提供空调,但公司回复称,内部的机器人无法在寒冷的天气下工作。」
虽然沙拉德和其他人正对公司提起诉讼,并正在采取行动组建工会,但工人们最突出的抱怨似乎集中在一个问题上:亚马逊将其员工当作机器人对待。
在这篇文章发表后的一份声明中,亚马逊驳斥了这个说法,称其 「绝对不真实」,称系统和团队一直在监控配送中心的温度。亚马逊公司表示,12 月中旬,长期施工的工厂的平均温度为 71.04 华氏度。
一位发言人表示:「亚马逊员工是我们业务的核心和灵魂。」「员工的安全是我们的首要任务,每一位员工的健康都比生产率指标更重要。我们为我们安全的工作环境、开放的沟通和行业领先的利益感到自豪。」
然而,从外部看,亚马逊仓库似乎奉行 「泰勒主义」(Taylorism)。这是在 20 世纪早期发展起来的一种工程管理理论,至今在工程和管理学科中被广泛采用。虽然它最初用于管理制造过程,注重组织效率,但随着时间的推移,泰勒主义逐渐成为工程和管理文化的一部分。随着定量测量和度量的计算工具不断出现,以及基于这些度量开发的大数据机器学习技术的发展,包括亚马逊在内的许多公司开始过渡到所谓的 「极端数据分析」 时期,即可以对任何事物和人进行测量。
这是个很大的问题。使用来自」 极端数据分析 「结果的计数、度量来为人类政策提供信息,这对我们的福祉是一种威胁,并导致我们在仓库以及生活中其他领域所看到的那种后果,即人类常常将他们的代理权交给算法和机器处理。
2018 年 12 月 18 日,约 200 名亚马逊员工聚集在明尼苏达州工作场所外,抗议工作环境,以及每 7 秒扫描一件物品等高速度工作的要求。
不幸的是,经过几十年的发展,像亚马逊这样的公司已经把它融入了自己的基础设施和文化中。在亚马逊,泰勒主义之所以盛行是有原因的,这在很大程度上与它所招聘的员工有关,它的员工在管理和开发方面所做的决定,以及这些决定如何影响那些需要做这些工作的人,而这些工作实际上是让这些流程发挥作用的。
在 2013 年的一篇论文中我和迈克尔・D・费舍尔曾写道,特别关注的是,当组织管理层制定的流程对员工来说不是特别好时,员工会借此机会找出变通办法,或称 「秘密代理」。 人类的能动性是我们在任何时候都能做出选择的能力。随着时间的推移,选项的范围会发生变化,但作为人类,我们总会做出一个选择。代理是我们合作的方式。我们失去了一点自由选择的权利,其他人也一样,但我们可以实现共同目标为前提达成合作和妥协。
每次我们使用计算机或任何基于计算的设备时,我们都会丧失这种代理权。我们通过坐着或站着使用键盘,通过键入、单击、滚动、复选框、下拉菜单和以机器能够理解的方式填写数据丧失了代理权。我们正按照机器设计的方式来处理这些事情,并以这样的方式来收集数据以获得我们想要的产品、服务或希望得到的答复。人类会选择屈服,但机器不会。
当人类代理与难以控制的自动化对抗时,就会出现问题。在极端的情况下,这些问题可能是致命的。在对两架波音 737 Max 飞机坠毁的调查中,有人提到了一个问题,这两架飞机的重点是飞行员与旨在防止飞机失速的自动系统之间的互动。随着世界继续实现事物、流程和服务的自动化,我们必须不断地适应人类所处的位置,因为目前自动化不能也不会与我们合作,这超出了其预编程序的范围。因此,在许多情况下,我们必须对算法或机器人做出让步,以达到我们需要的合作结果。
随着时间的推移,人类已经进化到以合作的方式进行贸易、交换资源以获得我们生存所需条件的地步。我们通过工作来做到这一点。在今天的市场上,如果我们要找一份新的工作,我们必须用电脑来申请在网站上的广告的职位。我们必须放弃我们的代理权来使用计算机,这让我们进一步屈服于软件,但这些软件不一定是为处理我们特定生活经历的记录而设计的。一旦我们尽了最大努力填好表格,可以按下按钮,并希望得到答复。在后端的算法,由管理层和开发人员通知,然后 「排序」,把我们变成数据点,接着进行评分和统计处理。
只有当我们通过过滤器时,自动回复才会向我们发送电子邮件 (我们无法回复) 来通知结果。如果结果是积极的,最终会有人联系我们,要求我们使用自动化的方法来安排通知时间,通知将利用脚本 / 过程 / 叙述指南,这再次要求我们放弃自己的代理权。即使在与另一个人对话,即使通常有更大的灵活性,但这样做依然太累人了。
亚马逊仓库的工作人员在通过招聘过程并被录用后,也被要求在他们的工作中让出代理权。办公室工作人员以软件或业务流程的形式向算法合作伙伴妥协,而仓库工人通过改变他们的时间表、与机器人伙伴合作而不是以软件的形式与算法合作的方式,从而放弃了他们的代理权。与在办公室工作中不与软件合作相比,在仓库中不与机器人合作而获得代理权的生存风险要高得多。亚马逊仓库的工作人员必须向机器人屈服,因为机器人速度快,由金属制成,可能会伤害甚至杀死他们。这样,亚马逊的仓库工人在工作时对自己身体的影响就比那些在办公室里决定仓库工人工作方式的人要小。
亚马逊办公室员工 2013 年提出的一项解决方案是 2016 年授予的美国专利 9280157B2。这项专利被描述为仓库的 「人员运输装置」,由许多笼子组成。牢笼具有鲜明的象征意义。虽然这一想法是为了保护人类工人免受机器人的伤害,但人们对它的理解可能与它的本意不同。在极端情况下,笼子再次暗示人类将把自己的代理交给机器人,这似乎在一定程度上印证了仓库工人最初的抱怨:在亚马逊 (Amazon) 的工作场所,机器人受优先。
而亚马逊坚称不打算实施这一想法。「有时候,一个糟糕的想法也会被提交申请专利,」 在这篇报道发表后,该公司的一位发言人告诉我。「这个从未被使用过,我们也没有使用的计划。我们开发了一种更好的解决方案,一个可以穿的小背心助手,使所有在他们附近的机器人驱动单元停止移动。」
然而,无论是笼子还是自动背心,这些安全干预措施都提出了一个问题:像亚马逊物流中心这样的设施,能否设计得既不需要人类做出这些边界牺牲,又能得到有价值的利用?
泰勒主义的核心不一定是为了提高效率,而是为了节省时间和金钱。在亚马逊自称的 「领导原则」 中,有一条是 「节俭」,而正是它似乎超越了亚马逊的其他理想,因为 「少花钱多办事」 似乎是该公司与一切事物互动的首要原则,也是这种互动对亚马逊全球员工和客户产生了影响。
如果一家公司在其整个文化中奉行泰勒主义,那么人类将决定其他人应该如何以符合他们所服务的度量标准与系统进行工作或交互。如果亚马逊在管理方面提倡节俭,并且正在收集关于如何管理的数据时,那么管理层将尽其所能最大限度地实现自动化,以便在组织中保持相关性。
这一特殊原则与泰勒主义共同创造了一个完美的环境,使数据挖掘和分析变得疯狂,并使影响真实人类生活的进程被忽视。办公室里的人看不到仓库里的人,也无法意识到他们的客户服务或供应链绩效指标实际上承担着人力和人道主义成本。在这么多公司所发生的事情的极端版本中,利润与利益相关者链条中的嵌套指标相关联。亚马逊的 100 亿美元利润部分来自数百万受泰勒主义影响的 「节俭」 决定,但每个决定都是由人类丧失其 (或他人) 尊严和代理权为代价的。
泰勒主义是在机械制造时代设计和实施的,虽然有些机器可以比人类工作得更快,但影响它们工作的大多数过程都是模拟的,而且与人类的处理速度相同。亚马逊仓库工人处于」 节俭泰勒主义决策树 「的末尾,他受到了算法进程的评判,这些算法进程控制数据和机器的速度比许多人类处理信息的速度更快,更不用说在物理上对信息采取行动了。
因此,在某种程度上,不断地屈服于这种极端的数据分析将奴役我们。不是通过限制我们的手臂和腿 (尽管亚马逊的笼子越来越近),而是通过创建一种被定量测量约束的世界观,这是它唯一合理的衡量标准。泰勒主义在上个世纪初的制造业中发挥了重要作用,但在将近 100 年后的今天,它已不再有用或适当,它的持续发酵给我们这个全球社会带来了真正的问题。
最终,即使有 「少花钱多办事」 的愿望,也会出现利润更低的情况,通过扩大我们自己的内部储备创造 「更多」。如果每个过程最终都实现自动化,并限制了人类的行动,同时要求我们的 「苦力」 发挥作用时,我们将被钉在墙上,没有任何选择,也没有其他应对这种窘境的手段。