机器学习算法的“固有政治性”

工程师8 发表于 2018-06-01 10:54:00 收藏 已收藏
赞(0) •  评论(0

机器学习算法的“固有政治性”

工程师8 发表于 2018-06-01 10:54:00

大约在公元前1200年,中国商朝就已经有工厂系统制造成千上万件青铜器用于日常和祭祀用途。在这个早期大生产的例子中,青铜铸造工艺需要错综复杂的规划和大批工人间的协调,这些工人以精准的顺序,各自完成单独的任务。

一千年后,类似的复杂工艺也被用于制造著名的秦始皇兵马俑,这些雕像“用奠定大生产和商业基础的流水线生产系统制造”。

一些学者猜测,这些早期规范工作(prescriptive-work)技术的形式对中国社会的形成起到了非常重要的作用。它们与其他因素一起,让人们接受了强调层级的官僚制度社会哲学,也让人们相信凡事都有简单的正确方法。

当工业化工厂在十九世纪的欧洲诞生时,就连恩格尔这样的资本主义的坚定批评者也承认,不管经济制度是资本主义还是社会主义,大生产是中央集权的必要条件。在二十世纪,兰登·维纳(Langdon Winner)等理论家将这一思路延伸到技术中。他认为,(比如)原子弹应该被视为“固有政治产物”,因为它的“致命属性要求它应由集中化的刚性命令层级链来控制。”

如今,我们可以将这一思路延伸到更远。考虑一下机器学习算法—这是当今所运用的最重要的通用技术。

机器学习算法的“固有政治性”

机器学习算法的一个关键特征是它们的表现会随着数据的增加而改进。因此,使用这些算法就形成了一种技术动力,将关于人的信息处理为可记录、可调用的数据。就像大生产系统一样,它们具有“固有政治性”(inherently political),因为它们的核心功能要求某些社会行为、阻碍其他社会行为。特别是,机器学习散发与个体的隐私渴望直接对立。

一个基于关于个别社会成员信息的公开易得性的系统似乎契合社会学家阿米泰·艾奇奥尼(Amitai Etzioni)等社会主义者(communitarians),他们认为对隐私的限制是执行社会规范的手段。但和社会主义者不同,算法不关心社会规范。它们只关注更好地做出预测,而这可以通过将越来越多的人类生活领域转化为可挖掘的数据集来实现。

算法评估并非新鲜事。奥斯卡·甘迪(Oscar H. Gandy)等学者就警告说,我们正在转变为一个记录和排名的社会,并要求更多问责以矫正技术导致的错误。但和现代机器学习算法不同,旧的评估工具可以理解得相当透彻。它们基于相关的规范性和实证性因子做出决定。比如,背负许多信用卡债务有损一个人的信誉,这早已不是什么秘密。

相反,新机器学习技术深挖大型数据集,能寻找到那些可预测的但没有被充分理解的事物之间的关联性。在职场中,算法能够跟踪员工的对话、他们在哪里吃午饭、在电脑、电话或会议上上花了多少时间等。有了这些数据,算法就能开发远远超过我们常识直觉的复杂的生产率模型。在一个算法精英体系中,模型要求什么,什么就成为出色的标准。

尽管如此,技术并非宿命。我们在技术决定我们之前决定技术。商业领袖和决策者可以根据他们的机构需要开发和部署技术。我们有能力在人类生活的敏感区域周围布置一张隐私网,保护人们免受伤害性数据用途的影响,并要求算法在预测的准确性和公平、问责和透明度等价值观之间进行平衡。

但在我们遵循自然算法逻辑流之前,更精英化是不可避免的。这一变化将深远影响到我们的民主制度和政治结构。如果当前的商业和消费者文化持续下去,我们很快就会有更多与贤能政治和社会主义传统相似之处,而不是我们自身的个人主义和自由民主传统相近的东西。如果我们想要改变趋势,就必须将我们自身的政治责任置于技术之前。

收藏

相关话题
文章来源栏目
+关注

评论(0)

加载更多评论

参与评论

分享到

QQ空间 QQ好友 微博
取消