为责任设计
即使关闭开关或其他新的设计降低了技术胡作非为的可能性,但它们仍然有机会造成伤害。最后一章将讨论如果计算机可以做出选择并发起行动造成人身伤害或财产损失,责任如何分摊。通常,法院对这个问题做出裁决。当今计算机造成的危害明显属于侵权法范畴,其责任由建造和销售系统的厂家以及为了特定用途对系统进行改装的用户承担责任。特殊案件将建立法律先例。
随着系统越来越自主,新的法律问题将浮出水面。当制造或使用智能机器的人并不知道该机器在不熟悉的环境下会发生什么或产生了危害,这种责任谁来承担。大多数情况下,制造商将继续负责,但也许并非为所有的事故负责。在遥远的将来,有可能建立有意识的软件代理公司,能够做出复杂和敏感的选择,并且知道它们在做什么。
同时,让机器为其行为负责是无稽之谈。保险公司可能会选择出售无过错险,使得在机器人出其不意造成事故的情况下,保护制造商或用户的利益。但是,正如讨论的,让用户和制造商不为此负责不是一个好主意,这将为生产大量具有潜在危险的计算机装置打开大门。任何常识性的安全措施,需要个人或企业为技术造成的所有伤害负责。
不是等到产品销售和事故发生后才做,而是在产品设计过程中解决计算机物品的责任问题。工程师可以将这种责任视为他们的使命就是制造安全的产品。荷兰代尔夫特理工大学杰恩·哈文教授(Jeroen Van den Hoven)建议,工程师应为责任而设计。他指的是谁为其创造的工具负责的问题应当作为其中一个设计规格。比如使用不会过热的组件目前就是一个设计规格,所以如果因此机器造成了事故,那么就必须确保有人被问责。
考虑到一个工程师设计的机器人可能成为闲居家中老人的帮手。在设计过程一开始就考虑到为机器人的行动负责将决定系统,以及决定机器人功能的计算机平台的特点。设计团队可能会拒绝使用严重依赖机器自主性的平台,而选择使用以用来支持团队中人的决策的平台。例如,机器人遇到一个不熟悉的情况时,它会调用一个医疗支持操作者通过安装在机器人身上摄像头远程查看环境。支持团队的人类成员,而不是机器人,决定如何处理不熟悉的情况。而人类操作者,其主管,他们一起工作的公司将为错误决定负责。
负责任的工程只是如何在设计过程中引入价值观的一个例子。多年来,已经有人呼吁工程师邀请伦理学家或社会理论家成为设计团队的组成部分。不是为了唱反调,而是参与设计过程,因为他们对于创新工具如何使用的社会和伦理因素很敏感。价值观一直参与设计过程,常常以技术规范或工程师自身价值理念以及他们为之工作的公司的价值文化的形式体现。对价值观敏感的工程,使价值观成为技术设计的一个显性和有意识的元素。例如,设计一种老年人使用的咖啡壶,工程师已考虑到了用户的年老体弱等特点。他们把咖啡壶放在一个支撑轮上,这样老年人可以轻松倾斜咖啡壶,倒出咖啡。设计执行家居任务的机器人过程中也有类似的考虑。
社会理论家艾米·文斯伯格(Aime van Wynsberghe)指出,在医院里使用机器人帮助病人起床改变了许多不同的角色的作用,以及各种辅助功能得以执行的方式。它改变了护理实践。比如说,如果护士不再参与移动患者或为他们换床单,护士失去了直接观察病人身体和精神状态的机会。另一方面,机器人可以减少护士的工作负荷,以及可能减少雇用勤务的数量。在设计团队中如果有对提供护理的各方面都非常敏感的成员就可以在机器人的设计中增加一些重要的特性和能力。除此以外,医院引入机器人后还可对团队进行培训,让其了解护理实践的基本要素将因此发生什么改变。
消费者的需求已经指示工程师在新产品中嵌入一些价值观,如:易用性、审美素质、保护敏感材料等。附加的社会价值如公平性、隐私、安全和自主或个人尊严等,也可以被看作是一个工具或技术的设计中需要明确的元素。工程师善于解决问题。一旦他们知道需要他们对某些问题予以关注,优秀的工程师总会找到一个解决方案。每个新的价值都可能指示工程师对他们希望解决的问题寻找不同的解决方案,因此得出非常不同的设计。反过来,价值也应当列入检查清单上,以评估该装置是否是成功的设计。
本书评论