技术后果评价的伦理视角
2015/6/14 哲学园

     现代技术日益增加的系统性、复杂性,使得技术后果变得愈加难以捉摸。因此,需要对技术后果进行认识、评价和反思,避免技术对人类造成消极影响。在技术后果评价中,伦理视角的评价有其独特作用,而这种视角面临的困境也对技术后果评价有深刻的影响。

     一、技术后果评价的伦理困境

     技术后果评价的主要伦理困境是很难确定责任主体。当技术应用出现消极后果时,人们往往要问:谁是责任人,是个人还是组织?组织能否成为负责任的道德主体?

     美国工程伦理学家查尔斯·E·哈里斯探讨了个人作为责任主体应负责任的三种情形:第一,可能故意地导致伤害。第二,可能鲁莽地导致伤害。第三,可能疏忽地导致伤害。[1]如果技术使用者出于哈里斯所说的“故意”、“鲁莽”、“疏忽”这三种态度,无疑是应当承担责任的。

     如果技术开发者的动机本身是好的,但后果却是消极的,他是否还应承担责任?德国技术哲学家罗泊尔认为,在技术后果评估中让工程技术人员承担过多的责任,是对他们的不公。第一,技术后果评估是一项跨学科工作,工程师若能评价自己技术行为的一切后果,就得不仅掌握自己的专业,而且还具有生态学、医学、经济学、心理学、社会学等相关知识,但没有这样的超级专家。第二,如果一项技术会对人的身体和生命造成明确危害,工程师当然知道应不惜一切防止这种危害;然而技术后果若是包含概率极小的危险(如核电站)或者技术后果利弊分配不均,他就难以做出恰当的价值判断。第三,工程师即便认识到技术后果的正误或利弊,也无权采取相应行动,因为他隶属于有多种分工的技术组织,作为受雇者还听命于企业领导,无论拒绝工作还是向舆论报警,他都会丢掉饭碗。[2]

     究竟什么样的个人才能承担责任呢?荷兰学者T.斯威尔斯特拉等人指出,大多数伦理学家都认为,个体能够承担责任必须基于以下四个条件:(1)理性:认为行动者需要知道自己做了些什么。(2)因果关系:行动者应当确实采取了被认为应负责任的行为。(3)自由:行动者需要在自己的意愿下行动,不应处于压力之下或受制于其难以控制的环境。(4)知道后果:行动者只有在后果已经被看到或能够被看到时,才能为行为后果负责任。[3]这些条件需要进一步反思。斯威尔斯特拉等人认为,从事设计和开发的现代工程师仅仅是技术过程众多参与者中的一个。当新技术的一些后果实现得不如预期满意时,不大可能将这些后果和那些具体的工程师们联系起来。工程师如果受雇主所迫做有害公众利益的事情,并没有去揭发,这样的工程师有责任么?如果技术后果是不可预见的,那么参与研究、开发的个人应不应该承担责任?这些问题都反映了技术后果评价的伦理困境。

     其次,组织能否成为负责任的主体,也一直是颇具争议性的话题。有学者认为,组织不应成为在道德上负责任的主体。毕竟组织并非是通常意义上的人。只有个体才具有前瞻性的责任感受,才能对道德进行反思并在决策中对道德因素进行考虑。因此,道德主体只能是自然人。德国经济伦理学家内尔·布罗宁认为,个体如果参加到一定的团体之中,那么,他就对团体产生依赖性,同时他也应对团体负责;个体当然应该按照自己的行为方式进行自由的活动,甚至可以通过拒绝他认为无法承担的责任而离开团体。[4]但关键问题是,如果是某个共同体(某个实验室或某个企业)基于共同意愿进行的决策,其造成的消极后果的责任该如何评估?

     也有学者认为组织应当可以成为在道德上负责任的主体。哈里斯认为组织至少可以承担三种意义上的责任。第一,它们可以因为伤害而受到责备。第二,一个对他人造成伤害的组织可以被要求做出赔偿。第三,一个对他人造成伤害的组织应该进行改革。[5]如果一个组织的许多人都参与并导致了伤害,此时的责任又将由谁来承担,责任将如何分配?责任分配的不合理将会给所有责任承担者带来不公正的境遇。例如,对于现代社会存在的环境污染、资源衰竭等问题,可能很多人都参与其中并导致了消极后果,但就个体而言,每个人的行为又可能是在环境承受范围之内的,个体行为并不会造成严重的后果。在这种情形下,哈里斯提出:在集体怠惰造成一种伤害的情况下,团体中每一位成员的责任取决该成员能够被合理地期待防止怠惰的程度。[6]

     应当看到,个体责任与组织责任各有其适用区域。在个体层面,技术人员应当尽其本分,需要避免技术活动带来社会性的消极后果;而在组织层面,他们也要服从业务组织和专业组织的规则。但个体责任与组织责任也会引发基于组织利益和社会效益之间的冲突。工程师在这种冲突中时常无所适从,这本身同样是一种困境。

     当技术的应用过程中出现弊端时,对技术后果进行伦理视角的评价是否还有价值?这种事后的技术后果评估是否为时已晚?按照韦伯和约纳斯的责任伦理学说,对技术后果的评价如果仅仅关注于技术的整体后果,技术活动有时会停滞不前。对可预知的消极后果当然应竭力避免;而对于不可预知的后果,与其说不知如何规避风险而不知所措,倒不如采取这样比较经济的方案:我们可以通过对技术应用的消极后果进行评价,再向技术设计、研发环节反馈,对技术的发展进行协调控制,如此循环往复,保证技术系统的良性发展。这种过程类似于亚里士多德所说的“实践智慧”。实践智慧是关于道德的知识,它帮助我们决定在与道德有关的事务中如何行动。[7]应当将对技术后果的评价包含到技术系统的发展过程中。这种技术后果的事后评价非但不是无用的,而且是必须的。

     英国技术哲学家大卫·科林格里奇提出要使技术发展具有三种根本属性:可改正性、可控制性与可选择性。可改正性是指将技术过程中一系列决策环节都做成容易改正的。当技术发展出现有害结果时,可以通过改正这些决策来达到克服有害结果的目的。可控制性是指当技术的有害结果在系统中得到反馈后,可以通过控制技术系统来克服技术的有害结果。可选择性是指在技术活动的过程中,人们应当保持做出各种决策的选择权。当发现技术的有害结果时,可以通过选择不同决策的方法来改变技术的有害结果。科林格里奇认为如果发展一种技术,具备和获得了这些条件,即使在预先未知技术结果的情况下,也可以由改变技术决策的方法来控制技术,进而达到克服技术有害结果的目标。[8]

     美国技术哲学家卡尔·米切姆也曾倡导工程技术人员应当具备考虑周全的义务。即当技术活动中暴露出某些弊端时,技术人员应仔细分析这些后果,考虑更多的现实因素,使工程技术设计更加周全。米切姆认为,“尽管失败是工程中在所难免的,但我们应该看到失败在工程研究中意味着要‘考虑更周全一些’。从伦理的角度来看,考虑更周全就是要(技术)向善、向更好的方向发展。” [9]

     二、伦理困境产生的深层原因

     (一)技术自身的特性

     技术后果评价的伦理困境首先与技术自身特性有关。在技术哲学史上,曾经流行过技术只是手段、工具,自身并无好坏、善恶之分的观点,以为技术的一切后果均只与使用者有关,技术的使用者成了技术后果的责任承担者。这种“技术工具论”的典型代表有德国哲学家雅斯贝尔斯等。这种观点会发展出一种危险的想法:只要技术使用者的目的善良,技术就不会出现消极的后果,任何技术都可以合理地存在,可以不加思考而大力开发。技术工具论者往往将目的与手段割裂开,将技术作为既定不变的某种现成的东西,忽略技术本身的变化。工具和目的的严格区分实际上只在一个非常有限的范围内暂时有效,任何进一步的追究都会进入到工具与目的的那种相互归属的关系中:任何工具都服务于因而受制于某种目的,而目的也会创造自己的工具。[10]

     人类对于技术的合理利用确实能够带来幸福,也会由于技术的滥用给人类带来灾难,这就是人们所熟知的“双刃剑”效应。但这种观点过于简单。海德格尔认为,这种观点只是表明,“正确的东西虽然总是表现出某种确实的东西,但却没有揭示事物的本质。” [11]。人们持有某种目的而开发技术,而技术的社会应用不但实现了使用者预设的目的,同时也可能出现预定目标以外的或善或恶的后果。化工技术(如氟利昂)一方面使人类增加了幸福,同时也带来了额外的环境污染(例如臭氧层空洞等)。到底谁应当承担环境污染的责任?难道化学工程师 “好心干了坏事”?实际上,“技术自身就存在危险过程或人造物本身就产生特殊的危险。这种危险与意图无关。” [12]在技术自身存在伦理问题时,技术后果评估很难将责任完全归咎于技术使用者。米切姆指出,“事实上,即使科学家们怀着最善的目的对技术进行研究,即使使用技术的人们也没有随意误用或滥用技术,科学技术自身仍经常会带来伦理问题。” [13] 他进一步举例,“当爱因斯坦认为对待核武器的出现需要新的思维方式时;当加入美国科学家协会(FAS)、原子科学家公报、帕格沃什运动、忧思科学家联盟(UCS)的科学家和工程师们宣称(用UCS领导人肯德尔的话说)‘核能量本质上是危险的’时候,这些观点清楚地暗示着,至少原子能这一项技术已经表现出绝不能成为中性手段的特性,即不论出于何种动机使用原子能都会产生负作用。” [14]

     (二)专业分工和产业链对伦理困境的影响

     现代技术系统是以高度的专业化分工为其必要前提的,具体表现为设计者、制造者、使用者完全分开了,但同时又各自处于一定的系统之中。他们不再是单独的个人,而是高度复杂的开发部、制造部、销售部、广告部、潜在用户等等。[15]由于专业分工的高度细化,使得人们往往处于社会关系网络的某一节点,他们参与的常常只是社会活动的某一部分,这样就很难对某个技术活动整体造成的消极后果负责。另一方面,专业分工和组织的等级阶层通常使工程技术人员远离了技术后果,降低了他们对后果负责的个人意识。计算机伦理学家汤姆·福雷斯特等举例:当一个系统因为程序的一个差错发生故障或者完全瘫痪,谁来负责——是最初的程序员、系统设计者、软件供应商,还是别的什么人?[16]在现代以前,很多科学技术发明都是个人或少数人的行为。当技术应用出现消极后果时,追究责任是理所当然的,在中国古代就曾经有“物勒工名”的制度。现代以来,随着科学技术的建制化,很多技术发明都是科学技术共同体的集体智慧结晶,少有个人行为。“单个科学家的研究逐渐细化,使得角色责任甚至是集体的角色责任成为科学家逃避公众责任的借口”,“当科学家集体和其他社会集体共同施行某种行为时,我们如何应对责任问题?” [17]

     米切姆等人曾以日本广岛遭受原子弹轰炸一事为例阐述这一论点。人们在追究这一事件的责任时遇到了困难:到底责任在谁?是轰炸机的驾驶员?是设计原子弹的科学家和工程师以及他们的领导者奥本海默?是下命令的杜鲁门总统?还是在1939年曾经写信给罗斯福总统说明制造原子弹可能性的爱因斯坦等人?[18]工程技术人员在处理技术活动中出现的问题时,他们通常都受雇于某个社会组织(公司、机关等),而这些社会组织都为自己的目的、利益所驱使,工程师、科学家个人很难与组织的力量相抗衡,从而难以履行自己的伦理责任和社会责任。

     其次,专业分工的存在通过对技术教育的影响,进一步导致了工程技术人员知识构成的狭隘。大多数工程技术人员的知识能力都是有限的,很难把握本领域之外的复杂性。专业分工的作用使得一些人即便是能够意识到潜在后果的存在,也会以“那不是我的领域”为借口,而不主动递交意见,由此造成责任的缺位。与此类似,产业链的存在也会给技术后果评价造成一定的伦理困境。产业链是指在经济活动中,从事某一产业活动的企业之间由于分工角色不同,在上中下游企业之间形成经济、技术关联,产业中产业节点的变动会影响整个链条的变化。显然,技术产品是链中所有企业共同合作的结果。由于产业链中企业之间技术、资源之间的关联以及企业之间的分工合作,常常会导致技术责任主体的缺失。

     (三)直观体验认识的局限

     直观体验思维难以精确地分辨外界事物的细节和复杂特征,难以定量化,在抽象的深度和思维的广度上都受限制。而技术消极后果的产生是一个过程。斯威尔斯特拉等人引用Lynch和Kline等人的观点,认为工程技术中的“安全风险并不是一夜之间冒出来的,而是一个慢性的、逐渐的过程的结果,它应当被负责任的而不是英雄的工程师所改变。”“工程师应当是负责任的,但他不是(半神半人的)英雄。” [19]

     技术后果评价常常需要将技术系统分解为构成要素,分别计算每个部分发生故障的概率。但在实际技术活动中,技术消极后果的发生有时和系统问题有关,甚至与那些在系统运行一段时间以后才产生的因素有关。因而这样的技术后果发生是一个渐进的过程。人的直观体验有其局限性,并不能马上发现技术导致的消极后果,技术后果的显著产生在时间上有一定的滞后性。在连接紧密的技术系统中,某个系统构成要素引发的故障会经过整个技术系统放大、反馈、振荡等一系列机制,输出与信源不一致的信息。一旦系统的不可预见后果发生,工程技术人员只有极为有限的时间来做出应对。直观体验这种非定量的思维模式,往往很难突破感官能力的和常识的局限性,难以发现与感官印象和常识不一致的更深刻的本质特点和规律性。技术哲学史上著名的“科林格里奇困境” [20]是人们在技术认知过程中直观体验思维局限性的又一例证。“因为在技术的早期,当它能够被控制时,不能充分地知道技术有害的社会后果,也不能知道控制它的发展是否正当。但是,到了这些后果明显的时候,控制已经变得昂贵和困难。” [21]

     消除伦理困境的相应对策

     (一)关注技术本身

     既然伦理困境产生的一个主要原因是技术自身的特性,对伦理困境的消除就应当首先回到关注技术本身。由于技术自身负有价值,技术使用者首先应当注意在使用技术之前对技术的可能后果做出充分估计,继而在技术的使用过程中也要“考虑周全”,承担伦理学意义上的“前瞻性责任”。技术伦理中的责任就是要技术主体通过自觉担当来实现技术活动的趋善避恶,从后果上保证技术给人类带来的是幸福而不是痛苦。哈里斯称这一责任为“善举(good work)”。[22] 现代技术的一种根本属性是过程性。在技术的不同发展阶段,存在着不同的责任主体,他们所要承担的责任也不尽相同。每个参与者都应当确认好、履行好自己的责任,包括完成好角色之间的转换。

     现代技术另一个重要特点是风险性。技术的风险性会产生意想不到、不可预计的结果。例如,技术的一个重要性质就是它允许、接受一定的数值偏差,但有时这种偏差却会造成一定的风险。部分STS学者针对“挑战者号灾难案例”已经提出,通过不断扩大工程项目偏离安全与可接受风险的适当标准,工程师也会增加对公众的风险。[23]美国波士顿大学的社会学家戴安娜·沃恩把这种现象称作“常规化偏差(normalization of deviance)”。在沃恩看来,错误的发射决策是这种“可接受风险”逐渐建构的结果。[24]这类问题并不能直接通过技术系统加以消除,而需要关注技术系统的这类特性。在进行工程技术决策时,需要重视长期从事相关活动的技术人员积累的与之相关的“隐性知识”。

     (二)倡导合作责任

     罗泊尔认为,科技工作者、工业经济组织和国家机关应按照社会伦理学的分级负责原则进行合作:首先,科技工作者在自己的知识、判断能力和行动能力允许范围之内对技术的环境和人权价值负责。如果超越了科技工作者个人的能力和权限,工业企业就必须负责;这应成为企业文化的当然组成部分。但各工业企业像科技工作者个人一样,也会在知识、判断能力和行动能力方面受到局限,这时就需要国家机关从协调知识、澄清目标和健全相关法规等等方面提供帮助。罗泊尔也因此呼吁:“让全社会为技术后果评估负责”,这样也解决了因为专业人员知识缺陷而引起的评价困境。[25]米切姆将这种基于合作关系的责任称之为“合作责任(Co-Responsibility)”。通过合作责任,个体责任与组织责任在技术后果评价中可以较好地统一起来。

     合作责任的一个基本前提是广泛的公众参与技术评价。米切姆为此提出了一个基本模型。一方面是广度,即提倡多个学科、专业而不仅仅是与科学技术相关的专业参与讨论,包括人文和艺术,以便沟通科学文化与人文文化。另一个方面是深度,即提倡讨论应当超越学科划分,包含广大公众的利益。[26] 合作责任另一个重要前提就是“职业理想主义”,即职业团体(包括政府行政决策人员)需要树立职业理想,根据职业守则或规范完善自身的道德品行修养,勇于承担角色责任。

     (三)加强跨学科教育

     技术后果评价伦理困境的一个重要原因就是工程技术人员缺乏全面的知识。在现代化的专业分工下,每个人只是从事专门工作,缺乏对整个技术系统的全面认识,包括技术系统的社会影响,哈里斯将这种状况称为“微观视野”。[27]因此,应当注重对技术系统中的每个人进行跨学科的教育,其中应当包括科技伦理教育。通过自然科学诸学科之间,甚至科学技术与人文之间的跨学科教育,使得工程技术人员能够尽可能多地了解到他们所从事的专业领域对社会、公众的影响,并使之能够意识到自身的社会责任。

     哈里斯总结了美国工程专业职业伦理教育的两种方法:一种方法是开设独立的工程伦理学课程;另一种方法是“交叉课程伦理学”,即把职业化和伦理的讨论纳入已有的工程技术类课程之中。[28]这两种方法各有长处和短处。独立的课程在更深入地讨论职业化问题上具有优势,讲授这门课程的教师在描述与讨论伦理和职业问题时会更为充分。另一方面,交叉学科伦理学的方法有两个优势。工程学教授将伦理与职业问题引入到技术课程之中,说明了技术与伦理和社会问题是息息相关的,而很多工程专业学生并没有觉察到这一点。通过这样的科技伦理教育,使得工程技术人员能够从跨学科的、“宏观视野”角度来考察技术活动,积极承担社会责任。

     我国的科技人员在从向市场经济转型的过程中,必然会遇到部门、公司利益与公众、社会利益可能冲突的问题。当发现某种科技政策可能损害公众以及社会利益时,科技人员能否披露真相,能否考虑周全,能否使公众知情,这需要广泛深入的科技伦理教育。[29]科技伦理教育应当给技术人员、科技决策者提供相应的伦理观念和应对策略。

     (四)技术后果评价策略的创新

     消除伦理困境的另一重要角度就是技术后果评价策略的创新。传统的技术后果评价机制的缺陷在于评估时间过长,篇幅过长且并不实用。美国国会技术评估办公室做出评价报告一般需要18-24个月,每份报告200多页。[30]这样的技术评价报告显然不能较好适应当今瞬息万变的技术社会。技术评价可以灵活采取阶段简报的形式,增加简报的次数,以便及时地发现问题、解决问题。对技术后果评价策略的调整,需要将对技术后果的评价包含到技术系统的发展过程中。目前在建筑设计和城市规划领域,已经有了一些初步尝试,如公众参与环境设计使用后的评价(Post Occupancy Evaluation,简称POE)。POE通过案例的研究,已经形成了“策划-设计-反馈”不断循环的设计模式。[31]同时,这种评价策略一定程度上也降低了由于直观体验对评价困境的影响。

     总之,通过不断改进技术后果评价的机制和相关社会条件,技术后果评价的伦理困境是可以逐渐消除的。在我国,技术后果评价还不够普遍,也不够深入,其伦理困境与我国的社会环境和文化传统有密切的联系,这方面许多问题还有待更深入的研究。

     【注释】

     [1]. [美]查尔斯?E?哈里斯等:《工程伦理: 概念和案例(第三版)》,丛杭青等译,北京理工大学出版社2006年第1版,第 25-26页。

     [2]. G.罗珀耳:《让全社会为技术后果评估负责》,逸菡译,载于《国外社会科学 》2000年第6期,第77-78页。

     [3]. Tsjalling Swierstra, Jaap Jelsma, “Responsibility without Moralism in Technoscientific Design Practice”, in Science, Technology & Human Values, 2006(03), pp.312-313.

     [4]. 转引自杜宝贵:《论技术责任主体的缺失与重构》,东北大学出版社2005年版,第62页。

     [5]. [美]查尔斯?E?哈里斯等:《工程伦理: 概念和案例(第三版)》,同上,第 25页。

     [6]. [美]查尔斯?E?哈里斯等:《工程伦理: 概念和案例(第三版)》,同上,第 27页。

     [7]. 唐热风:《亚里士多德伦理学中的德性与实践智慧》,载于《哲学研究》2005年第5期,第72页。

     [8]. 参见冯军:《论克服现代技术的内在过程——评克林利德克服技术思想》,载于《自然辩证法研究》2005年第4期,第46页。

     [9]. Carl Mitcham, “Engineering Ethics in Historical Perspective and as an Imperative in Design”, In: Thinking Ethics in Technology (Hennebach Lectures and Papers, 1995-1996)(Colorado: Colorado School of Mines Press, 1997), pp 123-152.

     [10]. 吴国盛:《海德格尔的技术之思》,载于《求实学刊》2004年第6期,第34页。

     [11]. Martin Heidegger, The Question Concerning Technology, New York: Harper and Row, 1972, p.5.

     [12]. 卡尔?米切姆:《技术哲学概论》,殷登祥等译,天津科学技术出版社1999年版,第76页。

     [13]. Carl Mitcham, “Co-responsibility for Research Integrity”, in Science and Engineering Ethics, 2003(9), p.279.

     [14]. Carl Mitcham, “Professional Idealism among Scientists and Engineers: a Neglected Tradition in STS Studies”, in Technology in Society, 2003(25), p.260.

     [15]. 李文潮:《现代技术对社会与传统伦理的挑战》,载于《科学对社会的影响》2003年第1期,第46页。

     [16]. [澳]汤姆?福雷斯特,佩里?莫里森:《计算机伦理学——计算机学中的警示与伦理困境》,北京大学出版社2006年版,第11页。

     [17]. Carl Mitcham, “Co-responsibility for Research Integrity”, in Science and Engineering Ethics, 2003(9), p.280.

     [18]. Carl Mitcham, Rene Von Schomberg, “The Ethics of Engineers: From Occupational Role Responsibility to Public Co-Responsibility”, in P. Kroes, A. Meijers (ed.), The Empirical Turn in the Philosophy of Technology (Amsterdam: Elsevier Science Ltd., 2000), p.167-189.

     [19]. Tsjalling Swierstra, Jaap Jelsma, “Responsibility without Moralism in Technoscientific Design Practice”, in Science, Technology & Human Values, 2006(03), p.311.

     [20]. 科林格里奇困境是指,避免技术出现负效应一般需要满足两个必要条件:一是必须明确该项技术产生或者可能产生的危险,二是必须具备有改进该项技术危险的可行性。而现实中两个条件并不能同时满足。

     [21]. David Colling, The Social Control of Technology, New York: St. Martin’s Press, 1980, p.19.

     [22]. 肖峰:《哲学视域中的技术》,人民出版社2007年版,第320页。

     [23]. [美]查尔斯?E?哈里斯等:《工程伦理: 概念和案例(第三版)》,同上,第 124页。

     [24]. 哈里斯:《美国工程伦理学:早期的主题与新的方向》,载于杜澄,李伯聪编,《跨学科视野中的工程(第三卷)》,北京理工大学出版社2007年版。

     [25]. G.罗珀耳:《让全社会为技术后果评估负责》,同上。

     [26]. Carl Mitcham, “Co-responsibility for Research Integrity”, in Science and Engineering Ethics, 2003(9), p.281.

     [27]. [美]查尔斯?E?哈里斯等:《工程伦理: 概念和案例(第三版)》,同上,第 31页。

     [28]. 哈里斯:《美国工程伦理学:早期的主题与新的方向》,同上。

     [29]. 具体参见朱勤、莫莉、王前:《米切姆关于科技人员责任伦理的观点评述》,载于《自然辩证法研究》2007年第7期。

     [30]. Fred B. Wood, “Lessons in Technology Assessment”, in Technological Forecasting and Social Change, 1997(54), pp.131-143.

     [31]. 杜澄、李伯聪编:《跨学科视野中的工程(第二卷)》,北京理工大学出版社2006年版,第168页。

    http://www.duyihua.cn
返回 哲学园 返回首页 返回百拇医药