这是一个创建于 1547 天前的主题,其中的信息可能已经有所发展或是发生改变。
什么是 科技伦理学?
科技伦理学是将伦理思维应用于技术的实际问题。科技伦理学之所以越来越突出,是因为新技术赋予了我们更多的行动力,这意味着我们必须做出以前不必做出的选择。过去我们的行动是不由自主地受制于我们的弱点,而现在,我们有了这么多的技术力量,我们必须学会如何自愿地受制于我们的判断:我们的伦理。
例如,在过去的几十年里,由于医疗、通讯、武器技术的创新,出现了许多新的伦理问题。过去不需要脑死亡标准,因为我们没有技术力量,甚至无法问出一个人的大脑失去功能时是否死亡的问题--无论如何,他们很快就会死亡。 但随着维持循环和呼吸的人工手段的发展,这就成了一个严重的问题。同样,对于像社交媒体这样的通信技术,我们还在摸索当我们能够接触到如此多的人和如此多的信息时该如何行事;而最近的假新闻问题反映了如果坏人能够接触到公众,那么在社交媒体上出问题的速度有多快。同样,对于核武器,我们过去从来不需要问这样一个问题:我们应该如何避免一场破坏文明的核战争,因为这根本不可能,但一旦这些武器被发明出来,那么我们确实需要问这个问题,并回答这个问题,因为我们当时--而且现在仍然--面临着全球灾难的风险。
这些变化显然带来了一些强大的风险,我们应该问问自己,我们认为这样的变化是否值得--因为我们确实可以在我们制造和生活的技术上做出选择。我们可以通过法律、法规和其他协议来管理我们的技术。我们应该对新技术提出的一些根本性的道德问题包括。既然我们已经开发了这些权力,我们应该用它们做什么?我们想达到什么目的?这项技术对人有什么帮助或伤害?一个美好的、完全的人类生活是什么样的?当我们试图驾驭这个新的空间时,我们必须评估什么是对什么是错,什么是善什么是恶。
举个例子,人工智能是人们为了更好地理解这个世界而探索的一个技术领域。因为我们想要从世界中获得意义,以便做出更好的选择,所以从某种程度上来说,人工智能具有基本的伦理性。但在这里,我们需要不要把效率误认为是道德 -- 某件事情的效率更高,并不意味着它在道德上更好,尽管很多时候效率对人类来说是一个巨大的好处。例如,人们可以制造出更高效的武器--在杀人和毁物方面更高效--但这并不意味着这些武器是好的,也不意味着它们会被用来做善事。从终极意义上讲,武器总是反映出对公共利益的一种损害,无论武器是否曾经被使用过(因为它的成本本来可以花在更好的东西上)。
回到人工智能,很多机构在探索人工智能的时候,目标不一定是大家的最佳目标。他们正在寻找一些好的东西,无论是让大型数据集变得有意义,还是改善广告。但这最终是技术的最佳用途吗?我们是否可以将其应用于社会问题,比如构建经济结构的最佳方式或促进人类繁荣的最佳方式?人工智能有很多好的用途,但我们真的是朝着这些好的用途,还是朝着低级商品的方向发展?
此外,我们现在已经变得非常强大,我们不仅有能力毁灭自己,也有能力改变自己。通过 CRISPR 和合成生物学,我们可以选择对人进行基因改造,通过将生物医疗设备植入我们的身体和大脑,我们可以改变我们的功能和思维方式。现在,大多数的医疗干预都是为了治疗而做的,但在未来,我们也要考虑增强功能。在某些时候,我们甚至有可能改变人性。
这是一种巨大的力量,这种力量必须与对尊严、公平和共同利益等伦理原则的认真思考相匹配。没有道德的权力诱惑,是我们现在比以往任何时候都更需要避免的。如果一个人有权力而没有善心,就会变得很危险,能够做出很邪恶的行为。事实上,这种危险的权力很可能会毁灭自己,也许还会带走许多无辜的生命。
只要有技术进步,科技伦理就不会消失,事实上,围绕科技和伦理的问题只会越来越重要。当我们一起走在这条通往未来的道路上时,我们将选择我们创造什么样的未来。鉴于我们日益增长的技术力量,如果我们想生活在一个更美好的未来,而不是一个更糟糕的未来,我们就需要越来越多地关注道德问题。
-
简言之,是人伦,不是畜伦,更不是消费领域的粉丝经济:虽然那也很有温度,但那不是我想要的。
-