91学术服务平台

您好,欢迎来到91学术官网!站长邮箱:91xszz@sina.com

发布论文

论文咨询

智能化时代对伦理重塑的探究

  2020-06-23    435  上传者:管理员

摘要:以人工智能为主要代表的新一轮科技革命正在深刻影响着人们的生产方式、生活方式和思维方式,也引发了诸多道德判断困境及其伦理思考。智能化时代的人类社会将走向何方?应坚持以马克思主义科技观为指导,重视科学技术是第一生产力的革命性力量,警惕科学技术异化力量的负向作用,反对目的论和义务论的伦理错误倾向,在主体设计、制度管理、公众环境三个层面探讨伦理重塑策略,以期人类社会与人工智能和谐共处、“向善”发展。

  • 关键词:
  • 人工智能
  • 伦理
  • 伦理学
  • 智能化时代
  • 道德判断困境
  • 重塑
  • 加入收藏

一、智能化时代面临的伦理问题与挑战


人类社会步入智能化时代,人工智能正以前所未有的速度逐渐代替人类劳动,通过其自身深度学习、自我完善的超强能力在为人类提供高效优质服务的同时,也引发了许多伦理问题及思考,比如,人工智能是否能完全代替人类工作从而抑制人类潜能的开发?人工智能是否应该具有人的主体性资格及人权?如何看待无人驾驶技术问题引发的道德判断困境,以及人工智能技术异化的伦理思考?着眼人工智能现状及发展趋势,智能化时代面临的伦理问题可概括成四个方面:

1.社会不平等矛盾持续激化

在智能化时代,人工智能作为全新的生产要素,使人类从繁重的体力劳动中解脱出来,但缺少能力储备和相关技能的劳动者因无法适应智能化要求面临失业的境遇,公平就业和接受再培训、再教育也就无从谈起。低报酬简单技术职位与高报酬智能化技术职位之间的差距拉大,社会群体之间原有的不平等矛盾与潜在的裂痕更趋于明显。除了这种在就业市场上体现人工智能技术资源占有的不平等外,在日常社会生活中不同地区、不同群体之间基于技术鸿沟、数据鸿沟同样难以消除带来的负面影响,尤其是社会群体中的老年人、残疾人等弱势群体无法完全享受到人工智能科技所带来的感受和体验。正是基于这种不对等现象衍生出的智能产品不合理使用、算法偏见、虚假信息等负面问题,影响着人类社会的认知与规则。

2.个体隐私安全受到威胁

智能化时代意味着人与人之间、人与社会之间关系更加透明,海量信息数据唾手可得,个体位置信息、关注内容、行程安排等极易被获取分析,个体敏感信息、私密内容可能“无死角”暴露在大众视线。大数据信息动态监控,使个体用户操作“痕迹”被收集挖掘成为可能,不仅了解你是“谁”,更能预测你将成为“谁”。尽管大数据等智能化手段在开展学生群体分类针对性教育时能提供诸多便捷,但使得许多传统意义上并非隐私的信息变成了个体敏感信息,增加了人们隐私受到侵害的可能性和伦理风险概率。对于这些数据算法的过度依赖或应用范围的盲目扩大,比如,社交媒体中用户的过度沉迷、电商利用消费者价格敏感度不高设定价格等,既在社会现实层面上为不法分子提供了随意窃取、滥用信息资源的机会,又在道德层面上容易引发伦理道德风险。

3.道德主体界定存在不确定性

道德主体是指“具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体。”[1]47-51人工智能目前主要可分成弱人工智能与强人工智能两个阶段。弱人工智能机器实现的是对人类行为的复制和模拟,我们无法称目前的弱人工智能是道德行为体,也因其意识和主体性的缺失,产生的伦理问题不具备领域的特殊性。但不能用形而上学狭隘的观点对待人工智能的发展趋势,一旦步入强人工智能阶段,以及还可能出现的超人工智能阶段,其超强的“类人”思维和意识是目前无法想象的,届时机器是否能成为像人一样的道德主体呢?在未来人机共处的世界中,又将如何使人类个体和机器人享有平等的尊严,所带来的相关伦理问题必将成为人们关注的焦点。

4.法律责任划分的“空窗期”

从哲学层面来讲,责任产生的前提和基础是基于因果关系的。由行为产生的相应结果,其责任应该是明确的。人类设计的人工智能所产生的行为结果,尤其是当造成人类社会及其个体伤害时,其法律责任如何界定?在已出现一系列智能机器伤人事件中,如无人驾驶汽车撞人、智能机器人自动运转“杀人”等,溯本求源,以果推因,其责任既可能由使用者操作失误承担,也可能由设计者起初设计缺陷承担,还可能由机器自身程序运转错误承担。不良后果的法律责任“空窗期”,长此以往必然引发社会恐慌和伦理困境,法律责任界定必然成为争论焦点。


二、智能化时代伦理重塑的理念与态度


智能化时代社会伦理问题日渐突出,伦理重塑的历史逻辑在于人工智能的发展与人类智能之间不断变化的关系,其理论逻辑在于人工智能进一步发展的“正当性”与“善恶观”。

1.伦理重塑的理念:马克思主义科技观

马克思主义科技观是以辩证分析科学技术在人类社会发展中的“两重性”作用为起点而创立的。尽管人工智能的发展对人类社会的影响远远超过以往,马克思主义科技观的立场和观点对智能化时代伦理重塑新的体系依然起着指导作用。

第一,重视“科学技术是第一生产力”的正向作用。生产力是人类改造自然的能力。随着科学技术的广泛应用,在生产力的诸多要素中,科学技术已然作为第一生产力发挥着越来越重要的作用。科学技术创造出新的劳动工具,大幅度提高劳动生产率,并且不断改变着人类的生产方式,正如马克思曾预测未来生产力“取决于一般的科学水平和技术进步,或者说取决于科学在生产上的应用。”[2]217以人工智能为代表的最前沿的科学技术己成为现代经济社会发展的首要推动力量,是先进生产力发展方向的体现,这个正向作用的本质是对待人工智能的方向问题,正是基于此前提,才可能进一步探讨科学技术发展与智能化时代人类伦理问题。

第二,重视“科学技术革命性力量”对社会存在的影响。科学具有彻头彻尾的革命性,它不仅作为第一生产力推动经济的快速发展,而且作为革命性的力量改变着生产关系,进而影响着社会主要矛盾的变化,促进社会的变革与进步,要发挥人工智能“革命性的力量”,促进人类社会的进步而非阻碍或者破坏。只看到人工智能作为第一生产力的经济因素是片面且有危害的,全面对待其正负“两重性”,重塑伦理道德,建构相关伦理体系,恰恰是社会进步发展的伦理诉求。

第三,重视“科学技术异化力量”的负向警示。马克思主义认为科学技术在资本主义生产过程中把工人贬低为机器的附属品,并作为独立的力量与工人相异化。人工智能作为目前科技发展的最高端,同样存在科技异化的问题,而且人工智能的异化力量的影响不可估量。如果人类借助人工智能,不择手段获取金钱效益、追求功利,必然导致工具理性的恶性膨胀与价值理性的极度萎缩,人类终将沦为人工智能的“奴隶”。重视“科学技术异化力量”的负向警示,重新审视人类生命的本质意义,重新塑造人工智能伦理道德精神,是人类与人工智能和谐共处的必要调适。

2.划清伦理重塑的界限:目的论倾向与义务论倾向

智能化时代伦理重塑应坚持马克思主义科技观作为指导,反对两种伦理理论的错误倾向,即目的论倾向与义务论倾向。以边沁为代表的目的论伦理理论也称为功利主义,该理论认为,判断任何一种行为是善恶还是好坏的依据,在于这种行为是否能够增加人们的幸福。换言之,判断是否赞成一种行为的标准,是在诸多可能中选择产生幸福最大的一个。目的论伦理理论以追求人类的快乐幸福作为一种行为是否善恶的标准依据,为人民谋幸福的追求是其合理性,但同时极具蒙蔽性,因为幸福不是唯一的衡量标准,况且,所谓幸福的体验因人而异,人类社会关系也不只是有功利关系、利益关系,不能因为其标榜为多数人的幸福利益,就可以损害少部分人的正当利益。片面追求幸福的重要性,会导致部分人不择手段获取利益的价值倾向。如果按照功利主义伦理理论推理,人工智能电子监控设备与人脸识别技术,在为人类提供安保、监督、提升工作效率等服务的同时,就可以忽视其泛滥使用而带来隐私权的侵犯,以及继而产生的人身安全威胁伤害吗?以弱智能为主要代表的智能产品的不合理或过度使用带来的危害值得深思。

以康德为代表的道德义务论伦理认为,判断任何一种行为是善恶还是好坏的依据,在于这种行为是否遵循道德规范,而且这种遵循是绝对的义务和无条件的服从。义务论伦理理论的逻辑起点在于人具有自我控制的理性和道德约束的意志。人不是律令的简单执行者,而是兼具立律人与执行人的双重角色。人工智能本质上作为一种工具无所谓利害,关键在于使用者所遵循的伦理道德准则。道德义务伦理理论尽管把人看作为目的的价值取向和立场,以及强调道德义务的崇高具有一定的合理性,但只片面关注一种行为背后动机的“善”,却忽略这种行为所引发的客观结果是否好坏,忽视对道德现实性的思考,在实践层面上伦理道德注定流于纯粹的形式。智能化社会由于人工智能网络的虚拟性和匿名性,为人们在网络环境中释放自身的自由意识提供了空间。但不是所有的人都是完全自律的,恰恰相反有部分人对道德伦理不屑一顾,义务伦理道德对抑制诸如网络虚假信息爆料、人肉搜索、网络暴力等恶性事件则有很明显的局限性。

3.伦理重塑态度的误解:乐观论与悲观论

人工智能本质上讲是具有智能的科技,是由人类制造的计算机程序,同时还要看到这项技术和程序将不再是对人类思维的简单复制或模仿,而是具有一定自主选择和判断的能力。基于此,伦理重塑应该采取的态度,取决于智能化时代对人工智能发展状况的合理判断及对其趋势的科学预测。因盲目悲观而限制甚至取消人工智能的进一步发展,或者因盲目乐观缺乏未雨绸缪忧患意识及对策都是不可取的。弱人工智能通常是指具有解决某一领域问题的专业性机器,不具有自我意识,不是真正意义上的智能,比如围棋竞技的人工智能AlphaGo,目前应用市场上绝大部分产品属于弱人工智能。强人工智能可以自主学习、思考和判断、推理,可以预见的是强人工智能未来发展的趋势可能会具备意识,由工具性智能转变为主体性智能。如何对待强人工智能的“拟主体性”及其“拟伦理角色”是智能化时代伦理重塑的应然性。

悲观论者主要宣扬人工智能的威胁论,比如,斯蒂芬·威廉·霍金不止一次地警告科学家对人工智能的研发可能毁灭人类,埃隆·马斯克曾断言人工智能终将可能取代人类等等,人工智能对人类必将带来灾难和毁灭的各种论调在一些科幻电影和小说中频频出现。乐观论者主要强调人工智能的利益化,比如,马克·扎克伯格认为即使人工智能超越人类,是人类科技的进步,也是人类的进步。智能化时代伦理重塑的态度应该是客观看待、谨慎前行。如果因为担心人工智能的威胁而焦虑恐慌,过于悲观不安全因素的影响,止步于当下弱人工智能发展阶段,既错过快速发展的机遇,也回避探究人类与人工智能的伦理关系,从而也断送了人类无限潜能的激发和进步。如果过于乐观发展人工智能,目光短浅,只强调对社会带来的便捷和对人类的服务,忽视科学技术作为异化力量的负向警示,则会助长工具理性的膨胀与价值理性的萎缩。


三、智能化时代伦理重塑的应对与策略


科学研究早已不再纯粹是客观中立的认知活动,科学研究的伦理性特征日益显著。智能化时代伦理重塑要坚持以马克思主义科技哲学观为指导,从主体设计、制度管理、公众环境三个层面来解决人工智能发展面临的挑战与伦理困境,做出具有科学的伦理判断与正确的价值选择,引导智能化沿着有益于最大多数人民利益的方向发展。

1.主体设计层面的伦理重塑

第一,坚持以人为本的主体设计理念。

“追求技术的高端并非是人类科研活动的最终目的,科研活动的最终目标是为了更好地服务人类,为人类的发展做出贡献。”[3]280人工智能是人类触角的延伸,人工智能与人类之间是服务与被服务的关系,这是应该坚持的正确伦理准则。主体设计理念伦理的重塑,就是人工智能的发展必须遵循为人类服务并作出贡献,而不是本末倒置的伦理错位。“主体设计”强调的是人工智能产品的设计开发,“以人为本”强调的是人工智能要为最广大人民的根本利益服务,首先要保障而不是威胁人类的生命财产安全。人工智能系统发展越来越复杂,呈现出高智能化,但其前提是无论主体设计研发功能多么强大,必须是保障人类安全,而不是人类社会主体地位的丧失。其次要维护而不是损害人类的尊严。人工智能发展在保障人类安全的前提下,还要服从人类的命令,促进人类的全面自由发展,不能因为提供人类便利却削弱人类自身能力的全面发展,要考虑人类自身发展的全面性而适度“限制”主体设计研发功能,避免人类沦为人工智能的“奴隶”。

第二,主体设计融入伦理思想。

智能化的快速推进,各种人工智能技术和产品日益多样、不断升级。主体设计的技术如何服务社会和最广大人民的根本利益,是智能化时代伦理面临的现实境遇。人工智能技术的滥用或无效控制,比如,有的研究者试图将芯片植入人脑,或者机器人被不法分子控制作为杀手等,必将会给人类生存生活带来极大风险,甚至是毁灭性的灾难。关于人工智能技术滥用问题的解决,取决于主体设计的科学家的道德素养和法律的约束力量。关于人工智能技术的设计问题,取决于人工智能程序的不断完善,即人工智能程序植入思想。人工智能在接受各种程序指令的同时,自身融入伦理哲学思想,使其产生符合社会核心价值观要求的“自律”的伦理道德,尽管目前这项技术还未初显端倪。人工智能伦理思想的融入,要遵循一定的技术的伦理标准,这既是认知层面的进步,也是伦理道德的必然诉求。

2.制度管理层面的伦理重塑

第一,构建系统完善的人工智能专门法律体系。

面对人工智能引发的一系列社会问题,需要有关人工智能专门的法律法规予以规范和约束,如果这方面的制度管理“窗口期”过长,则继而带来相关伦理道德层面的“脱节”与滞后,比如,人工智能发展所造成的普通劳动与技术性劳动失业问题、知识产权问题、隐私安全保护问题等。为此,加快出台人工智能相关法律,填补该领域的空白,让人工智能的未来发展做到有法可依、有规可循。智能化时代人工智能伦理的重塑有赖于法律法规的保障,从法律层面界定责任义务、明确运行规范、提供处理机制。同时,法律法规的制定要以新型的伦理道德规范为框架,体现社会主义核心价值观的价值取向,使其发挥规范引导、向上向善的功能。

第二,发挥科学管理的约束力与监督力。

人工智能服从人类指令,为人类生产生活、社会发展提供便利,是人类与人工智能之间基本的伦理准则遵循。即使在未来社会强人工智能具备了道德主体地位的可能,人类也应当通过监管其工作运转,不断完善他们的读写代码,使其符合人类普遍的价值观念和伦理道德规范,有效避免伤害人类的“反社会”举动的出现。尽管在主体设计环节要坚持以人为本,融入伦理哲学思想于程序语言之中,在现阶段具有可操作性的关键环节还是投入市场运用时的有力监督。科学管理和有效监督是保障人工智能安全高效发挥作用的先决条件,比如,通过对人工智能产品的分类编号、设置使用标准、确立应急措施等方式,避免产品的不规范、不合理使用,确保人类发展安全。

3.公众环境层面的伦理重塑

第一,增强从业者服务人类社会整体利益的道德责任感。

人工智能同其他任何科技一样都是一把双刃剑,“技术是人的智慧和利益相结合的产物,技术中必然包含有发明和实用技术者的价值观。”[4]32-41人工智能技术的设计者、使用者、管理者自身价值取向和态度观念往往能够直接影响智能技术的进步和发展方向。对任何一项人工智能的研发和投入使用,都有责任和义务向社会和公众说明清楚其利弊,动态监测人工智能使用过程中的负面影响并有责任及时控制和消除不良影响。科学家作为公众中特殊的一员,必须从人类社会的整体利益出发,将个人利益融入人类社会整体利益,科学的发展必须要受到伦理道德的约束。从业者尤其是科学家服务人类社会整体利益的道德责任感的增强,首先要确保技术伦理制度的有力执行,使从业者高度认同智能化发展最终指向是增加社会福祉和社会贡献,一切技术的使用是为人类自身发展和社会进步服务,而非凌驾于人民根本利益之上,技术发展要实现利益与价值的辩证统一。

第二,引导公众使用人工智能的认知理性。

公众必将是人工智能的最大使用者和受益者。公众对于人工智能发展采取态度,以及如何看待人工智能发展产生的伦理问题,对于人工智能的进一步发展及其伦理重塑至关重要。目前公众对于人工智能尤其是未来强人工智能的认知,多停留于电影、小说所描绘的特定场景中,缺乏对其工作原理、发展前景、社会作用的理性认知和科学解读,对人工智能未知的恐惧,容易使公众在一定程度上陷入过度悲观的态度,从而表现出对人工智能发展前景的巨大担忧,这也是智能化时代伦理重塑反对的悲观论错误态度。为此,政府相关机构要通过新闻媒体的正向宣传引导、人工智能知识的普及传播、人工智能未来发展科学态度的氛围营造,促使人工智能技术伦理制度及人工智能技术法律法规在公众中得以很好的监督配合,形成人工智能发展合力。


参考文献:

[1]闫坤如.人工智能机器具有道德主体地位吗[J].自然辩证法研究,2019(5):47-51.

[2]马克思,恩格斯.马克思恩格斯全集(第46卷)下册[M].第1版.北京:人民出版社,1980:217.

[3]林德宏.科技哲学十五讲[M].北京:北京大学出版社,2004:280.

[4]刘海明.媒体算法的价值纠缠与伦理误区[J].湖南师范大学(社会科学学报),2019(1):32-41.


贾龙.论智能化时代的伦理重塑[J].自然辩证法研究,2020,36(06):57-61.

基金:山东省社会科学规划研究高等学校思想政治教育研究专项项目“新时代大学生思想精准引导研究”(18CSZJ12)

分享:

91学术论文范文

相关论文

推荐期刊

网友评论

加载更多

我要评论

伦理与文明

期刊名称:伦理与文明

期刊人气:598

期刊详情

主办单位:山东省伦理学与精神文明建设研究基地

出版地方:北京

专业分类:社会

创刊时间:2013年

发行周期:年刊

见刊时间:1-3个月

论文导航

查看更多

相关期刊

热门论文

【91学术】(www.91xueshu.com)属于综合性学术交流平台,信息来自源互联网共享,如有版权协议请告知删除,ICP备案:冀ICP备19018493号

微信咨询

返回顶部

发布论文

上传文件

发布论文

上传文件

发布论文

您的论文已提交,我们会尽快联系您,请耐心等待!

知 道 了

登录

点击换一张
点击换一张
已经有账号?立即登录
已经有账号?立即登录

找回密码

找回密码

你的密码已发送到您的邮箱,请查看!

确 定