智能机器加速到来

  • A+
所属分类:人工智能

来源:人工智能大健康

2016年可谓是人工智能史上异常耀眼的一年。这一年,谷歌公司的DeepMind团队开发的围棋机器人程序AlphaGo首次击败顶尖人类棋手,深度学习、强化学习等人工智能技术功不可没。次年,AlphaGo在多个场合横扫几乎所有顶尖人类棋手,人类统治围棋的时代彻底告终。另一机器人程序Libratus在德州扑克比赛中击败顶级人类玩家,这是机器人首次在不完全信息博弈中战胜人类。这些事件标志着机器智能的崛起,人类社会正在逐步进入智能机器的时代,机器辅助甚至取代人类进行各种决策将越来越常见和普遍。
此次人工智能浪潮的标志便是深度学习,是能够自我学习、自我编程的学习算法,可以用来解决更复杂的认知任务,而这些任务在此前完全专属于人类或者人类专家,比如开车、识别人脸、提供法律咨询服务,等等。深度学习、强化学习等机器学习技术,结合大数据、云计算、物联网以及其他软硬件技术,使得机器智能取得重大突破。在此背景下,有关道德机器的呼声再起。

智能机器加速到来

人工智能技术助力智能机器加速到来,机器逐步从被动工具向能动者转变。“计算机仅能执行强制的指令——对其编程不是为了使其能够作出判断。”纽约一家法院曾经如是说。这或许可以代表公众对计算机和机器人的固有看法。但是,人工智能技术的进步,正使这一观点变得陈腐,甚至可能成为一个偏见。因为机器正从被动工具向能动者转变,可以像人一样具有感知、认知、规划、决策、执行等能力。
2010年以来,受到大数据、持续改进的机器学习、更强大的计算机、物理环境的IT化(物联网)等多个相互加强的因素推动,人工智能技术在ICT领域快速发展,不断被应用到自动驾驶汽车、医疗机器人、护理机器人、工业和服务机器人以及互联网服务等越来越多的领域和场景。国外一些保险和金融公司以及律师事务所甚至开始用具有认知能力的人工智能系统替换人类雇员。从国际象棋、智力竞赛(比如Jeopardy),到围棋、德州扑克,再到医疗诊断、图像和语音识别,人工智能系统在越来越多的领域开始达到甚至超过人类的认知水平,让其辅助甚至代替人类进行决策,不再是空中楼阁。现在有理由预见,在不远的将来,交通运输、医疗、看护、工业和服务业等诸多领域的各式各样的智能机器(Intelligent Machine)或者智能机器人(Smart Robot)将成为人类社会中司空见惯的事物。以自动驾驶汽车为例,其区别于传统的机器的最大特征在于具有高度的甚至完全的自主性。无论采用何种机器学习方法,当前主流的深度学习算法都不是一步一步地对计算机编程,而是允许计算机从数据(往往是大量数据)中学习,不需要程序员作出新的分步指令。因此,在机器学习中,是学习算法(Learning Algorithm)创建了规则,而非程序员。其基本过程是给学习算法提供训练数据,然后,学习算法基于从数据中得到的推论生成一组新的规则,称之为机器学习模型。这意味着计算机可被用于无法进行手动编程的复杂认知任务,比如图像识别、将图片翻译成语音、汽车驾驶等。就自动驾驶汽车而言,其利用一系列雷达和激光传感器、摄像头、全球定位装置以及很多复杂的分析性程序和算法等,像人类一样驾驶汽车,而且做得更好。自动驾驶汽车“观察”路况,持续注意其他汽车、行人、障碍物、绕行道等,考虑交通流量、天气以及影响汽车驾驶安全的其他所有因素并不断调整车速和路线。而且自动驾驶汽车被编程来避免与行人、其他车辆或者障碍物发生碰撞。所有这一切都是机器学习的结果。因此可以说,在每一个现实情境中,都是自动驾驶汽车自身在独立判断和决策,虽然是程序员设定了学习规则。
更进一步,智能机器可能“打破”预先设定的规则,大大超出其设计者的预期。人们一直担心,赋予机器自主“思考”的能力可能导致其有能力违反被设定的“规则”,以人们意想不到的方式行为。这不纯粹是想象,已经有证据表明高度“智能”的自主机器可以学习“打破”规则以保护其自身的生存。自动驾驶汽车脱离制造商控制,继而进入流通领域之后的学习和经历同样影响其行为和决策。新的数据输入可能使自动驾驶汽车进行调整和适应,导致其行为和决策超出预先设置的规则,这在理论上并非不可能。
这些现象无不表明,计算机、机器人、机器等正在脱离人类直接控制,独立自主地运作,虽然它们依然需要人类进行启动,并由人类对其进行间接控制。但就本质而言,自动驾驶汽车、智能机器人、各种虚拟代理软件等都已经不再是人类手中的被动工具,而成为了人类的代理者,具有自主性和能动性。这对伦理和道德提出重大挑战,之前针对人类和人类社会的伦理规范现在需要延伸到智能机器,而这可能需要新的伦理范式。
道德代码的必要性
未来的自主智能机器将有能力完全自主行为,不再是为人类所使用的被动工具。虽然人类设计、制造并部署了它们,但它们的行为却不受人类的直接指令约束,而是基于对其所获取的信息的分析和判断,而且,它们在不同情境中的反应和决策可能不是其创造者可以预料到或者事先控制的。完全的自主性意味着新的机器范式:不需要人类介入或者干预的“感知-思考-行动”。这一转变对人工智能、机器人等提出了新的伦理要求,呼吁针对机器的新的伦理范式。
当决策者是人类自身,而机器仅仅是人类决策者手中的工具时,人类需要为其使用机器的行为负责,具有善意、合理、正当使用机器的法律和伦理义务,在道义上不得拿机器这一工具来从事不当行为。此外,除了善意、正当使用工具的义务,当人类决策者借助工具来从事不当或者违法行为时,人类社会一方面可以在道德和舆论层面对其进行谴责,一方面可以借助法律这一工具对违法者进行惩罚。然而,既有的针对人类决策者的法律和伦理路径并不适用于非人类意义上的智能机器。但是,由于智能机器自身在替代人类从事之前只能由人

类做出的决策行为,因此在设计智能机器时,人们需要对智能机器这一能动者提出类似的法律、伦理等道义要求,确保智能机器做出的决策可以像人类一样,也是合伦理、合法律的,并且具有相应的外在约束和制裁机制。
更进一步,智能机器决策中的一些问题也彰显了机器伦理的重要性,需要让高度自主的智能机器成为一个像人类一样的道德体,即道德机器(Moral Machine)。其中一个问题是,由于深度学习算法是一个“黑箱”,人工智能系统如何决策往往并不为人所知,其中可能潜藏着歧视、偏见、不公平等问题。人工智能决策中越来越突出的歧视和不公正问题使得人工智能伦理显得尤为重要。尤其是人工智能决策已经在诸如开车、贷款、保险、雇佣、犯罪侦查、司法审判、人脸识别、金融等诸多领域具有广泛应用,而这些决策活动影响的是用户和人们的切身利益,确保智能机器的决策是合情合理合法的就至关重要,因为维护每个人的自由、尊严、安全和权利,是人类社会的终极追求。

此外,战争中的人工智能应格外受到伦理规范约束。目前许多国家都在积极研发军用机器人,而军用机器人的一个重要发展趋势就是自主性在不断提高。比如,美国海军研发的X-47B无人机可以实现自主飞行与降落。韩国、以色列等国已经开发出了放哨机器人,它们拥有自动模式,可以自行决定是否开火。显然,如果对军用机器人不进行某种方式的控制的话,它们很可能对人类没有同情心,对目标不会手下留情,一旦启动就可能成为真正的冷血“杀人机器”。为了降低军用自主机器人可能导致的危害,需要让它们遵守人类公认的道德规范,比如不伤害非战斗人员、区分军用与民用设施等。虽然现有技术要实现这样的目标还存在一定的困难,但技术上有困难并不意味着否定其必要性与可能性。

免责声明:凡本网注明“来源:XXX(非本网)”的作品均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: