人工智能伦理该思考什么?

共 2564字,需浏览 6分钟

 ·

2022-04-26 20:05

未来已至,我们该如何拥抱人工智能时代?


■ 《终结者》剧照


机器不必具有高级智能便可能对人类造成致命的伤害,像《终结者》里的情节,它们没有怜悯之心,以追杀人类为目标。在科幻电影里,我们不止一次感受到这种来自未来的威胁,它潜伏在某个邪恶科学家的实验室里,或者在那个叫“天网”的系统里暗流涌动。

技术没有善恶,看它掌握在什么人的手中。利用技术来作恶,遭谴责的不该是技术本身,而是使用技术的“人”。

随着人工智能(artificial intelligence, AI)的广泛应用,更多的 AI产品走入人们的生活。在机器拥有真正的智能之前,我们需要未雨绸缪地考虑一些哲学和伦理的问题,例如,是否应该研发有自我意识的机器?人机婚姻是否合法?机器犯罪应该如何界定?机器决策是否含有歧视?等等。

AI时代已悄悄来临,它对人机交互中的法律、心理、政治、商业、基建、社区、服务等提出了众多挑战。而人工智能伦理学还处于萌芽阶段,科学家和社会学家意识到许多问题的存在,却没能给出令人信服的答案。

例如,自动驾驶(autonomous driving)出了车祸,我们应该归咎于谁?一般的算法或编程错误不会有性命之忧,但无人驾驶却有这个风险。消费者不愿花钱买一个潜在的危险品,如果生命及财产的安全没有保障,如果相关法律责任模糊不清,自动驾驶将会引起严重的社会问题。


■ 创造人工智能(AI) 


在科学研究方面,智能机器延展了人类的探索能力。例如,“嫦娥三号”登月后, “玉兔号”月球车开始了挖掘分析土壤样品、视频传输等工作。“玉兔”有自动导航、雷达测月、能源采集、天文月基光学望远镜、极紫外相机、光谱仪、立体相机等设备,帮助人类在环境恶劣的月球上完成大量的科研任务。未来会有更多、更智能的机器参与其中。


■ 2013年12月14日,我国登月探测器“嫦娥三号”在月球表面软着陆


在有自我意识的机器智能到来之前,如何保护 AI技术向健康的方向发展,而不是被人性之恶所利用,成为人类文明的终结者,是我们必须正视且亟待解决的问题。技术本身没有善恶,而应用它的人类有善恶之分。如何把更多的善植入无意识的机器?如何用伦理道德来规范人工智能?这值得每一位关心人类未来命运的读者深思。


■ 动画《铁臂阿童木》


有一个哲学的分支,伦理学(ethics),也称道德哲学(moral philosophy),研究人类社会所认可的行为准则及其价值,进而构建一些道德的指导原则来评判行为的对与错、善与恶、美与丑、智慧与愚昧、正义与犯罪。伦理学大致分为元伦理学、规范伦理学、描述伦理学和应用伦理学四个领域,人工智能伦理基本属于应用伦理学的范畴。


■ 两千多年前,我国古代先哲老子、庄子、孔子、孟子对道德伦理就有过系统的研究,其思想影响至今,已深深融入中华文明的血脉之中


诺贝尔经济学奖得主(1978)、图灵奖得主(1975)、人工智能先驱赫伯特·西蒙(Herbert Simon, 1916—2001)曾说:“关于社会后果,我认为每个研究人员都有责任评估,并努力告知其他人,他试图创造的研究产品可能带来的社会后果。”人工智能研究的目的是为了造福整个人类文明,因此“勿以恶小而为之,勿以善小而不为”。与其说用伦理道德约束机器,不如说用它来约束人类自己,所以人工智能伦理就是人类发展和利用 AI的行为准则。

现有的 AI技术很多不具备可解释性,导致模型或产品出了问题也不知道真实的原因。有些技术缺陷对人类来说是致命的,用户对可能的不良后果应有知情权。故而,对 AI产品的质量及性能的评估,需要更科学、更严谨、更系统的评测方法。

人类需要小心翼翼地发展AI技术,确保它促进文明的进化,而不是成为人类自相残杀的新式武器。人类如蜉蝣于天地,唯有理性的光辉永恒。公平而开放的合作,而不是恶意的竞争,是我们要走的 AI之路。


在联合国总部广场,矗立着雕塑“打结的枪”,象征着“和平、宽容、理解和非暴力”。它是瑞典雕塑家卡尔·弗雷德里克·路特瓦尔德(Carl Fredrik Reutersw.rd, 1934—2016)的作品,1988年由卢森堡赠送给联合国


科技是一把双刃剑,人类用它披荆斩棘,也有自伤的危险。越来越多的AI产品具备决策能力,由弱到强,它们在方便人类生活的同时,是否准确地代表我们的意愿?智能助手是否会太了解主人而成为一个泄密隐患?自动驾驶如何尽可能地保护人身安全?自主杀人机器是否应该禁止?许多 AI伦理问题等待人们的理性思考。

《人工智能伦理》是一部抛砖引玉的大众科普书,几乎没有数学公式和预备知识,面向所有对人工智能感兴趣的读者。人人都可以谈论 AI伦理,都可以关注人类和 AI的命运。这些话题不限于严谨的学者,它们是人类未来需要面对的现实。例如,智造业有造成大规模失业的风险, AI时代的教育应该如何培养新型的技术工人?机器人介入人类的生活,是否会给社会带来一些结构性的变化?在大数据时代,如何更好地保护个人隐私?我们在复杂性变得不可控之前,必须把最糟糕的情况都预想到、分析到。写此书的目的就是要把问题揭示出来,管见所及阐述一些想法,激发更多的读者参与思考与讨论。

■ 《人工智能伦理》

ISBN:9787302596622

作者:于江生

扫码微店优惠购书


本书所提供的一些粗浅的心得和思路仅是作者一家拙见,人们可以从更开阔的视角研究人工智能伦理问题,如哲学的、法学的、社会学的、经济学的、认知科学的,等等。无论从哪个角度,都要本着科学精神(即求实、创新、怀疑、包容的精神),就算对未来的幻想也应如此。

另外,些许好奇心和想象力是需要的,它们比知识更珍贵,往往随着年龄的增长而变得枯竭。此书探讨了许多未来可能发生的事情,它们或许是杞人忧天,或许是防微杜渐,不管怎样,时间会验证它们并给出答案。对科技发展的预测,是未来学(futurology)的研究内容。有人说,“预测未来的最佳方法就是创造未来”,而要创造美好的未来,必须以道德伦理为指导。


■ 人类终究要借助 AI的力量团结在一起走向广袤无垠的宇宙


推荐阅读

(点击标题可跳转阅读)

机器学习基础:奇异值分解

机器学习实战:用 SVD 压缩图像

39页PDF《高效Transformers》综述!

老铁,三连支持一下,好吗?↓↓↓

浏览 55
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报