技术自律:未成年人的技术保护方案

共 3284字,需浏览 7分钟

 ·

2022-06-02 21:27



文 | 刘海明

重庆大学新闻传播学院教授、博士生导师

古凤

重庆大学新闻传播学院硕士研究生



当谈到技术与人的关系时,一种人律技术的朴素思想总会出现。这种思想与早期的人文主义类似,总体而言对于技术持有一种积极的想象。


起始于14世纪的文艺复兴解放了人的思想,肯定人的主体价值。从宗教和神灵认识框架中走出来的人类步入了理性世界。人代替神成为世界的主宰,技术则成为人类巩固统治地位的武器。总之,在人文主义的初级阶段,人与技术相依相存,技术还是人的附庸,两者共同于崭新天地中开垦蛮荒。


01

人律技术还是技术律人?


然而,人律技术的和谐景观并没能持续很长时间,人逐渐失去对技术的完全主导,异化于社会生活的各个层面开始隐现。大规模同质性的文化工业在繁荣大众文化的同时导致了高雅艺术的没落,流水线限制了多维的审美取向。秉承理性精神的科层制方案大大提升了社会运转效率,但片面的理性又让人陷入“现代的铁笼”。


技术的扩张没能实现人类的乌托邦理想,反倒让人陷入自身主体性危机,芒福德(Lewis Mumford)口中的“巨机器”(Megamachine)成为沉重的社会现实,人类迷失于技术律人的恐慌中。


尽管如今对于技术律人抑或人律技术还存在诸多讨论,但在技术力量与人类力量的诸次博弈中,我们必须承认技术具有某种程度的不可抗性,人完全主导技术或许只是一种存在于想象中的神话。



在社会体系中,未成年人是一个特殊的群体。从成长阶段来说,未成年人还未建立起完善的认知体系,易受影响而且较难纠偏;从社会构成来看,未成年人柔嫩而脆弱,基数庞大但几乎没有技术主动驾驭能力。对于成年人来说尚难控制的技术影响于未成年人那里又会成倍放大。因此,在技术高歌猛进的现代社会中寻找一种未成年人技术保护方案迫在眉睫。


事实上,国内国外已经有许多方案被提出。不论是《中华人民共和国未成年人保护法》还是《儿童权利公约》,虽然都涉及未成年人的技术保护,但归根结底是一种技术他律方案,人律技术是其底层逻辑。然而如前所述,技术他律或许不是一个理想的解决方法,因为它具有冲突性、斗争性。尤其当我们身处智能时代,人工智能技术的类人性、渗透性使得技术的影响更是避无可避,数字化生存俨然已经成为人类生存新模式。


那么我们不禁追问,在人工智能时代,当他律方案不可行时,用技术保护未成年人还可能实现吗?如果可能,要如何实现呢?


答案或许可以在康德(Immanuel Kant)关于自律(Autonomie)的思想中找到。


要回答技术如何通过自律实现未成年人技术保护,实际上需要回答两个问题。


第一个问题:技术能否自律?即技术自律的实现基础为何?


第二个问题:技术何以自律?即技术自律的运行逻辑为何?


02

技术能否自律


自律思想贯穿于康德的道德哲学体系中,与“先天理性”、“意志”等概念紧密相关。


首先需要明确的是,现实世界是充满经验的,即充满随机性和不确定性。然而在康德看来,这种经验性的获得不能使我们得出真正的道德法则,因为真正的道德“是我们任何情况下都必须遵守的道德规范”,其首要的要求和最大的特点就是普遍性和必然性。


那么我们如何才能获得这种必然性的道德法则呢?康德认为,先天理性是核心。


在康德的道德哲学体系中,“先天的理性自在地存在于每个有理性的东西的心中”,这种理性是天然获得的,与后天的经验无关。因而遵守先天理性的意志也能抛弃“质料”上升为“善良意志”,引导人做出符合道德法则的行为,从而实现一种纯粹的道德。


当人能够放下功利和目的,仅在善良意志的作用下凭纯粹的道德法则进行社会行动时,那么人就实现了自律,到达康德口中的“自律即自由”境界。此时,“自律既作为一种‘道德意向’而存在,同时也反映着道德主体的‘实践能力’”。


那么人工智能是否有实现康德式自律的基础呢?答案是肯定的。


首先,人工智能的类人性禀赋决定其具有仿造人类执行道德法则的思维基础。


作为模拟、延伸人类智慧的技术,人工智能与人类思维存在内在的共通性。人工智能可以理解为模仿人脑结构的人工神经网络。不论是只能执行既定方案的弱人工智能,还是具有自主意识、足以通过图灵测试的强人工智能,抽象逻辑思维都是底层能力,而这也同样是人类的思维形态之一。


借助抽象逻辑思维,人类得以遵循先天理性、实现意志自律。由此观之,在思维基础方面,人工智能具有践行康德式自律的可能性。



其次,人工智能的技术逻辑决定其具有遵循“技术的先天理性”的实践基础。


如今我们处于弱人工智能阶段,还无法实现机器的自我感知以及真正的自我意识和智慧思考。弱人工智能阶段重要的技术开发手段是深度学习,即在构建机器学习模型的基础上通过海量的数据训练来提升其准确性。因此,人工智能最终的行为结果还是需要以底层代码为根基,无法做出超出代码设计范围的行动。


区块链领域流行着“代码即法律”的看法,强调规则的确定性和对于外界干扰的排斥性。从更深层次来看,“代码即法律”其实体现了一种“原教旨主义式的技术信仰”,尤其强调代码的神圣不可侵犯性。


尽管对于此种观点学术界还存在巨大的争议——代码其实内嵌了人的价值判断,但无论如何,智能技术会按照既定的规则运行,同时在运行过程中不受外界干扰是共识,不论这种规则是否是中立的,或者说是否是道德的。


这与康德的先天思想不谋而合。对于人来说,只有遵循绝对法则、秉持绝对理性才能到达道德的彼岸。而对于遵循“技术的先天理性”的人工智能来说,当这种理性符合绝对法则的要求时,那么人工智能也具有了实现自律的实践基础。


03

技术何以自律

我们已知人工智能是可以实现自律的,即人工智能在理论上可以实现对未成年人的自主保护,那么这种保护的实现机制为何?


依据康德的哲学理论,他特别强调以下几点:


1、道德法则必须具有必然性和普遍性


“要只按照你同时能够愿意它成为一个普遍法则的那个准则去行动。”康德之所以要求道德规范必须排除经验、必须基于先天理性,是因为只有如此,人才能有可靠的依据做最后的道德裁定,我们才能判断一种行为是否是道德的,并使得这种判断结果具有强有力的支撑。


2、定言式命令形式才是真正的道德命令


康德用命令式来表示客观规律与意志之间的关系。命令式分为假言式(假如你想…,则做…)和定言式(去做…)。定言式命令强调无条件、无目的,即并不为了实现什么别的目的去做这件事,而是根源于自身善的意志。定言式命令排除了经验的介入,指向对行为的无条件约束。只有当一种行为由定言式命令指导,不假与外物,它才真正走向道德,人才真正实现自由。



3、以人为目的而非手段


在康德看来,作为理性存在者的人是崇高的,“在任何时候都应当同时作为目的”。人具有绝对的价值,其存在本身就是目的,别的物应仅仅作为手段为他服务,而非将人作为追求他物的手段。因此以他人为手段、践踏他人尊严的行为完全不可取,在社会行动中,凌驾于他人和自身的行为都是不道德的。


以此为启发,我们可以从中建构保护未成年人的技术自律框架。


1、普适性原则


首先,需要制订一套具有绝对道德意义的未成年人保护原则。践行康德式的道德自律体系需要有道德法则作为指引,因此在技术设定之初就需要将未成年人保护的道德原则融入其中并让其成为普遍性的原则,即在技术整体体系中需要一以贯之且必须无条件遵守。


2、无条件执行


在开发与未成年人有关的技术时,指导性的道德法则需要无条件执行且不能让其他利益凌驾于其上,同时不允许因为别的目的采取对于未成年人的保护行动,避免经验性因素和主观性动机的干扰。在进行技术开发和更新迭代时,对未成年人的保护也需要置于首要位置。


3、个体性尊重


个体性尊重是指要尊重未成年群体本身。一方面不应把未成年人保护视为技术附加物而应视其为技术本身应该具备的属性,另一方面不应将未成年人保护行为视为谋取其他利益的途径而应该真正将其视为要达成的目的。


通过技术自律实现未成年人保护目前来说还只是一种理论设想,但随着人工智能技术的深度进化,唯有寻找新出路、发现新方案才可能破解人机对立难题,确保人本身的崇高性和神圣性。



--------------  往期回顾  --------------



浏览 45
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报