为人类造福,而不是作恶—负责任的 AI x 蛋白质设计丨再创
共 5225字,需浏览 11分钟
·
2024-04-18 19:02
引言 /Introduction
蛋白质设计领域知名学者 David Baker 和来自 20 个国家的 90 多位顶尖科学家共同签署了一份包含十个可执行承诺的保证书。该承诺旨在最大化人工智能在蛋白质设计领域的益处,同时最小化潜在风险。该社区声明源自 2023 年 10 月 25 日华盛顿大学蛋白质设计研究所峰会期间和之后进行的讨论。「再创」在此进行了为中文社群进行了翻译整理。
「再创」认为这些承诺一定程度上也适用于广泛的合成生物学社群。欢迎所有利益相关者前往 https://responsiblebiodesign.ai/ (或点击最下方原文链接)支持此承诺,同时坚守合成生物学应为人类造福,而不是作恶的承诺。
锐锐 / 整理
孟凡康 / 审校
负责任地开发蛋白质设计相关的人工智能的
社区价值观、指导准则和承诺
人工智能(AI)的进步为生命科学研究创造了前所未有的机遇,包括实现功能性生物分子(尤其是蛋白质)的设计。人工智能在蛋白质设计中的应用具有巨大的潜力,可以增加我们对世界的理解,帮助解决人类面临的一些最紧迫的挑战,比如实现快速响应传染病暴发、治疗多种疾病、开发可持续能源,帮助缓解气候变化等。
作为从事这项工作的科学家,我们相信当前人工智能技术对蛋白质设计的好处远远超过潜在的危害,我们希望确保我们的研究对所有人都有益。鉴于该领域的预期进展,可能需要一种新的风险管理方法来减轻开发人工智能技术潜在被滥用而造成伤害的风险(有意或无意)。
因此,作为一个社区,我们必须明确一套价值观和准则,以指导人工智能技术在蛋白质设计领域的负责任发展。这些价值观包括安全、保障、公平、国际合作、开放、责任和追求造福社会的研究。此外,我们作为签署方自愿同意一套具体的、可操作的承诺,这些承诺以这些价值观和准则为依据,在这里概述。我们将与学术界、政府、民间社会和私营部门的全球利益攸关方共同努力,确保这项技术以负责任和值得信赖的方式发展,并确保其安全、可靠,并使所有人受益。
For the benefit of society 造福社会
负责任地发展用于蛋白质设计的人工智能技术,有望创造新知识,帮助解决世界上一些最紧迫的问题。我们的社区将与政府、民间社会、科学资助者、学术界和私营部门合作,确保我们的研究造福社会,包括利用蛋白质设计帮助防范大流行病和其他相关紧急情况。我们将追求旨在促进健康、可持续性、安全以及科学知识的应用,并避免那些可能导致伤害的应用,无论是意外还是故意。为了建立并维持信任,我们将与持有多样化观点的利益相关方进行沟通,并向公众介绍我们工作的益处、局限性、风险以及风险缓解策略。
Safety and Security 安全与保障
由于仅当计算设计的蛋白质被实际生产时才可能对现实世界造成伤害,因此合成 DNA 的制造过程成为计算蛋白质设计领域的一个关键生物安全检查点。我们将参与并努力改进核酸合成筛选过程,在这些生物分子被制造出来之前检测出危险生物分子。此外,提供软件访问权限对于推进科学至关重要,但作为开发人员,我们有责任在这些系统被广泛分享之前评估和减轻可能出现的风险。我们认为,公开分享科学方法的益处远大于潜在风险;尽管如此,我们的社区将持续评估我们的蛋白质设计软件,包括这些工具与其他技术的交叉,并采取适当的安全和保障措施。此类评估应以具有相关领域知识的科学专家的评估为基础,力求确定在现有风险和风险缓解战略背景下,发布某一人工智能模型、其模型权重或用于训练该模型的数据集或方法会在多大程度上带来可识别的风险。所有评估安全性的努力,包括红队测试,都应谨慎进行,以避免为误用创造路线图。安全和保障风险绝不应被夸大或被用作限制开放科学的不合理借口。
Openness 开放性
开源的科研工具促进了科研工作者快速创新和广泛的合作,我们肯定开放性的核心科学价值,并相信围绕开放性的明确标准将有助于人工智能技术沿着社会利益最大化的道路发展。关于发布用于蛋白质科学的人工智能系统的决定,应以科学开放的指导准则为出发点,并在发布之前识别和减轻有意义的风险。对于现有已明确的有意义且未解决风险的人工智能系统,应遵循限制访问和分发的做法。此类做法应符合此处概述的准则,并应向适当的受众披露此类风险。
Equity and International Collaboration 公平性与国际合作
为了使蛋白质设计领域为社会带来最大的利益,它应该广泛听取各方利益相关者的意见,并鼓励研究方向的多元参与。我们将努力使国际社会更加包容,使研究参与及其成果更加公平。蛋白质设计社区是国际性的,当研究作为一项国际努力进行时,我们对世界的好处会更大。作为科学家,我们确认我们是一个植根于共同价值观的全球社区的成员,这些价值观包括遵循科学方法。我们将与来自世界各地的利益相关者合作,推动人工智能的负责任开发,作为个人,遵守我们各自政府实施的负责任的人工智能开发承诺。
Responsibility 责任
技术的发展路径取决于我们作为研究者选择从事的工作。虽然认识到大多数先进技术既可以被用于好的方面,但也可能被故意滥用造成伤害,但我们将避免可能导致全面伤害或使我们的技术被滥用的研究。我们将共同努力,将责任确立为社区实践的核心准则,并制定和分享防止滥用我们技术的最佳做法。我们的社区将参与开发执行我们承诺所需的详细流程。此外,我们将持续重新评估这些价值观、指导准则、承诺及政策的实施方式,以确保对新发展做出响应。
推动负责任的人工智能发展的承诺
我们作为签署方同意以下自愿承诺。每一项承诺都附有一份可行的执行战略清单,尽管这些清单并不详尽。每个签署方应以适合其自身的方式颁布这些承诺。
1. 我们将进行有利于社会的研究,并避免可能造成整体损害或使我们的技术被滥用的研究。
这可以通过开展旨在产生新知识、促进健康和福祉、实现可持续性、正义或公平或以其他方式推动人类进步的研究来实现;通过与政府、民间社会、资助者和其他利益攸关方合作,确保我们的研究与这些目标保持一致。
2. 我们将支持社区努力防范和应对传染病爆发和其他有关紧急情况。
这可以通过组织、参与或以其他方式支持应对小组进行协调的科学行动来实现,例如在传染病爆发时快速制定对策;通过对重点病原体进行研究;努力缩短制定安全有效对策(包括诊断、药物和疫苗)所需的时间;或者通过其他方式来支持这些努力。
3. 我们将只从遵守行业标准的生物安全筛选实践的供应商那里购买 DNA 合成服务,这些筛选实践可以在生产之前检测危险的生物分子。
这可以通过从进行适当安全筛选的制造商处采购合成 DNA 来实现;创建、共享和遵守这些制造商的列表;要求将这种筛选作为售出前的审查;或者支持需要这种筛选的政策。
4. 我们将支持新策略的发展,以改进 DNA 合成筛选,目的是在危险生物分子生产之前更好地检测它们。
这可以通过积极与拥有对应专业知识的 DNA 合成利益相关者合作来实现,包括通过创建人工智能工具来改进潜在危险生物分子的检测;通过参与安全评估和红队演习,找出当前筛查方案中的漏洞;或者通过其他方式支持这些努力。
5. 我们将持续评估我们蛋白质设计软件的能力,并寻求识别和减轻所有有意义的安全和安全风险。
这可以通过对人工智能系统进行评估来实现,以在发布之前确定有意义的安全和保障问题;通过在发布前解决已识别的有意义的风险;并限制人工智能系统(已确定存在无法解决的重大风险)的发布。
6. 我们将支持改进评估蛋白质设计软件的方法,以更好地识别风险。
这可以通过参与研究来实现,以提高对风险的理论认识;通过参与评估框架的联合开发;通过批判性地评估当前评价框架的绩效;与其他相关领域的专家接触;或者通过其他方式支持这些工作。
7. 我们将在定期、安全的会议上审查本领域的能力和风险。
这可以通过组织和参加包括科学家、监管机构代表和其他利益攸关方的会议来实施,以审查该领域的发展,包括各种风险评估的结果,以评估当前和未来的主要关注点。
8. 我们将报告有关的研究实践。
这可以通过始终坚持道德研究实践来实现;通过使用适当的系统来报告有关行为,例如使用蛋白质设计造成伤害的意图;向有关当局报告有关领域的研究实践,包括任何未能遵守相关法律的情况。
9. 我们将告知研究的好处和风险。
这可以通过在共享或发布新软件时适当披露相关利益、风险和降低风险战略来实现;或者根据需要向监管机构和其他利益相关者提供更新并响应其请求。
10. 我们将根据需要修订这些准则和承诺,并与该领域的新成员分享。
这可以通过保持负责任的文化来实现;通过与同事(包括学生和实习生)审查这些指导方针和最佳做法;在科学会议上讨论负责任的行为;并通过参与社区范围内的努力来评估风险,随着我们领域的不断发展评估当前的指导方针和承诺。
\ END \