在那些在研究中使用 AI 的人中,超过 1/4 的人认为 AI 工具将在未来十年内变得必不可少,而认为 AI 工具现在是“必需品”的人只占 4%。另有 47% 的人认为 AI 将变得非常有用。然而,不使用 AI 的研究人员对此并不太感兴趣。即便如此,仍然有 9% 的人认为这些技术将在未来十年内变得必不可少,另有 34% 的人表示它们将非常有用。
当被要求从可能的生成式 AI 负面影响列表中选择时,68% 的研究人员担心信息传播不准确,另有 68% 的人认为这将使抄袭更容易,检测更难,66% 的人担心会引入错误或不准确的内容到研究论文中。
此外,受访者还提到,如果用于医学诊断的 AI 工具是基于具有历史偏见的数据进行训练,他们担心会出现伪造研究、虚假信息和偏见。科学家们已经看到了这方面的证据:例如,美国的一个团队报告说,当他们要求 GPT-4 为临床案例研究提供诊断和治疗建议时,答案会根据患者的种族或性别而变化。
英国布里斯托尔大学攻读医学 AI 博士学位的软件工程师和前企业家 Isabella Degen 表示:“大型语言模型(LLMs)被滥用,存在不准确和虚假但听起来专业的结果。在我看来,我们对于正确使用和滥用之间的界限认识还不够清晰。”
即使在对 AI 感兴趣的研究人员中,经常在工作中使用 LLMs 的研究人员也仍占少数。那些学习AI 的人中有 28% 表示每天或每周使用生成式 AI 产品,而仅使用 AI 的人中有 13% 这样做,而其他人中只有 1%,尽管许多人至少尝试过这些工具。此外,所有群体中最流行的用途是与研究无关的创意娱乐;较少一部分人使用这些工具来编写代码、构思研究思路和帮助撰写研究论文。
另外,一些科学家对 LLMs 的输出并不满意。一位使用 LLMs 来帮助编辑论文的研究人员写道:“ChatGPT 好像复制了人类的所有不良写作习惯。”芬兰图尔库大学的物理学家 Johannes Niskanen 则表示:“如果我们开始使用 AI 来阅读和撰写文章,科学很快就会从‘由人类为人类(for humans by humans)’转变为‘由机器为机器(‘for machines by machines)’。”
AI 发展面临困境
在这项调查中,大约一半的科学家表示他们在开发或使用 AI 方面遇到了阻碍。直接研究 AI 的研究人员最担心的问题包括计算资源不足、为其工作提供的融资不足以及获取运行 AI 所需的高质量数据不足。而那些在其他领域工作但在研究中使用 AI 的人则更担心缺乏熟练的科学家和训练资源,此外,他们还提到了安全和隐私方面的考虑。然而,不使用 AI 的研究人员表示他们不需要 AI 或认为它不实用,或者缺乏研究 AI 的经验和时间。
调查中出现的另一个主题是商业公司主导了 AI 的计算资源和 AI 工具的所有权。研究 AI 的科学家中有 23% 表示他们与开发这些工具的公司合作或在这些公司工作(其中最常提到的是谷歌和微软),而使用 AI 的人中只有 7% 这样做。总体而言,略多于一半的受访者认为,使用 AI 的研究人员与这些公司的科学家合作是非常重要或有些重要的。
此前,已有研究人员多次警告称,科学中对 AI 工具的天真使用可能导致错误、虚假阳性和无法重现的研究结果,从而潜在地浪费时间和精力。一些科学家表示,他们担心使用 AI 的论文中存在质量不佳的研究。
堪萨斯州立大学曼哈顿分校的计算机科学家 Lior Shamir 表示,“机器学习有时可能有用,但 AI 引发的问题比帮助多。科学家在不了解自己在做什么的情况下使用 AI,可能会导致虚假的发现。”
当问及期刊编辑和同行评审人是否能够充分审查使用 AI 的论文时,受访者意见不一。在那些使用 AI 进行工作但不直接开发 AI 的科学家中,大约一半表示不知道, 1/4 认为审查是充分的,1/4 认为不充分。直接开发 AI 的人倾向于对编辑和审查过程持更积极的看法。
另外,《自然》还询问了受访者对于 AI 在社会的 7 种潜在影响的担忧程度,2/3 的人表示他们对此非常担忧或很担忧。自动化 AI 武器和 AI 辅助监视也高居榜首,最不令人担忧的是 AI 可能对人类构成生存威胁的想法。