试问一下,当我们遇到一个文本分类的任务时,为什么我们会第一时间想到用诸如 TextCNN、BERT 等等的工具?为什么我们在操作时会先考虑如何进行分词、如何进行特征表征?在范式理论下,这显然是因为我们共处于自然语言处理这样一个科学共同体内,我们共享着一整套信念、理论与术语。当我们说起 Transformer 时大家都可以理解是一个有用的模型而非指的是一个变压器或变形金刚。 然而,范式的弊端在于:当科学共同体的搭建源于共同的信念,而非所谓“理性的必然”时,对“简单性”的偏见就从一个个体的非理性行为上升到了整体的结构性的问题。 现在有多少人还相信 AI 这门学科的最高理想?或是说相信 AI 这门学科目前的范式可以实现或达到 1956 年在达特茅斯会议上那批人工智能的先行者们展望的真正的通用人工智能?事实上当这种信念被越来越多地否认或遮蔽时,论文的发表似乎便只有方法论的意义。纵然 2 完全可以用 1+1 来代替,但使用 10000-9998 似乎可以更为精致的水出一篇论文。在问题本身没有被革新的情况下,方法论的更高更快更强才有更加显著的意义。 或许我们可以看到,现在 AI 这门学科或多或少地在规避着一些问题。当面对来自 AI 哲学家的批评时,如“如果神经网络本质上是一种统计学模型,那么现在的 AI 究竟是一门有关人工智能的学科还是一种变相的应用统计学?”,“如果神经网络在行为上具有有限的灵活性与可塑性,那么它何以被用来建模超越性的智能?”,“当原始输入数据发生突变时,神经网络模型是否依然是可靠的?”等等问题,AI 从业者都在刻意保持一种缄默。 也许恰如 CV 领域的戴维斯教授描述的那样:“通常的情形是,技术的发展是由小团体中的科研人员的个人特殊兴趣所激发,而其方法也往往只是为特定问题量身定做的。与此情景相应的,却是如下事实:各种算法、程序、技术都受限于不同研究者各自的创造性。” 换言之,现在 AI 界似乎缺少一套系统的理念与方法整合不同领域不同任务不同数据集上的不同成果,同时也缺少或是刻意遮蔽了一个统一的期望解决的最高问题,而将目光下放到在特定数据集上不同方法论间的竞争。不同数据集上不断刷新的准确率或许仅与不成正比膨胀的参数量有相关关系,也因而一种“简单的”,哪怕是“有效的”的方法因为其本身的体量与外形上的先天劣势而受到来自所谓审稿人的恶意拒绝。
写在最后
关注科学伦理的物理学家约翰·齐曼将现在这样一个科学的时代定义为“后学院时代”。在这个时代下,一个科学共同体并不是一个传统上一心追寻真理的理论假设,而是受到多方利益集团干涉,与社会、政治不断产生产品交换的新的社会制度。也由此科学界与科研人员不再是一个理想条件下绝对理性的概念预设,而被还原为一个社会中的活生生的个体,在没有理性预设的保护下,科学伦理便有了登场的必要。 然而科学伦理从不是被强加在人身上的外在之物,而是一个健康发展的学科的内在要求。因而尽管科研的问题不能用对某些“大问题”的追求而被简单的一言以蔽之,但缺少对学科内基本问题的认识与追求,很难真正形成一种自发自觉的科研伦理,当科学研究完全被解构为一种谋生的手段之一,科学伦理也便不再具有其先天的约束力与管辖权。 总之,如果只是回答“仅因方法 Too Simple,就该被拒稿吗?”这一问题是相当简单的,但这个答案是否可以引我们思考,当我们说出“不应该”时,心中所期待的应该应是如何?或许是更为有意义的话题吧。