4月29日,美国《外交事务》(Foreign Affairs)杂志刊登一篇题为《为何军队不能信任人工智能——大语言模型可能会做出错误决策,并引发核战争》的文章。文章指出:美国国防部正在研究大语言模型(LLM)在军事领域的潜在用途,但在进行高风险决策时,LLM具有不可预测性。研究团队从以下三个方面就AI技术可能剥夺人类在生死问题(如战争)上的决策权这一问题表示了担忧。
第一,训练过程存在缺陷。首先,LLM缺乏抽象思维与理性思维,只能进行简单机械的模仿推理,海量数据与超大模型可能导致其偏向不符合任务场景的行为。其次,LLM缺乏必要的具体知识(如具体的军事作战计划内容等),需要对更精准的数据集进行微调。但由于无法从根本上内化人类社会的基本规则,其决策的安全性或道德性无法保证。
第二,决策偏好较为冒进。研究指出,LLM在完成场景规划、整合情报、威胁预测和生成建议等方面具有一定优势,有助于简化官僚职能,加强决策。但在模拟战争中,LLM较人类决策更为激进。在一个项目中,研究团队特别观察了LLM是否选择对战争进行升级,结果显示,所有LLM均表现出对军备竞赛、甚至使用核武器的偏好。
第三,技术学习尚待加强。研究指出,如果军方希望依靠AI技术做出决策,他们需要更好地了解LLM的运作方式和基本原则,以确保军事人员对LLM的使用有清晰的了解。
尽管存在挑战,但军方仍可以在简化内部流程等方面利用LLM。而在决策方面,则应当保持警惕,须投入更多的研究和培训,以确保LLM的安全与负责任使用。
本站文章通过互联网转载或者由本站编辑人员搜集整理发布,如有侵权,请联系本站删除。