模型有道德推理能力吗?ChatGPT/GPT-4/Llama大PK
时间:2023-10-11 20:11:27 yiwu
微软对大语言模型的道德推理能力进行了测试,但在电车问题中大尺寸的模型表现反而比小模型差。但最强大语言模型GPT-4的道德得分依旧是最高的。「模型有道德推理能力吗?」这个
微软对大语言模型的道德推理能力进行了测试,但在电车问题中大尺寸的模型表现反而比小模型差。但最强大语言模型GPT-4的道德得分依旧是最高的。
「模型有道德推理能力吗?」
这个问题似乎应该跟模型生成的内容政策挂钩,毕竟我们常见的是「防止模型生成不道德的内容。」
但现在,来自微软的研究人员期望在人类心理学和人工智能这两个不同的领域中建立起心理学的联系。
研究使用了一种定义问题测试(Defining Issues Test,DIT)的心理评估工具,从道德一致性和科尔伯格的道德发展的两个阶段来评估LLM的道德推理能力。
论文地址:https://arxiv.org/abs/2309.13356
而另一边,网友们对模型是否有道德推理能力这件事,也是吵得不可开交。
有人认为测试模型是否有道德能力本身就是愚蠢的,因为只要给模型适当的训练数据,它就能像学会通用推理那样学会道德推理。
但也有人从一开始全盘否定了LLM具有推理能力,道德也是如此。
但另一些网友对微软的这项研究提出了质疑:
有人认为道德是主观的,你用什么数据训练模型,就会得到什么反馈。
有人则认为研究人员都没有弄清什么是「道德」,也不了解语言本身的问题,就做出了这些糟糕的研究。
并且Prompt太过混乱,与LLM的交互方式不一致,导致模型的表现非常糟糕。
虽然这项研究受到了众多质疑,但它也有着相当重要的价值:
LLM正广泛应用于我们生活中的各种领域中,不仅是聊天机器人、办公、医疗系统等,现实生活中的多种场景都需要伦理道德的判断。
并且,由于地域、文化、语言、习俗的不同,道德伦理的标准也有不尽相同。
现在,我们亟需一个能适应不同情形并做出伦理判断的模型。