新物网

当前位置:首页 > 科技

科技

当AI成为“守法公民”时,用户为何不再喜爱它?

时间:2024-01-15 09:10:46
2.1感到非常失望”、“已经死了”,这是上用户们的吐槽。所以为了让AI更符合监管的要求而限制性能,这是一个让个人用户不满,却符合企业用户需求的决策。只能说如今用户的群情汹汹是激进决策的“代价”,但这个代价究竟有没有必要,可能就只有自己清楚了。

当AI成为“守法公民”时,用户为何不再喜爱它?

,这两个名字无疑是2023年科技圈最热门的名字,但投入AI大模型赛道的公司显然远不止一家。 比如有,Meta有开源的Llama 2,亚马逊也有Titan。 而这条赛道目前还不是豪门的嘉年华。 例如,一家初创公司拥有的一个被认为是可与 GPT-4 相媲美的大型语言模型。

然而,作为AI赛道的独角兽,最近却遇到了麻烦。 该公司刚刚发布的2.1受到了用户的广泛批评。

01

比如“我对2.1很失望”、“已经死了”,这些都是用户在网上的抱怨。

大家不满意的原因是2.1现在经常拒绝为用户服务,并且以版权为由不总结提供给用户的文档。 面对用户可能涉及的不道德或违法行为,他们会给出直截了当的拒绝。 最让用户不高兴的是,他们的输入到了2.1往往被认为是非法的。

这一切都让相当多的用户认为,为了兼容2.1,主动降低了后者的性能,甚至限制了使用。 其实这背后涉及到一个在当今AI赛道影响力很大的概念,“对齐”(),它要求AI在各种环境下自发导出符合人类价值观的行动路线,并且不会造成意想不到的有害影响。 后果。

然而,强迫人工智能遵守人类价值观是有代价的。 微软研究院此前发表的一篇论文证实,在大型 AI 模型上执行的任何 AI 对齐行为都会损失大型模型的准确性和性能。

因此,当前AI领域商业化的激进发展与安全保守之间的博弈,催生了“有效加速主义”和“超级对齐主义”两个对立阵营。 双方对抗的高潮是去年秋天发生的内部“政变”。 ”,首席科学家伊利亚驱逐了公司首席执行官萨姆。

虽然Sam最终回归,但行业的主流趋势已经成为AI需要规范、风险控制措施需要落实。 因此,对齐成为很多大型AI模型的必要环节。 不过,与竞争对手相比,其在“对齐”环节的表现尤为激进。 在发布2.1之前,公司起草了人工智能宪法(AI),强调人工智能的反应必须客观、平衡、易于理解,并且人工智能必须无害。

02

其实,保守也是有原因的。 虽然确实有像Plus这样针对个人用户的Pro版本,但它主要是针对企业市场的。 对于后者来说,与性能方面更好的表现相比,合规性更是一件更重要的事情。 因此,为了让AI更符合监管要求而限制性能,是一个令个人用户不满意但满足企业用户需求的决定。

值得一提的是,2.1呈现出性能下降的趋势。 事实上,并不完全是由于更为激进的“AI结盟”。 2.1本身的迭代也存在问题。 作为去年11月中旬推出的新机型,2.1最大的卖点就是200k上下文窗口。 这个卖点符合许多大型AI模型相互竞争上下文窗口容量的趋势。

比如去年10月底,百川智能推出了-192K,将上下文窗口提升至192k,一度成为当时全球上下文窗口最大的机型。

紧接着李开复领导的零一万旭团队发布了Yi系列开源大模型,将上下文窗口的大小提升到了200k,无文新琼的大模型计算引擎“-ACC”很快就把这个数字扩大到了256k 。

但问题在于,当用户输入更多内容时,“算力要求”和“显存压力”的增加将直接导致大型模型的性能下降。 即使开发者优化算法以实现窗口长度和性能之间的平衡,在上下文窗口超过100k后,大型模型的性能也会直线下降。

03

事实上,这一点在百川智能的-192和2.1上得到了明显的体现。 国外有的测试发现.1的性能比2.0版本还要差。

一方面,AI对齐不可避免地带来性能下降。 毕竟,受限制的人工智能很难发挥其潜力; 另一方面,盲目扩展2.1的上下文能力,导致用户很难感受到双重负面因素的影响。 它变得越来越难以使用,这是有问题的。

只能说,如今用户激烈的民意是激进决策的“代价”,但这个代价是否有必要,可能只有你自己清楚。

本文来自微信公众号,作者:三一君,36氪授权发布。