欢迎来到进口食品商务网!

如何应对人工智能产生的幻觉海啸

2024-07-03 08:46 来源:明日科学网

在20世纪70年代,便携式计算器改变了我们做数学的能力。如今,OpenAI的ChatGPT和谷歌的Gemini等生成式聊天机器人正在推动我们的专业和个人工作发生类似的变化。与计算器不同,聊天机器人可以产生错误或捏造的回答,即所谓的幻觉。当人类和组织不加批判地使用这种不真实的聊天机器人内容来完成任务时,它就变成了我和合作者所说的“狗屎”。

这种内容是一种风险,因为聊天机器人工作的基础是大型语言模型,它通过根据训练数据预测似乎有用的单词模式来生成响应。这些预测并不需要知道他们回答的含义。因此,尽管这些回应有时是连贯的、有用的和正确的,但它们往往充斥着不准确的内容。

当加拿大航空公司(Air Canada)的一个聊天机器人向一名乘客提供了错误的建议,告诉他如何报销参加家庭葬礼的丧亲费时,该航空公司在法庭上辩称,它不应该承担责任,因为聊天机器人是一个独立的法律实体,对它提供的回答的真实性负有责任。法院驳回了这一论点,并裁定加拿大航空公司支付乘客赔偿金和诉讼费。同样,一名bc省最高法院的法官谴责了一名律师,因为他提交的案件文件中包含了ChatGPT的幻觉。

这些例子清楚地突出了不加批判地使用聊天机器人为不同类型的工作生成内容的危害。为了学习有效地使用聊天机器人,我们需要理解并减轻与这种不真实内容相关的认知风险。这涉及到聊天机器人用户在使用该技术进行工作时要考虑两个问题:聊天机器人对任务的响应准确性有多重要?验证聊天机器人响应的准确性有多容易?这两个问题的答案引出了四种不同的聊天机器人工作模式:身份验证、自主、自动化和增强。

当聊天机器人对任务的响应准确性难以验证,并且响应准确性不重要时,用户可以以增强的方式使用聊天机器人。这意味着聊天机器人的响应不应该用作任务的最终输入或输出,而应该用作帮助生成或改进任务想法的触发器。例如,当要求聊天机器人为一份报告建议一个标题或编辑一篇演讲时,不应该照旧使用回复,而应该对其进行筛选、质疑、编辑,并用于帮助提高专业人员的工作水平,而不是生成和传播虚假内容。

当聊天机器人响应的真实性难以验证且响应真实性至关重要时,用户会采用聊天机器人工作的身份验证模式。许多法律、新闻、学术和医疗工作不应该盲目使用聊天机器人制作的内容,因为产生和分享幻觉会带来有害的后果。用户需要了解他们正在使用的聊天机器人的能力、范围和限制,并进行必要的验证,以确保回复是真实的、没有错误的。

当很容易验证需要准确的聊天机器人输出时,聊天机器人的工作就可以自动化。用户将简单、常规和相对标准化的工作分配给聊天机器人,这些工作易于验证。翻译工作、计算、数据分析和调度都是自动化聊天机器人工作的例子。工作范围和大型语言模型是有限和集中的,因此它可以被常规地信任。

如果聊天机器人的响应可以很容易地验证,但响应的准确性相对不重要,那么这将是一种有选择地委托给聊天机器人的自主工作模式。这项工作包括低风险的可验证任务,如常规客户查询或普通行政查询,其中共享虚假内容的可能性和由此造成的危害都很低。

在20世纪70年代,社会不必担心计算器产生错误的答案,因为它们的算术逻辑和处理是可靠的。聊天机器人不像基于训练数据预测反应那样具有计算可靠性。为了有效地使用聊天机器人,它们的回答应该被视为临时知识,需要根据工作的真实性提取进行质疑、检查和编辑。因此,掌握使用聊天机器人生成的临时知识需要针对聊天机器人的工作模式和相关的幻觉风险进行实践。

中国进口商网声明:未经许可,不得转载。
热门产品招商