警惕AI幻觉带来的虚假编造 AI问诊需谨慎
警惕AI幻觉带来的虚假编造!近日,有关“带着DeepSeek看病”的话题引起了广泛关注和讨论。有人分享了自己使用AI问诊的经历,称AI给出的答案与医生建议一致,甚至在医院检查报告还未出结果时,AI就已经完成了分析。
人工智能的兴起正在改变医疗行业。各地多家医院引入DeepSeek,并将其应用于临床、科研和行政管理等多个场景。然而,AI能否完全替代医生仍需质疑。湖南省医保局日前印发通知,明确规定禁止接收由人工智能自动生成的处方。一些医生也指出,AI诊断结果只能作为参考,在处理复杂病例和结合患者个体差异方面仍有局限性,最终诊断仍需依靠医生的专业判断。尽管AI在某些情况下看起来非常准确,但仍然需要医生更为专业的判断,更适合辅助专业医护人员进行诊疗。对于普通大众而言,在使用AI问诊时,警惕“AI幻觉”带来的虚假编造尤为重要。
很多时候,当我们向AI提问时,可能会得到一个详细且逻辑严密的回答。然而,进一步核实后会发现这些信息存在虚构和编造,这就是所谓的AI幻觉。由于大模型训练数据可能存在偏差或不全面,AI容易生成不准确的结果。此外,AI基于概率生成内容,缺乏对个案的真实感知和事实的深度理解,容易陷入“自说自话”的境地,甚至编造看似合理实则荒谬的信息。
不少网友已经发现了AI幻觉现象。有人发帖表示,在用AI进行文献分析时,答案中会出现查无此文的文献;有人发现,AI会把一本书的作者安到另一个人身上;还有人发现,AI给出的答案存在上下文不符、逻辑不一致的现象。这提醒我们,AI生成的内容并非完全可靠,要理性看待和使用,特别是在医疗等严肃领域,不可完全依赖AI,以免对自身健康造成危害。
警惕AI幻觉并不意味着要因噎废食,而是要在技术层面加以改进,并在伦理和规范层面未雨绸缪。AI的发展需要在进步中不断反思,在反思中持续前行。只有这样,才能让AI成为推动社会进步的有力工具,而不是隐患之源。