加拿大科学家在16日出版的《放射学》杂志上刊登新论文称,最新版本的chatgpt通过了美国放射学委员会的考试,突出了大型语言模型的潜力,但它也给出了一些错误答案,表明人们仍需对其提供的答案进行核查。
chatgpt是一种人工智能(ai)聊天机器人,它使用深度学习模型在庞大的训练数据中识别单词之间的模式和关系,并根据提示生成类似人类的反应,类似的聊天机器人正被纳入谷歌和必应等流行的搜索引擎中,医生和患者们也会使用这些搜索引擎来搜索医疗信息。但由于数据来源并不一定真实可靠,该工具会给出与事实不符的答案。
为评估chatgpt在美国放射学委员会考试问题上的表现并探索其优势和局限性,多伦多大学的拉杰什·哈瓦那博士及其同事首先测试了基于gpt-3.5的chatgpt的表现。研究团队使用了150道选择题,这些选择题与加拿大皇家学院和美国放射学委员会考试的风格、内容和难度相当。这些问题不包括图像,分为低阶(知识回忆、基本理解)和高阶(应用、分析、综合)思维问题。高阶思维问题可进一步细分为影像学表现描述、临床管理、计算和分类、疾病关联。
研究人员发现,基于gpt-3.5的chatgpt的正确率为69%,接近70%的及格线。该模型在低阶思维问题上表现相对较好,正确率为84%,但回答高级思维问题时表现不佳,正确率仅为60%。而性能更优异的gpt-4的正确率为81%,且在高阶思维问题上的正确率为81%,远好于gpt-3.5。但gpt-4在低阶思维问题上的正确率仅为80%,答错了12道题——gpt-3.5全部答对了这些题目,这引发了研究团队对gpt-4收集信息的可靠性的担忧。
这两项研究都表明,chatgpt会有提供不正确答案的倾向,如果仅仅依靠它获取信息,非常危险,因为人们可能意识不到其给出的答案是不准确的,这是它目前面临的最大的问题。当前,chatgpt最适合用来激发想法,帮助撰写数据摘要,而用于快速信息检索,需要对其提供的事实性答案予以核查。