加拿大科学家在16日出版的《放射学》杂志上刊登新论文称,最新版本的chatgpt通过了美国放射学委员会的考试,突出了大型语言模型的潜力,但它也给出了一些错误答案,表明人们仍需对其提供的答案进行核查。
为评估chatgpt在美国放射学委员会考试问题上的表现并探索其优势和局限性,多伦多大学研究人员首先测试了基于gpt-3.5的chatgpt的表现。研究团队使用了150道选择题,这些选择题与加拿大皇家学院和美国放射学委员会考试的风格、内容和难度相当。这些问题不包括图像,分为低阶(知识回忆、基本理解)和高阶(应用、分析、综合)思维问题。高阶思维问题可进一步细分为影像学表现描述、临床管理、计算和分类、疾病关联。
研究人员发现,基于gpt-3.5的chatgpt的正确率为69%,接近70%的及格线。该模型在低阶思维问题上表现相对较好,正确率为84%,但回答高级思维问题时表现不佳,正确率仅为60%。而性能更优异的gpt-4的正确率为81%,且在高阶思维问题上的正确率为81%,远好于gpt-3.5。但gpt-4在低阶思维问题上的正确率仅为80%,答错了12道题,而gpt-3.5全部答对了这些题目,这引发了研究团队对gpt-4收集信息的可靠性的担忧。
这两项研究都表明,chatgpt会有提供不正确答案的倾向,如果仅仅依靠它获取信息,非常危险,因为人们可能意识不到其给出的答案是不准确的,这是它目前面临的最大的问题。