Skip to main content

PubMed

PubMed®国家生物技术信息中心、国家医学图书馆提供,包括来自MEDLINE、生命科学期刊和在线图书的超过3500万篇生物医学文献引用。引文可能包含来自PubMed Central和出版商网站的全文内容链接。

from langchain.document_loaders import PubMedLoader
loader = PubMedLoader("chatgpt")
docs = loader.load()
len(docs)
    3
docs[1].metadata
    {'uid': '37548997',
'Title': 'Performance of ChatGPT on the Situational Judgement Test-A Professional Dilemmas-Based Examination for Doctors in the United Kingdom.',
'Published': '2023-08-07',
'Copyright Information': '©Robin J Borchert, Charlotte R Hickman, Jack Pepys, Timothy J Sadler. Originally published in JMIR Medical Education (https://mededu.jmir.org), 07.08.2023.'}
docs[1].page_content
    "背景:ChatGPT是一个大型语言模型,在医学、法律和商业领域的专业考试中表现良好。然而,ChatGPT在评估医生的专业素养和情境判断的考试中的表现尚不清楚。\n目标:我们评估了ChatGPT在情境判断测试(SJT)上的表现:这是英国所有最后一年医学生参加的全国性考试。该考试旨在评估沟通、团队合作、患者安全、优先级技能、专业素养和伦理等属性。\n方法:将英国基金会计划办公室(UKFPO)2023年SJT模拟考试的所有问题输入ChatGPT。对于每个问题,记录ChatGPT的答案和解释,并根据官方的UKFPO评分模板进行评估。根据评分表中提供的解释中引用的领域,将问题分类为良好医学实践的领域。没有明确领域链接的问题由评审人员筛选,并分配一个或多个领域。评估ChatGPT在整体表现以及良好医学实践的各个领域中的表现。\n结果:总体而言,ChatGPT表现良好,在SJT上得分为76%,但只有少数问题(9%)得满分,这可能反映了ChatGPT在情境判断方面的缺陷或考试本身问题之间的推理不一致(或两者兼有)。ChatGPT在医生的良好医学实践的4个概述领域中表现一致。\n结论:需要进一步研究了解大型语言模型(如ChatGPT)在医学教育中的潜在应用,以标准化问题并为评估专业素养和伦理的考试提供一致的解释。"