
HOME 4月21日,由Hirotaka Takita博士主持的研究小组,博士学位,大阪大城市大学的大城市大学医学研究生院和Daiju Ueda副教授,最近发表了一项系统评价和荟萃分析,并深入评估了在诊断和比较医疗方面和比较医疗方面的生成性人工情报和比较。研究小组总共获得了18,371项研究,并最终确定了83个详细评论。这些研究涵盖了各种生成AI模型,包括GPT-4,Llama3 70B,Gemini 1.5 Pro和Claude 3十四行诗,涵盖了许多医疗领域。其中,GPT-4是研究最多的模型。 The results showed that the average diagnostic accuracy of these AI models was 52.1% (95% interval interval: 47.0% - 57.1%).The accuracy of the diagnostic of some models is comparable to the non -specialized physicians, and there is no significant statistics difference between the two (accuracy difference: 0.6% [95% con拳头间隔:-14.5%至15.7%],p = 0.93)。但是,熟练医生的表现甚至比AI更好,精度间隔为15.8%(95%置信区间:4.4%-27.1%,P = 0.007)。但是,随着技术的继续前进,该空间可能会逐渐缩小。研究还发现,在大多数医学专家中,AI在两个例外:皮肤病学和泌尿科中都在不断地表现。在皮肤病学中,AI的性能更好,也许是因为该领域涉及识别模式,AI的强度。但是皮肤病学还需要对患者进行复杂的推理和决策,因此AI AY的好处无法完全证明该领域应用程序的实际价值。对于泌尿外科,结果是基于一项重大研究,因此其结论是有限的。 “这项研究表明,非专业医生的AI开发具有可比的诊断能力。它可以用于医学教育,支持非专家物理ANS,并帮助评估医疗资源有限的地区。”武田(Hirotaka Takita)博士“未来的研究需要在更复杂的临床情况下进行评估,使用实际的医疗记录进行绩效评估,提高了AI决策的透明度,并对各种患者人群进行了证明,以进一步证明AI的能力进一步展示了AI的记录,并在诊断中进行了诊断。研究人员说:“当前的生成AI模型与非专家环境中的医生相提并论,可以将AI结合起来。tions。研究人员强调,“透明度确保对知识,上下文和模型限制的理解”,并强调需要开发清晰,道德和有效的NA验证AI应用程序。目前,尽管AI开发具有很大的潜力,但在涉及详细患者信息的复杂案例中,它仍然面临挑战。医生是否需要担心失业?此时很难结束,但是在诊断领域,这种情况是可能的。回到Sohu看看更多
平台语句:本文的观点仅代表-set本身。 Sohu帐户是发布信息的平台。 SOHU仅提供存储信息服务。