ハーバード大学医学部とベス・イスラエル・ディアコネス医療センターの新しい研究は、人工知能(AI)が一部のケースで医師よりも高い精度で救急治療室で診断を下すことができることを示しており、注目を集めています。
この研究は、サイエンス誌に掲載され、医師とコンピューター科学者のグループによって実施され、実際の救急状況を含む多くの医療状況における大規模な言語モデルの有効性を評価することを目的としています。
研究者たちは、2人の内科医の診断能力を、「o1」と「4o」を含むOpenAIのAIモデルと比較しました。
注目すべき実験では、研究チームはベス・イスラエル(米国の病院システム)の救急治療室に来た76人の患者のデータを分析しました。
医師とAIの診断は、他の2人の医師によって独立して評価されますが、その結果がAIまたは人間によって与えられたものであるかどうかは不明です。
結果は、o1モデルが初期分類で67%の精度または近似精度を達成し、2人の医師の55%と50%よりも高いことを示しました。
特に注目すべきは、AIが初期分類段階で明確な優位性を示していることです。これは、医師が最も少ない情報を持っているが、迅速な決定を下さなければならない時期です。
研究チームによると、診断の各ステップにおいて、o1モデルは常に医師と前世代のAIモデルと同等またはそれ以上の結果を示しています。
同時に、研究グループは、AIは「事前にデータを処理する」のではなく、医師と同様に、診断時に電子医療記録で利用可能な情報のみを使用すると強調しました。
これは、救急治療室のような高圧環境で意思決定を支援するAIの可能性を示しています。
しかし、研究グループはまた、この結果はAIが生存の決定において医師に取って代わる準備ができていることを意味するものではないと断言しました。研究グループはまた、この技術の有効性と安全性を十分に評価するために、実際の環境でのさらなる予備試験が必要であると訴えました。
指摘されているもう1つの制限は、研究がテキストデータに基づいてAIを評価することだけです。一方、臨床現場には、医学的画像、バイタルサイン、直接観察など、AIが依然として制限されている分野など、他の多くの要素も含まれています。
専門家はまた、結果の誇張についても警告を発しています。アダム・ロッドマン医師(研究参加者であり、ベス・イスラエル・ディコネス・メディカル・センターの内科医)は、AIが誤った診断を下した場合の責任を特定するための明確な法的枠組みはまだないと述べています。
一方、救急医のクリステン・パンタガーニ医師は、AIを救急医ではなく内科医と比較することは、現実を正しく反映していない可能性があると述べています。
なぜなら、救急医療環境では、医師の主な目標は、すぐに最終診断を下すことではなく、生命を脅かす危険な状態を迅速に特定してタイムリーに対処することだからです。
概して、この研究は、医学におけるAIの応用、特に医師の迅速な意思決定を支援する上で大きな展望を開きます。しかし、実際に信頼できるツールになるためには、AIは依然として技術、法的、倫理的な多くの課題を克服する必要があります。