
シーダーズ・サイナイ病院とスミット心臓研究所の人工知能の専門家が、100 万件を超える心エコー図 (心臓のビデオ超音波画像) とそれに対応する臨床解釈のデータセットを作成しました。このデータベースを使用して、研究者らは、心エコー画像を「解釈」し、主要な指標を評価できる強力な機械学習アルゴリズムである EchoCLIP を開発しました。
Nature Medicine に掲載された論文で説明されている EchoCLIP の設計と評価によると、EchoCLIP を使用して患者の心エコー画像を解釈すると、心臓機能、過去の手術の結果、埋め込み型デバイスなどの専門家レベルの臨床評価が可能になり、医師が治療を必要とする患者を特定するのにも役立つことが示唆されています。
基本的な EchoCLIP モデルは、複数のビデオ、検査、および時点にわたって同じ患者を識別し、患者の心臓の臨床的に重要な変化を認識することもできます。
「私たちの知る限り、これは心エコー画像でトレーニングされた最大のモデルです」と、心臓病学会の会員で、研究の筆頭著者である David Ouyang 医学博士は述べています。スミット心臓研究所および医学人工知能部門の学部教授。
「これまでの心エコー図の AI モデルの多くは、数万例のみでトレーニングされています。対照的に、EchoCLIP の画像解釈における独自の高いパフォーマンスは、既存のモデルのほぼ 10 倍のデータでトレーニングした結果です。」
「私たちの研究結果は、大規模な査読済みの医療用画像および解釈データセットが、生成型人工知能の一種である基本的な医療モデルのトレーニングの基礎として役立つことを示しています」と Ouyang 氏は付け加えました。
EchoCLIP ワークフロー。出典: Nature Medicine (2024)。DOI: 10.1038/s41591-024-02959-y
彼は、この高度なベースライン モデルは、心臓測定の予備的な推定値を生成し、時間の経過による変化や一般的な病気を特定することで、心臓専門医が心エコー図を評価するのに役立つ可能性があると述べました。
研究チームは、EchoCLIP を開発するために、1,032,975 本の心臓超音波ビデオと関連する専門家の解釈のデータセットを作成しました。研究の主な結果は次のとおりです。
- EchoCLIP は、心臓画像から心臓機能を評価する上で高いパフォーマンスを発揮しました。
- 基本モデルは、心臓エコー画像からペースメーカーなどの心臓内埋め込みデバイス、埋め込み型僧帽弁および大動脈弁を識別することができました。
- EchoCLIP は、研究全体で固有の患者を正確に識別し、以前の心臓手術などの臨床的に重要な変化を識別し、心臓エコー画像の予備的なテキスト解釈の開発を可能にしました。
「ベースライン モデルは生成 AI の最新の分野の 1 つですが、ほとんどのモデルには医療で役立つほど十分な医療データがありません」と、Smidt Heart Institute の心臓病部門長である Christina M. Albert 医学博士、公衆衛生学修士は述べています。
この研究には関わっていないアルバート氏は次のように付け加えた。「この新しいベースライン モデルは、心エコー画像解釈用のコンピューター ビジョンと自然言語処理を統合し、心臓専門医の解釈を向上させます。」