デレック・ポールは、カリフォルニア大学サンフランシスコ校の医学生だった頃、医療ソフトウェアのイノベーションが金融や航空宇宙といった他の分野に比べて遅れていることに懸念を抱きました。彼は、医師が最先端技術を反映したソフトウェアを装備することで、患者にとって最善の医療サービスが提供されると確信し、病院管理者や保険会社よりも患者と医師のニーズを優先する会社を設立することを夢見ていました。
そこでポールは、友人であり、女性向け健康テクノロジー企業Modern Fertilityのエンジニアでもあるグラハム・ラムジーとチームを組み、2021年にGlass Healthを立ち上げました。Glass Healthは、医師がキャリアを通じて病状の診断と治療のアプローチを保存、整理、共有できるノートブックを提供します。ラムジーはこれを、医学を学び、実践するための「個人用知識管理システム」と表現しています。
「パンデミックの間、ラムジーと私は医療制度への圧倒的な負担と、医療従事者の燃え尽き症候群の深刻化を目の当たりにしました」とポールは述べています。「私は、病院実習中の医学生として、そして後にブリガム・アンド・ウィメンズ病院の内科研修医として、医療従事者の燃え尽き症候群を身をもって経験しました。最前線で働く医療従事者への共感が、テクノロジーを最大限に活用し、医療現場の改善に尽力する企業を設立するきっかけとなりました。」
Glass Healthは、ソーシャルメディア、特にX(旧Twitter)を通じて医師、看護師、研修医の間で早期から注目を集め、これが同社にとって初の資金調達に繋がりました。2022年には、Breyer Capitalが主導する150万ドルのプレシードラウンドで、Glass Healthは資金調達に成功しました。その後、Glass HealthはY Combinatorの2023年冬季バッチにも選出されました。しかし今年初め、ポール氏とラムジー氏は、成長著しいトレンドを捉え、生成型AIへと事業を転換することを決定しました。
Glass Healthは現在、OpenAIのChatGPTに搭載されている技術に類似した大規模言語モデル(LLM)を搭載したAIツールを提供しており、患者に適切な診断と「エビデンスに基づいた」治療オプションを生成できます。医師は「心筋梗塞の既往歴を持つ71歳の男性が、亜急性進行性労作時呼吸困難を呈している」や「糖尿病と高脂血症の既往歴を持つ65歳の女性が、急性発症の胸痛と発汗を呈している」といった症状を入力すると、Glass HealthのAIが予測される予後と治療計画を提示します。
「臨床医は、患者の状況に関する関連する人口統計情報、過去の病歴、徴候や症状、そして臨床検査や放射線学的所見の説明を記述した患者サマリー(問題提示とも呼ばれます)を入力します。これは、他の臨床医に患者を紹介する際に活用できる情報です」とポール氏は説明します。「Glassは患者サマリーを分析し、臨床医が検討し、さらに詳しく調査する必要があると思われる5~10の診断を推奨します。」
Glass Healthは、臨床医がレビューするための症例評価の段落を作成することもできます。これには、関連する可能性のある診断研究に関する説明が含まれます。これらの説明は編集して、後日臨床記録や記録に使用したり、Glass Healthコミュニティ全体で共有したりすることができます。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
理論上は、Glass Healthのツールは非常に便利に思えます。しかし、最先端の法学修士課程の卒業生でさえ、健康に関するアドバイスを提供するのが非常に下手であることが判明しています。
英国国民保健サービスが支援するAIスタートアップ企業Babylon Healthは、自社の病気診断技術が医師よりも優れていると主張し、度々厳しい調査を受けている。
全米摂食障害協会(NEDA)は、AIスタートアップのCassと提携し、摂食障害に苦しむ人々を支援するためのチャットボットを立ち上げましたが、これは不運な実験でした。生成AIシステムのアップグレードの結果、Cassはカロリー制限といった有害な「ダイエット文化」の提案を繰り返すようになり、NEDAはツールを停止せざるを得ませんでした。
一方、Health Newsは最近、ChatGPTの健康アドバイスの妥当性を幅広い分野において評価するために医療専門家を起用しました。専門家は、このチャットボットが最近の研究結果を無視し、誤解を招く発言(「ワインはがんを予防する可能性がある」や前立腺がん検診は「個人の価値観」に基づくべきだなど)をし、複数の健康ニュースソースからコンテンツを盗用していることを発見しました。
Stat Newsに掲載された、より寛容な記事では、研究助手とハーバード大学の教授2名が、ChatGPTが45種類のビネットのうち39種類で正しい診断(上位3つの選択肢内)を提示したことを発見しました。しかし、研究者らは、これらのビネットは通常、医学生のテストに用いられる種類のものであり、特に英語を第二言語とする人々が現実世界で自分の症状をどのように表現するかを反映していない可能性があると警告しました。
あまり研究されていませんが、バイアスも法学修士(LLM)が患者を誤診する原因となる可能性があるのではないかと考えます。グラス氏のような医療法学修士(LLM)は、医師や看護師が気付いたこと(しかも、それを閲覧できる患者のみ)しか示さない医療記録に基づいて訓練されることが多いため、すぐには気づかない危険な盲点が存在する可能性があります。さらに、医師は無意識のうちに、LLMの訓練に用いる記録を作成する際に、自身の人種、性別、社会経済的バイアスを組み込んでしまう可能性があり、その結果、モデルが特定の人口統計を他の人口統計よりも優先してしまう可能性があります。
ポール氏は医療における生成 AI をめぐる厳しい監視を十分に認識しているようで、Glass Health の AI は既に市場に出回っている多くのソリューションよりも優れていると主張しました。

「Glassは、LLMと、当社の大学医師チームが作成・査読した臨床ガイドラインを結び付けます」と彼は述べた。「医師チームのメンバーは、全国各地の主要な大学医療センター出身で、医学雑誌で働くのと同じようにGlass Healthでパートタイムで働いており、AI用のガイドラインを作成し、AIがガイドラインに従う能力を微調整しています。…臨床医のユーザーには、LLMアプリケーションの出力をすべて注意深く監視するようお願いしています。LLMアプリケーションは、ユーザーが検討できる有益な推奨事項や選択肢を提示するアシスタントのようなものですが、決して指示や臨床判断に取って代わるものではありません。」
インタビューの中でポール氏は、Glass HealthのAIは潜在的な診断を提供することに重点を置いているものの、その回答が決定的なもの、あるいは処方箋的なものとして解釈されるべきではないと繰り返し強調しました。その暗黙の理由について、私の推測はこうです。もしそう解釈すれば、Glass Healthはより厳しい法的審査の対象となり、場合によってはFDAによる規制を受けることになるでしょう。
ポール氏だけが曖昧な態度を取っているわけではない。医療に特化した言語モデル「Med-PaLM 2」を試験運用しているGoogleは、マーケティング資料の中で、このモデルが臨床現場における医療専門家の経験を代替できるという示唆を避けてきた。医療分野(ただし診断には使用しない)向けに特別に調整された法学修士(LLM)を開発しているスタートアップ企業、Hippocraticも同様の姿勢だ。
それでもポール氏は、Glass HealthのアプローチはAIの出力を「細かく制御」し、AIを「最先端の医学的知識とガイドラインを反映」させると主張している。このアプローチには、Glassの基盤となるLLMを改善するためにユーザーデータを収集することが含まれるが、これはすべての患者にとって受け入れがたいものかもしれない。
ポール氏は、ユーザーは保存されているすべてのデータの削除をいつでも要求できると述べています。
「当社のLLMアプリケーションは、出力を生成する際に、医師が検証した臨床ガイドラインをAIコンテキストとして取得します」と彼は述べた。「Glassは、ChatGPTのようなLLMアプリケーションとは異なります。これらのアプリケーションは、事前学習のみに基づいて出力を生成するため、不正確または古い医療情報を簡単に生成する可能性があります。…当社は、AIが出力を生成する際に使用する情報とガイドラインを厳密に管理しており、バイアスを排除し、健康の公平性を実現するという目標に沿った推奨事項を策定するための厳格な編集プロセスをガイドラインに適用することができます。」
それが事実かどうか見てみましょう。
一方、Glass Healthはアーリーアダプターの獲得に苦労しているわけではない。現在までに59,000人以上のユーザーがプラットフォームに登録しており、月額サブスクリプションで「臨床医に直接」サービスを提供するサービスも既に提供している。Glassは今年、HIPAAに準拠した電子医療記録統合型エンタープライズ向けサービスの試験運用を開始する予定で、ポール氏によると、15の医療システムと企業が順番待ちリストに名を連ねているという。
「病院や医療システムなどの機関は、医師にGlassのインスタンスを提供することで、AIを活用した臨床意思決定支援を医師に提供できるようになります。具体的には、診断、診断検査、治療手順に関する推奨といった形で支援を提供します」とポール氏は述べています。「また、GlassのAI出力を医療システムの具体的な臨床ガイドラインやケア提供方法に合わせてカスタマイズすることも可能です。」
グラス氏は総額650万ドルの資金を、プラットフォームで使用される医師向け臨床ガイドラインの作成、レビュー、更新、AIの微調整、そして一般的な研究開発に充てる予定だ。ポール氏は、グラス氏には4年間の運用期間があると主張している。