テクノロジー大手は、人工知能チャットボットを個人の医療記録に統合することにより、ヘルスケア分野に深く進出しています。
最近、マイクロソフトはCopilot Healthを発表しました。これは、ユーザーが複数の医療機関からの記録とApple WatchやFitbitなどのウェアラブルデバイスからのデータを接続して、健康状態の全体像を把握できるツールです。
このトレンドはマイクロソフトだけにとどまりません。Amazon、OpenAI、Anthropicも、Health AIやChatGPT Healthなどの同様のプラットフォームをテストしています。
これらのシステムの共通点は、健康データを収集し、チャットインターフェースを通じてユーザーに直接分析を提供することです。
理論的には、チャットボットは、分散した医療記録などの大きな問題を解決するのに役立ちます。健康情報は多くの場合、多くの病院に散在しており、集計が困難になっています。AIは、手作業で数時間処理する代わりに、わずか数秒でこれらのデータを接続できます。
医療費が高騰する状況において、チャットボットは、ユーザーが自分の状態をよりよく理解し、診察に行く前により良い準備をしたり、WebMDのようなサイトと同様の情報を検索したりするのに役立つツールとして期待されています。
セキュリティリスクとプライバシー
しかし、すべての健康記録を1つのプラットフォームに集中させることは大きなリスクを生み出す。専門家は、医療データはハッカーにとって「金の鉱脈」であると警告している。なぜなら、それはユーザーが秘密にしたい機密情報を含んでいるからである。
それだけでなく、もともと厳格なセキュリティの制約を受けている病院とは異なり、現在、多くのテクノロジー企業は同様の規制を適用されていません。
これは、データがAIトレーニングや広告などの他の目的で使用される可能性があるという懸念を引き起こしています。
一部の専門家は、特に生殖に関する健康などのデリケートな問題において、法執行機関からデータ提供を要求されるリスクについても警告しています。
チャットボットからのアドバイスは信頼できますか?
サポートツールとして宣伝されていますが、AIチャットボットは医師に取って代わるほど信頼性が高くありません。最近の研究によると、OpenAIやMetaを含むチャットボットは、診断指向において検索ツールよりも正確ではありません。
さらに危険なことに、AIは、質問の仕方が異なるという理由だけで、誤った情報を提供したり、結論を変更したりする可能性があります。
一部のケースでは、ユーザーが不正確なアドバイスに従った場合、深刻な結果が記録されています。
専門家は、「医師を交代させない」という警告があるにもかかわらず、ユーザーは依然としてチャットボットを信頼し、従う傾向があると述べています。
これは、AIが深刻な病状の可能性を示す場合、誤診や過度の不安につながる可能性があります。
マイクロソフトは、Copilot Healthは参考情報のみを提供し、段階的に慎重に展開されていると述べています。ただし、専門家は、ユーザーは個人データの漏洩、誤った情報、および不正確な自己診断のリスクに注意する必要があると警告しています。