Harvard Precision Medicine 2021 Conference | AIにおける人種的バイアスの検証

Home / Clinical Minds Blog / Data & AI
< 1 min read
2021-10-14
Harvard Precision Medicine 2021 Conference | AIにおける人種的バイアスの検証

Medidata Acorn AIチームの Ana Fernández Oromendia ,PhD は、Harvard’s Precision Medicine 2021 カンファレンスに登壇し、人種と民族性に焦点を当てました。このカンファレンスでは特に、人種と民族がプレシジョンメディスンの診断・治療法にどのような情報を与え、またどのようなバイアスをかけているかについて考察しました。このパネルでOromendiaは、コーネル大学助教授のEmma Pierson博士、マサチューセッツ工科大学助教授のMarzyeh Ghassemi博士とともに、アルゴリズムの世界における公平性、偏り、および人種についてディスカッションしました。

今回のパネルでは、特に医学分野でマシンラーニングやAIツールをいかに公平に使うかに焦点を当てました。Oromendiaは、「私たち人間が作った機械がこれらのアルゴリズムを構築しているため、バイアスは内在しています」とし、「私たちは不完全で、不完全なデータセットを持っており、それらに付随するバイアスがあることを認めなければなりません。このバイアスにどう対処するかが、最終的には患者の治療に影響を与えるのです」と述べています。Pierson氏とGhassemi氏は、AIやraw dataに含まれる民族的・人種的バイアスを除去し、アルゴリズムにこれらのバイアスが本質的に含まれないようにする必要があると語りました。パネルではまた、「ブラックボックス」アルゴリズムにおいてバイアスがいかに悪質であるかを強調した最近発表された研究についても考察しました。 

メディデータでは、包括的で質の高いサービスへのアクセスを改善するために、障壁を取り除き、規範に挑戦することで、すべての患者が治療を受けられるようにすることを目指しています。人種と民族は、患者が薬剤にどのように反応するかに影響を与えますが、臨床試験の参加者は白人に偏っています。この多様性のギャップは有効性を弱め、HIV、高血圧、癌などの病気に苦しむ少数民族の治療結果を損なっている可能性があります。

At Medidata Acorn AIは業界全体のベンチマーク情報を提供することで、臨床試験の多様性を促進する活動を積極的に行っています。また、スポンサー全体のグローバルデータを活用することで、アルゴリズムや機械学習における人種的偏りの検出を支援しています。これは、1つの組織が生成できるデータセットよりも豊富で偏りのないデータセットとなります。様々なバックグラウンドを持つデータサイエンティストで構成されたチームは、臨床試験の分析とモデリングプロセスに新たな視点とインサイトをもたらし、臨床試験の多様性を向上させ、医療における人種的偏見を取り除くための業界の取り組みを支援しています。 

カンファレンスについてより詳しく知りたい方は、こちらのアジェンダをご覧ください。
メディデータのAcorn AI Labs 、患者中心主義、Diversity in Clinical Trials Committee (DICT)の取り組みについてはウェブサイトをご覧ください。

Copy Article Link

Subscribe to Our Blog

Receive the latest insights on clinical innovation, healthcare technology, and more.

Contact Us

Ready to transform your clinical trials? Get in touch with us today to get started.
Harvard Precision Medicine 2021 Conference | AIにおける人種的バイアスの検証