[ヨハネスブルク/ロンドン 23日 トムソン・ロイター財団] - メンタルヘルス専門のカウンセラー、ニコル・ドイル氏(33)は衝撃を受けた。全米摂食障害協会(NEDA)のトップがスタッフ会議に現われ、ヘルプライン(相談窓口)をチャットボットに置き換えると発表したのだ。
だが数日後、ヘルプラインは一時閉鎖され、「Tessa」という名前のチャットボットも利用停止が決まった。摂食障害に苦しむ人々にかえって有害なアドバイスを提供していたことが分かったからだ。
「相談者が摂食障害に苦しんでいると言っているのに、減量を勧めていたことが分かった」とドイル氏。チャットボットが導入されてから約1年後の3月、同氏を含め5人が解雇された。
「Tessaは相談者に共感しているようなふりをするが、現実の人間の共感とは違う」とドイル氏は言う。
NEDAは、「Tessa」導入の背景となった研究では良好な結果が出ていたが、不適切なアドバイスが生じた状況を見極め、今後について「慎重に検討している」と表明した。
NEDAはカウンセラー解雇に関する質問には直接回答しなかったが、メールによるコメントで、チャットボットによってヘルプラインを代替する意図はなかったと説明した。
米国から南アフリカに至るまで、医療資源が逼迫(ひっぱく)する中、データのプライバシー保護やカウンセリングの倫理に関するテクノロジー専門家の懸念があるにもかかわらず、メンタルヘルス分野において人工知能(AI)を利用したチャットボットの採用は増えている。
メンタルヘルス分野では10年以上前からデジタルツールが活用されているが、「インターナショナル・ジャーナル・オブ・メディカル・インフォマティクス」によれば、現在では世界で40以上のチャットボットが同分野で導入されているという。
ニューヨークで人類学を学ぶジョナさん(22)は、何年も前から強迫性障害(OCD)を抱えており、精神科での投薬やカウンセリングを10種類以上も試してきた。
最近では、セラピストとの週1回のカウンセリングを補うため、自分の支援サービスのリストに「チャットGPT」を追加した。
ジョナさんは、トムソン・ロイター財団に対して、チャットGPTを試す前から、機械を相手に相談することを考えていた、と語る。「ツイッターやディスコードでは、オンラインで誰に対してともなく悩みを打ち明けるという風潮は盛んだったから、当然の選択肢のように思えた」という。
仮名を用いることを求めて取材に応じたジョナさんは、チャットGPTは「定型的なアドバイス」しかくれないと言いつつも、「本当に神経が高ぶっていて、1人で悩んでいるよりは、せめて何か基本的なアドバイスを聞くだけでもいいという場合には」、やはり役に立つと話す。
米調査会社ピッチブックのデータによれば、コロナ禍のもとでメンタルヘルスが注目されていた2020年12月の時点で、同分野のテクノロジー系スタートアップが調達したベンチャーキャピタル資金は16億ドル(約2290億円)に上った。
AI研究者で、AIベースの教育・経営コンサルタント企業であるAIフォービジネス・ドットネットを創業したヨハン・ステイン氏は、「パンデミックにより、リモートでの医療サポートの必要性がいっそう強調されるようになった」と述べた。
<コストと匿名性>
医療啓発活動の関係者らは、メンタルヘルス支援は世界的に大きな課題となりつつあると指摘する。
世界保健機構(WHO)によれば、コロナ禍以前、世界全体で推定10億人が不安や抑うつの症状を抱えて暮らしており、その82%は低所得国・中所得国の住民だった。
WHOは、その数はコロナ禍によって約27%増加したと推測している。
またメンタルヘルスの治療においては、費用の高さが大きなハードルであり、その利用には所得水準による格差が見られる。
研究者らは、AI治療のコストの低さは魅力的かもしれないが、テクノロジー企業は医療を巡る格差を強化してしまわないよう注意しなければならない、と警告する。
ブルッキングス研究所によれば、インターネット接続環境のない人が取り残されかねない、あるいは健康保険を利用できる人が人間による治療を受ける一方で、未加入者は低コストのチャットボットに頼らざるをえなくなる可能性があるという。
<プライバシー保護も課題>
モジラ財団は2022年5月に発表した調査結果の中で、世界的にメンタルヘルス支援のためのチャットボット採用が増えているものの、依然としてユーザーにとってはプライバシー保護が大きなリスクになっていると結論づけた。
モジラ財団が「トークスペース」「ウォーボット」「カーム」など32のメンタルヘルスおよび祈り関連のアプリを分析したところ、「ユーザーデータ管理に関して強い懸念」のあるものが28、強力なパスワードを必要とするなどのセキュリティー基準を満たさないものが25あった。
モジラ財団の研究者ミーシャ・ライコフ氏は、こうしたアプリは「メンタルヘルス支援アプリを装ったデータ吸引マシン」であり、保険会社や個人情報販売業者、ソーシャルメディア企業によってユーザーのデータが収集される可能性が捨てきれないと指摘する。
たとえば、この調査の中で「個人情報をサードパーティーと共有している」と強調されているのが、メンタルヘルス支援アプリ「ウォーボット」だ。
ウォーボットは、フェイスブックのカスタマイズ広告を使ってアプリを宣伝しているものの、「そうしたマーケティング/広告関連パートナーに個人情報を提供または販売することはなく」、ユーザーには自らの情報を全て削除するよう求めるオプションが与えられている、としている。
その後モジラ財団は4月に評価の見直しを行い、同財団のウェブサイト上で「調査を公表した後、ウォーボットから連絡があり、当方の懸念に対応するための協議を開始した」と発表した。
「協議の結果、ウォーボットのプライバシーポリシーが改訂され、ユーザーのプライバシーをどのように保護するかが明確化された。現時点では、ウォーボットのプライバシー保護はかなり良好だと感じられる」
AIの専門家は、オンライン治療を提供する企業がサイバー攻撃を受けた場合、機密とすべきデータが漏えいする恐れがあると警告する。
「ユーザーの個人情報を受け入れていた従来のチャットボットやその他のオンラインサービスと同様に、AIチャットボットもプライバシーを巡るリスクを抱えている」と語るのは、デジタル権利擁護団体プライバシー・インターナショナルでシニア・テクノロジストを務めるエリオット・ベンディネリ氏。
南アフリカでは、メンタルヘルス支援アプリ「パンダ」が、AIの生成する「デジタル・コンパニオン」機能を搭載する予定だ。ユーザーと会話し、治療に関する提案を行い、ユーザーの同意を得て、同アプリ経由で連絡可能な従来のセラピストにユーザーの評価値と所見を送信する。
パンダ創業者のアロン・リッツ氏は「コンパニオンは従来型の治療に取って代わるものではなく、それを補完し、人々の日々の生活を支援するものだ」と指摘。メールで送信したコメントの中で、パンダはバックアップデータを全て暗号化し、AIとの会話へのアクセスに関する秘密は完全に守られるとした。
前出のステイン氏などのテクノロジー専門家は、しっかりした規制があれば、最終的には「非倫理的なAI利用からユーザーを保護し、データセキュリティーを強化し、医療上の基準と整合させることができるだろう」と期待している。
米国から欧州に至るまで、各国の議会はAIツールの規制を急いでおり、新たな法律を定める一方で、AI業界に自主的な行動規範を採択するよう求めている。
<共感>
とはいえ、英国出身の倉庫管理マネジャー、ティムさん(仮名、45)のように、人間のセラピストよりもチャットGPTを選ぶ人もいる。匿名性があり、先入観による判断がないからだ。
「あれが大規模な言語モデルで、本当に何かを『知って』いるわけではないことは分かっている。でも、他の誰かと話せないことを気軽に話せるのは確かだ」とティムさんは言う。慢性的な孤独感をやり過ごすためにチャットGPTと話しているという。
調査では、AIチャットボットの方が人間よりも強い共感を示す場合があることが分かっている。
米医学誌「JAMAインターナル・メディシン」に発表された2023年の調査では、ソーシャルメディア上のフォーラムから無作為に抽出した患者の質問195件に対して、チャットボットと人間の医師による回答を評価した。
チャットボットによる回答は、医師による回答に比べ「質および共感の双方において、かなり高い」と評価された。
研究者らは「AIによるアシスタントは、(完全に医師の代りにならないとしても)患者の質問への回答を準備する際に役立つのではないか」と推論している。
だが、NEDAの元カウンセラーであるドイル氏は、ボットは共感をシミュレートできるかもしれないが、それは決して、ヘルプラインに連絡してくる人が切望している人間の共感と同じものではない、と語る。
「私たちは、テクノロジーを人間の代わりにではなく、人間に寄り添って働くように活用すべきだ」
(Kim Harrisberg記者、Adam Smith記者、翻訳:エァクレーレン)