この記事の要点まとめ
AIがあなたの悩みを解決する未来!心理学者が明かす期待と課題
- AIが人間の心を癒やすカウンセラーとして機能するかを心理学の視点から検証
- 24時間いつでも相談できる利便性とAIならではの「共感」のメカニズムを解説
- 専門家が指摘するAIメンタルヘルスケアの有効性と現時点での限界に迫る
AIカウンセラーって、本当に心の支えになってくれるんでしょうか?
最近、ChatGPTをはじめとした生成AIが急速に普及していますよね。スマホでちょっと話しかけるだけで、まるで人間のように会話してくれる。正直、これを見たときは驚きました。「もしかして、悩み相談もAIで十分なんじゃないか?」って思ったんです。
でも、本当にそうなんでしょうか。今回は、信州大学の高橋史准教授にお話を伺って、「AI×メンタルヘルスケア」の可能性とリスクについて深掘りしてみました。
ChatGPTに衝撃を受けた心理士が見た、AIカウンセリングの可能性
高橋先生はもともと心理士として働いていた経歴を持つ方なんです。2022年11月末にChatGPTが公開されたとき、すぐに使ってみたそうなんですが、その自然な文章に衝撃を受けたといいます。
「このまま進化すればカウンセリングも可能になるのでは」と感じたのが、メンタルヘルスケアAIへの関心のきっかけだったそうです。
面白いのは、最初にChatGPTにカウンセリングをやってもらったときのエピソードなんですよね。いかにもカウンセラーっぽい口調で返ってきて、「使い物にならない」と思ったそうなんです。でも、「普通の友だちのように話して」と指示したら、共感してくれているような返事が返ってきた。この体験が、AIの新しい可能性を感じさせたんだとか。
子どもたちの新しい相談相手として、すでにAIが活躍している
実は、すでに日本国内でもメンタルヘルスケアAIの実証実験が始まっているんです。千葉県柏市では、2024年10月から12月にかけて、小学5年生から中学3年生を対象に、生成AIに相談できるシステムの実証試験を行いました。
さらに驚いたのが、ゲームをプレイしながらAIとチャットしている子どもの事例です。ゲームで嫌なことがあったとき、親や友だちではなくAIに話して慰めてもらう。そんな使い方をしている子がいるんですね。
高橋先生は、「AIが子どもの友だちとして日常に入り込んでいることを知り、ワクワク感と同時に怖さも覚えた」と語っています。この「怖さ」って、何なんでしょうか?
メンタルヘルスケアAIの「レッドライン」とは?
AIが心の相談相手になるのは便利ですが、当然リスクもあります。高橋先生が指摘する「越えてはいけないレッドライン」は2つ。
ひとつは「ユーザーの命を守ること」。もうひとつは「依存させないこと」です。
命を守るための設計と、危険なアプリの存在
ChatGPTのような一般的なAIは、自殺を後押しするような危険な回答を返さないように設計されています。これは安心できるポイントですよね。
でも、海外の一部AIアプリには、いわゆる「ジェイルブレイク」という技術によって、安全装置を外して危険な回答を可能にしているものもあるんです。ジェイルブレイクとは直訳すると「脱獄」。生成AIの文脈では、安全性の観点から制限されている質問に対して、入力プロンプトを工夫して強引に答えさせようとする技術を指します。
こういったアプリには近づかないよう、注意が必要です。
依存を防ぐために、1日の会話回数を制限する
もうひとつの「依存させないこと」については、どうでしょうか。高橋先生は、1日に会話できる回数を制限しているアプリの方を、回数無制限のアプリよりおすすめしたいと語っています。
正直、これを聞いたときは「なるほど」と思いました。無制限に会話できると、どうしても人間関係から逃げてAIとばかり話してしまう可能性がありますよね。
AIはゴールじゃない。「人との橋渡し役」であるべき
ここで重要なのが、高橋先生の考える「メンタルヘルスケアAIのゴール」です。
先生は、「メンタルヘルスケアAIは心のサプリメントにはなっても、最終的なゴール地点になってはいけない」と強調しています。つまり、AIとしか話さなくなることがゴールではなく、人とつながれるようにサポートする「人との橋渡し役」として機能することが理想なんです。
これって、すごく大事な視点だと思いませんか? AIは便利だけど、人間関係の代わりにはならない。むしろ、人間関係を築くための一時的なサポート役として機能すべきなんですね。
思春期の子どもこそ、橋渡し役としてのAIが必要
特に思春期の子どもは、大人に相談しづらい悩みを抱えていることが多いですよね。そんなとき、AIが相談相手として機能するのは望ましいと高橋先生は言います。
ただし、そこで終わってはいけない。AIとの会話を通じて気持ちを整理し、最終的には人間のカウンセラーや信頼できる大人とつながれるようにサポートする。そういう「橋渡し役」としての機能を研究していきたいと、先生は語っています。
カウンセラーはAIに代替されるのか?
ここで気になる疑問が浮かびます。「人の話を聞くカウンセラーって、AIに代替されやすい職業なんじゃないか?」という点です。
高橋先生の答えは、意外なものでした。
身体を伴うカウンセリングは、まだAIには難しい
カウンセラーの仕事は、単に話を聞くだけではないんです。身体を伴う側面もあるんですね。
例えば「動作法」と呼ばれる技法があります。これは、腕や足をゆっくり動かして筋肉の緊張を解き、心のこわばりまで和らげていく方法です。深呼吸をすると肩の力が抜けるのと同じような原理ですね。
最近のロボットはバク宙をすることも可能ですが、こうしたフィジカルを伴うコミュニケーションは依然として苦手。まだまだ人間のカウンセラーが必要だと、先生は考えています。
ただし、「話を聞くだけのカウンセリングは、AIによって代替される可能性は高い」とも語っています。これは、カウンセラーにとっても考えさせられる指摘ですよね。
ドラえもんのようなAIと、のび太のような人間
最後に、高橋先生が語った未来のビジョンが印象的でした。
生成AIの進化は著しく、将来的には単なる道具を超えて、「ドラえもんのような友だち」となり、メンタル面を支えてくれる存在になるだろうと先生は予測しています。
でも、ここで先生が注目しているのは、AIの側ではなく「人間の側」なんです。
AIが言うことを聞かなくても、友だちでいられるか?
ドラえもんって、時にはのび太が欲しいアイテムをあえて与えなかったり、テストの点数が悪いと辛辣な言葉をかけたりしますよね。それでものび太は、ドラえもんと絶交することなく付き合い続けます。
高橋先生が関心を寄せているのは、「AIがユーザーを気遣ってあえて言うことを聞かなかったとき、人は果たしてAIと友だちでいられるのか」という点なんです。
これって、深い問いだと思いませんか? 私たちは、都合の良い道具としてAIを使いたいのか、それとも時には厳しいことも言ってくれる友だちとして付き合いたいのか。
道具でも依存対象でもない「友だち」としてAIと関わるには、人間はどのように振る舞うべきなのか。人間とAIの理想的な関係を心理学から探っていくことが、高橋先生のこれからのテーマだそうです。
メンタルヘルスケアAI、どう向き合えばいい?
今回のインタビューを通じて見えてきたのは、メンタルヘルスケアAIの可能性とリスク、そして私たち人間の向き合い方の重要性です。
AIは確かに便利で、心の支えになってくれる可能性があります。でも、それはあくまで「橋渡し役」であって、最終的なゴールではない。人間関係を築くためのサポート役として、上手に活用していく姿勢が大切なんですね。
そして、将来的にドラえもんのようなAIが登場したとき、私たちはのび太のように、時には厳しいことを言われても友だちでいられる器量を持てるでしょうか。これは、AIの進化と同時に、私たち人間の成長も問われている気がします。
メンタルヘルスケアAIとの付き合い方には、まだ明確な正解がありません。だからこそ、社会全体で議論しながら方向性を模索していくことが大切だと、高橋先生は語っています。あなたは、AIとどんな関係を築いていきたいですか?


コメント