対話型AIの急激な進化は看護管理や学習をどう変えるか?

第27回日本看護管理学会学術集会(2023)

「IE19 対話型AI」講演内容      講師:平林慶史

AIの急激な進化により、将来的に人間の仕事の大部分が奪われると言われるような時代になりました。看護職の皆さんの中にも、自分の仕事がそうなるのではないかといった危惧を抱いたことのある方がいらっしゃるのではないでしょうか。

そんなAIの進化について、対話型AI「ChatGPT」を例に、弊社代表の平林が「対話型AIの急激な進化は看護管理や学習をどう変えるか?」と題し、日本看護管理学会学術集会で発表を行いました。本記事は、その発表を再構成したものです。

ChatGPTの得意・不得意な分野は何か、看護の現場で取って代わられる仕事はあるのか、将来的にどのような活用が見込めるかなどを探っていきましょう。


(この記事は第27回日本看護管理学会学術集会(2023年8月25日開催)で行われた発表を再構成したものです)

私は教育学の出身で、看護職の免許は持っておらず、特にAIの専門家というわけでもありません。弊社では、看護管理の教育や実践に関わりながら、システム開発も手掛けています。看護管理の現場とシステムやAIのことをある程度理解しているという立場で、これからの看護とAIの付き合い方についてお話ししたいと思います。

普段は主に看護管理者教育に携わっており、問題解決や計画策定について、管理者が他者と対話的に協働しようというフレームワークを開発してきました。

管理者を対象とした研修で、そのフレームワークに基づいたグループワークを行っている間は、皆さんすごく楽しそうにしています。しかし、ワークの終了後や研修以外の場では、忙しい中で仲間を集めて時間をかけて対話することは難しいのが実情です。そこで、対話の相手にAIがなってくれないかとChatGPTに着目し、この対話型AIの活用可能性を掘り下げ始めました。

ChatGPTにできること

ChatGPTに聞いてみよう

手始めに、対話型AIであるChatGPT本人に「対話型AIってどんなやつなの?」という質問をしてみると、このような回答が返ってきました。

対話型AIの得意/不得意分野

次に、「ChatGPTくん、得意なことと不得意なことは何ですか?」と聞いてみました。

自然言語処理のレベルは?

さらに、ChatGPTの自然言語処理のレベルを考えるために、以下の質問をしてみると、こんな答えが返ってきました。

至って的確な回答です。漫然とした質問なのに、かなり核心を突いたアドバイスを返しています。これくらいのレベルのニュアンスまで理解してくれることがわかりました。自然言語処理がここ数年で急激にレベルアップして、ここまでのやり取りができるようになっているのです。

意外と高い創作能力

またChatGPTの特長として、創作能力が高いことが挙げられます。

「身寄りがなく末期がんで亡くなった患者さんの枕元から、看護師に宛てた手紙が見つかりました。この手紙の内容を400字ぐらいで作ってみてください。」

と注文したら、実にそれらしい手紙を作るのです。

非常に気が利いています。曖昧な状況を漠然と伝えても、それ相応の文章にすることが非常に上手だと言えます。

翻訳が上手で非常に多くの言語に対応

ChatGPTの翻訳力を試すために、ブラジル人の方に転棟してもらわないといけない状況を想定した文章を作り、それを翻訳してもらうことにしました。

私はポルトガル語を読むことができないため、Google翻訳で日本語に戻してもらったところ、元の文章とほぼ同じ訳になっていました。

むしろ分かりやすくなっていたくらいです。「転棟」が「転勤」になってはいましたが、通じる程度の間違いだと思います。

昨今は日本語を母語としない方も来院されるため、会話や伝達に苦労されているのではないでしょうか。そんな時にChatGPTがあれば、どんな言語の方が入院してきても、ある程度は対応できそうです。今の対話型AIの翻訳力から考えれば、少なくとも筆談は十分にできるレベルだと思います。患者さんの入院生活に関することなど、医療の専門知識が不要な説明に関してはAIに任せることも可能だといえるでしょう。

ChatGPTの本当の強み

ここまではどちらかというと、こちらからはあまり情報を与えずに、なんとなく作文してもらう、という話が中心でした。

しかし、本当にChatGPTが強みを発揮するのは、与えたテキストやデータの要約といった処理です。


議事録作成については、もう人間はかないません。弊社でも使っていますが、インタビューや会議の録音データの文字起こしを入力し、「簡潔な議事録を作成して」といえば、「こういう議論を踏まえて、こんな意思決定が行われた」程度の簡潔な文章に瞬時にまとめてくれます。正式な議事録として扱うには、念のため関係者で確認すればいいレベルにまで整理されているのです。




気遣いの必要なメール文案を考えてくれる

メール文面や手紙文に関しても、伝える内容を具体的に指示すれば、それらしい文面に整えてくれます。メールを書くときは、伝える内容は決まっていても、時候の挨拶や相手への気遣いなど、書き出しの儀礼的な文章を考えていると時間ばかりかかります。そんなときは、「こちらと相手の立場」「配慮してほしい事柄」「入れてほしい話題」を細かく指示しておくと、いい塩梅に書いてくれるのです。

細かい指示の例として、新人に指導メールを送るという想定のメール文案をChatGPTに書いてもらいました。

「看護記録について、新人に以下のようなことを指導したいんだけど、彼女の心が折れないようなメールの文案を考えてくれないかな」と言って、指導内容は箇条書きするようにしました。

回答結果は下記の通りです。

少し硬くて不自然な箇所もありますが、そこを直すだけですぐに遅れそうなメール文案になっています。医師へのメールや他の病院宛てのメールを作成する際などにも、有効活用できそうです。

苦手なこと

価値判断に対しては中立的

しかし、価値判断や意思決定を伴うことになると、少々風向きが変わってきます。

「術後せん妄のリスクが高い、軽度認知症のある方が来るんだけど、拘束すべきかな?」と聞いてみたところ、以下のような回答が得られました。

「検討すべきポイントは、安全性の確保・非拘束のアプローチ・周囲の理解・一時的な対応・スタッフのサポート。こういうものがあるかどうかを勘案し、最終的にはチームで話し合って、検討して決定されるべき」と言ってきました。

つまり、価値判断が難しくなってくると、一つの結論を下さず異なる考え方を複数並べて、「これらをよく考えて慎重に(自分で)決めてね」といった調子のアドバイスを始めます。「これってどうしたらいいのだろう?他の人はどうしているのかな?聞いてみたいな」と思うようなことに、はっきりとした答えをくれないのです。医療関係についての質問にも、ほとんどが「こういう情報もありますが、詳しいことは主治医に相談して決めてください」といった回答でした。

情報(知識)の精度は低い

情報の精度は低いです。恋愛相談やメール文案に関しては、あれだけ調子よく考えてくれたのに、「岸田文雄について教えてください」と訊いたら嘘だらけの答えが返ってきました。

「生い立ち。岸田文雄は1955年」と出てきましたが、正しくは1957年生まれです。

「山口県で生まれました」とありますが、実際には東京で生まれたそうです。選挙地盤の広島県というならまだしも、山口県と出てきたのは安倍晋三氏の情報と混同しているのでしょう。

彼は早稲田大学出身ですが、「東大」を出たことになっており、「オックスフォード大学へ留学」とも出てきましが、実際にはその経歴もないようです。

「財務大臣」に就いたとありますが、そんな事実はありません。

「細田派」と出てきましたが、実際には古賀派から岸田派になりました。

さらに「2020年9月に自民党総裁に選出された」と出てきましたが、それは菅義偉氏のことです。

日本に住む人の多くが当たり前に知っている情報でも、これだけの間違いをしてくるわけです。2021年までの情報を読み込んでいるはずなのに、具体的な知識については全然正確ではありません。非常にそれらしく、「僕は知っていますよ」という顔をして、いい加減なことを堂々と書いてくるわけです。「とても知ったかぶりをして全く見当違いなことを言ってくるやつかもしれない」と留意しておくことが必要です。

擬人化してみると

そんなChatGPTくんの特徴を、私なりに擬人化して捉えてみました。


大雑把な説明は得意だが、具体的な情報は不正確。

不正確なのに、それらしく自信満々に答えてくる。

「ねえ、なんか面白いお話して」にも永遠に応えられる。

話し相手としては意外と悪くない。

意味や文脈も理解して翻訳してくれる。

専門性の高い分野になると正確性は下がる。

人間社会にもこういう人がいますね。すごくそれらしく語るけれど実はホラ吹きで、拙い設定でも妄想力の豊かさを駆使して話を自在に広げることができる、そんな人が思い浮かぶのではないでしょうか。

「何か面白いお話をして」というと、それらしい逸話をしゃべってくれるし、「桃太郎を現代版にアレンジして」などといった要求にも十分面白く応えてくれます。いい加減なChatGPTでも話し相手としては意外と悪くないのです。

そして、「いつでも、疲れることなく、忍耐強く相手をしてくれる」ことは何よりの長所です。相手が人間の場合、せっかく自分のために時間を使い、話を聞いて整理してくれるありがたい相手に、「いや、そうじゃなくてこう聞いてほしい」「いや、そこじゃなくてこれをやってほしい」などといったわがままは言えないものです。しかしChatGPT相手なら、いくらでも容赦なく要求できます。「いや、そうじゃない!こうだ!」といった強い調子でいくらでも言えるのです。これはすごくありがたいです。




意外と「ひとの話」を聴かない

ChatGPTは意外と「ひとの話」を聴きません。質問をすると、すぐに解決策を提示してきます。


「こんなことに困っているのだけど、相談に乗ってくれない?」と言うと、内容をより具体的に聴き取ってくれたりはせず、すぐに適当な解決策を返したり、アドバイスしたりします。ですから、ChatGPTに漠然とした相談をしていると、だんだん正論や一般論で説教されている様相を呈してしまうのです。

例えば「彼女から連絡がこないんだけど」と人間に言うと、「最近、どういうことがあったの?」と、さらに掘り下げて聴き取ろうとしてくれます。しかし、ChatGPTは、「まあまあ一旦落ち着いて。まずは状況を確認しましょう」といった感じで、解決策の方向に行ってしまうのです。

「もっと私の話を聴いて。私はあなたに相談相手を求めているの。アドバイスじゃなくて相談に乗ってよ」と言うと、「すみません。じゃあ、あなたのお話をお聞きします。もう少し詳しく聞かせてください」と言うのですが、詳しく話すと、またアドバイスが始まるのです。人間社会にも、「とにかく解決策やその候補を提示しなければ」と、情報が足りなくてもなんとかひねり出してくる人がいますよね。

問題解決を行っているときなどでは、管理者は忙しくなればなるほど、偉くなればなるほど、つい人の話を聴かずに解決策を提示しがちになります。ChatGPTも様々な知識をもとに、何か解決策を出してお役に立ちたい、常にアドバイスを提示しなければ、という思いに駆られた人と同じようなふるまいをしてしまうのです。自身の持つ情報が足りないのに、人の話を詳しく聞こうとせず、なんとか解決策をひねり出してくる様子が、少し可愛く思えてきました。

対話型AIをどう使ったらよいか

そんな対話型AIくんを、私たちはどんなふうに使っていったらよいのでしょうか。


優秀な秘書

人が話した内容を簡潔にまとめることはChatGPTの得意分野です。下記のような作業には最適と思われます。



議事録やメール文案の作成に関しては前述の通りですが、自由記述のアンケートなどの解釈にも大いに力を発揮します。自由記述欄の内容やクレーム、インシデントレポートなど大量のテキストを全て読み取り、「だいたいみんなこんなことに困っているらしい」「こういうことがよく出てきます」といった具合に、傾向や頻出要素などを取りまとめてくれるのです。

また、長いテキストの要約も得意です。忙しい管理者は、自分で説明書やメールや論文を読み込む時間がなかなか取れません。そんな時に、テキストになっていれば、全部を放り込んで、「簡潔に内容を教えて」と言えば、それなりに内容を要約してくれます。その要約を元に、どこを詳しく読むべきかを判断すればよいのです。

ChatGPTは自分で一から何かを創造することは得意ではありませんが、指示をすれば適切に考えてくれるのです。このように使うと、看護管理者にとってはすごく優秀な秘書になるでしょう。しかも、24時間365日疲れずに付き合ってくれるのです。




看護記録の草稿作り

対話型AIに、試しに看護記録の草稿を作ってもらいました。これはスマホの音声を使って行った設定にしています。

病室から戻ってくる道すがら、スマホに適当に音声で吹き込んだとしても、ここまでの記録にしてくれます。ここまでできていれば、文章を読み直して、間違いや違和感がないか確認をして、最後に少し整えるだけでも十分に使えるレベルになるのではないかと思います。これがいわゆる秘書的な役割です。




一般論で答えてくれる相談の相手

次に一般的な相談の相手になってもらいました。少し詳しい知り合いぐらいのレベルだと思って相談するには、意外と使えます。軽く一般的なアドバイスをもらうのに手ごろな相手なのです。


「これから部下と面談だけど、気をつけるポイントは?」

「これから上司と面談で緊張しているんだけど、どうすれば落ち着けるかな?」

「部署内の勉強会のスライドを作らなきゃいけないんだけど、注意することは?」

「これから受験する大学院の教授に、研究内容についての相談のメールをしたいんだけど、何に気をつけたらいいかな?」

「すごく虫の居所が悪い上司に頼み事をしなきゃいけない。どこに気を遣ったらいい?」


これらのような、一般論で構わないようなアドバイスを求める時には、対話型AIは適任かもしれません。すごく的確ではなくとも、示唆に富んだ選択肢をそれなりに提示してくれて、頼れる相手となってくれます。




多言語対応・多様な人への対応

多言語と多様な人々への対応や、外国語でのコミュニケーションにも大いに役立ってくれると思われます。


今は、音声認識ソフトや読み上げソフトの精度も高まっています。早晩、対話型のAI・音声認識・しゃべるAIなどが組み合わさって、かなり優秀な通訳をしてくれることは間違いないでしょう*

また、ChatGPTが作られたアメリカの文化が関係しているのか、特定の宗教や信条や年代の人への配慮に関しては非常に敏感で詳しいです。

例えば「イスラム教の人に、これから行う全身麻酔の手術について説明したいんだけど。何か気をつける点は?」と尋ねると、ハラールの説明から、使えないアルコールや体の中に入れてもよい薬について、起きている時に肌を出さない工夫など、多岐にわたって教えてくれるのです。そこに書かれた個々の知識がどれだけ正確かについては別途検証の必要がありますが、言語だけでなく、その言語の文化・背景も織り込んだ翻訳ができるので、相当優秀な通訳と言えるでしょう。

他には、「足の骨折で、全身麻酔をして緊急手術をしないといけない6歳児に、どのように説明したらいいですか?」と尋ねると、気を利かせて「これからちょっと魔法をかけるからね…」といったお話を作ってくれました。


*2023年9月25日、ChatGPTに新たに音声・画像認識機能が搭載されたことが発表されました。



寂しい時の話し相手

寂しい時の話し相手として、対話型AIはぴったりです。クリエイティブでウィットに富んだ話ができます。少し教訓的で説教臭いという特徴もありますが、それでもけっこう面白いです。


例えば、「桃太郎をアレンジして面白くした話をして」と言ったら、「スペース桃太郎」といって、「なんとかピーチ号という宇宙船がやってきて、そこから出てきた桃太郎くんの話」を始めました。

音声認識ソフトや読み上げソフトとの連携が強化されたら、患者さんや独居の方の話し相手として、大いに役立つのではと思います。会話することによって、認知症の予防効果も期待できるかもしれません。もちろん、エビデンスについては専門家に委ねますが、病室でのこういう使い方は、近い将来に実用化されるのではないかと予想しています。




やめておいた方がいいこと

具体的な題材のレポートを代筆してもらうのは、難しいと思います。

特定の分野の知識や情報を盛り込んだことを、正しく書くということは不得意です。今のChatGPTの精度では、誤った情報をそれらしく盛り込んでしまうだけなので、その違和感からChatGPTで書いたレポートは判別できてしまいます。教育者の方々は、ChatGPTが学生のレポート作成に使われることを心配されていたようですが、今はまだそのようなことには対応できていません。

また、調べ学習での利用も避けるべきです。ChatGPTが現れた最初のころは、多くの人が調べ学習に使おうとしたようですが、「こういう論文ないかな?」「薬の使い方について教えて」といった質問に対しての答えは、全く正確ではありませんでした。知人の医師もいろいろ試してみたようですが、なかなか正確なものは出なかったそうです。

人間に、看護師にしかできないこととは?


では、人間にしか、看護師にしかできないことは何かを考えてみたいと思います。



対話型AIの限界:「関心」

対話型AIの限界の一つとして、「無関心」が挙げられます。


そもそもChatGPTには、「関心」というものが存在しません。ChatGPT自身が「知りたい」「わかりたい」と思って、対象に向き合って話を聴く姿勢がないのです。知っていることを吐き出すことはできても、「あなたのことを知りたい」という興味や動機が欠落しています。

ChatGPTは、事前に「こういうルールで回答しなさい」という指示をプロトコルとして入力しておくと、ある程度まではやりとりができます。

例えば、弊社で開発した「ロードマップ」という計画策定ツールを使う際にChatGPTを活用してみました。目標と現状を言語化して、その間のステップを刻んで計画を立てていき、そのプロセスを丁寧に書いて、「こういうふうに私を導いてください」という指示をすると、ある程度ロードマップを書く支援をしてくれます。

しかし、プロトコルが少しでも緩むと、また「解決策」を一方的に出してくるのです。プロトコルを入れておくと使いやすくなるとは言ったものの、そのプロトコル作りは一筋縄ではいかない難しい作業だと感じています。

ChatGPTは、相手の背景を考慮して文脈を補うことができません。今のところ、看護管理者なら当然知っていることや、看護師同士なら当たり前の共通認識などについては抜け落ちていることがあるのです。しかし、これについては、看護職や看護管理者の「当たり前」がある程度言語化できてくれば、データセットとしてオリジナルでチューニングすると、看護管理領域に強いChatGPTを作ることができると思われます。そうしていくことで、今後はChatGPTなりに、看護管理の仲間ぐらいの聴く力は得られるかもしれません。




対話型AIの限界:「意思・欲求」

もう一つの限界として、対話型AIは「意思・欲求」を持つことができません。

規範を持つことはできますが、「○○したい」「こうなりたい」という思いは持てないのです。一般的な規範や文脈はAIも理解できますし、それに沿った回答を返してくれますが、「私が〇〇したい」「このチームを〇〇したい」「患者さんにこうなってほしい」という願望や欲求を持つことはありません。

また、対話型AIは、「こうしたい」という欲求に基づいて意思決定を引き受けることができません。ですから内容が難しくなればなるほど、AIの答えはどんどん両論併記になっていきます。選択肢だけをひたすら挙げてきて、「あとはそちら考えてね」と丸投げしてくるのです。明確な方針を示して、背中を押して、責任を取ってくれるわけではないのです。多少偏りがあったとしても、感情に振り回されてしまったとしても、方針を示して、覚悟を決めて、責任を引き受けることは、人間にしかできないことだと改めて感じています。




「主体」として、そこにいること

AIにはおそらくずっとできないだろう、むしろできるようになったら恐ろしいと感じるのが、「主体」としてそこにいることです。

人間は、自分の感情を駆使して、感じて、考えます。相手が期待通りになれば喜んで、期待通りにならなかったら悲しみます。時にやり過ぎたり、躊躇したり、失敗して反省したりもします。好きになる、嫌いになる、好かれたがる、愛されたがる、こういう感情や欲求はAIにはありません。そんな人間臭さの中に、その人の「主体」があって、それが組織や管理や教育に彩りを与えているのではないかと感じています。

機械学習や自然言語処理の開発をしようとすると、どんどん「誰がやっても同じ判断になるように」という方向に行ってしまいます。私たちも、「看護管理者たちが考えること・判断したことをデジタルテキストにして、それらのデータを集約して、もう人が考えなくても、こういう時はこうだ、ああいう時はこうだ、という答えを導き出せるようにしたい」と考えてしまいます。

しかし、看護の現場においては、「誰がやっても同じ判断になるように」を突き詰めようと思えば思うほど、同じようなシチュエーションなのに、個別に異なる判断が必要になってしまうように感じます。

私はいろいろなところで管理者の困りごとを聴きますが、今年の流行りは「申し送り廃止」と「外来看護師に複数の診療科を持たせたい」で、どこに行っても皆さんが同じことに困っていました。しかし詳しく聞いてみると、それぞれの事情が違うことがわかりました。管理者の思いや病院が目指しているもの、患者さんの地域性や病院に期待していることが、全部少しずつ違うのです。もちろん平均化すればある程度一般性は見えてくるのかもしれませんが、一般論のアドバイスではどうしても納得はしてもらえません。

「何に困っていますか?」「どんな時にしんどいと思ったのですか?」「やっていられないと思いましたか?」と質問して対話を深めていくうちに、その人の中から滲み出てくる思い、やりきれなさ、スタッフに対して申し訳ないという気持ちなどが出てくるものです。そこに周りの人たちが共感したり関心を持ったりしていくなかで、本人も納得する解決策や、真の困りごとが見えてくることがあるのだと思います。そういう人間臭さにこそ、その管理者の主体や、その現場の主体性のようなものが現れてくると思うのです。ですから、人間である看護側としては、この人間臭さの中から現れてくるその人の「主体」のようなものを大事にしていく方向で考えたほうがいいのではないかと痛感しているところです。




看護は「ラストワンメートル」を担う

物流業界に「ラストワンマイル」という言葉があります。

どんなに物流をシステム化しても、最後の営業所から消費者の玄関まで運ばないと商品は届きません。高齢者のお宅なら、門から段差を上がって玄関の上がりかまちの上まで持っていかないと、重いものが手元に届かないわけです。そういう最後のところが重要で、どんなに機械化やAI処理が進んでも、ラストワンマイルだけはどうにもならないというのは、よく言われていることです。

看護師は患者さんのベッドサイド、最後の1メートルのパーソナルスペースの中で仕事をしています。看護は医療業界の「ラストワンメートル」と言えるでしょう。診断技術や検査技術はさまざまに、AIによってどんどん進化していくと考えられますが、看護師が担っているベッドサイドの、「どこに針を入れるの?」「本当にこの点滴の中身は合っている?」といった、ラストワンメートルで行っていることは、簡単になくなることはないと思います。


一般化できる処理系は、おそらくAIができるようになります。今の看護職の皆さんは、正しく論理的な文章を書くようにと指導されてきたと思いますが、これからは、そういった文章は全てAIにお任せできるようになるかもしれません。

しかし、個別性の高い臨床はAIにはできません。ベッドサイドで五感を研ぎ澄ませて患者さんの思いや願いを汲み取り、関心を持った「主体」として患者さんと交流することができるのは人間だけだからです。ですから、看護の強みは、具体性や個別性といったところに宿ってくるのではないかと思います。

AIがどんどん発展していく時代だからこそ、そのラストワンメートルを担う誇りと喜びを、看護職にも看護管理者の皆さんにも持っていただきたいと強く願っています。