Dot Pattern

Radio Program

23rd December 2025

How ChatGPT Is Transforming Doctors’ Work

最初は、教えたくなかった
──医師の業務がChatGPTでここまで変わる!

Special Guest:OTSUKA ATSUSHI

スペシャルゲスト:大塚 篤司さま / 近畿大学医学部皮膚科学教室 主任教授


ー 本日は近畿大学医学部皮膚科学教室 主任教授の大塚篤司先生です。昨年大反響だった「医師による医師のためのChatGPT入門」。臨床現場がガラリと変わる生成AIの実践術について伺いたいと思いますが、先生のお立場でここまで赤裸々に「生成AIを使っている」とお話しされても良いものなのでしょうか。「自分だけの秘密にしておきたい」……そんなお気持ちはなかったのですか?

最初のときは、自分で使い始めた時は誰にも言いたくなかったんですよね。 やっぱり「すごいツールを見つけた。これ、みんなが使えたらまずいな」と思って。正直、あまり教えたくなかったんです。

でも、講演会などで少しお話ししたときの反響がすごくて。「本にまとめてほしい」「どこかで読んで勉強できないか」という声が増えたので、本を出したような感じになります。

ー 続編となる「AIスライド作成術」も、本来なら隠しておきたいノウハウだったのではないでしょうか。 それとも、ここまで来たら隠さずに「これはAIで作っています」と公言した方が、むしろ話が早いということでしょうか?

もう隠さずに使っちゃおうかなと思ってます。

あとは遅かれ早かれ皆さん使うことになるので、自分が使ってうまくいった方法を早めに紹介するのは悪いことではないなと思うようになりました。

ー 生成AIを取り入れることで、実際の医療現場はどのように変わっていくのでしょうか?

生成AIがこのまま順調に普及すれば、おそらく誤診が減ると思います。 今、生成AIは医療系の質問に対して相当詳しく、正確に回答できるようになっているんです。

医師が見落としてしまう点や、少し知識が及ばない部分などをサポートしてくれるので、うまく生成AIの力を借りることができれば、これまでの見落としや誤診、あるいは「もっと良い治療法があったのに選ばなかった」というケースが減っていくのではないかと思います。

ー 先生の専門である皮膚科の領域では、すでに実務レベルでAIが役立っている具体例はあるのでしょうか?

はい。これには法律の問題がありまして、まず本当に医療分野で使おうとすると、厚生労働省の承認・認可が必要なんです。実際、それが通った皮膚科での診断AIというのは、まだないんですよ。

今、実際にAIが医療現場で使えるのは、胸のレントゲン写真を読み取って「影がある」と判定したり、胃カメラで覗いた時に「ここにポリープがあります」と示したりするものなどです。これらは厚生労働省の承認が通っていて、「プログラム医療機器」として認定されています。

皮膚科も研究はたくさん進んでいるんですが、残念ながら、ちゃんとした承認を得たものが日本にはまだないんです。そのあたりは、もう少し時間がかかりそうではあります。

ただ、アメリカやお隣の韓国などでは、すでにプログラム医療機器として承認されているものが出始めていますので、日本でも遅かれ早かれ、そういったものが出てくると思います。

ー 実際の業務において、生成AIによって特に楽になった点や、最も効果を発揮している場面はどこでしょうか?

楽になった部分でいうと、やはり書類仕事は圧倒的に早くなりましたね。文章を書くのはAIが得意ですので、ちょっとした文章を作成する手間は本当に減ったと思います。特に我々のような大学で働いている医者は、雑用といいますかデスクワークが多いですので、そのあたりに活用することで業務効率化につながっています。

まだうちの大学では導入していないんですが、今、AIによる音声入力アプリも開発されています。いくつかの病院ではすでに電子カルテと連携させて、患者さんとの会話内容をそのままカルテに入力する、といったことも可能になっています。そうなってくると、カルテを打つ時間がさらに短縮されて、業務がより効率化されていくと思います。

ー かなり早い段階から生成AIの活用を発信されていますが、他の医師から反発や摩擦はなかったのでしょうか?

私は生成AIを、2022年の11月後半から12月初め頃——GPT-3.5が日本語で使えるようになった時から、ずっと使っています。そして2023年の夏頃に、初めて講演会で紹介したんですが、その時の反響が結構面白かったんですよ。

8割、9割は大絶賛だったんですが、残りの1割は怒っていました。「こんなものを使っちゃダメだろ」という声が本当に多くて。なんなら、講演会が終わった後に偉い先生から怒られたりしたこともありました。やはり受け入れられていないというか、否定的な人は一定数いましたね。その後1年間くらいはずっと、講演会で紹介するたびに誰かが必ず怒っている……というようなことがよくありました。

ー 論文作成や翻訳への活用、特に英語論文については、「果たして使っていいのか」という議論や賛否も多かったのではないでしょうか?

実際、生成AIのChatGPTが登場した頃、有名な科学誌『Science』が「ChatGPTを使ってはいけない」という声明をニュースとして出したんです。あれはChatGPTが出てから少し経って、GPT-4になった頃だと思いますが、その時に研究者の中からものすごい反発が出たんですよ。

というのも、ChatGPTを使うと、自分たちで英語を書くよりも、はるかに読みやすくて良い文章、つまり「伝わる文章」になるからです。そもそも英語で書かなければならないというノンネイティブのハンディキャップを埋めるツールがようやく使えるようになったのに、それを禁止するのはおかしいんじゃないか、という声がすごく上がりました。

結局、『Science』側もそれを受け入れたというか……現在では、ChatGPTなどの生成AIを「論文に使ってはいけない」と明記しているジャーナル(学術誌)は、基本的にはほとんどないと思います。各雑誌でルール作りが進んでいまして、例えば「使ったならちゃんと開示してください」「どこに、どういうふうに使ったかを明記してください」といった形です。

それから当たり前ですが、「著者の欄にChatGPTの名前を入れないでください」というルールもあります。あと一時問題になったんですが、AIで図も作れるものの、間違った図になることがあるので「図の作成には使わないでください」といった規定もあります。

そのように各雑誌ごとのルールが今は明確になってきています。決して「使ってはいけない」とか「こっそりバレないように使う」というものではなく、「正しく使いましょう」という流れに現在はなっていますね。

ー もし患者さんが自分でChatGPTに症状を相談し、「AIはこう言っています」と診察室に来るようになったら、現場は混乱しませんか?医師ではなく、一般の方が医療用途で使う点についてはどうお考えでしょうか。

実際、都市部では「ChatGPTに相談したらこう言われたので、病院に来ました」という患者さんが出てきているようです。かつてインターネットが登場した時にも、同じような問題が起きましたよね。「ネットで調べました」という患者さんがいらして、医者側が知らない情報を言われて戸惑う、といったケースがやはりありました。その時と同様に、やはり「リテラシー」という言葉、正しく使えているかどうかという概念が重要になってきます。

今の生成AIはかなり正確で、あまり間違えずに回答してくれるようにはなっています。しかし一方で、突拍子もない嘘をつくこともあります。「ハルシネーション」ですね。 どうしても1〜2%の間違いが含まれてしまって、専門家が使う分にはそれを見抜けるのですが、一般の方は見抜けないというリスクがあります。

今年出た有名な論文での報告ですが、「高血圧なので減塩メニューを考えてほしい」とChatGPTに相談したところ、人間が摂ってはいけない「臭化ナトリウム」を勧められてしまった事例があります。それを鵜呑みにした患者さんが、食塩の代わりに摂取し続けてしまい、「臭化中毒」という、私たち医師もあまり見たことがないような病気になってしまったそうです。

それから、メンタル面での相談にもリスクが指摘されています。 ひどく落ち込んでいる時に、話し相手としてChatGPTを利用される方もいらっしゃるようなのですが、自殺の危険性があるような切迫した状況で、人間であれば「病院に行った方がいい」と言えるところを、AIだとギリギリまでそういうアドバイスができずに会話を引っ張ってしまう。その結果、患者さんが亡くなってしまい、訴訟になったというケースもあります。

多くは正しいのですが、致命的なミスをしてしまった時にそれに気づけないのが、やはり医師と一般の方の大きな違いだと思うんです。

ですので、私は「患者さんが診断のために使うのはまだ早い」とは言っています。ただ、それも使い方次第だと思うんです。例えば、「ChatGPTに相談して病院に行くか行かないかを決める」というのはまだ危険だと思います。しかし、病院での診察を終えた後に、「今の会話、よく分からなかったな」「この部分はどういうことだろう」と思った時、会話を振り返ってChatGPTに聞いて確認する。そういう復習のような使い方であれば、おそらく間違いも少ないですし、有効ではないかなと思います。

ー 医学教育への影響について教えてください。生成AIは学生や研修医の学びをどう変えるのでしょうか?また、もし先生が「AI時代の医学部カリキュラム」を作るとしたら、どのような内容を組み込みたいですか?

医学教育にAIが登場したことによって、大きな問題が生まれているのではないかという指摘が、医学誌『ニューイングランド・ジャーナル・オブ・メディシン』に出ました。 まず、技術や知識が身につかないという問題です。AIに聞けばそれだけで解決できてしまうからです。次に、元々身についていた能力も抜け落ちてしまうという問題もあります。私自身、英語はもうChatGPTに任せてしまっているので、自分で一から書こうとすると、やはり昔のようには書けなくなってきています。もう一つ問題として言われているのが、ハルシネーション(AIの嘘)を信じて、間違った技術や知識を身につけてしまうことです。つまり「未技術(身につかない)」「脱技術(抜けていく)」「誤技術(間違って覚える)」、この3つが問題として指摘されています。

これらに対して有効な解決策はまだ見つかっていません。「AIをうまく正しく使いましょう」という呼びかけは進んでいますが、実際にはとても難しいと思います。AIがあれば自分ではできなくても何とかなってしまうので、「そもそもそれを身につける必要があるのか?」という議論も生まれてきますし、そこは非常に難しいところです。 ただ一方で、我々医師は最終的なクオリティチェックをして責任を取らなければなりません。ですから、少なくともAIが出した回答について、正しいか間違っているかを判断できるだけの知識は必要になります。

そういう意味で、今は幸いな状況かもしれません。医学部には国家試験や学内の様々な試験があり、これらは自分で暗記して、一度自分の頭に入れなければなりません。「AIがあるから覚えなくていいじゃないか」と思う方もいるかもしれませんが、実はクオリティチェックができる人間を育てるためには、こうした暗記や試験が必要なのだと思います。

しかし一方で、その後の医師になってからの方が実は深刻です。医師になるまでは試験があるので覚えなければなりませんが、医師になった後はどうでしょうか。本来ならその後こそ専門的な知識を身につけなければいけないのに、AIがあるせいで覚えなくてもいい、理解していなくてもできてしまう。現場がそうなってしまうと危険です。何も知識はないけれどAIの言われた通りにやる、そんなドクターがたくさん出現して、AIが間違えた瞬間に大きな事故が起きる、といったことがあり得ます。 ですので、まだ試験がある医学生はいいのですが、その後の医師の方が実は深刻なのではないかと個人的には思っています。

ー 在宅医療や人手不足の地域において、AIを活用することは社会課題の解決につながるのでしょうか?リスクを踏まえた上で、先生が描く「医療の未来」への期待をお聞かせください。

実際、今AIを使って医者が少ない地域でAIがある程度の代わりをする、といった構想を持っている人たちはたくさんいます。例えば過疎地では、せいぜいお医者さんが1人いるかいないか、というところもあると思います。そのたった1人の医者が、例えば専門が内科であっても整形外科も見なければいけない、目がちょっとおかしいと思ったら眼科も見なければいけない、もちろん皮膚科のトラブルがあったらそれも見なければいけない。全てをその一人の先生がカバーするというのは、なかなかやっぱり大変だと思うんですよね。

その時にAIがあると、AIが治療や診断をサポートしてくれます。少なくともそこにいるドクターは、それを参考にしながらちょっと答え合わせをして使っていく。そういう形で、人手不足というか、医療が手薄な部分のカバーはできるのではないかと思います。

ただ、実際に人が行う介護など、人間の「手」を使うような領域になると、まだロボットは十分に開発されていないんです。例えば寝たきりの患者さんがベッドから落ちてしまうんじゃないか、といった物理的な対応ですね。 AIは「目」とか「口」とか「耳」の代わりにはなると思うんですけど、まだ「手」にはなれないので、そこはもう少し時間がかかるかなと思います。ですが、それも少しずつ進んできているとは思います。

ー 2030年や2040年、生成AIは日本の社会課題をどう解決していくのでしょうか? 先生が描く未来のビジョンと、それを踏まえて今私たちがどう行動すべきか、最後にリスナーへのメッセージをお願いします。

はい。生成AIが今はすごく珍しがられているところがまだあると思うんですよね。「使っている」という会話が出たりしていると思います。ただ、僕はこれ、スマホと同じようになると思っていて。「今さらスマホを使っている」と言う人がいないのと同じように、生成AIはもう身の回りにある技術として、当たり前のツールとして認知されるようになるんじゃないかなと思います。

もう「あって当たり前」。普段自分たちが使っている医療に関するものでも、何気ないものの中に実は生成AIが関与している、ということがたくさん出てくるんじゃないかなと思います。

ただ、これが医療を大きく変えるかというと、またこれは人間の受け入れ体制というか、気持ちの問題がありまして。「医者じゃなくてAIに相談する」ということを良しとするかどうか、ですよね。「医者よりAIに話した方が気が楽」という人も多いかもしれません。けれど一方で、やっぱり「お医者さんに聞いてもらいたい」という人もいるわけで。これがどれだけ皆さんに受け入れられていくかというのは、ちょっと読めないところがありますね。

案外、今は医療費も高いですし、「経済的にAIに変えた方がいいんだったら、どんどんAIに変えていきましょう」という流れになるかもしれない。あるいは「いやいや、まだまだそんなことはない」という声が強かったら、大きくは変わらないかもしれない。医療だけではなくて、いろんな周りの状況によって変わってくると思います。

ただ、少なくとも医療の技術としてAIは抜群に優れていますので、皆さんが気づかないところで大きく変わっていくことは間違いないと思います。

ー 生成AIをはじめとするテクノロジーの進化は不可逆であり、医療や介護の現場へも確実に広がっていきます。 AIが医療現場でどう活きるかは、それぞれの活用の仕方次第。これは専門家の先生だけの問題ではなく、私たち一人ひとりが当事者意識を持って考えていかなければならないテーマです。

目指すべきは「人がAIに置き換わる未来」ではなく、「人がAIをうまく使いこなす未来」。AIは、人がより良く生きるための大きな助けとなることは間違いありません。今回の記事が、これからの医療とAIとの付き合い方を考える一助となれば幸いです。大塚先生ありがとうございました!