1.患者の所見、検査データ、服薬情報(実際は処方データであり、飲んだかどうかの情報蓄積をどうするのかが課題)を基に予測される病態をAIが準備する(各種論文や症例報告などのデータを基に)
2.その情報を基に、当日の患者の様子をみて、医師がAIの出した判断を基に診断する(もちろん、医師がAIの想定していない答えを出す選択肢も存在する。これが勘である。)
医師の想定していないAIによる判断と、AIの想定していない医師による判断が入る。
1.の準備の部分を効率化するのがAI導入の目的と思われる。問題はある。診察した内容のインプットだ。この部分をどうやって効率化させるかが課題となってくる。この部分を効率化させるだけで、医師の仕事での負担が軽減されるのではないだろうか。
訴訟になった時に、誰を被告とすればいいのかがAIによる診断の課題だ。AIを被告とする場合、賠償金をどのように支払うのか。
感情的にややこしくなった場合、間にAIが入って、とにかく淡々と説明すれば「AIの決めたことだから」と納得できるだろうか?
人の感情の、もしかしたら自分ですら意識していない本音部分をその周辺ごとすくいあげて解決策を出してくれるAIが生まれたら、人間による仲介は必要なくなってくるかもしれない。自分の感情でありながらも、顕在化させることなく、こっそり解決する。(顕在化すると、自分の美しくない本音に耐えられなくなる人もいる)
ただ、訴訟による責任のとり方が変わらない限り、人間の医師は必要なので、医師という職業はなくならないと考える。
これは医師だけに限らない。医療職だけに限らない。
それと、対人業務において複雑な対応を必要とする人に人間の業務を充てるために、定型的な対応で済んだり、経過を見るだけでいい人の対応についてはAIに任せる方向に向かうのではないか。持つものが増え、するべき仕事が増えているけれど生産年齢人口が減少している中で、限られた資源(人も資源ですよ)を必要な人に届けるためにはこのような効率化が必要だ。
しかし、対応に難がある人に接するのは非常に疲れる。そのために対人業務を担う人が疲弊してしまってはこれまた人という貴重な資源を失うことになる。ゆえに、クレーマーのような人は顧客として扱わないという方向性も必要になる。これは、医療でも例外ではないと考える、
もしよろしければバナーのクリックお願いしますm(_ _)m