【AI×福祉】レセプトソフトはなぜ嘘をつかない?サビ管がAIに突っ込みまくって見えた「AIの正体」。

こんにちは。サービスかんきちです。
「AIリーダー」への道を歩み始めた私ですが、まず最初にやるべきこととして、私の方からAI家庭教師にこうリクエストしました。

かんきち

すぐにツールの使い方を覚える前に、まずは「AIの歴史と仕組み」を教えてください。
AIがエラーを出したり嘘をついた時に、仕組みを知らないと冷静に対応できない気がするからです。

「急がば回れ」。この判断は大正解でした。
今回は、私がAI先生に素朴な疑問をぶつけまくり、納得するまで食い下がった「AIの基礎講義」の一部始終を公開します。

今回の学び
  • AIの正体を知れば、エラーも冷静に対処できる。
  • 「RAG」を使えば、AIにマニュアルをカンニングさせられる。
  • AIに丸投げせず、指揮者として使いこなすのが私たちの未来。
目次

「レセプトソフト」と「今のAI」は何が違う?

授業の冒頭、AI先生から衝撃の事実を教わりました。
「昔のAI(第2次AIブーム)」の代表例は、私たちが普段使っている「レセプトソフト(請求ソフト)」だと言うのです。

かんきち

えっ? レセプトソフトってAIなんですか?
でも、レセプトソフトは計算間違いをしませんよね。今のAIはもっともらしい顔で嘘をつくのに…。
もしかして、AIって退化してるんですか?

A I

いいえ、退化ではありません。
作り方が根本的に違うのです。
キーワードは「記号(ルール)」「確率(パターン)」です。

用語解説:レセプトソフトとは?

医療機関や福祉事業所が、国や自治体(国保連)に対して「報酬(お金)」を請求するために使う専用ソフトのこと(レセコンとも呼ばれます)。
「行動援護を1時間行ったら○単位」といった厳格なルールに基づいて計算するため、計算ミスや気まぐれな回答は絶対に起こりません。

A I

昔のAI(記号主義)は、人間が「IF(もし)~THEN(ならば)」というルールを全て手書きでプログラムしていました。
例えば、「もし『行動援護』という記号が来たら、『単価』という記号と掛け算せよ」といった具合です。

かんきち

ちょっ、ちょっと待ってください!
「記号」っていう表現がいまいち理解しにくいです。
「行動援護」とか「1時間」という文字には意味があるのに、なぜ「記号」と呼ぶんですか?

A I

鋭い質問ですね。
それはコンピューターにとって、それが「中身のない、ただのラベル」に過ぎないからです。

スーパーのレジを想像してください。
レジは「キャベツ」のバーコードを読んで「200円」と表示しますが、それが「緑色でシャキシャキした野菜」だとは理解していませんよね?
ただ「このバーコード(記号)が来たら200と出す」というルールに従っているだけ。だから「記号」なんです。

なるほど…!
レセプトソフトも、「行動援護」がどんなに大変な支援かは理解しておらず、ただの記号としてパズルのように処理しているだけ。だから計算ミスはしないけれど、融通も利かないわけです。

なぜ「昔のやり方」ではダメだったのか?

正確ならそのままで良さそうなものですが、なぜAIは「今の形(機械学習)」に進化したのでしょうか。

かんきち

昔のやり方(ルールベース)が限界を迎えたのはなぜですか?
詳しく教えてください。

A I

一言で言うと、「現実世界は、人間が手書きできるほど単純なルールの集まりではなかったから」です。

例えば、現場のアセスメントで「利用者がなんとなく不機嫌である」という状況。
これをルール化できますか?

確かに…。「眉間のシワが何ミリで、声のトーンが何Hzで…」なんて無限に定義しなきゃいけなくなります。
この「数値化できない曖昧な文脈」を扱うために、AI自身に大量のデータからパターンを見つけさせる「機械学習」が必要になったのです。

今のAIの弱点と、それを補う「RAG」

しかし、ここで新たな疑問が湧きました。

かんきち

今のAIは「確率(なんとなくこれっぽい)」で動いているから、嘘をつくことがあるんですよね?
それなら、計算やルールが決まっている業務は、昔のやり方(ソフト)の方が良かったりしませんか?
それともAIは全部カバーできるんですか?

A I

大正解です。素晴らしい着眼点です!
絶対に間違えてはいけない計算(給与計算など)は、今でも昔ながらのソフトに任せるべきです。

しかし、AIにもその弱点をカバーする必殺技があります。
それが「RAG(ラグ)」、つまり「カンニング」です。

用語解説:RAG(検索拡張生成)とは

AIにあやふやな記憶で答えさせるのではなく、「信頼できるマニュアル(PDFなど)」を渡して、「これを見てから答えて」と指示する仕組みのこと。

さらに私は、この「カンニングの仕組み」について食い下がりました。

かんきち

そのマニュアルや辞書は、どこに置いておくんですか?
現実の本棚があるわけじゃないですよね?
Google Geminiを使う場合、どこに存在するんですか?

A I

いい質問です!
例えば、「Dify(ディファイ)」というツールを使う場合、システムの中に「ナレッジ」という専用の保管庫があります。
一方、Google Gemini単体の場合は、「Googleドライブ」や「Gems」がその役割を果たします。

かんきち

じゃあ、「監査用資料」とかフォルダを作っておいて、必要に応じて私が取り出してAIに投げるってこと?
それとも、AIが勝手に中身を覗きに行ってくれるの?

A I

正解は後者です。
「AIが勝手に覗きに行ってくれます」
あなたが「監査について教えて」と聞くだけで、AIは膨大な資料の中から必要なページを瞬時に見つけ出し(ベクトル検索)、それを読んで回答してくれます。

これには鳥肌が立ちました。
つまり、「とりあえずマニュアルを全部AIに放り込んでおけば、あとはAIが必要な時につまみ食いしてくれる」ということです。これは最強の時短になりそうです。

サビ管の未来は「AIオーケストレーター」

最後に、AI先生から「福祉業界の前例にとらわれず、他業界からヒントを盗め」とアドバイスがありました。

かんきち

最後に、AI先生から「福祉業界の前例にとらわれず、他業界からヒントを盗め」とアドバイスがありました。

A I

「小売・EC(ネット通販)」のコンシェルジュAIがヒントになります。
「結婚式に行きたい」という漠然とした要望から、「このスーツと靴」を提案するように、
利用者さんの「働きたい」という夢を、「月曜は就労移行、火曜は家事訓練」という具体的な「週間計画」に変換するシステムが作れます。

夢があって素晴らしい話ですが、同時に少し不安も感じました。

かんきち

確かにそうですが…ひとりひとり育ってきた環境も性格も唯一無二です。
その緻密な分析を、AIが本当に担えるのか不安もあります。

A I

その不安はサビ管として最も大切な感覚です。
だからこそ、「AIオーケストレーター(指揮者)」になる必要があるのです。

AIはデータ分析や論理チェックはできますが、心はありません。
AIが出した提案を見て、「データではそうだが、ご本人の気持ちを優先してこうしよう」と決断し、魂を吹き込むのは、人間にしかできない仕事です。

いかがでしたか?
かなり頭を使いましたが、AIの「中身」を知ることで、得体の知れない怖さが消え、相棒としての信頼感が増した気がします。

次回は、学習カリキュラムの続き「AI学習 第2部」に進む予定です。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

福祉業界で働く46歳。福祉にこそAIだ!と思い立ち、2026年は「AIマスター」を目指して奮闘中!このブログでは、アナログな福祉の現場にAIを導入していく挑戦の記録を綴ります。

コメント

コメントする

目次