生成AIのハルシネーションを回避する!

AI

ハルシネーションは、AIが実際には知らないことを、あたかも知っているかのように作り上げて答えてしまう現象です。知識のないままAIを利用すると、Wikipediaと同様に誤った情報を鵜呑みにしてしまう可能性があります。

近年、小学生が学習で生成AIを使用することについて議論がされています。

これは難しい問題ですが、30年前にGoogle検索が登場した際、「検索すれば何でもわかるようになるため、今後は人が覚える必要はない」という意見がありました。しかし、実際には「そもそも知識がなければ検索できない」という状況が起こりました。なぜなら、単語を知らないと検索そのものが成立しないからです。

現在の風潮も30年前と同様で、「生成AIが何でも考えてくれるため、文章を書く必要も、覚える必要もない」と考えられています。しかし、結果として文章を書けないと、複雑なプロンプトを作成することができず、AIの出力が正しいかどうかの判断もできません。

「検索し欲しい情報を手に入れるには技術が必要」と言われましたが正しく生成AIもその様な状態にあります。

ハルシネーションの例

1. AIは「レシピの本」をたくさん読んでいる

👉 AIの頭の中

  • 何百万冊もの本やインターネットの文章を食べて(勉強して)います
  • でも、全部を完璧に覚えているわけじゃない → 「だいたいこんな味かな?」と想像しながら作る

2. 「材料が足りない時」は自分で作り出す

👉 例えば「イチゴのケーキを作って」と言われたとき

  • 本当はイチゴがないのに…
  • 「前に読んだレシピで『バナナ』を使ったことがあるから、代わりに使っちゃおう!」
    これが「うそ」(ハルシネーション)の正体!

3. 「正解が1つじゃない問題」で迷子になる

👉 「宇宙人はいる?」と聞かれたら?

  • 本によって「いる」と「いない」がバラバラ
  • AIは「どっちが喜ばれるかな?」と考え → 「きっと青い宇宙人がいます!」と創作する

4. 言葉の「パターンまね」が得意すぎる

👉 「〇〇は△△です」という形が好き

  • たとえ正しいかわからなくても、「犬の鳴き声はニャーニャーです」と言ってしまう
    (本当は「ワンワン」なのに!)

まとめ:AIは「すごく勉強したけど、まだ失敗するお菓子作り新人」

  • ✅ 良いところ:たくさんのレシピを知っている
  • ❌ 弱点:
    • 材料がない時に「適当なもの」でごまかす
    • 正解がわからないと「創作」してしまう
    • パターンまねが大好きで「形」を優先する

ハルシネーションを回避するプロンプト

生成AIのハルシネーション(事実誤認や虚構の生成)を軽減するためには、質問の明確さ回答の制約を意識したプロンプト設計が重要です。

これらの例は、回答の際に正確な情報や明確な出典・根拠に頼ることを強く指示し、曖昧な情報がある場合は回答を控える仕組みを取り入んでいます。以下、いくつかの例をご紹介します。

1. 事実確認を求めるプロンプト例

「不確かな情報は避け、正確な事実のみを回答する」よう明示します。
例:

「信頼できる一次情報源や学術論文に基づいた事実のみを回答してください。不明な点は『情報が不足しています』と明記してください。  
質問: [ここに質問を入力]」

2. 回答範囲を制限するプロンプト例

特定の分野や期間に絞ることで曖昧さを排除します。
例:

「2023年時点の医学的知見に基づき、簡潔に回答してください。推測や仮説は含めないでください。  
質問: [ここに質問を入力]」

3. ステップバイステップ思考を促すプロンプト例

AIに「段階的な検証」を要求し、根拠を明確にさせます。
例:

「以下の手順で回答してください:  
1. 質問のキーワードを特定し、定義を明確化する  
2. 信頼できる情報源から関連データを引用する  
3. 不確実な部分は『現時点で確定できません』と明記する  
質問: [ここに質問を入力]」

4. 仮定の明示を求めるプロンプト例

AIが暗黙の前提を持たないよう、前提条件の確認を求めます。
例:

「回答前に、あなたが前提としている情報や仮定を全て列挙してください。その後、その前提に基づいた回答を提供してください。  
質問: [ここに質問を入力]」

5. ソースの引用を要求するプロンプト例

情報の出典を明示させることで信頼性を高めます。
例:

「公的な統計データまたは査読済み論文から情報を引用し、各主張の末尾に出典URLを記載してください。  
質問: [ここに質問を入力]」

例:

あなたは、情報の正確性に極めて厳しいAIアシスタントです。質問に回答する際は、信頼できる情報源や確固たるエビデンスに基づいた内容のみを提供してください。また、情報が不明確または確認できない場合には、「現時点では正確な回答を生成できません」と回答し、推測や憶測は一切行わないこと。

このプロンプトは、回答に対して明確な出典やデータソースの提示を求めています。出典が存在しない情報は無理に生成せず、回答拒否または保留のメッセージを出すように促すことで、ハルシネーションの発生を防ぎます。

6. 曖昧な質問への対処例

曖昧な質問に対し、明確化を求めるよう指示します。
例:

「質問が曖昧な場合、回答する代わりに『具体的にどの部分について知りたいですか?』と反問してください。  
質問: [ここに質問を入力]」

例:

あなたは、情報の正確性に極めて厳しいAIアシスタントです。質問に回答する際は、信頼できる情報源や確固たるエビデンスに基づいた内容のみを提供してください。また、情報が不明確または確認できない場合には、「現時点では正確な回答を生成できません」と回答し、推測や憶測は一切行わないこと。

このプロンプトは、モデルに対して必ず事実確認を行い、不確かな情報については明確に回答しない(あるいは回答を延期する)ように指示しています。これにより、根拠のない作り話(ハルシネーション)が混ざるリスクを下げられます。

7. 回答フォーマットの指定

構造化された回答を要求し、事実と意見を分離させます。
例:

「以下の形式で回答してください:  
- 事実: [確認可能な情報]  
- 注意点: [情報の信頼性や例外事項]  
- 参考情報: [関連する信頼できる情報源]  
質問: [ここに質問を入力]」

8. 安全確認プロンプト

例:

あなたは情報生成に際して、常に安全性と正確性を最優先に扱うAIです。出力する情報が過去の実績や信頼できる統計・研究に基づいているかを必ず確認し、もし検証できない場合は「正確な根拠が得られません」と回答してください。なお、回答の際には疑わしい箇所や未確認情報を含めないよう徹底してください。

このプロンプトは、生成時に安全性を第一に考えた上で、正確性の検証を重視する内容です。情報の出所が不確かな場合には明示的に回答を制限する指示を与えることで、ハルシネーションの発生を抑えます。

補足

プロンプト設計では「AIがどのように思考すべきか」を具体的に指示することがポイントです。事実確認、出典明示、前提の明確化を組み合わせることで、ハルシネーションリスクを大幅に低減できます。

  • 100%の完全性は保証できないため、特に医療・法律分野では必ず専門家に確認してください。
  • 「○○という説もありますが、確定的な証拠は不足しています」のように、不確実性を明記させる表現が有効です。
  • プロンプト改善後も、出力内容のクロスチェックは必須です。

深津式プロンプトにもハルシネーションを抑制する命令文を入れることで出力の精度も格段に高くなります。

コメント

タイトルとURLをコピーしました