生成AI

生成AIで発生するハルシネーションとは?原因や対策を解説

  • 投稿日
    2024.09.27
  • 更新日
    2024.09.27

ChatGPTをはじめとした生成AIは、さまざまな業務の効率化に有効です。
しかし生成AIを使用していると、誤情報を提示されることがあります。

生成AIが作り出した誤情報に気付かずにいると、業務や事業に影響が及びかねません。
生成AIが誤情報を生成してしまう理由を把握するには、ハルシネーションについて理解しておく必要があります。

本記事では、生成AIで発生するハルシネーションの概要や発生を抑える方法などを解説します。
生成AIの全体的な注意点についても触れているので、ぜひ参考にしてください。

生成AIで発生するハルシネーション とは

生成AIが提供する情報は常に正しいとは限りません。
提供する情報の中には誤情報が含まれていることがあります。

このように生成AIが誤った情報を作成する現象をハルシネーションといいます。

幻覚や幻影を意味する「Hallucination」という単語が用いられている理由は、生成AIが幻覚かのようにもっともらしい誤情報を提供するためです。

生成AIの種類によっては、生成時に参考にした情報が提示されないため、ユーザーがその場で真偽を判断するのは難しいでしょう。

ハルシネーションは2種類に分かれる

生成AI活用時に発生するハルシネーションは、次の2種類に分かれます。

  • 内在的ハルシネーション
  • 外在的ハルシネーション

ここではそれぞれについて解説します。

内在的ハルシネーション

内在的ハルシネーション(Intrinsic Hallucinations)は、学習データと異なる情報を提供してしまうことです。

例えば、生成AIに「神奈川県の県庁所在地は横浜市」と教えたにもかかわらず、「神奈川県の県庁所在地は横浜市と川崎市」と回答してしまうケースが該当します。

外在的ハルシネーション

外在的ハルシネーション(Extrinsic Hallucinations)は、学習データにはない情報を提供することです。

例えば、「普通運転免許を取得できる年齢は」と質問した際、本来18歳から取得可能 なのにもかかわらず「20歳から取得可能」と回答を捏造してしまうケースが該当します。

ハルシネーションを放置するリスク

生成AIのハルシネーションを放置していると、誤情報を流布する恐れがあります。
例えば、企業に関する誤情報を流布してしまうと、対象となった企業の信頼や売上が低下しかねません。

また誤情報を流布させてしまった企業の信頼も低下してしまうでしょう。

生成AIによってハルシネーションが発生してしまう理由

生成AIによってハルシネーションが発生してしまう理由は、主に次の通りです。

  • 生成AIの学習データの質や量に影響されるため
  • ユーザーの質問(プロンプト)に影響されるため
  • 生成AIの設計に影響されるため

それぞれについて詳細を解説します。

生成AIの学習データの質や量に影響されるため

生成AIは、学習データの量によってハルシネーションを発生させてしまう可能性が変化します。

例えば、自転車の写真だけを学習させている生成AIに対して、バイクの写真を見せて回答を求めても、自転車と回答してしまうでしょう。
同様に学習している情報が偏っていることも、誤情報につながりかねません。

また学習データがそもそも誤っている場合や、学習データが古い場合も誤情報の生成につながってしまいます。

ユーザーの質問(プロンプト)に影響されるため

ユーザーからのプロンプト(質問や指示)に影響されることでも、ハルシネーションは発生してしまいます。
ユーザーが曖昧な質問や指示を投げかけたことで、生成AIが誤った情報を提供しかねません。

生成AIの設計に影響されるため

生成AIは設計上、ハルシネーションが発生する可能性が潜んでいます。

例えば、生成AIはユーザーのプロンプトに応えるために、過去の学習データから推測して回答を作成することがあるでしょう。
そのため、回答に必要な情報が学習データに含まれていなくとも、無理に対応してしまいます。

ハルシネーションの発生確率を抑える方法

生成AIを活用する上では、ハルシネーションの発生はつきものです。

そのため、生成AIが不正確な情報を提供する可能性があることを把握した上で、次のような方法で発生確率を抑えましょう。

  • プロンプトに配慮する
  • 利用ガイドラインを策定する
  • 生成AIを定期的にチューニングする
  • RAGを活用する

プロンプトに配慮する

生成AIでハルシネーションの発生確率を抑えるには、具体的なプロンプトを投げかけることがポイントです。

また「分からない場合は分からないと伝えてほしい」と指示をすることでも、誤った情報の発生リスクを軽減できます。
背景情報や文脈が分かる一文を盛り込むことも効果的です。

利用ガイドラインを策定する

生成AIによるハルシネーションを防止するためには、利用のガイドラインを策定しましょう。

ガイドラインには誤情報が提示される恐れがあることだけでなく、プロンプトの入力例や誤った情報が発生するケースの回避方法などを記載しておきます。

生成AIを定期的にチューニングする

生成AIの定期的なファインチューニングも効果的です。

ファインチューニングとは新たなデータを生成AIに教え、再トレーニングをすることを指します。
ファインチューニングによって正しいデータを生成AIに教えることで、ハルシネーションの発生確率の減少につながります。

また新たなデータを教えるため、古い情報の提示防止につながるでしょう。

RAGを活用する

RAGとは検索拡張生成と呼ばれ、検索機能と生成AIとを組み合わせた技術です。

ChatGPTのような生成AIはインターネットのように一般に公開されている情報をベースに学習します。
インターネット上には誤情報も存在しているため、不確実な情報を基に生成してしまう可能性もあるでしょう。

一方でRAGは自社の顧客情報など、一般に公開されていない情報を参考にします。
そのため正しい情報だけを記載しておけば、ハルシネーションの発生を抑えられます。

ハルシネーションの発生に備えた体制作りも重要

ハルシネーションが発生した場合に備え、体制を整えることも重要です。

例として、生成AIが提示した回答やコンテンツに誤った情報がないかのファクトチェック体制作りが挙げられます。
具体的には官公庁が発表している公的なデータや研究機関が発表している論文など、信頼性の高い情報と照らし合わせてチェックすることが求められます。

特に専門的な知識が求められるテーマや新しい話題は、ハルシネーションが発生する可能性があるため、より注意深くファクトチェックを心掛けましょう。

ハルシネーション以外に心得ておきたい生成AIの注意点と対策

生成AIの活用ではハルシネーション以外にも注意すべき点があります。
例えば、生成AIは著作権を侵害するコンテンツを制作しかねません。

著作権を侵害するコンテンツを制作してしまうと、権利者から指摘される可能性があります。
著作権を侵害しないためには、従業員に対して生成AIに関するルールや潜んでいるリスクの周知が必要です。

ハルシネーションを理解して生成AIの効果を活用しよう

ハルシネーションとは、生成AIが誤った情報を作成してしまうことです。

誤った情報が発生する原因は、プロンプトの内容や学習した情報の量や質などです。
生成AIにおいてハルシネーションはつきものですが、利用ガイドラインの策定や生成AIの定期的なチューニング、RAGの活用などで発生確率を減少できます。

生成AIやハルシネーションなどでお悩みの方は、TDSEにご相談ください。

TDSEではRAGの導入サポートなど、LLM活用支援サービスとして生成AIにまつわるさまざまなサポートを提供しています。

生成AIによって業務の効率化などを検討している場合は、ぜひご検討ください。

LLM活用支援サービスはこちら

お問い合わせはこちら

お問い合わせ

資料ダウンロードはこちら

サービス資料ダウンロードはこちら