ハルシネーション(Hallucination)とは、生成AIが事実に基づかない、もっともらしい嘘や架空の情報を生成してしまう現象で、日本語では「幻覚」や「妄想」のことです。
ハルシネーションが発生する理由は、不十分なトレーニング データ、モデルによる誤った仮定、モデルのトレーニングに使用されるデータのバイアスなど、さまざまな要因によって発生する可能性があります。
AIのハルシネーションは、医療診断や金融取引など、重要な意思決定に使用される AI システムにとって問題となることがあります。トレーニングデータが不完全な場合や、トレーニングデータにバイアスなどの欠陥がある場合、AIモデルが適切なパターンを学習できず不正確な予測やハルシネーションが生じるおそれがあります。
回避する方法として、関連性のある特定のソースのみでAIをトレーニングすることがあり、AIモデルをトレーニングするときは、モデルが実行するタスクに関連するデータを使用することが重要です。たとえば、がんを識別する AI モデルをトレーニングする場合は、医療画像のデータセットを使用する必要があります。タスクに関係のないデータを使用すると、AIモデルの予測が不正確になる可能性があります。