AI

ハルシネーションとは

ハルシネーション(Hallucination)とは、生成AIが事実に基づかない、もっともらしい嘘や架空の情報を生成してしまう現象で、日本語では「幻覚」や「妄想」のことです。

ハルシネーションが発生する理由は、不十分なトレーニング データ、モデルによる誤った仮定、モデルのトレーニングに使用されるデータのバイアスなど、さまざまな要因によって発生する可能性があります。
AIのハルシネーションは、医療診断や金融取引など、重要な意思決定に使用される AI システムにとって問題となることがあります。トレーニングデータが不完全な場合や、トレーニングデータにバイアスなどの欠陥がある場合、AIモデルが適切なパターンを学習できず不正確な予測やハルシネーションが生じるおそれがあります。

回避する方法として、関連性のある特定のソースのみでAIをトレーニングすることがあり、AIモデルをトレーニングするときは、モデルが実行するタスクに関連するデータを使用することが重要です。たとえば、がんを識別する AI モデルをトレーニングする場合は、医療画像のデータセットを使用する必要があります。タスクに関係のないデータを使用すると、AIモデルの予測が不正確になる可能性があります。

関連記事

デジタル化・AI導入補助金

RAGでの新入社員の業務サポート

一般社団法人 生成AI活用普及協会(GUGA)

AIの発展と経済を学ぶことの本質的理解

2045年に来るというシンギュラリティ(技術的特異点)

過去案件ナレッジ検索にRAG活用

PAGE TOP