AI

ハルシネーションとは

ハルシネーション(Hallucination)とは、生成AIが事実に基づかない、もっともらしい嘘や架空の情報を生成してしまう現象で、日本語では「幻覚」や「妄想」のことです。

ハルシネーションが発生する理由は、不十分なトレーニング データ、モデルによる誤った仮定、モデルのトレーニングに使用されるデータのバイアスなど、さまざまな要因によって発生する可能性があります。
AIのハルシネーションは、医療診断や金融取引など、重要な意思決定に使用される AI システムにとって問題となることがあります。トレーニングデータが不完全な場合や、トレーニングデータにバイアスなどの欠陥がある場合、AIモデルが適切なパターンを学習できず不正確な予測やハルシネーションが生じるおそれがあります。

回避する方法として、関連性のある特定のソースのみでAIをトレーニングすることがあり、AIモデルをトレーニングするときは、モデルが実行するタスクに関連するデータを使用することが重要です。たとえば、がんを識別する AI モデルをトレーニングする場合は、医療画像のデータセットを使用する必要があります。タスクに関係のないデータを使用すると、AIモデルの予測が不正確になる可能性があります。

関連記事

セブンヒッツ理論とザイオン効果

RAG実装技術はオリジナルの独自手法

過去案件ナレッジ検索にRAG活用

SHIFT AIさんの人材開発支援助成金(特定訓練コース・デジタル人材育成訓練)

一般社団法人 生成AI活用普及協会(GUGA)

IQやEQなどの数字化できない数字を重視

PAGE TOP