AIチャットボットに「簡潔に答えてほしい」と指示すると、事実と異なる内容を返す「ハルシネーション(幻覚)」が増える可能性があるそうです。フランスのAI企業Giskardが新たな研究で明らかにしました。短い回答を求めるほど、AIが情報を削ってしまい、結果的に誤った回答をしてしまう傾向が見られたとのことです。
AIチャットボットに「簡潔に答えてほしい」と指示すると、事実と異なる内容を返す「ハルシネーション(幻覚)」が増える可能性があるそうです。フランスのAI企業Giskardが新たな研究で明らかにしました。短い回答を求めるほど、AIが情報を削ってしまい、結果的に誤った回答をしてしまう傾向が見られたとのことです。