AIチャットボットに短く答えるよう指示すると誤情報が増加―新研究

AIチャットボットに「簡潔に答えてほしい」と指示すると、事実と異なる内容を返す「ハルシネーション(幻覚)」が増える可能性があるそうです。フランスのAI企業Giskardが新たな研究で明らかにしました。短い回答を求めるほど、AIが情報を削ってしまい、結果的に誤った回答をしてしまう傾向が見られたとのことです。

出典:techcrunch.com