Галлюцинация
← ГлоссарийСитуация, когда AI-модель генерирует правдоподобный, но фактически неверный ответ. Одна из ключевых проблем LLM, решаемая через RAG, ground truth и верификацию.
Ситуация, когда AI-модель генерирует правдоподобный, но фактически неверный ответ. Одна из ключевых проблем LLM, решаемая через RAG, ground truth и верификацию.