Подписывайся на Telegram-канал — пишем про нейросети и ИИ сервисыПодписаться

Галлюцинация

← Глоссарий
Безопасность

Ситуация, когда AI-модель генерирует правдоподобный, но фактически неверный ответ. Одна из ключевых проблем LLM, решаемая через RAG, ground truth и верификацию.

Связанные термины