Подписывайся на Telegram-канал — пишем про нейросети и ИИ сервисыПодписаться

Механизм внимания (Attention)

← Глоссарий
Модели

Ключевой компонент трансформеров, позволяющий модели фокусироваться на релевантных частях входных данных. Self-attention позволяет каждому токену «смотреть» на все остальные токены в последовательности.

Связанные термины