Atención / Transformers
Mecanismo de atención
primer video de una serie de tres del genio Luis Serrano haciendo una simple (pero no por eso menos rigurosa) presentación de qué está detrás del mecanismo de atención, parte crucial de la arquitectura de los Transformers que están detrás de chatGPT y otros LLMs
otra muy buena explicación de auto-atención