Aller au contenu principal

Apprentissage par transfert

Définition

Transfer learning réutilise les connaissances d'une tâche ou d'un domaine source pour améliorer l'apprentissage sur une tâche cible avec des données limitées. Les modèles pré-entraînés (par ex. ImageNet, BERT) are fine-tuned on downstream tasks.

C'est standard in NLP (par ex. BERT, GPT) and vision (par ex. ImageNet backbones). When the target has little labeled data, starting from a source model and fine-tuning on target data is much more data-efficient than training from scratch. See few-shot and zero-shot for the extreme of very few or no target examples.

Comment ça fonctionne

Obtain a source model (pré-entraîné sur a large dataset, par ex. ImageNet or web text). Take target data (your task’s labeled examples) and fine-tune: update the model (all parameters or only a subset, par ex. adapter, head) to minimize loss on the target task. Le résultat est un target model. Full fine-tuning updates all weights; adapter or prompt tuning updates a small number of parameters to save compute and preserve source knowledge. Works best when source and target share useful representations (par ex. same modality, related domains).

Cas d'utilisation

Transfer learning is standard when you have limited target data and a related pretrained model to adapt.

  • Fine-tuning BERT or GPT on domain-specific NLP tasks
  • Adapting ImageNet-pretrained models to medical or satellite imagery
  • Reusing pretrained representations when target data is limited

Documentation externe

Voir aussi