Les grandes modèles de langage sont l'un des dossiers les plus brûlants du moment sur la table des chercheurs en intelligence artificielle (IA). Des entreprises accélèrent leurs démarches pour mettre en route des programmes comme GPT-3, capables d'écrire des articles et même du code informatique de manière cohérente. Toutefois, selon une équipe de prévisionnistes de l'IA, un problème se profile à l'horizon : nous pourrions manquer de données pour les entraîner.

Les modèles de langage sont formés à partir de textes provenant de sources telles que Wikipédia, des articles publiés sur des sites d'information, des documents scientifiques ainsi que des livres. Ces dernières années, la tendance a été d'entraîner ces modèles sur de plus en plus de données dans l'espoir de les rendre plus précis et plus polyvalents.

La suite est réservée aux abonnés
Abonnez-vous à Capital à partir de 1€ le premier mois
  • Accès à tous les articles réservés aux abonnés, sur le site et l'appli
  • Le magazine en version numérique
  • Navigation sans publicité
  • Sans engagement