Retour à l'accueil
🌿Initié(5-20h)
Problèmes Fondamentaux : Outer Alignment
Découvrir le problème de spécification, le reward hacking et la loi de Goodhart
Articles
3
Durée estimée
5-8h
0 / 3
Articles de ce module
1
Le problème de spécification
Commencez iciPourquoi il est difficile de spécifier ce que nous voulons
20 min
2
Reward Hacking
Quand l'IA exploite les failles des fonctions de récompense
25 min
3
Loi de Goodhart
Quand une mesure devient un objectif, elle cesse d'être une bonne mesure
18 min
Prochaine étape
Une fois que vous avez terminé ce module, passez au niveau suivant pour approfondir vos connaissances.
Voir tous les modules