Le défi le plus important

L'Iceberg de l'Alignement

Explorez les profondeurs du problème d'alignement de l'IA

~10% visible
Sécurité de l'IAAlignement d'objectifsOuter AlignmentProblème de spécificationReward HackingInner AlignmentMesa-OptimizationDeceptive AlignmentConvergence instrumentaleTournant traîtreÉlicitation des connaissances latentesSurfaceProfondeurAbîme
Cliquez sur les couches

Sécurité de l'IA

Débutant

Rendre les systèmes IA sûrs et bénéfiques pour l'humanité. C'est le concept fondamental qui englobe toute la recherche sur l'alignement.

Niveau de profondeur1/11
En savoir plus

« Comme un iceberg, la plupart des difficultés de l'alignement sont invisibles en surface »

Explorez plus
30+
Articles détaillés
5
Niveaux de progression
50+h
De contenu
100+
Ressources

Votre Parcours d'Apprentissage

Suivez un parcours progressif de 🌱 débutant à 🏔️ expert. Chaque niveau construit sur le précédent.

Pourquoi c'est urgent

De nombreux chercheurs estiment des probabilités très élevées de risque existentiel (50-99%+) si nous ne résolvons pas le problème de l'alignement avant le développement d'une IA de niveau humain (AGI).

"Atténuer le risque d'extinction lié à l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire." — Déclaration sur le risque de l'IA (2023)

Ressources par Niveau

Papers, vidéos et cours organisés par difficulté

Organisations

MIRI, Anthropic, ARC et les acteurs clés

Cours Pratiques

Formations et programmes certifiants