Reading Lists par Niveau

Ressources organisées par niveau de difficulté

Beginner

Reading Lists par Niveau

Débutant (0-20h)

Objectif: Comprendre qu'il y a un problème

1. AGI Ruin: A List of Lethalities (Eliezer)

2. AI Alignment: Why It's Hard, and Where to Start (Video - Eliezer)

3. Rob Miles YouTube Channel (vulgarisation)

4. The Alignment Problem (Brian Christian - livre)

  • Accessible, journalistique
  • 10-15h

Intermédiaire (20-100h)

Objectif: Comprendre problèmes techniques principaux

1. Risks from Learned Optimization (Hubinger et al.)

2. Concrete Problems in AI Safety (Amodei et al.)

3. Embedded Agency (Sequence)

4. Superintelligence (Nick Bostrom - livre)

  • Classique, un peu daté (2014) mais fondamental
  • 20h

5. ELK Document (ARC)

6. Alignment Forum (curated posts)


Avancé (100-500h)

Objectif: Comprendre research frontiers, contribuer

1. MIRI Research

2. Corrigibility (MIRI)

3. Logical Induction (MIRI)

4. Iterated Amplification (Paul Christiano, all posts)

5. Constitutional AI + Mechanistic Interpretability (Anthropic research)

  • Papers + discussions
  • 50h

7. Alignment Forum (comprehensive reading)

  • Major sequences, debates
  • 100-200h

Articles Connexes