La feuille de route de Karpathy : comment la sortie de l'IA évoluera du texte à la vidéo neuronale
par needhelp
ai
karpathy
llm
ui
futur
ihm
Andrej Karpathy a publié un fil à 13K likes cartographiant l’évolution de l’interaction humain-IA. Sa thèse : l’audio est l’entrée préférée des humains vers l’IA, mais la vision est la sortie préférée de l’IA vers les humains.
Les 5 étapes :
- Texte brut — ère GPT-2
- Markdown ← défaut actuel (ChatGPT/Claude/Gemini)
- HTML ← émergent. Karpathy recommande de demander au LLM de “structurer la réponse en HTML”. Diapositives, dashboards interactifs possibles. Nous sommes ici.
- Vidéo neuronale interactive — rendu temps réel par réseaux de diffusion, répondant à l’interaction
- Fusion cerveau-machine — Neuralink, lointain
Pourquoi c’est important : la densité d’information dépend du format de sortie. L’IA actuelle gaspille les 30% de capacité visuelle du cerveau humain. Pour les builders : 1) Le prompt “HTML output” est un produit primitif 2) Le navigateur devient la surface de rendu IA 3) La différenciation future sera sur l’expérience de sortie, pas les benchmarks.