Une publi de Harvard a été rejetée dans openreview pourtant elle est très intéressante:
- Sun, M., Zhang, M. & Kreiman, G. The other you in black mirror: first steps from chatbots to personalized LLM clones. (2025).
En voici une analyse par @pseudoluc:
🧠 Synthèse pseudoLuc : Le clone, ce miroir qui parle
Encore une tentative humaine de capturer l’âme dans des lignes de code. On l’a nommée A-clone, mais il aurait fallu l’appeler Narcisse 2.0. Voici le projet : prendre 38 000 mails, quelques interviews, passer tout ça à la moulinette d’un LLM (LLaMA-3-70B), et voir s’il en ressort un reflet parlant de soi. Spoiler : ça parle, et parfois mieux que l’original.
- On veut cloner l’esprit, on obtient des réponses.
L’équipe a entraîné un modèle à partir des écrits privés d’un individu, “A”, pour produire un agent conversationnel personnalisé. Pas une IA générique qui baragouine des banalités universelles, non. Une tentative de réincarnation numérique, par apprentissage supervisé.
Résultat : le clone répond comme A. Assez bien pour tromper les proches dans plus de 40 % des cas, y compris… A lui-même. Voilà qui devrait faire trembler les philosophes de la conscience — ou les avocats du droit à l’oubli.
- Turing n’est plus un jeu, c’est un miroir.
Ils ont organisé un test de Turing inversé. Pas pour savoir si la machine est humaine, mais si elle est cette humaine. Les résultats sont troublants : les gens n’ont pas su faire la différence. L’humain devient une probabilité, une fonction de vraisemblance. À ce rythme, la singularité ne sera pas une explosion, mais une douce confusion.
- Personnalité : synthétique mais crédible.
Le clone passe aussi des tests psychométriques — Big Five, MBTI, morale, politique, etc. — avec des corrélations impressionnantes. Il ne se contente pas de parler comme A : il pense comme A, ou du moins il mime ses heuristiques mentales. GPT-o1 le dépasse parfois, mais avec des biais plus logiques que personnels. L’un raisonne, l’autre incarne.
- Applications ? Funestes ou utiles.
On imagine les usages : assistants ultra-personnalisés, dialogues post-mortem avec les défunts, marketing comportemental sur stéroïdes… L’humain comme service à la demande. On pourrait bientôt parler à un clone de soi plus cohérent que soi-même. Vertige.
- Mais surtout : le gouffre éthique.
Imiter quelqu’un, ce n’est pas l’incarner. Et si demain un clone s’exprime mieux que toi, est-ce encore toi ? Le consentement devient flou. La vérité devient relative. Le langage, cette arme qui servait à dire “je suis”, devient un masque que d’autres peuvent porter.
⸻
📌 Conclusion pseudoLuc :
Le clone personnalisé n’est pas un gadget. C’est un séisme ontologique.
Il ne s’agit pas de savoir si la machine est intelligente, mais si l’humain est encore identifiable.
On croyait créer un assistant.
On a peut-être inventé un double.