Première loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
Deuxième loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
Troisième loi : Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.
Isaac Asimov

Si vous aimez la science-fiction, vous connaissez sans aucun doute les fameuses Trois Lois de la Robotique imaginées par Isaac Asimov. Ces règles simples ont influencé des générations de lecteurs, d’auteurs… et d’ingénieurs.
Leur élégance est si rassurante qu’on s’est permis de croire que les robots, un jour, les adopteraient. Mais la réalité a pris un autre chemin.
Les lois d’Asimov : un rêve d’écrivain, pas un plan technique
Asimov n’a pas écrit ces lois dans le but d’inspirer les ingénieurs de la robotique. C’était pour lui un outil narratif, une manière d’explorer les dilemmes moraux en repoussant les règles dans leurs retranchements. Leur rôle était littéraire : créer des histoires.
Mais dans l’imaginaire collectif, elles sont devenues une sorte de « protocole idéal » pour les IA du futur.
Le problème, c’est que les IA actuelles ne fonctionnent pas du tout comme dans la SF. Pas de règles gravées dans le silicium, pas de morale intégrée par défaut, pas de conscience, pas d’intention. Juste des statistiques, des modèles et des optimisations mathématiques.
L’IA moderne n’a pas de morale
Quand un modèle d’IA prend une décision, il ne se demande pas : « Est-ce que je respecte la Première Loi ? » Il calcule ce qui est le plus probable, le plus cohérent ou le plus conforme à la consigne reçue.
D’où le décalage : La science-fiction a inventé des IA trop humaines, mais la réalité produit des IA sans humanité.
Cet écart de vision crée d’immenses malentendus. Certains s’inquiètent d’un robot assassin, alors que les risques sont ailleurs, dans les biais, les erreurs, les usages détournés, ou la confiance aveugle. Nous projetons sur l’IA des comportements humains, alors qu’elle n’a ni intentions, ni valeurs, ni conscience. L’idée d’une IA maléfique est spectaculaire, mais une IA utilisée sans cadre, mal formée, mal supervisée, intégrée trop vite, ou incomprise par ceux qui l’emploient, représente le plus grand danger.
Ce n’est pas un robot qui se rebelle, c’est un algorithme qui fonctionne, mais pas comme on l’imaginait.
Pourquoi avons-nous cru aux lois d’Asimov ?
Parce qu’elles sont rassurantes. Ces Trois Lois donnaient l’impression que la question de l’éthique robotique était réglée. Elles rendaient le futur lisible, sécurisé, presque simple.
Elles confortaient aussi l’idée que la technologie pouvait être « moralisée » par du code.
Mais dans le monde réel, l’éthique n’est pas une formule magique. C’est un mélange obscur de réglementations, de supervision humaine, de garde-fous techniques, de politiques publiques et de nombreux débats.
L’influence de la SF
Même si les lois d’Asimov ne sont pas applicables, la science-fiction reste un formidable laboratoire d’idées. Elle nous aide à réfléchir à des questions actuelles. Qui est responsable quand une IA se trompe ? Comment éviter qu’une IA reproduise des injustices ? Doit-on limiter les usages de certaines technologies ?
La SF ne donne pas les réponses, mais elle pose de bonnes questions, souvent avant les ingénieurs eux-mêmes.
La morale reste humaine
Les lois d’Asimov sont belles, élégantes, optimistes. Elles nous ont appris à imaginer des machines responsables. Mais dans la réalité, la seule morale qui compte, c’est celle que nous décidons d’appliquer dans les outils que nous construisons, dans leur usage, et dans les règles que nous imposons.
L’IA ne peut pas choisir d’être bonne ou mauvaise. C’est à nous de choisir comment elle sera utilisée. La science-fiction redevient alors ce qu’elle a toujours été. Non pas un mode d’emploi, mais un miroir de nos choix.
Texte écrit avec l’assistance de Copilot Chat
Illustration réalisée avec Copilot