Ce dilemme peut s’exprimer autrement, en dehors de l’IA. Les machines devraient-elles même avoir le droit de prendre des décisions concernant la vie ou la mort de quelqu'un ? Dans ce débat, l’opinion dominante est que les algorithmes d’IA – parce que tout dépend d’eux – ne devraient jamais avoir le dernier mot en la matière. Cependant, certains pensent le contraire et prétendent que de nombreux éléments indiquent qu'en fin de compte, c'est l'IA qui devrait avoir cette opportunité, car elle sera toujours la mieux à même d'évaluer ce qui se passe actuellement dans le feu de l'action. Un combat dans lequel la situation change de seconde en seconde, de sorte que même le commandant le plus expérimenté est incapable de le contrôler.
Les entreprises produisant des armes basées sur des solutions d’IA devront prendre de telles décisions dans un avenir proche, en optant pour des solutions dans lesquelles l’IA ne fait que conseiller et où un humain appuie sur le proverbial bouton pour ouvrir le feu. Parmi ces armes figurent par exemple les drones ou les mines qui ne peuvent pas faire la distinction entre les civils et les soldats. C’est pourquoi les armées du monde entier n’achètent pas actuellement d’armes IA 100 % autonomes.
Quant à la position du plus grand producteur d'armes au monde, les États-Unis, la Maison Blanche n'interdit pas aux entreprises de développer des armes entièrement autonomes ni n'interdit leur vente à l'international, la laissant à leur discrétion. Il a seulement élaboré des lignes directrices stipulant que l’armée elle-même devrait consentir à toute arme autonome. Cependant, ce ne sont que des recommandations et non des ordres.
