Jednou z ústredných etických obáv, ktoré vyvoláva vyhliadka na použitie vojenských autonómnych smrtiacich robotov, je otázka morálnej zodpovednosti za ich konanie. Robert Sparrow tvrdí, že vojenské roboty vybavené schopnosťou učiť sa by boli natoľko nezávislé a samostatné, že by umožnili ľudským aktérom odmietnuť zodpovednosť za ich konanie, čím by vznikla situácia, ktorú Andreas Matthias označil ako „medzeru v zodpovednosti“. Medzera v zodpovednosti je stav, keď nie je nikto zodpovedný za konanie učiacich sa autonómnych robotov. Tento stav je dôsledkom neschopnosti ľudí plne kontrolovať a predpovedať konanie takýchto technológií. V článku argumentujem, že uvedený záver je nesprávny, pretože autonómne technológie nezbavujú ľudí zodpovednosti za dôsledky ich použitia. Kontrola a predvídateľnosť nie sú nevyhnutnou podmienkou pripísania zodpovednosti. Vzhľadom na riziká, ktoré použitie takýchto zbraní predstavuje, sú tí, ktorí ich vytvárajú alebo používajú, morálne zodpovední za ich konanie. Hoci nasadenie autonómnych smrtiacich zbraní nemusí byť dobrý nápad, „medzera v zodpovednosti“ ich ešte nerobí nemorálnymi., One of the primary ethical concerns raised by the prospect of using military autonomous killer robots is the question of the moral responsibility for their use. Robert Sparrow argues that military robots fitted up with the ability to learn would be so independent and self-contained that they would allow human actors to deny responsibility for their use, creating a situation that Andreas Matthias called a “responsibility gap.” A responsibility gap occurs in situations where no one is responsible for the actions of autonomous learning robots. This situation results from the inability of people to fully control and predict the actions of these technologies. In the article, I argue that this conclusion is not a correct one because autonomous technologies do not mitigate people of responsibility for the consequences of using them. Control and predictability are not inevitable prerequisites for attributing responsibility. Given the risks that the use of such weapons presents, those who create or use these weapons are morally responsible for the weapons’ actions. Even though the deployment of autonomous lethal weapons might not be a good idea, the “responsibility gap” does not by itself make them immoral., and Eine der zentralen ethischen Befürchtungen, hervorgerufen durch die reale Aussicht auf die Anwendung tödlicher autonomer Waffensysteme, ist die Frage nach der moralischen Verantwortung für deren Wirken. Robert Sparrow behauptet, dass lernfähige Militärroboter in einem Maße unabhängig und selbstständig seien, dass sie es den beteiligten Human-Akteuren ermöglichten, die Verantwortung für das Tun dieser Roboter abzulehnen. Dadurch entstünde eine Situation, die Andreas Matthias als „Verantwortungslücke“ bezeichnet. Eine Verantwortungslücke ist ein Zustand, in dem niemand für das Wirken lernfähiger autonomer Roboter verantwortlich ist. Dieser Zustand ist die Folge der Unfähigkeit des Menschen, die Handlungen dieser Technologien vollständig zu kontrollieren und vorherzusehen. Die Argumentation im Artikel zielt auf eine Ablehnung dieser These, da autonome Technologien den Menschen nicht von der Verantwortung für die Folgen ihrer Anwendung entbinden. Kontrolle und Vorhersehbarkeit sind keine unabdingbaren Voraussetzungen für die Zuschreibung von Verantwortung. In Anbetracht der Risiken, die sich aus der Anwendung derartiger Waffensysteme ergeben, sind diejenigen, die diese Systeme entwickeln oder einsetzen, moralisch für das Wirken dieser Waffen verantwortlich. Obwohl der Einsatz tödlicher autonomer Waffensysteme nicht unbedingt eine gute Idee sein muss, macht die „Verantwortungslücke“ sie nicht unbedingt unmoralisch