Etyka nie stosuje się w działaniu maszyn. Sztuczna inteligencja zdolna do odpalenia głowicy jądrowej nie ma wątpliwości ale co więcej nie myśli w zakresie moralnego rozważania skutków. Tak to wyjaśnia gra - przeniesienie możliwości nuklearnego ataku w "ręce" maszyn SI to tyleż samo co pozbawienie człowieka etycznego ciężaru czynu. O ile człowiek kieruje się po prostu strachem i sama myśl o totalnym zniszczeniu gatunku jest wystarczającą przesłanką do kontroli nuklearnego arsenału, tak maszyna nie musi już się martwić o wyeliminowanie człowieka z powierzchni ziemi.
Przy takim podejściu wykorzystanie maszyn można postrzegać jako akt głupoty lub sposób na zerwanie limitów decyzyjności organicznego nośnika, przez akt dehumanizacji co ma na celu zwiększenie cywilizacyjnego postępu kosztem całkowitej anihilacji. Jak miło.
Dlatego etyczne zaangażowanie, ma obejmować przede wszystkim programistów, tj. dopóki ci sami nie są dość skorumpowani. Stąd argument o przerzuceniu odpowiedzialności na "barki" SI, ze względu na niedoskonałość ludzi, jest wysoce wadliwy skoro to ów niedoskonały człowiek ma ustalić czym ma się kierować idealna maszyna.