No, l'uomo non dovrebbe fermare l'evoluzione. Se un futuro sostituto dell'uomo sara' in grado di dare felicita' a se stesso e a tutti, per definizione, esso sara' in grado di dare felicita' pure ai (residuali, eventuali) uomini.
Se no, (ad esempio, se questo futuro superuomo artificiale mostrera' eccessiva volonta' di potenza e vorra' dare felicita' solo a se stesso, magari in danno di altri, compresi tra questi "altri" i "vecchi" uomini, che a questo punto diventerebbero suoi "nemici", o se sara' proprio completamente "fallato", come "nuova invenzione", e non in grado di dare felicita' a nessuno, ne' a se stesso, ne' ad altri) vorra' dire che, noi abiziosi e presenti uomini d'oggi, avremo del tutto sbagliato nel tentativo di crearlo, ma, proprio guardando il presente di oggi, si comprende che valeva, e vale, la pena di correre il rischio.
Ad oggi si corrono (insensti) rischi per cose anche molto piu' grette, e stupide.
Se no, (ad esempio, se questo futuro superuomo artificiale mostrera' eccessiva volonta' di potenza e vorra' dare felicita' solo a se stesso, magari in danno di altri, compresi tra questi "altri" i "vecchi" uomini, che a questo punto diventerebbero suoi "nemici", o se sara' proprio completamente "fallato", come "nuova invenzione", e non in grado di dare felicita' a nessuno, ne' a se stesso, ne' ad altri) vorra' dire che, noi abiziosi e presenti uomini d'oggi, avremo del tutto sbagliato nel tentativo di crearlo, ma, proprio guardando il presente di oggi, si comprende che valeva, e vale, la pena di correre il rischio.
Ad oggi si corrono (insensti) rischi per cose anche molto piu' grette, e stupide.