1- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Estas son las tres leyes de la robótica que propuso en su momento Isaac Asimov y es interesante que en The Singularity Hub se hable de ellas como un mito imposible de cumplir cuando nacieron… para traer problemas ;)