Asimov nos legó la tres leyes de la robótica:
1.-Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2.-Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3.-Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.
Así pues, dados un mundo donde "Ser humano" fuera igual a Empresa contratante y "robot" igual a empleado contratado, y si en dicho mundo cuando los empleados ficháramos la entrada al curro se nos activara un chip para aplicar al pie de la letra protocolos de atención y demás, chip que pudierámos desactivar al fichar la salida, y dando por supuesto que dicho chip no desactivara nuestra empatía, capacidad de resolución, sonrisa e inteligencia inmediata, qué pasaría, dime, como se podría "proteger la propia existencia" sin entrar en conflicto con la primera y segunda ley?
No hay comentarios:
Publicar un comentario