- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Estas son las tres leyes de la robótica, enunciadas por Asimov en 1942.Veamos la primera ley. Básicamente, es un seguro contra la maldad y contra la estupidez. Si prohíbes hacer daño (tanto voluntaria como involuntariamente), no puedes cometer acciones estúpidas que perjudiquen a los semejantes o a uno mismo. El problema está en como implementar la orden. Una acción directa es fácil de clasificar como positiva, malvada o estúpida. Lo difícil es considerar las acciones a largo o medio plazo. Una acción aparentemente positiva puede pasar a ser estúpida a medio plazo. Como en una partida de ajedrez, es muy difícil prever el resultado de una acción. Los humanos más patéticos son los que intentan ser malvados (obteniendo beneficios con perjuicio de los demás) y acaban siendo estúpidos (haciendo daño a los demás sin conseguir nada a cambio). Se os ocurre alguien? Tal vez algún aspirante a político? Algún secretario general? Necesitarían un robot para corregir su conducta. O un electroshock.