- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Estas son las tres leyes de la robótica, enunciadas por Asimov en 1942.Veamos la primera ley. Básicamente, es un seguro contra la maldad y contra la estupidez. Si prohíbes hacer daño (tanto voluntaria como involuntariamente), no puedes cometer acciones estúpidas que perjudiquen a los semejantes o a uno mismo. El problema está en como implementar la orden. Una acción directa es fácil de clasificar como positiva, malvada o estúpida. Lo difícil es considerar las acciones a largo o medio plazo. Una acción aparentemente positiva puede pasar a ser estúpida a medio plazo. Como en una partida de ajedrez, es muy difícil prever el resultado de una acción. Los humanos más patéticos son los que intentan ser malvados (obteniendo beneficios con perjuicio de los demás) y acaban siendo estúpidos (haciendo daño a los demás sin conseguir nada a cambio). Se os ocurre alguien? Tal vez algún aspirante a político? Algún secretario general? Necesitarían un robot para corregir su conducta. O un electroshock.
Las leyes de Asimov recuerdan a los carteles de algunos bares donde reza:
ResponderEliminarNorma 1: El jefe siempre tiene razón
Norma 2: En caso de que no la tenga, recurrir a la norma 1.
Lo que seguro que nunca hará un robot es abandonar un blog. Debería ser la cuarta ley de Asimov:
ResponderEliminar4.- Un robot debe mantener su blog, a no ser que entrase en conflicto con la 1ª, 2º o 3ª ley. Es decir, lo único que puede impedir que vaya "posteando" de forma sistemática es que con ello haga daño a un ser humano, lo desobedezca o se haga daño a sí mismo.