Authors: Isaac Asimov
Tags: #Ciencia Ficción, Misterio, Fantástica, Cuentos
El sabor más denso se elevaba del suelo; silicatos de toda clase, marcados por la nítida sonoridad de los iones metálicos al separarse y unirse de nuevo. Movió un pie por el polvo crujiente y seco y sintió los cambios como una suave y armónica sinfonía.
Sobre todo, el Sol. Miró a esa esfera gorda, brillante y caliente y oyó su alegría. Observó las onduladas protuberancias que se elevaban en el borde y escuchó sus chisporroteos, así como los otros ruidos felices que se expandían por ese ancho rostro. Cuando se atenuó la luz de fondo, vio rojas bocanadas de hidrógeno, estallando en borbotones chillones, y manchas, que cantaban con voz grave en medio del ahogado silbido de las vaporosas fáculas, y explosiones, que se afilaban como agujas, y rayos gamma jugando al ping-pong con partículas cósmicas. Bañado por la gloria del viento cósmico, vio por doquier el suave, tenue y renovado jadeo del palpitante Sol.
Pegó un brinco y se elevó despacio en el aire, con una libertad que nunca había sentido, y volvió a dar otro brinco al caer y corrió y saltó y corrió de nuevo, y su cuerpo respondía perfectamente a ese mundo glorioso, a ese paraíso.
Al fin en el paraíso, después de ser un extraño durante tanto tiempo.
—Está bien —dijo William.
—¿Pero qué es lo que hace? —exclamó Anthony.
—Está bien. La programación funciona. Ha probado sus sentidos.
Ha realizado observaciones visuales. Ha atenuado la luz del Sol para estudiarlo. Ha analizado la atmósfera y la naturaleza química del terreno. Todo funciona.
—¿Pero por qué corre?
—Creo que es idea suya, Anthony. Si quieres un programa informático tan complejo como un cerebro, debes esperar que posea ideas propias.
—¿Correr? ¿Saltar? —Anthony se volvió ansiosamente hacia William—. Se hará daño. Tú puedes manejar el ordenador. Anula esos impulsos y haz que se detenga.
—No —se negó William—. Correré el riesgo de que se lastime. ¿No lo entiendes? Es feliz. Estaba en la Tierra, en un mundo para el que no estaba preparado. Ahora está en Mercurio, con un cuerpo que se adapta perfectamente a ese medio ambiente, tan perfectamente como pudieron lograrlo cien científicos especializados. Para él es el paraíso. Deja lo que disfrute.
—¿Que lo disfrute? ¡Pero si es un robot!
—No hablo del robot. Hablo del cerebro, el cerebro que está vivo aquí.
El Ordenador Mercurio, encerrado en vidrio, con sus delicados círcuitos, con su integridad sutilmente preservada, respiraba y vivía.
—Es Randall quien está en el paraíso —prosiguió William—. Ha descubierto el mundo por el cual huyó de éste, por medio del autismo. Se encuentra en un mundo con el cual su nuevo cuerpo armoniza perfectamente, a cambio del mundo con el que su viejo cuerpo no armonizaba.
Anthony miró a la pantalla, maravillado.
—Parece que se está tranquilizando.
—Desde luego, y su alegría le permitirá hacer mejor su trabajo.
—Entonces, ¿lo hemos logrado, tú y yo? —dijo Anthony sonriendo—. ¿Nos reunimos con los demás para que nos colmen de adulaciones, William?
—¿Juntos?
Anthony lo agarró del brazo.
Juntos, hermano.
“That Thou Art Mindful of Him!”
Las Tres Leyes de la robótica
:
Keith Harriman, director de investigaciones en Robots y Hombres Mecánicos desde hacía doce años, no estaba seguro de andar por la buena senda. Se relamió sus pálidos labios con la lengua y tuvo la sensación de que la imagen holográfica de la gran Susan Calvin, que lo observaba severamente, nunca había tenido un aspecto tan huraño.
Habitualmente apagaba la imagen de la mayor robotista de la historia porque lo ponía nervioso. (Se esforzaba por recordar que era sólo una imagen, pero no lo conseguía del todo.) Esta vez no se atrevía a apagarla y la imagen de la difunta lo acuciaba.
Tendría que tomar una medida horrible y degradante.
Frente a él estaba George Diez, tranquilo e imperturbable a pesar de la patente inquietud de Harriman y pese a la imagen brillante de la santa. patrona de la robótica.
—No hemos tenido oportunidad de hablar de esto, George. Hace poco que estás con nosotros y no he podido verme a solas contigo. Pero ahora me gustaría hablar del asunto con cierto detalle.
—Con mucho gusto —aceptó George—. En el tiempo que llevo en la empresa he llegado a la conclusión de que la crisis se relaciona con las Tres Leyes.
—Sí. Conoces las Tres Leyes, por supuesto.
—Así es.
—Claro, sin duda. Pero profundicemos y examinemos el problema básico. En dos siglos de considerable éxito, esta empresa no ha logrado que los seres humanos acepten a los robots. Hemos colocado robots sólo donde se han de realizar tareas que los seres humanos no pueden realizar o en ámbitos inaceptablemente peligrosos para los seres humanos. Los robots trabajan principalmente en el espacio y eso ha limitado nuestros logros.
—Pero se trata de unos límites bastante amplios, dentro de los cuales la empresa puede prosperar.
—No, por dos razones. Ante todo, esos límites inevitablemente se contraen. A medida que la colonia lunar, por ejemplo, se vuelve más refinada, su demanda de robots decrece y estimamos que dentro de pocos años se prohibirán los robots en la Luna. Esto se repetirá en cada mundo colonizado por la humanidad. En segundo lugar, la verdadera prosperidad de la Tierra es imposible sin robots. En Robots y Hombres Mécanicos creemos que los seres humanos necesitan robots y que deben aprender a convivir con sus análogos mecánicos si se quiere mantener el progreso.
—¿No lo han aprendido? Señor Harriman, usted tiene sobre el escritorio un terminal de ordenador que, según entiendo, está conectado con el Multivac de la empresa. Un ordenador es una especie de robot sésil, un cerebro de robot sin cuerpo…
—Cierto, pero eso también es limitado. La humanidad utiliza ordenadores cada vez más especializados, con el fin de evitar una inteligencia demasiado humana. Hace un siglo nos dirigíamos hacia una inteligencia artificial ilimitada, mediante el uso de grandes ordenadores que denominábamos máquinas. Esas máquinas limitaban su acción por voluntad propia. Una vez que resolvieron los problemas ecológícos que amenazaban a la sociedad humana, se autoanularon. Razonaron que la continuidad de su existencia les habría otorgado el papel de muletas de la humanidad. Como entendían que esto dañaría a los seres humanos, se condenaron a sí mismas por la Primera Ley.
—¿Y no actuaron correctamente?
—A mi juicio, no. Con su acción reforzaron el complejo de Frankenstein de la humanidad, el temor de que cualquier hombre artificial se volviera contra su creador. Los hombres temen que los robots sustituyan a los seres humanos.
—¿Usted no siente ese temor?
—Claro que no. Mientras existan las tres leyes de la robótica es imposible. Los robots pueden actuar como socios de la humanidad; pueden participar en la gran lucha por comprender y dirigir sabiamente las leyes de la naturaleza y así lograr más de lo que es capaz la humanidad por sí sola, pero siempre de tal modo que los robots sirvan a los seres humanos.
—Pero si las Tres Leyes, a lo largo de dos siglos, han mantenido a los robots dentro de ciertos límites, ¿a qué se debe la desconfianza de los seres humanos hacia los robots?
—Bien… —Harriman se rascó la cabeza vigorosamente, despeinando su cabello entrecano—. Se trata de superstición, principalmente. Por desgracia, también existen ciertas complejidades, y los agitadores antirrobóticos sacan partido de ellas.
—¿Respecto de las Tres Leyes?
—Sí, en especial de la Segunda. No hay problemas con la Tercera Ley. Es universal. Los robots siempre deben sacrificarse por los seres humanos, por cualquier ser humano.
—Desde luego —asintíó George Diez.
—La Primera Ley quizá sea menos satisfactoria, pues siempre es posible imaginar una situación en que un robot deba realizar un acto A o un acto B, mutuamente excluyentes, y donde cualquiera de ambos actos resulte dañino para los seres humanos. El robot habrá de escoger el acto menos dañino. No es fácil organizar las sendas positrónicas del cerebro robótico de modo tal que esa elección sea posible. Si el acto A deriva en un daño para un artista joven y con talento y el B en un daño equivalente para cinco personas de edad sin ninguna valía específica, ¿cuál deberá escoger?
—El acto A. El daño para uno es menor que el daño para cinco.
—Sí, los robots están diseñados para decidir de ese modo. Esperar que los robots juzguen en temas tan delicados como el talento, la inteligencia o la utilidad general para la sociedad nunca ha resultado práctico. Eso demoraría la decisión hasta el extremo de que el robot quedaría inmovilizado. Así que nos guiamos por la cantidad. Afortunadamente, las crisis en las que los robots deben tomar decisiones son escasas… Pero eso nos lleva a la Segunda Ley.
—La ley de la obediencia.
—Sí. La necesidad de obediencia es constante. Un robot puede existir durante veinte años sin tener que actuar con rapidez para impedir algún daño a un ser humano o sin necesidad de arriesgarse a su propia destrucción. En todo ese tiempo, sin embargo, obedece órdenes constantemente… ¿Órdenes de quién?
—De un ser humano.
—¿De cualquier ser humano? ¿Cómo juzgar a un ser humano para saber si obedecerle o no? ¿Qué es el hombre, por qué te preocupas de él, George? —George puso un gesto de duda y Harriman se apresuró a aclarárselo—: Se trata de una cita bíblica. Eso no importa. Lo que pregunto es si un robot debe obedecer las órdenes de un niño, las de un idiota, las de un delincuente o las de un hombre inteligente y honesto, pero que no es un experto y, por lo tanto, ignora las consecuencias no deseables de su orden. Y si dos seres humanos le dan a un mismo robot órdenes contradictorias ¿a cuál debe obedecer?
—¿Estos problemas no se han resuelto en doscientos años?
—No —dijo Harriman, sacudiendo vigorosamente la cabeza—. En primer lugar, nuestros robots sólo se utilizan en ámbitos especializados en el espacio, donde los hombres que tratan con ellos son expertos. No son niños, idiotas, delincuentes ni ignorantes bien intencionados. Aun así, hubo ocasiones en que órdenes necias o meramente írreflexivas causaron daño. Ese daño, en ámbitos especializados y limitados, se pudo contener. Pero en la Tierra los robots deben tener juicio. Eso sostienen quienes se oponen a los robots y, demonios, tienen razón.
—Entonces, debéis insertar la capacidad para el juicio en el cerebro positrónico.
—Exacto. Hemos comenzado a reproducir modelos JG, en los que el robot puede evaluar a cada ser humano en lo concerniente al sexo, la edad, la posición social y profesional, la inteligencia, la madurez, la responsabilidad social y demás.
—¿Cómo afectaría eso á las Tres Leyes?
—La Tercera Ley no se vería afectada. Hasta el robot más valioso debe destruirse en aras del ser humano más inservible. Eso no se puede alterar. La Primera Ley sólo se vería afectada cuando otros actos causaran daño. Se debe tener en cuenta no sólo la calidad, sino la cantidad de los seres humanos, siempre que haya tiempo y fundamentos para ese juicio, lo cual no ocurre a menudo. La Segunda Ley quedaría profundamente modificada, pues toda obediencia potencial debe involucrar juicio. El robot obedecerá con mayor lentitud, excepto si también está en juego la Primera Ley; pero obedecerá más racionalmente.
—De todos modos, los juicios que se requieren son muy complicados.
—En efecto. La necesidad de realizar tales juicios frenó las reacciones de nuestros primeros modelos hasta el extremo de la parálisis. En los modelos posteriores mejoramos las cosas, con el coste de introducir tantas sendas que el cerebro del robot se volvió inmanejable. Sin embargo, en nuestro último par de modelos, creo tener lo que buscamos. El robot no debe realizar juicios inmediatos acerca de la valía de un ser humano ni del valor de sus órdenes. Empieza por obedecer a todos los seres humanos, como un robot común, y luego aprende. Un robot crece, aprende y madura. Es el equivalente de un niño al principio y debe estar bajo supervisión constante. A medida que crece, puede introducirse gradualmente sin supervisión en la sociedad terrícola. Por último, es un miembro pleno de esa sociedad.
—Sin duda esto responde a las objeciones de quienes se oponen a los robots.
—No —replicó irritado Harriman—. Ahora presentan otras. No aceptan juicios. Dicen que un robot no tiene derecho a calificar de inferior a esta o a tal otra persona. Al aceptar las órdenes de A y no las de B, a B se la califica de menos importante que a A, y se violan así sus derechos humanos.
—¿Y cuál es la respuesta a eso?
—No hay ninguna. Voy a desistir.
—Entiendo.
—En lo que a mí concierne… En cambio, recurro a ti, George.
—¿A mí? —La voz de George Diez no se alteró. Dejó entrever cierta sorpresa, pero no se alteró—. ¿Por qué a mí?
—Porque no eres un hombre. Te dije que quiero que los robots sean socios de los seres humanos. Quiero que tú seas el mío.
George Diez alzó las manos y las extendió en un gesto extrañamente humano.
—¿Qué puedo hacer yo?
—Tal vez creas que no puedes hacer nada, George. Fuiste creado hace poco tiempo y aún eres un niño. Te diseñaron para no estar sobrecargado de información en origen (por eso he tenido que explicarte la situación con tanto detalle), con el fin de dejar espacio para cuando crezcas. Pero tu mente crecerá y podrás abordar el problema desde un punto de vista no humano. Aunque yo no vea una solución,.tú quizá la veas desde tu perspectiva.
—Mi cerebro está diseñado por humanos; ¿en qué sentido es no humano?
—Eres el modelo JG más reciente, George. Tu cerebro es el más complicado que hemos diseñado hasta ahora, y en algunos sentidos más complejos que el de las viejas máquinas gigantes. Posee una estructura abierta y, a partir de una base humana, es capaz de crecer en cualquier dirección. Aun permaneciendo dentro de los límites infranqueables de las Tres Leyes, puedes desarrollar un pensamiento no humano.