Estas máquinas nos acompañan desde hace siglos. Recuerdo aquella película del Golem, donde cobra vida un humanoide de gran tamaño. Se cuenta que en la época de la Grecia clásica se hizo funcionar una especie de robot, que era una estatua capaz de surtir de vino a quien lo demandara. La literatura, el cine y la televisión ya anticipaban la presencia de los robots. Recuerdo la serie de dibujos animados “Los supersónicos” donde Robotina hacía las labores domésticas, presentaban teleconferencias y autos voladores. El robot doméstico todavía nos queda lejos, igual que los autos voladores.

Pero no estamos tan lejos. Ya se pueden comprar primitivos robots barredores. En Arabia, las carreras de camellos son guiadas por robots jinetes. Google y otras compañías ya cuentan con vehículos autónomos, y parece que tienen menos accidentes que los conducidos por humanos. En grandes fábricas es más rentable tener robots pintores y armadores de autos. En medicina los robots ya operan personas afectadas por diferentes males. Ya existen bots capaces de hacernos creer que son humanos mandando mensajes, ¿o no nos hacen declarar que no somos robots antes de validar nuestras requisiciones?

El punto crítico es la autonomía, y más adelante, el nivel real de inteligencia, y aún un poco más allá, el estado de conciencia. Todavía los robots requieren ser programados, al menos inicialmente, pero ya no requieren ser enseñados, pueden aprender solos. Por ahora los humanos tenemos que construirlos y dotarlos con ciertas características que los capaciten para realizar su labor. Pero pronto robots estarán ensamblando y capacitando robots. No se antoja ya tan lejano que se establezcan cadenas de estos autómatas, organizados en diferentes etapas de producción industrial.

No es difícil imaginar robots mineros, fundidores, productores de acero. El transporte en grandes vehículos autónomos llegando hasta las fábricas y talleres donde otros robots corten y ensamblen a nuevos autómatas y productos de todo tipo, desde máquinas hasta alimentos y medicamentos. Las máquinas no comen, no duermen, no descansan, no se inconforman y no hacen huelgas ni exigen mejores salarios, ni servicios médicos, ni jubilaciones. Es tentador el panorama. De haber accidentes y destrucción, siempre se pueden reponer, a diferencia de los humanos.

En el terreno de la inteligencia las máquinas van ganando terreno. Ya en diseño de software y resolución de problemas técnicos, las computadoras triunfan en el 50% de los casos, es decir, ya empatan con nosotros. Destacan dos sistemas informáticos: Alpha code y chatGTP que actualmente funcionan.  En ajedrez, las máquinas también son fuertes competidoras, aunque una computadora no es precisamente un robot; en todo caso serían el cerebro de robots. Pero ya solo esto es lo más importante, pues agregarle uno o dos brazos es menos desafiante. Ya hay robots que caminan y hacen acrobacias en dos piernas.

El nivel de inteligencia, va en proporción directa a la densidad de unidades de procesamiento y sabemos que esta densidad crece y se duplica alrededor de cada 18 meses. Esto lleva a anticipar lo que se ha llamado “la singularidad”: cuando la inteligencia de las máquinas supere a la de sus creadores. Al menos en velocidad de procesamiento ya hemos perdido. Y no solo se trata de resolver algoritmos matemáticos, pues ya muestran creatividad, como en la composición musical. Quizá nosotros mismos seremos los responsables de que las máquinas nos desplacen del todo.

Ya nos enfrentamos al desbordamiento de otra frontera. Un funcionario de Google ha anunciado que sus bots son sentientes, es decir, tendrían estado de consciencia. Hubo fuertes reacciones y pronto acallaron esa declaración y el funcionario al parecer fue retirado de su puesto. Sin embargo se ha dicho que basta con que uno de esos bots –esencialmente computadoras y software- declare que es sentiente para que tengamos que reconocerlo. En cuanto una máquina se declare a sí misma con capacidad de sentir y reconocerse, estaremos en un dilema que no sabemos resolver hoy en día. ¿Cómo rebatirlo? ¿Cómo confirmarlo? ¿Cómo aceptarlo? ¿Sería nuestro igual, aunque de silicio y plástico?  ¿Qué nos hace humanos: la carne o el estado de conciencia –alma, si se quiere-?

No perdamos de vista que los viajes espaciales plantean una gran oportunidad, pues los robots pueden pasar años sin acusar los efectos que los humanos presentamos por falta de la gravedad, que no necesitan alimentos, solo corriente eléctrica, que es mucho más fácil de suministrar por décadas en el espacio, como nos hacen ver naves espaciales lanzadas hace unas tres o cuatro décadas y aún siguen funcionales, inmersas en el espacio distante, en los confines del sistema solar. Ni qué decir de cómo soportan la velocidad y los cambios súbitos de dirección. Se antoja imposible lanzar a un ser humano en un viaje de años a velocidades cercanas a la de la luz, tan solo para llegar a la estrella más cercana.

Estamos acostumbrados a pensar en robots con manos y piernas, pero esto realmente no es necesario: activar mecanismos ya no requiere acciones de palancas, tuercas y tornillos, a excepción de su construcción, después ni siquiera se necesitan dedos para presionar botones, basta con micro-corrientes eléctricas. En otros casos, como los robots cirujanos, sí se requieren manos y el equivalente de dedos. Otros robots están ya entre nosotros y no tienen manos ni dedos, como las barredoras. Pero también los autos autónomos carecen de manos y piernas. Un caso más ha impactado muy fuertemente: los drones.

Máquinas voladoras capaces de cubrir grandes distancias y tiempos, pero lo más relevante es su capacidad destructiva. Pueden ser guiados desde kilómetros de distancia y dirigir sus proyectiles mortíferos con asombrosa precisión. Si fueran derribados se habría perdido un artilugio tecnológico y mucho dinero, pero ninguna vida, cuando menos del equipo que los guía. Resulta sombrío pensar en su uso militar, pero hasta ahora las guerras han sido constantes a lo largo de la historia de la humanidad y siempre se trata de que no haya bajas en el propio bando. Y si se puede perder una flotilla de drones, nadie dudará que eso es mejor a ver morir a nuestros hijos.

Pensemos en otro caso no militar: rescate en situaciones de alto riesgo, donde un robot no es afectado por gases tóxicos, ciertos niveles de radiación, falta de oxígeno, ciertas intensidades de fuego y hasta derrumbes. Por otro lado, puede aportar más recursos de salvamento que lo que un hombre puede llevar. En este punto surge una posibilidad que no deja de tener graves consecuencias en un momento dado: la autonomía. Un robot podría tener que decidir muy rápidamente ante situaciones inesperadas, donde los humanos a cargo no podrían hacerlo a tiempo, en tanto que la velocidad de procesamiento de las máquinas sí alcanza.

Parece entonces muy deseable que los robots puedan tener autonomía, al menos en ciertos casos, sobre todo si pensamos en protección humana o de valiosos recursos que no nos conviene perder. ¿Pero si la autonomía pudiera resultar en perjuicio del humano? Fuere como efecto colateral o como efecto intencional. Esto nos lleva a un dilema, y con frecuencia no salimos bien librados de ellos, aun cuando tratamos de minimizar los daños. ¿Qué podríamos decirle a una madre? ¿Que su hijo murió, pero gracias a ello se salvaron otros? ¿Bastaría eso?

¿Y si la decisión del robot no fuera todo lo acertada que se pudiera exigir? ¿Y si por salvar a los nuestros respondiera exageradamente destruyendo otras vidas consideradas enemigas o menos valiosas, o menos en número? ¿Estaríamos dispuestos a tolerar, o, peor aun, a programar robots con capacidades letales? Aun los enemigos son nuestros semejantes y no siempre la mejor solución es aniquilarlos. No todos son Hitler. Recordemos Hiroshima y Nagasaki. El dilema para Truman era: sacrificar más vidas de su pueblo, o sacrificar vidas inocentes de Japón. De no usar esa terrible arma, su pueblo habría sufrido mucho, pues se sabía que los japoneses, aun perdida la guerra, seguirían oponiendo feroz resistencia. ¿Mandar más hijos americanos a la muerte, aunque se lograra la victoria al final? ¿O aniquilar muchas más personas inocentes, mujeres y niños en Japón?

No decidió un robot, pero tuvo que tomarse una decisión terrible. Estuvieron en juego sentimientos y aun así las consecuencias fueron funestas. ¿Salida política, negociación? Recordemos que la segunda bomba se lanzó porque, aun con toda la destrucción producida en Hiroshima, los japoneses desestimaron la amenaza aduciendo que seguramente solo tenían una bomba y que ya no podrían hacerles más daño, de modo que estaban dispuestos a seguir peleando. No estoy tratando de justificar la decisión destructora, solo planteando el dilema. ¿Los robots hubieran decidido igual? ¿Ahora mismo, los líderes decidirían igual?

Esto nos lleva a considerar la dimensión ética, que no solo los humanos poseemos, pues hay evidencias en los simios y en otras especies, si bien parece menos desarrollada. Tendríamos que pensar en una ética robótica. Esta ya fue adelantada por un famoso escritor de ciencia ficción: Isaac Asimov, que en su obra “Yo robot” plantea singulares situaciones entre robots y humanos, al igual que en “El hombre del bicentenario”, en el que un robot humanoide decide ser humano, aun sabiendo que con ello moriría.

El caso es que Asimov adelanta una ética robótica a través de lo que él llama “las leyes de la robótica”. Existen varias versiones disponibles, pero la esencia es la misma: 1.- Ningún robot podrá dañar a un humano, ni dejar que por su inacción un humano sufra daño o la muerte. 2.- Pero tampoco un robot dejará de proteger su propia existencia. 3.- A menos que esa autopreservación ponga en peligro a un humano. En aras de la brevedad no abundaré en estas leyes, pero los posibles lectores de este texto pueden acudir a las fuentes referidas.

Finalmente, la policía de San Francisco ya contempla robots letales para eliminar criminales. En una encuesta el 81% de los interrogados estuvieron en contra. Ud que hace el favor de leerme, ¿qué piensa al respecto? En los tiroteos que han sucedido en escuelas con resultados más que trágicos ¿un robot inmune a las balas debería intervenir y eliminar al tirador antes de que hubiera más muertes de niños y maestros? ¿O deberían arriesgar sus vidas los policías? ¿O quizá deberíamos tratar de someter al delincuente sin matarlo, aunque eventualmente esto costara algunas vidas más?

Por último, sin ponernos en extremos que aún no se presentan: ¿cómo resolver el desplazamiento de humanos por robots obreros? Los problemas sociales ya están aquí. En las armadoras de autos hay cada vez más robots, ensambladores, pintores, transportadores y otros. Los robots llegaron para quedarse, y quién sabe si para desplazarnos. ¿Deberíamos procurarles sentimientos? ¿Acaso una verdadera ética robótica? ¿Y si resultan más éticos que nosotros? Pensemos en jueces robóticos que nos sancionaran. Recordemos skynet. Muchas preguntas. Respuestas inciertas. Recordemos que la filosofía sirve más para preguntar que para responder.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *