En muchas publicaciones se habla de los chat bots y se han convertido en una gran noticia dadas sus amplias y sorprendentes aplicaciones. Hace ya muchos años surgieron las primeras versiones, desde luego, con poderes muy limitados en comparación a lo que ahora se anuncia. Recuerdo en especial una versión en la que el usuario podía “hablar” con un psicoanalista, representado por la figura de Sigmund Freud. Podía uno hacerle preguntas y el sistema respondía de modo aparentemente coherente. En realidad el programa tomaba las últimas palabras de la pregunta y con ellas formulaba un comentario, o una nueva pregunta, por lo general pidiendo una ampliación y así daba la impresión de llevar una conversación.

Después de un rato de estar usando el programa, muchas personas llegaban a pensar que de verdad hablaban con una persona, aun cuando sabían que era un programa de computación. En ese entonces, tendrá más de 30 años, la idea de poder hablar con una máquina era algo todavía lejano. Las máquinas podían contestar preguntas, pero lo hacían de manera mecánica, seleccionando de entre unas base de datos la respuesta que correspondiera. El usuario podía seguir preguntando y la máquina respondiendo, pero no había una interacción real, de modo que era fácil darse cuenta que del “otro lado” solo había un selector automático de respuestas.

Todavía más antes se había diseñado una prueba, allá por 1950, Alan Turing propuso poner a prueba las capacidades de una computadora para hacerse pasar por un humano. Para poner en estudio la posibilidad de que el pensamiento solo fuera resultado de procesos computacionales, en 1980 el filósofo John Searle ideó un experimento mental llamado “la habitación china”, donde una persona dentro emitía papeletas por una rendija, con resultados impresos a preguntas específicas, estas escritas en chino, y dentro de la habitación una persona que no sabe chino, pero que tiene manuales que le dicen qué respuesta emitir ante ciertos caracteres chinos que él no entiende en realidad.

Entre el que pregunta y el que responde se da un intercambio de papeletas impresas y de ello la persona del exterior debe concluir si quien está dentro sabe, o no, chino. El intercambio pregunta (papeleta en chino)-respuesta (papeleta traducida al inglés, o cualquier otro idioma) es resultado de procesos automáticos predeterminados y en realidad no suponen que quien responde realmente entienda el chino. Algo parecido hacen los chatbots actuales, aunque, claro, con más sofisticación. En realidad, tanto la prueba de Turing, como la “habitación china” han estado sujetas a innumerables discusiones y experimentos mentales y no mentales. En el fondo de la discusión yace el problema de lo que es el pensamiento y cómo se puede simular (¿o representar?) mediante procesos automáticos que en realidad no requieren pensar.

El caso es que ahora los chat bots han surgido de manera impactante, y tanto la compañía Open AI y Google ofrecen ya versiones públicas de sus sistemas. Se puede chatear con GPT4 y se obtienen resultados impresionantes. La máquina contesta de manera personal y se puede interactuar con ella, ya que esta misma nos puede hacer preguntas y seguir el hilo de una conversación. Las respuestas son coherentes y atinadas y la propia máquina, según la versión usada, se declara incompetente e ciertas áreas, como en lo que se refiere la actualización de datos, pues cuenta con información hasta 2021 (Chat GPT 4), sin embargo, un modelo de Google sigue actualizándose continuamente desde la red.

Probablemente muchos de nosotros ya hemos interactuado con estos y otros bots y no lo hemos detectado. Hasta ahora se han dedicado a labores relativamente sencillas, como programar citas, reservar boletos y otras similares. Eso ha hecho posible extender los servicios 24hs al día, todos los días. Una versión más sofisticada del cajero automático. Si ahora Ud muestra interés en comprar un auto y explora la información en la página web, de inmediato aparece un mensaje de un empleado “virtual” listo para atenderlo a cualquier hora, sin necesidad de tener a una persona dando informes relativamente simples y repetitivos.

Hasta aquí parece muy buena opción, pero hay mucho más. Han aparecido bots más poderosos, capaces de hacer diagnósticos médicos, a partir de la descripción no técnica que los propios pacientes pueden hacer a partir de lo que sienten y ven. El porcentaje de diagnósticos certeros es mayor que el de los “sistemas expertos” de antes, aunque aún no alcanzan a los médicos humanos (88% contra 96%). Estos sistemas, que pertenecen al grupo de “Grandes Modelos de Lenguaje”, son alimentados con grandes bases d datos de cómo hablan, contestan y preguntan los humanos, de modo que pueden emularlos con alto grado de éxito. Sería una buena ayuda usarlos como filtros para la atención médica persona a persona, de modo que los pacientes llegaran mejor clasificados.

Pero hay varios inconvenientes. En primer lugar, las respuestas no siempre son congruentes. En segundo lugar, los bots en ocasiones inventan datos para sustentar sus afirmaciones, y lo peor es que las elaboran tan bien, que parecen reales. Sería una gran carga de trabajo para los médicos revisar y encontrar estos posibles errores. Por otro lado, los bots tienden a mostrar sesgos y prejuicios: prescriben menos analgésicos a mujeres, diagnostican más esquizofrenia en pacientes negros y otras desviaciones provenientes de prejuicios raciales y de género. Paradójicamente, tienden a generar más confianza en los pacientes que los propios médicos, de modo que los pacientes podrían revelar datos sensibles, algunos intrascendentes, como problemas familiares menores, otros más riesgosos, como la dirección IP de su computador, o su localización geográfica. Aparece entonces un nuevo concepto: “empatía vacía”, ¿simpatizas con un programa de computación?

Tampoco sabemos qué clase de orientación puedan dar a un paciente con problemas como angustia y depresión, o ideas suicidas, ni hasta dónde sus diagnósticos y consejos puedan impactar negativamente a personas susceptibles. Por lo pronto, se aconseja no usarlos en problemas graves, o que impliquen riesgos para la vida, por lo que no se recomienda aplicarlos para generar instrucciones a seguir en procedimientos médicos. Sin embargo, han alimentado a estos sistemas con preguntas y respuestas reales de exámenes oficiales en Estados Unidos de Norteamérica empleados para certificar profesionistas y adjudicar licencias para el ejercicio de la medicina, y los han aprobado, de modo que no son nada improvisados, sino que muestran competencias reales y sólidas.

Estamos ante entidades creadas por nosotros, que aparentan rasgos humanos y hasta simpatía, que son capaces de desplegar mayor paciencia que los médicos humanos, que no se fatigan, que no sienten la presión del paso del tiempo, que no se angustian por los problemas de sus pacientes y que tienen un bagaje teórico impresionante. ¿Y cuando haya robots humanoides equipados así? Pero no solo en medicina, ya componen música, generan pinturas y crean obras literarias. Ya es posible encontrar una amplia variedad de libros que instruyen acerca de cómo usarlos para generar discursos, presentaciones, libros enteros. Ahora es posible escribir un libro sin tener que escribir ni que pensar nada, solo hay que saber dar los “prompts o instrucciones-temas básicos y el chat escribe el ensayo correspondiente, con la posibilidad de replantear o modificar los alcances y alternativas de textos que solo surgieron de una idea general, plasmada en un renglón y que esa persona, que solo dio la idea, se adjudicará.

Habría que replantearse muchas cosas. ¿Qué tan válidos serán ahora los trabajos escolares de investigación, si ya el copy-paste los había vuelto dudosos? ¿Y las tesis, de licenciatura, maestría o doctorado? ¿O las obras literarias atribuibles a autores humanos? Ahora resulta que aparecen nuevos” autores” que no son autores. Algunos ya los citan en sus trabajos como coautores. Otros alegan que no pueden ser coautores porque no son sujetos responsables. Otros dicen que deben citarse los pasajes que hayan creado y atribuírselos al sistema. Si ya antes teníamos problemas con el plagio, que nunca ha sido fácil de fundamentar, ahora hay bots especializados en parafrasear, de modo que desaparezca el posible plagio. Si ya teníamos problemas con los “escritores fantasma” que apoyan a todo tipo de políticos y otras personalidades públicas y que escriben a su nombre, a veces en completo anonimato remunerado, ¿qué haremos ahora que el escritor fantasma se ha digitalizado y sus honorarios corresponderán al pago del software, cuando no sean gratuitos?

Y si damos en encomendar las partes más difíciles y creativas a estos bots ¿dónde irá quedando nuestra capacidad de creación? Es cierto que estos sistemas son capaces de ver información y lazos ocultos en grandes volúmenes de información, pero eso no quiere decir que descansemos en su capacidad discursiva para evitarnos el trabajo de pensar. Si las máquinas virtuales, porque ni siquiera son físicas, serán las encargadas de “pensar” o crear nueva información recombinando datos aparentemente inconexos ¿cuál será nuestro papel? Podría argumentarse que esas máquinas requieren creadores y programadores para surgir y dar servicios oportunos, pero ¿cuántos tendríamos esa capacidad?

Y todavía más: ¿y si las propias máquinas planean y construyen nuevas máquinas capaces de desplazarnos, al menos en el tiempo de procesamiento? Y los que no podamos crear y programar esas máquinas ¿qué haremos? Ya ni apretar botones, porque las propias máquinas lo hacen y de mejor manera que nosotros. Entre menos pensemos, menos pensaremos. Estaremos perdiendo capacidad cerebral y estaríamos ante lo que se ha llamado la “singularidad”, cuando las máquinas sean más inteligentes que nosotros. Quizá entonces decidan que no nos necesitan más, que incluso somos un estorbo y una inconveniencia y nos exterminen. Quizá entonces dependamos como nunca de “Las tres leyes de la robótica” propuestas por el escritor de ciencia ficción Isaac Asimov (ver “Yo robot” e “Historias de robots”), una de las cuales dice que “un robot jamás producirá daño a un humano, ni dejará que ocurran esos daños por su inacción”, palabras más, palabras menos. ¿Podremos confiar en que esa ley se cumpla? ¿O estamos ante una etapa nueva, insospechada hasta hace poco, etapa evolutiva de los seres antes solo vivos, y ahora con vida e inteligencia artificial?

Ya Alemania e Italia planean prohibir estos bots (ver https://www.trt.net.tr/espanol/ciencia- y-tecnologia/2023/04/04/alemania-podria-prohibir-el-chatbot-de-inteligencia-artificial- chatgpt-al-igual-que-italia-1969673). Ud, que hace el favor de leerme, qué piensa.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *