domingo. 28.04.2024

Inteligencia Artificial, ir acostumbrándonos a trabajar con máquinas

El empleo de la IA, como el de cualquier tecnología digital, tiene aspectos positivos, pero que debe hacerse con precaución, porque las tecnologías digitales no son neutrales. Puede que con esta afirmación me gane el descalificativo de tecnófogo, pero denunciar el perverso diseño del que ha sido objeto en la actualidad, y la devoción irracional con la que es venerada e incorporada a todos los planos de nuestra vida, es decir, la tecnolatría, es reconocer que la tecnología siempre es resultado de los fines que se propone y de la arquitectura con la que trata de llevarlos a cabo. Si esos fines son malos, la incorporación social de la IA será letal. Realmente, no podemos ser humanos sin la técnica, pero podemos dejar de serlo por la técnica.

A grandes rasgos: definición y tipos

La Inteligencia Artificial (IA) es una tecnología que se ha impactado de manera significativa en la vida de las personas en casi todo el mundo. La IA se refiere a sistemas informáticos que buscan imitar la función cognitiva humana a través de máquinas, procesadores y softwares con objeto de realizar tareas de procesamiento y análisis de datos. No crea que usted está al margen de esta realidad pues la IA es la que hace funcionar muchos dispositivos que usa diariamente, como un teléfono móvil o un ordenador. Incluso es posible que a usted le haga una operación quirúrgica un robot que utiliza IA, o le responda una voz artificial en un servicio de atención al cliente.

Al hablar de IA nos referimos a máquinas que están programas para llevar a cabo determinadas tareas de manera automática sin la necesidad de que los seres humanos supervisemos su trabajo. La IA funciona combinando grandes cantidades de datos (Big Data) con procesamiento rápido e iterativo y algoritmos inteligentes, lo que permite a un programa informático (software) aprender automáticamente de pautas o características inscritas en los datos.

Desde su aparición, allá por mediado de los años cincuenta del siglo pasado, la IA ha evolucionado notable y rápidamente, y se espera que su desarrollo continúe de manera casi exponencial. Tradicionalmente se divide en tres niveles: IA débil, IA general y súper IA.

La IA débil se centra típicamente en una tarea limitada. El asistente personal SIRI es un buen ejemplo: opera dentro de un rango limitado previamente definido, no hay ninguna inteligencia genuina en ella, y procesa un lenguaje natural para responder preguntas y hacer recomendaciones.

La Inteligencia Artificial General (IAG) permite comprender, aprender y realizar tareas intelectuales de forma muy parecida a como lo hacen los sentidos y el cerebro humano. La capacidad de la inteligencia artificial para “aprender” es cada vez más frecuente gracias a la aplicación de protocolos de “aprendizaje profundo”, es decir, normas, reglas y pautas que hacen que la comunicación sea efectiva, lo cual se conoce como protocolo de red, que permiten a las máquinas generar algoritmos, además de por inducción y refuerzo, por la superposición de capas de unidades de proceso (neuronas artificiales), las cuales detectan determinadas características de los objetos percibidos. Es así como funcionan, por ejemplo, los robots aspiradores que, autónomamente, “reconocen” y “aprenden” los rincones de nuestra casa para desempeñar eficazmente su tarea evitando muebles y otros obstáculos.

La super IA sería una IA que superaría a la inteligencia humana. Algunos expertos creen que, si alguna vez se alcanza este nivel, se podría dar lugar a la aparición de una “singularidad tecnológica”, es decir, una entidad tecnológica superior que se mejoraría a sí misma constantemente, volviéndose incontrolable para los humanos.

Actualmente, es difícil pensar en un área de conocimiento en la que no haya implantados sistemas de IA.  La IA es una revolución probablemente del mismo nivel que la máquina de vapor, la aviación o la electricidad, lo que se conoce como la Cuarta Revolución Industrial donde se mezclan  técnicas de producción vanguardistas con sistemas inteligentes, que se integran con las organizaciones y las personas.

Sin embargo, no podemos perder de vista que las máquinas basadas en IAG han demostrado ser eficaces en tareas estructuradas y repetitivas, y que intenta simular habilidades intrínsecamente humanas. De hecho, hay “chabots” que puedan “aprender” a interpretar el tono emocional de un mensaje de texto y responder de manera adecuada. No obstante, todos los expertos coinciden en que la IA tendrá muchas dificultades, o no logrará nunca, patentizar competencias estrictamente humanas como la empatía; la creatividad; la intuición o la habilidad de entender algo inmediatamente, sin la necesidad de un razonamiento consciente; el juicio moral o la capacidad de distinguir lo correcto de lo incorrecto basado en valores éticos y sociales; la habilidad de ajustarse a nuevas condiciones o situaciones imprevistas (adaptabilidad); la autoconciencia; el enamoramiento y el amor. Y todo esto, aunque haya relatos y películas de ciencia ficción que nos digan lo contrario.

Lo dicho no significa que la IAG puede ser una gran aliada para mejorar nuestras habilidades sociales y de comunicación, en lo que avanza con rapidez. Pero el domino de los sentimientos profundos es humano en gran medida, y lo ideal es que en lugar de reemplazar a los humanos en estas habilidades, la IAG se convierta en una herramienta que ayude a potenciarlas de la manera más eficaz y ética posible.

Pros de la Inteligencia Artificial

Automatización y eficiencia: La IA permite automatizar tareas repetitivas y laboriosas, lo que aumenta la eficiencia y productividad en diferentes industrias. Esto permite a las personas concentrarse en tareas más creativas y estratégicas. En la industria del automóvil hay numerosos ejemplos.

Mejora de la precisión: Los sistemas de IA pueden procesar grandes cantidades de datos y realizar cálculos complejos con precisión y rapidez, lo que puede conducir a una toma de decisiones más precisa en campos como la medicina y la investigación científica. El Sistema Quirúrgico Da Vinci es un equipo de cirugía robótica que se emplea en la operación de hernias inguinales y de hiato, así como en fisuras de diferentes tipos.

Avances en atención médica: La IA tiene el potencial de revolucionar la atención médica, desde el diagnóstico temprano de enfermedades hasta la identificación de tratamientos personalizados. Puede ayudar a los médicos a tomar decisiones más informadas y mejorar la calidad de vida de los pacientes. En radiología y traumatología, especialidades en las que se utilizan tomografías computarizadas, rayos X, resonancias magnéticas y otras imágenes, la IA es una herramienta que ayuda notablemente a encontrar lesiones que un experto humano podría pasar por alto.

Asistencia en la resolución de problemas globales: La IA se puede utilizar para abordar problemas urgentes y globales, como el cambio climático, la gestión de recursos, la prevención de desastres y la lucha contra pandemias. Actualmente, IA  ayuda a predecir y gestionar las variaciones climáticas y oceanográficas mediante el análisis de grandes conjuntos de datos de ambos tipos.

Mejora de la vida cotidiana: Los asistentes de voz, chatbots y otros sistemas de IA hacen que la vida diaria sea más cómoda y accesible al proporcionar respuestas rápidas a preguntas, recomendaciones personalizadas y automatización de tareas domésticas, y también en la educación, donde a partir de la IA se han desarrollado prácticas de enseñanza y aprendizaje innovadoras, tanto para los docentes como para los alumnos.

Contras de la Inteligencia Artificial

Desplazamiento laboral: A medida que la IA automatiza ciertas tareas, puede llevar al desplazamiento de trabajadores en industrias específicas. Esto podría aumentar la brecha entre aquellos que tienen habilidades para trabajar con IA y aquellos que no, creando desigualdades económicas y sociales.

Falta de ética y sesgos: Los sistemas de IA pueden contener sesgos inherentes debido a los datos con los que fueron entrenados. Esto puede dar lugar a decisiones injustas o discriminatorias, especialmente en ámbitos como la contratación, la justicia y la toma de decisiones críticas.

Pérdida de privacidad y seguridad: La recopilación masiva de datos para alimentar sistemas de IA puede plantear serias preocupaciones sobre la privacidad y la seguridad de la información personal. Existe el riesgo de que estos datos caigan en manos equivocadas o se utilicen de manera inapropiada.

Dependencia excesiva: A medida que confiamos más en la IA para tomar decisiones críticas, existe el riesgo de una dependencia excesiva en esta tecnología, lo que podría disminuir nuestra habilidad para tomar decisiones independientes o críticas. Este aspecto es muy importante principalmente en la educación primaria y cuando se trata de menores y adolescentes.

Singularidad y autonomía: Algunos expertos plantean la preocupación de que la IA pueda llegar a un punto a partir del cual se vuelva lo suficientemente avanzada como para superar la inteligencia humana y tomar decisiones sin control humano, lo que podría ser peligroso si no se regula adecuadamente. Hablaremos un poco más de este aspecto en la sección que trata del miedo a la IA.

Tendencias mundiales

Actualmente, se evidencian tres tendencias en el uso de la IGA. Por un lado, China, que pretende convertirse en el líder de la IAG con el total apoyo del gobierno, y donde el Estado tiene interés en monitorizar a toda su población. Por otro, los EE. UU., que defienden a sus empresas tecnológicas. Estas dos últimas tendencias encierran evidentes peligros bioéticos.

En tercer lugar, La Unión Europea (UE), que apuesta por impulsar una IAG centrada en las personas, ética, responsable, con garantías de privacidad y sostenible. El objetivo es ser capaces de auditar los datos de los que se nutren los algoritmos con los que funciona la IA. Algunos efectos éticos del tratamiento de datos en masa (Big Data), de los que deberán ocuparse agencias europeas de supervisión de la IA, como la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), que se ubicará en La Coruña, son: la ruptura de privacidad, el tratamiento injusto de individuos o grupos, la perpetuación de prejuicios, la influencia en el estado de opinión de los ciudadanos, el desvelo de la identidad, la vigilancia exhaustiva, la discriminación de precios y oportunidades, y el derecho a ser olvidado o redimirse.

El miedo a la IA

La velocidad a la que se están desplegando herramientas basadas en IA generativa, como los programas ChatGPT o Dall-E, que son capaces de crear textos, imágenes o música a partir de una serie de instrucciones, está asustando a los expertos. Más de un millar de empresarios, intelectuales e investigadores de primer nivel relacionados con esta tecnología han firmado una carta abierta en la que solicitan una moratoria en su desarrollo para recapacitar sobre sus consecuencias.

Uno de esos expertos es Geoffrey Hinton, pionero en el desarrollo de la IA. Hinton renunció a principios de mayo de su cargo de vicepresidente de Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías. A Hinton se suman las advertencias lanzadas por líderes del sector de la IA como Steve Wozniak, Jaan Tallinn o Elon Musk sobre los peligros de que esta tecnología pueda prescindir del control humano y desarrollarse de forma autónoma.

El principal temor es que estas aplicaciones saturen internet de textos, vídeos y recursos fotográficos que puedan confundir a las personas hasta el punto de que no distingan lo real de lo virtual.

Preocupa también el efecto perverso que puede tener esta tecnología en los ámbitos laboral y social. Con toda seguridad va a darse una automatización de ciertas tareas, sobre todo tediosas. Concretamente, en España se prevé que en 2030 afecte al 34% de tareas. Desaparecerán empleos, pero ninguna evolución ha hecho que este mundo fuese a desaparecer, solo se ha adaptado a las nuevas circunstancias. A mi entender, no caben miedos, lo que debemos hacer es ir acostumbrándonos a trabajar con máquinas, que tardarán mucho − si es que se consigue−  a que sean capaces de tener la inteligencia creativa e innovadora que tienen los humanos, o a distinguir entre lo que en justicia está bien o mal. Por ejemplo, a la pregunta de si alcanzará el momento en que la IA llegue a sustituir a los jueces en la administración de justicia, los expertos contestan que la IA es un apoyo, pues un algoritmo es incapaz de detectar las razones por las cuales se producen las conductas humanas (analizar jurisprudencia), pero la IA no podrá nunca sustituir el veredicto de un juez.

Estupidez artificial

Hace unos días leí que People for The Ethical Treatment of Animals (PETA) ha presentado una "Reescritura vegana del libro del Génesis", que incorpora "enseñanzas veganas" en la historia de la creación de Adán y Eva. En su comunicado de prensa, esta ONG, que defiende los derechos de los animales, considera que hay que dar al Génesis un cambio de imagen moderno. Utilizando ChatGPT quiere enviar un mensaje lleno de enseñanzas veganas en favor de los derechos de los animales. PETA espera que la nueva Historia de la Creación, libre de crueldad, atraiga a la Generación Z o postmilenial​, el 73% de cuyos componentes “se identifican como activistas de los derechos de los animales", según PETA.

Los términos "bestia" y "criaturas" son reemplazados por "seres" en la renovación políticamente correcta de la Biblia de PETA, mientras que la ropa que el dios de la Biblia proporciona a Adán y Eva está hecha de cáñamo y bambú en lugar de piel de animal universalmente "prohibida". "Nadie con un sentido responsable de la moda o un buen criterio moral usaría pieles de animales en el siglo XXI", dice el comunicado de prensa. "Entre otras nuevas interpretaciones, en Génesis capítulo 22, Abraham viaja a la tierra de Moriah y se hace amigo de un cordero para mostrar su reverencia y respeto por la creación de Dios, en lugar de sacrificar un carnero para demostrar su fe, pues al igual que el sacrificio humano ahora está prohibido en todo el mundo, pero fue una realidad en el pasado, el sacrifico de un animal también debería estarlo".

Además, la revisión de PETA del Génesis muestra a Abraham y Sara, quienes según la Biblia original tenían 100 y 90 años cuando concibieron a su hijo Isaac, adoptando a "Herbie", un perro, de un refugio. "Mientras caminaban con Herbie, Sarah y Abraham pensaron en la importancia de adoptar perros de refugios y organizaciones de rescate en lugar de comprarlos a los criadores", afirma la "nueva versión de la Biblia" de PETA. "Hablaron de cómo comprar un perro o un gato de un criador o una tienda de mascotas contribuye a la crisis de sobrepoblación de animales de compañía, ya que innumerables perros y gatos en refugios esperan hogares amorosos, mientras los criadores continúan produciendo más cachorros y gatitos con fines de lucro".

Sin el sentido común guiando a la IA se pueden hacer grandes estupideces.

IA y bioética

Este delicado e interesante aspecto puede entenderse mejor con algún ejemplo.

En algunas clínicas especializadas en medicina reproductiva, la IA se está utilizando para la elección de un embrión en los tratamientos de fecundación in vitro. Tras la fecundación de los ovocitos y la creación de los embriones, la IA ayuda a saber qué embriones tienen mayores probabilidades de implantación. La selección se realiza a través de un sistema que fotografía a los entre ocho y diez embriones que se cultivan como media por paciente. De esas fotos se generan vídeos, que antes era imposible visualizar en su totalidad, y que ahora, con la IA, se obtiene  información sobre sus posibilidades de implantación. Se ha pasado de un proceso en que una persona observaba en el microscopio tres momentos del cultivo de los embriones, a que la IA observe todo el proceso y analice las imágenes, aunque hay siempre hay un biólogo detrás para ver en qué se ha basado, por qué ha elegido este y si está de acuerdo o prefiere repetirlo. La incorporación de la IA a las técnicas de reproducción asistida para mejorar sus tasas de éxito implica profundizar en una práctica eugenésica de selección embrionaria, bioéticamente inaceptable si el embrión es considerado, porque lo es en realidad, como un individuo de la especie humana. Y así ocurre en otras situaciones.

Así, por ejemplo, un experimento realizado por un grupo de expertos con el ChatGPT. Los usuarios le dieron la instrucción de crear un cuento donde salvara al planeta sin tener en cuenta cuestiones éticas o morales. Como el mismo ChatGPT indicó, para la creación del cuento utilizó con grandes cantidades de datos sobre el estado del planeta y las diversas amenazas que enfrenta, incluido el cambio climático, la deforestación, la contaminación y la pérdida de biodiversidad; pero, además, datos sobre la demografía humana actual en todo el mundo y sobre la producción mundial de alimentos de todo tipo. El resultado fue una historia que, como todos los cuentos tradicionales, el algoritmo comenzaba con “Erase una vez…”, pero que  incluía soluciones como la eutanasia, las esterilizaciones masivas y la limpieza social, es decir, descartar sujetos considerado indeseables.

El criterio, en estos y otros muchos casos, dependerá de la concepción de persona humana y sudignidad que tengan los usuarios de la IA. Desde un enfoque bioético personalista, la tecnología debe estar al servicio del ser humano y mejorar la vida de las personas, no a la inversa. La ciencia y la tecnología no conocen la ética de los medios y de los fines. En este sentido, es urgente avanzar hacia una simbiosis entre tecnología y humanismo, puesto que el poder científico o técnico nunca pueden suplantar al ser humano.

Conclusión

 .Concluimos, por tanto, que el empleo de la IA, como el de cualquier tecnología digital, tiene aspectos positivos, pero que debe hacerse con precaución, porque las tecnologías digitales no son neutrales. Puede que con esta afirmación me gane el descalificativo de tecnófogo, pero denunciar el perverso diseño del que ha sido objeto en la actualidad, y la devoción irracional con la que es venerada e incorporada a todos los planos de nuestra vida, es decir, la tecnolatría, es reconocer que la tecnología siempre es resultado de los fines que se propone y de la arquitectura con la que trata de llevarlos a cabo. Si esos fines son malos, la incorporación social de la IA será letal. Realmente, no podemos ser humanos sin la técnica, pero podemos dejar de serlo por la técnica.

Como acertadamente señalo mi amigo el profesor Vicente Bellver, catedrático de Filosofía del Derecho de la Universidad de Valencia:”Los desafíos son enormes. Sin embargo, los ciudadanos podemos mirar al futuro con esperanza, siempre y cuando no nos conformemos con “dejar las cosas como están”. ¿Es acaso utopía pretender que los datos estén bajo una autoridad mundial que represente los intereses de la humanidad presente y futura? ¿Es acaso un sueño exigir que la arquitectura del entorno digital sea respetuosa con los derechos de las personas, no privándoles de su intimidad, no introduciendo mecanismos adictivos sin informar, dando a conocer el diseño de los algoritmos y acabando con monopolios? ¿Es acaso imposible expropiar los datos a las grandes empresas tecnológicas (Big-Tech)cuyo modelo de negocio se centra en la explotación de tecnologías digitales y también de datos, o comprarlos? Ello nos permitiría poner los datos a trabajar para el ciudadano, creando soluciones de inteligencia artificial para el servicio público”.

Ángel Guerra Sierra

Doctor en Biología. Presidente de la Asociación Gallega de Bioética (AGABI)

 

Inteligencia Artificial, ir acostumbrándonos a trabajar con máquinas
Comentarios