Los expertos que han participado en el debate del Club de Humanidades, organizado por el Consejo Social de la ULPGC, coincidieron en la necesidad de regular la Inteligencia Artificial. Este fue el tema del debate que contó con las opiniones de Mario Hernández Tejera, catedrático de Ciencias de la Computación e Inteligencia Artificial de la ULPGC; Inmaculada Perdomo Reyes, profesora del Área de Lógica y Filosofía de la Ciencia de la Universidad de La Laguna; Antonio Núñez Ordóñez, catedrático de Tecnología Electrónica de la ULPGC, y Javier Ercilla García, juez del Juzgado de lo Social Número 10 de Las Palmas de Gran Canaria y experto en Nuevas Tecnologías.
La segunda sesión del Club de Humanidades abordó, desde distintos puntos de vista, la ‘Regulación de la Inteligencia Artificial: Equilibrio entre la protección de los derechos y libertades y el incentivo a la innovación tecnológica’, un tema de máxima actualidad, que fue analizado con las opiniones de varios expertos relacionados con el campo de la docencia, la legislación jurídica y las Nuevas Tecnologías.
Antes del inicio del debate, celebrado en el Salón de Actos del Edificio de Humanidades de la ULPGC, el presidente del Consejo Social, Ángel Tristán Pimienta, agradeció su asistencia a las autoridades académicas y al público asistente. “El primer debate, sobre la Ley del Bienestar Animal, era un asunto de una gran actualidad, y hoy se debatirá sobre un tema que presenta enormes desafíos: la velocidad de vértigo de los descubrimientos sobre la llamada Inteligencia Artificial”.
Recordó que la intención del Club de Humanidades es “acercar la Universidad a la sociedad, y viceversa. En este sentido, la Inteligencia Arificial (IA) es sin duda uno de los proyectos en desarrollo que plantean más interrogares en casi todos los campos. En esta mesa participan cuatro personalidades, que desde distintos ángulos van a tratar de plantearnos y de analizar los peligros, las soluciones y los distintos desafíos que plantea”.
Tristán Pimienta señaló que la IA es “un instrumento que, como todos, puede servir al bien o al mal. Por eso hay que regularlo, protegiendo por una parte los derechos y por la otra las ventajas de los descubrimientos de la ciencia, porque la IA despierta una doble sensación: esperanza y temor y por eso, también, hemos querido plantear este debate entre expertos de la Universidad o de las actividades profesionales concernidas”.
Mario Hernández centró su intervención en los riesgos que conllevan tanto las creaciones científicas como las precientíficas “que han dado lugar a cambios en nuestra relación con el mundo y han modificado las maneras en que se desenvuelven y desarrollan las sociedades”. Citó ejemplos como el control del fuego, el conocimiento de metales o la máquina de vapor, conocimientos que, según dijo, generaron tecnologías disruptivas que cambiaron e hicieron avanzar a la sociedad. “Estos dos últimos siglos se han desarrollado tecnologías disruptivas muy diversas que llevaron asociados riesgos gestionados de diferente manera”. Y se refirió a tres casos: la Tecnología Atómica, la Biotecnología y la Tecnología de Inteligencia Artificial.
En el primer caso, contó como en 1939, Einstein y Szilard enviaron una carta al presidente Roosevelt para advertirle de los riesgos de la energía nuclear. “La carta se envió discretamente y el mundo no supo de ella hasta tiempo después. Roosevelt creó una Comisión Científica para estudiar la situación que se convertiría en el Comité Consultivo del Uranio y en 1942 se transformaría en el proyecto Manhattan, que culminó con la fabricación de la bomba atómica. “Aquí ni científicos ni ciudadanos tuvieron nada que ver con la decisión tomada”.
En el campo de la Biotecnología se refirió al desarrollo de las técnicas de ADN recombinante, en los años 70, que permitían insertar ADN de un ser vivo en otro. Esta tecnología generaba grandes expectativas, pero aparecían grandes riesgos de generar quimeras infecciosas muy peligrosas e incontrolables. Ante la falta de control de las decisiones de experimentación, un grupo de científicos organizó el congreso Asilomar II, al que invitaron a expertos en derecho y a periodistas para que divulgasen los debates. “Se trataba de desarrollar unos protocolos experimentales de seguridad y unas normas básicas de experimentación abiertas a la sociedad para que no ocurriera lo del Comité Asesor de Roosevelt” con una tecnología que podía ser potencialmente peligrosa.
Sobre la Tecnología de Inteligencia Artificial, el investigador se refirió a la carta abierta hecha pública, hace un mes, por un grupo de investigadores, inversores, e industriales, para abrir un debate en la comunidad sobre la explotación incontrolada de los Modelos Grandes (LM) de Inteligencia Artificial post GPT-4, solicitando una moratoria de seis meses en el desarrollo, y la experimentación libre y sin control de estas Soluciones de IA que se están aplicando en muchos ámbitos.
Hernández Tejera enumeró algunos de los riesgos de la explotación incontrolada de estos modelos que, a la vez son muy potentes para desarrollar soluciones de Inteligencia Artificial y abre grandes expectativas de desarrollo muy útiles para la sociedad. “Los científicos firmantes ya están exponiendo algunos de los que consideran riesgos: son sistemas insuficientemente experimentados antes de ponerlos en producción; de ellos surgen múltiples aplicaciones sin suficiente control de sus efectos; son capaces de manejar el lenguaje con una calidad superior al humano promedio y es posible generar “fakes” (falsedades) con ellos: simular falsas identidades digitales, falsas noticias, canales de comunicación emisores de noticias falsas, falsas imágenes, videos, películas y otras muchas situaciones que surgirían de la imaginación humana”.
En cuanto a cómo podría abordarse el control para reducir los riesgos, Hernández Tejera señaló dos vías “que pueden ser excluyentes o complementarias”: por un lado la autorregulación de la industria, “una opción difícil, aunque no imposible, dado que es un sector en manos de muchas empresas, algunas muy grandes, con variedad de planteamientos estratégicos y un valor alto de monetización de algunos de los productos, y la regulación pública, “compleja, pero probablemente la más adecuada a causa de la globalización, que implica la actuación de actores públicos importantes como los gobiernos de EEUU, de la UE o de otras grandes potencias”. Recordó que en EEUU existe ya una Comisión trabajando en ello y en la UE ya ha comenzado también un proceso legislativo en esa línea. Planteó también que los legisladores deberían escuchar y tener en cuenta la visión de los investigadores y tecnólogos conocedores de este dominio.
Inmaculada Perdomo expuso que la IA está presente “en infinidad de herramientas tecnológicas que utilizamos a diario y observamos atónitos cómo los avances significativos se producen a una gran velocidad. Vivimos en una era tecnológica sin precedentes y disfrutamos de muchos de los servicios y facilidades que nos proporciona”. Ante esta realidad, en su opinión, la sociedad debería reflexionar, de una manera crítica e interdisciplinar, sobre las consecuencias y efectos no deseados de la innovación tecnológica, además de regular de manera ética y legalmente sus prácticas.
Para la profesora de la ULL, la tecnología “no es buena o mala, dependiendo de su uso, es defendible o no dependiendo de los principios y valores que guían y atraviesan sus prácticas y de los objetivos trazados, estos parámetros son más ciertos aún en el ámbito de la IA”. La IA con aprendizaje autónomo basada en redes neuronales es capaz de realizar correlaciones e inferencias a partir de los millones de datos que utilizan (bases de datos, de imágenes, resultados de las interacciones humanas con smartphones, etc), que reflejan, como si de un espejo se tratara, el cúmulo de rasgos y características humanas pero también los sesgos y estereotipos que siguen estructurando nuestras sociedades”.
Indicó que los ejemplos de sesgo algorítmico adquirido a través de los datos, son múltiples y muy variados y tienen que ver con el carácter de las bases de datos “que en realidad no representan al conjunto de la población. Las IA generativas reifican y ponen en circulación las brechas y sesgos ya existentes, pero otorgándoles un barniz de objetividad y neutralidad a pesar de la opacidad de la mayoría de estos procesos. Pueden ser verdaderos mecanismos automatizados de reproducción y generación de desigualdades y exclusión. La situación es de clara injusticia algorítmica y epistémica y nos enfrenta con retos de gran envergadura en el ámbito educativo, en el del trabajo y, especialmente, en los procesos de tomas de decisión pública y en los procesos de generación y transferencia de los conocimientos”.
En su opinión es necesario incrementar el esfuerzo reflexivo de profesionales de diferentes áreas para afrontar los problemas éticos, legales, epistémicos, sociales y educativos que ya están generando estas tecnologías disruptivas. “La innovación tecnológica va por delante del debate ético y del marco legislativo y se aleja peligrosamente del ideal de Innovación e Investigación Responsable (RII) diseñado por la propia UE para su Espacio Europeo de Investigación, aunque es la propia UE quien comienza a dar pasos activos hacia la necesaria regulación.
Antonio Núñez, se refirió también a las regulaciones sobre las que está trabajando el Parlamento Europeo y la UE, tanto a las regulaciones en positivo como a las prohibiciones, en especial a la prohibición de aplicar IA en vigilancia biométrica, reconocimiento de emociones, acciones policiales predictivas potencialmente o discriminatorias.
Expuso las diferencias entre las regulaciones específicas que se usan en la investigación científica sobre las que dijo que, “no hay necesidad de regular prácticamente nada”, y las generales como ChatGPT que introducen riesgos a gran escala para la población y es necesario regular. “Lo más práctico es exigir autorizaciones y licencias para su despliegue, sujetas a superar pruebas de seguridad, transparencia, inocuidad, limitación de sesgo, no discriminación y neutralidad tecnológica. La UE está avanzando en esa regulación y al operar con licencias, se define un marco de responsabilidad y de sanciones”. Añadió que las regulaciones, buscan un equilibrio entre la protección de los derechos fundamentales y la seguridad jurídica de personas, entidades y empresas, con la necesidad de continuar estimulando la innovación en Europa.
El catedrático de Tecnología Electrónica, cree que la población y los medios de comunicación “hacen bien” en preocuparse por los efectos que pudiera tener la IA sobre el empleo “porque van a ser muy serios. Los centros educativos comenzarán pronto a modificar sus planes de estudio para preparar a sus alumnos para las nuevas profesiones”.
En su opinión, la regulación debe respetar un marco de convivencia que blinde los derechos de los más débiles, pero considera que lo mejor es adaptarse personalmente al cambio. En este sentido señaló que “hay que crear una cultura personal de no exponerse excesivamente a los nuevos medios de la sociedad de la información, de no enseñar demasiado, hay que aprender a mantener cierta privacidad, de lo contrario la IA va a conocer demasiadas cosas de ti, de tu perfil, y puede usarlo para fines que no nos gustaría conocer. Al mismo tiempo, hay que crear una cultura para saber aprovechar las poderosas técnicas de IA para el trabajo personal. Aunque ya se aprovechan en la investigación, hay mucho campo de desarrollo en la innovación, en la aparición de nuevos negocios y profesiones, en la IA profesional, y también en la capacidad de la IA de actuar como asistente en el propio trabajo”.
A modo de conclusión Antonio Núñez afirmó que hay que confiar en la IA Específica, en técnicas concretas, y en su ayuda al trabajo o a la investigación, pero hay que desconfiar de la IA General, “esa que tiende a verse como un oráculo infalible o muy autorizado cuando la población está poco informada. Hay que mantener espíritu crítico y estar atentos a los sesgos que se construyan en las IA”.
Javier Ercilla expuso que la propuesta de la UE para regular la IA supone “un paso importante para garantizar que se utilice de manera segura y responsable”, pero también cree que es importante que esta regulación esté equilibrada “de manera que proteja la seguridad y el bienestar de la sociedad, sin obstaculizar innecesariamente la investigación, el desarrollo y la innovación en el campo de la IA”.
En este sentido, Ercilla manifestó que es esencial que la regulación de la IA “se aplique de manera justa y equitativa y que proteja a las personas contra el uso potencialmente dañino en la esfera privada y contra la vulnerabilidad socioeconómica”. El experto destacó la importancia de contar con una regulación, “que tenga un alcance global y que los sistemas de alto riesgo estén sujetos a requisitos de regulación más estrictos”.
En su opinión y desde el punto de vista de la Administración de Justicia, considera que toda IA que se utilice, al igual que la que se emplee en las Administraciones Públicas, tiene que ser transparente. “Debe de facilitar la auditoría del código y de los datos tomados para el entrenamiento, de tal manera que se garantice la publicidad propia de los procedimiento judiciales, así como la transparencia en los procesos públicos de toma de decisión”.
Javier Ercilla abordó los puntos clave relacionados con la Proposed EU AI Act, las exenciones para la seguridad nacional y cómo afectan el alcance de la legislación y la autonomía de los estados miembros, y expuso los cambios introducidos para proteger la investigación, el desarrollo y la innovación en el campo de la IA.
En su intervención, destacó los esfuerzos realizados para proporcionar una definición más clara de la IA, la infraestructura crítica, los datos personales, los datos no personales y la manipulación. Además, Javier Ercilla analizó “las extensiones de las prohibiciones para incluir la puntuación social en la esfera privada y la vulnerabilidad socioeconómica, así como la explicación del uso de la IA en los seguros como de alto riesgo”. Resaltó el alcance de la propuesta en términos de la eliminación de las fronteras jurisdiccionales y la clasificación de los sistemas de IA que ya están obligados a someterse a una evaluación de conformidad de terceros como de alto riesgo.