La inteligencia artificial puede y debe regularse por los riesgos de conductas y usos indebidos.
Escucha la entrevista completa de Alberto Nájar con Alejandra Morán de la UNAM y Ulises Cortés de la UPC.
Fabián Vega
¿Hay forma de regular la inteligencia artificial?
Para Alejandra Morán Espinosa, especialista en Derecho Informático y Nuevas Tecnologías en la Facultad de Estudios Superiores (FES) Acatlán de la Universidad Nacional Autónoma de México (UNAM) si, y lo ideal es que lo hagamos todos juntos como población mundial a partir de los modelos de la Unión Europea o Estados Unidos, ya que son ellos quienes cuentan con mayor experiencia en el tema.
“El derecho debe de regularlo todo y romper con el criterio de que es para negarlo, para limitarlo, es para sancionar aquellas conductas indebidas, usos indebidos. La tecnología puede ser utilizada como un arma en cualquier momento”.
Este es, precisamente, uno de los riesgos que implica el desarrollo de la inteligencia artificial (IA) a nivel global, pero que para el dr. Ulises Cortés, profesor de inteligencia artificial de la Universidad Politécnica de Cataluña (UPC) también puede escalar y alcanzar a procesos electorales y la vida cotidiana de las personas.
Por lo que hizo evidente, que las empresas desarrolladoras (OpenAI, Microsoft, IBM, Google, Apple) tienen un papel crucial al momento de aplicar estas regulaciones al ser ellas las dueñas de las IA.
“Nosotros tenemos un problema muy grave en Europa y en México. Se está intentando arbitrar sin tener jugadores. Las grandes plataformas están en Estados Unidos, China y Japón y ahora emergen en India.»
Regular si, pero ¿a las empresas creadoras o a las personas?
Para Cortés el principal problema radica en que no se responsabiliza directamente a los desarrolladores (empresas), sino que se busca atacar el problema desde un enfoque más político y mucho menos tecnológico, donde no se consulta la postura de expertos en tecnología.
Por lo que Morán recordó que, por lo menos en México, la legislación permite sancionar tanto a personas físicas, como morales y pidió estar atentos a la próxima frontera jurídica para establecer un consenso mundial que permita, inclusive sancionar a las propias inteligencias, en dado caso que puedan tomar “conciencia propia”.
El también director del Barcelona Supercomputing Center pidió no perder de vista el factor humano, donde las personas tienen un papel crucial como usuarios y clientes de las empresas que desarrollan los distintos tipos de IA.
#PrimeraEmisión || EU, la Unión Europea y la Unesco lanzaron sus primeras acciones para regular las #IA. Pero, ¿se actuó con tiempo o se va tarde?
— IMER Noticias (@IMER_Noticias) October 31, 2023
Por eso conversamos con el especialista @ulisescortes y la académica Alejandra Morán.
▶️: https://t.co/qX7EXvphYR pic.twitter.com/Rb53mSntTI
Te recomendamos:
https://noticias.imer.mx/blog/mexico-se-lleva-el-5to-lugar-en-indice-de-inteligencia-artificial-en-america-latina-cepal/





