La inteligencia artificial (IA) se faculta para las causas más venturosas de la humanidad, pero también para la creación de sistemas autónomos y de armamento, por lo que la especie humana se encuentra en peligro como cuando se descubrió la energía atómica; en consecuencia, es un tema de regulación que no podemos dejar de considerar, planteó Pablo Pruneda Gross. El coordinador de la línea de investigación “Derecho e Inteligencia Artificial”, del Instituto de Investigaciones Jurídicas (IIJ) de la UNAM, aseguró: si a la IA se le permite tener acceso a mecanismos que dañen o atenten contra la vida, puede tener la capacidad de decidir entre que viva o no un ser humano. “Lo que hemos visto desde 2018 es una irrupción tecnológica, ha venido a violentar de manera positiva a veces, a veces no. Tenemos mecanismos de reconocimiento de voz, facial, algoritmos que revisan la moderación de contenidos en una red social: primero me clasifican a ver qué intereses tengo y luego me mandan la información que saben que nos puede interesar; ahora entendemos por qué no dejamos de ver la pantalla”, alertó. Al participar en el Seminario “Derecho digital y tecnologías disruptivas”, el investigador se refirió a la Inteligencia Artificial Generativa como el ChatGPT, herramienta que “es una especie de chat como WhatsApp, solo que en lugar de hablar con una persona se conversa con una entidad artificial; no es un buscador de fuentes, es un generador de contenido que trabaja con frases cercanas a la realidad y por eso asombra”. En el Aula Centenario del IIJ, Pruneda Gross mencionó que es una entidad que nos recuerda la primera vez que usamos internet y cómo nos asombramos de lo que ocurre en nuestra computadora. “Eso mismo está pasando con este chat, se programa a través de la emulación de las redes neuronales; ya se creó la versión más moderna (GPT-4) a través de Machine Learning que es el Deep Learning”. ChatGPT busca y a partir de lo que encuentra crea contenidos: le proporcionas imágenes y realiza un diseño, un archivo o lectura en PDF; le solicitas que formule un resumen con los puntos fundamentales, o la creación de una página de internet y la elabora. “Con GPT-4 se viene un replanteamiento de la inteligencia general artificial, la que tiene capacidades similares a las de un ser humano. Se trata de un algoritmo que programa algoritmos, y si lo que programa lo hace mejor que el ser humano rápidamente habrá un crecimiento exponencial de la tecnología y los seres humanos nos vamos a quedar viendo”, destacó. Pablo Pruneda afirmó que la IA generativa tiene capacidades similares a las de una persona como es el Chat GPT-4. “Tiene muchas ventajas y enseñanzas, pero puede ser que estemos abriendo una caja de pandora, puede ser una tecnología tan perniciosa que extinga a la raza humana, de ese tamaño es el problema y ahora sí hay indicios en la tecnología que están presentes para afirmarlo, ¿qué tenemos que hacer?, regular”. En aras de ganar la carrera tecnológica, formuladores y creadores toman atajos y cometen errores, por lo que tiene que haber un regulador. ¿Quién debe regular y quién debe entrar? ¿quién va a emitir una ley de una tecnología que es transfronteriza, qué soberanía aplica? Riesgos El especialista del IIJ señaló algunos riesgos de no regular o legislar las prácticas de la IA generativa. Puede ser adherida a ciertos valores e intereses humanos; además de la generación de contenido escrito, imagen y video falso o malicioso que podría utilizarse en fraudes o suplantación de personas e identidades. También ser una influencia en la democracia hacia la polarización, incidir en la protección a la imagen e intimidad; se convertiría en un riesgo en la interacción con menores de edad. Puso como ejemplo una imagen reciente del Papa Francisco I donde porta una chamarra larga de color blanco exhibida en redes sociales digitales, fotografía elaborada por ChatGPT. Ante esto, Pablo Pruneda preguntó: ¿Quién debe evaluar esto, el gobierno solo, o se lo dejamos a las empresas? Hay que generar un discurso conjunto entre academia, gobierno, empresa, industria y sociedad civil. En este momento, como dijo el periodista estadounidense Ezra Klein, “es mejor equivocarnos por sobre regular, que por subregular”. En la actividad académica estuvieron también: Israel Santos Flores y Mauricio Padrón Innamorato, investigador y secretario académico del IIJ, respectivamente; Alicia Edith Trejo Jiménez, doctoranda del Instituto, y María Cristina Múzquiz Fragoso, directora de Docencia en Tecnologías de Información y Comunicación de la Dirección General de Cómputo y de Tecnologías de Información y Comunicación.