Hace pocos días Gork IA, el modelo de inteligencia artificial de Elon Musk, empezó a estar disponible, de forma gratuita para los usuarios de X (antiguo Twitter) en México. Con la actual oferta de inteligencia generativa, que incluye modelos como Chat GPT o Bard, esto no debería ser sorprendente. Pero, desde su aparición, muchos usuarios han empezado a utilizar una de sus funciones “estrella”, la de crear imágenes basadas en una serie de comandos, dando lugar a escenas de lo más creativas, con personajes históricos o actuales.
Lo cierto es que, en muchos casos, es bastante sencillo darse cuenta de que están generadas por IA y no son reales. Pero, en otros, dan lugar a la confusión y muchos temen que este uso pueda generalizarse para afectar a la imagen pública de algunas personas populares o, también, de ciudadanos anónimos. De hecho, aunque sea claramente una ficción, algunas creaciones son, hasta cierto punto, ofensivas. Todo ello ha reabierto, de nuevo, el debate sobre los límites en la utilización de la IA generativa y la necesidad de un marco regulatorio adecuado.
La inteligencia artificial es, desde luego, un elemento imparable y de gran valor para las empresas. Se utiliza para mejorar áreas concretas, como la seguridad cibernética aplicada en servicios como el casino en línea con dinero real o la banca electrónica; también hemos visto como automatiza tareas en mercados tan dispares como el marketing digital, la logística o la agricultura. Y estos son sólo algunos de los ejemplos. Ninguna organización tiene intención de renunciar a esta herramienta, como es lógico.
Y la creación de imágenes o videos también puede ser extraordinariamente útil para fines adecuados. No hace tanto, informábamos sobre la posibilidad de volver a ver a Armando Manzanero sobre un escenario gracias a la IA. Pero los “deepfakes” (así se conoce la elaboración de contenido multimedia falso que puede confundir al espectador) tienen, como ya hemos indicado, otros usos que transgreden las normas éticas más elementales y pueden convertirse en campañas de acoso o desprestigio. Por supuesto, también en fraudes, mediante la suplantación de identidad.
Uno de los grandes retos es que esta tecnología es muy nueva y avanza a un ritmo mucho más rápido que la capacidad de los técnicos y los legisladores para poner límites. El acceso a la IA está generalizado y, en un entorno global y digitalizado, estos “deepfakes” se convierten en virales antes de que los órganos de vigilancia puedan hacer poco o nada al respecto. En México, el problema puede ser aún mayor que en otras naciones, puesto que no cuenta con una ley apropiada todavía.
De hecho, éste fue uno de los grandes temas a tratar en el último Metaworld Congress LATAM, celebrado recientemente. Uno de los principales ponentes, Rodolfo Tesone Mendizabal, destacó la necesidad de encontrar “un equilibrio entre la innovación y la regulación ética que garantice un control a nivel global”. Algo en lo que, según parece, existe un importante consenso entre los expertos asistentes; algunos de ellos mostraron su preocupación por la falta de legislación de la región.
En este aspecto, UE parece llevar cierta ventaja, ya que ha puesto sobre la mesa la problemática y se ha aprobado este 2024 una ley al respecto. Entre los aspectos que trata, además de la seguridad y la privacidad, se aborda la materia de los “deepfakes”, conscientes de los riegos que comportan. Pero legislar tiene también su problemática. Por un lado, porque no es posible poner muchos límites a esta tecnología, tan necesaria en la actualidad; por otro, porque su avance es más ágil que el de la tarea legislativa. En breve, tal vez esta ley que está por aparecer se quede obsoleta.
Por ello, es necesario introducir otras herramientas para la lucha contra su uso fraudulento. Entre las más destacadas, sin duda, está la información a la ciudadanía. Se trata de concienciar sobre los riesgos de estas imágenes falsas y aumentar la capacidad crítica de los usuarios. También será necesario implementar un organismo que pueda velar por el cumplimiento de las normas básicas, que sepa identificar contenidos maliciosos y hacer que los responsables asuman su culpa. Pero, claro, nada de esto será sencillo. Y menos aún, con la falta de regulación actual en México.
Leave a comment