fbpx

LA REGULACIÓN DE LA IA Y SUS RIESGOS

La irrupción y el asentamiento de la IA preocupa a los distintos estados, que buscan cómo reglamentar este tipo de tecnología

La inteligencia artificial (IA) ha avanzado rápidamente en los últimos años, especialmente este año con la irrupción de ChatGPT. Su aplicación en diversas áreas de la sociedad ha generado una creciente preocupación sobre los riesgos asociados a esta tecnología. Los gobiernos de todo el mundo se están dando cuenta de la necesidad de regular el desarrollo y uso de la IA para garantizar su beneficio y minimizar sus posibles peligros. Pero… ¿Cómo se está abordando esta situación? 

ChatGPT, máximo exponente de la IA

ChatGPT, el modelo de lenguaje desarrollado por OpenAI, es el que ha ganado mayor popularidad como herramienta que permite interactuar de manera natural con la IA (descubre aquí cómo usarlo), pero también destacan Bing de Microsoft o Bard de Google. Todas estas novedades han generado preocupaciones relacionadas con la desinformación, la privacidad y los sesgos.

En respuesta a estos riesgos, los gobiernos y organismos reguladores han comenzado a implementar medidas para controlar su uso. De hecho, Italia, prohibió la utilización del sistema de chat durante un tiempo por no respetar la ley de protección de datos. Otros países, como Alemania e Irlanda, también se plantearon seguir la idea del país con forma de bota. En Francia, la Comisión Nacional de Informática y Libertades (CNIL) comunicó que estaba investigando varias quejas sobre ChatGPT, pese a que no las detalló. También la Administración del Ciberespacio de China hizo un proyecto de medidas que debían seguir los servicios de IA generativa, incluido el tipo de contenido que estos productos pueden generar. La Casa Blanca, a través de la Fundación Nacional de las Ciencias, tiene previsto invertir 140 millones de dólares adicionales para crear siete nuevos Institutos Nacionales de Investigación sobre IA que promuevan el bien público. Además, la vicepresidenta del país, Kamala Harris, se reunió con los máximos responsables de Google, Microsoft, OpenAI y Anthropic, una startup especializada en IA, para tratar la nueva realidad tecnológica.  

Uno de los enfoques más comunes ha sido establecer estándares éticos y legales para la IA. Estas regulaciones se centran en la transparencia durante la toma de decisiones, la explicación de los algoritmos y la responsabilidad en caso de errores o daños. Además, se están estableciendo requisitos específicos para salvaguardar la privacidad de los usuarios y evitar el uso indebido de datos personales.

Por eso mismo, la Unión Europea (UE) sigue en el camino de aprobar una ley que limitará el uso de la IA a una normativa concreta. Después de meses de debate, los encargados de redactar la regulación pasaron el pasado jueves 11 de mayo el mandato de negociación para que el Parlamento Europeo vote a mediados de junio. ¿Cuáles son las obligaciones que deberán cumplir los populares chatbots? Deberán respetar unos requisitos adicionales de transparencia, que exigirán a las grandes compañías revelar si utilizan material protegido por los derechos de autor, señalar específicamente qué ha sido creado con IA y diseñar estos sistemas para que no generen contenidos ilegales. De esta manera, el mandato aprobado pretende garantizar que los sistemas de IA sean seguros, transparentes, trazables, no discriminatorios y que estén supervisados por personas. A su vez, la idea es que la ley europea prohíba los usos de la IA que supongan un peligro intolerable, como la vigilancia biométrica, el reconocimiento facial, los sistemas policiales predictivos, la manipulación intencionada o la categorización de personas según su comportamiento social, estatus socioeconómico o cualidades personales.

¿Es realmente necesario este control?

Los riesgos relacionados con la IA van más allá de ChatGPT. La preocupación central radica en su potencial para tomar decisiones perjudiciales o discriminatorias. Los sesgos inherentes en los datos de entrenamiento pueden transferirse a los sistemas de IA, lo que provoca decisiones injustas o parciales. Para abordar este problema, los gobiernos están exigiendo una mayor transparencia en los algoritmos de IA y la realización de evaluaciones de impacto ético antes de implementar sistemas automatizados.

Además, existe la preocupación de que la IA pueda ser utilizada con fines maliciosos, como el desarrollo de armas autónomas o la manipulación de opiniones públicas. Para contrarrestar estos riesgos, algunos gobiernos están explorando la posibilidad de establecer límites legales y regulaciones más estrictas en el ámbito de la IA, especialmente en áreas sensibles como la seguridad nacional y la democracia.

En este contexto, Europa y otros países quieren controlar las referencias con las que trabajan las IA, como la identidad y los datos de los usuarios que utilizan, la gestión de las preguntas y las respuestas que se plantean, así como su impacto ambiental y posibles sanciones a los usos negativos. La obtención y manipulación de estos datos puede tener implicaciones legales sobre los derechos de autoría, propiedad industrial, privacidad o protección de datos. 

Al final, nos encontramos en un momento delicado, explorando un terreno desconocido, sin leyes que establezcan cierto orden y ahorren desastres. Una zona repleta de oportunidades para progresar, pero también de riesgos que combatir y mitigar. Parece que la UE puede liderar el camino hacia una IA más fiable y segura, pero en este panorama incierto (en el que hay incertidumbre sobre si regular a nivel regional o global), lo único seguro es que ha llegado una herramienta que lo está cambiando todo y es nuestra responsabilidad intentar medir y dirigir el impacto que tiene y tendrá en la realidad que conocemos. 

Escucha el episodio de nuestro podcast sobre IA

Ya conoces lo que está suponiendo el huracán IA para los gobiernos, ¿pero cómo está afectando esta herramienta en las startups? ¡No te pierdas el episodio de nuestro podcast, creado por y para emprendedores, en el que hablamos sobre ello! Sergi Vila, cofundador y CEO de Bcombinator, conversa con Miquel Mora, cofundador de Bcombinator y  experto en metodologías ágiles y validaciones de ideas de negocio, sobre el flamante papel que juega la IA en las startups y cómo está revolucionando los negocios y la sociedad en general. Si deseas mantenerte a la vanguardia de la innovación y entender cómo la IA está cambiando el juego empresarial, escúchanos. El capítulo “Cómo cambiará la IA el mundo startup” está disponible en nuestro canal de YouTube y en Spotify.