«Ser es defenderse», Ramiro de Maeztu
No cuenta con un sistema de verificación de edad

Italia bloquea el uso de la inteligencia artificial ChatGPT por «recogida ilegal de datos personales»

Inteligencia artificial ChatGPT. Europa Press

La Autoridad de Garantía de Protección de Datos de Italia anunció el pasado 31 de marzo el bloqueo con efecto inmediato de ChatGPT por «recogida ilegal de datos personales» y por no disponer de «sistemas para verificar la edad» de los usuarios menores de edad. Las autoridades italianas aseguraron que el bloqueo se mantendrá hasta que ChatGPT cumpla la normativa aplicable. También se detalló que se había concedido a la compañía un plazo de 20 días para que se establezcan medidas correctivas. En caso negativo, se comenzará una nueva fase: multas de 20 millones de dólares o de hasta el 4% de sus ingresos anuales mundiales.

ChatGPT es una interfaz de mensajería de texto en la que el usuario puede solicitar a la inteligencia artificial (IA) cualquier comando en lenguaje natural, por lo que es accesible al gran público. Sin embargo, el rotundo éxito de esta aplicación —logró 100 millones de usuarios en dos meses, cifra que Twitter tardó cinco años en alcanzar; Instagram, dos y medio; y TikTok, nueve meses—, ha despertado los recelos de las autoridades por múltiples causas.

De acuerdo con las autoridades italianas, OpenAI —organización desarrolladora de ChatGPT— incumple el Reglamento General de Protección de Datos (RGPD) de la Unión Europea al almacenar de forma masiva datos personales de sus usuarios sin informarles previamente. Los datos, proporcionados por los usuarios de muy distintas formas, son recopilados para alimentar al algoritmo sobre el que se asienta esta inteligencia artificial. El problema, sin embargo, radica en que la normativa europea no contempla la recogida y almacenamiento masivos de datos personales destinados a entrenar algoritmos. 

Y los problemas con los datos personales no se circunscriben sólo a los que los usuarios comparten libremente con el chat, sino que el pasado 20 de marzo se produjo una fuga de datos de los servidores, en la que se filtraron conversaciones y datos de pago de usuarios. Además, como es frecuente con las nuevas tecnologías, la aplicación no cuenta con ningún sistema de verificación de edad, por lo que no existen limitaciones de uso por parte de menores de 18 años, lo que los expone «a respuestas totalmente inadecuadas respecto a su nivel de desarrollo».

Al basarse en la regulación de la Unión Europea, la decisión de Italia hace temer al sector tecnológico que otros Estados miembro interpreten el RGPD de la misma forma y anuncien el bloqueo de sus IA. La Agencia Española de Protección de Datos (AEPD) aseguró que sigue «de cerca estos desarrollos tecnológicos, que pueden tener una importante afectación para los derechos de las personas, por lo que no puede descartarse una futura investigación». En el pasado, la AEPD ha optado de forma general por multar a las entidades que incumplen la normativa de protección de datos. Sin embargo, las autoridades italianas decidieron bloquear con efecto inmediato el acceso a la herramienta de inteligencia artificial pues, al no tener OpenAI su sede en Europa —se radica en California—, una multa es fácilmente sorteable e Italia no tiene capacidad ni instrumentos para asegurar el pago.

Las reacciones al bloqueo han sido mixtas. Parte del mundo empresarial ha criticado la decisión de Italia ya que, asegura, «limita» el avance tecnológico, «frena» la innovación y «hace perder un tiempo valioso». Señala que decisiones unilaterales tan estrictas como la que las autoridades italianas han tomado provocará que su economía se empobrezca la pérdida de su talento empleado en el sector tecnológico. Además, los críticos aseguran que herramientas como Google tampoco limitan el acceso de menores al contenido disponible. También hay quienes han considerado que la medida es acertada, ya que la normativa europea debe cumplirse por todas las empresas que operen en el continente, sean o no de origen europeo. Importantes figuras del sector tecnológico han advertido del peligro que entraña el desarrollo de IA.

De hecho, a finales del pasado marzo, Elon Musk —fundador y director ejecutivo de Tesla, y de Twitter, y cofundador de OpenAI— y Steve Wozniak —cocreador de Apple— dirigieron, junto a más de mil técnicos, desarrolladores, informáticos y emprendedores de varios países, una carta abierta a los desarrolladores de Inteligencias Artificiales para solicitar una moratoria en sus actividades durante seis meses, con el fin de crear un marco legal y social que sirva de guía para posteriores desarrollos. Aseguran que el rápido avance independiente, sin el respaldo de los Gobiernos y las reguladoras, puede entrañar grandes peligros para la humanidad, de efectos desconocidos e inimaginables. 

Según el director ejecutivo de Tesla y de Twitter, la IA interferirá en la economía y la política, y es muy posible que compañías y entidades puedan utilizarla en su beneficio sin tener en cuenta los potenciales riesgos. Junto a otros, Musk alertó de este peligro y pidió que se detuviera su desarrollo hasta que se conozca en profundidad cómo funciona y cómo se puede controlar. Además, la rapidez de estos desarrollos provoca que se hayan convertido en una auténtica carrera desbocada en la que hay mucho dinero en juego. Musk, quien cofundó OpenAI —organización creadora de ChatGPT—, la abandonó tres años después, alegando «potenciales conflictos de intereses» debido al desarrollo en Tesla de inteligencias artificiales para la conducción automática de sus vehículos. Por su parte, Sam Altman, cofundador de OpenAI y actual director ejecutivo, aseguró que la renuncia de Musk, sin embargo, se debió a la negativa de la junta a su deseo de tomar el control único.

A lo largo de la historia de la humanidad, el desarrollo de las tecnologías ha sido progresivo, pero siempre ha estado limitado —y controlado— por la inteligencia humana. El crecimiento de la IA, sin embargo, hace peligrar ese control. Científicos, físicos e informáticos de renombre como Stephen Hawking y Stuart Russell aseguraron que un desarrollo muy avanzado de la IA podría provocar la extinción humana si ésta adquiriera la capacidad de rediseñarse, lo que causaría una «explosión de inteligencia»: un crecimiento tecnológico incontrolable e irreversible que escaparía del entendimiento humano. Tanto Musk como Altman, cofundadores de OpenAI, han apuntado en ocasiones que les preocupa el riesgo existencial de la IA.

El mayor problema consiste en que, durante el desarrollo, el informático no puede saber qué comportamiento tendrá el algoritmo una vez lanzado pues, aunque éste siga un modelo, su capacidad de ir aprendiendo supone que sea extremadamente difícil —sino imposible— seguir su ritmo o, incluso, entender sus reacciones. La falta de legislación también provoca que exista una falta de responsabilidad clara en caso de que una inteligencia artificial provoque efectos perniciosos. 

Algunos expertos han señalado que la buena presentación de los resultados de inteligencias artificiales como ChatGPT provoca desinformación y malentendidos con los usuarios, que toman como certezas textos o hechos referidos por una IA sin supervisión humana. El propio comportamiento de la IA puede diluir los límites sociales entre humanos y máquinas, pues la naturalidad de sus respuestas y su casi perfecta imitación de lo humano puede provocar confusiones respecto a su «consciencia». De hecho, el pasado mes un joven belga se suicidó tras varias semanas de «frenéticas» conversaciones con un chatbot. Sus problemas y sus preocupaciones por «la crisis climática» motivaron que buscara refugio en un sistema de mensajería de una IA, que «nunca le contradecía». El joven terminó sugiriendo a la IA su «sacrificio» si ésta aceptaba «cuidar del planeta y salvar la humanidad».

Pero las medidas tomadas a cabo por las autoridades italianas pueden, además, provocar un terremoto más allá de las empresas desarrolladoras de IA. Debido a que la Unión Europea carece de legislación que contemple la recopilación masiva de datos personales para alimentar y entrenar a un algoritmo, es posible que el bloqueo de ChatGPT en Italia lleve a medidas similares contra otras tantas compañías y aplicaciones que utilizan la IA para mejorar su servicio, personalizarlo o hacer recomendaciones a sus usuarios Netflix, HBO, Disney+, Amazon, Google, Spotify, Alexa, Google Maps, Gmail, etc., o herramientas como traductores o editores de documentos que también almacenan información, junto con los datos personales, para mejorar su servicio, sin informar al usuario. De hecho, a principios de abril, Reino Unido multó a TikTok por violar la Ley de Protección de Datos y hacer «uso indebido» de información personal de menores de edad.

En España, también varios científicos, catedráticos e investigadores que han firmado la petición de un aplazamiento liderada por Musk y Wozniak, entre otros, aseguraron que el desarrollo de la IA «se nos ha ido de las manos» y recalcaron que se trata de «una carrera muy destructiva». Comparan la moratoria solicitada por los expertos con las que se vieron durante el desarrollo de la energía nuclear: «Cuando algo es peligroso, hay que parar».

TEMAS |
+ en
Fondo newsletter