ROMA – Italia está bloqueando temporalmente el software de inteligencia artificial ChatGPT luego de una violación de datos mientras investiga una posible violación de las estrictas reglas de protección de datos de la Unión Europea, dijo el viernes el regulador de privacidad del gobierno.
La Autoridad de Protección de Datos de Italia dijo que estaba tomando medidas provisionales «hasta que ChatGPT respete la privacidad», incluida la limitación temporal de que la empresa procese los datos de los usuarios italianos.
OpenAI, con sede en EE. UU., que desarrolló el chatbot, dijo el viernes por la noche que había deshabilitado ChatGPT para los usuarios italianos a pedido del gobierno. La compañía dijo que cree que sus prácticas cumplen con las leyes de privacidad europeas y espera que ChatGPT vuelva a estar disponible pronto.
Si bien algunas escuelas públicas y universidades de todo el mundo han bloqueado ChatGPT de sus redes locales por preocupaciones de plagio estudiantil, la medida de Italia es «la primera restricción a escala nacional de una plataforma de IA convencional por parte de una democracia», dijo Alp Toker, director de la defensa. grupo NetBlocks, que monitorea el acceso a Internet en todo el mundo.
La restricción afecta a la versión web de ChatGPT, popularmente utilizada como asistente de escritura, pero es poco probable que afecte a las aplicaciones de software de empresas que ya tienen licencias de OpenAI para utilizar la misma tecnología de chatbot, como el motor de búsqueda Bing de Microsoft.
Los sistemas de IA que impulsan estos chatbots, conocidos como modelos de lenguaje extenso, son capaces de imitar los estilos de escritura humanos basados en el tesoro masivo de libros digitales y escritura en línea que ingieren.
El regulador italiano dijo que OpenAI debe informar dentro de 20 días qué medidas ha tomado para garantizar la privacidad de los datos de los usuarios o enfrentar una multa de hasta 20 millones de euros (casi $ 22 millones) o el 4% de los ingresos globales anuales.
La declaración de la agencia cita el Reglamento General de Protección de Datos de la UE y señala una violación de datos reciente que involucra «conversaciones de usuarios» de ChatGPT e información sobre pagos de suscriptores.
OpenAI anunció previamente que necesitaba desconectar ChatGPT el 20 de marzo para corregir un error que permitía a algunas personas ver los títulos o las líneas de asunto del historial de chat de otros usuarios.
«Nuestra investigación también encontró que el 1,2% de los usuarios de ChatGPT Plus pueden tener datos personales revelados a otro usuario», dijo la compañía. “Creemos que la cantidad de usuarios cuyos detalles fueron realmente revelados a otra persona es extremadamente baja y nos hemos comunicado con aquellos que pueden verse afectados”.
El organismo de control de la privacidad de Italia, conocido como Garante, también cuestionó si OpenAI tenía una justificación legal para su «recolección y procesamiento masivo de datos personales» utilizados para entrenar los algoritmos de la plataforma. Y dijo que ChatGPT a veces puede generar y almacenar información falsa sobre las personas.
Finalmente, señaló que no existe un sistema para verificar la edad de los usuarios, exponiendo a los niños a respuestas «absolutamente inadecuadas para su edad y conocimientos».
OpenAI dijo en respuesta que funciona «para reducir los datos personales en el entrenamiento de nuestros sistemas de IA como ChatGPT porque queremos que nuestra IA aprenda sobre el mundo, no sobre individuos en particular».
“También creemos que la regulación de la IA es necesaria, por lo que esperamos trabajar en estrecha colaboración con el Garante y educarlos sobre cómo se construyen y utilizan nuestros sistemas”, dijo la compañía.
La acción del organismo de control italiano llega en un momento en que crece la preocupación por el auge de la inteligencia artificial. Un grupo de científicos y líderes de la industria tecnológica publicaron una carta el miércoles instando a empresas como OpenAI a dejar de desarrollar modelos de IA más potentes hasta el otoño para dar tiempo a la sociedad a evaluar los riesgos.
El presidente del organismo de control de la privacidad de Italia dijo a la televisión estatal italiana el viernes por la noche que él fue uno de los que firmaron la apelación. Pasquale Stanzione dijo que lo hizo porque «no está claro qué objetivos persiguen» los que desarrollan la IA.
Si la IA «obstaculiza» la «autodeterminación» de una persona, entonces «eso es muy peligroso», dijo Stanzione. También calificó la ausencia de filtros para usuarios menores de 13 años como «bastante grave».
El CEO de OpenAI con sede en San Francisco, Sam Altman, anunció esta semana que se embarcará en una gira por seis continentes en mayo para hablar sobre la tecnología con usuarios y desarrolladores. Eso incluye una parada planificada en Bruselas, donde los legisladores de la Unión Europea han estado negociando nuevas reglas radicales para limitar las herramientas de inteligencia artificial de alto riesgo, así como visitas a Madrid, Múnich, Londres y París.
El grupo europeo de consumidores BEUC pidió el jueves a las autoridades de la UE y a los 27 países miembros del bloque que investiguen ChatGPT y otros chatbots de IA similares. BEUC dijo que podrían pasar años antes de que la legislación de IA de la UE entre en vigor, por lo que las autoridades deben actuar más rápidamente para proteger a los consumidores de los riesgos potenciales.
“En solo unos meses, hemos visto una aceptación masiva de ChatGPT, y esto es solo el comienzo”, dijo la subgerente general Ursula Pachl.
Esperar la Ley de IA de la UE «no es suficiente, ya que existen serias preocupaciones crecientes sobre cómo ChatGPT y chatbots similares pueden engañar y manipular a las personas».
___
O’Brien informó desde Providence, Rhode Island. El escritor de negocios de AP Kelvin Chan contribuyó desde Londres.