OpenAI ha bloqueado su servicio ChatGPT en Italia, citando órdenes del regulador de datos de la nación, Garante.

Ayer, Garante notó que investigaba OpenAI por sus posibles violaciones en GDPR, de ChatGPT usando ilegalmente datos italianos para respuestas, sin informarles. Y mientras esta investigación está en marcha, el regulador pidió que se bloquee el servicio para el público.

ChatGPT acusado de violar el RGPD

Un día después de que el regulador italiano de protección de datos, Garante, anunciara que investigaba a OpenAI, este último deshabilitó su servicio ChatGPT en Italia. La empresa citó esta acción a pedido de Garante y reembolsará el monto de la suscripción (ChatGPT Plus) a quienes la hayan tomado.

La decisión actual parece ser una simple restricción de bloqueo geográfico aplicada ahora, ya que cualquier persona con una VPN puede cambiar su ubicación para acceder a ella. Pero las cuentas que se habían registrado anteriormente con la ubicación principal como Italia, serán bloqueadas. Por lo tanto, debe crear una nueva cuenta con una ubicación modificada (fuera de Italia) para acceder a ChatGPT como antes.

El viernes, Garante anunció el lanzamiento de una investigación sobre OpenAI, citando posibles violaciones de su GDPR. A la autoridad le preocupa que ChatGPT de OpenAI haya estado procesando ilegalmente los datos de los italianos para sus respuestas.

GDPR ofrece a las naciones participantes y a los ciudadanos de los países involucrados una serie de derechos con los que jugar. Cualquier servicio que elimine datos disponibles públicamente de Internet debe informarles antes de procesarlos. Y en el caso de ChatGPT, OpenAI aún no ha informado a nadie.

Además, Garante no está seguro de las políticas de procesamiento de datos de OpenAI, ya que aún no mencionó nada públicamente, al menos para el modelo GPT-4 lanzado recientemente. Y afirmó además la falta de verificación de edad (relacionada con la seguridad de los niños) y la información inexacta que proporciona el servicio en algunos casos.

Se considera que los chatbots de IA brindan información inexacta con confianza a veces, lo que los investigadores afirman es una situación de alucinación de la IA, pero puede provocar efectos adversos. Por lo tanto, ahora están siendo investigados.