El viernes pasado Italia ordenó el bloqueo con el cierre inmediato de la herramienta de inteligencia artificial ChatGPT de OpenIA acusándola de no respetar la ley de protección de datos del país.
La decisión ha sido tomada después de una investigación de una investigación llevada a cabo por el GPDP (Garante de la Protección de Datos Personales) en Italia, en ella se han encontrado que la herramienta de inteligencia artificial no estaba cumpliendo con las regulaciones necesarias para proteger la información personal de sus usuarios.
ChatGPT es un chatbot desarrollado por la compañía OpenIA que utiliza inteligencia artificial para interactuar con los usuarios y responder preguntas en una amplia variedad de temas.
Según el GPDP, el problema está en la manera ilegal en la que ChatGPT estaría procesando los datos de los usuarios. También ha mostrado preocupación por que el servicio no evite el acceso de menores a su tecnología. En principio, los menores de 13 años no podrían usar este sistema conversacional, pero se sospecha que es limitación no se estaría cumpliendo.
Además, el GPDP ha encontrado que ChatGPT no estaba almacenando los datos de los usuarios de forma segura, lo que aumentaba el riesgo de que la información personal de los usuarios fuera comprometida por ciberdelincuentes.
El cierre de ChatGPT en Italia ha sido una sorpresa para muchos usuarios que lo utilizaban regularmente para obtener información y ayuda en una amplia variedad de temas. Sin embargo, el GPDP ha declarado que el cierre del chatbot es necesario para garantizar que las empresas cumplan con las leyes de protección de datos y protejan adecuadamente la privacidad de los usuarios.
No es la primera vez que la herramienta de Inteligencia Artificial de OpenIA tiene una brecha de datos. El pasado 20 de marzo ChatGPT sufrió una pérdida de datos (o violación de datos) relativos a conversaciones del usuario e información correspondiente al pago de los suscriptores del servicio de pago.
En Estados Unidos varias organizaciones han pedido también la suspensión del ChatGPT por desconfiar de estos experimentos con inteligencia artificial. Mientras que, en la Unión Europea, la compañía podría llegar a tener una multa de hasta 20 millones de euros o dar hasta el 4% del volumen de negocios anual global si no cumple con una serie de requisitos impuestos por Italia en un plazo hasta el 30 de abril para poder reabrir su herramienta.