Italia multó a OpenAI por 15 millones de euros
El organismo de protección de datos de Italia anunció el viernes que impuso una multa de 15 millones de euros (15,6 millones de dólares) a OpenAI tras concluir una investigación sobre la recopilación de datos personales por parte de ChatGPT, el popular chatbot de esa compañía estadounidense de inteligencia artificial.
El organismo de privacidad del país, conocido como Garante, indicó que su investigación demostró que OpenAI procesó los datos personales de los usuarios para entrenar a ChatGPT “sin contar con una base legal adecuada y violó el principio de transparencia y las obligaciones de información relacionadas hacia los usuarios”.
OpenAI calificó la decisión de “desproporcionada” y dijo que apelará.
“Cuando Garante nos ordenó dejar de ofrecer ChatGPT en Italia en 2023, trabajamos con ellos para restablecerlo un mes después”, dijo un portavoz de OpenAI el viernes en un comunicado enviado por correo electrónico.
“Desde entonces, han reconocido nuestro enfoque líder en la industria para proteger la privacidad en la IA, sin embargo, esta multa es casi 20 veces los ingresos que obtuvimos en Italia durante el período relevante”, añadió.
Sin embargo, OpenAI agregó que “seguimos comprometidos con trabajar con las autoridades de privacidad de todo el mundo para ofrecer una IA beneficiosa que respete los derechos de privacidad”.
La investigación, iniciada el año pasado, también encontró que OpenAI no proporcionó un “sistema de verificación de edad adecuado” para evitar que los usuarios menores de 13 años estuvieran expuestos a contenido inapropiado, dijo el organismo.
La autoridad italiana también ordenó a OpenAI lanzar una campaña de seis meses en diferentes medios italianos para aumentar la conciencia pública sobre ChatGPT, específicamente en lo que respecta a la recopilación de datos.
La creciente popularidad de los sistemas de inteligencia artificial generativa como ChatGPT ha atraído el escrutinio de los reguladores en ambos lados del Atlántico.
Los reguladores en Estados Unidos y Europa han estado examinando a OpenAI y otras compañías que han jugado un papel clave en el auge de la IA, mientras que los gobiernos de todo el mundo han estado elaborando normas para proteger contra los riesgos que plantean los sistemas de IA, liderados por el Acta de IA de la Unión Europea, un manual de reglas para la inteligencia artificial.
Ten la información al instante en tu celular. Únete al canal de Diario Primicia en WhatsApp a través del siguiente link: https://whatsapp.com/channel/0029VagwIcc4o7qP30kE1D0J
También estamos en Telegram como @DiarioPrimicia, únete aquí: https://t.me/diarioprimicia