Ciencia y Tecnología

Corea del Sur es el primer país en regular uso de la IA

De acuerdo con la ley aprobada, las empresas que suministren productos y servicios de esta tecnología deben añadir una 'marca de agua' al contenido generado con IA.
miércoles, 28 enero 2026
Cortesía | La ley fija el término de 'IA de alto riesgo', que se usa para las tecnologías que afectan sustancialmente la vida, la seguridad o los derechos fundamentales

Corea del Sur se convirtió en el primer país del mundo en aprobar una ley que regula el uso de la inteligencia artificial, recoge la agencia Yonhap.

La legislación tiene por objetivo luchar contra la desinformación, ‘deepfakes’ y otras consecuencias perjudiciales del uso de la IA.

Según la norma, las empresas que suministren directamente productos y servicios de inteligencia artificial deben añadir una ‘marca de agua’ al contenido de voz, imagen o video generado con ella.

“Aplicar marcas de agua al contenido generado con la IA es la medida mínima de protección para evitar los efectos perjudiciales del abuso de la tecnología de IA, como el contenido ‘deepfake'”, afirmó un funcionario del Ministerio de Ciencia citado por Yonhap.

La ley también afecta a los videojuegos. Los desarrolladores que utilicen la IA deben incluir el aviso ‘este juego utiliza IA generativa en determinados aspectos’ o los personajes creados deben etiquetarse como ‘creados con IA’. A su vez, los chatbots deben etiquetarse como ‘conversación a través de IA generativa’, indica el diario Chosun.

“La IA de alto riesgo”

También la ley fija el término de ‘IA de alto riesgo’, que se usa para las tecnologías que afectan sustancialmente la vida, la seguridad o los derechos fundamentales. Como ejemplo, Yonhup cita el impacto de la inteligencia artificial en el proceso de contratación, las revisiones de préstamos o el asesoramiento médico. Las compañías cuyas tecnologías generen contenido perteneciente al grupo de alto riesgo, deben informar explícitamente a los usuarios de que sus servicios se basan en la IA, además deben asumir la responsabilidad de garantizar la seguridad, se precisa.

Las empresas de IA que operen en el país y cumplan cualquiera de los criterios —y tengan ingresos anuales globales de 681 millones de dólares o más, ventas en el país por unos siete millones de dólares o al menos un millón de usuarios diarios en el país— tienen que designar un representante local. OpenAI y Google cumplen con los criterios, indica Yonhup.

Si no lo hacen, pueden afrontarse a una multa de hasta 20.000 dólares. Las autoridades, por su parte, tienen previsto aplicar un período de transición de un año antes de imponer sanciones.

Ten la información al instante en tu celular. Únete al canal de Diario Primicia en WhatsApp a través del siguiente link: https://whatsapp.com/channel/0029VagwIcc4o7qP30kE1D0J

También estamos en Telegram como @DiarioPrimicia, únete aquí: https://t.me/diarioprimicia

Publicidad
Publicidad
error: