Ciencia y Tecnología

Denuncian uso de algoritmos machistas en la inteligencia artificial

La Comisión Europea está en busca de una ley que contemple la IA como un "riesgo".
domingo, 31 julio 2022
Cortesía | Hay cadenas analógicas que propagan ciertos patrones de machismo

La investigadora de la Universidad de Harvard Aleksandra Przegalinska mostró su preocupación ante el modelo de algoritmos que han aplicado para actuar en la inteligencia artificial.

“Hay esperanza asociada a la IA, y eso deberíamos destacarlo. Pero también hay un riesgo asociado a la inteligencia artificial, o más bien al mal uso de la inteligencia artificial. Y creo que es bueno que tengamos esta regulación”, aseguró la investigadora.

La Comisión Europea ha establecido como prioridad una ley que “contempla la IA desde la perspectiva del riesgo”, según dijo la profesora tras participar en la Escuela de Liderazgo Femenino que organiza la compañía tecnológica china Huawei, y que reunió esta semana en Praga a jóvenes talentos de toda Europa.

La normativa que prepara Bruselas contempla desde los usos de la IA que conllevan un riesgo ‘bajo’ hasta los que llevan implícito un riesgo ‘alto’, un criterio que, según Przegalinska, varía en función del «impacto en la vida humana» que tenga esta tecnología.

“Pensemos en un área como la previsión del tiempo. No es algo que vaya a perjudicar a alguien si simplemente le dices que va a llover. Es un problema menor comparado con una situación en la que un algoritmo sesgado afirma que tienes una enfermedad que en realidad no tienes, o donde un algoritmo muy complejo te dice que no puedes obtener un préstamo y no sabes por qué”, planteó.

Przegalinska estableció que las mujeres son las más vulnerables, ya que hay “parámetros infrarepresentados” en ciertas bases de datos y esos son con los que operan los algoritmos. La cadena analógica suele llevar una correa de transmisión de las discriminaciones reales que la mujer sufre en el mundo virtual.

“La tecnología no es el problema; sino la gente. Hay un dicho en el mundo de la IA que dice: ‘basura fuera, basura dentro’. Entonces, si los datos están sesgados, por supuesto que habrá también un sesgo en el sistema”, aseveró la jefa del área de ciencias cognitivas de la Universidad de Tillburg, Maria Postma, que también habló con la agencia de noticias EFE.

Ten la información al instante en tu celular. Únete al grupo de Diario Primicia en WhatsApp a través del siguiente link:https://chat.whatsapp.com/LGrm4avkkIt9vm7NJUXF1U

También estamos en Telegram como @DiarioPrimicia, únete aquí:https://t.me/diarioprimicia

Lea También:
Publicidad
Publicidad
Publicidad
error: