Ciencia y Tecnología

Cómo utilizar herramientas de IA sin descuidar la privacidad

Una de las recomendaciones es comprobar los términos y condiciones de las aplicaciones antes de utilizar las herramientas.
jueves, 02 mayo 2024
IA
Cortesía | Deben considerar ciertas características de los generadores

El boom de las herramientas que ofrecen inteligencia artificial (IA) generativa y sus múltiples aplicaciones están planteando nuevos debates sociales. Y, como ocurre con cualquier nueva tecnología con el potencial de cambiar los hábitos y comportamientos de los usuarios, merece la pena sopesar las consecuencias y los cambios que pueden traer.

Así que se deben considerar ciertas características de los generadores de IA antes de lanzarse a utilizarlos, en particular en lo relativo a la privacidad y seguridad.

Aunque las herramientas de IA generativa –capaces de crear automáticamente contenido de texto, imágenes u otros medios– suponen una increíble novedad y las alternativas comienzan a estar al alcance de todos, merece la pena marcar algunos límites desde el principio, o incluso optar por no utilizarlas en absoluto si no estamos cómodos con los métodos para recopilar y procesar nuestros datos.

Lee condiciones de servicio

Comprobar los términos y condiciones de las aplicaciones antes de utilizarlas es una tarea tediosa, pero merece la pena. Como es habitual en Internet, desde las redes sociales hasta la banca online, utilizar cualquier aplicación suele implicar ceder derechos sobre la información que introduces.

De acuerdo con los términos de OpenAI, por ejemplo, el contenido de cualquier conversación que tengas con ChatGPT podría ser utilizada para ayudar a su gran modelo de lenguaje subyacente (LLM) a “aprender sobre el lenguaje, cómo entenderlo y responder a él”.

No obstante, la empresa explica que la información personal no se utiliza “para construir perfiles sobre las personas, contactar con ellas, hacerles publicidad, intentar venderles algo o vender la propia información”, pero sí puede utilizarse para mejorar los servicios de OpenAI y para desarrollar nuevos programas y servicios.

Algo similar ocurre con la política de privacidad de Google. En Google Bard, por ejemplo, la información que introduzcas en el chatbot se recopilará “para proporcionar, mejorar y desarrollar productos y servicios de Google y tecnologías de aprendizaje automático”. Pero, al igual que con cualquier dato que Google obtenga de ti en otras de sus aplicaciones, la información de Bard también podrá utilizarse para personalizar los anuncios que ves.

En resumen, todo lo que introduzcas o produzcas con una herramienta de IA probablemente se utilizará para refinar aún más la tecnología y luego se manejará como el desarrollador considere oportuno. En cualquier caso, el hecho es que queda a disposición de la empresa, que tiene acceso a todo lo que haces en DALL-E o ChatGPT.

Por eso debes ser consciente que eso significa que estás confiando en que la empresa no haga nada ilegítimo con ello y proteja eficazmente sus servidores contra intentos de hackeo.

Atención a la información que introduces

Por ejemplo, una de las primeras aplicaciones generalizadas de la IA en la RED son las herramientas que producen versiones modificadas de tu rostro. Si las utilizas y no tienes control de tus datos, existe un riesgo de que aparezcan rostros generados por IA similares el tuyo y acaben en las creaciones de otras personas.

En cuanto al texto, por esta misma razón, es importante que evites introducir cualquier información personal, privada o sensible; ya hay casos de filtraciones en los historiales de chat debido a un error, por parte del usuario o de la empresa.

Los mismos desarrolladores de la IA son conscientes de este peligro: “no incluyas información confidencial o sensible en tus conversaciones con Bard”, señala Google, mientras que OpenAI anima a los usuarios a “no compartir ningún contenido sensible” que pueda llegar a la red a través de la función de enlaces compartidos.

Teniendo esto en cuenta merece la pena ser muy cuidadoso con lo que se introduce en estos motores. Una cuestión que es particularmente sensible en el ámbito profesional, en el que puede ser tentador pedir a una herramienta IA que resuma los resultados financieros trimestrales de tu empresa o que escriba una carta con tu dirección y tus datos bancarios.

Revisa las configuraciones

Otro paso importante, una vez que eres consciente de los riesgos y decides utilizar las herramientas de la IA generativa es explorar, los controles de privacidad y seguridad de las herramientas que elijas. La mayoría de las empresas hacen que estos controles sean relativamente visibles y fáciles de manejar.

Bard sigue el ejemplo de otros productos de Google como Gmail o Google Maps: puedes elegir que los datos que le proporciones se borren automáticamente tras un periodo de tiempo determinado, borrarlos manualmente o dejar que Google los conserve indefinidamente.

Al igual que Google, Microsoft integra sus opciones de gestión de datos de IA en la configuración de seguridad y privacidad del resto de sus productos. Ve a esa sección para encontrar las opciones de privacidad en tus productos de Microsoft, luego haz clic en Historial de búsqueda para revisar (y si es necesario eliminar) cualquier cosa sobre la que hayas chateado con la IA de Bing.

En lo que respecta a ChatGPT, haz clic en tu dirección de correo electrónico (abajo a la izquierda) y, a continuación, selecciona Configuración y controles de datos. Aquí puedes evitar que ChatGPT utilice tus conversaciones para entrenar sus modelos, pero al mismo tiempo perderás el acceso a la función de historial de chat.

Las conversaciones también se pueden borrar del registro haciendo clic en el icono de la papelera que aparece junto a ellas en la pantalla principal de forma individual, o haciendo clic en tu dirección de correo electrónico y en Borrar conversaciones y Confirmar borrar conversaciones para borrarlas todas.

Ten la información al instante en tu celular. Únete al grupo de Diario Primicia en WhatsApp a través del siguiente link https://chat.whatsapp.com/KfW5lU87i3p59c1gcKqHZC

También estamos en Telegram como @DiarioPrimicia, únete aquí: https://t.me/diarioprimicia

Lea También:
Publicidad
Publicidad
Publicidad
error: