¿Cómo usar herramientas de IA de forma segura?

Las herramientas de inteligencia artificial están en todas partes, desde los sistemas operativos hasta los editores de imágenes y chats. ¿Cómo usas ChatGPT, Gemini y los diferentes complementos sin poner en peligro tu seguridad digital?

Nadie en esta carrera ha sido capaz de resolver los problemas de seguridad inherentes: en primer lugar, la minimización de las fugas de datos confidenciales y también el nivel de piratería de cuentas/dispositivos a través de varias herramientas de inteligencia artificial; ni hablar de la creación de protecciones adecuadas contra una futura “IA malvada”.

Entonces, ¿Cómo usas la inteligencia artificial sin arrepentirte más tarde?

Filtra los datos importantes

La política de privacidad de OpenAI, el desarrollador de ChatGPT, establece inequívocamente que cualquier diálogo con el chatbot se guarda y se puede usar para varios propósitos. En primer lugar, para resolver problemas técnicos y prevenir infracciones de los términos de servicio: en caso de que a alguien se le ocurra generar contenido inapropiado. ¿Quién lo hubiera pensado, verdad? En ese caso, los chats incluso pueden ser revisados por un humano. En segundo lugar, los datos se pueden utilizar para entrenar nuevas versiones de GPT y realizar otras “mejoras” en el producto.

La mayoría de los otros modelos de lenguaje populares, ya sea Gemini de Google, Claude de Anthropic o Bing y Copilot de Microsoft, tienen directivas similares: todos pueden guardar diálogos completos.

No envíes datos personales a un chatbot. Ninguna contraseña, número de pasaporte o tarjeta bancaria, direcciones, números de teléfono, nombres u otros datos personales que te pertenezcan, le pertenezcan a tu empresa o a tus clientes deben terminar en chats con IA.

No cargues documentos. Puedes sentir la tentación de cargar un documento de trabajo para, por ejemplo, obtener un resumen ejecutivo. Sin embargo, cuando cargas descuidadamente un documento de varias páginas, corres el riesgo de filtrar datos confidenciales, propiedad intelectual o un secreto comercial.

Utiliza una configuración de privacidad. Revisa detenidamente la política de privacidad y la configuración disponible de tu proveedor de grandes modelos de lenguaje (LLM). Por ejemplo, los productos de OpenAI te permiten desactivar el almacenamiento del historial de chat. En ese caso, los datos se eliminan después de 30 días y nunca se usan para entrenamiento.

¿Enviarás códigos? Borra los datos confidenciales. Este consejo está dirigido a aquellos ingenieros de software que utilizan asistentes de IA para revisar y mejorar su código: elimina cualquier clave API, dirección de servidor o cualquier otra información que pueda revelar la estructura de la aplicación o la configuración del servidor.

Limita el uso de aplicaciones y complementos de terceros

Sigue estos consejos en todo momento, sin importar qué asistente de inteligencia artificial popular estés utilizando. Sin embargo, incluso esto puede no ser suficiente para garantizar la privacidad.

En primer lugar, tu historial de chat ahora puede almacenarse no solo en los servidores de Google u OpenAI, sino también en servidores que pertenecen a terceros que admiten el complemento, así como en rincones poco probables de tu ordenador o teléfono inteligente. En segundo lugar, la mayoría de los complementos extraen información de fuentes externas: búsquedas web, tu bandeja de entrada de Gmail o notas personales de servicios. En tercer lugar, la publicación y verificación de complementos para los asistentes de IA en este momento son un proceso mucho menos ordenado que, por ejemplo, la detección de aplicaciones en App Store o Google Play. Por lo tanto, las posibilidades de encontrar un complemento que funcione mal, esté mal escrito, tenga errores o incluso sea simplemente malicioso son bastante altas.

¿Cómo mitigas estos riesgos? Nuestro consejo clave en este caso es darle tiempo. El ecosistema de complementos es demasiado reciente, los procesos de publicación y soporte no son lo suficientemente fluidos, y los propios creadores no siempre se encargan de diseñar los complementos correctamente o de cumplir con los requisitos de seguridad de la información.

Si realmente necesitas determinadas características de complementos, intenta tomar las máximas precauciones disponibles antes de usarlas:

  • Escoge extensiones y complementos que tengan al menos varios meses de antigüedad y se actualicen periódicamente.
  • Considera solo complementos que tengan muchas descargas y lee atentamente las revisiones para detectar cualquier problema.
  • Si el complemento viene con una política de privacidad, léela detenidamente antes de comenzar a usar la extensión.
  • Opta por herramientas de código abierto.
  • Si posees habilidades de codificación, aunque sean rudimentarias, o amigos codificadores, lee el código para asegurarte de que solo envíe datos a los servidores declarados e, idealmente, solo a los servidores del modelo de IA.