El debate central de esta cuestión es qué se hace con todos los datos que se suben a las herramientas de inteligencia artificial y quién controla toda esa información.
Por ese motivo, y para evitar filtraciones, hackeos y otro tipo de riesgos de ciberseguridad, es importante tomar conciencia de lo que compartimos con estas herramientas.
Acá hay cinco tipos de información que nunca hay que compartir con ChatGPT o cualquier otro chatbot de IA para proteger la privacidad y seguridad:
- 1. Imágenes con datos biométricos
Compartir imágenes personales, especialmente aquellas en las que aparece tu cara, puede exponer datos biométricos a la IA y la empresa detrás de ella. Aunque es divertido crear ilustraciones al estilo de Studio Ghibli, o cualquier otro, es importante saber que estas imágenes pueden ser utilizadas para recopilar información biométrica.
Información como número de documento, fecha de nacimiento, dirección o trayectos habituales debe mantenerse en privado. La IA puede aprender mucho, pero no siempre es seguro compartir estos detalles, ya que pueden ser utilizados para identificar o comprometer la seguridad de las personas.
Compartir información médica confidencial, como diagnósticos o resultados de pruebas, no solo es innecesario sino que también puede filtrarse. ChatGPT no es un médico y por más que se le pregunte, no puede proporcionar diagnósticos precisos, por lo que es mejor mantener esta información fuera de su alcance.
Aunque pueda parecer obvio, no está de más recomendar que nunca se debe compartir números de tarjetas de crédito, claves de acceso a cuentas bancarias o detalles de transacciones financieras, ni con la IA ni con nadie a través de internet. Aunque ChatGPT está diseñado para respetar la privacidad, no ofrece el mismo nivel de seguridad que un sitio web bancario, lo que lo hace vulnerable a ataques cibernéticos.
- 5. Información corporativa confidencial
Si se usa ChatGPT para tareas del trabajo no se debe compartir información confidencial de la empresa.