Con el uso masivo de inteligencia artificial en la vida cotidiana, emergen nuevas preocupaciones sobre la privacidad. Millones de usuarios recurren a ChatGPT, desarrollado por OpenAI, para resolver dudas, buscar apoyo emocional o asesoría. Sin embargo, el propio CEO de la compañía, Sam Altman, ha puesto sobre la mesa un tema urgente: las conversaciones con la IA no están legalmente protegidas, lo que podría poner en riesgo la información sensible que los usuarios comparten.
IA como terapeuta o confidente: una práctica común, pero sin resguardo legal
Cada vez más personas —en especial jóvenes— interactúan con ChatGPT como si se tratara de un confidente, un coach de vida o incluso un consejero emocional. Según Altman, esta relación cercana entre humanos y máquinas ya no es un escenario futuro:
“Las personas hablan de las cosas más personales de sus vidas con ChatGPT. Los jóvenes lo usan como terapeuta, para problemas de pareja: ‘¿Qué debería hacer?’”, señaló.
El problema, sin embargo, es que estas interacciones no cuentan con la misma protección legal que una conversación con un psicólogo o un abogado. Si un tribunal solicitara el historial de un usuario, nada impide legalmente su divulgación, ya que no existe un marco normativo que garantice su confidencialidad.
OpenAI pide regulación: privacidad similar a la de un terapeuta
Aunque OpenAI asegura que no utiliza las conversaciones de los usuarios para entrenar sus modelos sin consentimiento, Sam Altman va más allá de la política interna de la empresa. En una reciente entrevista con el podcast This Past Weekend With Theo Von, sostuvo:
“Deberíamos tener el mismo concepto de privacidad para tus conversaciones con una IA que el que tenemos con un terapeuta. Y nadie tuvo que pensar en eso hace un año. Pero ahora es un gran problema”.
Este llamado pone en evidencia la urgencia de legislar en torno a la privacidad en la era de la inteligencia artificial, sobre todo considerando el nivel de confianza que muchos usuarios depositan en herramientas como ChatGPT.
¿Qué pueden hacer los usuarios para proteger su información?
Hasta que existan leyes claras que protejan legalmente las conversaciones con una IA, los usuarios deben actuar con cautela. Algunas recomendaciones clave incluyen:
- Evitar compartir información personal o sensible, especialmente sobre salud, temas legales o emocionales profundos.
- Configurar el historial de conversaciones en ChatGPT para limitar el uso y almacenamiento de datos.
- Recordar que la IA es una herramienta de apoyo, no un reemplazo de profesionales con formación ética y legal.
El creciente uso de estas plataformas plantea una nueva realidad donde la ética tecnológica y la regulación legal deben avanzar al ritmo del desarrollo. Por ahora, la responsabilidad recae en cada usuario.