Home Data Governance El peligro de compartir información confidencial con chatbots

El peligro de compartir información confidencial con chatbots

Los chatbots pueden ser herramientas útiles en el ámbito laboral, pero es importante tener en cuenta que cualquier información compartida con ellos podría ser utilizada para entrenar al sistema y aparecer en respuestas a otros usuarios. El caso de Samsung es un ejemplo de los riesgos de compartir información confidencial con chatbots.

En la actualidad, los chatbots se han convertido en una herramienta cada vez más común en el entorno laboral, siendo utilizados para tareas como la verificación de errores en el código de programación, la generación de minutas de reuniones, entre otros. Sin embargo, es importante recordar que cualquier información compartida con estos sistemas puede ser utilizada para entrenar al chatbot y, potencialmente, ser vista por otros usuarios.

Este hecho se hizo evidente recientemente en Samsung, cuando varios empleados de la división de semiconductores de la compañía compartieron información confidencial con el chatbot ChatGPT. Según informes, al menos en tres ocasiones, los trabajadores filtraron información secreta al chatbot. Uno de ellos solicitó que el chatbot revisara el código fuente de una base de datos sensible en busca de errores, mientras que otro solicitó optimización de código. El tercero compartió una reunión grabada con ChatGPT para generar minutas.

Samsung, tras conocer los fallos de seguridad, tomó medidas para evitar futuras filtraciones restringiendo la longitud de las solicitudes a un kilobyte, o 1024 caracteres de texto. Además, está investigando a los tres empleados implicados y desarrollando su propio chatbot para prevenir situaciones similares.

La política de datos de ChatGPT establece que, a menos que los usuarios opten expresamente por no hacerlo, utiliza las solicitudes de los usuarios para entrenar sus modelos. La compañía propietaria del chatbot, OpenAI, advierte a los usuarios que no compartan información confidencial con ChatGPT, ya que no pueden eliminar solicitudes específicas del historial. La única forma de eliminar información personal identificable en ChatGPT es eliminar la cuenta, un proceso que puede tardar hasta cuatro semanas.

El caso de Samsung es un ejemplo más de los peligros de compartir información confidencial con chatbots. Aunque estos sistemas pueden ser útiles en ciertas tareas, es importante tener precaución y no compartir información confidencial con ellos. Nunca se sabe dónde puede terminar tu información en línea.

Los chatbots son herramientas útiles en el entorno laboral, pero es importante recordar que cualquier información compartida con ellos puede ser utilizada para entrenar al sistema y potencialmente ser vista por otros usuarios. El caso de Samsung demuestra la importancia de tener precaución al compartir información confidencial con chatbots. Los usuarios deben ser conscientes de las políticas de datos del chatbot y asegurarse de no compartir información confidencial con ellos. En última instancia, la mejor manera de proteger la privacidad en línea es ser consciente de los riesgos y tomar medidas para minimizarlos.