Home Data Governance ChatGPT confirma brecha de datos, generando preocupaciones de seguridad

ChatGPT confirma brecha de datos, generando preocupaciones de seguridad

Cuando ChatGPT y chatbots similares se hicieron ampliamente disponibles por primera vez, la preocupación en el mundo de la ciberseguridad era cómo la tecnología de inteligencia artificial (IA) podría ser utilizada para lanzar ciberataques. De hecho, no pasó mucho tiempo hasta que los actores de amenazas descubrieron cómo pasar por alto las comprobaciones de seguridad para utilizar ChatGPT para escribir código malicioso.

Ahora parece que las tornas han cambiado. En lugar de que los atacantes utilicen ChatGPT para causar incidentes cibernéticos, ahora se han vuelto contra la tecnología en sí. OpenAI, que desarrolló el chatbot, confirmó una brecha de datos en el sistema que fue causada por una vulnerabilidad en la biblioteca de código abierto del código, según Security Week. El servicio quedó fuera de línea hasta que se solucionó el problema.

Un Éxito de la Noche a la Mañana

La popularidad de ChatGPT fue evidente desde su lanzamiento a finales de 2022. Todo el mundo, desde escritores hasta desarrolladores de software, quería experimentar con el chatbot. A pesar de sus respuestas imperfectas (algunas de sus prosas eran torpes o claramente plagiadas), ChatGPT se convirtió rápidamente en la aplicación de consumo de más rápido crecimiento en la historia, alcanzando más de 100 millones de usuarios mensuales en enero. Aproximadamente 13 millones de personas usaron la tecnología de IA a diario dentro de un mes completo desde su lanzamiento. Compare eso con otra aplicación extremadamente popular, TikTok, que tardó nueve meses en alcanzar cifras de usuarios similares.

Un analista de ciberseguridad comparó ChatGPT con una navaja suiza, diciendo que la amplia variedad de aplicaciones útiles de la tecnología es una de las principales razones de su popularidad temprana y rápida.

La Brecha de Datos

Siempre que tienes una aplicación o tecnología popular, es solo cuestión de tiempo hasta que los actores amenazantes la apunten. En el caso de ChatGPT, el exploit se produjo a través de una vulnerabilidad en la biblioteca de código abierto Redis. Esto permitió a los usuarios ver el historial de chat de otros usuarios activos.

Las bibliotecas de código abierto se usan “para desarrollar interfaces dinámicas almacenando rutinas y recursos accesibles y frecuentemente usados, como clases, datos de configuración, documentación, datos de ayuda, plantillas de mensajes, código y subrutinas preescritas, especificaciones de tipo y valores”, según una definición de Heavy.AI. OpenAI utiliza Redis para almacenar en caché la información de los usuarios para una recuperación y acceso más rápidos. Debido a que miles de contribuyentes desarrollan y acceden al código abierto, es fácil que se abran vulnerabilidades y pasen desapercibidas. Los actores amenazantes lo saben, por eso los ataques a las bibliotecas de código abierto han aumentado un 742% desde 2019.

En el gran esquema de las cosas, el exploit de ChatGPT fue menor, y OpenAI parcheó el error dentro de los días posteriores a su descubrimiento. Pero incluso un incidente cibernético menor puede causar mucho daño.

Sin embargo, ese fue solo un incidente a nivel superficial. A medida que los investigadores de OpenAI profundizaron, descubrieron que esta misma vulnerabilidad probablemente fue responsable de la visibilidad de la información de pago durante algunas horas antes de que ChatGPT fuera desconectado.

“Algunos usuarios pudieron ver el nombre y apellido, la dirección de correo electrónico, la dirección de pago, los últimos cuatro dígitos (solo) de un número de tarjeta de crédito y la fecha de vencimiento de la tarjeta de crédito de otro usuario activo. Los números completos de las tarjetas de crédito nunca fueron expuestos”, dijo OpenAI en un comunicado sobre el incidente.

IA, Chatbots y Seguridad Cibernética

La fuga de datos en ChatGPT se abordó rápidamente con aparentemente poco daño, con suscriptores pagos afectados que representan menos del 1% de sus usuarios. Sin embargo, el incidente podría ser un presagio de los riesgos que podrían afectar a los chatbots y a los usuarios en el futuro.

Ya existen preocupaciones de privacidad en torno al uso de chatbots. Mark McCreary, el co-presidente de la práctica de privacidad y seguridad de datos en la firma de abogados Fox Rothschild LLP, dijo a CNN que ChatGPT y los chatbots son como la caja negra en un avión. La tecnología de IA almacena vastas cantidades de datos y luego usa esa información para generar respuestas a preguntas y solicitudes. Y todo en la memoria del chatbot se convierte en juego justo para otros usuarios.

Por ejemplo, los chatbots pueden registrar las notas de un solo usuario sobre cualquier tema y luego resumir esa información o buscar más detalles. Pero si esas notas incluyen datos sensibles, como la propiedad intelectual de una organización o información confidencial de los clientes, entra en la biblioteca del chatbot. El usuario ya no tiene control sobre la información.

Aumento de las restricciones en el uso de la IA

Debido a preocupaciones sobre la privacidad, algunas empresas y países enteros están tomando medidas restrictivas. Por ejemplo, JPMorgan Chase ha restringido el uso de ChatGPT por parte de sus empleados debido a los controles de la empresa sobre el software y las aplicaciones de terceros, pero también hay preocupaciones sobre la seguridad de la información financiera si se introduce en el chatbot. Italia citó la privacidad de los datos de sus ciudadanos como razón para bloquear temporalmente la aplicación en todo el país. Los funcionarios declararon que la preocupación se debe al cumplimiento del GDPR.

Los expertos también esperan que los actores malintencionados utilicen ChatGPT para crear correos electrónicos de phishing sofisticados y realistas. Ya no hay errores gramaticales ni frases extrañas que hayan sido la señal característica de una estafa de phishing. Ahora, los chatbots imitarán a los hablantes nativos con mensajes dirigidos. ChatGPT es capaz de una traducción de idiomas sin interrupciones, lo que cambiará el juego para los adversarios extranjeros.

Una táctica igualmente peligrosa es el uso de la IA para crear campañas de desinformación y conspiración. Las implicaciones de este uso podrían ir más allá de los riesgos cibernéticos. Los investigadores utilizaron ChatGPT para escribir un artículo de opinión y el resultado fue similar a cualquier cosa encontrada en InfoWars u otros sitios web conocidos que promueven teorías de conspiración.

OpenAI responde a algunas amenazas

Cada evolución de los chatbots creará nuevas amenazas cibernéticas, ya sea a través de habilidades de lenguaje más sofisticadas o a través de su popularidad. Esto convierte a la tecnología en un objetivo principal como vector de ataque. Con ese fin, OpenAI está tomando medidas para prevenir futuras violaciones de datos dentro de la aplicación. Está ofreciendo una recompensa por errores de hasta $20,000 a cualquier persona que descubra vulnerabilidades no informadas.

Sin embargo, The Hacker News informó que “el programa no cubre problemas de seguridad del modelo o de alucinación, en los que se le solicita al chatbot que genere código malicioso u otros resultados defectuosos”. Por lo tanto, parece que OpenAI quiere endurecer la tecnología contra ataques externos, pero está haciendo poco para evitar que el chatbot sea la fuente de los ciberataques.

ChatGPT y otros chatbots serán actores importantes en el mundo de la ciberseguridad. Solo el tiempo dirá si la tecnología será víctima de ataques o la fuente.

Fuente: securityintelligence.com