martes, 18 de junio de 2024

Los peligros de la IA: ChatGPT en el trabajo, un arma de doble filo

OpenAI utiliza nuestras conversaciones para entrenar sus modelos de IA, y éstas también pueden ser revisadas por sus empleados. Qué hacer para evitarlo.


Desde que ChatGPT apareció en escena, muchas personas han decidido incorporarlo en su flujo de trabajo. La inteligencia artificial del chatbot se ha convertido en una gran aliada de la oficina por su capacidad para ayudar en tareas de programación, redactar correos electrónicos, elaborar resúmenes, analizar datos y generar gráficos.

El entusiasmo por utilizar esta herramienta desarrollada por OpenAI para dar un salto en la productividad puede llegar acompañada de un problema. Sin pretenderlo, algunos usuarios quizá estén exponiendo ciertos datos confidenciales propios o de la empresa para la que trabajan. ¿El motivo? ChatGPT, por diseño, no sabe guardar secretos.

Pongamos como ejemplo la siguiente situación. trabajamos en una empresa y dentro de un par de horas debemos asistir a una reunión. En el encuentro se discutirá la estrategia comercial de la firma para el año próximo. Para preparar mejor nuestra intervención, decidimos apuntarnos los ítems más importantes del documento anual de planificación.

El documento en cuestión tiene información confidencial que, en caso de filtrarse, podría tener consecuencias negativas para tu empresa. Hay secciones donde se analiza a la competencia y otras donde se mencionan productos que ni siquiera han sido lanzados. Pero tenemos poco tiempo para leerlo, así que decidimos hacer un resumen con ChatGPT.


Tabla generada con ChatGPT.

Subimos el PDF al chatbot, obtenemos los puntos clave que necesitábamos y nuestra intervención en la reunión es un éxito. Ahora bien, esa información podría caer en manos equivocadas.

Cuando utilizamos ChatGPT por primera vez, una ventana emergente nos recomienda no compartir información confidencial. En ocasiones, sin embargo, solemos presionar en "Aceptar" sin ser completamente conscientes de lo que esto significa. Los empleados de OpenAI podrían ver el contenido e incluso este podría ser utilizado para mejorar el chatbot.


La ventana emergente de ChatGPT con sugerencias de uso.

Esto que acabamos de mencionar está detallado en la política de uso de datos de la compañía liderada por Sam Altman. OpenAI deja en claro que puede utilizar las indicaciones del usuario, las respuestas, las imágenes y los archivos para mejorar el rendimiento del modelo subyacente, es decir, GPT-3.5, GPT-4, GPT-4o o versiones futuras.

La forma de mejorar los modelos es entrenándolos con más información para que cuando alguien pregunte sobre un tema pueda brindar una respuesta más precisa. Así que, a menos que se hayan tomado algunos recaudos que veremos a continuación, se podría estar entrenado el modelo con datos confidenciales.

El peligro, no obstante, no radica únicamente en que ChatGPT pueda acabar filtrando secretos comerciales o de cualquier otro tipo. Una vez que los datos están en los servidores de OpenAI, los mismos pueden ser visualizados por empleados de la compañía o proveedores de servicios de confianza autorizados por diversos motivos.

Hay cuatro escenarios en los que otras personas pueden acabar viendo nuestro historial de actividad con el chatbot:

• Para investigar incidentes de seguridad.
• Para brindar asistencia que se haya solicitado.
• Para responder a asuntos legales.
• Para mejorar el rendimiento del modelo.

Este escenario ha llevado a compañías a tomar medias para evitar que datos confidenciales acaben siendo filtrados. Por ejemplo, se ha limitado el uso del chatbots para ciertas tareas y se han implementado versiones corporativas que prometen no utilizar los datos de las conversaciones para tareas de entrenamiento.

Como mejorar la seguridad de los datos en ChatGPT

Los usuarios y las empresas tienen a su alcance dos alternativas concretas que, según promete OpenAI, permitirán proteger sus datos confidenciales: deshabilitar la opción de mejora del modelo con las conversaciones o utilizar una de las versiones empresariales de ChatGPT. Básicamente, podemos seguir estos pasos:

• Abrimos ChatGPT desde un ordenador, pulsamos en nuestra foto de perfil y después en "Configuración".
• Pulsamos en "Controles de datos" y después en "Mejorar el modelo para todos".
• Asegurarnos que el interruptor de esa opción esté desactivado.

Si trabajamos en un ámbito profesional y usamos las soluciones pagas ChatGPT Enterprise o ChatGPT Team, en todos los casos los datos no se utilizan para entrenar modelos de OpenAI. Adicionalmente, los mismos están protegidos por cifrado de datos en reposo (AES-256) y en tránsito (TLS 1.2+).

Aún así, los chats todavía pueden ser vistos

Incluso utilizando algunas de las herramientas profesionales de pago mencionadas anteriormente, existen casos puntuales donde personas externas a nuestra empresa pueden ver las conversaciones.

En el caso de ChatGPT Enterprise, los empleados de OpenAI pueden acceder a las conversaciones para resolver incidentes, recuperar conversaciones de usuarios, siempre y cuando tengan su permiso, o cuando lo solicite la justicia.

En el caso de ChatGPT Team, los empleados de OpenAI pueden acceder a las conversaciones "para dar soporte de ingeniería", investigar posibles abusos y garantizar el cumplimiento legal. Aquí entran en escena también "contratistas externos especializados" que pueden ver las conversaciones en escenarios de abuso o uso indebido.

Los empleados o actores externos de OpenAI que en todos los casos pueden ver las conversaciones de los usuarios de ChatGPT están sujetos a obligaciones de confidencialidad y seguridad. No caben dudas de que esto último es un recurso importante que ayuda a mantener cualquier tipo de datos que vean a salvo de miradas ajenas.

Sin embargo, no debemos perder de vista que estamos hablando de humanos. En el mundo empresarial hemos visto que las obligaciones de confidencialidad no suelen ser 100% efectivas. Uno de los ejemplos más claros que encontramos en este ámbito son las filtraciones de productos o servicios que surgen de las propias compañías.

(Fuente: Xataka)