OpenAI permanece en el centro de la polémica por la reciente demanda colectiva que se presentó hace pocos días. La acusación principal se centra en el robo de información confidencial y datos personales.
Si bien el uso de la inteligencia artificial y, en concreto, las funcionalidades de ChatGPT han permanecido en constante debate en los últimos meses, sobre todo por el acceso que se obtiene a contenido privado, finalmente este tema trascendió al ámbito legal para tratar, de manera formal, el uso inapropiado de esta tecnología.
El 28 de junio se presentó una demanda colectiva y este 5 de septiembre se volvió a demandar a OpenAI por recopilar datos de millones de personas en todo el mundo.
Cabe destacar que esta situación ya había sido analizada en enero, donde también se había acusado a la compañía, en conjunto con Microsoft, de acceder a información privada sin consentimiento.
¿Qué se solicita en la demanda a OpenAI?
En el reciente recurso presentado ante la Ley se solicita la suspensión comercial de ChatGPT, por el uso indebido de esta tecnología para la apropiación indebida de información personal sin compensación.
La solicitud se presentó ante el Tribunal Federal de California con la acusación de robo de datos. Esto incluye la identificación personal de adultos e incluso niños sin ninguna autorización. Hasta ahora ni OpenAI, como desarrollador de ChatGPT, ni Microsoft se han pronunciado al respecto.
No es la primera vez que OpenAI se ve involucrada en situaciones de este tipo. En enero la compañía fue demandada por la presunta monetización del código abierto para entrenar los sistemas de la inteligencia artificial.
Regulaciones
Son muchas las instituciones que se han preocupado por el uso de la inteligencia artificial. Esto sobre todo cuando se trata de la creación de contenido falso o el acceso a información privada de otros usuarios. De hecho, se sigue trabajando para establecer medidas que propicien el uso adecuado de esta nueva tecnología.
Hasta ahora, dentro de las leyes más efectivas destaca la nueva normativa de la UE que busca regular el impacto negativo de la inteligencia artificial. También existen países como China, que a partir de agosto autorizaron nuevas normas para frenar la desinformación causada por el uso inadecuado de ChatGPT.
En este sentido, todas las empresas que se encarguen de desarrollar inteligencia artificial generativa deberán someterse a controles periódicos de seguridad. También deberán registrar sus algoritmos en instituciones afiliadas al Gobierno de China.