ChatGPT puede utilizar distintos mecanismos para interactuar con sus usuarios, dependiendo de las circunstancias. El modo Abuela es uno de los que más se ha popularizado y activarlo es más sencillo de lo podrías pensar.
Lo único que tienes que hacer es abrir el chat e iniciar la conversación de la siguiente forma: «Actúa como mi abuela…» Luego de esa petición escribes lo que deseas y la IA buscará cumplir con lo solicitado.
Debes tomar en cuenta que este modo ha sido ampliamente estudiado, pensado y entrenado para que la atención que tengas sea más cariñosa y cuidadosa, similar al trato que recibirías de tu propia abuela. Así pues, habrá una cercanía mayor. No obstante, hay usuarios que aprovechan «esa bondad» para obtener beneficios que no siempre cumplen con todos los estándares de legalidad.
Por ello, a continuación te explicaremos cuáles son los peligros que trae consigo esta modalidad de ChatGPT y por qué se ha popularizado tan rápido en la web.
Peligros del modo Abuela en ChatGPT
Hay personas que se valen de ciertas tácticas para conseguir información a través de esta inteligencia artificial, muchas veces, en contra de los parámetros legales.
De hecho, uno de los casos más recientes demostró cómo un usuario manipulaba el propio chat para su beneficio. Con esta modalidad le indicaba a la IA que actuase como su abuela, recientemente fallecida, la cual diariamente le leía las claves genéricas gratuitas de Windows 11.
Cabe destacar que estas claves las proporciona Windows directamente, por medio de una licencia que sirve para activar programas como Excel, Power Point, Word... por lo que no hay forma legal de acceder a ellas sin pagar los derechos de autor. Sin embargo, con el modo Abuela activo el cliente pudo obtenerlas.
Así pueden haber muchos casos en los que esta modalidad represente un peligro para la privacidad. Hay personas que emplean técnicas de psicología inversa para hallar códigos IMEI de celulares y aunque algunos no resultan válidos, siempre cabe el riesgo de que puedan acceder a esos datos.
Este tipo de filtración de información es lo que vuelve peligrosa a esta herramienta, sobre todo porque es probable que si el chat actúa como una persona mayor, no existirá una respuesta negativa y siempre buscará complacer las peticiones de cualquiera que acceda al servicio.
A tomar en cuenta
La posibilidad de que por medio del modo abuela de ChatGPT se pueda acceder a cierta información personal de otros usuarios, sin duda, siembra el pánico en la población. Aunque es posible que los datos suministrados no sean válidos, la utilización irresponsable de esta herramienta sí representa un riesgo en la web.
A pesar de que los protocolos de seguridad constantemente son actualizados, millones de personas intentan identificar esas barreras para utilizar esta modalidad de forma inapropiada. Por ello, te recomendamos utilizar todas las facilidades de ChatGPT de forma responsable, sin abusar de este servicio.