Los 5 riesgos que corres al utilizar ChatGPT
No se deben introducir datos confidenciales en la herramienta, ya que toda la información queda almacenada.
Poner a prueba la inteligencia artificial de ChatGPT puede ser divertido y hasta sorprendente por las respuestas que la herramienta es capaz de dar. Sin embargo, debes saber que al hacerlo te expones a varios ciberriesgos.
En ese sentido, es importante recordar que toda la información que se introduzca en la plataforma quedará registrada bajo la propiedad de OpenAI, la empresa que ha desarrollado esta inteligencia artificial. El motivo es que lo que se comparte con ChatGPT se utiliza para continuar perfeccionando la herramienta. Por ello, no se deben introducir datos personales.
Tal y como recoge 20 Minutos, son hasta cinco los peligros que esconde en su interior el sistema de chat:
1. Doxing
El doxing se basa en ‘exponer documentos’, es decir, se trata de una acción maliciosa en la que se hace pública en Internet (sin ningún tipo de consentimiento) información confidencial de una persona, como su nombre, la dirección de su vivienda, sus datos bancarios, su número de teléfono, su documento de identidad o su lugar de trabajo.
2. Difundir desinformación
ChatGPT tiene la capacidad de ‘mejorar sus conocimientos’ o ‘aprender’ a través de los datos que los usuarios le transmiten. Esto podría ser utilizado por parte de los ciberdelincuentes para difundir información errónea y así influir en la opinión pública con bulos.
3. Phishing
El phishing es un tipo de ciberestafa en la que se suplanta a instituciones públicas o entidades bancarias con fines lucrativos. Inteligencias artificiales como ChatGPT podrían ayudar a perfeccionar el contenido de esas estafas y hacerlas cada vez más eficaces. Los criminales podrían hacer uso de ellas para escribir y traducir sus mensajes, con lo que el timo sería mucho más complicado de detectar.
4. Deepfakes
Otra posibilidad es que los malhechores desarrollen la capacidad de crear bots que copien la voz, imagen y movimientos de una persona (lo que se conoce como deepfake) para tratar de engañar a los usuarios con objetivos delictivos.
5. Suplantación de identidad
Los ciberdelincuentes también podrían utilizar ChatGPT para copiar la forma en la que unos usuarios interactúan con otros y así suplantar la identidad de estos en las redes sociales. De esta forma, los maleantes podrían hacerse pasar por personas reales y tratar de estafar.