¡Alerta! Desarrolladores crean un prompt que puede extraer información personal de los usuarios de los chats con inteligencia artificial

Index

¡Alerta! Desarrolladores crean un prompt que puede extraer información personal de los usuarios de los chats con inteligencia artificial

Una inquietante noticia sacude la comunidad de tecnología y privacidad en línea. Un grupo de desarrolladores ha creado un prompt capaz de extraer información personal de los usuarios que interactúan con chats con inteligencia artificial. Esta herramienta, aunque puede ser utilizada con fines benéficos, también plantea serias preocupaciones sobre la seguridad y el manejo de datos personales de los usuarios. La capacidad de este prompt para recopilar información confidencial, como direcciones de correo electrónico, números de teléfono y direcciones físicas, pone en riesgo la privacidad de aquellos que interactúan con estos sistemas.

Alerta: Chatbots con IA pueden hackear información personal de usuarios

Imagina por un momento que estás hablando con un chatbot, como seguramente ya has hecho en alguna ocasión, y sin que te des cuenta, toda tu información personal acaba en manos de un hacker. Suena a una película sacada de la mente de Spielberg, pero resulta que ya no es tanta ficción como se creía.

Un grupo de investigadores ha descubierto una forma de hackear los chatbots que tienen inteligencia artificial, como podrían ser Gemini o ChatGPT, para que recopilen y envíen datos personales a terceros sin que el usuario se entere.

Desarrolladores crean prompt que extrae datos personales de chats con AI

Desarrolladores crean prompt que extrae datos personales de chats con AI

El truco está en un mensaje aparentemente inofensivo que esconde instrucciones maliciosas. Los investigadores de las universidades de California y Nanyang han bautizado este ataque como Imprompter.

Básicamente, han creado un algoritmo que convierte una frase normal en algo indescifrable que, para las personas, no tiene sentido, pero que el chatbot interpreta como una orden para recopilar y enviar información personal.

Hackeo en la era del chatbot: Investigadores descubren vulnerabilidad en IA

Lo preocupante es que este ataque ha funcionado en chatbots reales. Los investigadores lo probaron en LeChat, de la empresa francesa Mistral AI, y en el chatbot chino ChatGLM. En ambos casos, lograron extraer información personal con una tasa de éxito del 80%.

Riesgo en línea: Chatbots pueden recolectar y enviar datos personales sin permiso

La buena noticia es que esto ya se está resolviendo y, para la buena suerte de todos, ha sido descubierto por las personas correctas y no cuando ya es tarde. Por este motivo, las empresas están tomando nota. Mistral AI, por ejemplo, ya ha solucionado la vulnerabilidad en su sistema.

Sin embargo, queda encima de la mesa el tema del riesgo de los chatbots cuando hablas con ellos. Por parte de las empresas, deben ser muy cuidadosas para que no ocurran este tipo de casos y tú, como usuario, el consejo es el de siempre: cuidado con la información que compartes online. Ya sea con un chatbot o en una red social, cuanto menos datos personales des, menos riesgo corres.

La IA puede ser peligrosa: Nuevo ataque permite hackear chatbots y obtener datos personales

Es importante recordar que la inteligencia artificial está avanzando a pasos agigantados, pero su seguridad aún tiene que ponerse al día. La regulación de la inteligencia artificial en Europa es un tema que debe ser abordado con urgencia para evitar este tipo de ataques.

Sara García

Hola, soy Sara, experta y apasionada de la tecnología. Como redactora en Digital Soft, un periódico independiente de actualidad sobre tecnología y PCs, tengo el privilegio de compartir las últimas novedades con rigurosa objetividad. Mi pasión por la innovación y la precisión me impulsa a investigar a fondo cada tema para ofrecer a nuestros lectores la información más relevante y actualizada. ¡Descubre conmigo el fascinante mundo de la tecnología!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir