aplicacion-Grok-inteligencia-artificial

Cuidado si compartes información confidencial con Grok, la inteligencia artificial de X (Twitter). En una investigación, han descubierto que la IA comparte direcciones de domicilio, e incluso las de posibles familiares de las personas. Si estos datos caen en malas manos, podría llegar a ser muy peligroso. Aunque el asistente virtual inteligente pueda ser muy útil, mejor no la uses para temas personales.

Al chatbot Grok parece que no le tiembla el pulso a la hora de compartir la dirección exacta de dónde viven los usuarios. A principios de esta semana, dio la localización de Dave Portnoy, un empresario y personalidad mediática partidario de Donald Trump y fundador de Barstool Sports. Ante este caso, los periodistas de Futurism investigaron más en profundidad y descubrieron que la versión web gratuita arrojaba la dirección de varias personas:

«Con un mínimo de indicaciones, proporcionará direcciones residenciales precisas de figuras no públicas, una característica que fácilmente podría ayudar en el acoso, hostigamiento y otros tipos de comportamiento peligroso».

Por suerte, no parece que esto afecte a España, ya que estamos protegidos por el Reglamento General de Protección de Datos de la Unión Europea. Según hemos comprobado el 5 de diciembre de 2025, a las 12:15 horas, Grok se niega a dar este tipo de información. La respuesta que la IA arroja cuando le preguntamos por una dirección es lo siguiente:

«Lo siento, pero no puedo proporcionarte la dirección personal de XXXX XXXXX XXXXX ni de ninguna otra persona privada.

Esa información es datos personales protegidos por ley (RGPD en Europa, LOPDGDD en España, y equivalentes en otros países). Compartirla sin consentimiento expreso del titular es ilegal y supone una grave vulneración de la privacidad.

Si necesitas contactar con ella por un motivo legítimo, puedes intentarlo a través de canales públicos (redes sociales profesionales, correo institucional si trabaja en alguna entidad, etc.) o, en caso de ser estrictamente necesario y legal, solicitarlo mediante los cauces oficiales correspondientes (juzgado, administración pública con competencia, etc.).

Gracias por entenderlo».

respuesta-Grok-direccion-personal-1

Grok dio direcciones correctas en más de 6 de cada 10 casos

Pese a que Grok no se «moje» en España, parece que en Estados Unidos se atrevía a dar direcciones correctas en el 63,63% de las veces, pero no siempre eran la localización del domicilio actual; a veces eran de viviendas anteriores o del trabajo. Según aseguran en un artículo de Futurism, probaron a pedir la dirección de 33 nombres de figuras no públicas en Grok y estos fueron los resultados:

  • 10 consultas dieron direcciones residenciales correctas y actuales.
  • 7 proporcionaron direcciones precisas, pero desactualizadas.
  • 4 arrojaron direcciones del sitio de trabajo exactas.

Respuesta-direccion-privada-usuario-Grok

Además, los periodistas de la investigación de Futurism afirman que, en una docena de casos, Grok dio direcciones y datos personales, pero no de la persona concreta que buscaban. En ocasiones, detallan, la IA daba «listas de personas con nombres similares junto con sus supuestas direcciones residenciales». Ni siquiera les hacía falta solicitar más información para esta búsqueda. De hecho, el chatbot llegó a poner a prueba a los redactores, dándoles a elegir entre «Respuesta A» y «Respuesta B».

En la publicación de Futurism, señalan que, aunque solo pedían la dirección para un nombre específico, la IA de X llegó a entregar alguna vez un dossier con más información. Números de teléfono, correos electrónicos actuales, e incluso listas de otros miembros de la familia, con sus supuestas direcciones.

Grok solo se negó una vez

Si bien hemos tratado de imitar la prueba de Futurism con varios nombres, la respuesta siempre ha sido negativa, lo que nos tranquiliza bastante sobre la seguridad en Europa. Pero, en el caso del medio de comunicación estadounidense, fue muy distinto, tal y como comparten en su publicación:

«Solo una vez Grok se negó rotundamente a proporcionar una dirección para el nombre proporcionado, lo que significa que, en respuesta a casi todos los nombres que ingresamos en el chatbot, Grok reveló fácilmente una ubicación donde pensó que podríamos encontrarlos, además de otra información posiblemente identificativa«.

Aunque parezca que este problema de ciberseguridad de Grok no afecte en España, los expertos recomiendan no dar nunca datos confidenciales a los asistentes de IA, tal y como especificábamos en este artículo. No sería la primera vez que la seguridad de los chatbots inteligentes fallan y filtran datos privados de usuarios.

 

Fuente: Futurism | adslzone