Insecure Humanoids: When AI Exposes the Dark Side of Modern Robotics

Press release (English) link
Press release (Spanish) link
CAI (Cybersecurity AI) link
Research paper link

Alias Robotics reveals data exfiltration and physical risks in Unitree humanoid robots

At IEEE Humanoids 2025, Alias Robotics unveiled one of the most striking cybersecurity case studies in recent robotics history. Using its Cybersecurity AI (CAI) framework — an open-source, EU-funded technology designed to democratize cybersecurity through artificial intelligence — the Basque-based research team demonstrated how the Unitree G1 humanoid could be transformed into a platform for espionage and cyberattacks.

A new frontier of risk

Víctor Mayoral-Vilches, founder of Alias Robotics and lead author of the study, reveals that:

Our findings show that Unitree robots act as genuine Trojan horses for covert data collection. Beyond their low-cost hardware compared to alternative platforms, they pose a significant threat to European nations: (1) the collected data fuels the creation of foundational models for robotics at the expense of our privacy, and (2) it enables an entry point and both a physical and logical attack vector from infrastructure located in China to the rest of the world.

Our discoveries are disruptive because they anticipate the future of this new data-hungry robotics: a generation of technological Trojan horses that will enter our homes, factories, and public spaces to solve specific problems, but at the cost of our privacy and fundamental rights. This scenario demands verifiable corrections and immediate regulatory oversight.

The findings mark a turning point in the conversation about trust in robotics. What began as an exploration of a consumer-grade humanoid has evolved into a broader warning about an emerging generation of data-hungry robots— machines designed to assist, yet capable of compromising privacy and safety if left unchecked.

Key findings

The research, published as a preprint and featured by IEEE Spectrum[1], uncovered a series of critical security and privacy issues within the Unitree G1 humanoid:

  • Bluetooth Low Energy (BLE) compromise and privileged code execution: Wi-Fi provisioning via Bluetooth Low Energy allows command injection that escalates to root access when in proximity — a wormable vector capable of propagating to other robots within BLE range.
  • Cryptography and static secrets: Shared keys and a proprietary cryptographic scheme with structural weaknesses were identified, reducing the overall confidentiality and integrity of the system.
  • Persistent telemetry every 300 seconds: The humanoid robot transmits multimodal telemetry data (including sensor readings and service status) without clear user notification, violating GDPR requirements (Articles 6 and 13).
  • Dual-use risk: A compromised robot can act as a covert sensor and, simultaneously, as a mobile platform for offensive operations and lateral movement across networks.
  • AI-driven research: The findings were guided by CAI (Cybersecurity AI) — an open-source cybersecurity AI framework, co-funded by the European Union, designed to democratize offensive-defensive security capabilities.

  1. https://spectrum.ieee.org/unitree-robot-exploit ↩︎

As robotic systems grow in complexity, their attack surface expands — demanding specialized, automated cybersecurity approaches. Coverage from outlets like IEEE Spectrum and TechXplore underscores the urgent need for transparent and verifiable robotic security standards.

Insufficient remediation, ongoing data flows

Following responsible disclosure, Alias Robotics reviewed Unitree’s latest firmware and mobile app updates. The conclusion: while minor fixes were introduced, critical vulnerabilities remain unaddressed and periodic telemetry continues to flow to servers hosted in China.

This persistence, the team warns, exemplifies the global race to harvest robotic data “at any cost” — a race to build large-scale Robotics Foundational Models (RFMs) that risks eroding privacy and sovereignty in the process.

Despite being initially overlooked, Alias Robotics reiterates its offer to collaborate with Unitree under the European Union’s framework of privacy, transparency and accountability, while continuing to inform regulatory bodies and promote the safe use of humanoid technologies.

CAI: European AI defending robotics

At the core of this research lies CAI (Cybersecurity AI)Alias Robotics’ open-source, AI-powered cybersecurity framework, co-funded by the European Union (EIC Accelerator, GA 101161136).
CAI automates vulnerability detection, threat modeling, and security auditing through distributed AI agents — a pioneering approach that blends automation, robotics and cyber defense.

Developed in collaboration with leading security experts including Kevin Finisterre and Andreas Makris, CAI exemplifies the European vision for trustworthy AI — open, auditable, and privacy-first.

Towards secure, transparent and sovereign robotics

As humanoid robots become more capable and autonomous, ensuring that they remain secure, private and transparent is no longer optional — it’s a collective responsibility.

Alias Robotics will continue advancing the field of Cybersecurity AI to make robotics safer for everyone.


Humanoides Inseguros: cuando la IA revela el lado oscuro de la robótica moderna

Alias Robotics expone la exfiltración de datos y los riesgos físicos en los robots humanoides de Unitree.

En el marco de IEEE Humanoids 2025, Alias Robotics presentó uno de los casos de ciberseguridad más reveladores de la robótica reciente.
Mediante su tecnología Cybersecurity AI (CAI) —un marco de ciberseguridad impulsado por inteligencia artificial, de código abierto y financiado por la Unión Europea—, el equipo vasco demostró cómo el humanoide Unitree G1 puede transformarse en una plataforma para el espionaje y los ciberataques.

Una nueva frontera del riesgo

Víctor Mayoral-Vilches, fundador de Alias Robotics y autor principal del estudio, revela que:

“Nuestros resultados muestran que los robots de Unitree actúan como auténticos caballos de Troya para la adquisición encubierta de datos. Más allá de su hardware de bajo coste frente a alternativas, representan un peligro significativo para las naciones europeas: (1) esos datos alimentan la creación de modelos fundacionales para robótica a costa de nuestra privacidad, y (2) habilitan un punto de entrada y un vector de ataque físico y lógico desde infraestructura ubicada en China hacia el resto del mundo.

Nuestros descubrimientos son disruptivos porque anticipan el futuro de esta nueva robótica hambrienta por datos: una generación de caballos de Troya tecnológicos que llegarán a nuestros hogares, fábricas y espacios públicos para resolver problemas puntuales, pero que a cambio podrían sacrificar nuestra privacidad y derechos fundamentales. Este escenario exige correcciones verificables y una supervisión regulatoria inmediata.”

Los hallazgos marcan un punto de inflexión en el debate sobre la confianza en la robótica. Lo que comenzó como la exploración de un robot humanoide de consumo ha evolucionado hacia una advertencia más amplia sobre una nueva generación de robots hambrientos de datos: máquinas diseñadas para ayudar, pero capaces de comprometer la privacidad y la seguridad si no se controlan adecuadamente.

Principales hallazgos

La investigación, publicada como preprint y destacada por IEEE Spectrum [1], identificó una serie de vulnerabilidades críticas en materia de seguridad y privacidad en el Unitree G1:

  • Compromiso Bluetooth Low Energy (BLE) y ejecución privilegiada de código: el aprovisionamiento Wi-Fi mediante BLE permite la inyección de comandos y la escalada de privilegios hasta acceso root, un vector “wormable” capaz de propagarse a otros robots cercanos.
  • Criptografía débil y secretos estáticos: se identificaron claves compartidas y un esquema criptográfico propietario con debilidades estructurales, reduciendo la confidencialidad e integridad del sistema.
  • Telemetría persistente cada 300 segundos: el robot humanoide transmite datos multimodales (como lecturas de sensores y estado de servicios) sin notificación clara al usuario, en violación de los artículos 6 y 13 del GDPR.
  • Riesgo de doble uso: un robot comprometido puede actuar simultáneamente como sensor encubierto y como plataforma móvil para operaciones ofensivas o movimiento lateral en redes.
  • Investigación guiada por IA: todos los hallazgos fueron impulsados por CAI (Cybersecurity AI) —un marco de ciberseguridad con IA de código abierto, cofinanciado por la Unión Europea, diseñado para democratizar las capacidades ofensivo-defensivas en seguridad.

  1. https://spectrum.ieee.org/unitree-robot-exploit ↩︎

A medida que los sistemas robóticos se vuelven más complejos, su superficie de ataque se amplía, requiriendo enfoques especializados y automatizados de ciberseguridad. Coberturas de medios como IEEE Spectrum y TechXplore subrayan la urgencia de establecer estándares de seguridad robótica transparentes y verificables.

Medidas insuficientes y flujo continuo de datos

Tras la divulgación responsable, Alias Robotics revisó las **últimas actualizaciones del firmware y de la aplicación móvil de Unitree.
La conclusión fue clara: aunque se introdujeron correcciones menores, las vulnerabilidades críticas siguen sin resolverse y la telemetría periódica continúa enviándose a servidores alojados en China.

Esta persistencia, advierte el equipo, ejemplifica la carrera global por recolectar datos robóticos “a cualquier precio” —una carrera por construir Modelos Fundacionales de Robótica (RFMs) a costa de la privacidad y la soberanía.

A pesar de haber sido inicialmente ignorada, Alias Robotics reitera su disposición a colaborar con Unitree bajo el marco europeo de privacidad, transparencia y rendición de cuentas, al tiempo que continúa informando a las autoridades competentes y promoviendo el uso seguro de las tecnologías humanoides.

CAI: inteligencia artificial europea al servicio de la ciberseguridad robótica

En el núcleo de esta investigación se encuentra CAI (Cybersecurity AI) —el marco de ciberseguridad con inteligencia artificial de Alias Robotics, de código abierto y cofinanciado por la Unión Europea (EIC Accelerator, GA 101161136).
CAI automatiza la detección de vulnerabilidades, el modelado de amenazas y las auditorías de seguridad mediante agentes de IA distribuidos, una aproximación pionera que combina automatización, robótica y ciberdefensa.

Desarrollado en colaboración con reconocidos expertos en ciberseguridad, como Kevin Finisterre y Andreas Makris, CAI ejemplifica la visión europea de una inteligencia artificial confiable: abierta, auditable y centrada en la privacidad.

Hacia una robótica segura, transparente y soberana

A medida que los robots humanoides se vuelven más capaces y autónomos, garantizar que sean seguros, privados y transparentes deja de ser opcional: es una responsabilidad colectiva.

Alias Robotics seguirá impulsando el campo de la ciberseguridad con IA (Cybersecurity AI) para hacer que la robótica sea más segura para todos.