- Waymo presentará un recall voluntario de software ante la NHTSA por el comportamiento de sus robotaxis cerca de autobuses escolares.
- Las pesquisas se originan tras incidentes grabados en Atlanta y al menos 19-20 episodios documentados por el Distrito Escolar de Austin.
- La compañía asegura haber actualizado el software el 17 de noviembre, mejorando el rendimiento hasta superar a conductores humanos en estos escenarios.
- No se han registrado heridos vinculados a los incidentes, pero el caso reabre el debate global sobre la seguridad y regulación de la movilidad autónoma.

El anuncio de un recall voluntario de software por parte de Waymo ha encendido todas las alarmas en el debate sobre la seguridad de los vehículos autónomos, especialmente en escenarios tan sensibles como la circulación cerca de buses escolares. Aunque, de momento, los incidentes se han producido en Estados Unidos, el caso se sigue muy de cerca en Europa, donde los reguladores analizan cualquier movimiento relacionado con la conducción sin conductor para anticipar futuras normas y exigencias técnicas.
La compañía de vehículos autónomos de Alphabet se ha visto presionada por la investigación de la NHTSA y por las quejas de distritos escolares en ciudades como Atlanta y Austin, que han denunciado maniobras peligrosas de los robotaxis junto a autobuses detenidos mientras subían o bajaban niños. Todo ello ha derivado en una decisión estratégica: reconocer el problema, actualizar el software y formalizar un recall que, aunque no implique pasar por el taller como en los coches tradicionales, sí supone una llamada de atención regulatoria de primer nivel.
Contexto del recall de software de Waymo
Waymo ha comunicado que presentará ante las autoridades de seguridad vial de Estados Unidos un recall de software específico centrado en cómo sus robotaxis reaccionan ante autobuses escolares parados, con luces rojas intermitentes y la señal de stop desplegada. Este tipo de escenario está fuertemente regulado en la mayoría de jurisdicciones, ya que se considera un momento de riesgo extremo para los menores que cruzan la calzada.
La chispa que terminó de forzar la intervención federal fue un vídeo grabado en Atlanta en el que se ve un vehículo autónomo de Waymo rodeando un bus escolar detenido mientras bajaban niños. El robotaxi cruzó perpendicularmente por delante del autobús desde su lado derecho y, a continuación, giró a la izquierda pasando por delante del morro del vehículo escolar, una maniobra que las normas de tráfico califican como ilegal cuando el bus mantiene sus señales activadas.
Este incidente no fue un caso aislado. En Austin (Texas), donde Waymo también opera un servicio de robotaxi en colaboración con Uber, el Distrito Escolar documentó al menos 19 a 20 casos en los que vehículos de la compañía habrían pasado autobuses escolares detenidos infringiendo la obligación de detenerse. Parte de estos episodios se registraron, según el propio distrito, incluso después de que la empresa afirmara haber mejorado el software.
La situación ha generado un intenso debate público en Estados Unidos, con cargos locales criticando que un sistema supuestamente más seguro que el conductor humano cometa fallos en situaciones tan críticas como la protección de menores. Aunque no se han reportado heridos, la percepción de riesgo y la presión mediática han pesado tanto como los datos puramente técnicos.
En Europa, donde los proyectos de vehículos autónomos avanzan con más cautela, estas noticias se analizan con lupa. Los reguladores europeos suelen tomar como referencia pesquisas de la NHTSA para ajustar sus propios marcos normativos, de modo que lo que ocurre en Atlanta o Austin hoy puede influir en cómo se supervisen los ensayos piloto en ciudades europeas mañana.

Qué motivó la actualización de los robotaxis
La Administración Nacional de Seguridad del Tráfico en Carreteras de Estados Unidos (NHTSA) abrió en octubre una investigación formal tras revisar el vídeo del incidente de Atlanta y recibir quejas adicionales de otros puntos del país. Su Oficina de Investigación de Defectos (ODI, por sus siglas en inglés) considera probable que existan más episodios similares, especialmente porque la flota de Waymo ha superado ya los 100 millones de millas recorridas y acumula cerca de dos millones de kilómetros adicionales cada semana.
En paralelo, el Distrito Escolar de Austin remitió una carta a la NHTSA en la que aseguraba haber recopilado al menos 19-20 ocasiones en las que los coches autónomos de Waymo pasaron de forma «ilegal y peligrosa» junto a autobuses escolares parados. En uno de los casos citados, el vehículo habría cruzado muy poco después de que un estudiante atravesara la calzada, cuando el menor aún se encontraba en la zona de la vía.
Ante estas denuncias, la NHTSA envió el 3 de diciembre una petición de información detallada a la compañía. El organismo reclamó datos técnicos sobre el sistema de conducción autónoma de quinta generación, registros de incidentes similares y detalles sobre cómo se había respondido internamente a cada caso. Además, fijó como fecha límite el 20 de enero de 2026 para recibir toda la documentación, lo que subraya la seriedad de la investigación.
Waymo, por su parte, sostiene que el problema se debía a un fallo concreto de software que afectaba a la forma en que sus algoritmos interpretan y priorizan la presencia y señalización de los autobuses escolares. La empresa explica que, en ciertos escenarios, el sistema podía no reconocer correctamente las luces o la señal de stop, o bien considerarlas de manera insuficiente frente a otros elementos del entorno, especialmente cuando el campo visual estaba parcialmente obstruido.
Identificado el error, la compañía afirma haber desplegado el 17 de noviembre una actualización que ajusta la lógica de detección, la distancia mínima de seguridad y los parámetros de desaceleración y parada alrededor de los buses escolares. Según Waymo, estos cambios habrían mejorado «de forma significativa» el comportamiento de sus robotaxis en esos casos, hasta situarlo en niveles de rendimiento superiores a los de conductores humanos.
Alcance del recall y respuesta de Waymo
El recall de Waymo se limita de forma específica al comportamiento de la flota ante buses escolares, pero su impacto va mucho más allá de un ajuste técnico puntual. Al tratarse de un recall de software, la actualización se aplica en remoto a todos los vehículos afectados, sin necesidad de que los usuarios acudan físicamente a un taller, algo cada vez más habitual en la industria de la automoción conectada.
Según la empresa, la decisión de presentar el recall de manera voluntaria ante la NHTSA se tomó precisamente para diferenciar una actuación proactiva de la simple reacción a una orden regulatoria. De este modo, Waymo intenta mostrar que asume la responsabilidad de revisar sus sistemas antes de que la autoridad dicte posibles medidas más duras, como limitaciones operativas o incluso prohibiciones temporales en determinadas zonas.
En declaraciones enviadas a varios medios, el director de Seguridad de Waymo, Mauricio Peña, ha subrayado que, aunque la compañía está «orgullosa» de su historial de seguridad —incluyendo datos internos que apuntan a tasas de accidentes con heridos muy inferiores a las de conductores humanos—, mantener los estándares más exigentes implica reconocer cuando el comportamiento del sistema «debe mejorar».
Peña insiste en que no se han registrado heridos relacionados con los incidentes objeto de este recall, algo que Waymo repite en sus comunicaciones para reforzar la idea de que los errores detectados se han quedado en sustos y maniobras preocupantes, pero sin consecuencias físicas. Aun así, la compañía admite que seguirá analizando el rendimiento de sus vehículos y aplicando nuevas correcciones de ser necesario, dentro de un enfoque de «mejora continua».
La firma también recuerda que este no es su primer recall: ya había llevado a cabo otro procedimiento voluntario a principios de este año y dos en 2024, uno de ellos tras un choque de baja velocidad contra un poste telefónico en Phoenix, en un vehículo que circulaba sin conductor de seguridad humano. Para la empresa, estos episodios demuestran que el software de conducción autónoma es un producto vivo, que evoluciona con cada kilómetro recorrido y con cada incidente analizado.
Conflictos locales y percepción pública
Más allá de los trámites con la NHTSA, parte de la presión sobre Waymo llega de los distritos escolares y de las autoridades locales que conviven a diario con los robotaxis. En Austin, por ejemplo, el distrito escolar solicitó a la compañía que pausara sus operaciones durante las franjas de mayor tráfico de autobuses, unas cuatro horas al día en los momentos de entrada y salida de los colegios.
Waymo, según han explicado responsables educativos, rechazó esa petición y discrepó con la evaluación del riesgo realizada por el distrito. Esa negativa ha reforzado las críticas de quienes consideran que la empresa prioriza mantener su servicio y la recopilación de datos frente a una actitud más conservadora cuando hay menores en juego.
Las imágenes difundidas por medios locales muestran varios casos en los que los robotaxis no se detienen a tiempo o continúan avanzando junto a autobuses con estudiantes subiendo o bajando. Aunque muchos de estos episodios no terminan en un incidente grave, sí alimentan la sensación de que los coches autónomos aún no responden con la misma prudencia instintiva que se esperaría de un conductor humano corriente, especialmente en entornos escolares.
En ciudades europeas que están comenzando a probar la conducción autónoma en ámbitos acotados —por ejemplo, proyectos piloto de shuttles automatizados en campus universitarios o polígonos industriales—, este tipo de imágenes se observan con cierta prevención. La percepción pública será clave para que la ciudadanía acepte ver vehículos sin conductor cerca de colegios, pasos de peatones o zonas de alta concentración infantil.
En este contexto, las empresas que quieran operar en Europa, ya sea Waymo u otros competidores, deberán demostrar no solo que su tecnología es estadísticamente más segura, sino que muestran una sensibilidad especial hacia los colectivos vulnerables, adoptando márgenes de seguridad más amplios, restricciones horarias o geográficas y protocolos de coordinación con escuelas y ayuntamientos.
Implicaciones para la movilidad autónoma en Europa
Aunque el recall de Waymo se tramita ante autoridades estadounidenses, sus consecuencias regulatorias pueden sentirse a ambos lados del Atlántico. La Unión Europea está en pleno proceso de definir marcos comunes para la conducción automatizada, mientras países como Alemania, Francia o España ensayan fórmulas legales para permitir pruebas controladas en vías públicas.
Los supervisores europeos suelen inspirarse en precedentes de la NHTSA y de otras agencias internacionales cuando diseñan nuevas reglas. Es probable que, a raíz de este caso, se dé todavía más peso a la gestión de escenarios de alto riesgo —como los entornos escolares— en las evaluaciones previas a la autorización de pruebas o despliegues comerciales de vehículos autónomos.
En el caso concreto de España, donde la DGT ha ido autorizando pequeños pilotos de sistemas de conducción automatizada en entornos muy delimitados, no sería extraño que se exigieran protocolos adicionales para cualquier ensayo que pudiera aproximarse a rutas escolares, paradas de autobús o zonas infantiles. Esto podría traducirse en limitaciones horarias, geocercas que eviten ciertos puntos o requisitos técnicos para una detección reforzada de autobuses y peatones.
También es previsible que las autoridades europeas pidan a las empresas que demuestren no solo tasas globales de accidentes más bajas, sino datos desglosados por tipo de escenario: interacción con peatones, ciclistas, transporte escolar, cruces sin semáforo, etc. El caso Waymo subraya que los problemas más delicados aparecen precisamente en los llamados edge cases, esos casos límite que son raros en estadísticas generales, pero extremadamente sensibles desde el punto de vista social y político.
Para la industria de la movilidad autónoma en Europa, este tipo de recalls es una advertencia: no basta con una buena media de seguridad, hay que demostrar un comportamiento robusto en los momentos en que la sociedad es menos tolerante al fallo, como cuando hay menores involucrados. Las empresas que sean capaces de anticiparse a estas exigencias podrían ganar ventaja a la hora de negociar permisos y alianzas con administraciones locales.
Lecciones para startups y proyectos de IA aplicada al transporte
El episodio de Waymo ofrece varias enseñanzas para startups de movilidad autónoma e inteligencia artificial, tanto en Estados Unidos como en España y el resto de Europa. La primera es casi de manual: colaborar estrechamente con los reguladores no es opcional, sino parte esencial de la estrategia de producto cuando la tecnología opera en espacios públicos.
Cualquier empresa que esté desarrollando sistemas de conducción automatizada o soluciones basadas en IA para el transporte debería contemplar, desde fases tempranas, la necesidad de testear exhaustivamente escenarios de borde. No basta con que el algoritmo funcione bien en condiciones de tráfico habituales; hay que recrear, simular y revisar de forma obsesiva aquellos casos en los que un error puede tener un impacto reputacional y regulatorio devastador, aunque estadísticamente sean raros.
Otra lección clave es la importancia de diseñar una estrategia de comunicación transparente. Waymo ha puesto mucho énfasis en recordar que sus coches registran «doce veces menos accidentes con lesiones» que los conductores humanos y en que no ha habido heridos vinculados a este recall. Sin embargo, los responsables públicos y la opinión pública valoran tanto esas cifras como la forma en que la compañía admite fallos, comparte información y se compromete a corregirlos.
En Europa, donde el escrutinio sobre el uso de datos y la ética de la IA es especialmente severo, las startups de movilidad harían bien en integrar equipos de relaciones institucionales y cumplimiento normativo desde el inicio. Esto incluye anticipar informes detallados a las autoridades, mecanismos de auditoría externa y canales de diálogo con asociaciones de padres, sindicatos de transporte escolar y otros actores sociales.
Por último, el caso refuerza la idea de que la ventaja competitiva no solo reside en el algoritmo o en el sensor más avanzado, sino en la capacidad de gestionar el riesgo. Las empresas que sepan ajustar rápidamente su software, activar recalls voluntarios antes de que lo exija el regulador y demostrar que ponen la seguridad por delante de la expansión comercial tendrán más opciones de mantenerse en el mercado a largo plazo.
Todo este proceso alrededor del recall de software de Waymo ilustra cómo la movilidad autónoma está entrando en una fase en la que cada incidente se analiza con lupa y puede marcar el rumbo regulatorio global. Aunque el caso se concentra hoy en Atlanta y Austin, su eco llega a Europa, donde los reguladores y la industria toman nota: la promesa de coches sin conductor deberá convivir con una exigencia creciente de seguridad extrema en escenarios sensibles como los autobuses escolares, y quienes no estén dispuestos a asumir ese listón lo tendrán muy difícil para ganarse la confianza de las administraciones y de la ciudadanía.