Utilizamos cookies en nuestro sitio web para personalizar el contenido y los anuncios, para proporcionar funciones de redes sociales y para analizar el tráfico a nuestro sitio web. Para brindarle una experiencia en línea conveniente y mejorar nuestras comunicaciones, haga clic en "ACEPTAR TODO". Al hacerlo, acepta el procesamiento y el intercambio de su información con nuestros socios de redes sociales, publicidad y análisis. Puede revocar su consentimiento en cualquier momento en la
Configuración de Privacidad de datos
.
Informe DEKRA sobre Seguridad Vial 2025: Inteligencia Artificial
La inteligencia artificial en los vehículos: se debe garantizar la seguridad y la confiabilidad
22 oct 2025Seguridad en carretera
La creciente integración de la inteligencia artificial (IA) en los vehículos de carretera ofrece un potencial considerable para mejorar la seguridad vial. Sin embargo, no debemos ignorar los altos riesgos que pueden estar asociados a fallos en los sistemas de IA, los cuales nunca pueden descartarse, advierte Xavier Valero, Director de Inteligencia Artificial y Análisis Avanzado en DEKRA. Por eso, regulaciones y normativas como la Ley de IA de la Unión Europea cobran aún más importancia como marco legal para el desarrollo de estos sistemas. Este es uno de los muchos temas abordados en el más reciente Informe DEKRA sobre Seguridad Vial 2025, “El rostro cambiante de la movilidad”.
Procedimientos estrictos de prueba y validación para los sistemas de IA son esenciales
DEKRA desempeña un papel clave en la promoción de aplicaciones seguras de IA en vehículos
El posible error humano se traslada al diseño de las tecnologías de la información
Ya sea para reconocer señales de tráfico, peatones, ciclistas o vehículos, monitorear la presión de los neumáticos o la temperatura del motor, o para activar el frenado automático o los cambios de carril, los sistemas avanzados de asistencia al conductor (ADAS) asumirán tareas importantes en cada vez más vehículos en el futuro. Sin embargo, dado que una falla podría poner en peligro la salud y la vida humana, la Unión Europea ha clasificado estos ADAS como sistemas de alto riesgo en su Ley de IA, adoptada en 2024. “Estos sistemas, que son cruciales para una conducción segura, deben estar sujetos a una supervisión y validación estrictas para garantizar su confiabilidad y evitar riesgos”, enfatiza Xavier Valero.
La Ley de IA también permite excepciones si los sistemas de IA ya han sido evaluados conforme a regulaciones existentes, como la homologación de tipo de vehículos (Reglamento UE 2018/858). Esto significa que dispositivos de seguridad como los ADAS, aunque están regulados indirectamente por la Ley de IA, pueden validarse a través de los procedimientos de homologación de tipo existentes, sin necesidad de evaluaciones adicionales por terceros. “Además de garantizar que sus sistemas cumplan con los requisitos de la Ley de IA, los proveedores de sistemas deben establecer un sistema integral de gestión de IA con directrices y flujos de trabajo claros dentro de su organización”, añade el experto de DEKRA.
Asimismo, todas las partes involucradas —proveedores tecnológicos, integradores y fabricantes— deben contribuir a asegurar la seguridad del sistema, la protección de los datos y la transparencia.
“Un sistema integral de gestión de calidad que abarque todo el ciclo de vida de la IA es necesario para el cumplimiento total, ya que asegura que todas las actividades sean trazables y verificables”, señala Xavier Valero.
Monitoreo continuo
La ISO/PAS 8800 ofrece directrices para la seguridad de los sistemas de IA en la industria automotriz. Cubre todo el ciclo de vida de la IA, desde el diseño hasta la implementación, y garantiza que los sistemas sean seguros y confiables en cada etapa.
La norma complementa la ISO 26262 (seguridad funcional) y la ISO 21448 (SOTIF – seguridad de la funcionalidad prevista) para abordar los riesgos potenciales asociados con los sistemas controlados por IA. También destaca la importancia del control de calidad de los datos, la validación del sistema y el monitoreo continuo durante la operación.
DEKRA juega un papel clave en la promoción de aplicaciones seguras y confiables de IA en vehículos de carretera. La organización independiente de expertos participa en discusiones regulatorias, tiene experiencia en el diseño de mejores prácticas y ofrece capacitación, evaluación y certificación según la ISO 8800. Esto busca permitir que los fabricantes aseguren que sus sistemas de IA cumplan con los más altos estándares de seguridad.
Moral dilemmas investigated experimentally
El uso de sistemas de IA en los vehículos también presenta desafíos en cuanto a cuestiones éticas y a garantizar los requisitos fundamentales de protección. “Cuanto mayor es el grado de automatización, más se trasladan las causas de los accidentes desde el error humano en el vehículo mismo hacia el error humano en el diseño informático detrás de la interfaz hombre-máquina”, explica el psicólogo de tráfico de DEKRA, Dr. Thomas Wagner. Esto se debe a que quienes desarrollan el software de IA para vehículos deben tomar una multitud de decisiones. Entre ellas, el comportamiento de los vehículos totalmente automatizados en caso de un accidente inevitable y la pregunta de quién debería resultar potencialmente perjudicado.
“En esencia, esto implica rutinas de toma de decisiones programadas para distribuir el riesgo de daño entre las distintas partes involucradas en un accidente”, continúa el experto de DEKRA. Tanto los fabricantes de automóviles como los responsables políticos deben enfrentar estos dilemas morales. En última instancia, el consenso sobre los principios que guían estas decisiones es especialmente importante para la sociedad en general, ya que, de lo contrario, los vehículos totalmente automatizados no serán ampliamente aceptados ni utilizados en la sociedad.
Para cuantificar las expectativas sociales respecto a los principios éticos relacionados con el comportamiento en conflictos de los vehículos totalmente automatizados, un grupo de científicos liderado por Edmond Awad llevó a cabo el experimento “Moral Machine”. Los participantes debían elegir su opción preferida en escenarios de accidentes inevitables con dos posibles resultados: que el vehículo totalmente automatizado maniobrara o mantuviera su trayectoria. La colección Moral Machine llegó a reunir casi 40 millones de decisiones tomadas por millones de personas en 233 países y regiones. Un total de 130 países se dividieron en tres grandes grupos: el grupo occidental (Norteamérica y muchos países europeos), el grupo oriental (por ejemplo, Japón y países islámicos) y el grupo del sur (países de América Central y del Sur).
Se observaron diferencias claras en algunas preferencias entre los tres grupos. Por ejemplo, la preferencia por salvar a personas jóvenes sobre personas mayores y a personas con mayor estatus sobre aquellas con menor estatus fue significativamente menos pronunciada en los países del grupo oriental que en el occidental. Los países del grupo del sur mostraron una preferencia mucho menor por salvar personas en lugar de mascotas, en comparación con los otros dos grupos. Solo la preferencia por salvar peatones sobre pasajeros y la preferencia por proteger a los usuarios de la vía que respetan las normas frente a quienes las infringen parecen estar igualmente presentes en todos los grupos.
“Los resultados de este experimento muestran lo complejo y multifacético que es el conjunto de cuestiones que deben resolverse al programar”, afirmó el Dr. Wagner. “Una discusión intensiva dentro de las sociedades y el mayor consenso internacional posible son esenciales para el futuro”.
Para más información sobre este tema, así como sobre muchos otros aspectos de “El rostro cambiante de la movilidad”, se puede consultar el Informe DEKRA sobre Seguridad Vial 2025. Está disponible en
www.dekra-roadsafety.com.