Corporación Americana de Radar

Texto|? Liu Wanyuan

Editor | Shi Zhiliang

Ya sea L2.9 o L3+ en el lenguaje promocional de las empresas de automóviles, cada vez hay más sensores en los automóviles.

Waymo, líder mundial en conducción autónoma, cuenta con un sistema de conducción autónoma de quinta generación con 40 sensores, entre ellos 29 cámaras, 6 radares de onda milimétrica y 5 lidars. Las nuevas fuerzas nacionales de fabricación de automóviles no están satisfechas con la inteligencia y la automatización de los automóviles. NIO ES8 está equipado con 23 sensores y Xpeng P7 tiene 31, superando a Tesla.

Con la llegada de los cambios en los automóviles inteligentes, las empresas de tecnología automovilística de todo el mundo, independientemente de su tamaño, apuestan por eliminar el volante de los coches o debilitar parcialmente el papel de los conductores humanos. Algunos jugadores están atacando la conducción autónoma L4 cuando están subiendo a la cima, y ​​​​algunos están comenzando desde la conducción autónoma L1 y L2 paso a paso. Sin embargo, el mercado de soluciones de sensores para vehículos se ha vuelto cada vez más grande.

Yole, ¿una empresa de investigación de mercados? El "Informe de sensores de conducción autónoma 2020" publicado por dédevelopment predice que los sensores para vehículos autónomos crecerán a una tasa de crecimiento anual compuesta del 51% en los próximos 15 años, y los ingresos totales por hardware de detección alcanzarán los 1.700 millones de dólares en 2032, aproximadamente 165.438 RMB. +065.438 yuanes.

En el mercado de cientos de miles de millones de sensores automotrices, China ha perdido oportunidades de I+D y participación de mercado. La industria de sensores automotrices, como cámaras, radares de ondas milimétricas y lidar, ha estado monopolizada por marcas extranjeras durante muchos años, pero algunas marcas nacionales ya se están preparando para recuperar el estatus de sensores nacionales.

¿Cómo permiten las cámaras, el radar de ondas milimétricas y el lidar a los coches percibir el entorno como los humanos? ¿Pueden los automóviles alcanzar el nivel de vehículos totalmente autónomos basándose únicamente en el reconocimiento de imágenes? Más allá del sector automovilístico, ¿cómo ayudarán los sensores en la carretera a que los coches autónomos aterricen más rápido?

En comparación con los coches tradicionales, la función principal del sistema de percepción de los coches autónomos es sustituir el sistema visual del conductor humano: convirtiendo la información percibida en señales eléctricas según reglas específicas y transmitiéndola a La unidad de control central del vehículo ayuda en la conducción autónoma del vehículo.

La conducción autónoma consiste, en última instancia, en hacer que los coches sean inteligentes. En cuanto a cómo la inteligencia artificial puede ayudar a los humanos, a menudo se dice en la industria que las áreas en las que los sistemas de inteligencia artificial son buenos son exactamente opuestas a las que los humanos son buenos. Las capacidades de análisis lógico de los humanos superan con creces las de la IA, pero en áreas como la memoria y el análisis de big data, los humanos están muy por detrás de la IA.

Este fenómeno también existe en los sistemas de percepción de los coches. Los conductores humanos pueden identificar peatones, vehículos y semáforos en la carretera utilizando únicamente el sentido común y la cognición, y tomar las decisiones correspondientes, como acelerar, desacelerar y girar. Pero es muy difícil para una computadora completar la misma operación. La percepción y el reconocimiento son los primeros obstáculos.

Los sensores principales actuales para la conducción autónoma incluyen cámaras a bordo, radares de ondas milimétricas y lidar. En el sistema ADAS, las cámaras y el radar de ondas milimétricas son los sensores principales, y el lidar se ha convertido en imprescindible para la mayoría de los vehículos autónomos por encima del nivel L3.

Las cámaras de los coches desempeñan el papel de "ojos" humanos.

▲? Imagen de Internet

Como sensor más indispensable en la conducción autónoma, las cámaras pueden distinguir el tamaño y la distancia de los obstáculos, identificar peatones, líneas de carril, señales de tráfico, etc. y analiza la información de la imagen a través de algoritmos para lograr muchas funciones de reconocimiento y alerta temprana, como advertencia de peatones, mantenimiento de carril, reconocimiento de semáforos, etc. Según el número de lentes, las cámaras se pueden dividir en cámaras de lente única, cámaras binoculares y cámaras de lentes múltiples.

Las principales ventajas de este tipo de cámaras son la alta resolución y el bajo coste. El ojo humano puede capturar rápidamente una gran cantidad de información y la cámara también puede obtener información rica, pero al igual que el ojo humano, se ve afectado por el campo de visión y el entorno. Una sola cámara puede capturar hasta 50 imágenes y la distancia de visualización es limitada; de noche y con mal tiempo, como lluvia y nieve, el rendimiento de la cámara disminuirá rápidamente.

En marzo de 2018, un vehículo autónomo de Uber chocó con una mujer que cruzaba la calle en Arizona, matándola. La razón principal es que debido a las malas condiciones de iluminación, la carretera queda en sombras por la noche y no se puede identificar con precisión a los peatones.

El radar de ondas milimétricas suple las carencias de las cámaras. Se parece más a la oreja de un murciélago que a un ojo humano: los murciélagos emiten ondas ultrasónicas a través de sus oídos, identifican objetos basándose en sus ecos reflejados y evitan obstáculos, por lo que no les afectan las condiciones de luz.

El radar de ondas milimétricas es similar al principio de vuelo de un murciélago. Utiliza una antena para emitir ondas milimétricas con una longitud de onda de 1 a 10 mm y una frecuencia de 24 a 300 GHz procesando la señal reflejada del. objetivo, se obtiene la distancia relativa entre el automóvil y otros objetos. La información ambiental, como la velocidad relativa, se utiliza para rastrear y clasificar objetivos basándose en esta información. La unidad de control electrónico toma decisiones basadas en la información dinámica de la carrocería del vehículo.

La ventaja del radar de ondas milimétricas es que tiene una gran capacidad antiinterferente y su capacidad de penetración en lluvia, polvo, neblina y plasma es mayor que la del láser y el infrarrojo. Atenuación de la señal y es fácilmente bloqueada por edificios. Distancia de transmisión corta y otros defectos.

El principio de funcionamiento del lidar es similar al del radar, pero su mayor ventaja es que puede utilizar la tecnología de imágenes Doppler para generar imágenes claras en 3D de los objetivos.

La distancia se determina midiendo la diferencia de tiempo y la diferencia de fase de la señal láser, y las coordenadas tridimensionales, la reflectividad y la información de textura de una gran cantidad de puntos densos en la superficie del objeto objetivo recopilados. Durante el proceso se utilizan para obtener rápidamente el objetivo medido y diversos datos relacionados, como líneas, superficies y cuerpos, para lograr el propósito de la percepción ambiental.

Zhao Xin, director del departamento de ingeniería de seguridad y calidad de un fabricante nacional de lidar, dijo a Traveler (ID:carcaijing) que el lidar es un sensor indispensable para la conducción autónoma, especialmente en niveles L4 y superiores. LiDAR tiene ventajas obvias, como alta resolución, alta precisión y una gran capacidad antiinterferente. Cuantas más líneas tenga el lidar, mayor será la precisión de la medición y mayor la seguridad.

“Ya sea la precisión de la detección, la riqueza de la información o la percepción real del mundo exterior, todos ellos son esenciales para los vehículos no tripulados”, afirmó Zhao Xin.

Lidar es un instrumento de precisión, y su principio de funcionamiento involucra múltiples disciplinas profesionales. En particular, las principales empresas líderes tienen años de profundo cultivo y acumulación en campos relacionados, y sus productos maduros tienen alta precisión, lo que resulta en costos lidar más altos y precios más caros. Sin embargo, como hardware inteligente en vehículos autónomos, el desarrollo de toda la industria de la conducción autónoma y la apertura y cooperación de la cadena industrial se han convertido en una fuerza importante para promover la reducción de costos de lidar.

Por otro lado, cuantas más líneas tiene un lidar, más detalles ambientales puede percibir, más rica será la cantidad de datos de nubes de puntos que recibe y mayores serán los requisitos de software y hardware. Tener suficiente potencia informática para procesar la información ambiental capturada por los sensores se ha convertido en una parte importante de las soluciones de conducción autónoma.

La industria de sensores para automóviles alguna vez estuvo dominada por fabricantes extranjeros.

Con la promoción gradual de la tecnología de conducción autónoma, la demanda del mercado de cámaras para vehículos, radares de ondas milimétricas y lidar también está creciendo rápidamente. Debido a las altas barreras técnicas y los altos requisitos para los sistemas de software y hardware, las empresas extranjeras de Nivel 1 tienen ventajas obvias de ser pioneras en términos de I+D, confianza en la marca y participación de mercado.

Entre los proveedores de tecnología de reconocimiento de imágenes dominados por las cámaras, la empresa israelí Mobileye ocupa una posición absolutamente dominante. Mobileye ofrece a los fabricantes de automóviles una solución global de "cámara para vehículos + algoritmo + chip de procesamiento de visión". En 2019, llevó a cabo 45 proyectos de cooperación con 26 empresas automovilísticas de todo el mundo, recibió pedidos de 22 nuevos modelos de más de 160.000 vehículos y la tasa de penetración en el mercado superó el 70%.

En el campo del radar de ondas milimétricas, el mercado mundial de radares de ondas milimétricas está monopolizado por gigantes internacionales como Bosch, Valeo, Hella, Continental, Delphi y Denso, porque las tecnologías clave de software y El hardware está monopolizado por el capital extranjero. Según las estadísticas de OFweek, un portal integral para la industria de alta tecnología de China, Bosch, China continental y Hella fueron las tres principales empresas en el mercado mundial de radares de ondas milimétricas en 2018, con cuotas de mercado del 19%, 16% y 12% respectivamente. .

El monopolio de mercado de lidar es aún más obvio. La American Velodon Technology Company, que una vez dominó la tecnología central, es casi sinónimo de lidar. Fundada en 1983, Velodyne fue alguna vez la única opción para las empresas nacionales de tecnología sin conductor y ha cooperado con Google, General Motors, Ford, Uber, Baidu, etc. , ocupando la mayor parte de la cuota de mercado de lidar automotriz.

En los últimos años, con la ola de automóviles inteligentes en China, el número de sensores montados en vehículos es cada vez mayor, y las marcas nacionales rivales también están aumentando.

Recientemente, en la Conferencia Mundial sobre Vehículos Inteligentes y Conectados de 2020, se lanzó oficialmente la "Hoja de ruta de tecnología de vehículos conectados inteligentes 2.0". Está previsto que para 2025, los coches inteligentes conectados de conducción autónoma L2 y L3 representen el 50% de las ventas totales de automóviles en China.

CITIC Securities predice que la demanda de sensores crecerá exponencialmente y se espera que el mercado de sensores para automóviles supere los 34 mil millones de yuanes en 2023.

Los proveedores nacionales de los tres sensores están trabajando arduamente para recuperar la cuota de mercado del nivel 1 extranjero.

El modelo cerrado de "caja negra" de Mobileye ha restringido en gran medida la investigación y el desarrollo de las empresas de automóviles, pero también ha brindado a los proveedores nacionales de soluciones de cámaras la oportunidad de adelantar en las curvas. Mobileye "agrupa" el algoritmo con el chip, y los fabricantes posteriores con los que coopera solo pueden obtener la señal de salida, pero no conocen el algoritmo de reconocimiento específico y no pueden modificar el algoritmo en consecuencia. Por otro lado, Mobileye no ha podido demostrar sus capacidades informáticas y de integración multisensor en sistemas de conducción autónoma de nivel superior.

En términos de soluciones de sistemas de cámaras, los chinos Desay 4D, Baidu Apollo, Huawei y otros fabricantes ya han expuesto sus planes. Desai Siwei es el proveedor de sistemas de conducción autónoma detrás de dos empresas de automóviles ideales, Xpeng, y también es el primer nivel 1 de conducción autónoma local respaldado por NVIDIA en China.

Xpeng Cars le dijo a un viajero (ID: carcaijing), ¿Xpeng? ¿P7? El sistema de percepción de asistencia automática a la conducción considera plenamente los requisitos de las condiciones de las carreteras locales de China para las capacidades de percepción. Xpeng tiene 11 cámaras, pero ¿combinadas con Nvidia? ¿conducir? ¿Javier? La plataforma informática y el controlador de conducción autónomo IPU03 desarrollado por Desai 4D tienen una potencia informática de hasta? 30?TOPS (billones de operaciones por segundo) son suficientes para satisfacer las necesidades informáticas de procesamiento de información de datos masiva.

Además, han surgido un gran número de empresas de tecnología de percepción visual, como MAXIEYE, Jiezhi, MINIEYE, etc. , desde diferentes perspectivas como la percepción visual y la percepción panorámica. Aunque todavía existe una brecha entre Mobileye y Mobileye, esta brecha se está reduciendo con la investigación y el desarrollo activos y la producción en masa de las empresas nacionales.

Las empresas a la vanguardia del radar nacional de ondas milimétricas incluyen Desay 4D, Huayu Automobile, Senstek, etc. Sin embargo, la industria de radares de ondas milimétricas para automóviles de mi país aún no domina la tecnología central y la tasa de penetración en el mercado aún es baja. Los datos muestran que en el mercado chino de radares de 77 GHz, China, Bosch y Delphi todavía representan más del 80% de los envíos.

“El radar de ondas milimétricas se utilizó por primera vez en el campo militar. Los países extranjeros han comenzado a desarrollarlo y aplicarlo en el campo automotriz desde hace mucho tiempo, especialmente bajo el bloqueo de la tecnología de 77 GHz, que es difícil de romper para las marcas nacionales. "Estas marcas extranjeras? 1 y la industria automotriz han establecido relaciones de cooperación estables y a largo plazo. Es difícil para las marcas nacionales pasarlas por alto y cooperar con OTM porque otras tienen planes de aplicación muy completos", dijo Wang Xiaobin, experto en la industria automotriz. dijo a The Paper (ID:carcaijing).

Otra limitación es que la tecnología de las cámaras y el radar de ondas milimétricas es relativamente madura y de bajo costo, y el precio es mucho más económico que el lidar. Es difícil para las marcas nacionales comenzar con la rentabilidad.

Desde la perspectiva de la distribución de valor de la cadena industrial, debido a las barreras técnicas y la escasez de fabricantes, el valor agregado de la industria lidar es mayor.

Lidar es uno de los tres sensores más caros y una parte indispensable de la conducción autónoma avanzada. Siempre ha estado liderado por los vendedores. Sin embargo, en los últimos años, las marcas nacionales han mostrado el impulso de los recién llegados en el campo del lidar: fabricantes nacionales como Jose Technology y Sagitar Juchuang han lanzado diferentes líneas de productos y soluciones, centrándose en el rendimiento de costos y cumpliendo con los requisitos de las regulaciones de vehículos. La ventaja de precio se ha apoderado de la cuota de mercado de Veledon.

El lidar mecánico doméstico con las mismas especificaciones es mucho más barato que Velodyne. El precio del lidar de 64 líneas de Velodyne alcanzó una vez los 654,38 millones de dólares estadounidenses y, después de la reducción de precio, costará más de 500.000 yuanes. El precio de venta recomendado de PandarQT, el producto de 64 líneas lanzado por Wasai en octubre de este año, está fijado en 4.999 dólares estadounidenses.

Zhao Xin cree que aunque hay muchos factores que limitan la implementación de todos los vehículos sin conductor, para las empresas operadoras, el costo puede no ser la primera prioridad, y si el rendimiento cumple con los estándares y es estable puede ser más importante.

“La introducción de lidar que transporta más información puede acelerar la implementación de las operaciones de Robotaxi. Algunos lidars tienen un alcance de detección de 200 metros, pero el alcance de detección real es inferior a 200 metros, lo que puede dificultarlo. detectar o un error de percepción", dijo Zhao Xin.

De hecho, en China no sólo los taxis sin conductor de Didi, Maxiao y WeRide están equipados con el lidar de Hesse, sino que también las marcas nacionales están incursionando en Silicon Valley.

En 2019, más de la mitad de las empresas de California que obtuvieron licencias de conducción autónoma del DMV son clientes de Hessen. La información pública muestra que 12 de las 15 empresas más importantes del mundo en términos de kilometraje de pruebas de conducción autónoma eligen los productos de José como sus principales sensores, incluidas las principales empresas de conducción autónoma como General Cruise, Zoox y Aurora, que tienen una cooperación profunda con Veledón.

Durante muchos años, ha habido dos caminos diferentes sobre cómo combinar sensores a bordo para proporcionar soluciones para la conducción asistida avanzada e incluso la conducción autónoma por encima del nivel L4.

El primer tipo consta de componentes de bajo coste, como cámaras y radares de ondas milimétricas, formando computación visual pura. Los representantes típicos son Tesla y Mobileye, y el otro está compuesto por lidar, cámara y radar de ondas milimétricas. Los representantes típicos son los principales fabricantes de vehículos autónomos, como Waymo y Apollo.

Desde el punto de vista del control de precios, el coste del lidar es mucho mayor que el de las cámaras y los radares de ondas milimétricas. Tesla eligió la ruta dominada por la tecnología de detección de imágenes debido a consideraciones de coste.

Los expertos de la industria creen que existen diferencias en los métodos de toma de decisiones de las dos rutas. La solución de conducción autónoma que utiliza cámaras como sensor principal es "ligera en percepción y pesada en cálculo", mientras que la solución de conducción autónoma que utiliza lidar como sensor principal tiene características obvias de "pesada en detección y ligera en cálculo".

En pocas palabras, las cámaras deben depender de la mejora de los algoritmos de software y una gran cantidad de entrenamiento de datos para compensar el bajo nivel de percepción de la solución de hardware, y la adición de lidar reduce la computación. requisitos de energía para el procesamiento de datos hasta cierto punto, lo que también ayudará a acelerar el proceso de comercialización de vehículos autónomos L4.

Elon Musk ha expresado públicamente en muchas ocasiones su desprecio por las soluciones lidar. Musk cree que los humanos logran una conducción segura mediante la recopilación visual de información + el procesamiento cerebral de información, lo que significa que la conducción autónoma también se puede lograr mediante la percepción visual + la toma de decisiones algorítmicas.

Tesla lanzó recientemente una versión reescrita de Full? El Fully Self-Driving Suite (FSD) para la conducción autónoma muestra sus ventajas técnicas en el reconocimiento visual, pero los expertos de la industria señalan que la capacidad del FSD para lograr un reconocimiento preciso y una toma de decisiones autónoma es inseparable de los datos de conducción masivos que hay detrás.

Tesla consigue la cobertura de escenarios avanzados de conducción autónoma a través de cámaras, sensores ultrasónicos y un radar frontal que cubren todo el vehículo. Su mayor apoyo proviene del entrenamiento de redes neuronales basado en datos postventa del vehículo. A través del aprendizaje profundo, cubre más condiciones y escenas de trabajo, lo que hace que el algoritmo visual se acerque infinitamente a la percepción y el juicio humanos.

“La razón por la que no lanzaron esta función al principio no fue porque no tenían la capacidad o el algoritmo no estaba completo, sino más bien porque los datos eran insuficientes y los escenarios no estaban completamente verificados. Los datos recopilados de los modelos producidos en serie son útiles para otros fabricantes de automóviles y también tienen un significado orientador”, dijo a una brigada un experto del sector (ID:carcaijing).

La ruta de Tesla no es la corriente principal. Zhao Xin dijo que los cambios dinámicos en la cadena industrial reflejan la necesidad del lidar. "El número de fabricantes de lidar ha aumentado y más fabricantes de automóviles han comenzado a utilizar lidar. Esto puede ser más convincente que discutir la ruta técnica".

Algunos profesionales creen que es necesario alcanzar el nivel L4 y arriba La conducción autónoma requiere una verificación exhaustiva de varios sensores, como lidar, cámaras y radar de ondas milimétricas.

En una entrevista colectiva con los medios, Zhang Lin, presidente de Fretek, una empresa nacional de conducción inteligente, señaló que es difícil lograr una conducción totalmente autónoma confiando únicamente en tecnología de detección de imágenes y algoritmos visuales. Es necesario integrar los algoritmos Lidar, lo que también es importante para la conducción autónoma. Las capacidades de autoinvestigación de algoritmos y las habilidades de fusión plantean requisitos más altos.

“La gran mayoría de las empresas de tecnología que fabrican logotipos compran radares de fabricantes internacionales y crean sus propios algoritmos de fusión. Sin embargo, cuanto mayor es el grado de conducción autónoma, mayor es el nivel de emisión de señales. Se necesita más la capa subyacente. Detrás de los hechos y los objetivos que ves está el algoritmo para la adquisición y el seguimiento, pero este proceso se filtrará. Sólo las personas que han hecho algoritmos de radar pueden entender y dominar cómo identificar dos objetivos que se superponen mucho. de cerca", dijo Lin.

Por otro lado, cuantos más sensores mejor. Si bien cuantos más sensores se instalen, más eficazmente podrá un vehículo detectar su entorno, demasiados sensores no sólo aumentan los costos y causan interferencias mutuas, sino que también crean desafíos de integración e informática.

Liu Qian, experto en fusión de sensores de Fretek, dijo a Traveler (ID: carcaijing) que la redundancia se puede lograr mediante la tecnología de fusión de múltiples sensores, es decir, cuando falla un solo sensor, se puede cruzar. validado a través de otros datos del sensor. Mejorar la tolerancia a fallos. Además, cuando los costos del lidar son altos, la fusión de múltiples sensores puede mejorar la economía de la solución.

No solo la fusión de los sensores a bordo, sino también los datos de los sensores en la carretera se integrarán en el flujo digital para complementar la conducción autónoma de los vehículos.

La ruta de cooperación vehículo-carretera 5G-V2X de “del vehículo a la carretera, de la terminal a la nube” es mencionada cada vez por más empresas de conducción autónoma. Waymo, que siempre ha hecho hincapié en la inteligencia de las bicicletas, también ha abierto sus carriles a la investigación de soluciones tecnológicas de colaboración vehículo-carretera.

Las investigaciones muestran que la colaboración entre vehículos y carreteras puede resolver el problema de la falta de confianza únicamente mediante sensores a bordo o mejorar la seguridad del vehículo entre 2 y 3 veces. Agregar cámaras, radares y otros sensores al borde de la carretera es como agregar un par de "ojos de Dios" al equipo de detección del automóvil, reduciendo las dimensiones y resolviendo condiciones y escenarios de trabajo complejos.

En el contexto de la vigorosa promoción de nuevas infraestructuras, algunas carreteras de prueba en las zonas de demostración de conducción autónoma de Shanghai y Xiongan han sido equipadas con cámaras de alta definición 8K, lidar y radar de ondas milimétricas.

“Estas tecnologías ayudan al automóvil a comprender las condiciones del tráfico en la carretera, como identificar accidentes de tránsito y qué carril está ocupando. Esta información se transmite de regreso a la nube y luego se transmite al automóvil. "Conducir automóviles puede predecir y planificar caminos a evitar con anticipación", dijo Liu Qian.

Wang Xiaobin señaló que la colaboración entre vehículos y carreteras equivale a un "sensor de largo alcance" para automóviles, que proporciona información más allá del rango de detección de los sensores de vehículos existentes, especialmente en escenarios complejos.

“Desde el punto de vista general, la información en carretera es esencial para lograr un alto nivel de conducción autónoma, pero ahora, el coste de la coordinación vehículo-carretera es un factor limitante, algo difícil para un solo coche. que la empresa pueda permitírselo y requiere que el gobierno o la industria tomen la iniciativa", dijo Wang Xiaobin.

Nuestro reportero Zhao Cheng también contribuyó a este artículo.

Este artículo apareció originalmente en la columna "Coches y viajes" de la revista "Caijing" el 23 de octubre de 2020.

Este artículo es de Autohome, el autor de Autohome, y no representa la posición de Autohome.