ADAS: les principales tendances des technologies de reconnaissance

Publié en septembre 2019.



image



La voiture d'essai de Cruise qui est sortie de la chaîne de production de GM est équipée de capteurs (marqués en rouge).



L'industrie automobile est toujours à la recherche d'une technologie de reconnaissance fiable qui fonctionnera dans toutes les conditions - nuit, brouillard, pluie, neige, glace, etc.



Ce qu'il faut retenir d'AutoSens 2019 ici la semaine dernière, c'est que l'innovation technologique ne manque pas. Les développeurs de technologies, les Tier-1 et les OEM poursuivent toujours l'objectif de créer une technologie de reconnaissance «fiable» qui peut fonctionner dans toutes les conditions routières - y compris la nuit, dans le brouillard, sous la pluie, dans la neige, sur la glace, sur la route avec des déversements d'hydrocarbures. etc.



Bien qu'il n'y ait toujours pas de solution miracle sur le marché automobile qui puisse résoudre tous les problèmes à la fois, un certain nombre d'entreprises ont présenté leurs technologies de reconnaissance et de nouveaux concepts de produits.



Le salon AutoSens de cette année à Bruxelles était davantage axé sur les systèmes d'assistance à la conduite (ADAS) que sur les voitures autonomes.



La communauté des ingénieurs est parvenue à un certain consensus. Beaucoup reconnaissent qu'il existe un large fossé entre ce qui est possible aujourd'hui et la perspective de véhicules commerciaux autonomes dotés d'une intelligence artificielle qui ne nécessitent pas de conducteur humain.



Pour être clair, personne ne dit que les véhicules sans pilote sont impossibles. Cependant, Phil Magney, fondateur et directeur de VSI Labs, estime que «les voitures autonomes de niveau 4 fonctionneront dans des domaines de conception opérationnelle extrêmement limités (ODD). Les conceptions de ces machines seront développées sur la base d'exigences de sécurité complètes et détaillées. "



Magny a précisé que par" zones restreintes ", il entend des restrictions en termes de sélection de route et de voie, de temps de fonctionnement, de conditions météorologiques, d'heure de la journée, de points de sortie et d'arrêt, etc. Plus loin.



On a demandé à Bart Selman, professeur d'informatique à l'Université Cornell spécialisé en IA, si une voiture à intelligence artificielle pourrait jamais raisonner avec le «bon sens» (être conscient du processus de conduite et comprendre le contexte)? Selman a répondu à la clôture de la conférence: "Nous y arriverons dans au moins 10 ans ... et peut-être dans 20 à 30 ans."



Pendant ce temps, les développeurs de systèmes ADAS et de véhicules hautement automatisés se font concurrence pour développer des systèmes de vision pour véhicules.



Fung Kupopman, directeur technique chez Edge Case Research et professeur à l'Université Carnegie Mellon, estime que la base de tout véhicule hautement automatisé est un système de «détection» qui peut déterminer la position de divers objets autour du véhicule. Il a précisé que la faiblesse des véhicules sans pilote réside dans l'incapacité de prédire - de comprendre le contexte et de prédire où tel ou tel objet capturé pourrait se déplacer.



Promotion des systèmes intelligents



Une nouvelle tendance qui est apparue lors de la conférence a été l'émergence d'un certain nombre de systèmes intelligents. De nombreux fabricants ajoutent des systèmes AI à leurs produits en les incorporant dans leurs combinaisons de capteurs (caméra RVB + NIR; RVB + SWIR; RVB + lidar; RVB + radar).



Cependant, il n'y a pas de consensus parmi les acteurs de l'industrie sur la réalisation des objectifs de l'industrie. Certains pensent que le chemin du succès passe par des combinaisons de capteurs, tandis que d'autres (comme Waymo) se tournent vers le traitement des données des capteurs sur le processeur central.



AutoSens dispose également d'une multitude de nouveaux systèmes de surveillance qui doivent être développés pour répondre à Euro NCAP, à l'ensemble des exigences relatives aux systèmes de surveillance des conducteurs et à une norme de sécurité majeure en 2020. En particulier, nous parlons de systèmes qui surveillent non seulement le conducteur, mais également les passagers et autres objets à l'intérieur de la voiture.



Un exemple est le nouveau capteur RVB-IR d'On Semiconductor, équipé de la puce de traitement vidéo RVB-IR d'Ambarella et du logiciel de reconnaissance de scène Eyeris.



NIR vs SWIR



Le besoin de voir dans l'obscurité (à l'intérieur et à l'extérieur du véhicule) indique le besoin d'IR.



Alors que le capteur d'image RVB-IR d'On Semiconductor fonctionne avec un rayonnement proche infrarouge (NIR), Trieye, qui a également assisté au salon, est allé encore plus loin avec l'introduction de la caméra SWIR (infrarouge à ondes courtes). ).



image



L'un des avantages des caméras SWIR est la possibilité de voir des objets dans toutes les conditions météorologiques / lumineuses. Plus important encore, SWIR peut identifier de manière proactive les dangers routiers (tels que la glace) en détectant une réponse spectrale unique basée sur les caractéristiques chimiques et physiques de chaque matériau.



Cependant, l'utilisation des caméras SWIR est limitée aux applications militaires, scientifiques et aérospatiales en raison du coût extrêmement élevé de l'arséniure d'indium et de gallium (InGaAs) utilisé dans cette technologie. Trieye affirme avoir trouvé un moyen de créer des caméras SWIR en utilisant la technologie CMOS. «Nous avons fait une percée. Tout comme les semi-conducteurs, nous utilisons le CMOS pour la production à haut volume de caméras SWIR depuis les débuts », déclare Avi Bakal, PDG et co-fondateur de Trieye. Bacal dit que contrairement au capteur d'arséniure de gallium à 8 000 $, la caméra Trieye sera offerte «pour des dizaines de dollars».



image



Manque de données étiquetées



L'un des plus grands défis de l'IA est le manque de données pour les échantillons d'entraînement. Plus précisément, "des données de formation étiquetées", a déclaré Magny. «Un modèle est aussi bon que les données et la façon dont elles sont collectées. Bien entendu, les données d'entraînement doivent être balisées avec des métadonnées, et le processus de balisage prend beaucoup de temps. "



Il y a eu une discussion animée à AutoSens sur les réseaux neuronaux antagonistes génératifs (GAN). Dans le GAN, deux réseaux de neurones se font concurrence pour créer de nouvelles données, a déclaré Magny. Ayant reçu un échantillon de formation en entrée, ces modèles sont formés pour générer de nouvelles données, dont les indicateurs statistiques coïncideront avec les indicateurs d'origine.



Drive.ai, par exemple, utilise l'apprentissage en profondeur pour améliorer l'automatisation du balisage des données, accélérant ainsi le processus de balisage fastidieux.



Lors d'une conférence à AutoSens, Koopman a également abordé le problème de l'annotation précise des données. Il soupçonne qu'une grande partie des données ne sont pas étiquetées car seules les grandes entreprises peuvent se permettre de bien faire les choses.



En effet, les startups de l'IA présentes au salon ont reconnu que les annotations payantes pour les données de tiers les blessaient énormément.



Une façon de résoudre ce problème est le GAN. Edge Case Research offre un autre moyen d'accélérer le développement de logiciels de reconnaissance sécurisés sans étiqueter les données. La société a récemment annoncé l'hologramme, un outil pour tester les systèmes de perception et l'analyse des risques. Selon Koopman, au lieu de marquer des pétaoctets de données, vous pouvez simplement les exécuter deux fois - Hologram fournira des informations sur les parties suspectes de l'ensemble de données et vous dira ce qu'il est préférable de faire - étendre l'ensemble d'entraînement ou recycler votre modèle.



La conférence a également abordé la question des ensembles de données étiquetés - et si le constructeur automobile remplace la caméra et les capteurs utilisés pour la formation et la manipulation des données?



David Tokich, vice-président du marketing et des partenariats stratégiques chez Algolux, a déclaré à l'EE Times que les ingénieurs travaillant sur ADAS et les véhicules sans pilote sont préoccupés par deux choses: 1) la fiabilité des systèmes de reconnaissance dans diverses conditions et 2) le développement de solutions précises et évolutives pour Tâches de vision par ordinateur Les



systèmes de caméra utilisés dans ADAS et les véhicules sans pilote peuvent différer considérablement les uns des autres. Ils ont tous des paramètres différents en fonction des objectifs (différents objectifs offrent des angles de vision différents), des capteurs et des technologies de traitement du signal. Une entreprise de technologie sélectionne l'un des systèmes de caméras, collecte un grand ensemble de données, le balise et forme son modèle pour qu'il soit réglé pour une utilisation avec un système spécifique.



Mais que se passe-t-il lorsqu'un OEM remplace une caméra qui a été utilisée par un jeu de données spécifique? Ce changement pourrait affecter la précision de la perception, car un modèle d'apprentissage automatique réglé sur une caméra spécifique doit désormais gérer un nouvel ensemble de données brutes.



Cela oblige-t-il l'OEM à former sans cesse ses modèles sur de nouveaux ensembles de données?



image



Tesla, Waymo, GM / Cruise utilisent une variété de caméras dans leurs véhicules autonomes.



Interrogé sur la possibilité de remplacer les capteurs d'image, Magny de VSI Labs a déclaré: "Je ne pense pas que cela fonctionnera - à moins que les spécifications ne restent les mêmes." Il a également ajouté: «Chez VSI, nous avons formé un réseau neuronal pour qu'il fonctionne avec une caméra thermique FLIR, et les caractéristiques des images de l'ensemble d'entraînement correspondaient aux caractéristiques de la caméra pour laquelle le réseau neuronal a été formé. Plus tard, nous avons remplacé les capteurs, mais les spécifications techniques sont restées les mêmes. "



Algolux, cependant, affirme que la nouvelle technologie de traduction des ensembles de données précédemment créés devrait être disponible «d'ici quelques jours». Selon Tokić, Atlas Camera Optimization Suite résout ce problème en prenant des «données de base» (caractéristiques de la caméra et du capteur) - et en les appliquant aux couches de reconnaissance. «Notre défi est de démocratiser les choix de caméras» pour les équipementiers, a déclaré Tokić.



Matériel AI



Au cours des dernières années, de nombreuses startups ont vu le jour dans le domaine des processeurs pour l'IA. Cela a créé une dynamique qui a incité certains à annoncer une résurgence du marché du matériel. De nombreuses startups développant des puces pour l'IA citent les marchés des véhicules autonomes et ADAS comme leurs marchés cibles.



Ceva, en particulier, a dévoilé lors de la conférence AutoSens un nouveau cœur pour l'IA et «Invite API» - des produits destinés au marché des accélérateurs pour les systèmes intelligents.



Curieusement, la nouvelle génération de voitures multifonctionnelles n'a pas encore implémenté de puces d'IA modernes - à l'exception des puces de Nvidia et d'Intel / Mobileye, ainsi que des puces de pilote automatique complètes développées par Tesla pour un usage interne.



D'autre part, On Semiconductor a annoncé lors de la conférence AutoSens que son équipe (et l'équipe Eyeris) utiliserait les systèmes sur puce d'Ambarella comme processeurs d'IA pour surveiller diverses mesures dans les véhicules.



Modar Alawi, PDG d'Eyeris, a déclaré: «Nous n'avons pas pu trouver une seule puce d'IA capable de gérer 10 réseaux de neurones, de consommer moins de 5 watts et de capturer des vidéos à 30 images par seconde en utilisant jusqu'à six caméras situées à l'intérieur. voiture ".



Allawi a admis qu'Ambarella n'est pas un fabricant bien connu de puces AI (ils sont mieux connus pour fabriquer des puces pour la compression vidéo et la vision par ordinateur). Cependant, le système CV2AQ d'Ambarella répond à toutes leurs exigences, a-t-il déclaré, surpassant tous les autres accélérateurs.



Allawi espère que le logiciel d'intelligence artificielle de son entreprise sera porté sur trois autres plates-formes matérielles pour le Consumer Electronics Show de Las Vegas en janvier 2020.



image



Sur Semi, Ambarella et Eyeris font la démonstration d'un nouveau système de surveillance en cabine utilisant trois caméras RVB-IR.



Dans le même temps, On Semi a souligné que les systèmes de surveillance du conducteur et des passagers nécessitent «la capacité de capturer des images dans diverses conditions d'éclairage, de la lumière directe du soleil à l'obscurité». La société affirme que grâce à son bon temps de réponse dans le proche infrarouge, "la technologie RVB-IR du capteur d'image CMOS fournit une sortie d'image Full HD 1080p en utilisant un HDR à 3 expositions et un rétroéclairage (BSI) à 3,0 μm." Les capteurs sensibles à l'éclairage RVB et IR peuvent capturer des images couleur à la lumière du jour et des images IR monochromes avec des spectres proches infrarouges éclairés.



Aller au-delà des systèmes de surveillance des conducteurs



Alawi est fier que le logiciel d'intelligence artificielle d'Eyeris puisse effectuer une analyse complète du corps et du visage, la surveillance de l'activité des passagers et la détection d'objets. En plus d'observer le conducteur, «nous surveillons tout ce qui se trouve à l'intérieur de la voiture, y compris les surfaces des sièges et du volant», a-t-il ajouté, soulignant que la startup est déjà engagée dans plus que «la recherche de voitures dans le flux vidéo».



Laurent Emmerich, directeur des solutions clients européens chez Seeing Machines, a cependant plaidé pour ne pas s'arrêter là. «Aller au-delà de l'observation du conducteur et du suivi de nombreux objets est une évolution naturelle», a-t-il déclaré. "Nous cherchons également à nous développer."



Par rapport aux start-ups, l'avantage de Seeing Machines réside dans «une base solide en vision par ordinateur et en expérience en IA acquise au cours des 20 dernières années», a-t-il ajouté. Le système de surveillance des conducteurs de l'entreprise est actuellement utilisé par «six constructeurs automobiles et se décompose en neuf . programmes "



En outre, Seeing Machines a noté qu'il a également développé sa propre puce pour la surveillance des pilotes -. Fovio a demandé si la puce pouvait également fournir du travail pour les futurs systèmes de surveillance de voiture, Emmerich a expliqué que leur puce sera utilisée dans la plate-forme matérielle configurable ...



Réservation



La combinaison de différents capteurs et leur installation dans une voiture est nécessaire non seulement pour améliorer la perception, mais aussi pour ajouter une redondance indispensable pour la sécurité.



image



Boîte Outsight présentée sur AutoSens.



Outsight, une startup cofondée par l'ancien PDG de Whitings, Cedric Hutchings, présente un nouveau système multicapteur hautement intégré à AutoSens. Il a expliqué que l'unité de détection d'Outsight a été conçue pour "fournir une reconnaissance et une localisation significatives des objets avec une compréhension du contexte de l'environnement - y compris la neige, la glace et l'huile sur la route". Il a également ajouté: "Nous pouvons même classer les matériaux sur la route en utilisant la détection hyperspectrale active."



Lorsqu'on lui a demandé quels capteurs sont utilisés dans la boîte Outsight, il s'est abstenu de tout commentaire. "Nous n'annonçons pas nos partenaires clés pour le moment, car nous travaillons toujours sur les spécifications et les applications."



Le EE Times s'est entretenu avec Trieye sur le fait qu'Outsight utilisera une caméra Trieye SWIR. Outsight fait la promotion de son bloc de capteurs qui devrait être mis à l'essai au premier trimestre 2020. L'Outsight Box est destiné à être un système autonome complémentaire fournissant des données «sans rapport avec d'autres capteurs» pour la sécurité et «une véritable redondance», a expliqué Hutchings.



Outsight Box n'utilise pas de technologies d'apprentissage automatique et, par conséquent, les résultats de son travail sont prévisibles et le système lui-même peut être «certifié».



Pour les marchés des drones et ADAS, Aeye a également développé iDAR, un lidar MEMS à semi-conducteurs couplé à une caméra haute définition. En combinant deux capteurs et une IA intégrée, le système en temps réel peut «résoudre un certain nombre de problèmes de périphérie», déclare Aravind Ratnam, vice-président de la gestion des produits chez AEye.



Le système iDAR est conçu pour combiner des «pixels» de caméra 2D (RVB) et des «voxels» de données lidar 3D (XYZ) pour générer un nouveau type de données en temps réel. La société a expliqué que ce nouveau type de données devrait offrir une plus grande précision, une plus grande portée et que les données elles-mêmes devraient être plus compréhensibles pour les systèmes de routage utilisés dans les véhicules sans pilote.



image



Caractéristiques du produit AEye AE110 par rapport aux références et capacités de l'industrie.



Dans sa présentation, Ratnam a déclaré que AEye explore une variété d'applications. «Nous avons examiné 300 scénarios, sélectionné 56 qui correspondent et réduit le nombre à 20», dans lesquels la fusion de la caméra, du lidar et de l'intelligence artificielle prend tout son sens.



Ratnam a montré une scène dans laquelle un petit enfant venu de nulle part conduit une balle dans la rue - juste devant la voiture. Le système de caméra lidar fonctionne beaucoup plus rapidement, réduisant les temps de réponse du véhicule. Ratnam a commenté: "Notre plate-forme iDAR peut fournir un calcul à très haute vitesse."



Interrogé sur les avantages de la combinaison de capteurs, un ingénieur de Waymo a déclaré au EE Times lors de la conférence qu'il n'était pas sûr que cela ferait une grande différence. Il a demandé: «La différence sera de microsecondes? Je ne suis pas sûr".



AEye est confiant dans les avantages que leur iDAR peut apporter. Ratnam d'Ayeye a noté l'étroite collaboration avec Hella et LG et a souligné: «Nous avons pu réduire le coût de l'iDAR. Nous proposons désormais le lidar 3D au prix ADAS. »



Au cours des 3 à 6 prochains mois, AEye terminera ses travaux sur un système de qualité automobile combinant des algorithmes RVB, lidar et IA. Ratnam affirme que leur solution coûtera moins de 1 000 dollars.



image



Ventes de systèmes lidar pour l'industrie automobile (Source: IHS Markit)



Dexin Chen, analyste senior pour les semi-conducteurs et capteurs automobiles chez IHS Markit, a déclaré aux participants à la conférence que les fournisseurs de lidar étaient "en avance sur le marché et avaient trop promis". Il a noté qu'à l'avenir, les caractéristiques physiques des lidars (qui sont leur avantage) pourraient affecter le marché, mais leur commercialisation décidera de tout. Le marché a désespérément besoin de «normalisation, d'alliances et de partenariats, de gestion de la chaîne d'approvisionnement et de partenariats en matière d'IA».



Abonnez-vous aux chaînes:

@TeslaHackers - une communauté de pirates informatiques russes Tesla, formation sur la location et la dérive sur Tesla

@AutomotiveRu - Actualités de l'industrie automobile, psychologie du matériel et de la conduite







image



À propos d'ITELMA
- automotive . 2500 , 650 .



, , . ( 30, ), -, -, - (DSP-) .



, . , , , . , automotive. , , .


Lisez d'autres articles utiles:






All Articles