Skip to Main Content

Sensori ANSYS AVxcelerate
Test e Validazioneper auto con guida automatica

Ansys AVxcelerate il test e la convalida realistici dei sensori consente di testare i veicoli autonomi, gli ADAS e i sensori più velocemente rispetto ai prototipi fisici.

Ansys Avxcelerate Sensors

Scenari di guida realistici utilizzando il simulatore di guida di tua scelta

Per ridurre la necessità di costosi prototipi fisici e velocizzare il processo di progettazione, la soluzione Ansys AVxcelerate Sensors offre l'opportunità di sperimentare virtualmente i sensori per testare e analizzare le loro prestazioni. Nel mondo virtuale, utilizzare scenari di guida realistici per esaminare la percezione dei sensori radar, lidar e della telecamera in un contesto MIL Sil o Hil.

  • Scenari di guida realistici
    Scenari di guida realistici
  • Connettività hIL, MIL e SIL
    Connettività hIL, MIL e SIL
  • Sensori radar, Lidar e telecamera
    Sensori radar, Lidar e telecamera
Ansys Avxcelerate Sensors

Specifiche veloci

Scopri la simulazione dei sensori physics-basedad alta fedeltà con informazioni sulsuolo per i veicoli autonomi. Consentire l'utilizzo di simulazioni con più sensori in scenari di guida realistici per garantire che il prototipo fisico soddisfi le aspettative.

  • Scenari di guida
  • Sensore radar
  • Connettività hIL
  • Radar GPU
  • Sensori terra-verità
  • Simulazione multisensore
  • Connettività MIL
  • Sensore telecamera
  • Sensore LiDAR
  • Connettività SIL

Convalidare la sicurezza autonoma del veicolo

Gli scenari di simulazione integrati velocizzano e migliorano la capacità di confermare le funzioni di sicurezza durante la creazione dei veicoli, compresi i veicoli autonomi.

I veicoli autonomi combinano sensori e software per controllare, navigare e guidare in modo sicuro. Per garantire che i veicoli prototipo siano pronti per il mondo reale, i sensori devono essere progettati con un'ampia varietà di test case.

I sistemi di guida autonomi si basano su sensori e software integrato per la localizzazione, la percezione, la pianificazione del movimento e l'esecuzione. Possono essere rilasciati al pubblico solo dopo che gli sviluppatori hanno dimostrato la loro capacità di raggiungere elevati livelli di sicurezza. 

Gli odierni sistemi di guida autonomi "hands-off" sono in gran parte costruiti con algoritmi di deep learning che possono essere addestrati per prendere la decisione giusta per quasi ogni situazione di guida. Questi sistemi, tuttavia, non dispongono dei requisiti e dell'architettura dettagliati finora utilizzati per convalidare software critici per la sicurezza, come il tipo di controllo dei velisti commerciali. La prova su strada è chiaramente una parte essenziale del processo di sviluppo, ma per convalidare la sicurezza dei sistemi di guida autonomi e del software sarebbero necessari miliardi di chilometri di prove su strada. La simulazione serve a rendere pratica la verifica e la convalida del funzionamento dei veicoli autonomi. 

January 2023

What's New

The 2023 R1 release brings enhancements on all four fronts - pre & post-processing phase, sensors V&V (radar & lidar), backend processing platform, and seamless ecosystem integration into a third-party driving simulator. These innovations collectively contribute to a well-rounded, simplified, and streamlined user experience.

Learn More about Ansys
avx-customizable-pixel-segmentation-labelling-1.png
Customize Pixel Segmentation Labeling to Aid AI Training

Easily customize tags to identify assets via unique color mapping. Data tagging and labeling enabled by this feature immensely simplify and automate the AI training exercise by helping to compare the results with ground truth information quickly. 

generate-accurate-radar-signal.jpg
Generate Accurate Radar Signal to Inject Into Processing Algorithms

Users can now validate the robustness of their radar digital signal processing (DSP) by artificially inducing gain and noise in the radar sensor model to enhance the quality of simulation results that mimic real-world behavior.  

2021-05-ansys-rocky-multi-gpu.jpg
Create Scalable Sensor Simulations Distributed Across Nodes & GPUs

Simultaneously process the workload over multiple nodes & GPUs to significantly reduce the simulation runtime while isolating the sensor output and perception signals. 

AV Simulation R1 2023 Images & Graphics
Seamlessly Create a Physics-Based Track From IPG CarMaker

Users can ease the workflow and reduce the time between world creation and actual simulation. AVxcelerate now offers the capability to create a physics-based track from IPG CarMaker seamlessly- a road network creation tool with all optical and dielectric properties automatically applied to objects.

high-fidelity-physics-based-lidar.png
Use Custom Photodiode and Signal Processing to Optimize LiDAR Model

Users can challenge and optimize the signal processing of their LiDAR models in real-life conditions. Through an API, users can now customize their LiDAR models to simulate their output.

2021-01-fusa-window.jpg

Sviluppo di sistemi di autonomi

Le valutazioni di model-based safety e di cybersecurity ottenuti con lasimulazione Ansys consentono di accelerare lo sviluppo e la certificazione autonomi dei sistemi.

Autonomous vehicle sensor simulation including lidar, radar and camera design

Sensori di autonomia

Ansys offre una funzionalità completa di simulazione di sensori di veicoli autonomi che include la progettazione e lo sviluppo di lidar, radar e telecamere.

2020-11-ansys-stock-20201123_0076.jpg

Soluzioni di simulazione ad alte prestazioni per test e convalida realistici dei sensori

AVxcelerate Sensors integra prontamente la simulazione di sensori di rilevamento del terreno e di telecamere, radar, lidar e tipi di sensori a ultrasuoni, mentre uscite accurate consentono di valutare i sistemi ADAS complessi e i veicoli autonomi virtualmente collegando la percezione, Funzione di fusione e controllo nel simulatore di guida di vostra scelta come IPG Automotive Carmaker o Carla.

 

Caratteristiche principali

Le potenti funzionalità di ray tracing consentono di ricreare il comportamento dei sensori e di recuperare facilmente le uscite dei sensori tramite un'interfaccia dedicata.

  • Scenari di guida utilizzando il simulatore di guida di propria scelta
  • Sensore ideale di ray casting
  • Sensore telecamera
  • Sensore LiDAR
  • Sensore radar
  • Connettività hIL, SIL e MIL 

Per testare i sensori in scenari, aggiungere più auto per creare situazioni complesse, come seguire un'auto e monitorare contemporaneamente il percorso di un'auto che attraversa il veicolo. Ogni veicolo in uno scenario può essere statico o automatico, consentendo la valutazione in un punto di interesse specifico o lungo una traiettoria predefinita. La simulazione del sensore segue il movimento dinamico dell'ego-veicolo.

Uscita dei dati del sensore, quali punti di impatto fulmineo, proprietà del materiale, ecc., e ingresso o uscita dei parametri del veicolo, quali posizione, orientamento, velocità e volante, sono tutti disponibili. Grazie alla combinazione coerente di dati provenienti da più sensori, la simulazione consente di convalidare il modello del comportamento di un sensore intelligente o i suoi algoritmi di fusione. Sono supportate entrambe le modalità deterministiche e in tempo reale.

Il software consente di simulare l'effettivo modello di telecamera in situazioni i guida problematiche. Simula tutti i componenti di una telecamera, come il sistema di lenti, l'imager e il pre-processore. Per le telecamere anteriori , il parabrezza può essere considerato anche nella simulazione. Si considerino le proprietà ottiche e spettrali dell'ambiente nel campo visibile, insieme alle proprietà ottiche del sistema di lenti e le proprietà optoelettroniche dell'imager. Con l'aggiunta di plug-in, la simulazione può gestire l'adattamento dinamico. La simulazione camera crea immagini RAW, utilizzate per testare e convalidare gli algoritmi di percezione come modelli in loop, software in loop o hardware in loop. 

Le potenti funzionalità di ray-tracing consentono di ricreare il comportamento del sensore e di recuperare facilmente i risultati del sensore tramite un'interfaccia dedicata. Proprietà IR modello mondiale dell'emettitore IR (è questo "l'emettitore IR modella le proprietà IR?" e l'elettronica del ricevitore sono considerati nella simulazione che può emettere segnali grezzi – forme d'onda – fino alle nuvole di punti. Questa soluzione offre un modo unico per raccogliere informazioni sui sensori virtuali durante le unità in tempo reale e utilizzare le informazioni per sviluppare il codice dell'autopilota. 

La funzione Radar GPU di VRXPERIENCE offre la possibilità di eseguire simulazioni complete di scenari radar basati sulla fisica in tempo reale a frame rate superiori a 30 frame al secondo. Le simulazioni prendono in considerazione riflessioni e trasmissioni multi-bounce da superfici dielettriche. I radar multicanale e MIMO possono essere simulati utilizzando la scalabilità lineare del radar GPU. Con l'aggiunta del radar GPU, VRXPERIENCE offre ora la possibilità di eseguire la simulazione di scenari ADAS e di autonomia con modelli di fisica completa di tutti i sensori chiave - telecamere, radar e lidar. I dati raccolti dal modello radar vengono utilizzati per stimolare in modo efficiente l'algoritmo di elaborazione del segnale digitale dell'ECU radar per migliorare rapidamente la precisione e la robustezza dei radar automobilistici nei casi di bordo. ANSYS VRXPERIENCE viene fornito con una libreria di oggetti con proprietà dielettriche definite.

Modello e Software-in-the-Loop (MIL,Sil): Eseguite enormi variazioni di scenario sfruttando test all'avanguardia, on-premise e nel cloud. Valutare le prestazioni variando i parametri in innumerevoli scenari di guida.

AVXCELERATE RISORSE SENSORE ED EVENTI

Webinar in evidenza

On Demand Webinar
Webinar Ansys
Simulazione ottica in tempo reale per progetti di illuminazione automobilistici affidabili e innovativi

Ricevi informazioni da esperti su come la libreria ottica di Speos migliora il realismo e la precisione della modellazione di simulazione fisica per la guida autonoma.

On Demand Webinar
Webinar Ansys
Best practice per il settore dell'illuminazione esterna automobilistica

Questo webinar tratterà le best practice del settore dell'illuminazione esterna automobilistica, dove verrà condivisa una panoramica dei principali vantaggi delle simulazioni Ansys Speos e Ansys VRXPERIENCE e le funzionalità necessarie per realizzare questi vantaggi.

On Demand Webinar
Webinar su richiesta Ansys
Strumenti di simulazione per sistemi avanzati di assistenza alla guida / funzioni di guida autonome

Questo webinar mette in luce il modo in cui Ansys AVxcelerate vi aiuterà a creare in modo efficiente e conveniente i vostri prodotti ADAS e AV, accelerando il loro percorso verso il mercato più rapidamente che mai.


&Articoli sui white paper

White paper ANSYS sulla sicurezza autonoma

Una piattaforma di simulazione integrata per convalidare la sicurezza del veicolo autonomo

I sistemi di guida autonomi si basano su sensori e software integrato per la localizzazione, la percezione, la pianificazione del movimento e l'esecuzione. 


VIDEO


Il software Ansys è accessibile

Per Ansys è fondamentale che tutti gli utenti possano accedere ai nostri prodotti. Ci impegniamo a rispettare i requisiti di accessibilità basati sull'Access Board degli Stati Uniti (Sezione 508), sulle linee guida per l'accessibilità dei contenuti Web (WCAG) e sul formato corrente del modello volontario di accessibilità dei prodotti (VPAT).

Scopri cosa può fare Ansys per te

Contattaci subito

* = Campo obbligatorio

Grazie per averci contattato!

We’re here to answer your questions and look forward to speaking with you. A member of our Ansys sales team will contact you shortly.

Immagine del footer