I sistemi di guida autonoma si basano su modelli di movimento che vengono aggiornati e affinati man mano che il veicolo acquisisce nuove esperienze. Questi sistemi tracciano le posizioni precedenti, attuali e previste degli oggetti in movimento nella mappa interna del veicolo. La forma e la velocità dell'oggetto forniscono dati fondamentali per la classificazione. Ad esempio, un oggetto a due ruote che si sposta a 80 km/h verrà probabilmente classificato come una motocicletta piuttosto che come una bicicletta. Grazie a queste informazioni, il veicolo può pianificare un percorso che eviti in sicurezza gli ostacoli.

Tuttavia, la complessità degli scenari reali rappresenta una sfida anche per i sistemi di guida autonoma più avanzati. Un esempio ben documentato è quello di un'auto a guida autonoma di Google che ha incontrato una donna su uno scooter elettrico che inseguiva delle anatre. Gli algoritmi del veicolo hanno avuto difficoltà a classificare questa combinazione insolita di movimento e tipo di oggetto, causando un'improvvisa fermata del veicolo. Questo episodio evidenzia l'importanza di migliorare continuamente i sistemi di riconoscimento degli ostacoli e di pianificazione del percorso, affinché possano affrontare situazioni imprevedibili in modo efficace.

Le auto connesse potrebbero migliorare il riconoscimento degli ostacoli, condividendo dati in tempo reale con altri veicoli e infrastrutture. Questo approccio permetterebbe di fornire ulteriori contesti e avvisi anticipati riguardo oggetti o situazioni anomale che potrebbero altrimenti confondere i singoli sistemi di un veicolo.

Un altro aspetto fondamentale dei veicoli autonomi riguarda i sistemi di evitamento delle collisioni. Tali sistemi possono evolversi in sistemi di mitigazione delle collisioni, in cui il veicolo seleziona lo scenario di collisione “meno peggiore” quando una collisione diventa inevitabile. Molti veicoli dotati di sistemi avanzati di assistenza alla guida (ADAS) sono già equipaggiati con sistemi di evitamento delle collisioni, che in genere si limitano a avvisare il conducente e, in alcuni casi, a pre-caricare o applicare i freni. Tuttavia, questi sistemi solitamente non includono capacità complete di mitigazione delle collisioni.

I sensori frontali, tra cui telecamere, radar e LiDAR, sono essenziali per questi sistemi e spesso funzionano come parte di un sistema di controllo della velocità di crociera adattivo (ACC). Questi sistemi si allineano con il livello di automazione SAE 1, in cui il sistema assiste il conducente senza prendere il controllo completo delle decisioni. Nei sistemi autonomi completi, il veicolo deve essere in grado di determinare se una collisione è inevitabile e, in tal caso, decidere quale tipo di collisione scegliere per minimizzare i danni.

Un tema dibattuto riguarda la decisione etica che un veicolo autonomo dovrebbe prendere in scenari di vita o di morte, come quando si deve decidere se evitare una collisione frontale ad alta velocità che potrebbe uccidere i suoi occupanti, investire un pedone o schiantarsi contro un oggetto statico. Alcuni produttori hanno suggerito che i veicoli autonomi daranno sempre priorità alla sicurezza dei propri occupanti, ma questa rimane una questione aperta di grande dibattito.

Altri sistemi avanzati, come il riconoscimento dei segnali stradali (TSR), sono stati introdotti per migliorare la comprensione del veicolo dell’ambiente circostante. Inizialmente progettato per riconoscere i limiti di velocità, il sistema TSR si è evoluto, ora capace di identificare una vasta gamma di segnali, come quelli che indicano la presenza di bambini o la necessità di un cambio di direzione. La standardizzazione dei segnali stradali, come stabilito dalla Convenzione di Vienna sui segnali stradali e segnali (1968), ha facilitato questo progresso, permettendo ai veicoli di riconoscere facilmente i segnali attraverso diverse regioni e paesi.

Nonostante i progressi, i sistemi TSR devono affrontare ancora diverse difficoltà. I segnali danneggiati, nascosti o alterati a causa di incidenti, condizioni meteo o atti di vandalismo possono compromettere la capacità del veicolo di interpretarli correttamente. Inoltre, i sistemi di rilevamento dei semafori (TLD) sono ancora suscettibili a problemi come la visibilità ridotta causata dalle condizioni atmosferiche o danni ai semafori stessi. Alcuni veicoli moderni integrano dati cartografici per anticipare dove si trovano i semafori, ma l’identificazione corretta del colore dei semafori – rosso e verde in particolare – è essenziale per garantire la sicurezza del veicolo e dei suoi occupanti.

Un ulteriore sviluppo è rappresentato dalla rilevazione dei veicoli di emergenza, che può avvenire grazie all'uso di microfoni per identificare le sirene e telecamere per confermare visivamente l’avvicinamento del veicolo di emergenza. In futuro, tutti i veicoli di emergenza potrebbero essere integrati in reti connesse, consentendo ai veicoli autonomi di ricevere avvisi in tempo reale e prendere misure evasive preventive.

Tuttavia, nonostante tutti i preparativi e le tecnologie avanzate, ci saranno sempre situazioni uniche e difficili da prevedere. I pedoni, ad esempio, rappresentano una delle variabili più imprevedibili sulla strada. Anche una situazione apparentemente semplice, come un pedone che si ferma per attraversare in un punto non segnato, può causare incertezze per un veicolo autonomo. I conducenti umani spesso comunicano le loro intenzioni tramite segnali sociali, come gesti o lampeggiamenti, che sono difficili da interpretare per le macchine. Anche in situazioni più complicate, come quando un pedone tenta deliberatamente di forzare il veicolo a fermarsi, l’automobile autonoma deve essere in grado di riconoscere e reagire a tali segnali.

Inoltre, le rotonde e le strade congestionate presentano sfide uniche per la navigazione autonoma. Anche se i conducenti locali imparano rapidamente come affrontare configurazioni stradali complesse, i veicoli autonomi devono essere in grado di adattarsi non solo alla geometria della strada, ma anche ai modelli di traffico variabili e talvolta confusi. Le superfici stradali irregolari, come i ciottoli o il pavé, possono ulteriormente complicare la navigazione, richiedendo ai veicoli di affrontare una varietà di condizioni imprevedibili con grande precisione e affidabilità.

Come i sensori e le telecamere contribuiscono alla guida automatizzata: un'analisi delle tecnologie

Nel contesto della guida automatizzata e dei sistemi di assistenza alla guida (ADAS), i sensori giocano un ruolo fondamentale nell'acquisire dati essenziali per l'interpretazione dell'ambiente circostante. I dati provenienti da sensori come radar, LiDAR e telecamere, sebbene trattati in modo diverso, si completano a vicenda, permettendo al veicolo di prendere decisioni informate in tempo reale, garantendo sicurezza e efficienza. La tecnologia CMOS, ad esempio, è ampiamente utilizzata nelle telecamere ad alta risoluzione, che necessitano di potenti processori per analizzare e interpretare le immagini acquisite.

Le telecamere sono in grado di fornire una rappresentazione dettagliata dell'ambiente circostante, ma necessitano di un notevole supporto computazionale. I processori più avanzati sono in grado di eseguire algoritmi di deep learning per estrarre informazioni significative da grandi volumi di dati visivi. La sfida principale delle telecamere risiede nella distorsione delle immagini, un fenomeno particolarmente evidente con le lenti grandangolari. Le distorsioni ai bordi dell'immagine o la riduzione della risoluzione per grado possono compromettere la precisione del rilevamento a lungo raggio. Alcune soluzioni a questo problema prevedono l'uso di lenti correnti o tecniche di correzione software che rendono le immagini più chiare e dettagliate. Tuttavia, l'affidabilità delle telecamere diminuisce vicino ai bordi dell'immagine, con una minore precisione nelle operazioni di riconoscimento.

Le telecamere montate sul tetto sono una delle configurazioni più promettenti per veicoli a guida autonoma. Montando telecamere in angoli specifici o al centro del tetto, è possibile ottenere una copertura di 360°, utile per la manovra e il parcheggio. Sebbene questo approccio offra numerosi vantaggi, come una visione dall'alto che facilita l'orientamento in spazi stretti, le telecamere grandangolari montate sui tetti possono soffrire di una risoluzione ridotta. La riduzione della risoluzione per grado e la distorsione dell'immagine sono fattori da considerare, poiché limitano la capacità del veicolo di rilevare oggetti a distanza. Anche le aree vicine agli angoli dell'immagine possono risultare difficili da interpretare correttamente, causando problemi nella rilevazione degli oggetti.

Le telecamere frontali sono un altro componente essenziale nei veicoli moderni, essendo il principale sensore per il riconoscimento dell'ambiente. Queste telecamere sono comunemente utilizzate per supportare funzioni come il controllo automatico della velocità e l'adattamento dei fari. Posizionate solitamente tra lo specchietto retrovisore e il parabrezza, le telecamere frontali sono protette dalle intemperie grazie ai tergicristalli, ma presentano delle limitazioni. La loro capacità di visualizzare oggetti a bassa altezza o piccoli ostacoli è ostacolata dal cofano, e una visione verticale limitata può compromettere la capacità di rilevare segnali stradali come semafori.

I radar, un'altra tecnologia ampiamente utilizzata, sono capaci di rilevare la distanza e la velocità di oggetti in modo molto preciso. In particolare, il radar è molto utile per identificare veicoli e oggetti metallici, ma la sua efficacia diminuisce con oggetti non metallici come i pedoni. I radar a corto e medio raggio sono essenziali per una copertura orizzontale a 360°, particolarmente vantaggiosa per la guida automatizzata in ambienti urbani. L'adozione di radar a lungo raggio, abbinati a quelli a corto e medio raggio, permette di rilevare oggetti a distanze più elevate, migliorando le funzionalità ADAS come il controllo adatt