Primo incidente con colpa per le self-driving di Google

Cosimo Alfredo Pina
Cosimo Alfredo Pina
Primo incidente con colpa per le self-driving di Google

Fino ad oggi le self-driving di Google erano riuscite a tenere l'importante primato di non aver mai causato incidenti… Eppure un documento depositato alla motorizzazione californiana (DMV), e confermato poi dal rapporto mensile di Google, indica come una Lexus RX450h autonoma di BigG abbia causato un incidente, lo scorso 14 febbraio.

Il tutto sarebbe stato dovuto ad una cattiva interpretazione, sia da parte dell'intelligenza artificiale sia da parte dell'operatore, di una situazione di entrata in corsia. Il veicolo colpito, un bus, non ha rallentato per far entrare l'auto autonoma che invece aveva interpretato la lenta velocità del bus come un via libera.

Fortunatamente la collisione è avvenuta velocità ridotta (2 mph) ed entrambi i veicoli non hanno subito danni importanti, men che meno i conducenti. Bisogna riconoscere che la situazione era piuttosto complicata e ha tratto in inganno anche l'operatore, sempre presente sulle self-driving di Google per intervenire in caso di emergenza.

LEGGI ANCHE: 

Le self-driving di Google si allenano nella realtà virtuale

Questa è in effetti la prima volta che le auto di Google sono coinvolte in un incidente in cui la colpa è da attribuire all'intelligenza artificiale e per quanto la cosa possa suonare strana, è una cosa del tutto "normale". L'obiettivo delle self-driving non è quello di essere totalmente esenti da errori, ma di essere migliori della guida umana.

Inoltre il tutto, nonostante quello di Google sia senz'altro tra i progetti più avanti in termini di sviluppo,  è ancora in fase sperimentale ed è molto probabile che incidenti del genere possano capitare nuovamente in futuro. Per il momento l'intelligenza artificiale è stata messa al lavoro, tramite il sistema di allenamento virtuale, per far sì che episodi del genere non si verifichino più.

Our self-driving cars spend a lot of time on El Camino Real, a wide boulevard of three lanes in each direction that runs through Google's hometown of Mountain View and up the peninsula along San Francisco Bay. With hundreds of sets of traffic lights and hundreds more intersections, this busy and historic artery has helped us learn a lot over the years. And on Valentine's Day we ran into a tricky set of circumstances on El Camino that's helped us improve an important skill for navigating similar roads.

El Camino has quite a few right-hand lanes wide enough to allow two lines of traffic. Most of the time it makes sense to drive in the middle of a lane. But when you're teeing up a right-hand turn in a lane wide enough to handle two streams of traffic, annoyed traffic stacks up behind you. So several weeks ago we began giving the self-driving car the capabilities it needs to do what human drivers do: hug the rightmost side of the lane. This is the social norm because a turning vehicle often has to pause and wait for pedestrians; hugging the curb allows other drivers to continue on their way by passing on the left. It's vital for us to develop advanced skills that respect not just the letter of the traffic code but the spirit of the road.

On February 14, our vehicle was driving autonomously and had pulled toward the right-hand curb to prepare for a right turn. It then detected sandbags near a storm drain blocking its path, so it needed to come to a stop. After waiting for some other vehicles to pass, our vehicle, still in autonomous mode, began angling back toward the center of the lane at around 2 mph -- and made contact with the side of a passing bus traveling at 15 mph. Our car had detected the approaching bus, but predicted that it would yield to us because we were ahead of it. (You can read the details below in the report we submitted to the CA DMV.)

Our test driver, who had been watching the bus in the mirror, also expected the bus to slow or stop. And we can imagine the bus driver assumed we were going to stay put. Unfortunately, all these assumptions led us to the same spot in the lane at the same time. This type of misunderstanding happens between human drivers on the road every day.

This is a classic example of the negotiation that's a normal part of driving -- we're all trying to predict each other's movements. In this case, we clearly bear some responsibility, because if our car hadn't moved there wouldn't have been a collision. That said, our test driver believed the bus was going to slow or stop to allow us to merge into the traffic, and that there would be sufficient space to do that.

We've now reviewed this incident (and thousands of variations on it) in our simulator in detail and made refinements to our software. From now on, our cars will more deeply understand that buses (and other large vehicles) are less likely to yield to us than other types of vehicles, and we hope to handle situations like this more gracefully in the future.

Via: Engadget