I weekenden kørte en Tesla S med noget nær 100km/t op bagi en stillestående brandbil i USA. Heldigvis er der ikke rapporteret om personskader i det aktuelle tilfælde, men det giver anledning til en vis bekymring, at den forulykkede elbil kørte på et “autonomous driving” program, der øjensynligt ikke var i stand til at registrere brandbilen som en forhindring.
Det er desværre langt fra den første ulykke med autonomt kørende elbiler i USA – eller på globalt plan – og selv om der er langt mellem ulykkerne, så beviser det, at der endnu er problemer med de autonome styringssystemer. Blandt ulykkerne er der endda dødsulykker, og selv om man kan diskutere, om menneskeligt førte biler måske giver flere ulykker pr. kørt kilometer, så fjerner ulykkerne forbrugernes tillid til elbilernes autonome styresystemer.
Problemerne ligger sandsynligvis i den AI – kunstige intelligens – som skal fortolke sensorinputs fra både radar- og kamerafølere på bilerne. Dels bliver sensorerne udsat for tilsmudsning, hvad der kan gøre signalbehandlingen vanskelig. Og dels kan man formode, at de embeddede CPU’er løbende forbedring af fortolkning af sensorernes inputs ikke er tilstrækkeligt udviklet. Der skal sandsynligvis arbejdes på algoritmerne.
Måske det ville være en idé at indføre en række internationale sikkerhedstest i stil med den svenske “elgtest”, så producenter af fremtidige køretøjer får et certificeret og godt defineret sæt regler at teste algoritmerne ud fra. Så kan vi alle få tilliden til autonomt kørende elbiler tilbage.
RSH