Tesla har truffet et modigt valg – og skabt debat – ved at gå fuldstændig visionbaseret med sine nyeste selvkørende systemer. I en tid hvor konkurrenter som Waymo og Cruise bygger redundans ind via sensorkombination (lidt som både sele og airbag), vælger Tesla at køre kun med kameraer og et stærkt neuralt netværk. Men hvorfor dropper de ellers så hyldede teknologier som radar og LiDAR? Og virker det? I denne artikel dykker vi ned i strategien bag Teslas visionbaserede autonome kørsel, og hvorfor denne tilgang kan ændre hele bilbranchens fremtid.
Farvel til radar og LiDAR: Derfor skifter Tesla
Hvor industrien typisk kombinerer kameraer, radar og LiDAR i en såkaldt sensorkombination (sensor fusion), har Tesla aktivt afmonteret disse komponenter og gået all-in på kameraer. Ifølge Teslas ingeniørteam og Elon Musk selv opstår der farlige beslutningsparalyser, når sensorer er uenige. F.eks. kan radar fejltolke situationer, hvilket førte til det fænomen der kaldes phantom braking – pludselige og unødvendige opbremsninger, som skyldtes falsk genkendelse af forhindringer som broer eller tomme dåser. Ved helt at fjerne disse sensorer eliminerer Tesla risikoen for at én sensor “modsiger” en anden.
Sådan fungerer Tesla Vision – otte kameraer og neurale netværk
Det visionbaserede system, Tesla Vision, benytter otte kameraer pr. køretøj til at skabe en komplet, tredimensionel forståelse af omgivelserne. Kameraernes data sendes gennem et avanceret neuralt netværk, der skaber en 3D vektorrumsrepræsentation – dybest set en virtuel verden bilen forstår og navigerer i. Dette muliggør hurtige og præcise beslutninger uden at skulle afveje modstridende input fra radar eller LiDAR.
Hardware 4 (AI4) – men uden aktive sensorer?
En særlig detalje er, at selv Teslas nyeste biler med Hardware 4 stadig indeholder high-definition radar – men den er inaktiv. Den bruges kun til datavalidering, ikke selve kørslen. Det viser, hvor kompromisløs Tesla er i deres strategi: hvis neurale netværk og kameraer er fremtiden, så skal al beslutningstagning baseres derpå. Andre producenter balancerer “sikkerhed” med “kompleksitet”, Tesla vælger i stedet at eliminere kompleksiteten.
Se også Tesla Vision dropper LiDAR – og ser længere med kameraer
Visionbaseret kørsel i praksis: Er det nok?
Tesla har gennemført overgangen til vision-only på tværs af hele deres lineup: Model 3, Model Y, Model S og Model X. FSD (Full Self-Driving)-pakken i disse biler trækker udelukkende på kameraerne. På trods af skepsis, har resultaterne været lovende – især i Model Y, hvor systemet præsterer stærkest. Og indtil videre er der ikke tegn på, at den manglende radar eller LiDAR skaber sikkerhedsproblemer. Teslas interne data peger snarere på færre fejlbegivenheder og mere pålidelig navigation.
Du kan læse om forskellen på FSD og Autosteer i Autopilot Autosteer vs FSD: Reddit vælger ro
Teslas first-principles tilgang inspirerer – men splitter
I kernen af dette valg ligger Teslas fundamentale filosofi: Mennesker kører med to øjne og en hjerne – så hvorfor skulle vi ikke kunne skabe en maskinækvivalent? Neurale netværk trænet på millioner af timers kørsel optimeres ikke via flere sensortyper, men via bedre billedforståelse. Denne tilgang deles ikke af konkurrenterne, som sætter lid til redundans via forskellige sensorplatforme. Men hvis Tesla lykkes, vil de stå med en visionbaseret selvkørende platform, der er billigere, mere skalerbar og potentielt mere menneskelig i sine beslutninger.
Læs også hvordan software har taget førertrøjen i Teslas strategi: Tesla skifter strategi: Fra biler til software
Hvad betyder det for Danmark?
I Danmark betyder Teslas visionbaserede tilgang, at alle nye modeller leveres uden aktiv radar eller LiDAR – også selvom Hardware 4 teknisk set kunne understøtte det. FSD-funktionalitet er dog stadig begrænset i vores region på grund af lovgivning. UNECE har dog fjernet visse barrierer for automatiseret kørsel i Europa, hvilket åbner for hurtigere udrulning, så snart nationale regler tillader det. Indtil da kører Tesla-ejere i Danmark med de samme kamera-baserede systemer som i USA – blot med reducerede funktioner, mens vi venter på lovgivningen.
Dette relaterer sig til den globale FSD-godkendelse: Tesla FSD får grønt lys: UNECE fjerner barrierer globalt
Ofte stillede spørgsmål om visionbaseret autonom kørsel (FAQ)
Hvad er visionbaseret selvkørende teknologi?
Det er et system, der udelukkende bruger kameraer og computer vision til at navigere bilen autonomt – uden brug af radar eller LiDAR.
Hvorfor har Tesla fjernet radar og LiDAR?
Tesla mener, at flere sensorer skaber mere fejl og tvetydighed. Kameraer og neurale netværk leverer ifølge dem en renere, mere sikker beslutningsproces.
Hvilke Tesla-modeller benytter vision-only systemet?
Alle nye Model 3, Model Y, Model S og Model X bruger Tesla Vision uden aktiv radar eller LiDAR.
Er dette system lige så sikkert som sensorkombinationer med radar?
Tesla påstår, at vision-only er sikkert eller mere sikkert – da det undgår “sensor konflikter” og forbedres løbende gennem softwareopdateringer og AI-træning.
Gælder visionbaseret kørsel også i Danmark?
Ja, alle nye Tesla-modeller i Danmark har vision-only. Men fuld selvkørende funktioner (FSD) er stadig begrænset af lokal lovgivning.
Kilder til denne artikel
Tesla AI Engineering White Papers (2023).
Bosch automotive hardware documentation.
Musk, E. (2021). Tesla Vision strategy statements via Twitter / X.
Yun-Ta Tsai, Tesla AI Team – Interviews og præsentationer fra CVPR 2022.
UNECE (2023). Autonomous driving regulations.
Af The Journalist: SoftAI



