Selvdrevne biler: MIT Team avslører neste generasjon av LIDAR sensorer

$config[ads_kvadrat] not found

Хобби-влог #3 Что раскрашиваю . Жалуюсь и болтаю о карандашах.

Хобби-влог #3 Что раскрашиваю . Жалуюсь и болтаю о карандашах.
Anonim

Selvkjørende biler kommer, med 2020 gitt ofte som året for å forvente at alle autonome biler kommer på veien. Men deres suksess vil avhenge av at bilens sensorer er gode nok til å se og reagere på alt rundt dem.

Nåværende kjøretøy utstyrt med former for selvkjøringsteknologi som Teslas Autopilot stole på det som kalles lysdeteksjon og sving sensorer, eller LIDAR. Dette er kamera skudd ut en lysstråle og måler hvor lang tid det tar at lyset kommer fra det det ser på tilbake til sensoren, som for eksempel sonar.

"Problemet er at lyset beveger seg veldig fort, så i ett nanosekund lys har reist en fot," forteller Achuta Kadambi, PhD-student ved Massachusetts Institute of Technology. Omvendt i en telefonsamtale.

Disse hastighetene gjør det vanskelig for sensoren å si med presisjon nøyaktig hvor lenge tok det lyset å reise ut og sprette tilbake. Det blir enda fuzzier jo lengre unna et objekt er, og den eneste måten å løse det på er å gjøre systemet kraftig nok til å skille forskjellig lys som kommer hver brøkdel av en nanosekund.

"Så det betyr at hvis du vil ha en lengdeoppløsning som er bedre enn en fot, må sensoren din ha en tidsoppløsning som er bedre enn en milliarddel av et sekund," sier Kadambi. "Det spør mye."

I et papir publisert i IEEE Access i forrige uke beskriver Achuta og Dr. Ramesh Raskar hvordan de har funnet ut en måte å overvinne det de kaller "lyshastighetens forbannelse".

I stedet for å skape et kraftfullt nok kamera til å fange alle lyskildens svingninger, filtrerer de lyset gjennom et fiberoptisk materiale for å gjøre det lettere å måle.

"Vi kommer opp med en sofistikert måte å filtrere lyset før det treffer detektoren," sier Kadambi. "På den måten kan vi bruke vanlige detektorer, men oppnå lengdeoppløsningen av ekstraordinære systemer."

Dette kan alle få litt teknisk, men her er en måte systemet kan fungere: La oss si en selvkjørende bilbrann av en stråle som pulserer en milliard ganger per sekund. Mens noen spretter tilbake til bilen med den hastigheten, er andre svært påvirket av omgivelsene, slik at de kommer tilbake til 999.999.999 pulser hvert sekund.

Det ville være en nesten umulig forskjell for et datasystem å oppdage - bortsett fra samspillet mellom de to bjelkene, er det tilsvarende deres pulser som kansellerer hverandre og forlater bare en puls hvert sekund. Det er mye lettere for sensorene å plukke opp.

Det er de slags snarveier som kan gjøre selvkørende tech billigere, enklere og forhåpentligvis kraftigere. En potensiell fordel med dette oppsettet er at det ville tillate bilene å se seg inn i avstanden selv under tåkeforhold, der eksisterende LIDAR-systemer kjempes.

Dagens sensorer koster omtrent $ 75.000. Den kostnaden må sannsynligvis komme ned for å gjøre bilkjørere til rimelige priser for den gjennomsnittlige bilføreren - vel, bil bruker, vi antar at begrepet må bli når vi ikke lenger driveren - men prøver å gjøre LIDAR arbeid bedre enn det gjør nå, kan gjøre dem enda dyrere.

Ved hjelp av Achuta og Raskars forskning kunne autonome kjøretøyer ettermonteres med materialet de brukte til å øke oppløsningen til kameraene som allerede var i bilene. Dette ville være en kostnadseffektiv løsning for å gjøre virkelig selvkjørende biler til virkelighet.

$config[ads_kvadrat] not found