ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 자율주행차는 어떻게 보는가? 객체 감지를 위 봅시다
    카테고리 없음 2020. 2. 1. 14:38

    >


    자율주행차는 미래입니다. 앞으로 20년 이내에 우리는 차 안에 들어 이런 일이 있는 것입니다. 좋아요, 포켓몬 고는 안 할 수도 있지만, 우리는 기본적으로 우리가 원하는 것은 무엇이든 차 안에서 할 수 있을 겁니다. 낮잠을 자면 거인, 뉴스를 읽는 거인, 친국과 화상 채팅을 할 수 있을 거예요. 그 차는 우리를 위해 모든 운전을 해 주고, 우리가 길에서 가끔을 절약할 수 있게 해 줄 거예요. 자율주행차는 한 사람의 생명도 구할 수 있습니다. 매년 33,000명 이상의 믹크 사람들이 자동차사 그 때문에 사망하고 있습니다. 자율 주행 차이가 실현되면 정확하고 안전한 이동이 가능하기 때문에 저런 불필요한 일을 줄일 수 있을 것입니다. 그렇다면 왜 자율주행차는 이 놀라운 기술 분야에서 그렇게 발전했을까. 그리고 그들은 얼마나 멀리까지 더 가야할까요? 그게 제가 다음 몇 개의 글에서 다룰 이 이야기입니다. 인지(#Perception) 자율주행차는 Camera, Radar, LiDAR와 같은 시각입력장치가 필요하며 자동차가 주변세계를 인식하여 디지털지도를 작성할 수 있습니다. 우리는 자동차가 물체를 감지하는 영상을 집중적으로 찍습니다. 예를 들어,


    >


    대체 차는 어떻게 이럴까요? 컴퓨터 비전(Computer Vision)을 이용하는 기계 학습(Machine Learning)와 AI!기본 위치 분류(Image Classification)오브젝트 감지는 사실 2개로 구성된 프로세스에서 기본 위치 분류(Image Classification)과 기본 위치 위치 설정(Image Localization)이었다. 기위지의 분류는 자동차 또는 사람과 함께 기위지의 오브젝트가 어떤지를 판단하는 것으로, 기위지의 위치설정은 위의 경계상자에 표시되어 있듯이 이러한 오브젝트의 특정 위치를 재공합니다. 지위지 분류를 수행하기 위해 교통신호등, 보행자와 같은 다양한 물체를 인식하도록 컨볼루션 뇌신경망(Convolutional Neural Network, CNN)을 훈련시킵니다. CNN은 이들을 분류하기 위해 기위지에 대한 컨볼루션(convolution) 작업을 수행합니다.


    >


    그러면 그러한 CNN은 대개 그 부분을 차지하는 자신의 물체에서만 이미지를 분류할 수 있습니다. 이 사고를 해결하기 위해 우리는 슬라이딩 윈도(Sliding Windows)를 사용할 수 있어요!


    >


    창을 이미 지상에 미끄러지게 할 때 우리는 결과적 이지 패치를 가져와 그것이 가능한 등과 같은 물체와 일치하는지 보기 위해 CNN을 통해 그것을 작동시킵니다. 만약 그것이 단지 길이 나쁘지 않고 맑은 하항 시의 맹지라면 그것은 잘못된 추측일 것입니다. 만약 그것이 자동차 나쁘지 않은 사람의 맹목이라면, 그것은 진짜 추측으로 돌아올 것이라고 생각합니다.​


    >


    하지만 Window 크기보다 더 크지 않고, 작은 물체가 있다면 어떻게 될까요? 감지되지 않을 것이다! 그러므로 창문 몇 개를 사용하여 그것을 비행기 위에 미끄러지게 해야 할 것이다. 이것은 계산하는 데 매우 비싸고 때때로 많이 걸릴 수 있기 때문에 우리는 또 다른 알고리즘인 YOLO(You Only Look Once)를 소개할 것이다. 그리고 단 1회만 살아 있는 것이 아니라 그 자부심지가 CNN을 통과 하고 단 1회만 보이니 그것은 단지 1회만 보이는(You Only Look Once)뿐이다. YOLO를 위해 우리는 기위지를 격자망으로 나쁘지 않고 모두 기위지를 신경회로로 작동시킵니다.


    >


    우리는 클래스의 확률을 얻지만 이것은 우리에게 각 그리드 셀이 특정 개체일 확률을 높입니다. YOLO는 전체 화상의 작은 부분의 추측을 반환한다.그리고 여러 창의 크기와 리허설 과정(run-throughs)이 필요 없어 효과가 있습니다. 이미지 위치 설정(Image Localization) 지금 각 그리드 셀이 어느 것을 포함하는지 알 수 있었으니(또한 어느 것도 포함하지 않을 경우) 각 오브젝트가 경계상자(bounding box)를 사용하는 위치를 어떻게 확실하게 정합니까? 우리는 비최대 억제(non-max suppression)라고 불리는 알고리즘을 사용합니다. 네트워크를 훈련하는 동안 우리는 CNN에서 가져온 우리의 경계 박스의 결과를 실제 경계 박스와 비교합니다. 우리 비용 함수는 교차 영역을 2개의 경계 상자의 합집합 영역으로서 잘하는 것입니다. IoU(intersection overunion)이라고 불리는 이 숫자가 1개에 가까울수록 우리의 추측은 더 좋은 것입니다.


    >


    우리의 네트워크를 훈련 세트에 걸친 경계 박스를 예측하도록 훈련하고 시험을 개시함으로써 우리는 또한 동일한 물체의 일부가 다중 그리드 셀에 있을 수 있다는 점과 다중 경계 상자가 발생할 수 있다는 점을 고려해야 한다. 이것은 비최대 억제(non-max suppression)를 요구할 것이다. non-max suppression의 경우 우리는 먼저 어느 물체가 일반적으로 0.5또는 0.6명, 특정 이다기에쯔가프 아래에 존재할 가능성이 있는 그리드 셀에서 경계 상자를 폐기하는 것이다. 그런 이후 예측 값이 가장 높은 상자를 가져오고 IoU가 다른 이다기에쯔가프보다 큰 상자를 폐기하거나 억제하지만 이것은 또한 편리하게도 0.5또는 0.6이다. 이것이 왜 non-max suppression 알고리즘이라고 불리는지는 쉽게 알 수 있습니다. 우리는 최대 확률이 없는 상자를 가지고 그것을 억제할 것이다! 오브젝트 감지와 위치 설정을 실행한 후 우리는 결과를 얻습니다!


    >


    차량은 YOLO와 다른 알고리즘을 사용하여 주변 물체를 감지해 봄으로써 판정을 내릴 수 있습니다. 그들은 가는지 마는지를 판정할 수 있도록 인간, 차, 신호등, 그래서 다른 모든 것을 볼 수 있을 것이다. 객체 감지를 이용해 자동차는 인간이 할 수 있는 것처럼 세계를 볼 수 있다. 그런데 어떻게 자율주행차를 세울 수 있죠? 객체 탐지 후 단계는 먼저 자동차가 빠르게 접근하는 물체를 감지하고 이를 피하기 위해 실시간으로 물체를 감지해야 합니다. 높은 정밀도를 위해서는 매우 짧은 지연시간이 필요한데, 이는 매우 높은 컴퓨팅과 그래픽 능력이 필요함을 의미합니다. 우리는 자율주행에 대한 컴퓨터 비전(Computer Vision)을 안전하게 실현하기 위해 우리 프로세서 유닛의 전력을 개선해야 합니다.


    >


    그러나 우리는도 했다 99.9퍼센트 이상의 아주 정확한 모델이 필요하게 된다. 왜냐하면어떤실수도재앙이고인명손실이생길수있기때문입니다. 우리의 현재 모델은 아직 그 정도로 높은 가치를 달성하지 못했고, 우리는 모델 훈련을 위해 더 많은 데이터를 생산해야 한다. R-FCN 및 SSD와 같은 오브젝트 감지를 위한 다른 자신에게는 모델이 있지만 우리가 필요로 하는 정확성은 아직 멀었습니다. 우리가 객체 감지를 크게 개선할 수 있다면, 우리는 자율주행차에 한발 더 다가가 더 안전하고 편리한 미래가 될 것입니다. 요점(Key Take aways)● 자동차는 주변 환경을 감지하기 위해 물체 감지가 필요하다.오브젝트 탐지=오브젝트 분류 + 객체 위치 설정 YOLO 알고리즘은 CNN을 통해 전체 이미지를 한 번만 실행하면 되지만 슬라이딩 윈도 알고리즘은 점점 계산 비용이 든다.사용하는 경계상자를 파악하기 위해서 비최대억제(Non-max suppression)가 사용된다.저희는 여전히 완벽한 물체 감지를 하기에는 아직 멀었지만 저희는 거기에 가기 위해 더 노력할게요! 새치기 정말 오랜만에 소프트웨어에 관한 소식을 전하네요. 하~~게으름... 이 소식은 자율주행차가 외부 물체(객체)를 어떻게 인식하는지에 대한 과정을 간단하게 설명해 주는 글이었습니다. 처음 접하는 분들은 'シ!' 이런 어려운 문장을... 라고 생각하실 수도 있고 이런 기초적인 글을... 라고 생각하시는 분들도 계실 거예요. 제가 이 블로그를 시작하면 전달하려는 소식은 될 수 있으면 쉽게 설명하는 것을 목표로 하고 있으므로, 가능하다면 그다지 기술적이지 않고 전문적이지 않아서 더욱 당신의 무기 전달이 어렵지 않게 쓰려고 합니다. 하지만 가끔 그렇지 않은 경우도 있지만요. 그래도 꾸준히 제 블로그에 시각투자를 해주시면 제 이름 자율주행차에 대한 기본적인 이야기와 요즘 소식을 들을 수 있을 것 같습니다. 자율주행차가 발전한 가장 결정적인 원인 중 하나는 바로 computer vision 기술이겠지요. 이전까지는 단순한 전기 센서 자신, 이미 매설된 전기선이 있는 정해진 구간에서만 운행할 수 있는 자율주행차(?)입니다.면, computervision과 AI 기술의 발전은 사람과 비슷한 시각 능력을 가질 수 있는 자동차를 만들어 낼 수 있게 되었다고 할 수 있습니다. 이런 시각 인지 능력은 하나만 이용하는 것이 아니라 Camera, Radar, LiDAR의 3가지를 종합적으로 분석한 결과를 자동차 운행으로 이용하는 것입니다. 관련 내용은 아래에 처음으로 부기한다. 각 센서에 대해 알고 싶으신 분은 아래와 같이 참조하십시오.이번에는 하드웨어적으로 이렇게 수집된 데이터를 어떻게 처리해서 자율주행차가 운행하는 객체를 구분하는지에 대해서 소개하는 겁니다. 이런 이미지 처리 기술은 우리가 현재 휴대전화에서 사용하고 있는 인식 기술인 AI 과정과 동일합니다. 물론핸드폰기술을어느정도사용해서알고있는지는모르겠지만제주변에는그런기능자체도모르는분들이많습니다. 현재 우리 생활에서 많이 접할 수 있는 AI 기술은 크게 음성인식, 이미 인식 정도가 아닐까 싶다. 그 외에도 AI 기술은 조금씩 우리 생활 속으로 스며들고 있습니다 어쨌든 최근 가장 핫한(?) AI 기술은 이미 기술임이 분명하다. 이러한 기술의 발전은 자율주행의 발전과도 많은 관련이 있기 때문에 지속적인 발전이 필요한 분야임이 분명하다. 이번글을통해서쉽게나까지이미인식기술에대해이해할수있는기회가되었으면좋겠습니다. 자율차 시각센서에 관한 글입니다.


    크리스마스 이브네요. 모두 산타할아버지에게 큰 선물을 받으세요. 검색을 통해서 보시고, 만약 원하시는 스토리를 찾을 수 없다면 '태그' 역시 '검색'을 해보면 더 많은 자료를 찾을 수 있습니다. 그래도 찾으시는 스토리가 없으시면 (이메일, 편지) 제가 아는 범위 내에서 도와드리도록 하겠습니다. 부담 갖지 않으셔도 됩니다. Over the Vehicle !!! 참고 자료



    댓글

Designed by Tistory.