본문 바로가기

개념공부/AI, 머신러닝 등12

[논문 리뷰] Vector Net: Encoding HD maps and agent dynamics from vectorized representation Paper : Gao, Jiyang, et al. "Vectornet: Encoding hd maps and agent dynamics from vectorized representation." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020. Website : https://blog.waymo.com/2020/05/vectornet.html 요약 자율주행 차량의 Motion Planning을 위한 주변 Agent의 Behavior prediction에 사용 가능한 뉴럴 네트워크 아키텍처 제안 도로 상황을 Rasterized Image (2D or 3D)가 아닌 Vector 형태로 표현해 뉴럴 넷.. 2022. 11. 6.
[논문 리뷰] Safetynet: Safe planning for real-world self-driving vehicles using machine-learned policies Paper: Vitelli, Matt, et al. "Safetynet: Safe planning for real-world self-driving vehicles using machine-learned policies." 2022 International Conference on Robotics and Automation (ICRA). IEEE, 2022. Website: https://www.self-driving-cars.org/papers/2022-safetynet 요약 자율주행을 위한 Imitation Learning 기반의 Motion Planning 기법을 설명한다. Machine Learning planner와 rule-based fallback path planning layer가 합쳐진.. 2022. 11. 3.
[CS231n] Lecture3. Loss Functions and Optimization 정리 1. 1_1. 모델의 Loss를 0으로 만드는 가중치 행렬은 유일하지 않다. W가 Loss를 0으로 만든다면, 2W도 Loss를 0으로 만든다. 1_2. Loss를 0으로 만들기 위한 Optimization을 할 때, Gradient Descent 방법을 주로 사용한다. Random Search는 연산량이 너무 많아 사용하지 않는다. 1_3. 손실함수 (Loss Function)에 L2 Regularization term을 추가하면, 손실(Loss)을 낮추면서도 가능한 작은 가중치 행렬을 찾을 수 있는 weight decay 효과가 있다. 2020. 10. 6.
[CS231n ] Lecture 2. Image Classification 정리 1. 1-1. KNN과 Linear Classifier은 Image Classifier이다. 1-2. Classifier를 학습할 때 사용되는 데이터 셋은 대표적으로 Train/Validation/Test 로 구성한다. 필수는 아니다. 1-3. Validation Set은 모델의 가중치를 학습하는데 사용되고, 모델의 가중치는 모수(Parameter)이다. (초모수(Hyperparameter)가 아니다.) 2. 모수와 초모수의 차이는? 모수(Parameter)는 데이터로 모델을 학습시킬 때 변화되는 모델의 값이고, 초모수(Hyperparameter)는 학습 전에 개발자가 결정하는 값이다. 3. 2,000개의 흑백 이미지가 있고, 이미지의 크기는 100 x 150 이다. 모든 이미지는 자동차, 비행기, 고양.. 2020. 10. 6.
Training Neural Networks CS231n Lecture 7. Training Neural Networks 2 참조 1. Data Preprocessing 1) Normalization Before normalization : classification loss is very sensitive to weight matrix changes; hard to optimize After normalization : classification loss is less sensitive to weight matrix changes; easier to optimize 2) Batch Normalization Layer 연산 결과를 Normalize 함. Normalize 파라미터도 학습할 수 있음. 3) Babysitting Learning 4) .. 2020. 9. 10.
Anaconda 1 < 가상 환경 생성, 삭제, 실행> 가상 환경 생성 conda create -n venv(가상환경명) python = 3.8 가상 환경 삭제 conda cenv remove -n venv(가상환경 명) 가상 환경 실행하기 conda activate venv(가상환경명) or activate venv (가상환경명) 가상 환경 삭제 conda deactivate or deactivate 가상 환경 목록 보기 conda env list 2020. 9. 4.