분류 전체보기142 Cruise Apply : Principal S/W Enginner - Motion Planning & Control Apply Now Principal Software Engineer, Robotics (Motion Planning & Controls) at Cruise San Francisco, CA We're Cruise, a self-driving service designed for the cities we love. We’re building the world’s most advanced, self-driving vehicles to safely connect people to the places, things, and experiences they care about. We believe self-driving vehicles will help save lives, reshape cities, give ba.. 2021. 8. 16. VSC, Git, Github 유튜브 영상 https://www.youtube.com/watch?v=qkRuIUSdXnw 2021. 7. 26. Review of Motion Planning Path Planning 알고리즘을 개발 원리 및 시기에 따라 Traditional Algorithm과 ML-based Algorithm으로 분류한다. Tradition Algorithm은 Graph Based method, Sampling based method, Curve Interpolation으로 구분한다. ML-based Algorithm 은 Supervised Learning, Optimal Value Reinforcement Learning, Policy Gradient Reinforcement Learning. Graph Search Based Algorithm 1. Dijsktra's Algorithm 2. A* Algorithm Hybrid A*, Field D*, Anytime A*,.. 2021. 7. 11. Corridor Map Method(CMM) Path Planning 1. Construction phase - roadmap graph G = (V, E) is buile : serves as a skeleton for the corridors - in each path point, associate the radius R of the largest empty ball - radius R : clearance information and graph are now used to define the corridor map - Corridor Map : is a graph with clearnce information, each edge encodes a local path with the radii R for the corresponding largest empty ball.. 2021. 4. 8. Hermite Spline <설명, Matlab Code> Hermite Spline : Path Smoothing, Interpolation에 사용 가능한 다항식 점과 점을 연결하면서, 각 점에서의 기울기를 반영하는 부드러운 곡선 생성 3차 다항식 곡선 (Cubic Spline Curve) 형태 -> y = ax^3 + bx^2 + cx + d 3차 다항식 곡선 = 변수 4개 -> 4개의 수식 필요 2개 점의 위치 값, 2개 점에서의 기울기(1차 미분 값) 4개의 Constraint를 사용하여 계산 Hermite Spline을 사용했을 때 기대대는 효과는 아래와 같다. 파란점선은 4개의 포인트를 직선으로 연결한 선이다. 이를 부드럽게 연결하는 곡선을 만드는 것이 목적이다. 각 점의 포인트와 기울기를 안다면 2개 점을 연결하는 3차곡선을 생성할 수 있다. 이를 .. 2020. 10. 11. [CS231n] Lecture3. Loss Functions and Optimization 정리 1. 1_1. 모델의 Loss를 0으로 만드는 가중치 행렬은 유일하지 않다. W가 Loss를 0으로 만든다면, 2W도 Loss를 0으로 만든다. 1_2. Loss를 0으로 만들기 위한 Optimization을 할 때, Gradient Descent 방법을 주로 사용한다. Random Search는 연산량이 너무 많아 사용하지 않는다. 1_3. 손실함수 (Loss Function)에 L2 Regularization term을 추가하면, 손실(Loss)을 낮추면서도 가능한 작은 가중치 행렬을 찾을 수 있는 weight decay 효과가 있다. 2020. 10. 6. 이전 1 ··· 20 21 22 23 24 다음