러스트로 만드는 수학 및 과학 계산 라이브러리 시리즈 - 9편: 자동미분(AD)과 최적화 알고리즘, 머신러닝 기본기
이전까지의 글에서 우리는 선형대수, FFT, ODE/PDE 풀이, FEM 기초, GPU 가속, 병렬 처리 등 다양한 수학·과학 계산 기법을 러스트로 구현하고 고성능화하는 가능성을 살펴보았습니다. 이제는 **자동미분(Automatic Differentiation, AD)**과 최적화 알고리즘, 나아가 머신러닝(ML)의 기본 구조를 다루며, 러스트 기반 수학 라이브러리를 머신러닝 분야로 확장할 수 있는 기초를 마련해보겠습니다. 이번 글에서 다룰 주제들:자동미분(AD): 함수의 기울기(Gradient)·야코비안(Jacobian)·헤시안(Hessian)을 기호적 변화 없이 자동으로 계산하는 기법.최적화 알고리즘(Gradient Descent, Newton Method 등): 파라미터를 조정해 목표 함수를 최소화..