
딥러닝 인공지능(AI) 모델을 기존보다 빠른 속도로 운용할 수 있는 기술이 나왔다.
울산과학기술원(UNIST) 컴퓨터공학과 이슬기 교수팀은 '오토튜닝' 과정을 최대 2.5배 빠르게 할 수 있는 기법을 개발했다고 12일 밝혔다.
AI 모델이 실제로 작동하려면 컴퓨터 연산 장치가 이해할 수 있는 형태로 다시 바꾸는 '컴파일' 과정이 필요하다.
오토튜닝은 이 과정에서 가능한 수십만 개의 코드 조합 중 연산 장치에서 가장 빠르고 효율적인 구성을 자동으로 찾아주는 기술이다.
그러나 경우에 따라 튜닝 시간이 수십 분에서 수 시간까지 걸릴 정도로 연산 부담이 크고, 전력 소모가 많다는 문제가 있었다.
이 교수팀은 딥러닝 모델 안에서 반복되는 계산 구조가 많다는 점에 주목해 유사한 연산자끼리 정보를 공유하는 방식으로 탐색 범위를 줄였다.
코드 조합을 일일이 새로 찾는 대신 기존 결과를 재활용해 오토튜닝 속도를 높인 것이다.
이 방식을 오토튜닝 프레임워크에 적용한 결과 동일한 성능의 실행 코드를 생성하는 데 걸리는 속도가 중앙처리장치(CPU) 기준 평균 2.5배, 그래픽처리장치(GPU) 기준 평균 2배 빨라졌다.
이슬기 교수는 "컴파일 시간을 줄이면서도 GPU나 CPU를 직접 실험에 쓰는 횟수가 줄어 제한된 연산 자원을 효율적으로 쓸 수 있을 뿐만 아니라 전력 소모도 줄일 수 있다"고 말했다.
이런 연구 결과는 지난달 7일부터 사흘간 미국 보스턴에서 열린 컴퓨터 시스템 분야 학회인 OSDI(Operating Systems Design and Implementation)에서 발표됐다.
- 연합뉴스
- 저작권자 2025-08-18 ⓒ ScienceTimes
관련기사