- 새 반도체 구조 ‘핌바’ 설계
- 전력효율 2.2배↑···삼성논문상
한국이 참여한 국제 공동 연구진이 그래픽처리장치(GPU)보다 빠르고 전력 효율이 높은 차세대 인공지능(AI) 반도체 기술을 선보였다.
한국과학기술원(KAIST)은 17일 전산학부 박종세 교수 연구팀이 미국 조지아공대, 스웨덴 웁살라대와 공동으로 AI 메모리 반도체 기반 기술 ‘핌바(PIMBA)’를 개발했다고 밝혔다. 실험 결과 핌바는 기존 GPU 대비 처리 속도가 최대 4.1배 향상됐으며, 전력 소비는 평균 2.2배 감소했다.

이번 연구는 ‘제31회 삼성휴먼테크 논문대상’ 금상을 수상한 데 이어, 오는 20일 서울에서 열리는 세계적 컴퓨터 구조 학술대회 ‘제58회 국제 마이크로아키텍처 심포지엄(MICRO 2025)’에서 발표된다.
대형언어모델(LLM)의 핵심 구조인 트랜스포머(Transformer)는 모델이 커질수록 연산량과 메모리 요구량이 급격히 증가해 속도 저하와 전력 소모가 문제로 지적돼 왔다. 이를 개선하기 위해 제안된 ‘맘바(Mamba)’ 구조는 시간 순서에 따라 정보를 처리하는 순차형 기억 구조를 적용했지만, 여전히 메모리 병목과 에너지 한계가 남아 있었다.
연구팀은 트랜스포머와 맘바의 장점을 결합한 ‘트랜스포머–맘바 하이브리드 모델’의 효율을 극대화하기 위해, 연산을 메모리 내부에서 직접 수행하는 새로운 반도체 구조 ‘핌바’를 설계했다. 기존 GPU는 데이터를 메모리 밖으로 옮겨 연산을 수행하지만, 핌바는 데이터를 이동시키지 않고 저장장치 내부에서 직접 계산을 처리한다. 이로써 데이터 이동 시간을 줄이고 전력 소모를 크게 절감할 수 있었다.
김지윤 기자/ hello@sciencewave.kr
Science Wave에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.