AI 시대를 맞아 고성능 메모리의 중요성이 강조되는 가운데 SK하이닉스가 고대역폭메모리(HBM)의 전문화와 고객 맞춤화를 예고했다.

SK하이닉스 권언오 부사장

28일 SK하이닉스의 HBM 기술 담당 임원인 권언오 부사장은 자사 뉴스룸에 공개된 인터뷰에서 “HBM이 고객이 원하는 가치를 담은 제품으로 전문화되고 맞춤화될 것”이라고 했다.

HBM은 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 향상시킨 고성능 메모리다. 이는 생성형 인공지능(AI)이 방대한 데이터를 신속하게 처리하는 데 필수적인 D램 제품군으로 꼽힌다.

SK하이닉스는 HBM 4세대인 HBM3 시장점유율 90%를 차지하고 있으며, 5세대 HBM인 HBM3E를 세계 최초로 양산해 이달 말부터 AI 반도체 시장을 이끄는 엔비디아에 공급한다.

권 부사장은 SK하이닉스가 신설한 ‘AI 인프라’ 조직에서 HBM 기술 로드맵을 완성하는 역할을 맡고 있다. 그는 D램 개발 연구위원으로 있던 2022년 세계 최초로 모바일용 D램인 LPDDR에 공정 속도를 높이면서도 소모 전력을 줄이는 HKMG 공정을 도입했고, 초고속·초저전력 특성을 동시에 구현한 LPDDR5X와 LPDDR5T 개발을 성공적으로 이끌었다.

권 부사장은 “AI용 메모리가 데이터센터뿐만 아니라 특정 목적에 맞춘 성능과 효율성을 높인 주문형 반도체(ASIC)나 고객 제품에 최적화된 온디바이스 형태로 확대될 것”이라고 전망했다.

또한 그는 “HBM 뿐 아니라 다양한 종류의 D램이 AI용 메모리로 사용될 것이며 전통적 특성을 넘어서 다양한 조건에 특화된 소자 개발이 필요하다”고 강조했다.