SK하이닉스가 새로운 AI 서버 메모리 모듈인 소캠2(SOCAMM2) 양산에 돌입했습니다. 이 제품은 엔비디아의 차세대 AI 플랫폼 '베라 루빈'에 최적화되어 초거대 AI 모델 구동 시 발생하는 메모리 병목 현상을 해결하기 위해 개발되었습니다.
SK하이닉스는 10나노급 6세대(1c) LPDDR5X를 기반으로 한 SOCAMM2 192GB 제품을 본격 양산하기 시작했습니다. 이 제품은 기존 서버용 RDIMM보다 2배 이상의 대역폭과 75% 이상의 개선된 에너지 효율을 제공하여 고성능 AI 연산에 적합합니다.
엔비디아가 올해 하반기에 출시할 '베라 루빈' 플랫폼에 맞춰 제품을 공급할 예정이며, 차세대 AI 서버 메모리 시장을 선점하기 위한 경쟁이 가속화될 전망입니다. SOCAMM2는 모바일 기기에서 사용되던 저전력 D램(LPDDR)을 서버용 모듈로 재구성한 제품으로, 고대역폭메모리(HBM)와 DDR5 RDIMM의 중간 계층 메모리로서 AI 인프라의 요구에 적합한 솔루션입니다.
SK하이닉스의 AI 인프라 사장인 김주선은 “SOCAMM2 192GB 제품을 통해 AI 메모리의 새로운 기준을 제시했다”며 “글로벌 AI 고객과 협력하여 최고의 AI 메모리 솔루션 기업으로 발전할 것”이라고 밝혔습니다.