“메모리 킹 돌아왔다” 자존심 회복...삼성전자, 최고 속도 LPDDR5X 개발

중앙일보

입력

삼성전자가 업계 최고 동작 속도인 10.7Gbps를 구현한 저전력더블데이터레이트(LPDDR)5X D램 개발에 성공했다고 17일 밝혔다. 사진 삼성전자

삼성전자가 업계 최고 동작 속도인 10.7Gbps를 구현한 저전력더블데이터레이트(LPDDR)5X D램 개발에 성공했다고 17일 밝혔다. 사진 삼성전자

삼성전자가 업계 최고 속도의 모바일용 저전력 D램 LPDDR5X 개발에 성공하며 메모리 반도체 시장 주도권 지키기에 나섰다. 인공지능(AI) 반도체 핵심 부품인 HBM(고대역폭메모리) 시장에서 SK하이닉스에 선두를 내준 삼성은 최근 업계 최초로 D램 칩을 12단까지 쌓은 HBM3E·290단 V낸드플래시에 이어 D램에서도 잇따라 세계 최고 수준의 칩을 공개하고 있다.

1초에 영화 20편...다시 찾은 D램 리더십

삼성전자가 업계 최고 동작 속도인 10.7 Gbps 를 구현한 저전력더블데이터레이트( LPDDR )5X D램 개발에 성공했다고 17일 밝혔다. 사진 삼성전자

삼성전자가 업계 최고 동작 속도인 10.7 Gbps 를 구현한 저전력더블데이터레이트( LPDDR )5X D램 개발에 성공했다고 17일 밝혔다. 사진 삼성전자

삼성전자는 10.7Gbps(초당 기가비트)의 속도를 구현한 LPDDR5X D램 개발에 성공했다고 17일 밝혔다. LPDDR은 스마트폰 등에 탑재되는 모바일용 저전력 D램으로, 삼성이 이번에 개발한 LPDDR5X는 1초에 풀HD급 영화(4GB) 20편을 전송할 수 있는 수준이다. 이전 세대 제품 대비 성능과 용량은 각각 25%, 30% 이상 향상됐고, 소비 전력은 25% 가량 적다. 제품 검증 후 하반기 양산된다.

LPDDR은 AI 시장에서 수요가 급증하고 있다. 올해 초 출시된 갤럭시 S24 시리즈처럼 기기 자체에서 AI를 구동하는 ‘온디바이스 AI’ 시장이 빠르게 확대되고 있어 저전력·고성능의 LPDDR의 역할이 중요해졌다. 네트워크 연결 없이 AI가 기기 단말에서 정보 처리를 하려면 LPDDR 같은 저전력·고성능·고용량 모바일 D램이 필수적이다. 앞서 삼성전자는 2018년 세계 최초로 8Gb(기가비트) LPDDR D램을 개발한 데 이어 2021년에는 LPDDR5X D램을 처음으로 개발했다.

삼성전자가 업계 최고 동작 속도인 10.7 Gbps 를 구현한 저전력더블데이터레이트( LPDDR )5X D램 개발에 성공했다고 17일 밝혔다. 사진 삼성전자

삼성전자가 업계 최고 동작 속도인 10.7 Gbps 를 구현한 저전력더블데이터레이트( LPDDR )5X D램 개발에 성공했다고 17일 밝혔다. 사진 삼성전자

AI 가속기 ‘마하’ 포석

2022년 12월 경기도 성남시 네이버 본사에서 진행된 AI반도체 솔루션 개발 협업 킥오프 미팅에서 한진만 삼성전자 메모리사업부 전략마케팅실장(사진 왼쪽), 정석근 네이버 클로바 CIC 대표가 기념촬영을 하고 있다. 사진 삼성전자

2022년 12월 경기도 성남시 네이버 본사에서 진행된 AI반도체 솔루션 개발 협업 킥오프 미팅에서 한진만 삼성전자 메모리사업부 전략마케팅실장(사진 왼쪽), 정석근 네이버 클로바 CIC 대표가 기념촬영을 하고 있다. 사진 삼성전자

반도체 업계에서는 삼성이 최근 LPDDR 개발에 집중하는 배경으로 AI 가속기 시장을 꼽는다. AI 가속기란 AI 학습·추론에 필수적인 반도체 패키지를 의미한다. 엔비디아는 자사의 그래픽처리장치(GPU)에 SK하이닉스의 HBM을 결합한 AI 가속기로 글로벌 AI 칩 시장의 90% 이상을 장악했다.

이에 인텔·AMD·메타 등 빅테크들이 저마다 방식으로 자체 AI 가속기를 개발해 내놓으며 ‘엔비디아 대체재’ 자리를 노리고 있다. 생성형 AI 기반이 되는 대형언어모델(LLM) 구동에 HBM보다 상대적으로 저렴한 LPDDR을 사용할 수 있는 길이 열리면서 다양한 AI 가속기를 연결해 쓸 수 있게 됐다. 현재 HBM이 AI 칩 시장에서 차지하는 비중의 상당 부분을 LPDDR D램이 가져올 가능성이 커지고 있는 것.이를 위해 삼성은 네이버와 함께 AI 추론용 칩 ‘마하1’의 양산을 준비 중이다. 마하1은 AI 모델 추론에 있어 데이터를 압축해 경량화하는 방식으로 HBM 대신 LPDDR D램을 연결, 전력 등 모든 면에서 효율 극대화를 노리는 것으로 알려졌다.

관련기사

ADVERTISEMENT
ADVERTISEMENT