PC 시대의 대부분 동안 메모리는 배경에 있는 존재였습니다. 그러나 2024년부터 2026년 사이, 이 구도는 뒤집혔습니다. 메모리는 시스템 설계의 핵심 제약 요소가 되었고, “RAM만 조금 더 추가하면 된다”는 접근의 비용은 불과 몇 분기 만에 급격히 상승했습니다.
가격은 올랐고, 공급 가능 물량은 줄었으며, 제품은 점점 우리가 익숙했던 여유 있는 메모리 구성 대신 최소한의 메모리만 탑재한 채 출하되고 있습니다. 지금은 누가 왜 웨이퍼를 가져가는지를 둘러싼 구조적 재편이 진행 중입니다.
그렇다면 실제로 무엇이 바뀌었고, 왜 이번 부족 사태는 이전과 다르게 느껴질까요? 이 글은 그 내용을 풀어보는 2부작 시리즈의 첫 번째 편으로, 클라우드 서버부터 임베디드 시스템까지 메모리 공급을 흔드는 요인들을 다룹니다. 2부인 메모리 부족 시대의 하드웨어 설계에서는 이를 바탕으로 이제 막 시장에 진입하는 차세대 메모리 부품, 오늘 바로 유통사를 통해 주문할 수 있는 대표 제품군, 설계 패턴, 그리고 소싱 전략을 심층적으로 살펴봅니다.
이전 사이클에서는 메모리 수요가 PC, 스마트폰, 서버, 소비자 전자기기 전반에 비교적 고르게 분산되어 있었습니다. 수요와 공급이 어긋나면 가격이 급등하거나 하락했고, 이후 팹이 조정되면서 다시 정상화되곤 했습니다. 하지만 2024~2026년의 공급 부족은 이런 전개를 따르지 않고 있습니다.
차이는 누가 사느냐에 있습니다. 이제 AI 중심 데이터 센터가 수요를 주도하고 있으며, 이들의 학습 클러스터와 추론 팜은 GPU나 가속기 하나당 막대한 양의 고대역폭 메모리(HBM)와 기존 DRAM을 필요로 합니다. HBM은 비트당 표준 DRAM보다 훨씬 더 많은 웨이퍼 용량을 소모하기 때문에, AI 인프라 사업자와 다년간의 고마진 계약을 확보하려는 제조사들에게 매우 매력적입니다.
일부 분석가들은 이제 2026년에 생산되는 모든 고급 메모리 칩의 최대 70%를 데이터 센터가 소비할 것으로 추정합니다. 이는 과거 소비자 기기가 이러한 칩의 대부분을 차지하던 시대와는 극명한 반전입니다. 이런 환경에서는 PC와 모바일용 메모리는 부차적인 사업이 되고, AI 데이터 센터가 핵심 시장이 됩니다.
CES 2026에서 공개된 HBM4 세대는 이러한 변화의 규모를 잘 보여줍니다. SK하이닉스는 16단 적층, 48GB 용량, 2TB/s 이상의 대역폭을 제공하는 제품을 선보였으며, 이는 1세대 생성형 AI 가속기에 사용된 초기 HBM3보다 성능을 크게 끌어올린 것입니다. 이 적층 제품에 투입되는 모든 웨이퍼는 여러분의 다음 PC용 DDR5나 스마트폰용 LPDDR5X를 만드는 데 쓰이지 못합니다.
구형 DRAM 규격이나 성숙한 SLC NAND에 의존하는 임베디드 및 산업용 설계도 자체적인 역풍에 직면해 있습니다. 이러한 제품 중 다수는 DDR3 또는 초기 DDR4 디바이스와 병렬 NAND 플래시를 사용하는데, 이들은 더 이상 벤더 로드맵의 중심에 있지 않습니다.
제조사들이 고수익 HBM과 서버급 DRAM을 우선시하면서 레거시 라인을 축소하거나 단종하고 있습니다. 그 결과 남아 있는 제품조차 기술적으로는 성숙했음에도 예상보다 높은 가격과 긴 리드타임을 보이고 있습니다.
Octopart 같은 도구로 부품 라이프사이클 상태를 면밀히 추적하면, 팀은 EOL 공지와 공급 경색을 긴급 상황이 되기 전에 포착할 수 있습니다.
구형 설계의 공급을 압박하는 바로 그 기술 전환은 실제 엔지니어링 혁신도 만들어내고 있습니다. 이 역학의 양면을 이해하는 것은 중요합니다. 기술 발전은 설계에 활용할 수 있는 선택지를 바꾸고 있으며, 그 이면의 웨이퍼 경제성은 범용 메모리 가격이 당분간 내려가지 않을 이유를 설명해 줍니다.
삼성은 차세대 모바일 기기를 위해 가장 얇은 12nm급 LPDDR5X DRAM을 양산하고 있으며, 높은 성능과 전력 효율, 그리고 프리미엄 스마트폰과 초경량 기기에 적합한 얇은 패키징을 결합했습니다. 초기 LPDDR6 제품은 대역폭과 에너지 효율을 한층 더 끌어올리며, 온디바이스 AI와 자동차 애플리케이션을 겨냥하고 있습니다. 삼성의 LPDDR6 구현은 업계 행사에서 주목을 받기 시작했으며, 이는 고급 모바일 메모리의 향방을 보여줍니다.
HBM 영역에서는 CES 2026의 HBM4 관련 보도가 메모리 스택이 고도로 통합된 서브시스템으로 진화하고 있음을 보여줍니다. SK하이닉스의 16단 적층은 MR-MUF와 초박형 DRAM 웨이퍼를 사용해 JEDEC 높이 제한을 충족하며, 삼성은 열 특성과 에너지 효율 개선을 위해 4nm 로직 공정(이 공정은 2026년 2월 양산을 시작했습니다)을 바라보고 있습니다. 이 모든 엔지니어링 노력과 웨이퍼 용량은 명확히 AI 가속기를 향하고 있습니다.
NAND 측면에서는 벤더들이 점점 더 많은 층을 적층하고 있습니다. 400개 이상의 레이어와 약 5.6GT/s 인터페이스를 갖춘 10세대 V-NAND는 데이터 센터 및 AI 용도의 PCIe 5.0, 그리고 향후 PCIe 6.0 SSD에 적용되도록 설계되고 있습니다. Kioxia와 Sandisk의 10세대 332단 BiCS NAND는 핀당 최대 4.8Gb/s의 Toggle DDR 6.0 인터페이스를 사용하며, 데이터 센터 및 엔터프라이즈급 SSD를 위한 고대역폭 NAND가 얼마나 발전했는지를 보여줍니다.
기술은 발전하고 있지만, 생산 능력은 그 속도를 따라가지 못하고 있습니다. EE Times에 따르면, 삼성과 SK하이닉스는 HBM과 DRAM에 집중하기 위해 2024~2025년에 NAND 웨이퍼 생산량을 줄였으며, 시장의 절반 이상을 점유하고 있음에도 새로운 NAND 생산 능력 증설은 발표하지 않았습니다. Omdia 데이터에 따르면 삼성의 NAND 웨이퍼는 490만 장(2024년)에서 468만 장(2025년)으로, SK하이닉스는 190만 장에서 170만 장으로 감소했습니다.
동시에 NAND는 AI 추론에서도 핵심 요소가 되었습니다. AI가 학습에서 서비스 단계로 이동하면서, 고적층 NAND 기반 SSD는 모델 가중치와 작업 데이터를 저장하는 주요 스토리지로 점점 더 중요해지고 있습니다. Kioxia 경영진은 2026년 NAND 생산 물량 전체가 이미 완판되었고, BiCS10 도입 시점이 2027년 하반기에서 2026년으로 앞당겨졌으며, 앞으로는 NAND 수요의 거의 절반이 AI 애플리케이션에서 나올 수 있다고 밝혔습니다. 한때 범용화된 시장의 약자로 여겨졌던 Kioxia와 새롭게 독립한 Sandisk 사업부 같은 NAND 전문 업체들은 이제 AI SSD 붐의 수혜자로 자리매김하고 있습니다.
업계 분석가들은 2026년까지 DRAM과 NAND 공급 증가율이 과거 평균에 비해 비교적 낮을 것으로 보고 있습니다. 반면 수요는 줄어들지 않고 있습니다. 새로운 모델 아키텍처, 추론 워크로드, 엣지 AI 배치는 메모리 요구량을 정체시키는 대신 계속 끌어올리고 있습니다. HBM4 공급업체들은 Nvidia 및 기타 가속기의 요구를 충족하기 위해 상당한 웨이퍼 용량을 할당하고 있으며, 앞서 언급했듯 Kioxia 같은 NAND 벤더는 2026년 물량이 이미 매진된 상태입니다.
2025년 12월, Micron은 “더 크고 전략적인 고객” 지원에 집중하기 위해 Crucial 소비자 사업에서 철수한다고 발표하며 이러한 구조적 변화를 보여주었습니다. Micron을 포함한 일부 공급업체는 신규 생산 능력과 공정 전환이 본격적으로 확대되는 2028년 전후까지는 소비자 시장의 RAM 부족이 의미 있게 완화되지 않을 것이라고 공개적으로 밝혔습니다. 같은 논리는 NAND에도 점점 더 적용되고 있습니다. AI 추론이 벤더들이 공급을 늘리는 속도만큼 빠르게 미래 SSD급 공급 물량을 선점하고 있기 때문입니다.
2025년 12월, IDC는 이 부족 현상을 “단순한 경기 순환적 부족이 아니라, 전 세계 실리콘 웨이퍼 생산 능력의 잠재적으로 영구적인 전략적 재배분”이라고 규정했습니다. 2026년 2월, TrendForce는 2026년 1분기 범용 DRAM 계약 가격 전망을 기존 전분기 대비 55~60% 상승에서 90~95% 상승으로 대폭 상향 조정했습니다. 이 가운데 PC DRAM(DDR4/DDR5 혼합 기준)은 전분기 대비 105~110% 상승할 것으로 전망되어 분기 기준 사상 최고치를 기록했습니다.
메모리 부족 시대의 하드웨어 설계에서는 OEM 및 데이터 센터 설계에 본격 투입되고 있는 차세대 메모리 부품 7종, 주요 유통사에서 쉽게 구할 수 있는 대표 DRAM 및 플래시 제품 8종, 그리고 이러한 제약 속에서 실질적으로 활용할 수 있는 구체적인 대응 전략을 살펴봅니다.
현재의 부족은 기술적 한계 때문이 아니라 웨이퍼 배분의 경제성 때문입니다. 전 세계 메모리 웨이퍼 생산 능력 중 점점 더 큰 비중이 고수익 AI 메모리, 특히 데이터 센터 가속기용 HBM으로 재배치되고 있습니다. HBM은 사용 가능한 비트당 기존 DRAM보다 훨씬 더 많은 웨이퍼 면적을 소모하기 때문에, HBM 생산에 투입되는 모든 웨이퍼는 DDR4, DDR5, LPDDR, NAND의 생산량을 줄이게 됩니다. 신규 팹 증설이 제한적이고 장기 AI 공급 계약이 생산 능력을 묶어두고 있는 상황에서는, 메모리 집적도 향상이 곧 주류 시장이나 임베디드 시장의 공급 증가로 이어지지 않습니다.
이전의 호황-불황 사이클과 달리, 이번 부족은 일시적인 과소비가 아니라 구조적인 수요 집중에 의해 형성되고 있습니다. AI 학습 및 추론 워크로드는 계속해서 메모리 요구량을 끌어올리고 있고, 공급업체들은 의도적으로 생산 능력 증가를 제한해 왔습니다. 수년에 걸친 HBM 계약, 2026년 완판된 NAND 생산 물량, 그리고 2027~2028년 이후에야 완화될 것이라는 공급업체들의 명시적 전망은 이것이 가격만으로 자연스럽게 해소될 단기 불균형이 아니라 장기적인 재배분임을 의미합니다.
레거시 메모리 제품은 주요 공급업체들로부터 점점 더 비전략적 품목으로 취급되고 있습니다. 공급업체들이 첨단 DRAM과 HBM에 우선순위를 두면서, 구형 공정 노드는 생산 물량 축소, 최소 주문 수량 증가, 리드타임 장기화, 그리고 EOL 위험 증가에 직면하고 있습니다. 부품이 기술적으로는 여전히 “생산 중” 상태이더라도, 가격 변동성은 커지고 공급 가능성은 예측하기 어려워집니다. 임베디드 개발팀에게 이는 과거 세대보다 훨씬 이른 제품 수명주기 단계에서 수명주기 모니터링, 멀티소싱, 그리고 재설계 계획의 중요성이 커졌음을 의미합니다.
공급업체 발표와 애널리스트 전망에 따르면, 의미 있는 완화는 2027년 말이나 2028년 이전에는 어려울 가능성이 큽니다. HBM 및 첨단 NAND를 위한 신규 생산능력 증설, 공정 전환, 패키징 라인 확대가 계획되어 있지만, 실제 가동까지는 수년이 걸립니다. 동시에 AI 추론 워크로드가 DRAM과 SSD급 NAND 모두에 대한 수요를 확대하고 있어, 미래 생산능력의 상당 부분을 흡수하고 있습니다. 엔지니어들은 이번 10년의 남은 기간 동안 메모리가 계속해서 제약이 큰, 시스템 비용에 큰 영향을 미치는 요소로 남을 것이라는 가정하에 설계를 계획해야 합니다.