2026.02.19.(목)/ EE Times Japan
ChatGPT와 같은 방대한 컴퓨팅 및 스토리지 자원을 소비하는 대규모 AI 모델이 메모리 산업을 재편하는 가운데, AI 추론을 위한 새로운 스토리지 솔루션인 고대역폭 플래시(HBF) 기술이 핵심 트렌드로 부상함.
HBF는 수백 개의 3D NAND 플래시 메모리 셀 층을 다중 적층하여 병렬 I/O 성능을 극대화하고, 기존에 없던 압도적인 메모리 용량을 실현하는 차세대 기술임.
기존 고대역폭 메모리(HBM)를 대체하는 경쟁 기술이 아니라, 단일 스택으로 DRAM 수준의 대역폭을 구현하여 ‘메모리의 벽’이라 불리는 컴퓨팅과 메모리 간의 격차를 해소하는 강력한 보완재 역할을 수행함.
레이턴시에 민감한 작업보다는 읽기 중심의 데이터센터 AI 추론 워크로드 및 에지(Edge) AI 환경에 최적화된 성능과 전력 효율을 제공하도록 설계됨.
기술 메커니즘 및 상세 분석
핵심 기술 및 아키텍처
- 수백 개의 3D NAND 다이를 통합하여 병렬 I/O 성능을 향상시키고 압도적인 용량을 제공하는 아키텍처를 적용함.
- 계산을 담당하는 GPU 곁에 HBM과 HBF를 동시에 배치하는 ‘하이브리드 메모리 아키텍처(예: SK하이닉스의 H3)’를 채택함.
- 이 구조에서 HBM은 긴급한 데이터를 처리하는 고속 캐시 역할을 담당하고, HBF는 방대한 파라미터의 AI 모델을 저장하는 역할을 분담함.
- 엔비디아(NVIDIA)의 최신 GPU인 ‘Blackwell(B200)’에 8개의 HBM3E 스택과 8개의 HBF 스택을 결합한 시뮬레이션 결과, 와트당 성능이 기존 HBM 단독 배치 대비 약 2.69배 향상된 것으로 입증됨.
주요 성능 및 타겟 워크로드
- 차세대 HBM4의 최대 용량이 64GB 수준으로 예상되는 것에 비해, HBF는 최대 512GB의 대용량을 실현할 것으로 기대되어 혁신적인 스토리지 확장이 가능함.
- 1638GB/s를 상회하는 고속 읽기 대역폭을 달성할 가능성이 높아, 기존 SSD와 비교하여 차원이 다른 수준의 전송 처리량을 보장함.
- HBM과 동등한 비용 구조를 유지하면서도 8배에서 최대 16배 더 많은 데이터를 저장할 수 있어 데이터센터의 비용 효율성을 극대화함.
- 또한 낮은 전력 소비량과 고속 읽기 능력은 사전 학습된 모델을 주로 채택하며 에너지 제약이 엄격한 에지(Edge) AI 환경에 가장 이상적인 솔루션을 제공함.
상용화 로드맵 및 실무적 극복 과제
- SK하이닉스는 2026년 1분기에 시제품 버전을 최초로 공개할 예정이며, 샌디스크는 2026년 하반기 샘플 출하를 목표로 연구개발에 속도를 내고 있음.
- 삼성전자와 SK하이닉스 등 글로벌 메모리 선도 기업들 모두 AI 추론에 대응하는 첫 HBF 디바이스의 본격적인 상용화 시점을 2027년으로 설정하고 적극적인 표준화 작업을 진행 중임.
- 엄청난 용량과 대역폭을 실현하는 과정에서 수반되는 인터커넥트(Interconnect) 영역의 극심한 엔지니어링 복잡성 해결이 최우선적인 실무 극복 과제로 지목됨.
- NAND 플래시를 기반으로 하므로 쓰기 속도가 저하되거나 내구성이 부족하다는 태생적 약점이 존재하나, 읽기 위주의 AI 추론 환경에서는 이러한 단점이 모델 구동에 큰 리스크로 작용하지 않음.

Insight: ‘메모리의 벽’을 허무는 HBF의 등장과 하이브리드 생태계로의 진화
인공지능(AI) 산업이 고도화됨에 따라 IT 업계는 연산 능력의 발전 속도를 따라가지 못하는 메모리 대역폭 및 용량의 근본적인 한계, 즉 ‘메모리의 벽(Memory Wall)’이라는 거대한 장벽에 직면해 있습니다. 이러한 병목 현상을 타개할 핵심 열쇠로 HBF의 등장이 메모리 반도체 산업의 패러다임을 획기적으로 전환하는 게임 체인저로 떠오르고 있습니다. 특히 주목해야 할 점은 샌디스크가 ‘메모리 중심의 AI’라고 명명할 만큼 HBF가 현재 시장을 독주하고 있는 HBM의 경쟁자로서가 아니라, 비용과 용량의 한계를 메워주는 가장 완벽한 형태의 보완재로서 융합된다는 사실입니다. 데이터센터의 워크로드 구조에서 HBM이 초고속 연산을 지원하기 위한 캐시 메모리 역할을 충실히 수행하고, 동일 비용으로 16배 더 많은 데이터를 수용할 수 있는 HBF가 방대한 AI 모델 자체를 영구적으로 저장함으로써 전력 소모를 줄이고 병목 현상을 해소할 수 있습니다.
파급력은 거대 클라우드 환경을 넘어 에지(Edge) AI 및 온디바이스(On-Device) 생태계로 그 영역을 폭발적으로 확장할 전망입니다. 초고속 읽기 대역폭(1638GB/s 이상)과 최대 512GB에 달하는 압도적인 저장 용량, 그리고 SSD를 뛰어넘는 저전력 특성은 전력 및 공간의 제약이 극심한 에지 디바이스 내에서도 거대 AI 추론 모델을 원활하게 구동할 수 있는 탁월한 물리적 기반을 제공합니다. 주요 기업들이 2026년 하반기부터 본격적인 샘플 출하를 예고한 만큼, HBF는 반도체 제조사들의 새로운 미래 수익원으로 부상할 것입니다. 이에 따라 글로벌 팹리스 및 IT 인프라 기업들은 이 헤테로지니어스(Heterogeneous) 하이브리드 아키텍처를 자사 서비스에 수용하기 위해 전면적인 시스템 재설계에 돌입할 것이며, 이는 궁극적으로 AI 인프라 구축 비용을 대폭 낮추어 AI 서비스의 일상화를 앞당기는 중대한 기술적 승부처가 될 것입니다.
- 초고밀도 패키징 및 인터커넥트 기술 선점 경쟁: 수백 층의 3D NAND 다이를 결합하여 HBF를 물리적으로 구현하기 위해서는 칩 간의 복잡한 인터커넥트 병목을 우선적으로 해소해야 하므로, 향후 진보된 어드밴스드 패키징(Advanced Packaging) 기술력과 발열 제어 솔루션을 선제적으로 확보한 기업이 초기 시장의 주도권을 장악하게 될 것임.
- 이종(Heterogeneous) 메모리 하이브리드 최적화 역량 필수: 시스템 반도체 팹리스 및 데이터센터 운영 기업들은 HBM과 HBF가 하나의 칩 안에서 결합된 이종 아키텍처 환경에서, 데이터 병목이나 지연 없이 워크로드를 스마트하게 분배할 수 있는 새로운 칩 레벨 아키텍처 및 소프트웨어 스택 최적화 역량을 신속히 내재화해야 함.
- 에지(Edge) AI 하드웨어 폼팩터의 파괴적 혁신 촉발: 전력 소모가 매우 적으면서도 대용량 데이터 읽기에 특화된 HBF의 상용화는 자율주행차, 첨단 로보틱스, 온디바이스 AI 스마트기기 등 에지 단말기 환경에서 클라우드 연결 없이도 고성능 추론 모델을 지연 없이 독자 구동하게 만들어 새로운 디바이스 폼팩터 혁신을 이끌어낼 것임.
원본링크: https://eetimes.itmedia.co.jp/ee/articles/2602/19/news066.html