HBF의 시대가 온다 HBF의 시대가 온다
🚀 HBM보다 훨씬 크다? 비밀리에 준비 중인 HBF의 시대가 온다
AI 반도체 시장을 이야기할 때 가장 많이 등장하는 단어는 HBM(High Bandwidth Memory)입니다. 하지만 최근 업계에서는 HBM을 넘어설 수 있는 새로운 승부수가 조용히 준비되고 있습니다. 바로 HBF(High Bandwidth Flash) 입니다.
HBM이 고속 연산을 위한 메모리라면, HBF는 초대용량 데이터를 담당하는 차세대 메모리 아키텍처입니다. 그리고 이 변화는 단순한 기술 업그레이드가 아니라, AI 인프라 구조 자체를 바꿀 가능성을 품고 있습니다.
📌 HBF란 무엇인가?
HBF는 쉽게 말해 플래시 메모리(NAND)를 HBM처럼 적층(Stacking)해 GPU 근처에 배치하는 개념입니다.
현재 구조는 다음과 같습니다.
- GPU 옆에 HBM 탑재 (고속·저용량)
- SSD는 별도 연결 (CPU·네트워크 경유)
하지만 이 구조는 비효율적입니다.
GPU가 데이터를 받기 위해 긴 경로를 거쳐야 하기 때문입니다.
HBF는 이 문제를 해결합니다.
대용량 플래시 메모리를 GPU 패키지에 직접 결합
즉, HBM 뒤에 HBF를 붙여:
- HBF → HBM → GPU
또는 - GPU → HBF 직접 접근
이 가능한 구조를 만드는 것입니다.
🧠 왜 HBF가 필요한가? AI의 데이터 폭증
AI 모델은 점점 더 많은 데이터를 필요로 합니다.
- 실시간 학습
- 대규모 검색
- 개인화 데이터 처리
- 에이전트형 AI 확산
특히 개인화된 AI 시대가 열리면, 각 사용자 데이터까지 모두 저장·관리해야 합니다. 이 경우 메모리 수요는 기하급수적으로 증가합니다.
하지만 DRAM(HBM)은 구조적으로 용량 확장이 어렵습니다.
따라서:
- 빠르지만 용량 작은 HBM
- 느리지만 용량 큰 HBF
를 함께 사용하는 하이브리드 구조가 등장하는 것입니다.
🏗 기술적으로 가능한가?
HBF는 전혀 새로운 기술이 아닙니다.
- TSV 적층 기술은 HBM에서 이미 사용
- NAND와 DRAM은 별도 웨이퍼 생산 후 패키징 단계에서 적층
- 본딩·비아 공정 동일 활용 가능
삼성전자와 SK하이닉스는:
- NAND 생산 경험 보유
- HBM 적층 기술 보유
즉, 기술적 기반은 이미 갖춰진 상태입니다.
일부 기업은 2027~2028년 상용화 목표를 언급하고 있습니다.
⚔ 빅테크의 헤게모니 전쟁
HBF가 현실화되면, 데이터센터 구조 자체가 변할 수 있습니다.
현재는 CPU 중심 경로가 기본입니다.
하지만 HBF가 GPU 패키지에 직접 통합되면:
- CPU 경유 필요성 감소
- GPU 중심 구조 강화
- AI 가속기 기업 주도권 확대
이는 단순 기술 경쟁이 아니라, 빅테크 간 아키텍처 패권 전쟁으로 이어질 수 있습니다.
HBM 초기 채택이 AMD와 SK하이닉스에서 시작된 것처럼,
HBF 역시 “헝그리 정신”을 가진 기업이 먼저 도입할 가능성이 있습니다.
📈 향후 2~3년, AI 투자는 계속될까?
단기 변동성은 존재하지만, 향후 2~3년간은:
- AI 인프라 투자 지속
- GPU·NPU 수요 증가
- 메모리 수요는 더 가파르게 증가
할 가능성이 높다는 분석입니다.
다만, 장기적으로는 중요한 질문이 남습니다.
AI 기업이 월 수십만 원의 비용을 정당화할 만큼의 가치를 만들 수 있는가?
스마트폰과 인터넷이 생활 필수가 되었듯,
AI 역시 생활·경제 활동의 필수 인프라가 되어야만 고비용 구조를 유지할 수 있습니다.
📌 결론: HBF는 차세대 메모리의 게임 체인저가 될까?
HBM이 연산 속도를 혁신했다면,
HBF는 AI의 기억 용량을 혁신할 가능성이 있습니다.
미래 AI 인프라는 다음 구조로 재편될 수 있습니다.
- GPU (연산)
- HBM (초고속 단기 메모리)
- HBF (초대용량 장기 메모리)
이 구조가 현실화된다면, 반도체 시장의 판도는 다시 한번 뒤집힐 수 있습니다.