SBS Biz

SK하이닉스 HBM4 첫 공개…엔비디아, AI칩 로드맵 발표

SBS Biz 김완진
입력2025.03.19 11:20
수정2025.03.19 11:39

[앵커] 

SK하이닉스가 세계 최초로 6세대 고대역폭 메모리, HBM4 12단의 시제품을 엔비디아에 납품했습니다. 

이런 가운데 엔비디아는 오는 2028년까지 차세대 AI칩 4개를 더 선보인다는 계획을 내놨습니다. 

김완진 기자, 먼저, SK하이닉스가 고사양 HBM 제품의 출시를 서두르고 있다고요? 

[기자] 

SK하이닉스가 "맞춤형 제품인 HBM4 12단 샘플을 당초 계획보다 빠르게 출하해 고객사들과 인증 절차를 시작한다"며 "양산 준비를 하반기 안에 마무리할 것"이라고 밝혔습니다. 

당초 내년 생산 계획이었지만, 최대 고객사인 엔비디아의 요청에 6개월가량 앞당긴 건데요. 

SK하이닉스는 엔비디아의 연례 개발자 컨퍼런스, 'GTC' 현장에서 HBM4와 함께, 차세대 AI 서버용 메모리 표준 '소캠'도 처음 공개합니다. 

소캠은, 엔비디아가 표준화를 주도하는 저전력 D램 기반 AI 서버에 특화된 메모리 모듈입니다. 

[앵커] 

엔비디아는 차세대 AI칩 로드맵을 내놨죠? 

[기자] 

엔비디아는 올해 하반기에 내놓을 '블랙웰 울트라'와 내년 하반기 출시 예정인 '루빈'의 성능을 공개했는데요. 

블랙웰 울트라는 지난해 출시했던 블랙웰보다 AI 데이터 처리 속도가 1.5배 빠르고, 2022년 내놨던 호퍼와 비교하면 성능이 50배 높습니다. 

루빈은 블랙웰에 장착했던 CPU인 그레이스 대신 새로운 CPU인 '베라'를 장착해 성능을 더 끌어올리는데, 젠슨 황 CEO는 "데이터 센터 기준으로 루빈은 호퍼보다 성능은 900배 올라가고 비용은 3% 줄어들 것"이라고 말했습니다. 

엔비디아는 2027년 루빈의 개선 제품 '루빈 울트라'와 2028년 새로운 AI 칩 '파인만'을 출시할 계획입니다. 

젠슨 황 CEO는, 올해 AI에 필요한 연산량이 지난해 예상치의 100배 규모인 만큼 기존 서버를 업그레이드하는 '수직적 확장' 극대화가 필요하다고 강조하면서 신형 칩 출시 배경을 설명했습니다. 

SBS Biz 김완진입니다.

ⓒ SBS Medianet & SBS I&M 무단복제-재배포 금지

김완진다른기사
경제계 "상법 개정안, 혁신 의지 꺾어…대통령 권한대행 재의요구권 행사해야"
일본은행, 시장 예상대로 기준금리 동결…0.5% 유지