본문 바로가기

미국주식 종목분석

엔비디아 목표가 상향

반응형

BofA) Nvidia raises target to $1100

1. AI Backed by Powerful Pipeline, Hyperscaler
Maintaining a Buy rating on Nvidia, with a $1100 target and a top pick in the computing sector: A number of products and partners were shown at the GTC conference, which makes Envedia more competitive by further expanding its moat in IT/infrastructure services.
The announcement was mostly predictable.
(*Regarding the contents of the presentation is omitted)

We don't have a specific launch date yet, but we expect big hyperscaler/tech companies, including Microsoft, Amazon, Google, and Oracle, and others to introduce the new platform later this year. In addition, Nvidia is consolidating its grip on the AI Value Chain.

2. The Blackwell chipset is Nvidia's next-generation data center acceleration platform and the successor to the Hopper architecture that came out two years ago. The pivotal B100 is built with TSMC's 4NP process and is made with 208B transistors (80B for the H100 and 153B for the AMD MI300X). It also has 192GB of HBM3e and has a second-generation Transformer engine with enhanced AI (141GB for the H200 and 192GB for the MI300X) and 5G NVLink with a bandwidth of up to 1.8TB/s. Nvidia also announced the GB200, which includes two B200 chips and one Grace CPU with an interchip bandwidth of 900GB/s.

3. It's a big step for training, but a big leap for reasoning.
With the Blackwell chipset, Nvidia is not only cementing its dominance in LLM training, but it is also cementing its position in AI inference. Specifically, Blackwell can train four times faster than the H100, but the new 2nd generation Transformer engine has enabled its inference power to be 30 times faster. Considering that half of Nvidia GPUs in the cloud are used for inference today, the GB200 NVL72 can implement 1.4 EFlops-class inference performance in one lag.


BofA) 엔비디아 목표가 $1100으로 상향조정

1. 강력한 파이프라인, 하이퍼스케일러가 뒷받침 하는 AI
엔비디아에 대한 매수의견을 유지하며 목표가 $1100을 제시하고 컴퓨팅 섹터에서 탑픽을 유지합니다: GTC 컨퍼런스에서 다수의 제품과 파트너들을 보여줬고 이는 엔베디아가 IT/인프라 서비스에서 해자를 더욱 넓혀 경쟁력을 갖추도록 해줍니다.
발표는 대부분 예상가능했습니다.
(*발표내용에 관한것은 생략)

아직 구체적인 출시일정은 없지만, 우리는 마이크로소프트, 아마존, 구글, 오라클을 포함하는 대형 하이퍼스케일러/테크 기업들과 다른 회사들이 새로운 플랫폼을 올해말 도입할 것으로 예상합니다. 또한, 엔비디아는 AI밸류체인에 대한 지배를 공고히 하고 있습니다.

2. 블랙웰 칩셋은 엔비디아의 차세대 데이터센터 가속 플랫폼이고 2년전에 나온 호퍼 아키텍처의 후계 모델입니다. 가장 핵심이 되는 B100은 TSMC의 4NP공정으로 제작되었고, 208B개의 트랜지스터로 만들어 졌습니다(H100은 80B개, AMD MI300X는 153B개). 그리고 192GB의 HBM3e를 탑재했으며(H200은 141GB, MI300X는 192GB HBM3) 향상된 AI와 최대 1.8TB/s의 대역폭을 가진 5세대 NVLink가 포함된 2세대 트랜스포머 엔진을 가지고 있습니다. 엔비디아는 또한 GB200을 발표했는데, 이는 2개의 B200칩과 1개의 그레이스 CPU를 포함하고 있으며 칩간 대역폭은 900GB/s입니다.

3. 훈련에게는 큰 걸음이지만 추론에게는 커다란 도약입니다.
블랙웰칩셋으로 인해 엔비디아는 LLM훈련에서 우위를 공고히 할 뿐만이 아니라, AI추론분야에서도 입지를 공고히 하고 있습니다. 구체적으로, 블랙웰은 H100보다 4배 더 빠른 훈련을 할 수 있지만 새로운 2세대 트렌스포머 엔진으로 인해 추론능력은 30배 더 빨라졌습니다. 클라우드에 있는 엔비디아 GPU중 절반이 오늘날 추론에 사용되고 있는 것을 생각하면, GB200 NVL72는 1.4EFlops급의 추론 성능을 하나의 렉에서 구현 할 수 있습니다.

320x100