Nvidia AI ciplərinin kralı olmağa davam edir, 2026-cı ildə milyonlarla HBM alır. Google’un TPU atışı onu Nvidia’nın HBMLərdə ən yaxın rakibi edir. Amazon, AMD və Microsoft payları üçün mübarizə aparır, hərçənd, Intel günəbaxanlığa belə gözlə görünür.
Yüksək-başlıq yaddaş AI və bulud hesablama üçün əhəmiyyətini saxlayır, tələbkar iş yükü üçün sürətli məlumat köçürməsi və effektivlik təklif edir. HBMLər indi Cənubi Koreya yaddaş gigantı SK Hynix və onun ən böyük rakibi (və qonşu) Samsung tərəfindən hakimdir, lakin bir sıra başqa oyunçular, məsələn, Micron da bazara payını artırmağa baxır.
Nvidia, Google, Amazon və Microsoft kimi texnologiya gigantları HBMLərin ən böyük alıcıları arasındadır və ComputerBase tərəfindən aşkar edilən bir Samsung daxili yol xəritəsi, onların 2026-cı il üçün proqnozlaşdırılmış alış-veriş siyahılarına maraqlı bir baxış təqdim edir.
Google ikinci yerə
Gözlədiyiniz kimi, AI sevgilisi Nvidia, Samsung’dan HBMLərin ən böyük alıcısı kimi qalır, tələbin 2024-cü ildə 5,8 milyon vahidən 2026-cı ildə 11 milyon vahidə qədər artması gözlənilir. Bu artım, Nvidia’nın genişlənən AI tətbiqliçilər silsiləsi ilə təmin edilir, H200, 144GB HBM3 ilə təchiz olunmuş olaraq 2026-cı ildə 1,7 milyon vahid tələb edəcək proqnoz edilir.
Roadmap əsasında, Google’ın Tensor İşləməcəcəkləri Üçüncüləri (TPU) investisiyasına görə HBMLərin ikinci ən böyük alıcısı olması gözlənilir. Google’ın cəmi HBM tələbi 2024-cü ildə 2,4 milyon vahiddən 2026-cı ildə 2,8 milyon vahidə qədər artmağı proqnoz edilir
Amazon’un HBM üçün tələbi də nisbətən sabit şəkildə artmaqdadır, çünki şirkətin Inferentia və Trainium ciplərinin 2026-cı ildə 1,3 milyon vahid HBM tələb etməsi gözlənilir. Trainium 3 yalnız o il ərzində 900,000 vahid tələb edəcəkdir.
AMD nəzəri olaraq Nvidia’nın ən yaxın rakibi kimi görünür, lakin çox geridə qalır. Şirkətin cəmi HBM tələbi 2026-cı ildə 820,000 təpik olacaqdır. MI400, 2026-cı ildə başlanması gözlənilən 128,000 vahidlə HBM4 (12hi) ilə 384GB-da məşhur olacaq
Microsoft Maia AI çiplərində HBM3-ü inteqrasiya etsə də, ümumi HBM tələbi bölgüdaşında bu sahədə kiçik bir oyunçudur.
Intel də yarışmaqda çətinlik çəkir. Yol xəritəsi, kiçilməkdə olan Gaudi3 acceleratorunu göstərir, ki, çiplərin tələbi 2025-ci ildə 128,000 vahidən 2026-cı ildə nəzərdə tutulmayacaq (lakin bu yol xəritənin hazırlanmasından sonrakı dəyişiklikləri hesaba katmaq lazımdır).
Tabii, bu nömrələr yalnız Samsung tərəfindən təchiz olunan HBM-i əhatə edir. SK Hynix və Micron tərəfindən təchiz olunan zənni məlumatlar fərqli bir görüntü çıxara bilər, lakin hələ də Nvidia rahatlıqla HBM üçün ən böyük alıcı olduğu bir inkişaf olacaq.
Samsungun korporativ bazarına həsr edilmiş HBMLərə fokuslanacağını təsdiqləyir Samsung, Yeni nəsil HBM4 yaddaşının Snowbolt olduğuna dair təsdiqləmə verdi Samsung elmlərçiləri yeni növ yaddaş üzərində işləyirlər.