AMD, yakında piyasaya süreceği MI325X işlemcileriyle müşterileri etkilemeyi amaçlıyor. Bloomberg’in bildirildiğine nazaran AMD CEO’su Lisa Su, bilgi merkezleri için özel olarak tasarlanan ve ağır AI iş yüklerini yürütebilen bu işlemcilerin, Nvidia’nın tanınan H100 işlemcilerinden çok daha âlâ performans göstereceğinden emin.
MI325X çip üzerinde sistemin (SoC) temel özelliklerinden biri, bir evvelki MI300X’e nazaran bellek kapasitesinde 1,8 kat artış sağlayan 256 GB HBM3E belleği kullanması. HBM3E belleği, büyük bilgi kümelerini ve AI misyonlarında yer alan karmaşık hesaplamaları işlemek için çok değerli olan etkileyici 6 terabayt/saniye (TB/s) bant genişliğine sahip.
2022’de piyasaya sürülen Nvidia’nın eski H100 işlemcileri, 3TB/s bellek bant genişliğine sahip yeni HBM3E belleği yerine HBM3 kullanıyordu. Lakin, yakında sunulacak olan Blackwell tabanlı işlemciler, yaklaşık 13,8 TB/sn’lik bir zirve bant genişliğine sahip olan 288 GB HBM3E belleğini kullanıyor.
AI teknolojisinin gelişmesiyle bir arada teknoloji şirketleri daha yeni ve gelişmiş AI modellerini eğitmeye odaklanırken, bilhassa son birkaç ayda gelişmiş SoC’lere olan talep arttı. Nvidia ve Foxconn, geçtiğimiz hafta yapılan bir açıklamada, Nvidia’nın Blackwell mimarisini temel alan GB200 harika çiplerini üretmek için dünyanın en büyük tesisini inşa ettiklerini duyurdu.
Hatta Nvidia, şimdiden bu çiplerin örneklerini iş ortaklarına göndermeye başladı ve bu yılın sonuna kadar bu çiplerden milyarlarca gelir elde etmeyi öngörüyor. Birebir vakitte, Nvidia çiplerine artan bu talep, şirketin paylarının süratle yükselmesine sebep oldu ve Apple’ın akabinde dünyanın en bedelli ikinci şirketi olmasını sağladı.
AMD de süratle gelişen bu teknoloji pazarının bir kısmını ele geçirmeye çalışıyor. AMD, yeni MI325X işlemcilerinin ne vakit piyasaya sürüleceğini duyurmadı lakin üretimin 2024’ün sonuna hakikat başlaması bekleniyor. AMD, AI çip pazarının 2028 yılına kadar 500 milyar dolarlık bir kıymete ulaşmasının öngörüldüğünü söylüyor.