AWS ve NVIDIA, büyük makine öğrenimi modellerini eğitmek ve üretici yapay zeka uygulamaları oluşturmak için yeni nesil altyapıya odaklanan bir iş birliği yapıyor

Teknoloji Nis 01, 2023 Yorum Yok

EC2 UltraClusters’da kullanılan yeni Amazon EC2 P5 bulut sunucuları, Müstahsil Yapay zeka eğitimini ve Aka ölçekte çıkarımı hızlandırmak için NVIDIA Hopper GPU’lardan yararlanacak formda optimize edildi

Bir Amazon şirketi (NASDAQ: AMZN) olan Amazon Web Services (AWS) ve NVIDIA (NASDAQ: NVDA) giderek karmaşıklaşan Aka lisan modellerini (LLM’ler) eğitmek ve Müstahsil Yapay zeka uygulamaları geliştirmek için optimize edilmiş, dünyanın en ölçeklenebilir, isteğe bağlı Yapay zeka (AI) altyapısını oluşturmaya odaklanan Fazla taraflı bir Amel birliği yaptıklarını duyurdu.

Bu Amel birliği, NVIDIA H100 Tensor Core GPU’lar tarafından desteklenen yeni nesil Amazon Elastic Compute Cloud (Amazon EC2) P5 bulut sunucularını ve AWS’in en Aka derin öğrenme modellerini oluşturmak ve eğitmek için 20 exaFLOP’a kadar süreç performansı sağlayacak nihayet teknoloji File irtibatını ve ölçeklenebilirliğini kapsıyor. P5 bulut sunucuları, 3.200 Gbps düşük gecikme vadeli, yüksek bant genişlikli File transfer suratı sağlayarak müşterilerin EC2 UltraClusters’da 20.000 H100 GPU’ya kadar ölçeklendirme yapmasına İmkan tanıyan ve böylelikle Yapay zeka için İstek üzerine harika bilgisayar sınıfı performansa erişebilmelerini sağlayan AWS’in ikinci nesil Esnek Bina Bağdaştırıcısı (EFA, Elastic Fabric Adapter) File bağlantısından yararlanan birinci GPU tabanlı bulut sunucusu olacak. Bu teknolojiyi kullanmak için sabırsızlanan şirketler ortasında, Eser geliştirmelerini hızlandırmak ve müşterilerine yeni empatik Yapay zeka tabanlı tecrübeler sunmak isteyen dünya çapında tanınan şirketlerden biri olan Pinterest yer alıyor. 

AWS CEO’su Adam Selipsky konuyla ilgili olarak şunları söyledi: “AWS ve NVIDIA, AI/ML (yapay zeka/makine öğrenimi), grafik, oyun ve HPC (yüksek performanslı bilişim) üzere Çeşitli uygulamalara yönelik, İstek üzerine, Aka ölçekli, Müsait maliyetli, GPU tabanlı tahliller sunmak için 12 yılı aşkın müddettir Amel birliği yapıyor. Bugün birçok müşterinin makine tahsili eğitimi Amel yüklerini 10.000’den Çok GPU’ya ölçeklendirdiği de göz önüne alınırsa, AWS her jenerasyonda ölçeklenebilirlik sonlarını zorlayan GPU tabanlı bulut sunucuları sunma konusunda eşsiz bir tecrübeye sahip. İkinci jenerasyon EFA, müşterilerin P5 bulut sunucularını 20.000’den Çok NVIDIA H100 GPU’ya ölçeklendirmelerine İmkan sağlayarak startup’lardan Aka şirketlere kadar geniş bir yelpazede müşterilere İstek üzerine muhteşem bilgisayar yetenekleri sunabilecek.”

NVIDIA kurucusu ve CEO’su Jensen Huang ise, “Hızlandırılmış bilgi süreç ve Yapay zeka tam vaktinde geldi. Hızlandırılmış bilgi süreç, işletmeler daha az kaynakla daha fazlasını yapmaya çalışırlarken maliyetleri ve gücü düşürmenin yanı Dizi kademeli fonksiyonların hızlandırılmasını sağlar. Üretici Yapay zeka, şirketleri, eserlerini ve Amel modellerini tekrar tasarlamaya teşvik etti ve yıkılan değil yıkıcı olan olabileceklerini ayrım etmelerini sağladı. AWS, uzun müddettir tahlil ortağımız ve NVIDIA GPU’ları sunan birinci bulut hizmeti sağlayıcısı. Müşterilerimizin önlerindeki muazzam fırsatları kıymetlendirmek için hızlandırılmış bilgi süreç ve Müstahsil Yapay zekadan yararlanmalarına Yardımcı olmak için uzmanlığımızı, ölçeğimizi ve erişimimizi birleştirmekten heyecan duyuyoruz,” halinde konuştu. 

Yeni Muhteşem Bilgi Süreç Kümeleri ve Sunucu Tasarımları

NVIDIA GPU’lar tarafından desteklenen yeni P5 bulut sunucuları, soru yanıtlama, kod oluşturma, görüntü ve imaj oluşturma, ses tanıma ve daha fazlası iç olmak üzere en güçlü ve bilgi süreç açısından ağır Müstahsil Yapay zeka uygulamalarının ardındaki giderek karmaşıklaşan LLM’leri ve manzara sürece modellerini eğitmek için İdeal olarak kullanılabiliyor. Yeni sunucu dizaynları ise, NVIDIA ve AWS mühendislik takımlarının termal, elektrik ve mekanik alanlardaki uzmanlığını kullanarak ölçeklenebilir ve verimli Yapay zekayı hedefliyor ve AWS altyapısında güç verimliliğine odaklanarak geniş ölçekte Yapay zeka sunmak için GPU’lardan yararlanan sunucular oluşturulmasını sağlıyor. GPU’lar çoklukla belli Yapay zeka Amel yükleri için CPU’lardan 20 kat daha Çok güç tasarrufludur ve H100, LLM’ler için CPU’lardan 300 kata kadar daha verimlidir.

Kaynak: (BYZHA) – ak Haber Ajansı

Yorum Yok

Yorum Yap

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir