สํารวจว่า DDR256 RDIMM ขนาด 5GB ของ Micron กําหนดความหนาแน่นของศูนย์ข้อมูลใหม่ได้อย่างไร
DDR5 RDIMM ขนาด 256 GB รวม DRAM 1 แกมมาและการซ้อน 3D เพื่อปรับปรุงความเร็วเซิร์ฟเวอร์ AI และประสิทธิภาพการใช้พลังงาน
Micron Technology ได้ประกาศการสุ่มตัวอย่างโมดูลหน่วยความจําอินไลน์คู่ (RDIMM) ที่ลงทะเบียน DDR5 ขนาด 256 GB ใหม่ให้กับพันธมิตรระบบนิเวศเซิร์ฟเวอร์หลัก โดยกําหนดเป้าหมาย AI และแพลตฟอร์มการประมวลผลประสิทธิภาพสูง (HPC) รุ่นต่อไป
โมดูลใหม่นี้ใช้เทคโนโลยีกระบวนการ DRAM 1 แกมมาขั้นสูงของ Micron และรองรับความเร็วสูงถึง 9,200 เมกะทรานสเฟิลต่อวินาที (MT/s) ซึ่งสูงกว่าประสิทธิภาพของโมดูลเซิร์ฟเวอร์ DDR5 ที่ผลิตในปัจจุบันมากกว่า 40%
DDR5 RDIMM ขนาด 256 GB ผสมผสานเทคโนโลยี DRAM ล่าสุดของ Micron เข้ากับนวัตกรรมบรรจุภัณฑ์ขั้นสูง รวมถึงการซ้อน 3 มิติและจุดผ่านซิลิกอน ซึ่งช่วยให้สามารถใช้งานได้หลายอย่าง หน่วยความจํา ตายเพื่อเชื่อมต่อกันในแนวตั้งภายในโมดูลเดียว บริษัทระบุว่าเทคโนโลยีเหล่านี้ช่วยส่งมอบความจุหน่วยความจํา แบนด์วิดท์ และประสิทธิภาพการใช้พลังงานที่จําเป็นสําหรับปริมาณงาน AI ที่มีความต้องการมากขึ้น
ไมครอนระบุว่าโมดูล 256 GB เดียวสามารถลดการใช้พลังงานในการทํางานได้มากกว่า 40% เมื่อเทียบกับการกําหนดค่าโดยใช้โมดูล 128 GB สองโมดูลแยกกัน ประสิทธิภาพที่เพิ่มขึ้นได้รับการออกแบบมาเพื่อช่วยให้ผู้ประกอบการไฮเปอร์สเกลและผู้ให้บริการศูนย์ข้อมูลระดับองค์กรเพิ่มประสิทธิภาพการจัดการความร้อนและการใช้พลังงานเมื่อโครงสร้างพื้นฐาน AI ปรับขนาด
การนําโมเดลภาษาขนาดใหญ่ ระบบ AI ตัวแทน แอปพลิเคชันการอนุมานแบบเรียลไทม์ และโปรเซสเซอร์ที่มีจํานวนคอร์สูงมาใช้เพิ่มขึ้นกําลังผลักดันความต้องการหน่วยความจําเซิร์ฟเวอร์ที่มีความจุสูงขึ้นพร้อมแบนด์วิดท์ที่ดีขึ้นและการใช้พลังงานที่ต่ําลง RDIMM ใหม่ของ Micron มีจุดมุ่งหมายเพื่อตอบสนองความต้องการเหล่านี้โดยเปิดใช้งานความหนาแน่นของหน่วยความจําที่มากขึ้นต่อซ็อกเก็ต CPU ในขณะที่ยังคงอยู่ภายใต้ข้อจํากัดด้านพลังงานและความร้อนของเซิร์ฟเวอร์ที่ทันสมัย
ขณะนี้บริษัทกําลังร่วมมือกับพันธมิตรระบบนิเวศเซิร์ฟเวอร์เพื่อตรวจสอบความถูกต้องของ DDR5 RDIMM ขนาด 256 กิกะไบต์ 1-gamma 5 GB ในแพลตฟอร์มเซิร์ฟเวอร์ที่มีอยู่และในอนาคต กระบวนการตรวจสอบความถูกต้องร่วมกันมีจุดมุ่งหมายเพื่อให้มั่นใจถึงความเข้ากันได้ของแพลตฟอร์มในวงกว้างและเร่งไทม์ไลน์การปรับใช้สําหรับลูกค้าโครงสร้างพื้นฐาน AI และ HPC