استدلال ، استنباط و شبکه سازی KI تمرکز شرکت کنندگان در کنفرانس Hot Chips هفته آینده خواهد بود.
یک انجمن مهم برای معماران پردازنده و سیستم از صنعت و علوم ، Hot Chips از ۲۴ تا ۲۶ اوت در دانشگاه استنفورد اجرا می شود-آخرین نوآوری هایی که آماده پیشرفت هستند کای و گردش مالی بازار کنترل مرکز داده میلیارد دلاری در حال افزایش است.
در این کنفرانس ، رهبران صنعت NVIDIA مانند Google و Microsoft در یک جلسه “آموزش” که یکشنبه ۲۴ اوت برگزار می شود ، به هم وصل می شوند که در آن طراحی معماری در زمینه اندازه گیری قفسه برای مراکز داده مورد بحث قرار می گیرد.
علاوه بر این ، کارشناسان NVIDIA در چهار جلسه و یک آموزش را نشان می دهند که به چگونگی:
- شبکه Nvidia ، از جمله nvidia connectx-8 supernicاستدلال هوش مصنوعی را در مقیاس قفسه و مرکز داده ارائه می دهد. (با Idan Burstein ، معمار اصلی آداپتورهای شبکه و سیستم-تراشه در NVIDIA)
- پیشرفت برای ارائه عصبی و پرش گسترده استنباط – هدایت شده توسط معماری Nvidia Blackwell ، از جمله GPU NVIDIA GEFORCE RTX 5090 – توابع گرافیکی و شبیه سازی سطح بعدی را پیشنهاد دهید. (با مارک بلکشتاین ، مدیر ارشد معماری NVIDIA)
- سوئیچ های CS Optics (CPO) (CPO) با ساخت فوتونیک های یکپارچه سیلیکون با فیبر سرعت نور به جای کابل های مس برای ارسال سریع اطلاعات و استفاده از عملکرد کمتری-می توانید کارخانه های AI کارآمد را با عملکرد بالا ، مقیاس Gigawatt ایجاد کنید. مکالمه نیز برجسته خواهد شد نویدیا طیف-XG اترنتیک فناوری مقیاس جدید برای جدا شدن مراکز داده توزیع شده در فوق العاده عاملی هوش مصنوعی. (با گیلاد شاینر ، معاون ارشد شبکه در NVIDIA)
- Superchip NVIDIA GB10 به عنوان موتور در داخل خدمت می کند NVIDIA DGX Spark ابر رایانه دسک تاپ. (با Andi Skende ، مهندس ارشد برجسته در NVIDIA)
این بخشی از چگونگی آخرین فن آوری های NVIDIA نتیجه گیری از رانندگی نوآوری هوش مصنوعی در همه جای در هر سطح است.
Nvidia Networking نوآوری هوش مصنوعی را در مقیاس ترویج می کند
استدلال هوش مصنوعی اگر سیستم های هوش مصنوعی می توانند از طریق چندین پاس فرومایه هوش مصنوعی ، مشکلات پیچیده را تجزیه و تحلیل و حل کنند ، قدرت به قدرت در مقیاس قفسه نیاز دارد تا به طور مؤثر تجربیات بهینه کاربر را ارائه دهد.
در مراکز داده ای که بارهای کار KI امروز را با برق تأمین می کنند ، شبکه سازی به عنوان یک سیستم عصبی مرکزی عمل می کند و کلیه اجزای – سرورها ، دستگاه های ذخیره سازی و سایر سخت افزار – را به یک واحد رایانه ای قدرتمند ، منسجم و قدرتمند ترکیب می کند.
جلسات تراشه های داغ Burstein ، فن آوری های شبکه NVIDIA را به ویژه قادر می سازد تا فناوری شبکه NVIDIA را با سرعت بالا ، تأخیر کم و ارتباطات چند GPU فعال کند تا بتواند استدلال هوش مصنوعی پیشرو در بازار را در مقیاس فعال کند.
به عنوان بخشی از بستر شبکه NVIDIA ، NVIDIA NVLINK ، NVLINK SWITCH و NVLINK FUSION یک اتصال اتصال مقیاس پذیر از GPU ها و عناصر محاسبه در داخل و بین سرورها برای تبادل داده با باند بالا با پهنای باند بالا فراهم می کند.
Nvidia Spectrum-X اترنت پارچه مقیاس را برای اتصال کل خوشه ها ، به سرعت سوابق داده های عظیم در مدل های هوش مصنوعی و ایجاد ارتباطات GPU به GPU در کل مرکز داده ارائه می دهد. طیف-XG اترنت فناوری SKALA-ACROSS عملکرد شدید و مقیاس طیف-X-Ethernet را گسترش می دهد به گونه ای که چندین مرکز داده توزیع شده برای تشکیل کارخانه های فوق العاده هوش مصنوعی که قادر به استانداردهای GIGA در اطلاعات هستند ، ادغام می شوند.

در مرکز Spectrum-X-Ethernet ، سوئیچ های CPO محدودیت های عملکرد و کارآیی زیرساخت های هوش مصنوعی را در یک مقیاس فشار داده و توسط Shainer در سخنرانی خود به تفصیل پرداخته می شود.
NVIDIA GB200 NVL72 -a یک کامپیوتر exascale در یک قفسه تنها بیش از ۳۶ NVIDIA GB200 Superchips ، هر یک شامل دو GPU NVIDIA B200 و یک CPU Nvidia Grace بود که تاکنون توسط بزرگترین دامنه NVLink با NVLink Switch با کار NVLink با کار NVLINK ارائه شده است.

سیستم های GB200 NVL72 ساخته شده با معماری NVIDIA Blackwell با توجه به توجه ، پرش های گسترده ای را ارائه می دهند.
Nvidia Blackwell و Cuda هوش مصنوعی را به میلیون ها توسعه دهنده می آورند
GPU NVIDIA GeForce RTX 5090 – همچنین توسط بلکول رانده شده و با سخنرانی بلکشتاین تحت درمان قرار می گیرد – عملکرد در بازی های امروز را دو برابر می کند nvidia dlss 4 فناوری.

همچنین می تواند توابع ارائه دهنده عصبی را برای بازی ها اضافه کند تا عملکرد ۱۰ برابر ، تقویت ردپای ۱۰ برابر و کاهش ۱۰ برابر در چرخه های طراحی را فراهم کند ، که باعث بهبود واقع گرایی در گرافیک رایانه و شبیه سازی می شود. این تجربیات بصری صاف و سریع با مصرف انرژی کم را ارائه می دهد و شبیه سازی مادام العمر شخصیت ها و جلوه ها را بهبود می بخشد.
nvidia cudaبا وجود گسترده ترین زیرساخت های رایانه ای در سراسر جهان ، کاربران KI مدل هایی با Nvidia Blackwell می توانند در هر نقطه استفاده و اجرا شوند.
صدها میلیون GPU در سراسر جهان اجرا می شود ، از سیستم های مقیاس RAGS NVIDIA GB200 NVL72 GeForce RTX– و nvidia rtx pro-با پردازش شده توسط رایانه های شخصی و ایستگاه های کاری با NVIDIA DGX Spark رانده شده توسط Nvidia GB10 – که در جلسه Skende مورد بحث قرار می گیرد – به زودی می آید.
از الگوریتم ها تا ابر رایانه های AI – بهینه شده برای LLMS

DGX Spark محدودیت های عملکرد و مهارت های قدرتمند را در یک بسته جمع و جور به توسعه دهندگان ، محققان ، دانشمندان داده و دانشجویان ارائه می دهد و توسعه دهندگان ، محققان ، دانشمندان داده و دانش آموزان را قادر می سازد هوش مصنوعی درست در دسک تاپ خود و سرعت کار در صنایع را تسریع کنید.
به عنوان بخشی از پلت فرم NVIDIA Blackwell ، DGX Spark NVFP4 ، یک فرمت عددی با دقت کم ، از یک استنباط AI عامل کارآمد ، به ویژه مدلهای بزرگ زبان پشتیبانی می کند (مدلهایی با زبان عالی (LLMS). در این وبلاگ فنی از NVIDIA اطلاعات بیشتری در مورد NVFP4 کسب کنید.
همکاری های منبع باز نوآوری Interce
NVIDIA چندین کتابخانه و چارچوب منبع باز را تسریع می کند تا سرعت و بهینه سازی بارهای کار هوش مصنوعی برای LLM ها و استنتاج توزیع شده را تسریع کند. این شامل می شود nvidia tensorrt-llmحاضر Nvidia DynamoTileir ، cutlass ، کتابخانه ارتباطات جمعی Nvidia و هیچ چیز – که در میلیون ها گردش کار ادغام شده اند.
NVIDIA توسعه دهندگان را قادر می سازد تا با چارچوب خود انتخاب خود را انتخاب کنند و با ارائه دهندگان برتر چارچوب باز همکاری کرده است تا بهینه سازی های مدل را برای Flashinfer ، Pytorch ، SGLANG ، VLLM و دیگران ارائه دهند.
به علاوه ، میکروسرویس Nvidia nim برای مدلهای باز محبوب مانند OpenAIS GPT-OSS و LLAMA 4 در دسترس هستند تا توسعه دهندگان بتوانند به راحتی با انعطاف پذیری و ایمنی مدل های خود میزبانی در زیرساخت های مورد نظر خود کار کنند.
درباره آخرین پیشرفت در رابطه بیشتر بدانید nvidia در چیپس داغبشر
