AWS вече ще предлага базирани на графични процесори Nvidia Grace Blackwell екземпляри Amazon EC2 и Nvidia DGX Cloud
AWS и Nvidia обявиха разширяване на стратегическото си сътрудничество, което ще доведе до появата на новата платформа Blackwell GPU в платформата AWS.
Хиперскалерът ще предлага графичните процесори Nvidia GB200 Grace Blackwell Superchip и B100 Tensor Core в ход, предназначен да помогне на клиентите да отключат и използват нови възможности за генеративен изкуствен интелект.
Сътрудничеството води до интеграция между най-новите многонишкови системи на Nvidia, които разполагат с платформата Blackwell от следващо поколение на производителя на чипове и софтуер за ИИ, усъвършенстваната сигурност на системата Nitro на AWS и услугата за управление на ключове (AWS KMS), петабитовата мащабна мрежа Elastic Fabric Adapter (EFA) и хипермащабния клъстер UltraCuster на Amazon Elastic Compute Cloud (Amazon EC2).
В съобщението си компаниите заявиха, че тази комбинация от технологии ще позволи на клиентите да изграждат и изпълняват в реално време изводи за големи езикови модели (LLM) с много трилиони параметри по-ефективно, отколкото предишното поколение графични процесори Nvidia в Amazon EC2.
„Следващото поколение процесори Grace Blackwell на NVIDIA бележи значителна стъпка напред в генеративния изкуствен интелект и GPU изчисленията“, коментира Адам Селипски, главен изпълнителен директор на AWS.
„В комбинация с мощната мрежа Elastic Fabric Adapter Networking на AWS, хипермащабното клъстериране на Amazon EC2 UltraClusters и усъвършенстваните възможности за виртуализация и сигурност на нашата уникална система Nitro, ние правим възможно за клиентите да изграждат и изпълняват модели на големи езици с много трилиони параметри по-бързо, в огромен мащаб и по-сигурно, отколкото където и да било другаде.“
Като част от разширеното партньорство, платформата Blackwell на Nvidia, която разполага с GB200 NVL72, вече ще бъде достъпна чрез платформата AWS, в комплект със 72 графични процесора Blackwell и 36 графични процесора Grace, свързани помежду си чрез пето поколение Nvidia NVLink.
Платформата ще се свърже с мрежата EFA на AWS и ще използва усъвършенстваната виртуализация Nitro System на облачния гигант и хипермащабните клъстери EC2 UltraClusters.
AWS заяви, че тази комбинация ще позволи на клиентите да мащабират до хиляди GB200 Superchips и да ускорят работните натоварвания за изводи за ресурсоемки модели на езици с много трилиони параметри.
Освен това AWS планира да предлага екземпляри на EC2 с новите графични процесори B100, разположени в EC2 UltraClusters, за ускоряване на обучението и изводите на генеративния изкуствен интелект в по-голям мащаб.
GB200 ще бъдат налични в платформата DGX Cloud на Nvidia, за да помогнат за ускоряване на разработването на генеративен ИИ и LLM, които имат възможност да достигнат над 1 трилион параметъра.
AWS и Nvidia също така надграждат съществуващите мерки за сигурност на ИИ, като комбинацията от AWS Nitro System и GB200 на Nvidia има за цел да предотврати достъпа на неоторизирани потребители до теглата на моделите.
GB200 работи, за да позволи физическо криптиране на връзките NVLink между графичните процесори и криптира прехвърлянето на данни от процесора Grace към графичния процесор Blackwell, докато EFA ще криптира данните в сървърите за разпределено обучение и изводи.
GB200 също така ще се възползва от способността на системата AWS Nitro да разтоварва входно-изходните функции за функции от хост CPU/GPU към специализиран хардуер на AWS, като същевременно прилага подобрена сигурност за защита на кода и данните на клиентите по време на обработката.
Според AWS с GB200 в Amazon EC2 клиентите ще могат да създадат надеждна среда за изпълнение заедно със своята инстанция EC2, като използват AWS Nitro Enclaves за криптиране на данните за обучение и теглата с AWS KMS.
Потребителите могат да заредят енклава от инстанцията GB200 за директна комуникация със суперчипа, което ще позволи на KMS да комуникира директно с енклава и да прехвърля ключов материал директно и сигурно.
След това aнклавът е в състояние да предаде този материал на GB200 по сигурен начин и по начин, който не позволява на операторите на AWS никога да получат достъп до ключа или да декриптират данните за обучение или теглата на модела.
Обявени за първи път на AWS re:Invent 2023, Nvidia и AWS си сътрудничат и за създаването на един от най-бързите суперкомпютри с изкуствен интелект в света.
Наречен „Project Ceiba“, новият суперкомпютър ще бъде хостван в AWS и ще се използва от Nvidia за усъвършенстване на ИИ за LLM, графика и симулация, дигитална биология, роботика, самоуправляващи се автомобили, както и за Nvidia Earth 2 за прогнозиране на климата.
Суперкомпютърът ще разполага с 20 736 графични процесора B200 и се изгражда с помощта на новата система Nvidia GB200 NVL72, която разполага с NVLink от пето поколение, която се свързва с 10 368 графични процесора Grace. Тя ще използва и четвърто поколение EFA мрежа за мащабиране, предлагайки до 8000 Gbps на суперчип с ниска латентност и висока пропускателна способност на мрежата.
Двойката заяви, че тази комбинация ще позволи обработката на до 400 екзафлопа ИИ и шесткратно увеличение спрямо по-ранните планове за изграждане на Ceiba върху архитектурата Hopper.
„ИИ прави пробиви с безпрецедентни темпове, което води до нови приложения, бизнес модели и иновации в различни индустрии“, коментира Дженсън Хуанг, основател и главен изпълнителен директор на Nvidia.
„Нашето сътрудничество с AWS ускорява новите възможности за генеративен ИИ и предоставя на клиентите безпрецедентна изчислителна мощ, за да разширят границите на възможното.“
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.