Инстансы Amazon EC2 Inf1

Высокопроизводительные и экономичные логические выводы с помощью машинного обучения

Какие преимущества дают инстансы Amazon EC2 Inf1?

Компании из самых разных отраслей выбирают трансформацию на базе искусственного интеллекта в качестве основы для стимулирования бизнес-инноваций, улучшения качества сервиса и рабочих процессов. Модели машинного обучения, которые лежат в основе приложений искусственного интеллекта, становятся все более сложными, а следовательно растет и базовая стоимость вычислительной инфраструктуры. До 90 % инфраструктурных затрат, вложенных в разработку и запуск приложений машинного обучения, зачастую приходится на логические выводы. Клиентам требуются экономически эффективные инфраструктурные решения для развертывания приложений машинного обучения на производстве.

Инстансы Amazon EC2 Inf1 обеспечивают высокопроизводительный логический вывод ML с низкими затратами. Они могут увеличить пропускную способность в 2,3 раза и сократить стоимость вывода на 70 % по сравнению с аналогичными инстансами Amazon EC2. Инстансы Inf1 изначально разработаны для поддержки логических приложений машинного обучения. Данные инстансы содержат до 16 высокопроизводительных микросхем логических выводов машинного обучения AWS Inferentia, разработанных и производимых компанией AWS. Кроме того, инстансы Inf1 оснащены процессорами Intel Xeon Scalable 2-го поколения и сетевым интерфейсом со скоростью до 100 Гбит/с, что дает высокую пропускную способность логических выводов.

С помощью инстансов Inf1 клиенты могут запускать широкомасштабные приложения логических выводов машинного обучения, такие как поиск, механизмы рекомендаций, машинное зрение, обработка естественного языка (NLP), персонализация, а также выявление мошенничества.

Разработчики могут развертывать модели машинного обучения на инстансах Inf1 с помощью пакета AWS Neuron SDK, интегрированного во многие популярные среды машинного обучения, такие как TensorFlow, PyTorch и Apache MXNet. Им не придется менять используемые рабочие процессы машинного обучения, беспрепятственно перенеся приложения на инстансы Inf1 с минимальными изменениями кода и без привязки к решениям конкретных поставщиков.

Легко начните работу с инстансами Inf1, используя Amazon SageMaker, Глубокое обучение AWS AMI (DLAMI), поставляемые с предварительно настроенным SDK Neuron, Эластичный контейнерный сервис Amazon (Amazon ECS) или Эластичный сервис Amazon Kubernetes (Amazon EKS) для контейнерных приложений машинного обучения.

Инстансы Amazon EC2 Inf1

Преимущества

С помощью Inf1 разработчики могут значительно снизить стоимость рабочих развертываний машинного обучения. Сочетание низкой стоимости и высокой пропускной способности инстансов Inf1 обеспечивает экономию до 70 % на затраты на логический вывод, если сравнивать с аналогичными инстансами Amazon EC2.

Пакет SDK Neuron интегрирован в распространенные модели платформ машинного обучения, такие как TensorFlow, PyTorch и MXNet. Можно не менять используемые рабочие процессы машинного обучения и беспрепятственно переносить приложения на инстансы Inf1, внося минимальные изменения в код. Это позволяет свободно выбирать платформу машинного обучения, использовать вычислительную платформу, которая отвечает требованиям наилучшим образом, и задействовать новейшие технологии, не привязываясь к решениям конкретных поставщиков.

Инстансы Inf1 обеспечивают пропускную способность выше до 2,3 раза по сравнению с аналогичными инстансами Amazon EC2. В основе инстансов Inf1 лежат микросхемы AWS Inferentia, которые оптимизированы для рабочего вывода небольших пакетов, что позволяет приложениям, работающим в режиме реального времени, обеспечить самую большую пропускную способность и необходимое время задержки.

В микросхемы AWS Inferentia встроен большой объем памяти, который позволяет кэшировать модели машинного обучения прямо в микросхеме. Вы можете развертывать модели с помощью, например, такой функции, как конвейер NeuronCore, который позволяет не получать доступ к внешним ресурсам памяти. С инстансами Inf1 можно развертывать приложения для получения логических выводов в режиме реального времени, при этом получая близкое к реальному время задержки без ущерба для пропускной способности.

Инстансы Inf1 поддерживают многие часто используемые модели архитектуры машинного обучения, такие как SSD, VGG и ResNext для распознавания или классификации изображений, а также Transformer и BERT для обработки естественного языка. Кроме того, Neuron поддерживает репозиторий моделей HuggingFace, что позволяет клиентам легко компилировать и выполнять вывод с использованием предварительно подготовленных или тонко настроенных моделей, всего лишь изменив одну строку кода. Также поддерживается несколько типов данных, в том числе BF16 и FP16 со смешанной точностью, обеспечивая разнообразие моделей и требований к производительности.

Возможности

AWS Inferentia – это специальная микросхема для машинного обучения, разработанная и созданная компанией AWS для обеспечения высокой производительности получения логических выводов при низкой стоимости. Каждая микросхема AWS Inferentia оснащена 4 ядрами NeuronCore первого поколения, производит до 128 тераопераций в секунду (терафлопсов) и поддерживает типы данных FP16, BF16 и INT8. Также микросхемы AWS Inferentia имеют большой объем встроенной памяти, которую можно использовать для кэширования больших моделей, что особенно полезно для моделей, которым необходим частый доступ к памяти.

Пакет SDK AWS Neuron состоит из компилятора, драйвера среды выполнения и инструментов профилирования. Он позволяет выполнять развертывание сложных моделей нейронных сетей, созданных и обученных на популярных платформах, таких как TensorFlow, PyTorch и MXNet, используя инстансы Inf1. С помощью Конвейера NeuronCore можно разделять большие модели для выполнения на нескольких микросхемах Inferentia с использованием высокоскоростного физического соединения микросхем, что повышает пропускную способность и снижает затраты.

Для приложений, которым требуется высокая сетевая производительность, инстансы Inf1 обеспечивают пропускную способность сети до 100 Гбит/с. Благодаря эластичным сетевым адаптерам (ENA) и технологии NVM Express (NVMe) нового поколения инстансы Inf1 оснащены интерфейсами с высокой пропускной способностью и низкой задержкой для работы с сетями и Магазином эластичных блоков Amazon (Amazon EBS).

AWS Nitro System предлагает широкий выбор структурных блоков, которые позволяют использовать выделенное оборудование и программное обеспечение для выполнения многих традиционных задач виртуализации, чтобы повышать производительность, доступность и безопасность при одновременном сокращении издержек, связанных с виртуализацией.

Отзывы клиентов и партнеров

Здесь представлены несколько примеров того, как наши клиенты и партнеры достигли бизнес-целей с помощью инстансов Amazon EC2 Inf1.

  • Snap Inc.

    Мы внедряем машинное обучение во множество аспектов работы Snapchat. Исследование инноваций в этой области является для нас главным приоритетом. Мы начали сотрудничать с AWS, как только узнали об Inferentia. Наша цель заключалась в адаптации инстансов Inf1/Inferentia для последующего развертывания машинного обучения, включая аспекты производительности и затрат. Мы начали с моделей рекомендаций, а в будущем намерены использовать еще больше моделей в сочетании с инстансами Inf1.

    Нима Хадженоури, вице-президент по проектированию, компания Snap Inc.
  • Sprinklr

    Единая платформа управления клиентским опытом (Unified-CXM) Sprinklr на основе искусственного интеллекта позволяет компаниям собирать отзывы клиентов по нескольким каналам и преобразовывать их в режиме реального времени в полезные выводы, и в результате решать проблемы на упреждение, улучшать разработку продуктов, контент-маркетинг, обслуживание клиентов и многое другое. С помощью Amazon EC2 Inf1 мы смогли значительно улучшить производительность наших моделей компьютерного зрения и обработки естественного языка (NLP). Мы будем рады и далее использовать Amazon EC2 Inf1, чтобы предоставлять лучшее обслуживание для наших клиентов по всему миру.

    Васант Шринивасан, старший вице-президент по разработке продуктов в Sprinklr
  • Finch Computing

    Наш современный продукт для обработки естественного языка Finch for Text позволяет пользователям извлекать, распознавать и обогащать многие типы сущностей в больших объемах текста. Для Finch for Text требуется значительное количество вычислительных ресурсов, чтобы проводить обогащение глобальных потоков данных с малой задержкой. Теперь мы используем инстансы AWS Inf1 в моделях PyTorch NLP, перевода и устранения противоречий. Нам удалось сократить затраты на формирование логических выводов более чем на 80 % (по сравнению с графическими процессорами) с минимальной оптимизацией и сохранением скорости и производительности. Это улучшение позволяет нашим клиентам в режиме реального времени обогащать тексты в потоках данных на французском, испанском, немецком и голландском языках в глобальных масштабах. Это крайне важно для наших клиентов из отраслей финансовых услуг, агрегирования данных и государственного сектора.

    Скотт Лайтнер, технический директор Finch Computing
  • Dataminr

    Мы оповещаем о многих событиях по всему миру на разных языках и в разных форматах (изображения, видео, аудио, текстовые датчики и разные сочетания этих типов), собирая информацию из сотен тысяч источников. Оптимизация скорости и затрат с учетом такого масштаба крайне важна для нашего бизнеса. С помощью AWS Inferentia мы снизили задержку модели и достигли до 9 раз лучшей пропускной способности в пересчете на один доллар. Таким образом, мы смогли повысить точность моделирования и расширить возможности нашей платформы за счет развертывания более сложных моделей глубокого обучения и обработки в 5 раз большего объема данных, сохраняя при этом контроль над расходами.

    Алекс Джеймс, главный научный сотрудник и старший вице-президент по вопросам искусственного интеллекта, компания Dataminr
  • Autodesk

    Компания Autodesk расширяет когнитивные технологии нашего виртуального помощника на базе ИИ, Autodesk Virtual Agent (AVA), используя Inferentia. Виртуальный помощник AVA отвечает на более чем 100 000 вопросов клиентов ежемесячно, применяя технологию понимания естественного языка и методы глубокого обучения для извлечения контекста, намерений и смысла запросов. Применив Inferentia в тестовом режиме, мы смогли повысить пропускную способность в 4,9 раза по сравнению с G4dn для моделей понимания естественного языка, и теперь готовы запустить больше рабочих нагрузок на инстансах Inf1 на основе Inferentia.

    Бингуи Оянг, старший специалист по работе с данными, компания Autodesk
  • Screening Eagle Technologies

    Обычно лишь исследователи-эксперты пользуются георадарами и занимаются обнаружением визуальных дефектов. Архитектура на базе микросервисов AWS позволяет нам обрабатывать видео, снятое автоматизированным инспекционным транспортом и инспекторами. Благодаря миграции собственных моделей с традиционных инстансов с использованием графических процессоров на Inferentia мы смогли сократить затраты на 50 %. Кроме того, нам удалось повысить производительность по сравнению с инстансами G4dn на базе графических процессоров. Наша команда хочет перенести больше рабочих нагрузок на инстансы Inf1 на базе Inferentia.

    Хесус Ормиго, директор по облачным технологиям и ИИ, компания Screening Eagle Technologies
  • NTT PC Communications

    NTTPC Communications – это поставщик сетевых сервисов и решений для связи в Японии, который является лидером в области технологий связи и выводит на рынок информационных и коммуникационных технологий новаторские продукты.

    NTTPC разработала сервис AnyMotion, который предоставляет платформу API для анализа движения на базе моделей машинного обучения с расширенным анализом поз. Мы развернули свою платформу AnyMotion на инстансах Amazon EC2 Inf1 с использованием Amazon ECS для создания полностью управляемого сервиса оркестрации контейнеров. Развернув свои контейнеры AnyMotion на Amazon EC2 Inf1, мы наблюдаем повышение пропускной способности в 4,5 раза, снижение задержки при формировании логических выводов на 25 % и сокращение затрат на 90 % по сравнению с текущим поколением инстансов EC2 на основе графических процессоров. Эти превосходные результаты помогут повысить качество сервиса AnyMotion в крупном масштабе.

    Тосики Янагисава, инженер-программист, компания NTT PC Communications Inc.
  • Anthem

    Anthem – один из ведущих поставщиков медицинского страхования в стране, обслуживающий более 40 млн клиентов из десятков штатов. 

    Рынок цифровых платформ для сферы здравоохранения растет потрясающими темпами. Сбор информации на этом рынке является трудной задачей в связи с огромным количеством неструктурированных данных об отзывах клиентов. Наше приложение автоматизирует создание полезной аналитической информации на основе отзывов клиентов при помощи моделей глубокого обучения для естественного языка (Transformers). Наше приложение требует интенсивного использования вычислительных ресурсов и развертывания с крайне высокой производительностью. Мы легко развернули логическую рабочую нагрузку глубокого обучения в инстансах Amazon EC2 Inf1 на базе процессора AWS Inferentia. Новые инстансы Inf1 обеспечивают вдвое большую пропускную способность, чем инстансы на базе графических процессоров, и помогают нам упростить рабочие нагрузки логического вывода.

    Нуман Лаанаит, PhD, и Миро Михайлов, PhD, ведущие специалисты по вопросам искусственного интеллекта и данных в компании Anthem
  • Condé Nast

    В международный портфель Condé Nast входят более 20 ведущих медиабрендов, включая Wired, Vogue и Vanity Fair. Наша команда смогла интегрировать наш механизм рекомендаций с микросхемами AWS Inferentia за несколько недель. Эта интеграция позволяет проводить множество операций по оптимизации среды выполнения для современных моделей естественного языка в инстансах SageMaker Inf1. В результате нам удалось сократить расходы на 72 % по сравнению с ранее развернутыми инстансами на базе графического процессора.

    Пол Фрайзел, главный инженер по инфраструктуре искусственного интеллекта, компания Condé Nast
  • Ciao Inc.

    Компания Ciao превращает обычные камеры видеонаблюдения в высокоэффективные устройства анализа видеоданных, не уступающие даже человеческому глазу. Наше приложение помогает предотвращать стихийные бедствия и отслеживать условия окружающей среды с помощью камер, использующих облачные технологии на основе ИИ. Специальные оповещения позволяют отреагировать на ситуацию до того, как она станет критичной. Благодаря технологии обнаружения объектов мы также можем на основе видеозаписей предоставлять аналитические сведения о количестве посетителей (без учета работников), вошедших в магазин. Компания Ciao Camera внедрила инстансы Inf1 на базе AWS Inferentia на коммерческой основе, сократив при этом расходы на 40 % по сравнению с инстансом G4dn с YOLOv4. Мы планируем значительно снизить расходы на другие наши сервисы благодаря использованию Inf1.

    Синдзи Мацумото, инженер-программист, компания Ciao Inc.
  • The Asahi Shimbun Company

    Газета Asahi Shimbun является одной из наиболее популярных в Японии. Media Lab – это одно из подразделений нашей компании, задача которого заключается в изучении последних технологий, в особенности ИИ, а также в подключении инновационных технологий для новой бизнес-деятельности. Запуск инстансов Amazon EC2 Inf1 на базе AWS Inferentia в Токио позволил нам протестировать на этих инстансах наше ИИ-приложение для резюмирования текста на основе PyTorch. Это приложение обрабатывает большой объем данных, а также генерирует заголовки и краткие предложения на основе статей за последние 30 лет. Используя Inferentia, нам удалось в несколько раз сократить расходы по сравнению с инстансами на базе ЦП. Значительное сокращение расходов позволит нам развертывать наиболее сложные модели в нужном масштабе, что ранее казалось недоступным с финансовой точки зрения».

    Хидеаки Тамори, PhD, старший администратор Media Lab, Asahi Shimbun
  • CS Disco

    Компания CS Disco создает принципиально новые юридические технологии, являясь ведущим поставщиком решений искусственного интеллекта для электронного поиска, разработанных юристами для юристов. Disco AI ускоряет неблагодарную задачу просеивания терабайтов данных, ускоряет время просмотра и повышает точность обзора документов за счет использования сложных моделей обработки естественного языка, которые требуют больших вычислительных ресурсов и чрезвычайно затратны. Disco обнаружила, что инстансы Inf1 на базе AWS Inferentia снижают стоимость логического вывода в Disco AI как минимум на 35 % по сравнению с современными инстансами на базе GPU. Основываясь на положительном опыте работы с инстансами Inf1, компания CS Disco изучит возможности перехода на AWS Inferentia.

    Алан Локетт, старший директор по исследованиям, CS Disco
  • Talroo

    Компания Talroo предоставляет клиентам платформу на основе данных, которая поможет им привлекать уникальных кандидатов и нанимать сотрудников. Мы неустанно следим за новыми технологиями, чтобы предлагать клиентам лучшие продукты и услуги. С помощью Inferentia мы извлекаем данные из фонда текстовых данных, чтобы совершенствовать ИИ-технологии поиска соответствий. Talroo использует инстансы Amazon EC2 Inf1 для создания моделей понимания естественных языков с высокой пропускной способностью на основе SageMaker. Результаты первоначального тестирования Talroo свидетельствуют о том, что инстансы Amazon EC2 Inf1 на 40 % сокращают задержки логических выводов и в два раза увеличивают пропускную способность по сравнению с инстансами G4dn на базе графических процессоров. Учитывая эти результаты, Talroo будет рада включить в свою инфраструктуру AWS инстансы Amazon EC2 Inf1.

    Джанет Ху, инженер-программист, Talroo
  • Digital Media Professionals

    Компания Digital Media Professionals развивает новые идеи благодаря платформе ZIA™ на базе искусственного интеллекта. DMP использует эффективные технологии классификации машинного зрения для сбора сведений о больших количествах поступающих в реальном времени изображений, например в целях наблюдения за условиями, а также предотвращения преступлений и несчастных случаев. Мы обнаружили, что наши модели сегментации изображений работают в четыре раза быстрее в инстансах Inf1 на базе AWS Inferentia по сравнению с инстансами G4 на базе графического процессора. Благодаря более высокой пропускной способности и более низкой стоимости Inferentia позволяет масштабно развертывать наши рабочие нагрузки ИИ, такие как приложения для автомобильных видеорегистраторов.

    Хироюки Умеда, директор и генеральный менеджер отдела продаж и маркетинга, Digital Media Professionals
  • Hotpot.ai

    Hotpot.ai дает новичкам возможность создавать привлекательный графический дизайн, а профессиональным дизайнерам – автоматизировать рутинные задачи. 

    Так как машинное обучение является основой нашей стратегии, мы были рады опробовать инстансы Inf1 на базе AWS Inferentia. Мы обнаружили, что инстансы Inf1 легко интегрируются с нашими научно-исследовательскими процессами. Что самое важное, мы заметили впечатляющий прирост производительности по сравнению с инстансами G4dn на базе графических процессоров. В нашей первой модели инстансы Inf1 показали на 45 % большую пропускную способность и сократили расходы на получение логических выводов почти на 50 %. Мы планируем тесно сотрудничать со специалистами AWS, чтобы портировать другие модели и перенести большую часть нашей инфраструктуры машинного обучения на сервис AWS Inferentia.

    Кларенс Ху, основатель Hotpot.ai
  • SkyWatch

    SkyWatch обрабатывает сотни триллионов пикселей изображений, ежедневно получаемых от наблюдения за Землей из космоса. Переход к использованию новых инстансов Inf1 на основе AWS Inferentia с применением Amazon SageMaker для обнаружения облаков и оценки качества изображений в режиме реального времени прошел быстро и легко. Для этого нужно было всего лишь изменить тип инстанса в конфигурации развертывания. Изменив тип инстанса на Inf1 на основе Inferentia, мы повысили производительность на 40 % и снизили общие затраты на 23 %. Это было большой победой. Мы смогли снизить общие эксплуатационные расходы и при этом продолжили предоставлять своим клиентам высококачественные спутниковые снимки с минимальными затратами на проектирование. Мы стремимся перевести все адреса для получения логических выводов и все процессы пакетной обработки с использованием машинного обучения на инстансы Inf1, чтобы еще больше повысить достоверность данных и улучшить взаимодействие с клиентами.

    Адлер Сантос, менеджер по разработке систем, SkyWatch
  • Money Forward Inc.

    Money Forward, Inc. обслуживает компании и частные лица на базе открытой и честной финансовой платформы. В рамках данной платформы компания HiTTO Inc., входящая в состав концерна Money Forward, предоставляет чат-бот на основе искусственного интеллекта (ИИ), использующий специализированные модели обработки естественного языка (NLP), для удовлетворения разнообразных потребностей корпоративных клиентов.

    Мы легко выполнили миграцию нашего чат-бота на основе ИИ на инстансы Amazon EC2 Inf1. Она заняла всего два месяца, после чего мы запустили масштабный сервис на инстансах Inf1 с помощью Amazon ECS. Обслуживая несколько моделей на одном инстансе Inf1, нам удалось сократить задержки логических выводов на 97 % и снизить расходы на их генерирование на 50 % (по сравнению с инстансами на базе графических процессоров). Мы хотим запускать больше рабочих нагрузок на инстансах Inf1 на базе Inferentia.

    Кенто Адачи, технический руководитель и главный технический директор Money Forward, Inc.
  • Amazon Advertising

    Amazon Advertising помогает компаниям любого размера взаимодействовать с клиентами на каждом этапе покупательского пути. Миллионы объявлений, включая текстовые и графические, модерируются, классифицируются и обслуживаются, чтобы ежедневно обеспечивать оптимальное обслуживание клиентов.

    Читать новостной блог

    Для обработки текстовой рекламы мы развертываем по всему миру модели BERT на основе PyTorch на инстансах Inf1, базирующихся на AWS Inferentia. Сменив графические процессоры на Inferentia, мы добились снижения затрат на 69 % при сопоставимой производительности. Компиляция и тестирование моделей для AWS Inferentia заняли менее трех недель. Использование Amazon SageMaker для развертывания моделей в инстансах Inf 1 обеспечило масштабируемость и простоту управления. Когда я впервые проанализировал скомпилированные модели, AWS Inferentia показал настолько впечатляющую производительность, что мне пришлось запустить тесты повторно, чтобы убедиться в правдивости! В дальнейшем мы планируем перенести в Inferentia модели обработки рекламных изображений. Мы уже отметили снижение времени задержки на 30 % и экономию средств в размере 71 % по сравнению с сопоставимыми инстансами той же модели на базе графического процессора.

    Яшал Канунго, специалист по прикладной науке, Amazon Advertising
  • Amazon Alexa

    Возможности искусственного интеллекта и машинного обучения Amazon Alexa, которые работают на основе AWS, сегодня доступны более чем на 100 миллионах устройств, и мы обещаем клиентам, что Alexa все время будет становиться умнее, общительнее, предусмотрительнее и очаровательнее. Чтобы выполнить это обещание, нужно постоянно сокращать время отклика и затраты на инфраструктуру машинного обучения, поэтому мы рады применять инстансы Inf1 на основе Amazon EC2, чтобы снижать задержку генерирования логических выводов и сокращать затраты на каждый логический вывод при использовании функции Alexa для преобразования текста в речь. Благодаря инстансам Amazon EC2 Inf1 мы сможем сделать этот сервис еще удобнее для десятков миллионов клиентов, которые пользуются Alexa каждый месяц.

    Том Тейлор, старший вице-президент, Amazon Alexa
  • Amazon Prime Video

    Amazon Prime Video использует модели машинного зрения на базе машинного обучения для анализа качества прямых видеотрансляций, чтобы предоставить участникам Prime Video наилучшие впечатления. Мы развернули наши модели классификации изображений на основе машинного обучения на инстансах EC2 Inf1, что позволило повысить производительность в 4 раза и сократить затраты почти на 40 %. Теперь мы хотим направить сэкономленные средства на инновации и разработать усовершенствованные модели для обнаружения более сложных дефектов, таких как задержка синхронизации между аудио- и видеофайлами, чтобы улучшить впечатления участников Prime Video.

    Виктор Антонино, архитектор решений, Amazon Prime Video
  • Amazon Rekognition and Video

    Amazon Rekognition – это простое и удобное приложение для анализа изображений и видео, которое помогает клиентам идентифицировать объекты, людей, текст и действия. Приложение Amazon Rekognition требует высокопроизводительной инфраструктуры глубокого обучения, которая может ежедневно анализировать миллиарды изображений и видео для наших клиентов. Благодаря инстансам Inf1 на основе AWS Inferentia использование таких моделей Amazon Rekognition, как классификация объектов, привело к сокращению задержки в 8 раз и увеличению пропускной способности в 2 раза по сравнению с использованием этих моделей на ГП. С учетом этих результатов мы перемещаем Amazon Rekognition на Inf1, что позволяет нашим клиентам быстрее получать точные результаты.

    Раджниш Сингх, директор по разработке ПО для Amazon Rekognition и Amazon Video

Сведения о продукте

* Цены указаны для региона AWS Восток США (Северная Вирджиния). Цены, указанные для инстансов, зарезервированных на 1 и 3 года, действительны при выборе способа оплаты с частичной предоплатой или без предоплаты (для инстансов, не предусматривающих возможности частичной предоплаты).

Инстансы Amazon EC2 Inf1 доступны в регионах AWS Восток США (Северная Вирджиния) и Запад США (Орегон) как инстансы по требованию, а также зарезервированные и спотовые инстансы.

Начало работы

Amazon SageMaker упрощает компиляцию и развертывание обученной модели машинного обучения в производственной среде на инстансах Amazon Inf1, чтобы вы могли начать генерировать прогнозы в реальном времени и с низкой задержкой. AWS Neuron, компилятор для AWS Inferentia, интегрирован с Amazon SageMaker Neo, что позволяет компилировать обученные модели машинного обучения для оптимальной работы на инстансах Inf1. С помощью SageMaker вы можете легко запускать модели в автомасштабируемых кластерах инстансов Inf1, расположенных в нескольких зонах доступности, что обеспечивает высокую производительность и доступность логических выводов в реальном времени. Узнайте, как развернуть модель на инстансе Inf1 с помощью SageMaker, изучив примеры на сайте Github.

Образы DLAMI предоставляют специалистам по машинному обучению и анализу данных инфраструктуру и инструменты, которые позволяют ускорить работу с глубоким обучением в облаке в любых масштабах. В AWS Neuron SDK заранее установлены образы DLAMI для оптимальной компиляции и работы ваших моделей машинного обучения на инстансах Inf1. Чтобы получить инструкции по началу работы, см. Руководство по выбору AMI и другие ресурсы по глубокому обучению. Чтобы узнать, как использовать DLAMI в сочетании с Neuron, см. Руководство по началу работы с AWS DLAMI.

Теперь разработчики могут развертывать инстансы Inf1 в Amazon EKS, полностью управляемом сервисе Kubernetes, а также в Amazon ECS, полностью управляемом сервисе Amazon для оркестрации контейнеров. Изучите подробную информацию о начале работы с Inf1 на основе Amazon EKS или Amazon ECS. Дополнительная информация о работе контейнеров на инстансах Inf1 доступна на странице учебного пособия по инструментам для контейнеров Neuron. Кроме того, Neuron предварительно установлен в Контейнерах для глубокого обучения AWS.