Публикации по теме 'aws'


Развертывание конвейера глубокого обучения с помощью Docker на AWS
Примечание: эта статья написана с Мохамедом Лабуарди Модели глубокого обучения сложно разработать и настроить. Каждый специалист по данным может испытать чувство облегчения, обнаружив, что их модели работают с новыми данными так же хорошо, как и на этапах обучения, тестирования и проверки. Однако это не достижение, а начало новой зоны турбулентности: как модель (которая в нашем случае будет производиться как REST API) масштабируется для обработки растущего количества запросов?..

Научите модель ИИ писать как Шекспир — Бесплатно
Используйте SageMaker Studio Lab для обучения собственных моделей НЛП О чем это? Обучение моделей машинного обучения становится все более ресурсоемким. Современные современные модели обработки естественного языка (NLP), например, представляют собой почти исключительно нейронные сети, для обучения которых требуется мощность графического процессора. К счастью, число свободно доступных сред разработки с мощностью GPU также растет. В декабре 2021 года AWS анонсировала SageMaker Studio..

Развертывание безопасного MLflow на AWS
Одной из основных функций платформы MLOps является возможность отслеживания и записи экспериментов, которыми затем можно делиться и сравнивать. Это также включает в себя хранение и управление моделями машинного обучения и другими артефактами. MLFlow — популярный проект с открытым исходным кодом, реализующий вышеперечисленные функции. Однако в стандартной установке MLFlow отсутствует какой-либо механизм проверки подлинности. Предоставление кому угодно доступа к вашей информационной..

Разверните свое первое приложение компьютерного зрения для AWS Panorama за пять минут
Узнайте, как легко настроить свое первое приложение Panorama Почти год назад я опубликовал пошаговое руководство здесь, на сайте Towards Data Science, по развертыванию приложения для обнаружения объектов на AWS Panorama. Статья была довольно длинной (17 минут на чтение!) и содержала множество тонких шагов. Создать приложение Panorama с помощью официальных инструментов непросто: вы должны использовать фиксированную и сложную структуру проекта, помнить множество параметров, касающихся..

Готовая среда Spark NLP в SageMaker Studio
В этой статье мы собираемся объяснить, как прикрепить пользовательский образ Spark NLP, Spark NLP для здравоохранения и Spark OCR Docker к SageMaker Studio. Требования: Учетная запись AWS с разрешениями IAM, предоставленными для ECR, SageMaker, Network Traffic (должны быть установлены учетные данные AWS) Докер Действительные лицензионные ключи для Spark NLP for Healthcare и Spark OCR. (Лицензионные ключи не требуются для общедоступной версии Spark NLP — при необходимости..

Хостинг мероприятий AWS Deep Racer — Виртуальные гонки
Это вторая часть моей серии из трех статей об AWS Deep Racer. Если вы попали прямо сюда, первую часть серии можно посмотреть здесь , и в основном она посвящена настройке AWS Deep Racer в одной учетной записи AWS с использованием многопользовательского режима. Я бы порекомендовал вам сначала прочитать это, а затем вернуться к чтению о виртуальных гонках. Как только ваши участники получат доступ к AWS Deep Racer, вы захотите создать гонку, в которой они смогут принять участие, чтобы..

Настройка сервера MLflow в AWS
Инструкции по настройке сервера MLflow в AWS с использованием PostgreSQL в качестве внутреннего хранилища и S3 в качестве хранилища артефактов. TL;DR: перейдите к разделу Инструкции по настройке сервера MLflow . Введение В прошлом году я начал работать над проектом ML, связанным с анализом изображений. Первоначально объем проекта был узким, но со временем были определены новые варианты использования, и размер проекта постепенно увеличивался. Вскоре стало очевидно, что..