DeepSpeed ​​

редактировать
Библиотека с открытым исходным кодом Microsoft
DeepSpeed ​​
Оригинальный автор (и) Microsoft Research
Разработчик (и) Microsoft
Начальный выпуск18 мая 2020 г.; 5 месяцев назад (2020-05-18)
Стабильный выпуск v0.3.0 / 10 сентября 2020 г.; 50 дней назад (10.09.2020)
Репозиторий github.com / microsoft / DeepSpeed ​​
Написано наPython, CUDA, C ++
Тип Программная библиотека
Лицензия Лицензия MIT
Веб-сайтdeepspeed.ai

DeepSpeed ​​- это библиотека оптимизации с открытым исходным кодом глубокого обучения для PyTorch. Библиотека разработана для уменьшения вычислительной мощности и использования памяти, а также для обучения больших распределенных моделей с улучшенным параллелизмом на существующем компьютерном оборудовании. DeepSpeed ​​оптимизирован для обучения с низкой задержкой и высокой пропускной способностью. Он включает оптимизатор нулевой избыточности (ZeRO) для обучения моделей со 100 миллиардами параметров или более. Возможности включают обучение со смешанной точностью, обучение с использованием одного графического процессора, нескольких графических процессоров и нескольких узлов, а также параллелизм пользовательских моделей. Исходный код DeepSpeed ​​под лицензией MIT License и доступен на GitHub.

. Содержание
  • 1 См. Также
  • 2 Ссылки
  • 3 Дополнительная литература
  • 4 Внешние ссылки
См. Также
  • Портал бесплатного программного обеспечения с открытым исходным кодом
Ссылки
Дополнительная литература
Внешние ссылки
Последняя правка сделана 2021-05-17 11:05:56
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте