Оригинальный автор (и) | Microsoft Research |
---|---|
Разработчик (и) | Microsoft |
Начальный выпуск | 18 мая 2020 г.; 5 месяцев назад (2020-05-18) |
Стабильный выпуск | v0.3.0 / 10 сентября 2020 г.; 50 дней назад (10.09.2020) |
Репозиторий | github.com / microsoft / DeepSpeed |
Написано на | Python, CUDA, C ++ |
Тип | Программная библиотека |
Лицензия | Лицензия MIT |
Веб-сайт | deepspeed.ai |
DeepSpeed - это библиотека оптимизации с открытым исходным кодом глубокого обучения для PyTorch. Библиотека разработана для уменьшения вычислительной мощности и использования памяти, а также для обучения больших распределенных моделей с улучшенным параллелизмом на существующем компьютерном оборудовании. DeepSpeed оптимизирован для обучения с низкой задержкой и высокой пропускной способностью. Он включает оптимизатор нулевой избыточности (ZeRO) для обучения моделей со 100 миллиардами параметров или более. Возможности включают обучение со смешанной точностью, обучение с использованием одного графического процессора, нескольких графических процессоров и нескольких узлов, а также параллелизм пользовательских моделей. Исходный код DeepSpeed под лицензией MIT License и доступен на GitHub.
| journal =
()