Compression Group
Помогаем внедрять и оптимизировать ресурсы передовых моделей глубокого обучения:
Прунинг
Создаем методы прореживания весов и связей моделей с целью оптимизации потребляемых моделью ресурсов.
Дистилляция
Исследуем способы обучать легкие модели на выходе тяжелых аналогов без потерь в качестве решения итоговой задачи.
Оценка потенциального качества модели
Создаем методы прогнозирования ожидаемого качества работы модели на конкретных выборках для автоматизации отбора наилучших кандидатов.
Эффективные методы обучения моделей
Применяем алгоритмы автоматизированной инициализации, оптимизации, меняем подходы к обучению моделей для ускорения сходимости к наилучшей конфигурации модели.
Клиенты Compression Group формируют цели оптимизации моделей как снижение OPEX на обучение и применение нейросетевых моделей
Мы выделили наиболее частые запросы на оптимизацию:
Оптимизация на стадии применения модели
Наши клиенты заинтересованы в снижения потребляемых моделью ресурсов: RAM, CPU и GPU, SSD, энергопотребление. Снижение необходимых ресурсов приводит к улучшению пользовательских характеристик: скорость работы, удержание заряда устройством, etc.
Оптимизация процессов обучения
Обучение сложных нейросетевых архитектур занимает много времени и требует большого объема вычислительных ресурсов. Для их экономии необходимо автоматизировать и оптимизировать процессы обучения и выбора наилучших моделей.
Подготовка к переносу на устройство
Экономия на ресурсах возможна также и при переносе вычислительной нагрузки с централизованного на децентрализованный формат (то есть на устройства пользователей). Чтобы на устройстве хватило ресурсов для запука – необходимо оптимизировать модель.
Совместимость с новыми вычислителями
На рынке доступны аналоговые чипы, куда можно интегрировать модели; низкобитные процессоры, ускоряющие вычисления в низкобортных операциях и так далее. На них возможно запускать только те модели, которые выполняют заданные ограничения.
Разработанная на основе нашего опыта библиотека методов компрессии позволяет снизить риски достижения результата и ускорить поставку решения на сторону заказчика
Качество
наших методов превосходит качество готовых методов PyTorch или TensorFlow для сложных архитектур
Измеримость
результатов наших методов обеспечивается честными методами сравнения потребляемых ресурсов
Гибкость
в адаптации методов к задачам заказчика обеспечена архитектурой решения и исследовательским подходом
Гарантии
результата со стороны команды компрессии подтверждаются успешным треком проектов
Результаты исследований полностью передаются клиенту
Программная реализация
Простая в использовании библиотека для с читаемым и воспроизводимым кодом
База материалов
База материалов с обзорами для быстрого погружения в область и технический отчет
Обученные модели
Параметры обученных моделей, упакованные в требуемый клиенту формат
Anything else
Мы можем подготовить артефакты проекта в требуемом для заказчика формате
Compression Group оптимизировали модели для:
Научные консультанты Compression Group
Воронцов
Константин
Научный консультант, дфмн
Специализация: NLP
Леонидов
Андрей
Научный консультант, дфмн
Специализация: ML
Стрижов
Вадим
Научный консультант, дфмн
Специализация: Sensors
Райгородский
Андрей
Научный консультант, дфмн
Специализация: ML, Graphs
Бурцев
Михаил
Научный консультант, кфмн
Специализация: NLP, DL
Нейчев
Радослав
Научный консультант
Специализация: DL & Sensors
Жариков
Илья
Научный консультант
Специализация: DL & Sensors
Бахтеев
Олег
Научный консультант, кфмн
Специализация: DL
Результаты проектов Compression Group
Есть исследование для нас?
Опишите, какое исследование нужно провести. Мы свяжемся с Вами и уточним все детали!