Compression Group
Помогаем внедрять и оптимизировать ресурсы передовых моделей глубокого обучения:
Поиск нейросетевых архитектур
Изучаем методы автоматического поиска и перебора оптимальных нейросетевых архитектур, которые принадлежат заданному классу, выполняют определенные задачей ограничения и решают целевую задачу с наилучшим качеством.
Прунинг
Создаем методы прореживания весов и связей моделей с целью оптимизации потребляемых моделью ресурсов.
Дистилляция
Исследуем способы обучать легкие модели на выходе тяжелых аналогов без потерь в качестве решения итоговой задачи.
Квантизация
Снижаем битность операций и весов нейросетевых моделей для возможности применения на низкобортных процессорах, а также для ускорения вычислений модели.
Оценка потенциального качества модели
Создаем методы прогнозирования ожидаемого качества работы модели на конкретных выборках для автоматизации отбора наилучших кандидатов.
Эффективные методы обучения моделей
Применяем алгоритмы автоматизированной инициализации, оптимизации, меняем подходы к обучению моделей для ускорения сходимости к наилучшей конфигурации модели.
Клиенты Compression Group формируют цели оптимизации моделей как снижение OPEX на обучение и применение нейросетевых моделей
Мы выделили наиболее частые запросы на оптимизацию:
  • Оптимизация на стадии применения модели
    Наши клиенты заинтересованы в снижения потребляемых моделью ресурсов: RAM, CPU и GPU, SSD, энергопотребление. Снижение необходимых ресурсов приводит к улучшению пользовательских характеристик: скорость работы, удержание заряда устройством, etc.
  • Оптимизация процессов обучения
    Обучение сложных нейросетевых архитектур занимает много времени и требует большого объема вычислительных ресурсов. Для их экономии необходимо автоматизировать и оптимизировать процессы обучения и выбора наилучших моделей.
  • Подготовка к переносу на устройство
    Экономия на ресурсах возможна также и при переносе вычислительной нагрузки с централизованного на децентрализованный формат (то есть на устройства пользователей). Чтобы на устройстве хватило ресурсов для запука – необходимо оптимизировать модель.
  • Совместимость с новыми вычислителями
    На рынке доступны аналоговые чипы, куда можно интегрировать модели; низкобитные процессоры, ускоряющие вычисления в низкобортных операциях и так далее. На них возможно запускать только те модели, которые выполняют заданные ограничения.
Разработанная на основе нашего опыта библиотека методов компрессии позволяет снизить риски достижения результата и ускорить поставку решения на сторону заказчика
Качество
наших методов превосходит качество готовых методов PyTorch или TensorFlow для сложных архитектур
Измеримость
результатов наших методов обеспечивается честными методами сравнения потребляемых ресурсов
Гибкость
в адаптации методов к задачам заказчика обеспечена архитектурой решения и исследовательским подходом
Гарантии
результата со стороны команды компрессии подтверждаются успешным треком проектов
Результаты исследований полностью передаются клиенту
  • Программная реализация
    Простая в использовании библиотека для с читаемым и воспроизводимым кодом
  • База материалов
    База материалов с обзорами для быстрого погружения в область и технический отчет
  • Обученные модели
    Параметры обученных моделей, упакованные в требуемый клиенту формат
  • Anything else
    Мы можем подготовить артефакты проекта в требуемом для заказчика формате
Compression Group оптимизировали модели для:
Научные консультанты Compression Group
  • Воронцов
    Константин
    Научный консультант, дфмн
    Специализация: NLP
  • Леонидов
    Андрей
    Научный консультант, дфмн
    Специализация: ML
  • Стрижов
    Вадим
    Научный консультант, дфмн
    Специализация: Sensors
  • Райгородский
    Андрей
    Научный консультант, дфмн
    Специализация: ML, Graphs
  • Бурцев
    Михаил
    Научный консультант, кфмн
    Специализация: NLP, DL
  • Нейчев
    Радослав
    Научный консультант
    Специализация: DL & Sensors
  • Жариков
    Илья
    Научный консультант
    Специализация: DL & Sensors
  • Бахтеев
    Олег
    Научный консультант, кфмн
    Специализация: DL
Результаты проектов Compression Group