ОТКРЫТЫЕ ПОЗИЦИИ КОМАНДЫ Compression:
Full-time Middle Researcher, специализация NN Compression & Optimization
Кто: Full-time Middle Researcher, специализация NN Compression & Optimization

Вилка: 120-180к net за full-time

Формат: full-time (40 часов/неделю), удаленка, трудоустройство в МФТИ

Описание:
В Compression Group мы топим за широту применения AI. Для этого пишем на PyTorch SotA методы сжатия моделей: оптимизируем затраты на AI-инфраструктуру и готовим модели к трансферу на новые чипы/устройства/etc. После нас у заказчика снижаются косты, а в устройствах крутятся более точные SotA модели ((например, наши наработки помогли засунуть на девайсы FairSeq).

В команде молодые выпускники, работаем гибко и активно. Мы даем возможность расти и учим реальной работе над индустриальными исследовательскими проектами. Команда растет, проектов больше: ищем людей. Если ты готов с нами работать над новыми SotA и давать клиентам реальный Value – ждем твое резюме.

Задачи:
  • Ты обеспечишь проект идеями, будешь быстро их проверять, разрешишь ключевые вызовы проекта и обеспечишь рост целевых метрик качества;
  • Ты будешь логировать результаты и артефакты экспериментов, готовить выводы на их основе, сделаешь свою работу прозрачной и прогнозируемой для команды.

Знания, умения, навыки:
  • Знаешь основные архитектуры NN, принципы оптимизации моделей DL (Quantization-Aware Training, Post-Training Quantization, Knowledge Distillation, Pruning etc).
  • Умеешь применять методы сжатия нейросетей на практике и работать с профильными библиотеками (например, torch.quantization). Можешь с нуля реализовать модели и бенчмарки компрессии из статей на PyTorch;
  • Умеешь улучшать SotA методы сжатия сеток для достижения целей поставленной задачи или работы в новых ограничениях;
  • Знаешь про научный подход, умеешь генерить и проверять гипотезы, выдавать воспроизводимые и достоверные результаты;
  • Продвинуто используешь Python; Git и IDE – твои ежедневные инструменты; не видишь преград в работе с удаленным сервером; умеешь радовать команду культурой кода и владеешь командными практиками разработки.

Будет преимуществом, если:
  • У тебя есть опыт написания и редактирования научных публикаций;
  • Ты умеешь выявлять потребности заказчиков и презентовать решение с точки зрения ценности для клиента.

Следующие шаги:
  • Оставить заявку на сайте (P.S. включи в резюме портфолио и открытые проект);
  • Мы проверим резюме и портфолио, подготовим персональное задание;
  • Проверим задание и проведем собеседование с командой.
    Outstaff Middle Researcher, специализация Compression & Optimization
    Кто: Outstaff Middle Researcher, специализация Compression & Optimization

    Вилка: 120-180к net за full-time

    Формат: part-time (20 часов/неделю), удаленка, совместитель в МФТИ

    Описание:
    В Compression Group мы топим за широту применения AI. Для этого пишем на PyTorch SotA методы сжатия моделей: оптимизируем затраты на AI-инфраструктуру и готовим модели к трансферу на новые чипы/устройства/etc. После нас у заказчика снижаются косты, а в устройствах крутятся более точные SotA модели (например, наши наработки помогли засунуть на девайсы FairSeq).

    Мы сотрудничаем с опытными ML-инженерами, кто хочет по совместительству реализовать себя в исследовательской работе: пилить с нами исследовательские проекты, делиться опытом с командой и тыкать SotA модели в пайпе проверки новых идей.

    Сейчас мы ищем опытного специалиста, который усилит нашу команду в части квантизации трансформеров в задачах NLP (понимание и классификация текста, GLUE) и адаптации пайплайнов квантизации к нестандартной инфраструктуре.

    Задачи:
    • Ты обеспечишь проект идеями, будешь быстро их проверять, разрешишь ключевые вызовы проекта и обеспечишь рост целевых метрик качества;
    • Ты будешь логировать результаты и артефакты экспериментов, готовить выводы на их основе, сделаешь свою работу прозрачной и прогнозируемой для команды.

    Знания, умения, навыки:
    • Знаешь основные архитектуры NN, принципы оптимизации моделей DL (Quantization-Aware Training, Post-Training Quantization, Knowledge Distillation, Pruning etc).
    • Умеешь применять методы сжатия нейросетей на практике и работать с профильными библиотеками (например, torch.quantization). Можешь с нуля реализовать модели и бенчмарки компрессии из статей на PyTorch;
    • Имеешь опыт работы с NLP моделями. Воспроизводил результаты статей.
    • Умеешь улучшать SotA методы сжатия сеток для достижения целей поставленной задачи или работы в новых ограничениях;
    • Знаешь про научный подход, умеешь генерить и проверять гипотезы, выдавать воспроизводимые и достоверные результаты;
    • Продвинуто используешь Python; Git и IDE – твои ежедневные инструменты; не видишь преград в работе с удаленным сервером; умеешь радовать команду культурой кода и владеешь командными практиками разработки.

    Будет преимуществом, если:

    • У тебя есть опыт написания и редактирования научных публикаций;
    • Умеешь выявлять потребности заказчиков и презентовать решение с точки зрения ценности для клиента.

    Следующие шаги:
    • Оставить заявку на сайте (P.S. включи в резюме портфолио и открытые проект);
    • Мы проверим резюме и портфолио, подготовим персональное задание;
    • Проверим задание и проведем собеседование с командой.
    Outstaff Middle Researcher
    Кто: Outstaff Middle Researcher

    Вилка: 120-180к net за full-time

    Формат: part-time (20 часов/неделю), удаленка, совместитель в МФТИ

    Описание:
    В Compression Group мы топим за широту применения AI. Для этого пишем на PyTorch SotA методы сжатия моделей: оптимизируем затраты на AI-инфраструктуру и готовим модели к трансферу на новые чипы/устройства/etc. После нас у заказчика снижаются косты, а в устройствах крутятся более точные SotA модели (например, наши наработки помогли засунуть на девайсы FairSeq).

    Мы сотрудничаем с опытными ML-инженерами, кто хочет по совместительству реализовать себя в исследовательской работе: пилить с нами исследовательские проекты, делиться опытом с командой и тыкать SotA модели в пайпе проверки новых идей.

    Задачи:
    • Ты обеспечишь проект идеями, будешь быстро их проверять, разрешишь ключевые вызовы проекта и обеспечишь рост целевых метрик качества;
    • Ты будешь логировать результаты и артефакты экспериментов, готовить выводы на их основе, сделаешь свою работу прозрачной и прогнозируемой для команды.

    Знания, умения, навыки:
    • Знаешь основные архитектуры NN, принципы оптимизации моделей DL (Quantization-Aware Training, Post-Training Quantization, Knowledge Distillation, Pruning etc).
    • Умеешь применять методы сжатия нейросетей на практике и работать с профильными библиотеками (например, torch.quantization). Можешь с нуля реализовать модели и бенчмарки компрессии из статей на PyTorch;
    • Умеешь улучшать SotA методы сжатия сеток для достижения целей поставленной задачи или работы в новых ограничениях;
    • Знаешь про научный подход, умеешь генерить и проверять гипотезы, выдавать воспроизводимые и достоверные результаты;
    • Продвинуто используешь Python; Git и IDE – твои ежедневные инструменты; не видишь преград в работе с удаленным сервером; умеешь радовать команду культурой кода и владеешь командными практиками разработки.

    Будет преимуществом, если:

    • У тебя есть опыт написания и редактирования научных публикаций;
    • Ты умеешь выявлять потребности заказчиков и презентовать решение с точки зрения ценности для клиента.

    Следующие шаги:
    • Оставить заявку на сайте (P.S. включи в резюме портфолио и открытые проект);
    • Мы проверим резюме и портфолио, подготовим персональное задание;
    • Проверим задание и проведем собеседование с командой.
    ХОЧЕШЬ ПОПАСТЬ В КОМАНДУ Compression? ПОДАВАЙ РЕЗЮМЕ!
    Увидел позицию команды Compression и хочу на нее!
    Можно оставить пустым, тогда мы будем учитывать зону интересов при распределении по открытым вакансиям
    Резюме
    Название файла CV_Имя_Фамилия.pdf
    Не нашел открытых позиций, но я к Вам хочу!
    Оцени свой уровень компетенций
    В какой области тебе интересно развиваться
    Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь c политикой конфиденциальности