description
Описание вакансии
Старший LLM-разработчик в команду претрейна YandexGPT ❣️
Претрейн — первый и самый затратный этап обучения LLM. Наша команда отвечает за скорость и стабильность обучения моделей YandexGPT. Мы разрабатываем фреймворк для распределённого обучения на сотнях GPU, ставим много экспериментов, ускоряем и улучшаем базовые модели. Приглашаем в команду LLM-разработчика, который умеет писать классный код. Откликайтесь, даже если вы пока соответствуете не всем требованиям вакансии, но очень-очень хотите научиться новому (и уже учитесь)!
Какие задачи вас ждут:
• Повышать скорость и стабильность претрейна YandexGPT
• Улучшать работу с длинным контекстом
• Разрабатывать единую кодовую базу для LLM-обучений
• Заниматься исследованиями и инжирингом
Мы ждём, что вы:
• Обучали трансформерные модели на PyTorch с нуля
• Умеете писать классный код, знаете лучшие инженерные практики
• Понимаете, как устроены современные LLM
Будет плюсом, если вы:
• Имеете опыт в распределённом обучении: знаете, что такое FSDP и контекстный параллелизм
• Разрабатывали на CUDA/Triton и сможете написать backward для Flash Attention
• Классно знаете математику и можете объяснить, что такое многообразие
📩 на нашем сайте
#yandexgpt #LLM #GPU #triton #CUDA
Претрейн — первый и самый затратный этап обучения LLM. Наша команда отвечает за скорость и стабильность обучения моделей YandexGPT. Мы разрабатываем фреймворк для распределённого обучения на сотнях GPU, ставим много экспериментов, ускоряем и улучшаем базовые модели. Приглашаем в команду LLM-разработчика, который умеет писать классный код. Откликайтесь, даже если вы пока соответствуете не всем требованиям вакансии, но очень-очень хотите научиться новому (и уже учитесь)!
Какие задачи вас ждут:
• Повышать скорость и стабильность претрейна YandexGPT
• Улучшать работу с длинным контекстом
• Разрабатывать единую кодовую базу для LLM-обучений
• Заниматься исследованиями и инжирингом
Мы ждём, что вы:
• Обучали трансформерные модели на PyTorch с нуля
• Умеете писать классный код, знаете лучшие инженерные практики
• Понимаете, как устроены современные LLM
Будет плюсом, если вы:
• Имеете опыт в распределённом обучении: знаете, что такое FSDP и контекстный параллелизм
• Разрабатывали на CUDA/Triton и сможете написать backward для Flash Attention
• Классно знаете математику и можете объяснить, что такое многообразие
📩 на нашем сайте
#yandexgpt #LLM #GPU #triton #CUDA
tips_and_updates
Как откликнуться эффективно
- arrow_right1–2 релевантных кейса (ссылки/скриншоты)
- arrow_rightСроки и формат работы (когда на связи)
- arrow_right2–3 уточняющих вопроса по задаче
handshake
Рекомендации работодателю
- arrow_rightОпишите результат и критерии приёмки
- arrow_rightУкажите бюджет/вилку — это повышает качество откликов
- arrow_rightСразу обозначьте сроки и доступность по коммуникациям
lists
Ещё вакансии
Fullstack QA
Bell Integrator
от 150 000 ₽
Array
Полная занятость
Директор по маркетингу (Автокомпоненты)
МРСВ
от 450 000 ₽
Array
Полная занятость
Стажер по социальному проектированию (Социальная архитектура)
Институт социальной архитектуры
Не указан
Array
Полная занятость
Контент-менеджер (Audio Streaming)
Звук
Не указан
Array
Полная занятость
Junior Copywriter
Lifehacker
Не указан
Array
project
Креативный продюсер-стажёр
Комитет
20 000 ₽ — 40 000 ₽
Array
Полная занятость