Обо мне

Здесь собраны мой текущий фокус, последние проекты и путь от бизнеса к машинному обучению.

Search · Retrieval · RecSys · Multimodal Search · GenAI

Игорь Якушев

ML-инженер | Поиск, retrieval и рекомендательные системы

Строю поиск, рекомендации и NLP/GenAI-системы на реальном трафике. Закрываю архитектуру, эксперименты, evals и rollout на стыке product, data и infra.

01 10M+ запросов в день
поиск и рекомендации
02 End-to-end ownership
архитектура, эксперименты, релизы
03 NLP и evals
качество, регрессии
  • Границы и контракты

    Начинаю с границ системы: данные, serving, fallback и точки отказа.

  • Evals перед релизом

    Изменения проходят через eval-наборы, regressions, online-метрики, canary и rollback.

  • Решения через ограничения

    Приоритеты определяю через latency, cost, SLO, throughput и влияние на продуктовые метрики.

Посмотреть все
  • Ranking и recsys

    Качество выдачи под ограничениями по задержке, стоимости и cold start.

  • Эксперименты

    A/B-тесты, online-метрики и решения, проверенные цифрами.

  • Надежность

    SLO, мониторинг, трассировка и работа с инцидентами.

  • Задержка и стоимость

    Бюджеты задержки, throughput и стоимость инференса.

  • NLP и GenAI

    Классификация, генерация, RAG и agent flows с evals.

  • Продукт и экономика

    Технические решения, привязанные к выручке, unit-экономике и метрикам.

От бизнеса к машинному обучению

Ключевые переходы, которые сформировали мой подход к архитектуре, релизам и эксплуатации ML-систем.

2010–2013

Мышление

Я никогда не мечтал "стать программистом". Меня интересовали системы и причины, по которым они работают именно так.

Инженерное образование, которое я закончил в 2012 году, не дало великого откровения. Зато научило главному: разбирать сложное на части и искать закономерности.

В двадцать лет я оказался внутри крупного государственного механизма и увидел, насколько решения зависят от регламентов, согласований и бумаги. Тогда же у меня закрепился базовый принцип: эффективность рождается из структуры.

  • Эффективность возникает из структуры, а не из старания
2013–2016

Собрал бизнес

Я запустил агентство в сфере интернет-маркетинга и довольно быстро дошел до точки, где рост начал есть эффективность.

На старте все держалось на чатах и ручной координации: правки шли по десять кругов, дедлайны жили в Excel, а статус задачи определялся по памяти.

Когда команда выросла с 5 до 30+ человек, я охуел: половина времени уходила на тушение пожаров и пересылку задач между людьми.

Пришлось перепроектировать процессы. Я разложил работу на четкие этапы, внедрил CRM, убрал ручные отчеты и заменил их скриптами. Чтобы быстрее проверять гипотезы, сам подключал API и писал внутренние инструменты для команды.

После перехода на системный подход рентабельность выросла на 22%, а просроченные задачи почти исчезли. Тогда я окончательно понял: структура масштабируется лучше героизма.

  • Управлял сложностью через структуру, не людей
  • Кодил, чтобы убрать зависимость от рук
2016–2019

От бизнеса к коду

Рынок смещался в сторону рекомендательных систем, больших данных и автоматизации. Я видел, куда все идет, и пытался перестроить агентство под разработку: мы брали стартапы, собирали продуктовые сайты и заходили в аутстафф.

Кода в моей работе становилось все больше. В IT было то, чего мне не хватало в маркетинге: прозрачная логика. Есть вход, есть код, есть результат.

Постепенно стало ясно, что агентская модель для такого перехода не подходит. Я начал собирать собственные IT-проекты: делал парсеры и ботов на Python, поднимал сервисы и проверял, как связать данные из SQL, логику и автоматизацию в одну рабочую систему.

Это были инженерные эксперименты, а не красивые запуски. Меня интересовало, где система ломается, как ее упростить и как сделать так, чтобы она работала не один раз, а стабильно.

  • Ушел к системам, где результат зависит от логики, а не вкуса
  • Сформировал подход: работает - значит не ломается, даже без меня
2019–2021

Вход в ML

В 2019 году я собрал первую ML-модель из форумных датасетов и подручных средств. Это была нейросеть на Keras, которая генерировала музыку. Работала она грубо, но важным было другое: модель действительно что-то делала сама.

Материалы уже были, но лежали кусками: Jupyter, Colab, статьи по TensorFlow. Я попытался собрать вокруг модели инфраструктуру и быстро понял, что дальше упираюсь уже не в модель, а в систему вокруг нее.

Меня начала всерьез интересовать инженерная сторона ML: данные, пайплайны, обучение, выкладка и эксплуатация.

Чтобы разобраться в этом на практике, я гонял небольшие сервисы на Heroku. Этого быстро перестало хватать. Хотелось понять, как устроены системы с большим трафиком, где ошибка стоит денег. Так я и пошел в сторону больших технологических компаний. Технических вакансий тогда не было, но опыт в маркетинге позволил зайти через Google, где я занимался аналитикой и цифровыми продуктами.

Внутри я прошел ML-программы: сначала на теории, потом на рабочих инструментах. Так появился первый опыт с BigQuery, Airflow и TFX. Я начал разбираться, как на самом деле живут ML-системы в эксплуатации: с требованиями к стабильности, логированию и релизам. Это и стало фундаментом моего инженерного подхода к ML.

  • ML без инфраструктуры - игрушка
  • Фокус: проектировать решения, которые работают под нагрузкой
2021–2024

Инженерия ML-систем

Google закрыл офис. Мне предложили релокацию, но снова в маркетинговую функцию. К этому моменту я уже точно понял, что хочу отвечать не за кампании, а за систему: за архитектуру, надежность и то, как ML ведет себя в реальной эксплуатации.

С мая 2022 я вел ML-цепочку в B2B-платформе. Собирал модули ценообразования, генерации описаний и прогноза спроса на XGBoost и Scikit-learn. Под это спроектировал сквозной пайплайн с автопереобучением, резервными сценариями и мониторингом. Система держала SLA 99.9 % при ~1 млн предсказаний в сутки.

В 2023 я перешел в команду AI-платформы в e-commerce. Там уже был другой масштаб: мультимодальный поиск и рекомендации, эмбеддинги, поиск кандидатов, ранжирование в онлайне, жесткие ограничения по задержке и стоимости.

Под капотом CLIP и LLM приводили текст и изображения в общее векторное пространство, FAISS быстро поднимал кандидатов, а гибрид BM25 и нейросети собирал финальную выдачу. Позже я запустил онлайн-дообучение на кликах: CTR вырос на 14 %, инфраструктурные затраты снизились на 30 %.

  • Настоящий ML начинается там, где модель становится частью системы
  • Поиск и ранжирование быстро ставят все на место: качество, стоимость и надежность надо держать сразу
2024–сейчас

Архитектура, которой доверяют

Сейчас я отвечаю за поиск и рекомендации в e-commerce с трафиком около 10 млн запросов в сутки. Под капотом Triton для инференса, CLIP и FAISS для мультимодального поиска, BM25 и модели доранжирования, ONNX для части рекомендательных сценариев. На таком масштабе ошибка быстро превращается не в баг в логе, а в просадку по выручке, задержкам и качеству выдачи.

К 2025 изменилась сама постановка задачи. После бума генеративных моделей и агентных интерфейсов поиск перестал быть просто списком документов, а рекомендации - подбором похожих объектов. Система все чаще должна понимать намерение, держать контекст и доводить пользователя до следующего полезного действия.

Из-за этого выросла и цена архитектурных ошибок. Теперь мало быстро поднять кандидатов и аккуратно их доранжировать. Надо переживать шумные запросы, деградацию внешних моделей, скачки нагрузки, длинные цепочки признаков и постоянные эксперименты так, чтобы система оставалась управляемой.

Мой фокус в этом этапе сместился от отдельных моделей к платформенному слою вокруг них: автообновляемые пайплайны, наблюдаемость, контроль качества, резервные сценарии, воспроизводимые релизы, ясные границы ответственности. Чем больше вокруг шума, тем важнее, чтобы внутри системы все было разложено по полкам.

Для меня архитектура, которой доверяют, выглядит просто. Она переживает рост, спокойно принимает новые сценарии и не держится на одном герое. В 2025 это особенно видно по агентным сценариям: они не отменяют инженерную работу, они быстрее показывают, где система собрана на соплях.

  • Агентные сценарии не заменяют архитектуру: они быстрее находят ее слабые места
  • Хорошая система держится на устройстве, а не на героизме команды

Где применяли мой опыт

ViSenze – AI-платформа для визуального поиска e-commerceHuawei – телеком и инфраструктураOzon – маркетплейс и e-commerceGoogle – глобальный лидер в MLMedia Instinct – маркетинговое агентство

Рекомендованные статьи

Разбор архитектуры ML/LLM-систем: решения, риски, эксплуатация.

Практический разбор для поисковых команд: как встроить вызовы инструментов в продакшн-поиск и не потерять качество выдачи, задержки, безопасность и возможность отката.

Контакты

Готов к обсуждению ML‑проектов и внедрений, отвечаю лично.

Игорь Якушев
ML-инженер

Мое текущее время: --:-- Amsterdam
Фото Игоря Якушева, ML инженера обо мне

Search, Retrieval, RecSys и ML в проде для систем с 10M+ запросов в день.

  • LinkedIn
  • Google Scholar
  • CV.pdf
  • GitHub
  • igor.ykshv@gmail.com

Быстрее всего

Написать в Telegram