По всем вопросам: @vice22821
Чат: https://t.me/postypashki_old_chat
Карьера: https://t.me/postupashki_career
Ютуб: https://youtube.com/@postupashki_old
Поступач: https://t.me/postypashki_mems
Информация о канале обновлена 17.08.2025.
По всем вопросам: @vice22821
Чат: https://t.me/postypashki_old_chat
Карьера: https://t.me/postupashki_career
Ютуб: https://youtube.com/@postupashki_old
Поступач: https://t.me/postypashki_mems
В новом учебном году нас ждет море стажировок и образовательных программ— самое время наметить цели и планы, чтобы год не прошел впустую! Актуальный список стажировок на нашем сайте, а обсудить отбор и задания можно вместе с админом в нашем чате.
Яндекс
Контест обновится к концу августа и будет разобран только на наших летний карьерных курсах. Про отбор подробно рассказывал в ролике, а в нашем тг канале можно найти полно полезных материалов по поиску слов "Яндекс". Сейчас же скажу, что с каждым разом собесы с командами становятся посложнее: нужны пет проекты, понимание сервиса Яндекса, его используемых технологий и тд (нужно провести кокретный такой сталкинг). Средняя зп по регионам 80 тыс.
Т-банк
Подать заявку можно уже сейчас, контест будет открыт с 20 по 26 августа и будет разобран только на наших летний карьерных курсах. Про отбор подробно рассказывал в ролике.
Данные про кол-во вакансий уже не так актуальна, с каждым разом их увеличивают, но понятно, что большинство вакансий заполняются сразу же с их образовательных программ.
Сбер
Подача заявок откроется во второй половине сентября. Про отбор подробно рассказывал в ролике. Средняя зп по регионам 60 тыс.
Касперский
Подача заявок откроется около октября. Про отбор подробно рассказывал в ролике. Только для Москвы и области, средняя зп 80 тыс.
Авито
Подача заявок откроется ближе к концу сентября, будет буквально неделя, чтобы успеть зарегистрироваться. Потом вышлют контест, а затем еще могут дать домашнее задание на неделю. Так как вакансий немного, а требования высокие, то нередко попадают сильные ребята, которым могут предложить сложные задачи и соответственно высокую ЗП (100 тыс и больше). Кстати с райффайзенгом по DS аналогичная история.
Озон Camp и Озон Route
Обычно открывается в начале октября. Первая для бизнесс аналитиков, а вторая для разработчиков. ML и DS мимо. Про отбор подробно рассказывал в ролике. Только для Москвы, средняя ЗП 70 тыс.
Вайлд беррис
Стажёров похоже вообще не оформляют, либо оформляют по СЗ. Ссылку не оставляю, ибо судя по отзывам в чатах, номера и почты просто сливают спамерам.
Еще больше стажировок на нашем сайте, на некоторые открыт набор прямо сейчас!
@postypashki_old
Если хочешь двигаться в новую роль, но не хватает уверенности и структуры — начни обучение на одном из четырех ИТ-направлений магистратуры ЦУ.
Ты сможешь прокачаться:
— в продуктовой аналитике;
— машинном обучении;
— продуктовом менеджменте;
— backend-разработке.
Партнеры университета — ведущие компании на рынке РФ: ВТБ, Сбер, Т-Банк, Яндекс, Avito, Ozon, Х5 Tech и другие. 62% магистрантов ЦУ находят новую работу с ростом зарплаты в 1,6 раза уже на первом курсе, а средняя зарплата достигает 195 000 ₽.
Обучение можно совмещать с работой, так как занятия проводятся по вечерам и выходным.
Успей подать заявку до 24 августа
Товарищи, сегодня утром у Ai Masters на платформе произошел баг (полетели ссылки) и мне удалось выкачать задания экзамена. Ждем 500 шэров (поделиться с другом) и делаем разбор. Все входит в программу наших курсов.
@postypashki_old
подходят к концу, курсы стартуют уже завтра. В честь этого подготовили самые популярные проекты, еще больше пет проектов по глубокому обучению будут на нашем курсе ds (смотрите на сайте)
1. Кредитный скоринг
Стоит ли давать кредит— довольно популярная задача и отличный выбор для новчиков, чтобы самостоятельно проделать все этапы. Сначала берем любой датасет на kaggle по запросу Credit Scoring. Проводим EDA, генерируем гипотезы, фичи, готовим данные для модели и делаем бейзлайн: логистическая регрессия. Затем уже можно попробовать случайный лес, градиентный бустинг, KNN или еще что по вкусу— сравниваем метрики. И на последок не забываем проанализировать результаты и культурно презентовать. Можно провести АВ тест на смой первой модели.
Все варианты решения и реализации можно найти в интернетах: GitHub, Хабр. Очень полезным будет посмотреть всякие выступления на конференциях по этой теме для вдохновения, да и это очень поможет на мл кейсах.
2. Наивный Байесовский классификатор (НБК)
Для конкретики будем классифицировать письма на спам. Опять же обработаем данные: удаляем числа, знаки препинания, стоп-слова, стемминги, лемматизацию.
Объединяем все методы предварительной обработки и создаём словарь слов и счётчик каждого слова в наборе данных для обучения:
1. Вычисляем вероятность для каждого слова в тексте и отфильтровываем слова со значением вероятности меньше порогового. Такие слова будут нерелевантными.
2. Для каждого слова в словаре создаём вероятность, что это слово окажется в спаме. Определяем условную вероятность для использования её в НБК.
3. Вычисляем прогнозируемый результат с помощью условных вероятностей.
НБК реализовать не сложно. Куда интересней погрузиться во всю теорию, которая за этим стоит, в вероятностные модели. К тому же, кейс фильтрации спама и подобного часто встречается на собесах.
3. MLOps
Можно наладить какой-то минимальный прод для проектов: например телеграм бот или FastAPI. Можно еще автоматизировать пайплайн с помощь AirFlow и попробовать запустить инфраструктуру не только локально, но и облаке. Конечно нужно будет поизучать Docker, Cuber, Hadoop, Spark, HDFS, Kafka. Но на самом деле ничего трудного— после нашего курса дата инженера будете делать такие вещи по щелчку пальцев.
4. Ранжирование и матчинг
Для начала лучше пробежаться глазами по статье и посмотреть, что пишут в интернетах. Можно выделить три подхода к задаче: поточечный, попарный, списочный. Советую начать с первого как самого простого. Для конкретики будем предсказать оценку релевантности для запросов тестового датасета. Здесь можно кстати поучиться парсить web-страниц и собирать сырые данные, размечать их с помощью какого-нибудь Яндекс-Толока. Делаем регрессию, а затем Random Forest Regressor, XGBoost, lightGBM, CatBoost.
Совсем продвинутые могут попробовать языковые модели в духе FastText, Word2Vec, DSSM и более сложные: BERT, можно даже попробовать архитектуру трансформеров.
5. Рекомендашки
Очень популярный кейс на собесах. Для начала лучше пробежаться глазами по этому разделу и посмотреть, что пишут в интернетах. Затем начинаем реализовывать самое простое как бейзлайн, например, content-based рекомендации, KNN. Дальше можно попробовать факторизации матрицы рейтингов по svd разложению или по более эффективной als архитектуре и функции ошибок bpr. Затем можно попробовать W2V подход, чтобы использовать последовательность взаимодействий пользователя для построения рекомендации следующего предмета.
Для знатоков DL можно попробовать DSSM, SasRec/Bert4Rec, MultVAE, Merlin или графовые нейронки: GCN-подобные архитектуры.
Также стоит попробовать обучение с подкреплением: многоруких бандитов.
Ну и конечно рекомендательные системы можно попробовать рассмотреть как задачу ранжирования.
@postypashki_old
Владелец канала не предоставил расширенную статистику, но Вы можете сделать ему запрос на ее получение.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Также Вы можете воспользоваться расширенным поиском и отфильтровать результаты по каналам, которые предоставили расширенную статистику.
Подтвердите, что вы не робот
Вы выполнили несколько запросов, и прежде чем продолжить, мы ходим убелиться в том, что они не автоматизированные.