Data Engineer
100 000 руб
Leonid
Возраст
25 лет (27 Ноября 2000)
Город
Тбилиси
Возможен переезд в другой город
Полная занятость
7 лет 1 месяц
Информационные технологии / IT / Интернет
-Анализ различных слоёв DWH, сбор данных из разных источников и мониторинг процессов ETL.
-Изучение бизнес-логики.
-Работа с Apache Airflow для извлечения данных, их дальнейшей обработки на Python и загрузки в DWH.
-Работа с библиотеками pandas и numpy.
-Используемые базы данных: ClickHouse, PostgreSQL.
-Успешная оптимизация кода для автоматического выполнения DAG.
Работал в проекте по автоматизации выгрузки показателей KPI через ETL-пайплайн.
Информационные технологии / IT / Интернет
- SQL (оптимизация запросов, оконные функции, индексы) — оптимизировал SQL-запросы, переписывал логику с использованием оконных функций, анализировал планы выполнения и работал с индексами для повышения производительности.
- IBM Netezza, PostgreSQL — писал и оптимизировал SQL-запросы в IBM Netezza и PostgreSQL, работал с большими таблицами и аналитическими выборками данных.
- Основы DWH и ETL — работал с данными в хранилище, участвовал в подготовке и проверке данных для ETL/ELT-процессов и аналитических витрин.
- Контроль качества данных — проверял корректность и консистентность данных, выявлял расхождения между источниками и анализировал причины несоответствий.
- Python (pandas — базовый уровень) — использовал Python и pandas на базовом уровне для анализа данных и автоматизации проверок качества данных.
- Подготовка данных для BI — подготавливал и проверял данные для использования в BI-отчётах, контролировал корректность расчётов и метрик.
- Взаимодействие с аналитиками и бизнесом — взаимодействовал с аналитиками и представителями бизнеса для уточнения требований к данным и логики расчётов.
Высшее
Москва, 2018 — 2022 гг.
Data Engineer с сильным SQL-бэкграундом и опытом построения ETL/ELT-пайплайнов.
Занимаюсь загрузкой данных из различных источников, оркестрацией процессов в Apache Airflow, подготовкой данных для аналитики и обеспечением их качества. Понимаю принципы построения DWH и инкрементальных загрузок. Есть опыт обработки больших объёмов данных с использованием PySpark и работы с ClickHouse.
Технические навыки:
-Python: pandas, numpy, requests
-SQL: PostgreSQL, Oracle, ClickHouse, MSSQL (оптимизация запросов, витрины данных)
-Apache Airflow: разработка DAG, инкрементальные загрузки, high water mark
-Apache Spark (PySpark): DataFrame API, Spark SQL, UDF
-Источники и хранилища данных: REST API, PostgreSQL, ClickHouse, HDFS
-Docker: развёртывание Airflow и БД, локальные тестовые окружения
Apache Spark (PySpark):
-Разработка пакетных джобов на PySpark (DataFrame API) с использованием Spark SQL и UDF
-Оптимизация производительности за счёт партиционирования, кэширования и настройки выполнения
-Обработка крупных наборов данных в распределённой среде
-Интеграция Spark-приложений с HDFS для чтения и записи данных
Apache Airflow:
-Реализация автоматизированных пайплайнов и процессов мониторинга KPI
14 августа, 2025
Anna
Город
Тбилиси
Возраст
24 года (31 июля 2001)
Опыт работы:
Без опыта
10 сентября, 2025
80 000 руб
Владислав Юрьевич
Город
Тбилиси
Возраст
33 года ( 5 августа 1992)
Опыт работы:
11 месяцев
Последнее место работы:
QA engineer, Quintegro
03.2025 - по текущее время
16 ноября, 2018
90 000 руб
Jene Jemal
Город
Тбилиси
Возраст
42 года (20 февраля 1984)
Опыт работы:
1 год
Последнее место работы:
Recruiter, Keski LLC
01.2017 - 01.2018
Резюме размещено в отрасли