Senior Data Engineer Python, SQL, Cloud
Mô tả công việc
Thực hiện các nhiệm vụ kỹ thuật phức tạp trong thiết kế, triển khai và vận hành hạ tầng dữ liệu, đảm bảo hệ thống dữ liệu vận hành ổn định, hiệu quả và tuân thủ tiêu chuẩn kỹ thuật. Đóng vai trò nòng cốt trong việc cải tiến quy trình, hỗ trợ chuyên môn cho đồng nghiệp và đảm bảo dữ liệu sẵn sàng phục vụ phân tích và ra quyết định kinh doanh.
Trách nhiệm chính/ Key Accountabilities
Thực hiện các công việc chuyên môn phức tạp:
Xây dựng, bảo trì hệ thống lưu trữ dữ liệu (Data Warehouse, Data Lake), xử lý dữ liệu lớn theo batch và real- time (streaming).
Thiết lập giám sát hiệu suất và cảnh báo cho hệ thống dữ liệu, xử lý các vấn đề liên quan đến dữ liệu (data issue triage).
Phân tích yêu cầu dữ liệu, thiết kế kiến trúc luồng dữ liệu (data pipeline) đảm bảo hiệu năng và khả năng mở rộng.
Phát triển, tối ưu quy trình ETL/ELT từ nhiều nguồn dữ liệu khác nhau, đảm bảo dữ liệu được xử lý chính xác, đầy đủ và đúng lịch trình.
Hỗ trợ chuyên môn và đào tạo:
Hướng dẫn, hỗ trợ đồng nghiệp cấp dưới trong việc giải quyết các vấn đề kỹ thuật, đảm bảo chất lượng đầu ra.
Tham gia đào tạo nội bộ, chia sẻ kiến thức về kỹ thuật xử lý dữ liệu, công cụ mới và chuẩn hóa quy trình kỹ thuật.
Đóng góp vào cải tiến quy trình:
Đề xuất và triển khai các công cụ giám sát, kiểm thử và bảo trì pipeline dữ liệu, đảm bảo tính ổn định lâu dài.
Tham gia đánh giá, cải tiến các quy trình phát triển và vận hành dữ liệu nhằm tăng tính tự động hóa, giảm thiểu lỗi.
Yêu cầu công việc
Yêu cầu công việc
Yêu cầu:
Tối thiểu 5 năm kinh nghiệm trong vai trò Data Engineer hoặc tương đương.
Tốt nghiệp Đại học/Cao đẳng trở lên chuyên ngành Công nghệ Thông tin, Khoa học Máy tính, Hệ thống Thông tin, hoặc tương đương.
Có kinh nghiệm với hệ thống ETL/ELT, xử lý dữ liệu thời gian thực (Kafka, Spark Streaming, Flink).
Thành thạo Python và SQL trong xử lý và biến đổi dữ liệu.
Thành thạo sử dụng Apache Airflow, dbt, Spark, Hadoop.
Có kinh nghiệm thực tế trên ít nhất một nền tảng Cloud (AWS, Azure, hoặc GCP).
Có kinh nghiệm với Data Warehouse (Snowflake, BigQuery, Redshift, Synapse, v.v.) và Data Lakehouse (Delta Lake, Databricks, v.v.).
Kỹ năng phân tích kỹ thuật tốt, tư duy hệ thống, khả năng làm việc độc lập và phối hợp nhóm.
Ưu tiên:
Có kinh nghiệm làm việc với Databricks trong môi trường production.
Có hiểu biết về data governance, data quality, metadata management.
Kinh nghiệm với containerization (Docker, Kubernetes) hoặc CI/CD pipelines.
Có chứng chỉ Cloud (AWS Data Analytics, Azure Data Engineer, GCP Data Engineer) là điểm cộng.
Quyền lợi
Lương và Trợ cấp:
Lương tháng 13, thưởng doanh số hàng năm, thưởng dự án, thưởng doanh số (theo vị trí)
Sức khỏe: Bảo hiểm xã hội, phí bảo hiểm PVI, khám sức khỏe định kỳ hàng năm
Thưởng Lễ Tết: 2.500.000- 5.000.000 VND/năm
Phụ cấp ăn trưa: 730.000đ/tháng
Máy tính xách tay, màn hình và các phương tiện/tài khoản/công cụ cần thiết khác cho công việc
Phép năm: Tối đa 20 ngày/năm (theo cấp nhân sự)
Cơ hội nghề nghiệp:
Con đường sự nghiệp đa dạng: Quản lý hoặc Chuyên gia và cơ hội điều chuyển nội bộ giữa các team
Xét tăng lương hàng năm và cơ hội thăng tiến
Công nhận và khen thưởng ở cấp độ nhóm và Công ty
Nguồn học miễn phí trên các nền tảng Udemy, Coursera, O&039;relly; hội thảo nội bộ, tài trợ chứng nhận và Cố vấn độc quyền (C- level)
Môi trường làm việc:
Môi trường làm việc trẻ trung, năng động và hợp tác
Teambuilding hàng quý/ hàng năm & các sự kiện nội bộ gắn kết
Khu thư giãn: chơi game, bóng bàn, yoga, phòng tập thể dục, phòng tắm, sleep box
Không gian làm việc mở và thúc đẩy cả sự tập trung cá nhân và các hoạt động làm việc theo nhóm
Cập nhật gần nhất lúc: 2025-11-14 18:40:03











