Data Engineer
Mô tả công việc
Mô tả công việc
Xây dựng & vận hành pipeline dữ liệu:
● Phát triển và duy trì các pipeline ETL/ELT trên Databricks bằng PySpark, Spark SQL, Delta Lake.
● Xây dựng framework ingest dữ liệu ổn định, có khả năng mở rộng, tích hợp với các dịch vụ AWS:
- Kafka/MSK hoặc Kinesis (xử lý dữ liệu realtime)
- S3, Glue, Lambda, Step Functions
- RDS/Redshift hoặc hệ CSDL on- premise
● Tự động hóa quy trình xử lý dữ liệu bằng Databricks Workflows, Airflow hoặc công cụ tương đương.
Kiến trúc Lakehouse:
● Triển khai và tối ưu Delta Lake, bao gồm:
- Delta tables
- ACID transactions
- Time travel và tối ưu hiệu năng
- Schema evolution
● Hỗ trợ thiết kế mô hình dữ liệu phục vụ:
- Machine Learning
- Báo cáo quản lý, báo cáo tuân thủ/nghiệp vụ ngân hàng
- Phân tích, báo cáo
Chất lượng dữ liệu, bảo mật & quản trị
● Triển khai metadata, lineage và governance bằng: AWS Glue Catalog, Unity Catalog (ưu tiên) hoặc công cụ tương đương
● Thiết lập kiểm soát chất lượng dữ liệu thông qua: Unit test, validation framework, Delta expectations
● Đảm bảo tuân thủ các tiêu chuẩn ngân hàng:
- Phân quyền truy cập
- Audit và truy vết dữ liệu
- Bảo vệ dữ liệu nhạy cảm (PII)
Phối hợp nghiệp vụ:
● Phân tích yêu cầu nghiệp vụ và chuyển đổi thành giải pháp kỹ thuật phù hợp với chiến lược dữ liệu toàn ngân hàng.
● Làm việc chặt chẽ với Data Analyst, Data Scientist, các đơn vị kinh doanh, Risk/Compliance.
Vận hành & tối ưu hệ thống
● Giám sát hiệu năng pipeline, tối ưu chi phí và tài nguyên (Databricks cluster, compute).
● Xử lý sự cố production, đảm bảo tính ổn định hệ thống và SLA.
● Áp dụng DevOps & CI/CD (Azure DevOps, GitHub Actions, Bitbucket…).
Yêu cầu công việc
● Tốt nghiệp Đại học chuyên ngành CNTT, Hệ thống thông tin, Kỹ thuật hoặc tương đương.
● Thành thạo: AWS: S3, Glue, Lambda, IAM, Step Functions, Kinesis/MSK; Databricks: PySpark, Spark SQL, Delta Lake, Workflows; Python, SQL, Spark
● Ưu tiên kinh nghiệm trong lĩnh vực ngân hàng/tài chính (core banking, thanh toán, tín dụng, báo cáo NHNN).
● Có kinh nghiệm làm việc với hệ thống dữ liệu phân tán, quy mô lớn
● Tối thiểu 2–5+ năm kinh nghiệm ở vị trí Data Engineer.
● Hiểu biết vững về mô hình dữ liệu (relational, dimensional, domain- driven).
Quyền lợi được hưởng
● Tiếp xúc với các công nghệ mới, Tham gia các chương trình đào tạo/seminar nội bộ nâng cao năng lực.
● Chế độ: Thưởng lễ tết gồm các ngày :Tết dương, tết âm 30/4, 2/9, sinh nhật công ty, sinh nhật cá nhân, quà trung thu, 8/3, 20/10…BHXH, BHYT theo quy định của nhà nước
● Cân bằng cuộc sống và công việc với các hoạt động Teambuilding 1- 2 lần/ năm, hoạt động văn nghệ thể thao
● Được học hỏi và đào tạo học việc bài bản từ các leader có nhiều năm kinh nghiệm, Được định hướng phát triển thành Key Member.
● Training về kỹ năng mềm, kỹ năng quản lý dự án, quản lý chất lượng.
● Phụ cấp Onsite, ăn trưa, cung cấp máy tính, vé xe, các chế độ OT đầy đủ
● Làm việc trong môi trường ngân hàng/doanh nghiệp nước ngoài chuyên nghiệp, năng động, cởi mở.
● Mức lương: Thỏa thuận theo năng lực: upto 40 gross; package năm 13- 14 tháng lương
Nơi làm việc và thời gian làm việc
- Địa chỉ làm việc: Onsite 119 Trần Duy Hưng, Cầu Giấy, Hà Nội
- Thời gian làm việc: Thứ 2 – Thứ 6 và sáng thứ 7 (từ 9h- 18h)
Quyền lợi
insurance, medical coverage, work station, vacation and leaves, career growth
Cập nhật gần nhất lúc: 2026-01-31 19:15:03

CÔNG TY TNHH SAGO CAR
Bí kíp tìm việc an toàn
Tiện ích hỗ trợ bạn
Việc làm đề xuất liên quan
Hiện tại chúng tôi chưa có việc làm đề xuất phù hợp với bạn.








