Tìm việc làm

Ai Engineer (Model Inference)

FPT SMART CLOUD

Hạn nộp: 04/03/2026

Chi tiết thông tin tuyển dụng "Ai Engineer (Model Inference)"

Mức lương

Thỏa thuận

Địa điểm

  • 10 Phạm Văn Bạch, Phường Dịch Vọng, Quận Cầu Giấy, Hà Nội
  • (Trước sáp nhập: Cầu Giấy, Hà Nội | Sau sáp nhập: Cầu Giấy, Hà Nội)
  • 1. 10 Phạm Văn Bạch, Phường Dịch Vọng, Quận Cầu Giấy, Hà Nội
  • (Trước sáp nhập: Cầu Giấy, Hà Nội | Sau sáp nhập: Cầu Giấy, Hà Nội)

Mô tả công việc

Thiết kế và triển khai backend/serving engine cho mô hình AI sử dụng các framework như vLLM, NVIDIA TensorRT-LLM, KServe, TorchServe, TensorFlow Serving hoặc tương đương.
Xây dựng cơ chế lazy load / on-demand loading cho các layer hoặc module của mô hình để tối ưu memory footprint và thời gian khởi tạo.
Tối ưu hiệu năng inference: batching, caching, quantization, model parallelism, GPU/CPU utilization và profiling hệ thống.
Thiết kế API (REST/gRPC) để expose các dịch vụ inference, tích hợp với các hệ thống nội bộ, gateway hoặc ứng dụng client.
Xây dựng pipeline deploy, monitoring, alerting cho các dịch vụ AI production (logging, metrics, tracing).
Phối hợp cùng nhóm Research/Applied AI để chuyển giao mô hình (model handoff), chuẩn hóa định dạng model (ONNX, TensorRT engine, v.v.).

Yêu cầu công việc

Kinh nghiệm triển khai thực tế các backend/serving engine cho mô hình AI với ít nhất một trong các công cụ: vLLM, NVIDIA TensorRT-LLM, KServe, TorchServe, TensorFlow Serving hoặc tương đương; ưu tiên ứng viên đã từng đưa hệ thống vào production với SLA rõ ràng.
Hiểu sâu về kiến trúc mô hình deep learning (đặc biệt là transformer-based models) và cơ chế lazy load layer / module (VD: load từng phần model, sharded weights, memory mapping, offloading giữa CPU/GPU).
Thành thạo một trong các ngôn ngữ: Python (ưu tiên), kèm theo kinh nghiệm với một framework web như FastAPI/Flask/Django để xây dựng dịch vụ inference.
Kiến thức vững về hệ thống backend: HTTP, networking cơ bản, asynchronous programming, queue, cache (Redis/memory cache), và kiến trúc microservices.
Kinh nghiệm làm việc với Docker, container orchestration (ưu tiên Kubernetes) và CI/CD cho dịch vụ AI.
Hiểu biết về monitoring & observability (Prometheus, Grafana, OpenTelemetry hoặc tương đương).

Quyền lợi được hưởng

Mức lương: Cạnh tranh, trả theo năng lực; có thể thương lượng
Bảo hiểm xã hội và bảo hiểm y tế: Theo quy định của pháp luật lao động
Môi trường làm việc: Sáng tạo, cởi mở, tôn trọng sự khác biệt và cá nhân
Cơ hội làm việc: Hợp tác cùng các tập đoàn công nghệ hàng đầu thế giới và đội ngũ nhân sự nhiệt huyết, tài năng
Chế độ phúc lợi: Gói FPT Premium Care
Hoạt động & văn hóa: Tham gia các hoạt động và văn hóa doanh nghiệp của FCI và Tập đoàn FPT
Hỗ trợ học tập: Gói hỗ trợ học tập dành cho con em công đoàn FCI
Đào tạo & chứng chỉ: Tài trợ các khóa học và chứng chỉ liên quan (theo đề xuất/phù hợp)
Dự án chiến lược: Tham gia xây dựng các giải pháp AI đổi mới, ứng dụng công nghệ NVIDIA
Cơ hội phát triển: Làm việc trong môi trường năng động, tăng trưởng nhanh, có cơ hội góp phần định hình tương lai dịch vụ AI tại Việt Nam và Nhật Bản

Cách thức ứng tuyển

Ứng viên nộp hồ sơ trực tuyến bằng cách bấm "Ứng tuyển" ngay dưới đây.

Thông tin công ty

Giới thiệu

FPT SMART CLOUD

FPT Smart Cloud - thành viên Tập đoàn FPT, cung cấp giải pháp ứng dụng Trí tuệ nhân tạo (AI) & Điện toán đám mây (Cloud Computing) hàng đầu tại Việt Nam. FPT Smart Cloud ra đời với sứ mệnh giúp các doanh nghiệp chuyển đổi số linh hoạt, sáng tạo và tạo ra bước đột phá trong hoạt động vận hành với các dịch vụ đẳng cấp thế giới.

Quy mô

Từ 101 - 500 nhân viên Nhân viên

Địa chỉ

Số 10 Phạm Văn Bạch, Phường Dịch Vọng, Quận Cầu Giấy, HN

Việc làm tương tự từ JobOKO

Xem thêm
× Modal Image