您的位置:首页 > 任务详情
【AI 数据工程师 / Python 后端工程师(数据方向)~江浙沪优先(可远端)
  • 雇主:mike
  • 发布时间:2025-04-22
  • 分类:招聘用工
免责声明 该外包需求信息来源于站外平台,本站仅提供公开信息部分字段展示与订阅服务,更多请查看免责声明。

任务详情

【岗位职责】 我们正在寻找2~4位具备扎实数据处理能力与 Python 工程背景的工程师,加入我们 AI 应用技术团队,共同打造智能化产品与平台。您的工作将涵盖数据管道建设、RAG 系统开发、后端服务、模型部署与跨团队协作。 数据处理与 ETL/ELT 工作流建设 设计并开发稳定、可扩展的数据处理管道,使用 Python 与 BigQuery SQL 实现数据清洗与转换; 构建并持续优化 ETL/ELT 流程,实现数据自动化处理、校验与调度,保障数据质量与一致性。 AI 检索增强生成(RAG)系统开发 基于 RAG 架构实现智能问答与语义理解系统; 优化向量数据库(如 Pinecone、Qdrant)查询效率与上下文检索质量; 提升大模型在复杂场景下的交互效果与响应性能。 后端 API 与服务开发 使用 FastAPI / Flask 等 Python 框架开发高效稳定的 API 接口; 支持数据服务、向量检索与 AI 模型推理能力,保障系统性能与可维护性。 云端部署与 MLOps 实践 在 GCP(部分 AWS)环境中部署数据处理与模型服务; 推进 MLOps 标准流程,优化模型训练、部署、上线与监控等关键环节。 跨部门协作 与数据科学家、算法研究员、前端工程师紧密协作,推动 AI 解决方案在业务场景中落地; 探索并引入先进的 AI 工具链与基础设施,提升产品智能化程度。 【任职要求】 基础能力 语言沟通:具备基础英文口语沟通能力,能阅读英文技术文档; Python 开发经验:3 年及以上,有实际项目开发经验,熟练掌握 FastAPI / Flask / Django 等框架; 数据处理能力:熟悉 pandas、numpy 等常用库,具备大规模数据清洗与处理经验; ETL/ELT 能力:能够独立设计和实现高质量的数据处理流程; 数据库能力:熟悉 BigQuery SQL,能够编写高效查询并进行性能调优; API 开发能力:具备 RESTful 或 GraphQL API 构建与调试经验; 向量数据库经验:了解 Pinecone、Qdrant 或相关 embedding 技术; 云平台经验:熟悉 GCP(BigQuery、Cloud Functions、Vertex AI)相关产品,有部分 AWS 实践经验; 容器化与 CI/CD:熟练使用 Docker,了解 Kubernetes 与自动化部署流程; MLOps 实践经验:了解或实践过模型管理、训练、部署与监控完整流程; 团队协作能力:具备良好的跨部门沟通与任务推动能力。 【加分项】 具备以下技能将被优先考虑,优秀者可适当放宽部分硬性要求: 拥有 AI 应用开发、深度学习优化相关经验; 具备 RAG 架构与语义检索系统的实战经验; 熟悉 LangChain、LangGraph,能够构建 LLM 应用; 熟练使用 Airflow、Prefect 等数据调度工具; 熟悉 Jupyter Notebook,能撰写技术笔记与报告; 有 Spark、Dask、Ray 等实时数据处理框架经验; 参与或主导过开源数据科学或机器学习项目; 熟悉 Node.js,可辅助部分后端系统开发工作。 【福利与薪资&】 薪资范围:税前月薪 18,000 ~ 25,000 元,具体依据经验能力评估; 休假制度:双休及弹性休假制度; 办公方式:支持远程办公与弹性到岗机制,无需上下班打卡,无监控屏幕,无须每天文字汇报,周报,月报;自我驱动,以结果为导向,提升工作效率与自由度; 【合作模式】 ① 全职入职(优先) 与公司签订劳动合同; 每周需线下到岗 3~4 天(预计于上海/杭州设立办公地点); 江浙沪地区常驻者优先考虑。 ② 远程合作(可选) 面向成熟自由开发者或技术工作室; 需具备独立开发能力,拥有个体工商户/公司资质,可开具发票; 与公司签订劳务合作合同,按月或项目结算,需工作日全职投入。 【招聘流程】 初轮沟通:介绍公司情况,明确岗位职责与候选人意向; 技术测评:根据岗位需求安排在线测试或小项目,评估技术匹配度; 技术面试:团队成员参与,基于测评结果深入沟通专业能力与合作潜力; Offer 沟通:确认薪资待遇、入职时间及后续安排。 全栈多年,有兴趣,欢迎,是在找新的机会,人在上海

任务附件 (0)

暂无稿件哦!

预期中标

已中标

0

快去分享,提高任务的曝光率吧