任职要求:
统招本科3年以上,保险金融行业。
工作内容:
深入理解Hadoop生态(HDFS、YARN、Hive、HBase等)及Spark生态(Spark Core、Spark SQL、Structured Streaming);
具备Flink/Kafka Streams等实时计算框架开发经验,熟悉状态管理、窗口函数等机制;
掌握SQL优化技巧,熟悉数据仓库分层设计(ODS/DWD/DWS/ADS);
熟悉分布式存储tchouse,数据湖iceberg等;
熟悉容器化技术(Docker、K8s)及运维操作。