数据平台工程师(美国)

Onehouse

职位描述

Onehouse 是一家使命驱动型公司,致力于将数据从数据平台锁定中解放出来。我们通过基于 Apache Hudi 构建的云原生托管服务提供业界最具互操作性的数据湖。Onehouse使企业能够以分钟级的新鲜度大规模摄取数据、集中存储数据,并提供给任何下游查询引擎和用例(从传统分析到实时人工智能/ML)。
我们是一支由自我驱动、富有灵感和经验丰富的构建者组成的团队,他们创建了大规模数据系统和全球分布式平台,这些系统和平台是 Uber、Snowflake、AWS、Linkedin、Confluent 等一些大型企业的核心。在 Craft、Greylock 和 Addition Ventures 的支持下,我们刚刚完成了 3500 万美元的 B 轮融资,目前总融资额已达 6800 万美元,我们正在寻找后起之秀与我们共同成长,成为团队未来的领导者。来帮助我们打造世界上最好的全面管理和自我优化的数据湖平台吧!
当您加入 Onehouse 时,您将加入一个由充满激情的专业人士组成的团队,共同应对打造双面工程产品所面临的深刻技术挑战。我们的工程团队是连接开源世界和企业世界的桥梁:直接为 Apache Hudi(已被 Uber、Amazon、ByteDance 等全球企业大规模使用)做出贡献并促进其发展,同时定义一个新的行业类别–事务数据湖。数据基础设施团队是所有这一切的基础。我们在 Hudi 的引擎盖下工作,解决极其复杂的优化和系统问题,从而构建基础架构。

offer要求 [offer requirements]

3 年以上在 Apache Spark 或 Apache Flink 中构建和运行数据管道的经验。
2 年以上使用 Apache Airflow、Dagster 等工作流协调工具的经验。
精通 Java、Maven、Gradle 及其他构建和打包工具。
擅长编写高效的 SQL 查询并对查询计划进行故障排除。
具有在云存储上管理大规模数据的经验。能够在几分钟内调试失败的作业和查询。
在监控、部署和测试作业工作流方面具有卓越的操作能力。
思想开放、善于协作、自我激励、行动迅速。
希望具备的条件(但不是必需条件):
在云环境中使用 k8s 和相关工具链的实际经验。
操作和优化 TB 级数据管道的经验
深入了解 Spark、Flink、Presto、Hive、Parquet 的内部原理。
开源项目(如 Hadoop、Hive、Delta Lake、Hudi、Nifi、Drill、Pulsar、Druid、Pinot 等)的实践经验
使用 Apache Flink、Kafka Streams 进行流处理管道的操作经验。

offer福利 [offer benefits]

具有竞争力的薪酬;该职位的预计基本工资范围为 150,000 美元 – 220,000 美元
股权报酬;我们的成功就是您的成功,您有资格参与我们的公司股权计划
健康与福利;我们将为您的身心健康投资,提供高达90%的健康保险(配偶/家属为50%),包括全面的医疗、牙科和视力福利
财务未来;我们将对您的财务状况进行投资,使您有资格向公司的 401(k) 或罗斯 401(k) 退休计划缴款
地点;我们是一家偏远地区友好型公司(分布在美国北部和印度),但某些职位需要根据业务需要亲自前往
慷慨的假期;无限的 PTO(每年至少 1 周)、不封顶的病假和 11 天带薪公司假期
公司友情;在阳光谷总部举行年度公司聚会和季度团队聚会
食品和膳食津贴;每周午餐津贴、办公室内小吃/饮料
设备;我们将为您提供成功所需的设备,并为您的初始办公桌设置一次性提供 500 美元的津贴
亲子关系!父母(生育、非生育、领养、寄养、儿童安置、新监护人)有 8 周假期 – 全薪,因此您可以将精力集中在您的新成员身上

滚动至顶部