软件工程师(美国)

官网 Onehouse

职位描述

Onehouse 是一家使命驱动型公司,致力于将数据从数据平台锁定中解放出来。我们通过基于 Apache Hudi 构建的云原生托管服务提供业界最具互操作性的数据湖。Onehouse使企业能够以分钟级的新鲜度大规模摄取数据、集中存储数据,并提供给任何下游查询引擎和用例(从传统分析到实时人工智能/ML)。
我们是一支由自我驱动、富有灵感和经验丰富的构建者组成的团队,他们创建了大规模数据系统和全球分布式平台,这些系统和平台是 Uber、Snowflake、AWS、Linkedin、Confluent 等一些大型企业的核心。在 Craft、Greylock 和 Addition Ventures 的支持下,我们刚刚完成了 3500 万美元的 B 轮融资,目前总融资额已达 6800 万美元,我们正在寻找后起之秀与我们共同成长,成为团队未来的领导者。来帮助我们打造世界上最好的全面管理和自我优化的数据湖平台吧!
当您加入 Onehouse 时,您将加入一个由充满激情的专业人士组成的团队,共同应对打造双面工程产品所面临的深刻技术挑战。我们的工程团队是连接开源世界和企业世界的桥梁:直接为 Apache Hudi(已被 Uber、Amazon、ByteDance 等全球企业大规模使用)做出贡献并促进其发展,同时定义一个新的行业类别–事务数据湖。数据基础设施团队是所有这一切的基础。我们在数据库中生活和呼吸,通过在 Hudi 的引擎盖下工作来构建基石基础设施,从而解决极其复杂的优化和系统问题。

offer要求 [offer requirements]

3 年以上的软件工程师经验,拥有开发分布式系统的经验。
使用 Java 进行面向对象设计和编码的能力强。
在分布式(多层)系统、算法和关系数据库的内部运作方面经验丰富。
善于处理模棱两可/未定义的问题;具有抽象思维能力;能清楚地表达技术挑战和解决方案。
速度与激情 → 能够优先处理功能开发和技术债务。
能够解决复杂的编程/优化问题。
清晰的沟通技巧。
最好具备(但非必需):
数据库系统、查询引擎或 Spark 代码库方面的工作经验。
深入了解 Spark、Flink、Presto、Hive、Parquet 的内部原理。
具有 Hadoop、Hive、Delta Lake、Hudi、Nifi、Drill、Pulsar、Druid、Pinot 等开源项目的实践经验。

offer福利 [offer benefits]

有竞争力的薪酬;
股权报酬;
健康与福利;
财务未来;
地点;
慷慨的假期;
公司友情;
食品和膳食津贴;
设备;
亲子关系!

滚动至顶部