hackquest logo

数据库工程师

B

Best Web3

5 - 10K USD
Full-time
Remote
web3

岗位职责

  • 协助全品类数据接入
  • 参与 CEX 高频数据(如订单簿、逐笔成交)、低频市场数据(如每日 K 线、资金费率)、链上基础数据(如区块信息、代币转账)及宏观数据的接入与清洗,对接交易所 API(如 Binance WebSocket、OKX REST)和区块链节点(如 Infura),确保数据实时性与准确性。
  • 维护数据接入脚本与工具,定期排查接口稳定性问题(如断连、数据丢失),配合团队优化接入链路延迟(目标:高频数据从接收至入库延迟 < 1 秒)。
  • 参与高性能数据库运维与优化
  • 协助搭建和维护本地数据库集群(如 ClickHouse、Redis),负责日常数据写入、查询监控与简单优化(如索引调整、分区策略配置),保障高频数据存储的高吞吐(支持日均千万级数据写入)。
  • 参与时序数据分层存储方案落地(如热数据存 Redis、冷数据归档至对象存储),配合策略团队调试数据查询 SQL,提升查询效率。
  • 支持数据平台日常运营
  • 协助构建数据监控告警体系(如基于 Prometheus 监控数据延迟、数据库负载),出现异常时快速响应并排查(如数据积压、查询超时)。
  • 整理数据字典与接入文档,为策略团队提供基础数据查询支持(如协助提取特定时间段的订单簿快照),降低使用门槛。


岗位要求

  • 技术基础
  • 3 年左右数据库开发或数据工程经验,至少 1 年高频数据处理或 Crypto 行业相关经验(如对接过交易所 API、链上数据)。
  • 熟练掌握 C++ 语言,能独立开发数据接入服务(如 WebSocket 客户端、Kafka 生产者);熟悉 Python,可编写数据清洗、验证脚本。
  • 了解至少一种高性能数据库(如 ClickHouse、Redis),掌握基本的写入优化(如批量写入)和查询调优(如时间范围过滤)方法。
  • 熟悉消息队列(如 Kafka)的基本使用,了解流处理框架(如 Flink)的基础原理,能参与简单的数据流管道搭建。
  • 工程能力
  • 具备 Linux 系统基础操作能力,能看懂系统日志(如 CPU、内存、网络 IO 监控),排查基础的服务部署问题。
  • 有代码版本控制(Git)和协作开发经验,能遵循团队开发规范提交代码。
  • 软技能
  • 学习能力强,能快速理解 Crypto 数据特性(如永续合约规则、链上交易结构)。
  • 沟通清晰,能准确对接策略团队的基础数据需求,配合解决问题。


加分项

  • 有量化交易团队、Crypto 交易所或做市商数据部门工作经验。
  • 熟悉多家主流 CEX 的 API 细节(如 Binance 的 depth@100ms 推送、OKX 的增量订单簿)。
  • 用过 Web3 工具(如 Web3.py、Ethers.js)解析过链上数据(如提取 ERC20 转账记录)。
  • 参与过 ClickHouse 集群部署或 Kafka 流处理项目,有实际优化数据延迟的案例(如将写入延迟从 2 秒降至 500ms)。