Heroku流数据连接器现已正式发布

Heroku流数据连接器现已正式发布

💡 原文英文,约400词,阅读约需2分钟。
📝

内容提要

今夏,我们推出了Heroku Postgres与Apache Kafka之间的流数据连接器测试版,简化了变更数据捕获(CDC)的实现。拥有私人或Shield空间的用户可免费使用这些连接器,构建流数据管道,整合Salesforce与外部存储。同时,我们改进了产品,防止Postgres维护期间丢失事件,并更新了Debezium至最新版本。

🎯

关键要点

  • 今夏推出了Heroku Postgres与Apache Kafka之间的流数据连接器测试版。
  • 这些连接器简化了变更数据捕获(CDC)的实现,用户可免费使用。
  • 用户可以构建流数据管道,整合Salesforce与外部存储,如Snowflake数据湖或AWS Kinesis队列。
  • 连接器支持将单体应用重构为微服务,实施基于事件的架构,归档数据到低成本存储服务等。
  • 用户可以从多个Salesforce和Work.com组织构建统一的事件流,提供基于Kafka的事件总线。
  • 改进了产品以防止Postgres维护期间丢失事件,并在Postgres故障转移场景中最小化丢失事件。
  • 新增了更新命令以便在初始配置后更改表或列,并将Debezium更新至最新版本1.3。
  • 用户可以通过命令行轻松创建连接器,需确保使用最新的CLI插件。
  • 欢迎反馈,期待客户利用流数据连接器进行数据驱动的开发。

延伸问答

Heroku流数据连接器的主要功能是什么?

Heroku流数据连接器简化了变更数据捕获(CDC)的实现,允许用户在Heroku上构建流数据管道。

使用Heroku流数据连接器需要满足哪些条件?

用户需要拥有私人或Shield空间,并在该空间中安装Postgres和Apache Kafka附加组件。

如何创建Heroku流数据连接器?

用户可以通过命令行使用命令 'heroku data:connectors:create' 来创建连接器,需指定Postgres源和Kafka存储的名称。

Heroku流数据连接器支持哪些数据集成?

它支持将Salesforce与外部存储(如Snowflake数据湖或AWS Kinesis队列)进行集成。

流数据连接器如何帮助重构应用?

用户可以利用连接器将单体应用重构为微服务,并实施基于事件的架构。

在Postgres维护期间,流数据连接器如何防止事件丢失?

产品进行了改进,以防止在Postgres维护期间丢失事件,并在故障转移场景中最小化丢失事件。

➡️

继续阅读