为什么我们在大规模实时数据处理中使用Apache Kafka
原文英文,约1200词,阅读约需5分钟。发表于: 。In a world where digital threats are constantly evolving, having accurate, real-time data for security scanning cannot be overstated. Up-to-date The post Why We Use Apache Kafka for Real-Time Data...
SecurityScorecard使用实时数据提供组织全面的安全状况视图。他们每天分析超过300种问题类型,识别200多亿个安全漏洞。他们采用Confluent Cloud和Confluent Platform进行数据流处理,构建了名为Horus的全球分布式系统。SecurityScorecard在流式基础设施成本上节省了200万美元。他们还使用Confluent进行数据治理和效率,使多个团队能够轻松共享和管理相同的源数据。迁移到Confluent Cloud简化了操作任务并降低了成本。SecurityScorecard实现了无与伦比的可扩展性,现在可以在10天内扫描超过2000个端口。他们计划利用Apache Flink进行进一步的增强。在构建流式数据管道时,建立及时性、使用模式、利用生态系统,并仅开发必要的部分是重要的。使用托管的数据流平台可以消除基础设施管理问题。