Capítulo 9. Integração de dados com o ksqlDB
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
O primeiro passo para construir uma aplicação de processamento de streams com o ksqlDB é considerar onde os dados que pretendes que o processe residem atualmente, e onde os dados enriquecidos/transformados serão eventualmente escritos. Uma vez que o ksqlDB utiliza o Kafka Streams, as entradas e saídas diretas da aplicação que constrói serão sempre tópicos Kafka. O ksqlDB simplifica a integração de outras fontes de dados, incluindo sistemas populares de terceiros como Elasticsearch, PostgreSQL, MySQL, Google PubSub, Amazon Kinesis, MongoDB e centenas de outros.
Naturalmente, se os teus dados já residem no Kafka e não planeias escrever os resultados processados num sistema externo, então não é necessário trabalhar com as funcionalidades de integração de dados do ksqlDB (que são conduzidas pelo Kafka Connect). No entanto, se alguma vez precisares de ler/escrever em sistemas externos, este capítulo fornecerá as bases necessárias para te ajudar a ligar as fontes de dados e os sumidouros apropriados utilizando o ksqlDB e o Kafka Connect.
Este capítulo não é um guia completo sobre o Kafka Connect, que é uma API separada no ecossistema Kafka e, consequentemente, um tópico sobre o qual muito pode e tem sido escrito. Forneceremos informações suficientes para começar e analisaremos as abstrações de alto nível do ksqlDB para trabalhar ...