Overview
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
Todas as aplicações empresariais criam dados, quer se trate de mensagens de registo, métricas, atividade do utilizador ou mensagens de saída. Movimentar todos esses dados é tão importante quanto os próprios dados. Com esta edição actualizada, os arquitectos de aplicações, os programadores e os engenheiros de produção que não conhecem a plataforma de fluxo contínuo Kafka aprenderão a lidar com dados em movimento. Capítulos adicionais abordam a API AdminClient do Kafka, transações, novos recursos de segurança e alterações nas ferramentas.
Os engenheiros da Confluent e do LinkedIn responsáveis pelo desenvolvimento do Kafka explicam como implantar clusters de produção do Kafka, escrever microsserviços confiáveis orientados a eventos e criar aplicativos escaláveis de processamento de fluxo com essa plataforma. Através de exemplos detalhados, aprenderás os princípios de design do Kafka, as garantias de fiabilidade, as principais APIs e os detalhes da arquitetura, incluindo o protocolo de replicação, o controlador e a camada de armazenamento.
Examinarás:
- As práticas recomendadas para implantar e configurar o Kafka
- Os produtores e consumidores do Kafka para escrever e ler mensagens
- Padrões e requisitos de casos de uso para garantir a entrega confiável de dados
- Melhores práticas para criar pipelines de dados e aplicações com o Kafka
- Como realizar tarefas de monitorização, afinação e manutenção com o Kafka em produção
- As métricas mais críticas entre as medições operacionais do Kafka
- As capacidades de entrega do Kafka para sistemas de processamento de fluxo