Capitolo 8. Leggere da e scrivere su sistemi esterni
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
I dati possono essere memorizzati in molti sistemi diversi, come filesystem, object store, database relazionali, key-value store, indici di ricerca, log di eventi, code di messaggi e così via. Ciascuna classe di sistemi è stata progettata per specifici modelli di accesso ed eccelle nel servire un determinato scopo. Di conseguenza, le infrastrutture di dati di oggi sono spesso composte da molti sistemi di archiviazione diversi. Prima di aggiungere un nuovo componente al mix, è logico chiedersi: "Come funziona con gli altri componenti del mio stack?".
L'aggiunta di un sistema di elaborazione dati, come Apache Flink, richiede un'attenta considerazione perché non include un proprio livello di archiviazione ma si affida a sistemi di archiviazione esterni per l'inserimento e la persistenza dei dati. Per questo motivo, è importante che i processori di dati come Flink forniscano una libreria ben fornita di connettori per leggere i dati da e scrivere i dati su sistemi esterni, nonché un'API per implementare connettori personalizzati. Tuttavia, la semplice capacità di leggere o scrivere dati su datastore esterni non è sufficiente per uno stream processor che voglia fornire garanzie di coerenza significative in caso di guasto.
In questo capitolo discutiamo di come i connettori source e sink influenzino ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access