Persistence at the Edge: Workers KV, R2 Object Storage a D1 SQLite
Praktické srovnání mezi třemi vrstvami úložiště dostupnými v Cloudflare Workers: KV pro globální data klíč-hodnota, R2 pro ukládání objektů bez výstupních poplatků a D1 pro relační SQL dotazy na okraji.
Problém vytrvalosti na okraji
Izoláty V8, které pohánějí pracovníky Cloudflare Workers, jsou bez státní příslušnosti: každá je izolovaná lze vytvořit a zničit v mikrosekundách a místní stav JavaScriptu nikoli přetrvává mezi požadavky (nebo přetrvává jen příležitostně, kvůli souběžnosti na stejném izolovaný). K vytvoření skutečných aplikací potřebujete externí vytrvalost.
Cloudflare nabízí tři nativní úložné produkty, z nichž každý je navržen pro případ použití konkrétní. Výběr špatného může znamenat pomalé dotazy, vysoké náklady nebo nesrovnalosti, které se obtížně ladí. Tento článek je podrobně porovnává s Reálné příklady kódu.
Co se naučíte
- Workers KV: případně konzistentní architektura, API, limity a ideální případy použití
- Cloudflare R2: S3 kompatibilní úložiště objektů bez výstupního poplatku, vícedílné nahrávání
- D1 SQLite: relační databáze na hranici, SQL dotazy, migrace s Drizzle ORM
- Srovnání nákladů: KV vs R2 vs D1 v různých měřítcích použití
- Vzor integrace: Jak kombinovat KV + D1 pro inteligentní ukládání do mezipaměti
- Konfigurace vazeb v wrangler.toml pro každý typ úložiště
Workers KV: Globální klíč-hodnota a nakonec konzistentní
Workers KV je globálně distribuované datové úložiště párů klíč–hodnota. Když píšeš hodnota, je replikována ve všech Cloudflare PoP během několika sekund. Když čteš, získat hodnotu z nejbližšího PoP: latence čtení obvykle menší než 1 ms.
Zásadní kompromis: KV je nakonec konzistentní. Psaní může trvat až 60 sekund, než se zobrazí globálně. Díky tomu je to možné nevhodné pro data, která se často mění a musí být okamžitě načtena po psaní.
Konfigurace KV v wrangler.toml
# wrangler.toml
[[kv_namespaces]]
binding = "CACHE" # Nome del binding nel codice TypeScript
id = "xxxxxxxxxxxxxxxxxx" # ID del namespace in produzione
preview_id = "yyyyyyyyyy" # ID del namespace per wrangler dev
[[kv_namespaces]]
binding = "SESSIONS"
id = "aaaaaaaaaaaaaaaaa"
preview_id = "bbbbbbbbbbbbb"
# Per creare i namespace:
# wrangler kv namespace create CACHE
# wrangler kv namespace create CACHE --preview
Workers KV API v TypeScriptu
// src/services/cache.service.ts
export interface Env {
CACHE: KVNamespace;
SESSIONS: KVNamespace;
}
// -------- OPERAZIONI BASE --------
// WRITE: put con TTL opzionale (in secondi)
await env.CACHE.put('user:123', JSON.stringify({ name: 'Mario', role: 'admin' }), {
expirationTtl: 3600, // scade tra 1 ora
});
// WRITE senza TTL (valore permanente)
await env.CACHE.put('config:features', JSON.stringify({ darkMode: true }));
// WRITE con expiration assoluta (Unix timestamp)
await env.CACHE.put('promo:summer', 'active', {
expiration: Math.floor(Date.now() / 1000) + 86400, // scade tra 24h
});
// READ: get con tipo di decodifica
const raw = await env.CACHE.get('user:123');
// raw: string | null
const parsed = await env.CACHE.get<{ name: string; role: string }>('user:123', 'json');
// parsed: { name: string; role: string } | null
// READ con metadata
const { value, metadata } = await env.CACHE.getWithMetadata('user:123', 'json');
// DELETE
await env.CACHE.delete('user:123');
// -------- LISTING (con limitazioni) --------
// KV supporta listing, ma e lento e con limite di 1000 chiavi per chiamata
const listing = await env.CACHE.list({ prefix: 'user:', limit: 100 });
for (const key of listing.keys) {
console.log(key.name, key.expiration, key.metadata);
}
// -------- PATTERN: cache-aside --------
async function getUserCached(userId: string, env: Env): Promise<User | null> {
const cacheKey = `user:${userId}`;
// 1. Controlla la cache KV
const cached = await env.CACHE.get<User>(cacheKey, 'json');
if (cached) {
return cached; // Cache hit: risposta da KV < 1ms
}
// 2. Cache miss: fetch dall'origine
const user = await fetchUserFromDatabase(userId);
if (!user) return null;
// 3. Popola la cache (eventually consistent, ok per profili utente)
await env.CACHE.put(cacheKey, JSON.stringify(user), {
expirationTtl: 300, // 5 minuti
});
return user;
}
| Charakteristický | KV detail |
|---|---|
| Model konzistence | Nakonec konzistentní (propagace maximálně 60 s) |
| Latence čtení | < 1 ms (od místního PoP po zahřátí) |
| Latence zápisu | ~100 ms (potvrzení), asynchronní globální replikace |
| Maximální velikost hodnoty | 25 MB na hodnotu |
| Maximální velikost klíče | 512 bajtů |
| Náklady na čtení | 0,50 $ za milion (zdarma: 10 milionů měsíčně) |
| Náklady na psaní | 5 $ za milion (zdarma: 1 milion měsíčně) |
| Ideální pro | Konfigurace, příznaky funkcí, úložiště relací, mezipaměť API |
| Nevhodné pro | Čítače v reálném čase, data, která se mění každou sekundu |
Cloudflare R2: S3-kompatibilní objektové úložiště bez výstupního poplatku
R2 je produkt, který při svém uvedení na trh v roce 2022 vyvolal největší hluk: úložiště objektů kompatibilní s AWS S3 API, s nulové výstupní náklady. Na S3, Přenos 1 TB dat na internet stojí ~90 USD. Na R2 je to zdarma.
R2 je ideální pro: nahrávání uživatelských souborů, statických aktiv, záloh, archivovaných protokolů, jakýkoli binární objekt, který potřebuje načíst prohlížeče nebo jiní pracovníci.
Konfigurace R2 v wrangler.toml
# wrangler.toml
[[r2_buckets]]
binding = "ASSETS" # Nome del binding TypeScript
bucket_name = "my-assets" # Nome del bucket in Cloudflare
# Per creare il bucket:
# wrangler r2 bucket create my-assets
R2 API v TypeScript
// src/services/storage.service.ts
export interface Env {
ASSETS: R2Bucket;
}
// -------- UPLOAD --------
// Upload di testo semplice
await env.ASSETS.put('documents/readme.txt', 'Contenuto del file', {
httpMetadata: { contentType: 'text/plain; charset=utf-8' },
customMetadata: { uploadedBy: 'user-123', version: '1' },
});
// Upload di JSON
const data = { users: [{ id: 1, name: 'Mario' }] };
await env.ASSETS.put('data/users.json', JSON.stringify(data), {
httpMetadata: { contentType: 'application/json' },
});
// Upload di un file binario da una Request (multipart form)
async function handleFileUpload(request: Request, env: Env): Promise<Response> {
const formData = await request.formData();
const file = formData.get('file') as File | null;
if (!file) {
return new Response('No file provided', { status: 400 });
}
// Genera un nome unico per evitare collisioni
const key = `uploads/${Date.now()}-${file.name}`;
await env.ASSETS.put(key, file.stream(), {
httpMetadata: {
contentType: file.type,
contentLength: file.size,
},
customMetadata: {
originalName: file.name,
uploadedAt: new Date().toISOString(),
},
});
return Response.json({ key, size: file.size, type: file.type });
}
// -------- DOWNLOAD --------
async function serveAsset(key: string, env: Env): Promise<Response> {
const object = await env.ASSETS.get(key);
if (!object) {
return new Response('Not Found', { status: 404 });
}
// Leggi i metadata HTTP
const headers = new Headers();
object.writeHttpMetadata(headers);
headers.set('etag', object.httpEtag);
// Aggiungi headers di caching appropriati
headers.set('Cache-Control', 'public, max-age=31536000, immutable');
return new Response(object.body, { headers });
}
// -------- LISTING --------
async function listUploads(prefix: string, env: Env) {
const listed = await env.ASSETS.list({
prefix: `uploads/${prefix}`,
limit: 100,
// cursor: paginationCursor // per paginare
});
return listed.objects.map(obj => ({
key: obj.key,
size: obj.size,
uploaded: obj.uploaded.toISOString(),
etag: obj.etag,
customMetadata: obj.customMetadata,
}));
}
// -------- DELETE --------
await env.ASSETS.delete('uploads/old-file.txt');
// Delete multiplo (fino a 1000 chiavi)
await env.ASSETS.delete(['file1.txt', 'file2.txt', 'file3.txt']);
// -------- HEAD: verifica esistenza senza download --------
const headResult = await env.ASSETS.head('uploads/documento.pdf');
if (headResult) {
console.log('Size:', headResult.size);
console.log('Uploaded:', headResult.uploaded);
}
R2 s veřejným přístupem a předdefinovanou adresou URL
// Pattern: servire file pubblicamente tramite Worker con access control
export default {
async fetch(request: Request, env: Env): Promise<Response> {
const url = new URL(request.url);
// URL pattern: /files/{key}
const key = url.pathname.replace('/files/', '');
if (!key) {
return new Response('Key required', { status: 400 });
}
// Implementa qui la tua logica di autenticazione/autorizzazione
const authorized = await checkAccess(request, key, env);
if (!authorized) {
return new Response('Forbidden', { status: 403 });
}
// Gestisci il conditional request (ETag/If-None-Match)
const etag = request.headers.get('If-None-Match');
const object = await env.ASSETS.get(key, {
onlyIf: etag ? { etagDoesNotMatch: etag } : undefined,
range: request.headers.get('Range') ?? undefined,
});
if (!object) {
// Potrebbe essere 404 o 304 Not Modified
const head = await env.ASSETS.head(key);
if (!head) return new Response('Not Found', { status: 404 });
return new Response(null, { status: 304, headers: { etag: head.httpEtag } });
}
const headers = new Headers();
object.writeHttpMetadata(headers);
headers.set('etag', object.httpEtag);
if (object.range) {
headers.set('Content-Range', `bytes ${object.range.offset}-${
(object.range.offset ?? 0) + (object.range.length ?? 0) - 1
}/${object.size}`);
return new Response(object.body, { status: 206, headers });
}
return new Response(object.body, { headers });
},
};
D1 SQLite: Relační databáze na okraji
D1 je nejnovější a nejambicióznější produkt: nativní SQLite na okraji. Kompletní relační databáze s JOINy, transakcemi, komplexními dotazy, vším přístupný pracovníkům bez připojení ke studenému startu, bez výstupního poplatku, s automatickou replikací do všech PoP.
D1 používá SQLite interně a replikuje jej do regionálních datových center Cloudflare. Zápisy jdou do primárního uzlu (možná konzistence pro repliky), čtení mohou sloužit jako lokální replika pro minimální latenci.
Konfigurace D1 v wrangler.toml
# wrangler.toml
[[d1_databases]]
binding = "DB"
database_name = "mio-database"
database_id = "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx"
# Per creare il database:
# wrangler d1 create mio-database
Migrace a schéma s D1
# Crea il file di migration
wrangler d1 migrations create mio-database "create users table"
# Crea: migrations/0001_create_users_table.sql
# migrations/0001_create_users_table.sql
-- migrations/0001_create_users_table.sql
CREATE TABLE IF NOT EXISTS users (
id INTEGER PRIMARY KEY AUTOINCREMENT,
email TEXT UNIQUE NOT NULL,
name TEXT NOT NULL,
role TEXT NOT NULL DEFAULT 'user',
created_at DATETIME DEFAULT CURRENT_TIMESTAMP,
updated_at DATETIME DEFAULT CURRENT_TIMESTAMP
);
CREATE INDEX IF NOT EXISTS idx_users_email ON users(email);
CREATE INDEX IF NOT EXISTS idx_users_role ON users(role);
CREATE TABLE IF NOT EXISTS sessions (
id TEXT PRIMARY KEY,
user_id INTEGER NOT NULL REFERENCES users(id) ON DELETE CASCADE,
expires_at DATETIME NOT NULL,
created_at DATETIME DEFAULT CURRENT_TIMESTAMP
);
CREATE INDEX IF NOT EXISTS idx_sessions_user_id ON sessions(user_id);
CREATE INDEX IF NOT EXISTS idx_sessions_expires ON sessions(expires_at);
# Applica le migration in locale (wrangler dev)
wrangler d1 migrations apply mio-database --local
# Applica le migration in produzione
wrangler d1 migrations apply mio-database
D1 API v TypeScript: Přímé dotazy
// src/services/user.service.ts
export interface Env {
DB: D1Database;
}
interface User {
id: number;
email: string;
name: string;
role: string;
created_at: string;
}
// -------- SELECT --------
// Query prepared statement (SEMPRE usare prepared statements: previene SQL injection)
async function getUserById(id: number, env: Env): Promise<User | null> {
const result = await env.DB
.prepare('SELECT * FROM users WHERE id = ?')
.bind(id)
.first<User>();
return result;
}
// SELECT multipli
async function getUsersByRole(role: string, env: Env): Promise<User[]> {
const { results } = await env.DB
.prepare('SELECT id, email, name, role, created_at FROM users WHERE role = ? ORDER BY created_at DESC')
.bind(role)
.all<User>();
return results;
}
// SELECT con pagination
async function getUsers(page: number, pageSize: number, env: Env) {
const offset = (page - 1) * pageSize;
const [{ results }, { total }] = await Promise.all([
env.DB
.prepare('SELECT * FROM users LIMIT ? OFFSET ?')
.bind(pageSize, offset)
.all<User>(),
env.DB
.prepare('SELECT COUNT(*) as total FROM users')
.first<{ total: number }>()
.then(r => r ?? { total: 0 }),
]);
return {
users: results,
pagination: { page, pageSize, total: total.total, totalPages: Math.ceil(total.total / pageSize) },
};
}
// -------- INSERT --------
async function createUser(
email: string,
name: string,
env: Env,
): Promise<User> {
const result = await env.DB
.prepare('INSERT INTO users (email, name) VALUES (?, ?) RETURNING *')
.bind(email, name)
.first<User>();
if (!result) {
throw new Error('Failed to create user');
}
return result;
}
// -------- UPDATE --------
async function updateUser(id: number, updates: Partial<Pick<User, 'name' | 'role'>>, env: Env) {
const setClauses: string[] = [];
const values: (string | number)[] = [];
if (updates.name !== undefined) {
setClauses.push('name = ?');
values.push(updates.name);
}
if (updates.role !== undefined) {
setClauses.push('role = ?');
values.push(updates.role);
}
if (setClauses.length === 0) return;
setClauses.push('updated_at = CURRENT_TIMESTAMP');
values.push(id);
await env.DB
.prepare(`UPDATE users SET ${setClauses.join(', ')} WHERE id = ?`)
.bind(...values)
.run();
}
// -------- TRANSAZIONI (batch) --------
async function createUserWithSession(
email: string,
name: string,
sessionId: string,
expiresAt: Date,
env: Env,
): Promise<User> {
// D1 supporta batch per eseguire piu statement in una singola round-trip
const [userResult] = await env.DB.batch([
env.DB
.prepare('INSERT INTO users (email, name) VALUES (?, ?) RETURNING *')
.bind(email, name),
env.DB
.prepare('INSERT INTO sessions (id, user_id, expires_at) VALUES (?, last_insert_rowid(), ?)')
.bind(sessionId, expiresAt.toISOString()),
]);
const user = userResult.results[0] as User;
return user;
}
D1 s mrholením ORM: Typ Bezpečnost dokončena
Drizzle ORM nativně podporuje D1 a nabízí vynikající vývojářskou zkušenost s automatickým odvozením typu ze schématu:
// npm install drizzle-orm
// npm install -D drizzle-kit @types/better-sqlite3
// src/db/schema.ts
import { sqliteTable, text, integer } from 'drizzle-orm/sqlite-core';
import { sql } from 'drizzle-orm';
export const users = sqliteTable('users', {
id: integer('id').primaryKey({ autoIncrement: true }),
email: text('email').unique().notNull(),
name: text('name').notNull(),
role: text('role', { enum: ['user', 'admin', 'moderator'] }).default('user').notNull(),
createdAt: text('created_at').default(sql`CURRENT_TIMESTAMP`),
});
export const sessions = sqliteTable('sessions', {
id: text('id').primaryKey(),
userId: integer('user_id').notNull().references(() => users.id, { onDelete: 'cascade' }),
expiresAt: text('expires_at').notNull(),
createdAt: text('created_at').default(sql`CURRENT_TIMESTAMP`),
});
// Tipi TypeScript inferiti dallo schema
export type User = typeof users.$inferSelect;
export type NewUser = typeof users.$inferInsert;
// src/db/index.ts
import { drizzle } from 'drizzle-orm/d1';
import * as schema from './schema';
export function createDb(d1: D1Database) {
return drizzle(d1, { schema });
}
// src/services/user.drizzle.service.ts
import { eq, desc, count } from 'drizzle-orm';
import { createDb } from '../db';
import { users, type User, type NewUser } from '../db/schema';
export async function getUserById(id: number, env: { DB: D1Database }): Promise<User | undefined> {
const db = createDb(env.DB);
return db.select().from(users).where(eq(users.id, id)).get();
}
export async function createUser(data: NewUser, env: { DB: D1Database }): Promise<User> {
const db = createDb(env.DB);
const [user] = await db.insert(users).values(data).returning();
return user;
}
export async function getAdminUsers(env: { DB: D1Database }): Promise<User[]> {
const db = createDb(env.DB);
return db.select()
.from(users)
.where(eq(users.role, 'admin'))
.orderBy(desc(users.createdAt))
.all();
}
Srovnání: KV vs R2 vs D1
| Kritérium | Dělníci KV | R2 | D1 SQLite |
|---|---|---|---|
| Typ dat | Pár klíč–hodnota (řetězec/blob) | Binární objekty (soubory) | Relační (tabulky SQL) |
| Konzistence | Nakonec konzistentní | Případný (silný s dělníky) | Silný (primární), eventuální (replika) |
| Možnosti dotazování | Pouze získat/vložit/smazat pomocí klíče | Pouze získat/vložit/smazat pomocí klíče | Plné SQL: JOINy, agregace, indexy |
| Maximální velikost | 25 MB na hodnotu | 5 TB na položku | 10 GB (beta: 2 GB) |
| Náklady na skladování | 0,50 $/GB/měsíc | 0,015 $/GB/měsíc | 0,75 $/GB/měsíc |
| Náklady na operace | 5 $/M zápis, 0,50 $/M čtení | 4,50 $/M zápis, 0,36 $/M čtení | 0,001 $/M řádek zápis, $0,001/M řádek čtení |
| Latence čtení | < 1 ms (z mezipaměti PoP) | ~10–50 ms (z úložiště) | ~1-5 ms (jednoduché dotazy) |
| Ideální případy použití | Sessions, config, API cache | Nahrajte soubory, aktiva, zálohy | Aplikace CRUD, katalog, uživatelé |
Pokročilý vzor: KV jako mezipaměťová vrstva pro D1
Efektivní vzor kombinuje D1 (autoritativní data) s KV (rychlá mezipaměť):
// src/services/cached-user.service.ts
export interface Env {
DB: D1Database;
CACHE: KVNamespace;
}
const USER_CACHE_TTL = 300; // 5 minuti
export async function getUserCached(userId: number, env: Env) {
const cacheKey = `user:v2:${userId}`;
// 1. Controlla KV cache prima (sub-ms)
const cached = await env.CACHE.get<User>(cacheKey, 'json');
if (cached) return cached;
// 2. Miss: leggi da D1 (query SQL)
const user = await getUserById(userId, env);
if (!user) return null;
// 3. Popola la cache KV in background (non blocca la risposta)
// (usa ctx.waitUntil() nel fetch handler per non bloccare)
await env.CACHE.put(cacheKey, JSON.stringify(user), {
expirationTtl: USER_CACHE_TTL,
});
return user;
}
export async function invalidateUserCache(userId: number, env: Env): Promise<void> {
await env.CACHE.delete(`user:v2:${userId}`);
}
// Quando aggiorni un utente, invalida la cache
export async function updateUserAndInvalidate(
userId: number,
updates: Partial<User>,
env: Env,
): Promise<void> {
await updateUser(userId, updates, env);
await invalidateUserCache(userId, env);
}
Závěry a další kroky
Výběr vrstvy úložiště závisí na typu dat: KV pro páry klíč–hodnota s vysokou rychlostí čtení a nízkou rychlostí zápisu, R2 pro binární soubory a aktiva, D1 pro strukturovaná data se složitými vztahy a dotazy. V mnoha aplikacích skutečné budete používat všechny tři v kombinaci.
Další články v seriálu
- Článek 4: Odolné předměty — Silně konzistentní stav a WebSocket: když KV nestačí a potřebujete konzistenci silná a distribuovaná koordinace.
- Článek 5: Workers AI — Odvození LLM a Vision Models Straight to the Edge: Jak spouštět modely AI v Workers pomocí vazby AI.
- Článek 10: Full-Stack Architectures at the Edge – jeden případ Kompletní studie kombinující Workers + D1 + R2 + CI/CD s akcemi GitHub.







