diff options
| author | murilo ijanc | 2026-03-24 21:41:06 -0300 |
|---|---|---|
| committer | murilo ijanc | 2026-03-24 21:41:06 -0300 |
| commit | f186b71ca51e83837db60de13322394bb5e6d348 (patch) | |
| tree | cd7940eaa16b83d2cde7b18123411bfb161f7ebb /pt-br/news/phase4-performance-tuning/index.html | |
| download | website-f186b71ca51e83837db60de13322394bb5e6d348.tar.gz | |
Initial commit
Import existing tesseras.net website content.
Diffstat (limited to 'pt-br/news/phase4-performance-tuning/index.html')
| -rw-r--r-- | pt-br/news/phase4-performance-tuning/index.html | 169 |
1 files changed, 169 insertions, 0 deletions
diff --git a/pt-br/news/phase4-performance-tuning/index.html b/pt-br/news/phase4-performance-tuning/index.html new file mode 100644 index 0000000..528224d --- /dev/null +++ b/pt-br/news/phase4-performance-tuning/index.html @@ -0,0 +1,169 @@ +<!DOCTYPE html> +<html lang="pt-br"> +<head> + <meta charset="utf-8"> + <meta name="viewport" content="width=device-width, initial-scale=1"> + <title>Fase 4: Tuning de Performance — Tesseras</title> + <meta name="description" content="SQLite em modo WAL com configuracao centralizada de pragmas, cache LRU de fragmentos, gerenciamento de ciclo de vida do pool de conexoes QUIC e otimizacao do hot path de atestacao."> + <!-- Open Graph --> + <meta property="og:type" content="article"> + <meta property="og:title" content="Fase 4: Tuning de Performance"> + <meta property="og:description" content="SQLite em modo WAL com configuracao centralizada de pragmas, cache LRU de fragmentos, gerenciamento de ciclo de vida do pool de conexoes QUIC e otimizacao do hot path de atestacao."> + <meta property="og:image" content="https://tesseras.net/images/social.jpg"> + <meta property="og:image:width" content="1200"> + <meta property="og:image:height" content="630"> + <meta property="og:site_name" content="Tesseras"> + <!-- Twitter Card --> + <meta name="twitter:card" content="summary_large_image"> + <meta name="twitter:title" content="Fase 4: Tuning de Performance"> + <meta name="twitter:description" content="SQLite em modo WAL com configuracao centralizada de pragmas, cache LRU de fragmentos, gerenciamento de ciclo de vida do pool de conexoes QUIC e otimizacao do hot path de atestacao."> + <meta name="twitter:image" content="https://tesseras.net/images/social.jpg"> + <link rel="stylesheet" href="https://tesseras.net/style.css?h=21f0f32121928ee5c690"> + + + <link rel="alternate" type="application/atom+xml" title="Tesseras" href="https://tesseras.net/atom.xml"> + + + <link rel="icon" type="image/png" sizes="32x32" href="https://tesseras.net/images/favicon.png?h=be4e123a23393b1a027d"> + +</head> +<body> + <header> + <h1> + <a href="https://tesseras.net/pt-br/"> + <img src="https://tesseras.net/images/logo-64.png?h=c1b8d0c4c5f93b49d40b" alt="Tesseras" width="40" height="40" class="logo"> + Tesseras + </a> + </h1> + <nav> + + <a href="https://tesseras.net/pt-br/about/">Sobre</a> + <a href="https://tesseras.net/pt-br/news/">Notícias</a> + <a href="https://tesseras.net/pt-br/releases/">Lançamentos</a> + <a href="https://tesseras.net/pt-br/faq/">FAQ</a> + <a href="https://tesseras.net/pt-br/subscriptions/">Inscrições</a> + <a href="https://tesseras.net/pt-br/contact/">Contato</a> + + </nav> + <nav class="lang-switch"> + + <a href="https://tesseras.net/news/phase4-performance-tuning/">English</a> | <strong>Português</strong> + + </nav> + </header> + + <main> + +<article> + <h2>Fase 4: Tuning de Performance</h2> + <p class="news-date">2026-02-15</p> + <p>Uma rede P2P que atravessa NATs mas engasga com seu proprio I/O nao serve de +muito. A Fase 4 continua com tuning de performance: centralizacao da +configuracao do banco de dados, cache de blobs de fragmentos em memoria, +gerenciamento de ciclo de vida de conexoes QUIC e eliminacao de leituras +desnecessarias de disco no hot path de atestacao.</p> +<p>O principio orientador foi o mesmo do resto do Tesseras: fazer a coisa mais +simples que realmente funciona. Sem alocadores customizados, sem estruturas de +dados lock-free, sem complexidade prematura. Um <code>StorageConfig</code> centralizado, um +cache LRU, um reaper de conexoes e uma correcao pontual para evitar reler blobs +que ja tinham checksum calculado.</p> +<h2 id="o-que-foi-construido">O que foi construido</h2> +<p><strong>Configuracao SQLite centralizada</strong> (<code>tesseras-storage/src/database.rs</code>) — Um +novo struct <code>StorageConfig</code> e funcoes <code>open_database()</code> / <code>open_in_memory()</code> que +aplicam todos os pragmas SQLite em um unico lugar: journal mode WAL, foreign +keys, modo synchronous (NORMAL por padrao, FULL para hardware instavel como +RPi + cartao SD), busy timeout, tamanho do cache de paginas e intervalo de +autocheckpoint WAL. Anteriormente, cada ponto de chamada abria uma conexao e +aplicava pragmas ad hoc. Agora o daemon, CLI e testes passam todos pelo mesmo +caminho. 7 testes cobrindo foreign keys, busy timeout, journal mode, migracoes, +modos synchronous e criacao de arquivos WAL em disco.</p> +<p><strong>Cache LRU de fragmentos</strong> (<code>tesseras-storage/src/cache.rs</code>) — Um +<code>CachedFragmentStore</code> que envolve qualquer <code>FragmentStore</code> com um cache LRU +ciente de bytes. Blobs de fragmentos sao cacheados na leitura e invalidados na +escrita ou exclusao. Quando o cache excede seu limite de bytes configurado, as +entradas menos recentemente usadas sao removidas. O cache e transparente: ele +proprio implementa <code>FragmentStore</code>, entao o resto da pilha nao sabe que esta la. +Metricas Prometheus opcionais rastreiam hits, misses e uso atual de bytes. 3 +testes: hit no cache evita leitura interna, store invalida cache, remocao quando +excede bytes maximos.</p> +<p><strong>Metricas Prometheus de storage</strong> (<code>tesseras-storage/src/metrics.rs</code>) — Um +struct <code>StorageMetrics</code> com tres contadores/gauges: <code>fragment_cache_hits</code>, +<code>fragment_cache_misses</code> e <code>fragment_cache_bytes</code>. Registrado no registry +Prometheus e conectado ao cache de fragmentos via <code>with_metrics()</code>.</p> +<p><strong>Correcao do hot path de atestacao</strong> (<code>tesseras-replication/src/service.rs</code>) — +O fluxo de atestacao anteriormente lia cada blob de fragmento do disco e +recalculava seu checksum BLAKE3. Como <code>list_fragments()</code> ja retorna <code>FragmentId</code> +com um checksum armazenado, a correcao e trivial: usar <code>frag.checksum</code> ao inves +de <code>blake3::hash(&data)</code>. Isso elimina uma leitura de disco por fragmento +durante atestacao — para uma tessera com 100 fragmentos, sao 100 leituras a +menos. Um teste com <code>expect_read_fragment().never()</code> verifica que nenhuma +leitura de blob acontece durante atestacao.</p> +<p><strong>Ciclo de vida do pool de conexoes QUIC</strong> +(<code>tesseras-net/src/quinn_transport.rs</code>) — Um struct <code>PoolConfig</code> controlando +maximo de conexoes, timeout de inatividade e intervalo do reaper. +<code>PooledConnection</code> envolve cada <code>quinn::Connection</code> com um timestamp +<code>last_used</code>. Quando o pool atinge capacidade maxima, a conexao inativa mais +antiga e removida antes de abrir uma nova. Uma tarefa reaper em background +(Tokio spawn) periodicamente fecha conexoes que ficaram inativas alem do +timeout. 4 novas metricas de pool: <code>tesseras_conn_pool_size</code>, <code>pool_hits_total</code>, +<code>pool_misses_total</code>, <code>pool_evictions_total</code>.</p> +<p><strong>Integracao no daemon</strong> (<code>tesd/src/config.rs</code>, <code>main.rs</code>) — Uma nova secao +<code>[performance]</code> na configuracao TOML com campos para tamanho de cache SQLite, +modo synchronous, busy timeout, tamanho de cache de fragmentos, maximo de +conexoes, timeout de inatividade e intervalo do reaper. O <code>main()</code> do daemon +agora chama <code>open_database()</code> com o <code>StorageConfig</code> configurado, envolve +<code>FsFragmentStore</code> com <code>CachedFragmentStore</code> e vincula QUIC com o <code>PoolConfig</code> +configurado. A dependencia direta de <code>rusqlite</code> foi removida do crate do daemon.</p> +<p><strong>Migracao do CLI</strong> (<code>tesseras-cli/src/commands/init.rs</code>, <code>create.rs</code>) — Ambos +os comandos <code>init</code> e <code>create</code> agora usam <code>tesseras_storage::open_database()</code> com +o <code>StorageConfig</code> padrao ao inves de abrir conexoes <code>rusqlite</code> diretamente. A +dependencia de <code>rusqlite</code> foi removida do crate do CLI.</p> +<h2 id="decisoes-de-arquitetura">Decisoes de arquitetura</h2> +<ul> +<li><strong>Padrao decorator para cache</strong>: <code>CachedFragmentStore</code> envolve +<code>Box<dyn FragmentStore></code> e implementa <code>FragmentStore</code> ele proprio. Isso +significa que cache e opt-in, composavel e invisivel para consumidores. O +daemon habilita; testes podem pular.</li> +<li><strong>Remocao ciente de bytes</strong>: o cache LRU rastreia bytes totais, nao contagem +de entradas. Blobs de fragmentos variam muito em tamanho (um fragmento de +texto de 4KB vs um shard de foto de 2MB), entao contar entradas daria uma +visao enganosa do uso de memoria.</li> +<li><strong>Sem crate de pool de conexoes</strong>: ao inves de trazer uma biblioteca generica +de pool, o pool de conexoes e um wrapper fino sobre +<code>DashMap<SocketAddr, PooledConnection></code> com um reaper Tokio. Conexoes QUIC sao +multiplexadas, entao o "pool" e realmente sobre gerenciamento de ciclo de vida +(limpeza de inativos, maximo de conexoes) e nao sobre emprestar/devolver.</li> +<li><strong>Checksums armazenados ao inves de releituras</strong>: a correcao de atestacao e +intencionalmente minima — uma linha alterada, uma leitura de disco removida +por fragmento. Os checksums ja estavam armazenados no SQLite por +<code>store_fragment()</code>, apenas nao estavam sendo usados.</li> +<li><strong>Configuracao centralizada de pragmas</strong>: um unico struct <code>StorageConfig</code> +substitui chamadas <code>PRAGMA</code> espalhadas. O flag <code>sqlite_synchronous_full</code> +existe especificamente para implantacoes em Raspberry Pi onde o kernel pode +crashar e perder transacoes WAL nao checkpointadas.</li> +</ul> +<h2 id="o-que-vem-a-seguir">O que vem a seguir</h2> +<ul> +<li><strong>Fase 4 continuacao</strong> — Shamir's Secret Sharing para herdeiros, tesseras +seladas (criptografia time-lock), auditorias de seguranca, onboarding de nos +institucionais, deduplicacao de storage, empacotamento para OS</li> +<li><strong>Fase 5: Exploracao e Cultura</strong> — navegador publico de tesseras por +era/localizacao/tema/idioma, curadoria institucional, integracao genealogica, +exportacao para midia fisica (M-DISC, microfilme, papel livre de acido com QR)</li> +</ul> +<p>Com tuning de performance implementado, Tesseras lida com o caso comum de forma +eficiente: leituras de fragmentos acertam o cache LRU, atestacao pula I/O de +disco, conexoes QUIC inativas sao removidas automaticamente e o SQLite e +configurado consistentemente em toda a pilha. Os proximos passos focam em +funcionalidades criptograficas (Shamir, time-lock) e hardening para implantacao +em producao.</p> + +</article> + + </main> + + <footer> + <p>© 2026 Tesseras Project. <a href="/atom.xml">News Feed</a> · <a href="https://git.sr.ht/~ijanc/tesseras">Source</a></p> + </footer> +</body> +</html> |