diff options
| author | murilo ijanc | 2026-03-24 21:45:05 -0300 |
|---|---|---|
| committer | murilo ijanc | 2026-03-24 21:45:05 -0300 |
| commit | 01c17c68277ff88fab812920732d9bbe9e6bb571 (patch) | |
| tree | 035398ae34263b981b621c6275835d2cc6847d57 /pt-br/news/phase4-performance-tuning/index.html | |
| parent | f186b71ca51e83837db60de13322394bb5e6d348 (diff) | |
| download | website-01c17c68277ff88fab812920732d9bbe9e6bb571.tar.gz | |
Remove old Zola-generated content, keep only the essential
landing page with about, contact, and license sections.
Diffstat (limited to 'pt-br/news/phase4-performance-tuning/index.html')
| -rw-r--r-- | pt-br/news/phase4-performance-tuning/index.html | 169 |
1 files changed, 0 insertions, 169 deletions
diff --git a/pt-br/news/phase4-performance-tuning/index.html b/pt-br/news/phase4-performance-tuning/index.html deleted file mode 100644 index 528224d..0000000 --- a/pt-br/news/phase4-performance-tuning/index.html +++ /dev/null @@ -1,169 +0,0 @@ -<!DOCTYPE html> -<html lang="pt-br"> -<head> - <meta charset="utf-8"> - <meta name="viewport" content="width=device-width, initial-scale=1"> - <title>Fase 4: Tuning de Performance — Tesseras</title> - <meta name="description" content="SQLite em modo WAL com configuracao centralizada de pragmas, cache LRU de fragmentos, gerenciamento de ciclo de vida do pool de conexoes QUIC e otimizacao do hot path de atestacao."> - <!-- Open Graph --> - <meta property="og:type" content="article"> - <meta property="og:title" content="Fase 4: Tuning de Performance"> - <meta property="og:description" content="SQLite em modo WAL com configuracao centralizada de pragmas, cache LRU de fragmentos, gerenciamento de ciclo de vida do pool de conexoes QUIC e otimizacao do hot path de atestacao."> - <meta property="og:image" content="https://tesseras.net/images/social.jpg"> - <meta property="og:image:width" content="1200"> - <meta property="og:image:height" content="630"> - <meta property="og:site_name" content="Tesseras"> - <!-- Twitter Card --> - <meta name="twitter:card" content="summary_large_image"> - <meta name="twitter:title" content="Fase 4: Tuning de Performance"> - <meta name="twitter:description" content="SQLite em modo WAL com configuracao centralizada de pragmas, cache LRU de fragmentos, gerenciamento de ciclo de vida do pool de conexoes QUIC e otimizacao do hot path de atestacao."> - <meta name="twitter:image" content="https://tesseras.net/images/social.jpg"> - <link rel="stylesheet" href="https://tesseras.net/style.css?h=21f0f32121928ee5c690"> - - - <link rel="alternate" type="application/atom+xml" title="Tesseras" href="https://tesseras.net/atom.xml"> - - - <link rel="icon" type="image/png" sizes="32x32" href="https://tesseras.net/images/favicon.png?h=be4e123a23393b1a027d"> - -</head> -<body> - <header> - <h1> - <a href="https://tesseras.net/pt-br/"> - <img src="https://tesseras.net/images/logo-64.png?h=c1b8d0c4c5f93b49d40b" alt="Tesseras" width="40" height="40" class="logo"> - Tesseras - </a> - </h1> - <nav> - - <a href="https://tesseras.net/pt-br/about/">Sobre</a> - <a href="https://tesseras.net/pt-br/news/">Notícias</a> - <a href="https://tesseras.net/pt-br/releases/">Lançamentos</a> - <a href="https://tesseras.net/pt-br/faq/">FAQ</a> - <a href="https://tesseras.net/pt-br/subscriptions/">Inscrições</a> - <a href="https://tesseras.net/pt-br/contact/">Contato</a> - - </nav> - <nav class="lang-switch"> - - <a href="https://tesseras.net/news/phase4-performance-tuning/">English</a> | <strong>Português</strong> - - </nav> - </header> - - <main> - -<article> - <h2>Fase 4: Tuning de Performance</h2> - <p class="news-date">2026-02-15</p> - <p>Uma rede P2P que atravessa NATs mas engasga com seu proprio I/O nao serve de -muito. A Fase 4 continua com tuning de performance: centralizacao da -configuracao do banco de dados, cache de blobs de fragmentos em memoria, -gerenciamento de ciclo de vida de conexoes QUIC e eliminacao de leituras -desnecessarias de disco no hot path de atestacao.</p> -<p>O principio orientador foi o mesmo do resto do Tesseras: fazer a coisa mais -simples que realmente funciona. Sem alocadores customizados, sem estruturas de -dados lock-free, sem complexidade prematura. Um <code>StorageConfig</code> centralizado, um -cache LRU, um reaper de conexoes e uma correcao pontual para evitar reler blobs -que ja tinham checksum calculado.</p> -<h2 id="o-que-foi-construido">O que foi construido</h2> -<p><strong>Configuracao SQLite centralizada</strong> (<code>tesseras-storage/src/database.rs</code>) — Um -novo struct <code>StorageConfig</code> e funcoes <code>open_database()</code> / <code>open_in_memory()</code> que -aplicam todos os pragmas SQLite em um unico lugar: journal mode WAL, foreign -keys, modo synchronous (NORMAL por padrao, FULL para hardware instavel como -RPi + cartao SD), busy timeout, tamanho do cache de paginas e intervalo de -autocheckpoint WAL. Anteriormente, cada ponto de chamada abria uma conexao e -aplicava pragmas ad hoc. Agora o daemon, CLI e testes passam todos pelo mesmo -caminho. 7 testes cobrindo foreign keys, busy timeout, journal mode, migracoes, -modos synchronous e criacao de arquivos WAL em disco.</p> -<p><strong>Cache LRU de fragmentos</strong> (<code>tesseras-storage/src/cache.rs</code>) — Um -<code>CachedFragmentStore</code> que envolve qualquer <code>FragmentStore</code> com um cache LRU -ciente de bytes. Blobs de fragmentos sao cacheados na leitura e invalidados na -escrita ou exclusao. Quando o cache excede seu limite de bytes configurado, as -entradas menos recentemente usadas sao removidas. O cache e transparente: ele -proprio implementa <code>FragmentStore</code>, entao o resto da pilha nao sabe que esta la. -Metricas Prometheus opcionais rastreiam hits, misses e uso atual de bytes. 3 -testes: hit no cache evita leitura interna, store invalida cache, remocao quando -excede bytes maximos.</p> -<p><strong>Metricas Prometheus de storage</strong> (<code>tesseras-storage/src/metrics.rs</code>) — Um -struct <code>StorageMetrics</code> com tres contadores/gauges: <code>fragment_cache_hits</code>, -<code>fragment_cache_misses</code> e <code>fragment_cache_bytes</code>. Registrado no registry -Prometheus e conectado ao cache de fragmentos via <code>with_metrics()</code>.</p> -<p><strong>Correcao do hot path de atestacao</strong> (<code>tesseras-replication/src/service.rs</code>) — -O fluxo de atestacao anteriormente lia cada blob de fragmento do disco e -recalculava seu checksum BLAKE3. Como <code>list_fragments()</code> ja retorna <code>FragmentId</code> -com um checksum armazenado, a correcao e trivial: usar <code>frag.checksum</code> ao inves -de <code>blake3::hash(&data)</code>. Isso elimina uma leitura de disco por fragmento -durante atestacao — para uma tessera com 100 fragmentos, sao 100 leituras a -menos. Um teste com <code>expect_read_fragment().never()</code> verifica que nenhuma -leitura de blob acontece durante atestacao.</p> -<p><strong>Ciclo de vida do pool de conexoes QUIC</strong> -(<code>tesseras-net/src/quinn_transport.rs</code>) — Um struct <code>PoolConfig</code> controlando -maximo de conexoes, timeout de inatividade e intervalo do reaper. -<code>PooledConnection</code> envolve cada <code>quinn::Connection</code> com um timestamp -<code>last_used</code>. Quando o pool atinge capacidade maxima, a conexao inativa mais -antiga e removida antes de abrir uma nova. Uma tarefa reaper em background -(Tokio spawn) periodicamente fecha conexoes que ficaram inativas alem do -timeout. 4 novas metricas de pool: <code>tesseras_conn_pool_size</code>, <code>pool_hits_total</code>, -<code>pool_misses_total</code>, <code>pool_evictions_total</code>.</p> -<p><strong>Integracao no daemon</strong> (<code>tesd/src/config.rs</code>, <code>main.rs</code>) — Uma nova secao -<code>[performance]</code> na configuracao TOML com campos para tamanho de cache SQLite, -modo synchronous, busy timeout, tamanho de cache de fragmentos, maximo de -conexoes, timeout de inatividade e intervalo do reaper. O <code>main()</code> do daemon -agora chama <code>open_database()</code> com o <code>StorageConfig</code> configurado, envolve -<code>FsFragmentStore</code> com <code>CachedFragmentStore</code> e vincula QUIC com o <code>PoolConfig</code> -configurado. A dependencia direta de <code>rusqlite</code> foi removida do crate do daemon.</p> -<p><strong>Migracao do CLI</strong> (<code>tesseras-cli/src/commands/init.rs</code>, <code>create.rs</code>) — Ambos -os comandos <code>init</code> e <code>create</code> agora usam <code>tesseras_storage::open_database()</code> com -o <code>StorageConfig</code> padrao ao inves de abrir conexoes <code>rusqlite</code> diretamente. A -dependencia de <code>rusqlite</code> foi removida do crate do CLI.</p> -<h2 id="decisoes-de-arquitetura">Decisoes de arquitetura</h2> -<ul> -<li><strong>Padrao decorator para cache</strong>: <code>CachedFragmentStore</code> envolve -<code>Box<dyn FragmentStore></code> e implementa <code>FragmentStore</code> ele proprio. Isso -significa que cache e opt-in, composavel e invisivel para consumidores. O -daemon habilita; testes podem pular.</li> -<li><strong>Remocao ciente de bytes</strong>: o cache LRU rastreia bytes totais, nao contagem -de entradas. Blobs de fragmentos variam muito em tamanho (um fragmento de -texto de 4KB vs um shard de foto de 2MB), entao contar entradas daria uma -visao enganosa do uso de memoria.</li> -<li><strong>Sem crate de pool de conexoes</strong>: ao inves de trazer uma biblioteca generica -de pool, o pool de conexoes e um wrapper fino sobre -<code>DashMap<SocketAddr, PooledConnection></code> com um reaper Tokio. Conexoes QUIC sao -multiplexadas, entao o "pool" e realmente sobre gerenciamento de ciclo de vida -(limpeza de inativos, maximo de conexoes) e nao sobre emprestar/devolver.</li> -<li><strong>Checksums armazenados ao inves de releituras</strong>: a correcao de atestacao e -intencionalmente minima — uma linha alterada, uma leitura de disco removida -por fragmento. Os checksums ja estavam armazenados no SQLite por -<code>store_fragment()</code>, apenas nao estavam sendo usados.</li> -<li><strong>Configuracao centralizada de pragmas</strong>: um unico struct <code>StorageConfig</code> -substitui chamadas <code>PRAGMA</code> espalhadas. O flag <code>sqlite_synchronous_full</code> -existe especificamente para implantacoes em Raspberry Pi onde o kernel pode -crashar e perder transacoes WAL nao checkpointadas.</li> -</ul> -<h2 id="o-que-vem-a-seguir">O que vem a seguir</h2> -<ul> -<li><strong>Fase 4 continuacao</strong> — Shamir's Secret Sharing para herdeiros, tesseras -seladas (criptografia time-lock), auditorias de seguranca, onboarding de nos -institucionais, deduplicacao de storage, empacotamento para OS</li> -<li><strong>Fase 5: Exploracao e Cultura</strong> — navegador publico de tesseras por -era/localizacao/tema/idioma, curadoria institucional, integracao genealogica, -exportacao para midia fisica (M-DISC, microfilme, papel livre de acido com QR)</li> -</ul> -<p>Com tuning de performance implementado, Tesseras lida com o caso comum de forma -eficiente: leituras de fragmentos acertam o cache LRU, atestacao pula I/O de -disco, conexoes QUIC inativas sao removidas automaticamente e o SQLite e -configurado consistentemente em toda a pilha. Os proximos passos focam em -funcionalidades criptograficas (Shamir, time-lock) e hardening para implantacao -em producao.</p> - -</article> - - </main> - - <footer> - <p>© 2026 Tesseras Project. <a href="/atom.xml">News Feed</a> · <a href="https://git.sr.ht/~ijanc/tesseras">Source</a></p> - </footer> -</body> -</html> |