NOVOAgentic Data Platform · v1.0 beta

Pipelines de dados que corrigem a si mesmos.

Deploy one-click de pipelines Medallion no Databricks, com um agente Claude autônomo que diagnostica falhas e abre PRs no GitHub enquanto você conversa com seus dados no chat.

app.flowertex.com/deployments/dep-5f9e2
Validate credentials2.2s
Create AWS S3 bucket1.8s
Provision IAM role1.2s
Setup Unity Catalogrunning...
Upload notebooks
Create workflow

Como funciona

Quatro produtos. Um único fluxo.

Cada card abaixo mostra exatamente o que você vai ver dentro da plataforma. Sem diagramas abstratos.

Deploy em tempo real

Saga com 10 etapas atômicas e logs em streaming

Cada deploy provisiona AWS + Databricks em 10 passos. Você vê tudo ao vivo via SSE sem precisar abrir terminal.

/deployments/dep-5f9e2
LIVE
Validate credentials2.2s
Create S3 bucket1.8s
IAM role + policy1.2s
Databricks secrets2.1s
Setup Unity Catalog
6
Upload notebooks
7
Create workflow
8
Deploy Observer
9
Trigger first run
10
Register pipeline

Observer Agent

Run quebra. Claude conserta.

Falhou? O agente analisa logs, código e schema, propõe fix e abre PR no GitHub.

bronze_ingestion falhou

OutOfMemoryError: GC limit

14:32

Claude Opus analisou

Causa raiz: pandas+boto3 no driver. confiança: 94%

14:33

PR #15 aberto

fix/agent-auto-bronze-oom

14:34
Custo total: $0.21Tempo: 2min

Chat multi-canal

WhatsApp. Discord. Telegram.

Mesma conversa, qualquer canal. Slash commands e streaming em todos.

/status bronze
SUCCESS às 15:18, 153k linhas
PR #15 já mergeou?
Sim, rodou novamente OK.
WhatsApp
Discord
Telegram

PR automático

O fix vem pronto. Você só revisa.

Cada diagnóstico vira um PR no GitHub com diff testado via ruff e validado antes de abrir.

fix/agent-auto-bronze-oom · pipeline_lib/storage/s3_client.py
✓ ruff passed PR #15
142 def read_parquet(self, prefix: str) -> DataFrame:
143 """Read Parquet from S3 to Spark DataFrame."""
144 import boto3
145 import pandas as pd
146 s3 = boto3.client('s3')
147 df = pd.read_parquet(f's3://{bucket}/{prefix}')
146+ bucket = self.config['s3_bucket']
147+ path = f's3a://{bucket}/{prefix}'
148+ return spark.read.parquet(path)
149
+3 adições−4 remoções
confiança 94%

Sua plataforma em números

Tudo medido. Nada opaco.

Custo de tokens, PRs automáticos, taxa de sucesso e economia por dedup — tudo agregado em tempo real.

Deploys / sem

47

+12% vs 7d
Taxa de sucesso

96.4%

+2.1% vs 7d
PRs automáticos

19

+6 vs 7d
Custo / mês

$4.82

-18% vs 7d

Muito mais que pipelines e agentes.

Explorar tudo
Slash commands
Webhooks HMAC
Schema evolution
Dedup de diagnósticos
Dry-run mode
Multi-file fixes
Feedback loop
RBAC multi-tenant
Controle de custos
Rollback Delta

Você leu a página inteira. O que está esperando?

Sem custos iniciais. Sem contato com vendas. Pague apenas pelos runs que usar.