Blog Post
18 Jun 2025

Data + AI Summit 2025: atualizações da Databricks e impacto na execução

Written by:
Indicium AI

O Data + AI Summit 2025 marcou um ponto de virada claro na forma como a Databricks posiciona sua plataforma. O que antes era um conjunto de ferramentas de ponta para engenharia de dados e aprendizado de máquina agora se apresenta como uma plataforma unificada, nativa em IA, voltada à construção de aplicações completas de dados e IA. Os lançamentos de produtos, de Lakebase a Agent Bricks, evidenciam essa mudança.

A seguir, um resumo dos principais anúncios e observações iniciais sobre como essas novidades podem impactar a forma como as equipes constroem, automatizam e governam produtos de dados em escala.

1. Lakebase: cargas em tempo real, com integração nativa

O Lakebase é um banco de dados totalmente gerenciado, compatível com PostgreSQL, otimizado para análises em tempo real e aplicações nativas em IA. Construído sobre a arquitetura nativa em nuvem da Neon, oferece baixa latência e alta taxa de processamento, com sincronização nativa com Delta Lake, Unity Catalog e as ferramentas de AI/BI do Databricks.

Por que isso muda a execução: aplicações em tempo real, como detecção de fraude, verificação de KYC ou precificação dinâmica, normalmente exigem infraestrutura adicional fora do lakehouse. O Lakebase fecha essa lacuna. Sua integração com Delta Lake, Unity Catalog e Databricks Apps simplifica a operação e reforça a governança.

2. Agent Bricks: uma interface para o desenvolvimento de agentes de IA

O Agent Bricks oferece uma interface declarativa para criar, otimizar e implantar agentes de IA. Ele automatiza etapas-chave como geração de dados sintéticos, ajuste de prompts e avaliação, com integração profunda à plataforma Databricks.

Por que isso importa para a implantação de IA: IA agentiva costuma exigir trabalho sob medida em ferramentas desconectadas. Agent Bricks elimina essa complexidade sem limitar a personalização. Equipes que desenvolvem copilotos de IA ou assistentes específicos de domínio chegam à produção mais rápido, com orquestração multiagente e suporte ao MLflow 3.0.

3. Lakeflow e Pipelines Declarativos: do código da pipeline à intenção da pipeline

O Lakeflow consolida ingestão, transformação, orquestração e monitoramento de dados em uma experiência única e gerenciada. Inclui conectores nativos, fluxos de controle e autoria declarativa de pipelines. As Pipelines Declarativas priorizam a intenção em vez da implementação, reduzindo significativamente o esforço de engenharia.

Por que isso aumenta a velocidade da engenharia: pipelines de dados frequentemente geram dívida técnica e fragmentação. Paradigmas declarativos, orquestração nativa e ferramentas assistidas por IA trazem consistência e reutilização. Isso reflete um movimento mais amplo em direção a sistemas de baixo código e produtos de dados modulares.

4. Lakebridge: aceleração da modernização com IA no onboarding do Lakehouse

O Lakebridge acelera a modernização de sistemas legados ao automatizar até 80% do processo de migração, da conversão de código e validação de dados à avaliação do legado e acompanhamento do progresso, sem custos de licenciamento.

Construído com tecnologia aprimorada por IA e incorporado à Databricks, o Lakebridge viabiliza transições rápidas, compatíveis e de baixo risco para a arquitetura Lakehouse.

Como isso acelera a integração da plataforma: migrações de sistemas legados costumam ser a maior barreira à adoção. Lakebridge elimina esse obstáculo, permitindo que organizações migrem de mainframes, data warehouses legados ou sistemas on-premises sem reescrever todas as pipelines ou pagar por ferramentas caras.

Ele oferece suporte a migrações nativas para plataformas de dados de risco, sistemas de reporte regulatório e arquiteturas de dados de clientes, permitindo uma adoção mais rápida do Lakehouse, sem dependência ou fricção.

5. Unity Catalog Metrics: métricas definidas como código

Com o Unity Catalog Metrics, a Databricks introduz métricas de negócio centralizadas, definidas em YAML, como elementos de primeira classe na plataforma. As equipes podem consultar essas métricas diretamente em ferramentas de BI como Looker, Tableau e Power BI.

Como isso reduz atritos em relatórios: equipes diferentes costumam usar definições ligeiramente distintas de KPIs. O Unity Catalog centraliza a lógica das métricas com linhagem completa e governança, padronizando os fluxos analíticos e acelerando a tomada de decisão.

6. AI/BI: interfaces nativas em IA para inteligência de negócios

AI/BI unifica interfaces de dashboards e busca em linguagem natural para criar uma experiência analítica conversacional. Entre os recursos estão dashboards com arrastar e soltar e o AI/BI Genie, uma interface baseada em chat para consulta e explicação.

Como isso acelera a adoção de insights: a adoção de BI costuma ser baixa por barreiras técnicas. O AI/BI reduz o atrito para acesso governado a insights, amplia o uso entre as áreas de negócio e diminui gargalos para as equipes centrais de dados.

7. Databricks Apps: aplicações serverless e nativas em dados

Databricks Apps introduz um ambiente serverless para construir e implantar aplicações de dados. Ele oferece suporte a frameworks como Streamlit e Flask, inclui modelos pré-construídos e opera dentro dos limites de governança do Databricks.

Por que isso destrava valor para o negócio: muitas equipes não conseguem transformar insights em ferramentas operacionais. A implantação nativa de apps fecha a lacuna entre análises e fluxos de trabalho do dia a dia, sem sair da plataforma.

8. Databricks One: consumo unificado de métricas, apps e agentes

Databricks One é uma interface centralizada que reúne dashboards, métricas, copilotos e aplicações de dados em um único espaço de trabalho governado. Construído sobre o Unity Catalog, unifica acesso, linhagem e uso entre usuários técnicos e de negócio.

Por que isso muda a execução: transforma ativos fragmentados em produtos reutilizáveis, reduzindo o atrito entre equipes de dados e áreas de negócio. Ao consolidar métricas, agentes e apps, permite consumo mais rápido de insights, melhor governança e uma experiência mais orientada a produto.

9. Free Edition: reduzindo a barreira para experimentação em dados e IA

A Free Edition oferece uma versão gratuita da plataforma Databricks para usuários individuais e pequenas equipes explorarem dados, criarem pipelines e testarem cargas de IA com capacidade computacional limitada.

Por que isso muda a execução: reduz a barreira de entrada para treinamento, prototipagem e onboarding. Organizações podem usá-la para experimentação, capacitação de desenvolvedores cidadãos e programas de treinamento, acelerando a familiaridade com a Databricks sem investimento inicial.

Um stack unificado exige melhor execução

Esses anúncios representam mais do que atualizações de funcionalidades. Eles definem uma estratégia de plataforma focada na convergência entre IA, análises e desenvolvimento de aplicações. O Databricks agora oferece uma base unificada e orientada por IA para equipes que criam sistemas em produção.

Para as equipes de dados, o objetivo mudou. O sucesso agora depende de gerenciar sistemas que raciocinam, se adaptam e escalam, não apenas de construir pipelines ou implantar modelos. A pilha moderna evolui rápido, e a execução precisa acompanhar.

Como a Indicium coloca essas novidades em produção

A Databricks preparou o terreno para fluxos de trabalho inteligentes, governados e automatizados. Mas funcionalidades, por si só, não geram valor, a execução gera. 

É aí que a Indicium entra: preparamos dados, governança e arquitetura para tornar essas inovações utilizáveis. E construímos os copilotos, pipelines e produtos que as transformam em resultados.

Por meio dos nossos IndiMesh AI Migration Agents, incluindo o Assessment Agent, Master Planner Agent, Prompt2Pipeline Agent e Audit Agent, ajudamos as equipes a sair da complexidade legada e chegar a uma execução pronta para IA.

Veja como conectamos os pontos:

  • Lakebase: viabilizamos produtos de dados em tempo real, de fluxos de onboarding à detecção de fraude, construídos sobre conjuntos de dados confiáveis e prontos para IA.
  • Agent Bricks: apoiamos as equipes no desenho de copilotos com pontos de controle e lógica de negócio embutidos, viabilizando casos como pontuação de fraude ou revisões internas de risco, com governança e auditabilidade desde o início.
  • Lakeflow + Pipelines Declarativas: viabilizamos o desenvolvimento governado de pipelines com design modular e observabilidade, tornando os fluxos mais fáceis de escalar e manter.
  • Unity Catalog Metrics: aplicamos estruturas de governança para definir métricas consistentes e reutilizáveis, alinhando equipes e acelerando análises.
  • AI/BI (Genie): entregamos copilotos em linguagem natural que levam os dados à linha de frente, permitindo que usuários perguntem, ajam e decidam com mais rapidez.
  • Databricks Apps: ajudamos equipes a transformar insights em ferramentas operacionais, lançando apps governados como assistentes de precificação, dashboards 360 ou copilotos de atendimento dentro do Lakehouse.
  • Lakebridge + Prompt2Pipeline Agent: usamos o Lakebridge para automatizar a migração de SQL e metadados de sistemas legados e o Prompt2Pipeline Agent para converter lógica antiga em fluxos limpos e sustentáveis no Lakehouse.

Cada acelerador tem como objetivo reduzir o tempo de implementação, aumentar a confiabilidade e ajudar as equipes a extrair valor do Databricks com mais rapidez.

Newsletter

Stay Updated with the Latest Insights

Subscribe to our newsletter for the latest blog posts, case studies, and industry reports straight to your inbox.