
Data + AI Summit 2025: O que as últimas atualizações do Databricks significam para a execução
-
Escrito por
-
CategoriaDatabricks - SP
-
Data de publicação18 de junho de 2025
O 2025 Data + AI Summit marcou um claro ponto de virada na forma como a Databricks posiciona sua plataforma. O que antes era uma coleção das melhores ferramentas da categoria para engenharia de dados e aprendizado de máquina agora forma uma plataforma unificada e nativa de IA para a criação de aplicativos completos de dados e IA. Os lançamentos de produtos, do Lakebase ao Agent Bricks, demonstram essa mudança.
Veja abaixo um resumo dos principais anúncios e as primeiras observações sobre como esses lançamentos podem afetar a forma como as equipes criam, automatizam e controlam produtos de dados em escala.
1. Lakebase: Cargas de trabalho em tempo real, integradas de forma nativa
O Lakebase é um banco de dados compatível com PostgreSQL e totalmente gerenciado, otimizado para análises em tempo real e aplicativos nativos de IA. Criado com base na arquitetura nativa da nuvem do Neon, ele oferece desempenho de baixa latência e alta taxa de transferência, tudo isso com sincronização nativa com as ferramentas Delta Lake, Unity Catalog e Databricks AI/BI.
Por que isso muda a execução: Aplicativos em tempo real, como detecção de fraudes, verificação de KYC ou precificação dinâmica, normalmente exigem infraestrutura adicional fora do lakehouse. O Lakebase preenche essa lacuna. Sua integração com o Delta Lake, o Unity Catalog e o Databricks Apps simplifica as operações e reforça a governança.
2. Agent Bricks: Uma interface para o desenvolvimento de agentes de IA
O Agent Bricks oferece uma interface declarativa para criar, otimizar e implementar agentes de IA. Ele automatiza as principais etapas, como geração de dados sintéticos, ajuste imediato e avaliação, com forte integração à plataforma Databricks.
Por que isso é importante para a implementação de IA: A IA agêntica geralmente exige trabalho sob medida em ferramentas desconectadas. O Agent Bricks elimina essa complexidade sem limitar a personalização. As equipes que trabalham em copilotos de IA ou assistentes específicos de domínio alcançam a produção mais rapidamente com a orquestração de vários agentes e o suporte ao MLflow 3.0.
3. Lakeflow e Pipelines Declarativos: Do código do pipeline à intenção do pipeline
O Lakeflow consolida a ingestão, a transformação, a orquestração e o monitoramento de dados em uma única experiência gerenciada. Ele inclui conectores nativos, fluxos de controle e criação de pipelines declarativos. Os pipelines declarativos enfatizam a intenção em vez da implementação, o que reduz significativamente o esforço de engenharia.
Por que isso melhora a velocidade da engenharia? Os pipelines de dados geralmente introduzem dívidas técnicas e fragmentação. Paradigmas declarativos, orquestração nativa e ferramentas assistidas por IA trazem consistência e reutilização. Isso reflete um impulso mais amplo em direção a sistemas com pouco código e produtos de dados modulares.
4. Lakebridge: Orientado por IA e parte da aceleração de integração do Lakehouse
A Lakebridge acelera a modernização do sistema legado automatizando até 80% do processo de migração - desde a conversão de código e validação de dados até a avaliação do legado e o acompanhamento do progresso - sem taxas de licenciamento.
Criada com tecnologia aprimorada por IA e incorporada ao Databricks, a Lakebridge permite transições rápidas, compatíveis e de baixo risco para a arquitetura Lakehouse.
Isso acelera a integração da plataforma: As migrações de legados costumam ser a barreira mais significativa para a adoção. O Lakebridge elimina essa barreira, permitindo que as organizações migrem de mainframes, data warehouses legados ou sistemas locais sem reescrever todos os pipelines ou pagar por ferramentas caras.
Ele oferece suporte a migrações nativas para plataformas de dados de risco, sistemas de relatórios regulatórios e arquiteturas de dados de clientes, permitindo uma adoção mais rápida da Lakehouse, sem bloqueio e atrito.
5. Métricas do Unity Catalog: Definição de métricas como código
Com o Unity Catalog Metrics, o Databricks apresenta métricas de negócios centralizadas e definidas em YAML como elementos de primeira classe dentro da plataforma. As equipes podem consultar essas métricas diretamente em ferramentas de BI como Looker, Tableau e Power BI.
Isso reduz o atrito dos relatórios: Equipes diferentes geralmente usam definições de KPI ligeiramente diferentes. O Unity Catalog centraliza a lógica da métrica com linhagem e governança completas, padronizando os fluxos de trabalho de análise e acelerando a tomada de decisões.
6. IA/BI: Interfaces nativas de IA para business intelligence
AI/BI une interfaces de dashboard e busca em linguagem natural para criar uma experiência de analytics conversacional. Os recursos incluem dashboards com funcionalidade de arrastar e soltar e o AI/BI Genie, uma interface baseada em chat para consultas e explicações.
Isso acelera a adoção do insight: A adoção do BI permanece baixa devido a barreiras técnicas. A IA/BI reduz a barreira aos insights governados, impulsiona o uso entre as equipes de negócios e reduz os gargalos para as equipes de dados centrais.
7. Databricks Apps: Aplicações nativas em dados, sem servidor
Databricks Apps introduz um ambiente sem servidor para criação e implantação de aplicações baseadas em dados. Ele oferece suporte a frameworks como Streamlit e Flask, inclui templates prontos e opera dentro dos limites de governança do Databricks.
Por que isso libera valor comercial: Muitas equipes não conseguem transformar os insights em ferramentas operacionais. A implantação de aplicativos nativos fecha a lacuna entre a análise e os fluxos de trabalho diários, sem sair da plataforma.
8. Databricks One: consumo unificado de métricas, aplicativos e agentes
Databricks One é uma interface centralizada que reúne dashboards, métricas, copilotos e aplicações de dados em um único workspace governado. Construída sobre o Unity Catalog, ela unifica acesso, linhagem e uso entre usuários de negócio e técnicos.
Por que isso muda a execução: Transforma ativos fragmentados em produtos reutilizáveis, reduzindo o atrito entre as equipes de dados e os usuários corporativos. Ao consolidar métricas, agentes e aplicativos, ele permite um consumo mais rápido de insights, melhor governança e uma experiência mais orientada para o produto.
9. Free Edition: Diminuindo a barreira para a experimentação de dados e IA
A Free Edition oferece uma versão sem custo da plataforma Databricks para usuários individuais e pequenas equipes explorarem dados, criarem pipelines e testarem cargas de trabalho de IA com computação limitada.
Por que isso muda a execução: Ele reduz a barreira de entrada para treinamento, prototipagem e integração. As organizações podem usá-lo para experimentação, capacitação de desenvolvedores cidadãos e programas de treinamento - acelerando a familiaridade com o Databricks sem investimento inicial.
Um stack de dados unificado requer uma execução melhor
Esses anúncios representam mais do que atualizações de funcionalidades. Eles definem uma estratégia de plataforma focada na convergência entre IA, analytics e desenvolvimento de aplicações. O Databricks agora oferece uma base unificada e potencializada por IA para equipes que desenvolvem sistemas prontos para produção.
Para as equipes de dados, o objetivo mudou. O sucesso agora depende de gerenciar sistemas que raciocinam, se adaptam e escalam — e não apenas de construir pipelines ou implantar modelos. A stack moderna evolui rápido, e a execução precisa acompanhar esse ritmo.
Como a Indicium transforma potencial em resultado real
A Databricks estabeleceu as bases para fluxos de trabalho inteligentes, governados e automatizados. Mas funcionalidades, por si só, não geram valor. A execução sim.
É aí que entra a Indicium: preparamos os dados, a governança e a arquitetura que tornam essas inovações utilizáveis. E criamos os copilotos, os pipelines e os produtos que os transformam em resultados.
Com os nossos IndiMesh AI Migration Agents — incluindo o Assessment Agent, Master Planner Agent, Prompt2Pipeline Agent e Audit Agent — ajudamos as equipes a sair da complexidade legada e alcançar uma execução preparada para IA.
Veja como conectamos os pontos:
Lakebase: Permitimos produtos de dados em tempo real - desde fluxos de integração até a detecção de fraudes - criados com base em conjuntos de dados confiáveis e prontos para IA.
Agent Bricks: Apoiamos as equipes na criação de copilotos com pontos de controle e lógica comercial incorporados, permitindo casos de uso como pontuação de fraude ou análises de risco interno, com governança e capacidade de auditoria incorporadas.
Lakeflow + Pipelines Declarativos: Permitimos o desenvolvimento de pipelines governados com design modular e observabilidade, facilitando o dimensionamento e a manutenção dos fluxos de trabalho.
Métricas do Unity Catalog: Aplicamos estruturas de governança para definir métricas consistentes e reutilizáveis, alinhando as equipes e acelerando a análise.
IA/BI (Genie): Fornecemos copilotos de linguagem natural que levam os dados para a linha de frente, permitindo que os usuários perguntem, ajam e decidam mais rapidamente.
Databricks Apps: Ajudamos as equipes a transformar insights em ferramentas operacionais - lançando aplicativos governados como assistentes de preços, painéis 360 ou copilotos de serviços dentro da Lakehouse.
Lakebridge + Agente Prompt2Pipeline: Usamos o Lakebridge para automatizar a migração de SQL e metadados de sistemas legados, e o Prompt2Pipeline Agent para converter a lógica legada em fluxos de trabalho limpos e fáceis de manter no Lakehouse.
Cada acelerador foi criado para encurtar a implementação, aumentar a confiabilidade e ajudar as equipes a gerar valor com Databricks mais rápido.
Sobre a Indicium
A Indicium é uma líder global em serviços de dados e IA, criada para ajudar empresas a resolver os desafios que importam agora e se preparar para o que vem a seguir. Com um investimento de 40 milhões de dólares e um time com mais de 450 profissionais certificados, entregamos soluções completas ao longo de todo o ciclo de vida dos dados. Nosso framework proprietário com IA, o IndiMesh, impulsiona cada projeto com inteligência coletiva, expertise comprovada e rigor no controle de qualidade. Líderes de mercado como PepsiCo e Bayer confiam na Indicium para transformar desafios complexos de dados em resultados duradouros.

Sirish Peddinti
Mantenha-se conectado
Receba as últimas atualizações e notícias diretamente em sua caixa de entrada.