Edição #189.2025
Faaaaaala, galera! No episódio do IA Hoje dessa terça-feira, 8 de julho de 2025, temos um dia que define os contornos da nova economia da inteligência artificial, marcada por uma consolidação massiva de infraestrutura, uma reestruturação fundamental das regras da web e uma escalada na guerra geopolítica pela supremacia tecnológica. A principal manchete é a megafusão de US$ 9 bilhões entre a CoreWeave e a Core Scientific, um movimento que cria um titã de infraestrutura e sinaliza que o controle sobre energia e data centers é a nova fronteira da competição em IA. Em paralelo, a Cloudflare abala os alicerces da internet ao decidir bloquear rastreadores de IA por padrão, forçando um novo modelo de "pagar para treinar" que devolve o poder aos criadores de conteúdo. A guerra fria dos chips também se intensifica, com os Estados Unidos planejando novas restrições de exportação para a Malásia e a Tailândia, numa tentativa de fechar as rotas de desvio de semicondutores para a China. Enquanto isso, o cenário de governança amadurece: o Senado dos EUA rejeita uma moratória sobre leis estaduais de IA, abrindo caminho para uma regulamentação mais complexa, e a Anthropic propõe um novo framework de transparência. No Brasil, acompanhamos o avanço do ecossistema com empresas acelerando investimentos e aplicando IA em nichos de alto valor, como a prevenção de fraudes. Para fechar, no nosso Glossário Relâmpago, vamos desmistificar o que é "Computação Confidencial", uma tecnologia crucial para a segurança na era da IA.
🎯 Os destaques de hoje
Fusão de US$9 bi cria titã da infraestrutura de IA: A CoreWeave compra a Core Scientific, um movimento de verticalização para controlar a energia e os data centers que alimentam a revolução da IA.
Cloudflare muda as regras da web: A empresa passa a bloquear rastreadores de IA por padrão, forçando um novo modelo econômico de "pagar para treinar" e devolvendo o poder aos criadores de conteúdo.
EUA apertam o cerco na guerra dos chips: A Casa Branca planeja novas restrições de exportação para Malásia e Tailândia, buscando fechar as rotas de desvio de semicondutores para a China.
O fim da "terra de ninguém" regulatória: O Senado dos EUA rejeita uma moratória sobre leis estaduais de IA, abrindo caminho para um cenário de governança mais complexo e fragmentado.
🇧🇷 Panorama Brasil
📈 Empresas Brasileiras Aceleram Investimentos em IA
O mercado brasileiro de inteligência artificial está transitando de uma fase de experimentação para uma de integração estratégica, impulsionado por resultados financeiros concretos. Uma nova pesquisa da IBM revela que 78% das empresas no Brasil planejam aumentar seus investimentos em IA ao longo de 2025. Este dado, por si só, já seria significativo, mas ele é contextualizado por um fator ainda mais importante: 48% das companhias que já implementaram projetos de IA relataram um retorno financeiro positivo (ROI) sobre esses investimentos.
Essa validação financeira é o sinal mais claro de que a tecnologia deixou de ser um item de despesa em pesquisa e desenvolvimento para se tornar um motor de receita e eficiência. A percepção de valor é reforçada por um estudo da Bain & Company, que mostra que 67% das empresas brasileiras já consideram a IA uma das suas cinco principais prioridades estratégicas. O movimento indica que a fase de "projetos piloto" está chegando ao fim. As empresas não estão mais apenas testando a tecnologia para entender seu potencial; elas estão dobrando a aposta e escalando sua aplicação em processos de negócio essenciais. A consequência direta é uma demanda acelerada e crescente por talentos qualificados em IA, por infraestrutura computacional robusta e, crucialmente, por soluções de governança que possam gerenciar os riscos associados a essa implementação em larga escala, criando um ecossistema doméstico cada vez mais dinâmico e autossuficiente.
🔗 Leia na íntegra: TrendsCE
🛡️ AcertPix Despliega Agentes de IA para Prevenção de Fraudes
Enquanto as manchetes globais se concentram em grandes modelos de linguagem de propósito geral, o ecossistema brasileiro de IA demonstra sua maturidade através da especialização. A idtech paulista AcertPix, focada em prevenção de fraudes, anunciou a contratação de Daniel Didoné como seu novo diretor de produtos, com a missão de impulsionar o desenvolvimento de agentes de IA. A empresa está lançando a "Skia", uma plataforma alimentada por IA para comunicação via imagem, voz e texto, com o objetivo estratégico de se tornar referência em agentes de IA para o mercado de prevenção a fraudes.
Este caso é emblemático por várias razões. Primeiro, ele mostra a aplicação da IA em um nicho de alto valor, onde o retorno sobre o investimento é claro e mensurável — a empresa já preveniu mais de R$ 1 bilhão em fraudes com seus algoritmos existentes. Segundo, a AcertPix não está tentando construir um "ChatGPT brasileiro", mas sim aplicando a tecnologia para resolver um problema de negócio específico e complexo, que exige um profundo conhecimento do contexto local, utilizando um acervo de mais de 3 mil regras de verificação documental de todos os estados brasileiros. Isso indica a formação de um mercado de "longa cauda" para a IA no Brasil, onde o valor econômico real pode vir de centenas de aplicações verticais e especializadas, em vez de um único modelo generalista. A aposta em agentes de IA, que podem executar tarefas de forma autônoma, também sinaliza que o mercado nacional está acompanhando as tendências de fronteira da tecnologia.
🔗 Leia na íntegra: Baguete
🌐 Cúpula do Brics no Brasil Pede Governança Global para IA
A 17ª Cúpula do Brics, realizada no Rio de Janeiro, consolidou a inteligência artificial como um pilar central da geopolítica e das relações internacionais. Durante o evento, o Secretário-Geral da ONU, António Guterres, fez um apelo direto ao bloco para que apoie a criação de uma ordem multilateral justa e inclusiva para a governança da IA. Em um movimento alinhado, as nações do Brics, com forte protagonismo do Brasil como anfitrião, propuseram formalmente que a ONU assuma a liderança no estabelecimento de frameworks globais para a tecnologia.
Esta iniciativa é uma manobra estratégica clara para criar um contrapeso ao atual cenário de governança, que é amplamente percebido como dominado por gigantes da tecnologia ocidentais e seus respectivos governos, notadamente os Estados Unidos e a União Europeia. A linguagem diplomática utilizada, focada em "acesso equitativo" e "representação mais ampla", traduz uma tentativa de deslocar o centro de gravidade da tomada de decisões sobre o futuro da IA para o Sul Global. Guterres anunciou ainda que apresentará em breve um relatório com opções para o financiamento voluntário da capacitação em IA nos países em desenvolvimento, pedindo o apoio do Brics nesse esforço. A proposta transforma o debate sobre governança de IA de uma questão puramente técnica ou ética para um componente central da nova ordem mundial multipolar, onde o controle sobre as regras da tecnologia é visto como uma forma de poder e soberania.
🔗 Leia na íntegra: UN News e Crescendo
🚀 Negócios & Startups
🏗️ CoreWeave Adquire Core Scientific por US$9 Bilhões em Mega-Acordo de Infraestrutura
A CoreWeave, um dos principais provedores de nuvem especializada para IA, anunciou a aquisição da Core Scientific, uma gigante da infraestrutura de data centers, em uma transação de ações avaliada em aproximadamente US$ 9 bilhões. Este acordo monumental é um dos sinais mais claros da "re-physicalização" da indústria de tecnologia, onde o controle sobre ativos físicos — energia, terra e data centers — está se tornando a vantagem competitiva definitiva na era da IA. A fusão dará à CoreWeave a propriedade direta de 1.3 GW de capacidade de energia, com potencial para mais 1 GW de expansão, eliminando mais de US$ 10 bilhões em futuras obrigações de arrendamento e projetando uma economia de custos anual de US$ 500 milhões até 2027.
A estratégia por trás do acordo é a verticalização. Ao comprar a Core Scientific, a CoreWeave deixa de ser uma inquilina que aluga espaço e energia para se tornar proprietária da "fábrica" e do "combustível" da economia da IA. Este movimento cria um fosso competitivo quase intransponível. A escala de capital envolvida torna praticamente impossível para startups ou empresas menores competirem no nível da infraestrutura fundamental. Isso sugere que a revolução da IA, ao contrário das revoluções da web ou do mobile que foram impulsionadas por inovações em garagens, será dominada por um pequeno número de "barões computacionais" — entidades com capital massivo e controle sobre a infraestrutura física. A reação inicial do mercado foi de cautela, com as ações de ambas as empresas caindo após o anúncio, refletindo a percepção do alto risco de execução e do endividamento assumido pela CoreWeave. No entanto, a lógica estratégica de longo prazo é clara: em um mundo faminto por computação, quem controla a energia e os data centers, controla o futuro da IA.
🔗 Leia na íntegra: CoreWeave News e HPCwire
वेब Cloudflare Bloqueia Crawlers de IA por Padrão, Forçando um Novo Modelo Econômico para a Web
A Cloudflare, empresa cuja infraestrutura gerencia o tráfego de cerca de 20% de toda a internet, anunciou uma mudança de política que pode reestruturar fundamentalmente a economia da web. A partir de agora, a empresa passará a bloquear rastreadores (crawlers) de IA por padrão em todos os novos sites que se juntarem à sua rede. Simultaneamente, está lançando um programa piloto chamado "Pay Per Crawl", um modelo que permite aos proprietários de conteúdo cobrar das empresas de IA pelo acesso aos seus dados para fins de treinamento.
Esta não é apenas uma atualização técnica; é o fim do "almoço grátis" para a indústria de IA e o nascimento forçado de um novo contrato social para a internet. Por décadas, o modelo implícito da web foi "conteúdo em troca de tráfego". As empresas de IA generativa quebraram esse pacto ao extrair o valor do conteúdo sem gerar tráfego de volta, canibalizando a audiência e a receita dos publishers originais. A solução anterior, o arquivo
robots.txt, era uma mera sugestão que muitos rastreadores de IA simplesmente ignoravam. A ação da Cloudflare é diferente: é um bloqueio rígido no nível da infraestrutura, uma barreira que não pode ser ignorada.
Ao criar um portão e, ao mesmo tempo, oferecer a chave ("Pay Per Crawl"), a Cloudflare está efetivamente estabelecendo as bases para um mercado de dados programático. O poder está sendo devolvido aos criadores de conteúdo, que agora podem controlar o acesso e definir um preço. Isso força as empresas de IA a uma escolha: pagar pelo acesso, encontrar fontes de dados alternativas (como dados sintéticos) ou enfrentar um "deserto de dados" em uma parte significativa da web. A consequência mais provável é a "API-ficação" da web, onde o conteúdo é tratado como uma mercadoria com preço, acessível através de APIs, transformando para sempre como os modelos de IA são construídos e como o conteúdo online é monetizado.
🔗 Leia na íntegra: SD Times e Search Engine Land
💸 Google Workspace Simplifica Preços e Inclui IA em Planos Padrão
O Google anunciou uma mudança estratégica significativa em seu modelo de negócios para o Workspace, sua suíte de produtividade. A empresa está incluindo suas melhores funcionalidades de IA, como o acesso ao modelo Gemini Advanced e à ferramenta de pesquisa NotebookLM Plus, diretamente em seus planos padrão Business e Enterprise, sem a necessidade de uma assinatura adicional. A mudança, que entra em vigor em 7 de julho de 2025 para clientes de pequeno porte, representa uma aposta na comoditização da IA generativa como um diferencial competitivo.
Enquanto concorrentes como a Microsoft posicionaram seus assistentes de IA, como o Copilot, como um produto premium com um custo adicional significativo, a abordagem do Google é diferente. A empresa está tratando a IA não como um produto separado a ser vendido, mas como uma característica fundamental que torna sua plataforma principal mais valiosa e "pegajosa". É uma jogada clássica de guerra de plataformas: usar a escala para absorver os custos de inferência da IA e oferecê-la como um valor agregado, com o objetivo de acelerar a adoção em massa e vencer a competição pelo domínio do ambiente de trabalho digital. Esta estratégia pressiona toda a indústria a reavaliar seus preços, podendo levar a uma "corrida para o fundo" no custo de ferramentas de IA para produtividade. Para o usuário final, a IA deixa de ser um luxo para se tornar uma camada invisível e esperada no software que já utiliza, transformando o "sistema operacional para o trabalho" em um ambiente intrinsecamente inteligente.
🔗 Leia na íntegra: Google Workspace Blog
🔬 Pesquisa & Desenvolvimento
🔐 Paper da IBM/Ohio State Desmistifica e Expõe Vulnerabilidades na Computação Confidencial de GPUs NVIDIA
Uma nova pesquisa técnica da IBM Research e da Ohio State University lança luz sobre a segurança da arquitetura Hopper da NVIDIA, especificamente sua implementação de Computação Confidencial (Confidential Computing) para GPUs. O estudo, intitulado "NVIDIA GPU Confidential Computing Demystified", conseguiu identificar fraquezas de segurança e potenciais exploits no sistema ao instrumentar o único componente de código aberto disponível, o módulo do kernel. A pesquisa destaca a dificuldade de auditar sistemas proprietários e sinaliza que a corrida pela segurança em IA está se deslocando para o nível do hardware.
A Computação Confidencial é uma tecnologia projetada para proteger dados enquanto eles estão em uso, criando um "enclave seguro" (Trusted Execution Environment - TEE) diretamente no processador. Isso é vital para a IA, pois permite que modelos e dados sensíveis sejam processados na nuvem com a garantia de que nem mesmo o provedor de nuvem pode acessá-los. O trabalho da IBM e da Ohio State demonstra que, mesmo com essa proteção de hardware, vulnerabilidades podem existir. Isso implica que a segurança na era da IA não pode se basear apenas na confiança em "caixas-pretas" de hardware. A descoberta de falhas potenciais em um sistema tão fundamental como o GPU-CC da NVIDIA, que sustenta grande parte da infraestrutura de IA do mundo, inaugura uma nova e sofisticada corrida armamentista. De um lado, estão os fabricantes de hardware criando enclaves cada vez mais seguros; do outro, pesquisadores de segurança buscando ativamente por falhas. Para as empresas, a lição é clara: a segurança da IA exige uma auditoria técnica contínua e profunda, que vai do software ao silício, criando um novo mercado para especialistas em segurança de hardware.
🔗 Leia na íntegra: Semiconductor Engineering
🛡️ PyTorch Lança Suporte a FSDP2 em Biblioteca de Privacidade Opacus
A equipe de desenvolvimento do PyTorch anunciou uma atualização crucial para sua biblioteca focada em privacidade, a Opacus. A nova versão agora oferece suporte para Fully Sharded Data Parallel (FSDP2), uma técnica de treinamento distribuído essencial para modelos de grande escala. Combinada com métodos como o Fast Gradient Clipping (FGC), essa atualização torna tecnicamente viável o treinamento de grandes modelos de linguagem com garantias de privacidade diferencial.
Este avanço é mais do que uma simples melhoria técnica; é uma solução de engenharia para um dos problemas mais complexos da IA. Enquanto reguladores, advogados e eticistas debatem os princípios da privacidade na IA, a comunidade de engenharia está construindo as ferramentas para implementá-la na prática. A principal barreira para o uso de dados sensíveis — como prontuários médicos, registros financeiros ou dados pessoais — no treinamento de modelos sempre foi o risco de vazamento e a violação de privacidade. A privacidade diferencial oferece uma estrutura matemática para mitigar esse risco. No entanto, aplicá-la a modelos gigantescos que exigem treinamento distribuído era um desafio computacional. Ao integrar o Opacus com o FSDP2, o PyTorch está efetivamente resolvendo esse desafio. Isso abre um caminho técnico para que empresas em setores altamente regulados possam treinar modelos poderosos em seus próprios dados proprietários, mantendo garantias de privacidade matematicamente comprováveis e desbloqueando uma nova gama de aplicações de IA que antes eram consideradas muito arriscadas.
🔗 Leia na íntegra: PyTorch
🧠 Paper "Mixture of Reasonings" Ensina LLMs a Usar Estratégias Adaptativas
Uma nova pesquisa publicada no repositório arXiv, intitulada "Mixture of Reasonings: Teach Large Language Models to Reason with Adaptive Strategies", apresenta um framework inovador chamado MoR (Mixture of Reasoning). A técnica treina Grandes Modelos de Linguagem (LLMs) com um portfólio de diversas estratégias de raciocínio, como a popular "Cadeia de Pensamento" (Chain-of-Thought). O resultado é um modelo que aprende a selecionar e aplicar de forma autônoma a estratégia de raciocínio mais adequada para uma determinada tarefa, sem a necessidade de um "engenheiro de prompt" humano para guiá-lo manualmente.
Esta pesquisa aponta para a próxima fronteira da inteligência artificial: a metacognição. O avanço não está em dar ao modelo mais dados ou mais parâmetros, mas em ensiná-lo a "pensar sobre como pensar". Modelos atuais muitas vezes dependem de prompts muito específicos e frágeis para raciocinar de forma eficaz. O framework MoR supera essa limitação ao internalizar o processo de seleção de estratégia. É análogo a um especialista humano que sabe instintivamente quando deve usar lógica dedutiva, raciocínio abdutivo ou uma analogia para resolver um problema. Essa capacidade de ordem superior move a IA de um simples sistema de reconhecimento de padrões para um agente de raciocínio mais autônomo e robusto. Ao reduzir a dependência da engenharia de prompt, essa abordagem é um passo crucial para a criação de agentes de IA mais capazes de lidar com problemas complexos e de múltiplas etapas sem supervisão humana constante.
🔗 Leia na íntegra: arXiv
🌎 Tendências Globais & Ferramentas
🇹🇭 EUA Planejam Restringir Exportação de Chips de IA para Malásia e Tailândia
A guerra dos chips entre Estados Unidos e China está entrando em uma nova fase, mais tática e focada em fechar brechas na cadeia de suprimentos global. A administração dos EUA está elaborando novas regras para restringir a exportação de chips de IA avançados, como os da Nvidia, para a Malásia e a Tailândia. A medida não visa punir esses países, mas sim impedir que eles sejam usados como rotas de transbordo para que os semicondutores cheguem à China, que enfrenta um embargo direto.
Esta ação revela que a estratégia inicial de bloqueio direto não foi totalmente eficaz e que um mercado secundário ou rotas de contrabando surgiram para contornar as sanções. Dados comerciais recentes indicam um aumento expressivo nos envios de semicondutores para a Malásia e Tailândia, que parece estar ligado à reexportação não autorizada para a China. A nova política transforma o conflito de um simples bloqueio para um complexo jogo de gato e rato em escala global. A medida, que ainda está sendo finalizada, deve incluir isenções temporárias para empresas sediadas nos EUA e em nações aliadas, para mitigar o impacto em operações legítimas. No entanto, a decisão inevitavelmente complicará as cadeias de suprimentos e aumentará a tensão geopolítica, forçando os países do Sudeste Asiático a uma posição delicada de navegação entre as duas superpotências.
🔗 Leia na íntegra: Morningstar, Inc. e Stratfor
🏛️ Senado dos EUA Rejeita Moratória sobre Leis Estaduais de IA
Em uma votação esmagadora de 99 a 1, o Senado dos Estados Unidos rejeitou uma proposta que visava impor uma moratória de 10 anos, proibindo os estados de criarem e aplicarem suas próprias leis para regular a inteligência artificial. A medida, que tinha o apoio de parte da indústria de tecnologia, foi derrotada por uma rara coalizão bipartidária de governadores e legisladores estaduais, que defenderam o direito de proteger seus cidadãos de forma localizada e ágil.
Esta decisão é um marco que definirá o futuro da governança da IA nos EUA. Ela garante que o país não terá uma única lei federal abrangente no futuro próximo. Em vez disso, o cenário regulatório será um mosaico complexo e fragmentado. Essa falha do lobby da Big Tech em centralizar o controle regulatório em Washington abre caminho para o que é conhecido como "Efeito Califórnia". Assim como acontece com as leis de emissões de veículos e de privacidade de dados, o estado com o maior mercado e a legislação mais rigorosa — a Califórnia — provavelmente se tornará o regulador de fato para todo o país. As empresas acharão logisticamente mais simples e economicamente mais eficiente construir seus produtos para cumprir os padrões mais elevados da Califórnia do que manter múltiplas versões para diferentes estados. Portanto, o futuro do design de produtos de IA e das práticas de governança nos EUA será desproporcionalmente influenciado pelas decisões tomadas em Sacramento, e não em Washington D.C., resultando em um ambiente regulatório potencialmente mais focado nos direitos do consumidor.
🔗 Leia na íntegra: Morningstar, Inc. e Stratfor
📢 Anthropic Propõe Framework de Transparência para Modelos de Fronteira
A Anthropic, um dos principais laboratórios de pesquisa em IA, anunciou uma nova e abrangente proposta de framework de transparência para desenvolvedores de modelos de fronteira. A iniciativa exige que empresas que atendam a determinados patamares de receita (US$ 100 milhões) ou investimento (US$ 1 bilhão) divulguem publicamente seus "Frameworks de Desenvolvimento Seguro" (SDFs), publiquem "cartões de sistema" detalhando os resultados de testes de segurança e implementem proteções robustas para funcionários que queiram denunciar preocupações de segurança (whistleblowers).
Este movimento da Anthropic pode ser interpretado como uma jogada de "estadismo corporativo". Em um momento em que governos em todo o mundo se apressam para regular a IA, a empresa está se antecipando e tentando definir os termos do debate. Ao propor um framework que parece razoável, abrangente e focado em segurança, a Anthropic se posiciona como uma líder responsável no setor. Esta estratégia tem um duplo benefício: primeiro, ela pressiona concorrentes como OpenAI e Google a adotarem padrões de transparência semelhantes, sob o risco de parecerem menos seguros ou éticos. Segundo, ela oferece um modelo pronto para legisladores, aumentando a probabilidade de que futuras regulamentações se assemelhem à abordagem preferida pela própria Anthropic, em vez de regras mais prescritivas e onerosas que poderiam ser impostas de cima para baixo. É uma tentativa de moldar o futuro da regulação a partir de dentro da indústria, garantindo uma vantagem competitiva no crescente mercado de "IA confiável".
📬 Dinâmica da Terça-feira – Glossário Relâmpago
No glossário de hoje, vamos desmistificar um termo que está no centro da segurança e da privacidade na era da IA: Computação Confidencial (Confidential Computing).
Pense na Computação Confidencial como um "cofre digital" super seguro dentro do próprio processador do computador. Normalmente, seus dados são protegidos de duas formas: quando estão parados, armazenados em um disco (criptografia em repouso), e quando estão se movendo pela internet (criptografia em trânsito). O problema é que, quando um programa precisa usar esses dados, eles são descriptografados e ficam vulneráveis na memória do computador. A Computação Confidencial resolve exatamente isso. Ela cria uma área isolada e criptografada no hardware, chamada de "enclave seguro" ou TEE (Trusted Execution Environment).
Dentro desse cofre, os dados e o código da aplicação podem interagir em total privacidade, permanecendo invisíveis e inacessíveis para qualquer outra parte do sistema — incluindo o sistema operacional, o administrador do servidor e até mesmo o provedor de nuvem, como Google, Amazon ou Microsoft. Isso é crucial para a IA , pois permite que empresas treinem e executem modelos usando dados extremamente sensíveis, como prontuários médicos ou segredos financeiros, com a garantia de que ninguém pode "espiar" o processo. É a tecnologia que pode destravar o uso da IA nos setores mais regulados e proteger a propriedade intelectual dos próprios modelos de IA.
Aviso Legal: Este episódio foi gerado de forma 100% automatizada por inteligência artificial. As informações contidas são baseadas em fontes públicas, devidamente listadas na descrição. Não há revisão editorial humana. Recomendamos a consulta direta às fontes originais para confirmação e aprofundamento das informações aqui apresentadas.
Share this post