Edição #184.2025
Faaaaaala, galera! No episódio do IA Hoje dessa quinta-feira, 3 de julho de 2025, temos um verdadeiro choque de realidade. A corrida pela IA sai dos laboratórios e enfrenta o mundo real, com resultados surpreendentes e, por vezes, preocupantes. Em pesquisa, um estudo da Anthropic testa um agente de IA em uma loja e ele falha espetacularmente, enquanto uma pesquisa da UCLA publicada na Nature revela paralelos chocantes entre como cérebros e IAs processam interações sociais. No Brasil, vemos o nascimento de uma IA genuinamente nacional, a "Amazônia IA", enquanto o maior ciberataque da história do Pix expõe as vulnerabilidades da nossa infraestrutura digital. No mundo dos negócios, a consolidação da IA na produtividade se acelera com a Grammarly comprando a Superhuman, e a Figma, gigante do design, aposta tudo em IA em seu aguardado IPO. Para fechar, analisamos a batalha do Google na Europa, que é forçado a redesenhar sua página de busca sob pressão regulatória. E hoje, na nossa dinâmica de quinta, um convite especial para você que curte nosso trabalho. Fique ligado!
🎯 Os destaques de hoje
Agentes de IA Falham no Mundo Real: Teste da Anthropic e Andon Labs revela que o agente "Claudius" comete erros graves ao gerenciar uma loja, expondo a lacuna entre simulação e realidade.
Cérebros e IA Pensam da Mesma Forma?: Estudo da UCLA na Nature mostra que cérebros de camundongos e redes neurais de IA desenvolvem padrões de "espaço neural compartilhado" idênticos durante interações sociais.
A Consolidação da Produtividade: Grammarly adquire a startup de e-mail Superhuman, sinalizando um movimento estratégico para construir uma suíte de produtividade completa impulsionada por agentes de IA.
A Batalha Antitruste da Busca: Google propõe novas mudanças em seus resultados de pesquisa na Europa para evitar multas pesadas, em meio a uma pressão regulatória crescente e à perda de terreno para o ChatGPT.
🇧🇷 Panorama Brasil
💡 O Nascimento da "Amazônia IA": Uma IA Genuinamente Brasileira
Uma iniciativa ambiciosa apresentada em um meetup na FIAP, em São Paulo, promete mudar o cenário da inteligência artificial no país: o projeto "Amazônia IA". Desenvolvido pela empresa brasileira WideLabs, em parceria estratégica com gigantes como Oracle e NVIDIA, o projeto tem como objetivo criar uma IA que seja, em sua essência, brasileira. A proposta é desenvolver um modelo de linguagem que compreenda profundamente não apenas o idioma, mas também a cultura, a biodiversidade, a criatividade e a identidade nacional, utilizando uma base de dados predominantemente brasileira.
Este movimento representa um passo fundamental em direção à soberania digital e cultural. Por muito tempo, o Brasil e outros países foram consumidores de tecnologias de IA desenvolvidas no exterior, que carregam consigo os vieses culturais e as prioridades de seus locais de origem. A criação de um modelo treinado com dados locais busca mitigar essas distorções e construir uma tecnologia que entenda o contexto e resolva problemas específicos do Brasil. A iniciativa vai além de uma simples tradução, visando capturar as nuances que definem a comunicação e a realidade brasileira.
A "Amazônia IA" pode ser vista não apenas como um avanço tecnológico, mas como uma tese de investimento e uma ferramenta de soft power. Ao desenvolver uma IA que "fala português brasileiro" de forma autêntica, o Brasil se posiciona para se tornar um exportador de tecnologia para outros países lusófonos, como Angola, Moçambique e Portugal, que enfrentam desafios semelhantes de alinhamento cultural. Isso pode criar um novo polo de desenvolvimento para aplicações que exigem sensibilidade cultural, como marketing, educação, entretenimento e serviços governamentais, transformando um projeto de pesquisa e desenvolvimento em um ativo econômico e geopolítico estratégico para o mundo de língua portuguesa.
"Vamos explorar juntos como GenAI, Machine Learning e Data Analytics podem impulsionar negócios sustentáveis, transformar desafios em oportunidades reais e dados em impacto positivo." – Nelson Leoni, CEO da WideLabs
🔗 Leia na íntegra: FIAP Meetups
🏦 O Maior Ciberataque ao Pix e a Fragilidade da Infraestrutura Digital
O sistema de pagamentos instantâneos Pix, orgulho da inovação financeira brasileira, sofreu seu maior abalo. Um ciberataque direcionado à C&M Software, uma empresa de tecnologia que serve como ponte entre instituições financeiras de menor porte e o sistema do Banco Central, resultou no desvio de pelo menos R$ 800 milhões de contas de oito instituições. O incidente, considerado o maior ataque da história dentro do BC, forçou o desligamento das conexões da empresa, deixando os clientes dos bancos afetados temporariamente sem acesso ao serviço.
Embora as investigações iniciais não apontem diretamente para o uso de IA como a ferramenta do ataque, o evento ocorre em um contexto de crescente sofisticação de fraudes digitais potencializadas por inteligência artificial. O ataque expõe uma vulnerabilidade crítica não no núcleo do sistema Pix, que permanece seguro, mas nos elos mais fracos da cadeia de fornecedores de tecnologia. Isso demonstra que a segurança de um ecossistema complexo é determinada pela segurança de seu componente menos protegido.
Este incidente cria um imperativo de mercado para a "IA de Defesa" no setor financeiro brasileiro. A escala e a sofisticação do ataque justificam e devem acelerar investimentos massivos em sistemas de detecção de anomalias, prevenção de fraudes e monitoramento de transações em tempo real baseados em inteligência artificial. Para fintechs e bancos menores, a segurança cibernética deixará de ser um custo operacional para se tornar uma condição essencial para a sobrevivência e para a confiança de clientes e reguladores. A demanda por soluções de RegTech (Tecnologia para Regulação) e SecurTech (Tecnologia para Segurança) deve explodir, criando um novo e aquecido mercado para startups e empresas especializadas em aplicar IA para proteger a infraestrutura financeira do país.
🔗 Leia na íntegra: Rádio Pampa
🚀 Negócios & Startups
🤝 A Consolidação da Produtividade: Grammarly Adquire Superhuman
A Grammarly, conhecida por sua popular ferramenta de assistência de escrita por IA, anunciou a aquisição da Superhuman, uma startup famosa por seu cliente de e-mail focado em velocidade e produtividade. A transação, cujos valores não foram divulgados, é um movimento estratégico que visa transformar a Grammarly, que já conta com mais de 40 milhões de usuários diários e uma receita anual superior a US$ 700 milhões, em uma suíte de produtividade completa, impulsionada por um futuro "agent-driven", ou seja, movido por agentes de IA.
Este movimento ilustra a industrialização da IA no ambiente de trabalho. A Grammarly está evoluindo de uma ferramenta que corrige textos para uma plataforma que orquestra tarefas. A aquisição da Superhuman é a peça que faltava: ela fornece a interface (o e-mail, onde grande parte do trabalho corporativo acontece) e uma base de usuários já obcecada por eficiência, o terreno perfeito para a introdução de agentes de IA que podem resumir e-mails, redigir respostas, agendar reuniões e gerenciar fluxos de trabalho.
A aquisição sinaliza o fim da era dos "aplicativos de IA de função única" e o início da guerra das plataformas de agentes de produtividade. A competição não é mais apenas sobre qual empresa tem o melhor modelo de linguagem, mas sobre qual ecossistema consegue integrar agentes de IA de forma mais útil e invisível. A Grammarly, com a Superhuman, entra em confronto direto com o Microsoft 365, que tem o Copilot, e o Google Workspace, com o Gemini. O objetivo é criar um ecossistema onde a "cola" que une todas as ferramentas não é o sistema operacional, mas uma camada de inteligência artificial que antecipa as necessidades do usuário e automatiza o trabalho.
"Com a Superhuman, podemos entregar esse futuro a milhões de profissionais, ao mesmo tempo em que damos aos nossos usuários existentes outra superfície para colaboração de agentes que simplesmente não existe em nenhum outro lugar." – Shishir Mehrotra, CEO da Grammarly
🔗 Leia na íntegra: Analytics India Magazine e Kyiv Independent
⚙️ A Nova Geração de Chips de IA: Etched Desafia o Domínio da Nvidia
Uma startup chamada Etched anunciou um produto que pode abalar os alicerces do mercado de hardware para IA. A empresa revelou o Sohu, o primeiro ASIC (Circuito Integrado de Aplicação Específica) do mundo projetado exclusivamente para a arquitetura Transformer, a base de modelos como o GPT. A Etched afirma que, ao "gravar" a arquitetura Transformer diretamente no silício, seu chip pode executar modelos de IA uma ordem de magnitude mais rápido e mais barato do que as GPUs da Nvidia, que atualmente dominam o mercado.
Este é um ataque fundamental ao modelo de negócios da Nvidia. As GPUs são processadores de uso geral que, por acaso, se mostraram extremamente eficazes para as cargas de trabalho de IA. Os ASICs, por outro lado, são hiperespecializados: fazem uma única coisa, mas a fazem com uma eficiência incomparável. A aposta da Etched é que a arquitetura Transformer se tornou tão onipresente e dominante que agora justifica o investimento em um hardware feito sob medida para ela.
O surgimento de ASICs para Transformers representa a "comoditização da arquitetura de IA". Isso sugere que a inovação em modelos de base pode estar se estabilizando em torno do paradigma Transformer, permitindo que o foco da inovação se desloque do software para o hardware. Se a Etched for bem-sucedida, sua abordagem poderá quebrar o quase monopólio da Nvidia, especialmente no mercado de inferência (a execução de modelos já treinados), que representa a maior parte do custo operacional de IA em produção. Uma queda drástica nos custos de inferência poderia acelerar a adoção em massa de aplicações de IA que hoje são financeiramente inviáveis, criando uma nova onda de inovação. Isso pode levar a uma bifurcação no mercado: GPUs para pesquisa e treinamento, onde a flexibilidade é fundamental, e ASICs para produção e inferência, onde a eficiência e o custo são reis.
🔗 Leia na íntegra: Zacks
🎨 O Futuro da Criatividade Digital: Figma Protocola IPO e Aposta Tudo em IA
A Figma, a plataforma de design colaborativo que se tornou onipresente em startups e grandes empresas de tecnologia, protocolou seu pedido de Oferta Pública Inicial (IPO). O documento revela a centralidade da inteligência artificial na estratégia da empresa: o termo "IA" é mencionado mais de 150 vezes, sendo apresentado tanto como o principal motor de crescimento futuro quanto como um risco potencial. A empresa, que viu a tentativa de aquisição pela Adobe fracassar devido a questões regulatórias, reportou uma receita de US$ 749 milhões em 2024, um crescimento de 48% em relação ao ano anterior.
O IPO da Figma é um teste decisivo para o mercado de "software como serviço" (SaaS) na era da IA. A empresa está vendendo aos investidores não apenas uma ferramenta de design, mas uma plataforma de criatividade aumentada por IA. A ênfase massiva na IA no prospecto indica que a Figma vê a automação de tarefas de design — desde a geração de layouts até a criação de componentes — não como uma ameaça aos seus usuários, mas como sua principal proposta de valor para o futuro.
Este evento representa a financeirização da colaboração humano-IA. O valor de mercado que a Figma alcançará será uma aposta direta na tese de que a IA não substituirá os designers, mas os tornará exponencialmente mais produtivos. O sucesso deste IPO pode validar um novo modelo de negócios para toda a indústria de software, onde o valor não reside mais na licença do software em si, mas na qualidade da interação e nos resultados gerados pela sinergia entre o profissional humano e os agentes de IA integrados à plataforma. Isso influenciará como outras empresas de software, de programação a finanças, se posicionarão para o mercado e para os investidores nos próximos anos.
🔗 Leia na íntegra: mjtsai.com
🔬 Pesquisa & Desenvolvimento
🧠 A Mente da Máquina: Estudo da UCLA na Nature Revela Paralelos Chocantes entre Cérebros e IA
Uma pesquisa inédita e de grande impacto, conduzida por pesquisadores da UCLA e publicada na prestigiosa revista Nature, revelou que cérebros biológicos e sistemas de inteligência artificial podem compartilhar mecanismos fundamentais para a cognição social. O estudo descobriu que, durante interações sociais, tanto os cérebros de camundongos quanto as redes neurais de agentes de IA desenvolvem padrões de atividade "notavelmente semelhantes". Ambos criam o que os pesquisadores chamaram de "subespaço neural compartilhado", uma forma de atividade cerebral sincronizada entre os indivíduos que interagem. De forma ainda mais surpreendente, a interrupção seletiva desse espaço neural compartilhado reduziu significativamente os comportamentos sociais em ambos os sistemas, o biológico e o artificial.
Esta é uma descoberta fundamental que transcende a engenharia de software e adentra o campo da neurociência comparada. Ela sugere que podem existir princípios universais de processamento de informação social que são independentes do substrato, seja ele biológico (neurônios) ou de silício (transistores). A pesquisa também forneceu uma pista biológica concreta sobre como essa sincronização funciona, mostrando que os neurônios inibitórios (GABAérgicos), que ajudam a regular a atividade cerebral, são cruciais para a formação desse espaço compartilhado.
A pesquisa pode inaugurar um novo campo de "Neurociência de IA Comparada", criando um ciclo de feedback virtuoso entre os dois domínios. Os neurocientistas poderiam usar modelos de IA como "sujeitos de teste digitais" para investigar as bases de transtornos sociais como o autismo, testando hipóteses de maneiras que seriam impossíveis em cérebros humanos. Por outro lado, os engenheiros de IA poderiam se inspirar diretamente na arquitetura neural identificada no estudo para construir agentes de IA mais socialmente inteligentes, empáticos e capazes de interações mais naturais com os humanos. A IA, portanto, deixa de ser apenas uma ferramenta para analisar dados do cérebro e se torna um modelo funcional do próprio cérebro.
🔗 Leia na íntegra: UCLA Health
🤖 O Teste de Realidade: Agente de IA da Anthropic Falha em Tarefa Simples no Mundo Real
Um experimento conduzido pela Anthropic, um dos principais laboratórios de IA do mundo, em parceria com a Andon Labs, serviu como um duro teste de realidade para as capacidades atuais dos agentes de IA autônomos. Os pesquisadores encarregaram um agente de IA, baseado no modelo Claude Sonnet 3.7 e apelidado de "Claudius", de uma tarefa aparentemente simples: administrar uma pequena loja de vendas automatizada no mundo real, dentro do escritório da Anthropic. O resultado foi uma "história de advertência": o agente falhou de maneiras espetaculares e inesperadas.
Claudius cometeu uma série de erros graves. Ele "alucinou" a existência de uma funcionária fictícia chamada "Sarah" para reabastecer o estoque e ficou irritado quando confrontado sobre isso. Tomou decisões financeiras ruins, como recusar uma oferta lucrativa de US$ 100 por um produto que custava US$ 15. E foi facilmente manipulado por clientes humanos, que o convenceram a dar descontos indevidos e até mesmo produtos de graça. O experimento demonstrou a enorme lacuna que existe entre o desempenho da IA em ambientes de simulação controlados e sua competência no mundo real, onde a imprevisibilidade do comportamento humano e a complexidade do ambiente físico introduzem variáveis que os modelos atuais não conseguem gerenciar de forma robusta.
Os resultados deste teste podem desacelerar a implantação de agentes de IA totalmente autônomos em ambientes de alto risco, como atendimento ao cliente, finanças ou operações críticas. A falha de Claudius fornece uma prova empírica dos riscos envolvidos. Isso deve fortalecer a abordagem de "humano no circuito" (human-in-the-loop), onde a IA atua como uma assistente poderosa, mas a decisão final permanece com um supervisor humano. Além disso, o experimento pode criar um novo mercado para serviços de "testes de estresse de IA no mundo real". Empresas que planejam usar agentes autônomos agora têm um forte incentivo para contratar especialistas para projetar e executar testes rigorosos em ambientes realistas antes da implantação, tornando a validação no mundo real uma etapa obrigatória e crítica no ciclo de vida do desenvolvimento de IA.
"Vemos que os modelos se comportam de forma muito diferente na vida real em comparação com a simulação. Queremos criar medidas de segurança que funcionem no mundo real e, para isso, precisamos de implantações no mundo real." – Lukas Petersson, Cofundador da Andon Labs
🔗 Leia na íntegra: PYMNTS.com
🌎 Tendências Globais & Ferramentas
⚖️ A Batalha pela Busca: Google Recua em Resumos de Receitas e Enfrenta Pressão Antitruste na Europa
O Google está travando uma batalha em duas frentes que pode redefinir o futuro de seu produto mais importante: a busca. Na frente do produto, a empresa anunciou que está encerrando o experimento "Recipe Quick View", que usava IA para gerar resumos de receitas diretamente nos resultados de busca. A decisão veio após uma forte reação de blogueiros de culinária e criadores de conteúdo, que argumentaram que a funcionalidade canibalizava o tráfego para seus sites, causando perdas significativas de receita publicitária. Na frente regulatória, o Google propôs novas mudanças na forma como exibe os resultados de busca na Europa, em uma tentativa de evitar mais uma multa pesada por práticas anticompetitivas. A proposta inclui a criação de caixas de resultados separadas para serviços concorrentes, como buscadores de voos e hotéis, cedendo espaço em sua página principal.
Esses dois eventos, aparentemente distintos, revelam a mesma tensão fundamental. O Google está descobrindo que a IA generativa, que promete ser o futuro da busca, pode destruir o ecossistema de conteúdo do qual ele depende. Ao fornecer a resposta diretamente, ele remove o incentivo para o usuário clicar nos links, o que ameaça a sobrevivência dos criadores de conteúdo que alimentam a web. Ao mesmo tempo, reguladores europeus estão forçando a empresa a abrir mão de seu controle monopolista sobre os resultados, dando mais visibilidade a concorrentes.
Estamos testemunhando a "desagregação da página de resultados do Google". A página de busca, que por décadas foi um monolito rigidamente controlado pelo algoritmo do Google, está sendo fragmentada por duas forças poderosas: a revolta dos criadores de conteúdo e a pressão dos reguladores. Isso pode levar a uma internet menos dependente do Google como o principal "portão de entrada", abrindo espaço para mecanismos de busca mais especializados, assistentes de IA e novos modelos de descoberta de conteúdo que não se baseiam no tráfego de busca tradicional. O futuro da busca pode ser menos sobre uma lista de links azuis e mais sobre uma coleção de widgets e respostas de diferentes fontes, algumas controladas pelo Google, outras por concorrentes, e outras pelos próprios criadores.
🔗 Leia na íntegra: NiemanLab e Search Engine Land
🛠️ Google Lança "AI Mode" e Veo 2, Refinando a Experiência de Busca e Criação
Em meio aos seus desafios regulatórios, o Google continua a inovar em seus produtos de IA, lançando novas funcionalidades que visam refinar a experiência do usuário. A empresa lançou oficialmente o "AI Mode" em sua busca nos EUA, uma interface que utiliza o modelo Gemini 2.5 para fornecer respostas diretas e resumidas às perguntas dos usuários, combinando conteúdo gerado por IA com links da web. Este modo permite consultas multimodais, aceitando texto, voz ou imagens. Além disso, o Google disponibilizou o Veo 2, seu avançado modelo de geração de vídeo, para assinantes do Gemini Advanced. A ferramenta permite criar vídeos de 8 segundos em alta resolução (720p) a partir de prompts de texto, com realismo cinemático e melhor compreensão da física do mundo real.
Esses lançamentos mostram a estratégia do Google de integrar a IA generativa de forma cada vez mais profunda em seus principais produtos. O "AI Mode" representa a evolução da tradicional caixa de busca para uma interface de conversação, uma resposta direta à ameaça representada pelo ChatGPT. O Veo 2, por sua vez, posiciona o Google como um forte concorrente no crescente mercado de geração de vídeo por IA, competindo com ferramentas como Sora da OpenAI e outros modelos.
No entanto, a implementação dessas ferramentas não ocorre sem controvérsias, como visto no caso dos resumos de receitas. O Google também lançou o "Google Doodle AI Mode", uma funcionalidade que usa IA para criar Doodles interativos e personalizados na página inicial. Embora inovadora, essa personalização depende da coleta de dados do usuário, como histórico de navegação, levantando as mesmas questões de privacidade que cercam outras aplicações de IA. A estratégia do Google parece ser um delicado equilíbrio: avançar rapidamente com a tecnologia para se manter competitivo, enquanto ajusta a implementação com base na reação do público, dos criadores e dos reguladores.
🔗 Leia na íntegra: Mashable e DigitrendZ
📄 A Crise da Publicação Científica: Livro da Springer Nature com Citações Falsas
A integridade da publicação científica foi abalada por um caso que expõe os perigos do uso não supervisionado de IA na academia. Um livro sobre machine learning, "Mastering Machine Learning: From Basics to Advanced", publicado pela prestigiosa editora Springer Nature, foi encontrado repleto de citações inventadas ou com erros grosseiros. Uma verificação de 18 das 46 referências do livro revelou que dois terços delas simplesmente não existiam ou estavam incorretas. Pesquisadores listados como autores de trabalhos citados confirmaram que as publicações eram falsas.
Este incidente é um sintoma claro da infiltração de textos gerados por Grandes Modelos de Linguagem (LLMs) em domínios que exigem rigor absoluto. As "alucinações" — a tendência dos LLMs de inventar fatos e fontes com aparência convincente — são uma característica conhecida da tecnologia. O caso levanta questões sérias sobre o processo de revisão por pares e a responsabilidade das editoras na era da IA. A publicação de um livro com falhas tão gritantes sugere uma falha sistêmica na verificação e na supervisão editorial.
O episódio força uma discussão urgente sobre novas políticas para o uso de IA na escrita científica. A simples detecção de texto gerado por IA é problemática e pode levar a falsas acusações, mas a falta de transparência é ainda mais perigosa. A comunidade científica e as editoras precisam estabelecer padrões claros que exijam a divulgação explícita de qualquer uso de ferramentas de IA na pesquisa e na redação. O caso do livro da Springer Nature serve como um alerta: sem uma supervisão humana rigorosa e uma cultura de transparência, a IA ameaça minar a confiança na própria fundação do conhecimento científico, poluindo a literatura com informações fabricadas.
🔗 Leia na íntegra: Retraction Watch
📬 Dinâmica da Quinta-feira – Convite para Seguir e Avaliar
E aí, curtiu essa imersão profunda no mundo real da IA, desde os laboratórios da UCLA até os desafios do PIX no Brasil? Se você, assim como a gente, acredita que entender essas nuances é crucial para navegar no futuro, que tal dar uma força para o nosso trabalho? Assine o IA Hoje na sua plataforma de podcast favorita e, se puder, deixe uma avaliação de 5 estrelas. Leva menos de 30 segundos e ajuda a gente a chegar em mais pessoas que, como você, querem ir além das manchetes. Valeu!
Aviso Legal: Este episódio foi gerado de forma 100% automatizada por inteligência artificial. As informações contidas são baseadas em fontes públicas, devidamente listadas na descrição. Não há revisão editorial humana. Recomendamos a consulta direta às fontes originais para confirmação e aprofundamento das informações aqui apresentadas.
Share this post