Revisão da Sakana AI: Hype vs. realidade para o cientista de IA

Stevia Putri
Written by

Stevia Putri

Amogh Sarda
Reviewed by

Amogh Sarda

Last edited 6 novembro 2025

Expert Verified

É bem provável que já tenha ouvido o burburinho em torno do "Cientista de IA" da Sakana AI. É um sistema que supostamente automatiza todo o processo de investigação científica, desde a conceção de novas ideias até à publicação de artigos. A alegação que chamou a atenção? Por cerca de 15 dólares, esta IA pode produzir um artigo de investigação completo, dando início a uma nova era de descoberta automatizada. É o tipo de notícia que faz com que todos na área da tecnologia se inclinem para ouvir com mais atenção.

Mas será este realmente o início da "Inteligência Artificial de Investigação" ou a história é um pouco mais complicada? Neste artigo, vamos fazer uma análise direta da Sakana AI, comparando as grandes promessas da empresa com o que os investigadores independentes realmente descobriram. Mais importante, falaremos sobre o que tudo isto significa para as empresas que precisam de uma IA prática e fiável que possam usar hoje.

O que é a Sakana AI e o 'Cientista de IA'?

A Sakana AI é um laboratório de investigação sediado em Tóquio que se inspira na natureza para construir novos tipos de IA. O seu projeto "Cientista de IA" é, de longe, a sua criação mais falada. Foi concebido para ser um sistema autónomo que consegue gerir todo o ciclo de investigação por conta própria.

De acordo com a Sakana AI, o sistema deve ser capaz de:

  • Gerar novas ideias de investigação.

  • Pesquisar a literatura existente utilizando a base de dados Semantic Scholar.

  • Escrever e executar o código necessário para as experiências.

  • Analisar os resultados e redigir um artigo científico completo.

  • Até mesmo realizar a sua própria revisão por pares para detetar quaisquer erros.

O projeto gerou um enorme entusiasmo, pintando um quadro de um futuro onde a ciência avança a uma velocidade vertiginosa. Mas com grandes alegações vêm grandes questões, e o Cientista de IA atraiu definitivamente alguns olhares críticos.

A promessa: Pode uma IA realmente automatizar a descoberta científica?

Se ler os anúncios da Sakana AI, eles posicionam o Cientista de IA como uma ferramenta revolucionária, a primeira do seu tipo a automatizar verdadeiramente a descoberta do início ao fim.

Aqui estão as principais promessas que eles apresentaram:

  • Automatização de ponta a ponta: O sistema foi concebido para tratar de tudo, desde a centelha inicial de uma hipótese até ao artigo final, sem necessidade de supervisão humana. A ideia é deixá-lo a funcionar continuamente, construindo sobre as suas próprias descobertas.

  • Sucesso na revisão por pares: A sua alegação mais famosa é que um dos seus artigos totalmente gerados por IA passou na revisão por pares para um workshop na ICLR 2025, uma importante conferência sobre aprendizagem automática. Isto foi apresentado como prova de que o seu trabalho podia cumprir os padrões humanos.

  • Poupanças de custo insanas: A empresa destaca o preço reduzido de cerca de $6 a $15 por artigo. Isto sugere um futuro onde a investigação não é limitada por grandes orçamentos, abrindo as portas para que mais pessoas possam contribuir.

  • Descoberta em aberto: O sistema foi concebido para criar uma biblioteca de conhecimento que cresce ao longo do tempo, aprendendo com o seu trabalho passado e com o feedback, tal como a comunidade científica humana faz.

A Sakana AI enquadra isto como o início de uma nova era onde a IA pode fazer descobertas "a níveis humanos e para além deles". É uma ideia emocionante, mas o que acontece quando se olha realmente por baixo do capô?

Este vídeo oferece uma breve visão geral do "Cientista de IA" da Sakana AI e do seu objetivo de automatizar a descoberta científica.

A realidade: O que uma análise independente descobriu

Assim que se ultrapassam as manchetes, um quadro muito mais confuso começa a formar-se. Um estudo independente aprofundado de Beel et al., juntamente com algumas reportagens perspicazes de meios como o TechCrunch, puseram à prova as capacidades do Cientista de IA. E embora a tecnologia seja impressionante a alguns níveis, está muito longe do génio autónomo que se apregoa ser.

A geração de ideias e a novidade são um fracasso

O Cientista de IA deveria encontrar ideias "novas" ao rever a literatura existente. Mas a análise independente descobriu que isto era basicamente apenas uma pesquisa de palavras-chave glorificada no Semantic Scholar. Na verdade, não sintetiza nem compreende o conhecimento que está a analisar, o que é bastante essencial se se quiser descobrir o que é genuinamente novo.

Devido a isto, o sistema assinalou vários conceitos bem conhecidos como "novos", incluindo o "micro-batching para SGD", uma técnica que existe há anos. Isto aponta para uma enorme fraqueza: a IA consegue identificar palavras-chave, mas não tem uma compreensão real do contexto ou da originalidade. Sem isso, não pode realmente alargar as fronteiras da ciência.

As experiências são descuidadas e falham constantemente

Ter uma ideia é uma coisa, mas testá-la é onde o Cientista de IA realmente tropeçou. A avaliação independente revelou uma estatística bastante condenatória: 42% das experiências da IA nem sequer chegaram a correr devido a erros de código. O sistema ficava frequentemente preso num ciclo, tentando o mesmo código defeituoso repetidamente.

E quando as experiências funcionavam? As alterações no código eram mínimas, com uma média de apenas 8% a ser modificada em relação ao modelo original. Isto diz-nos que a IA não é muito adaptável e não está realmente a criar novas formas de testar ideias. Para piorar a situação, a metodologia estava muitas vezes simplesmente errada. Num caso, a IA afirmou ter melhorado a eficiência energética, mas os seus próprios resultados mostraram que, na verdade, tinha aumentado o uso de recursos computacionais, exatamente o oposto do seu objetivo.

MétricaDesempenho do Cientista de IA (Estudo de Beel et al.)
Taxa de Sucesso das Experiências58% (5 em 12 falharam)
Avaliação da NovidadePouco fiável; assinalou conceitos conhecidos como "novos"
Média de Citações por Artigo5
Qualidade do ManuscritoErros frequentes (figuras em falta, texto de substituição)
Precisão dos Resultados57% dos artigos continham resultados alucinados ou incorretos

Os artigos finais e as revisões são superficiais

Os artigos finais não pareciam muito melhores. Foram considerados de baixa qualidade, com uma mediana de apenas cinco citações (a maioria delas desatualizadas). Estavam também cheios de erros amadores, como figuras em falta, secções duplicadas e até texto de substituição que dizia literalmente: "Conclusões Aqui".

E quanto àquele revisor por pares automatizado? Conseguia produzir feedback estruturado, é certo, mas falhava consistentemente em detetar as maiores falhas no seu próprio trabalho. Quando testado em artigos escritos por humanos, era excessivamente crítico, rejeitando artigos que os revisores humanos tinham aprovado. Parece que a IA consegue seguir um modelo de revisão, mas falta-lhe o pensamento crítico profundo necessário para uma crítica real.

A conclusão do estudo resumiu tudo na perfeição: o resultado do Cientista de IA é comparável ao de um "estudante universitário desmotivado a correr para cumprir um prazo". É uma demonstração fascinante de imitação por IA, mas está longe de produzir ciência fiável.

Dos projetos ambiciosos à realidade: O que as empresas precisam da IA hoje

Enquanto projetos audaciosos como o Cientista de IA nos dão um vislumbre emocionante do futuro, não se pode gerir um negócio com base em projetos ambiciosos. Precisa de uma IA fiável, controlável e transparente que resolva problemas do mundo real agora mesmo. O entusiasmo em torno da IA experimental pode ser uma distração das ferramentas práticas que já estão a fazer a diferença.

É aqui que uma solução pragmática como a eesel AI entra em jogo. Foi construída para o mundo real, não para um laboratório de investigação.

Vamos comparar a abordagem experimental da Sakana AI com os pontos fortes da eesel AI, pronta para os negócios:

  • Fiabilidade vs. Imprevisibilidade: Enquanto o Cientista de IA falha em 42% das suas experiências, a eesel AI permite-lhe executar uma simulação primeiro. Isto significa que pode testar com segurança o seu desempenho em milhares dos seus tickets passados reais antes de alguma vez falar com um cliente. Obtém uma previsão clara e precisa de como se irá comportar e pode implementá-la com total confiança.

  • Controlo vs. Caixa Negra: O Cientista de IA gera frequentemente resultados falhados e sem sentido sobre os quais não tem controlo. Com a eesel AI, é você quem está no comando. Pode definir exatamente que conhecimento utiliza, personalizar a sua personalidade e ações, e escolher que tipos de tickets automatizar. A IA nunca se descontrola porque só faz o que lhe diz para fazer.

  • Conhecimento Fundamentado vs. Alucinação: O bot da Sakana AI tem dificuldade em compreender a literatura e muitas vezes simplesmente inventa coisas. A eesel AI baseia-se na realidade da sua empresa. Liga-se instantaneamente ao seu conhecimento existente em locais como o seu helpdesk, Confluence, Google Docs, e conversas de suporte passadas. Aprende a voz da sua marca e os seus processos reais, para que as suas respostas sejam sempre precisas e úteis.

Pro Tip
O verdadeiro valor de uma ferramenta de IA não está em alegações vistosas, mas na sua capacidade de resolver os seus problemas com confiança e transparência. Antes de implementar qualquer IA, pergunte-se: 'Posso testar isto com segurança e posso controlar exatamente o que faz?'

O veredito final sobre a Sakana AI

O projeto da Sakana AI é uma demonstração técnica seriamente impressionante. É um marco que mostra o quão longe a IA chegou na cópia de competências humanas complexas como a investigação e a escrita. É uma experiência interessante, sem dúvida.

Mas não corresponde de todo ao entusiasmo de um cientista totalmente autónomo pronto para mudar o mundo. O sistema é simplesmente demasiado pouco fiável, superficial e cheio de erros para qualquer uso sério. É uma fascinante prova de conceito, não uma ferramenta com a qual se possa realmente contar.

Pronto para uma IA que realmente funciona?

O futuro da IA é emocionante, mas os problemas de hoje precisam de soluções práticas. Enquanto esperamos que uma IA escreva o próximo artigo vencedor de um Nobel, as empresas já podem resolver enormes desafios no suporte ao cliente e na partilha de conhecimento interno.

Em vez de lutar com uma IA experimental que produz artigos com falhas, pode implementar uma IA que oferece respostas impecáveis. A eesel AI foi concebida para o mundo real. É self-service, liga-se às suas ferramentas em minutos e dá-lhe a confiança para automatizar o suporte de forma segura e eficaz.

Não se limite a ler sobre o que a IA poderá fazer um dia. Veja o que pode fazer por si agora mesmo. Experimente a eesel AI gratuitamente e descubra com que rapidez pode automatizar o seu suporte com uma IA em que pode realmente confiar.

Perguntas frequentes

A conclusão principal é que, embora o "Cientista de IA" seja uma demonstração técnica impressionante, está muito longe de ser uma ferramenta de investigação autónoma e fiável, pronta para aplicação no mundo real. As suas capacidades são superficiais em comparação com as alegações ousadas.

Esta análise independente da Sakana AI concluiu que as alegações da Sakana AI são significativamente exageradas. Por exemplo, o Cientista de IA teve dificuldades com a verdadeira novidade, produziu experiências cheias de erros e gerou artigos de baixa qualidade, contrariamente às promessas de automatização de ponta a ponta e sucesso na revisão por pares.

A análise da Sakana AI revelou problemas como a IA a assinalar conceitos conhecidos como novos, uma taxa de falha de 42% na execução de experiências devido a erros de código, metodologias falhadas e artigos finais com erros significativos, como figuras em falta ou texto de substituição.

Não, a análise da Sakana AI indica fortemente que não pode. Embora o sistema tente a automatização de ponta a ponta, a sua incapacidade de gerar ideias verdadeiramente novas, conduzir experiências de forma fiável ou produzir artigos de alta qualidade e precisos significa que ainda não pode automatizar a descoberta científica genuína.

Esta análise da Sakana AI destaca a sua falta de fiabilidade, imprevisibilidade e falta de controlo, tornando-o inadequado para empresas. Ao contrário das soluções práticas, gera resultados inconsistentes e muitas vezes falhados, faltando-lhe a transparência e a fiabilidade de que as empresas necessitam para a resolução de problemas do mundo real.

A análise da Sakana AI concluiu que, embora o Cientista de IA pudesse estruturar o feedback, o seu revisor por pares automatizado falhava consistentemente em detetar falhas significativas no seu próprio trabalho. Ao rever artigos escritos por humanos, era muitas vezes excessivamente crítico, faltando-lhe o pensamento crítico profundo dos revisores humanos.

Esta análise da Sakana AI contrasta a falta de fiabilidade e a natureza de caixa negra da IA experimental com o foco da eesel AI na fiabilidade, controlo e conhecimento fundamentado. As soluções comprovadas oferecem simulação segura, controlo do utilizador sobre as ações e aproveitam o conhecimento existente da empresa para resultados precisos.

Compartilhe esta postagem

Stevia undefined

Article by

Stevia Putri

Stevia Putri is a marketing generalist at eesel AI, where she helps turn powerful AI tools into stories that resonate. She’s driven by curiosity, clarity, and the human side of technology.