OpenAI Assistants API: Um guia 2025 para a depreciação e melhores alternativas

Kenneth Pangan
Written by

Kenneth Pangan

Katelin Teen
Reviewed by

Katelin Teen

Last edited 14 outubro 2025

Expert Verified

Quando a OpenAI lançou a sua API de Assistentes, pareceu um grande avanço para os programadores. A ideia era bastante simples: dar-nos uma forma de construir agentes de IA inteligentes e com estado (stateful) sem termos de gerir todos os pormenores complicados, como o histórico de conversas. Muitos de nós, no mundo do suporte e do desenvolvimento, ficámos genuinamente entusiasmados.

Mas, como acontece com muitas ferramentas novas e brilhantes, a realidade revelou-se um pouco mais complicada. Embora a API tenha, sem dúvida, facilitado a entrada, trouxe consigo um conjunto de dores de cabeça, especialmente para quem tentava construir algo que pudesse lidar com o uso no mundo real. Estamos a falar de custos imprevisíveis que podiam ficar fora de controlo, um desempenho instável e a sensação de que não se estava realmente no comando.

E agora, há uma novidade: a OpenAI está oficialmente a descontinuar a API de Assistentes. Está a ser substituída por uma nova "API de Respostas", com a antiga a ser desligada permanentemente em 2026.

Então, o que é que tudo isto significa para si? Neste guia, vamos analisar o que era a API de Assistentes da OpenAI, por que está a ser descontinuada, os problemas que os programadores enfrentaram e o que se segue. Mais importante, vamos mostrar-lhe uma forma mais direta, estável e poderosa de construir os agentes de IA de que a sua empresa realmente precisa.

O que era a API de Assistentes da OpenAI?

O principal objetivo da API de Assistentes da OpenAI era fornecer aos programadores um conjunto de ferramentas para construir assistentes de IA diretamente nas suas próprias aplicações. Antes do seu surgimento, se quisesse um chatbot que se lembrasse do que acabou de falar, tinha de construir esse sistema de memória de raiz. A API de Assistentes prometia tratar disso por si.

O seu maior ponto de venda era ser uma API "com estado" (stateful). Isto significa apenas que geria o histórico da conversa (que chamava de "threads"), dava acesso a ferramentas pré-construídas como o Interpretador de Código e a Pesquisa de Ficheiros (uma abordagem básica à Geração Aumentada por Recuperação, ou RAG), e permitia chamar as suas próprias funções para se ligar a outras ferramentas.

Pense nisto como um kit de iniciação para construir um chatbot. Fornecia alguns componentes chave, como memória e ferramentas, para que não tivesse de começar do zero. Isto tornou incrivelmente rápido criar uma prova de conceito, e foi exatamente por isso que recebeu tanta atenção de programadores e equipas que procuravam experimentar.

Estava tudo construído em torno de três ideias principais: Assistentes, Threads e Runs. Vamos aprofundar o que são e os problemas que criaram.

Os componentes principais e desafios da API de Assistentes da OpenAI

Para perceber realmente por que a API está a ser substituída, primeiro tem de entender como funcionava e onde falhava constantemente.

Assistentes, threads e runs: Os blocos de construção da API de Assistentes da OpenAI

Todo o sistema baseava-se numa estrutura simples, embora um pouco inflexível:

  • Assistente: Este era o cérebro da IA. Configurava-o com um modelo específico (como o GPT-4o), dava-lhe algumas instruções ("És um agente de suporte amigável para uma empresa de calçado") e dizia-lhe que ferramentas podia usar.

  • Thread: Esta era apenas uma única conversa com um utilizador. Sempre que um utilizador enviava uma mensagem, adicionava-a à thread. A API armazenava aqui toda a troca de mensagens.

  • Run: Esta era a ação de dizer ao assistente para ler a thread e criar uma resposta. Iniciava uma "run", esperava que terminasse e depois obtinha a nova mensagem da thread.

Isto tudo parece lógico no papel, mas na prática, criou alguns obstáculos sérios para quem estava a construir uma aplicação real.

Os custos ocultos: Como o uso de tokens fica fora de controlo

O maior e, de longe, o mais doloroso problema com a API de Assistentes da OpenAI era o seu preço. Cada vez que um utilizador enviava uma mensagem, a API reprocessava a thread de conversa inteira, incluindo o texto completo e integral de quaisquer ficheiros que tivesse carregado.

Vamos tornar isto real. Imagine que um cliente carrega um PDF de 20 páginas para fazer algumas perguntas sobre o seu produto. Se ele fizer cinco perguntas, não está apenas a pagar pelos tokens das suas cinco perguntas e das cinco respostas da IA. Está a pagar para processar esse PDF de 20 páginas inteiro cinco vezes separadas, além de um histórico de conversas que continua a aumentar.

Os programadores descobriram isto da maneira mais difícil.

Reddit
o uso de tokens fica fora de controlo muito rapidamente... continuará a pagar por isso a cada pergunta.
Reddit
Descobri muito rapidamente ao usar esta API que o custo fica fora de controlo para qualquer coisa que não seja uma sessão curta sem documentos.

Isto tornava quase impossível para as empresas preverem os seus custos, transformando o que deveria ser uma ferramenta útil num jogo de adivinhação financeira. Uma forma muito melhor é optar por uma plataforma com custos previsíveis. Por exemplo, uma solução como a eesel AI oferece preços transparentes baseados no seu uso geral. Não é surpreendido com taxas por resolução que, na prática, o penalizam por ter conversas mais longas e úteis com os seus clientes.

Página de preços transparente da eesel AI, que oferece custos previsíveis com base no uso geral, ao contrário da API de Assistentes da OpenAI.
Página de preços transparente da eesel AI, que oferece custos previsíveis com base no uso geral, ao contrário da API de Assistentes da OpenAI.

O jogo da espera: Falta de streaming e dependência de polling

A outra grande dor de cabeça era o desempenho. A API de Assistentes não suportava streaming, que é a tecnologia que dá aos chatbots modernos aquele efeito de digitação ao vivo, palavra por palavra.

Em vez disso, os programadores tinham de usar uma solução alternativa desajeitada chamada polling. Iniciava uma "run" e depois tinha de pingar repetidamente a API, basicamente perguntando: "Já terminaste? E agora?" Só quando a resposta inteira era gerada é que podia finalmente obtê-la e mostrá-la ao utilizador.

Para um cliente à espera de ajuda, isto parece lento e quebrado. Eles ficam apenas a olhar para um ecrã em branco ou um ícone a girar, a perguntar-se se algo está a acontecer. Está a anos-luz da sensação instantânea e interativa de ferramentas como o ChatGPT. Este era um problema conhecido, mas era um fator decisivo para quem tentava construir uma experiência de chat de qualidade e em tempo real.

As plataformas modernas de suporte de IA são construídas para o tipo de interação instantânea que os clientes agora esperam. Os agentes de IA e chatbots da eesel AI são projetados para streaming desde o início, escondendo todos estes detalhes técnicos para que se possa focar apenas em proporcionar uma excelente experiência aos seus utilizadores.

Uma grande mudança: Por que a API de Assistentes da OpenAI está a ser substituída

Dados todos estes desafios, não é de surpreender que a OpenAI tenha decidido voltar à prancheta. O resultado é uma reformulação completa e um novo caminho para os programadores.

Da API de Assistentes da OpenAI para a de Respostas: O que está a mudar?

De acordo com a documentação oficial da OpenAI, a API de Assistentes está agora descontinuada e será completamente encerrada a 26 de agosto de 2026. Está a ser substituída pela nova API de Respostas.

Isto é mais do que uma simples mudança de nome; é uma forma completamente diferente de construir. Aqui está uma visão rápida de como os conceitos antigos se mapeiam para os novos:

Antes (API de "Assistentes")Agora (API de "Respostas")Porquê a Mudança?
"Assistentes""Prompts"Os Prompts são mais fáceis de gerir, versionar através de um painel e manter separados do código da sua aplicação.
"Threads""Conversations"As Conversations são mais flexíveis. Podem armazenar diferentes tipos de "itens" como mensagens e chamadas de ferramentas, não apenas texto simples.
"Runs""Responses"Isto passa para um modelo de pedido/resposta muito mais simples. Envia entradas, recebe saídas e tem muito mais controlo.

Do ponto de vista da OpenAI, o novo modelo é mais simples e dá mais flexibilidade aos programadores. Mas também vem com um grande senão.

O que isto significa para os programadores que constroem na API de Assistentes da OpenAI

Embora a nova API lhe dê mais poder, também lhe devolve mais trabalho. A promessa original da API de Assistentes, de gerir todo o estado da conversa por si, desapareceu. Agora, é da sua responsabilidade gerir o histórico da conversa e orquestrar a troca de informações para o uso de ferramentas.

Isto cria um risco enorme para qualquer empresa que tenha construído um sistema de produção na API de Assistentes. Estão agora a enfrentar um grande projeto de migração apenas para evitar que a sua aplicação deixe de funcionar. Este tipo de instabilidade de plataforma é um grande alerta para qualquer empresa que dependa de uma API de terceiros para uma parte central do seu negócio.

É aqui que ter uma camada de abstração realmente mostra o seu valor. Uma plataforma como a eesel AI atua como um amortecedor estável entre o seu negócio e o mundo em constante mudança das APIs fundamentais. Quando a OpenAI faz uma mudança disruptiva como esta, a eesel AI trata do trabalho de migração nos bastidores. Os seus agentes de IA continuam a funcionar sem problemas, sem que precise de reescrever uma única linha de código, dando-lhe estabilidade sobre uma base volátil.

Um olhar mais atento aos preços e funcionalidades da API de Assistentes da OpenAI

Mesmo antes de a descontinuação ser anunciada, o custo e as limitações das ferramentas integradas eram uma fonte comum de frustração para os programadores.

Entender os preços das ferramentas da API de Assistentes da OpenAI

Além dos custos exorbitantes de tokens, a API de Assistentes tinha taxas separadas para as suas ferramentas especiais:

  • Interpretador de Código: Com um preço de $0.03 por sessão. Uma sessão dura uma hora, o que parece simples, mas pode tornar-se complicado e caro de gerir quando se tem centenas ou milhares de pessoas a falar com o seu bot ao mesmo tempo.

  • Pesquisa de Ficheiros (Armazenamento): Com um preço de $0.10 por GB por dia, com o primeiro gigabyte gratuito. Este custo é para os dados vetorizados, não para o tamanho do ficheiro original, tornando-se mais uma despesa difícil de prever.

Quando se adicionam estas taxas aos custos galopantes de tokens do reprocessamento do histórico da conversa, acaba-se com um modelo de preços que era tudo menos amigo das empresas.

Limitações de ferramentas como a Pesquisa de Ficheiros

A ferramenta de Pesquisa de Ficheiros deveria ser uma forma fácil de dar a um assistente conhecimento a partir dos seus documentos. Na realidade, vinha com algumas limitações sérias:

Na prática, isto significava que estava preso a uma caixa negra. Se a qualidade da recuperação fosse má, não havia nada que pudesse fazer para a corrigir. Se o conhecimento da sua empresa estivesse em folhas de cálculo, a ferramenta era basicamente inútil.

Isto contrasta enormemente com uma solução construída para o efeito. A eesel AI foi projetada para lidar com a realidade confusa do conhecimento empresarial. Pode ser treinada diretamente nos seus tickets de suporte passados de helpdesks como Zendesk ou Freshdesk. Liga-se perfeitamente às suas wikis no Confluence e Google Docs. Pode até extrair informações de produtos de plataformas de e-commerce como o Shopify, dando-lhe uma fonte de conhecimento unificada e totalmente controlável para a sua IA.

Um infográfico a mostrar como a eesel AI se integra com várias fontes de conhecimento como Zendesk, Confluence e Shopify, superando as limitações da Pesquisa de Ficheiros da API de Assistentes da OpenAI.
Um infográfico a mostrar como a eesel AI se integra com várias fontes de conhecimento como Zendesk, Confluence e Shopify, superando as limitações da Pesquisa de Ficheiros da API de Assistentes da OpenAI.

A melhor forma de construir agentes de IA prontos para produção para além da API de Assistentes da OpenAI

Construir diretamente sobre uma API de baixo nível como a da OpenAI é ótimo para um projeto de fim de semana ou uma experiência rápida. Mas quando se está a construir um agente de IA para uma função empresarial real como o suporte ao cliente, precisa de mais do que isso. Precisa de estabilidade, controlo e um caminho claro para obter um retorno do seu investimento.

É aqui que entra a ideia de um "motor de fluxo de trabalho de IA". Não se trata apenas de obter uma resposta de um modelo; trata-se do que se faz com essa resposta. A solução certa deve ter alguns pontos chave a seu favor:

  • Deve ser incrivelmente simples de configurar. Deve ser capaz de a ligar ao seu helpdesk e fontes de conhecimento em minutos, não em meses, sem precisar de uma equipa inteira de programadores.

  • Deve dar-lhe controlo total do fluxo de trabalho. Deve ser capaz de definir exatamente que tickets a IA trata, que ações pode tomar (como etiquetar um ticket, atualizar um campo ou escalar para um humano) e o seu tom de voz específico.

  • Deve permitir-lhe implementar sem risco. Deve permitir-lhe simular como a IA se comportaria com os seus dados passados. Isto permite-lhe ver a sua taxa de automação potencial e criar confiança antes que ela fale com um cliente real.

É exatamente por isso que construímos a eesel AI. É um motor de fluxo de trabalho poderoso e self-service que resolve estes desafios. Permite-lhe implementar agentes de IA fiáveis e personalizados sem ficar preso a gerir mudanças de API, custos imprevisíveis e gestão de estado complicada.

Um diagrama de fluxo de trabalho a ilustrar o motor de fluxo de trabalho de IA da eesel AI para automação do suporte ao cliente, uma solução mais robusta do que a API de Assistentes da OpenAI descontinuada.
Um diagrama de fluxo de trabalho a ilustrar o motor de fluxo de trabalho de IA da eesel AI para automação do suporte ao cliente, uma solução mais robusta do que a API de Assistentes da OpenAI descontinuada.

Para além da API de Assistentes da OpenAI

A API de Assistentes da OpenAI foi uma experiência interessante. Apontou para um futuro onde criar agentes de IA é mais acessível, mas as suas falhas em custo, desempenho e, agora, a sua descontinuação, realçam os riscos de construir ferramentas empresariais importantes sobre um alvo tão móvel.

A mudança para a nova API de Respostas dá mais poder aos programadores, mas também lhes entrega mais responsabilidade. Para a maioria das empresas, essa não é uma troca que valha a pena. O objetivo não é tornar-se um especialista em gerir as APIs em constante mudança da OpenAI; é resolver um problema de negócio.

Para empresas que precisam de implementar IA fiável, económica e altamente personalizada para as suas equipas de suporte, uma plataforma dedicada que lida com toda a complexidade subjacente é o caminho mais inteligente e sustentável a seguir.

Pro Tip
Antes de se comprometer a construir diretamente na API de um modelo fundamental, pense no custo total de propriedade. Isso inclui não apenas as taxas da API, mas também o tempo do programador para a construção inicial, a manutenção contínua e as futuras migrações. Uma plataforma de ponta a ponta pode muitas vezes dar-lhe um retorno muito mais rápido e sustentável.

Comece com um agente de IA pronto para produção

Pronto para superar a complexidade e construir um agente de IA que realmente entrega resultados? Com a eesel AI, pode ligar o seu helpdesk e fontes de conhecimento para lançar um agente de IA totalmente personalizável em apenas alguns minutos.

Simule o seu desempenho nos seus próprios dados e veja hoje a sua taxa de automação potencial.

Perguntas frequentes

A API de Assistentes da OpenAI está a ser substituída principalmente devido a problemas como custos imprevisíveis, desempenho instável (falta de streaming) e controlo limitado para os programadores. A OpenAI está a mudar para uma nova "API de Respostas" que oferece mais flexibilidade, mas transfere mais responsabilidade de gestão de estado de volta para os programadores.

A principal preocupação de custo era que a API reprocessava toda a conversa, incluindo o conteúdo completo dos documentos, a cada mensagem do utilizador. Isto levava a que o uso de tokens aumentasse rapidamente e de forma imprevisível, tornando os custos difíceis de gerir para as empresas.

Não, a API de Assistentes da OpenAI não suportava streaming em tempo real. Os programadores tinham de usar um mecanismo de polling, perguntando repetidamente à API por atualizações até que a resposta completa fosse gerada, o que levava a experiências de utilizador mais lentas.

Os programadores precisam de planear um projeto de migração, pois a API de Assistentes da OpenAI será completamente encerrada até 26 de agosto de 2026. Devem familiarizar-se com a nova API de Respostas e considerar plataformas estáveis e abstraídas como a eesel AI para mitigar futuras alterações de API.

Sim, a ferramenta de Pesquisa de Ficheiros tinha limitações significativas, incluindo a falta de controlo sobre a divisão ou incorporação de documentos, a incapacidade de analisar imagens e a falta de suporte para ficheiros estruturados como CSVs. Isto resultava frequentemente numa má qualidade de recuperação sem recurso para o programador.

A nova API de Respostas passa da gestão com estado (stateful) para um modelo mais simples de pedido/resposta. Embora ofereça mais controlo, os programadores são agora responsáveis por gerir o histórico de conversas e orquestrar o uso de ferramentas, algo que a API antiga tratava.

Compartilhe esta postagem

Kenneth undefined

Article by

Kenneth Pangan

Writer and marketer for over ten years, Kenneth Pangan splits his time between history, politics, and art with plenty of interruptions from his dogs demanding attention.