A OpenAI anunciou o lançamento de uma versão preliminar do GPT-4.5, uma nova evolução de seu modelo GPT destinada a pesquisadores, desenvolvedores e usuários Pro em todo o mundo. Esta iteração do modelo GPT foca na melhoria do pré-treinamento não supervisionado, com o objetivo principal de reforçar a confiabilidade das respostas e aprimorar a compreensão das intenções e emoções dos usuários.

Segundo a OpenAI, o GPT-4.5 apresenta melhorias notáveis em sua capacidade de identificar padrões complexos, estabelecer conexões e gerar ideias criativas, enquanto reduz as alucinações comumente observadas nos modelos anteriores. Os testes preliminares indicam que as interações com o GPT-4.5 são percebidas como mais naturais pelos usuários.

Essas melhorias resultam principalmente de um aumento na escala do pré-treinamento não supervisionado, possibilitado pelos supercomputadores Azure AI da Microsoft, bem como por otimizações arquiteturais. O modelo exibe, notavelmente, uma precisão aumentada nas respostas factuais (62,5% no índice SimpleQA contra 38,2% para o GPT-4o), e uma taxa de alucinações reduzida para 37,1%.

O GPT-4.5 também integra uma melhor consideração do contexto emocional, demonstrando uma maior inteligência emocional (EQ) que permite uma melhor compreensão das nuances implícitas. Ele se mostra particularmente eficaz em aplicações como escrita criativa, programação ou resolução de problemas práticos do cotidiano.

No entanto, a OpenAI especifica que o GPT-4.5 continua sendo uma pré-versão de pesquisa cujo objetivo é precisamente avaliar em profundidade suas capacidades e limitações em diversos contextos antes de uma eventual difusão mais ampla.

O GPT-4.5 está disponível a partir de agora para usuários do ChatGPT Pro e será progressivamente acessível aos usuários Plus e Teams a partir da próxima semana, depois aos usuários Enterprise e Edu posteriormente. Os desenvolvedores já têm acesso ao modelo através das APIs Chat Completions, Assistants e Batch da OpenAI.

Atenção ao preço!

O GPT-4.5 não substitui o GPT-4o, principalmente devido aos custos de operação superiores, mas destina-se a casos de uso específicos que necessitam de uma sensibilidade contextual elevada e uma melhor adaptação às interações humanas.

Os inputs custam 75$/1M Token (contra 2.5$/1M Token para o GPT-4o)

Os outputs custam 150$/1M Token (contra 10$/1M Token para o GPT-4o)