OpenAI has released two new reasoning models, o3 and o4-mini, just two days after announcing GPT-4.1. The o3 model is OpenAI's most advanced reasoning model showing strong performance in coding, math, and science tasks, while o4-mini offers a lower-cost alternative delivering impressive results across the same fields. Both models feature novel capabilities, including the ability to use and combine all ChatGPT tools such as web browsing and image generation, allowing them to solve complex multi-step problems more effectively and take steps toward acting independently. These models can not only see images but also interpret and think about them, understanding whiteboards, diagrams, and sketches, even poor quality ones, and adjust images as part of their reasoning process. Additionally, OpenAI is releasing Codex CLI, a new coding agent designed to give developers a minimal interface to link
OpenAI's models with their local code. ChatGPT Plus, Pro, and Team users can start using o3 and o4-mini immediately, with a more powerful o3-pro version coming to Pro subscribers in the next few weeks.
오픈AI가 GPT-4.1 발표 이틀 만에 추론 모델 o3와 o4-mini를 새롭게 출시했다. o3는 오픈AI의 가장 발전된 추론 모델로 코딩, 수학, 과학 분야에서 뛰어난 성능을, o4-mini는 저비용 대안으로 동일 분야에서 인상적인 결과를 보여준다. 두 모델 모두 웹 브라우징과 이미지 생성을 포함한 챗GPT의 모든 도구를 사용하고 결합할 수 있는 새로운 기능을 제공하며, 이는 복잡한 다단계 문제를 더 효과적으로 해결하고 독립적으로 행동하는 데 도움이 된다. 이 모델들은 이미지를 보고 해석하며 생각할 수 있어 화이트보드, 다이어그램, 스케치 등을 이해하고 추론 과정에서 이미지를 조정할 수 있다.
오픈AI는 또한 개발자들이 로컬 코드와 오픈AI 모델을 연결할 수 있는 최소한의 인터페이스를 제공하는 코딩 에이전트 Codex CLI를 출시했다. 챗GPT 플러스, 프로, 팀 사용자들은 오늘부터 o3와 o4-mini를 사용할 수 있으며, 향후 몇 주 내에 Pro 구독자들을 위한 더 강력한 버전인 o3-pro도 출시될 예정이다.
