OpenAI의 새로운 모델인GPT o3-mini
최근 AI 업계에서 가장 주목받는 사건 중 하나는 딥시크(DeepSeek)의 등장입니다. 딥시크는 중국의 AI 스타트업이 개발한 대형 언어 모델(LLM)로, 기존 AI 기업들이 유료 API를 제공하며 폐쇄적으로 운영하는 것과 달리 오픈소스로 모델을 공개하며AI 생태계에 큰 변화를 일으켰습니다.
이러한 딥시크의 등장이 OpenAI에도 영향을 미쳤을까요? OpenAI는 1월 31일에 새로운 소형 추론 모델인 GPT o3-mini를 공개하며, AI 시장 내 경쟁력을 더욱 강화했습니다.
GPT o3-mini는 기존 모델보다 비용이 낮고 응답 속도가 빠르며, 특히 STEM(과학, 기술, 공학, 수학) 분야에서 강력한 성능을 보입니다. 테스터들은 o1-mini보다o3-mini의 응답을56%선호하였으며, 어려운 현실 문제에서 주요 오류가39% 감소하는 성과를 보였습니다.
또한,다음과 같은 특징을가지고 있습니다.
새로운 소형 추론(reasoning) 모델 시리즈로 OpenAI의 최신 소형 추론 모델(reasoning model) 중 가장 비용 효율적인 모델.
모델의 가격은 100만 입력 토큰당 0.55달러, 100만 출력 토큰당 4.40달러로 책정됐다. 이는 o1-mini 대비 63% 저렴한 수준
개발자를 위한 기능 지원으로함수 호출(Function Calling), 구조화된 출력(Structured Outputs), 개발자 메시지(Developer Messages) 를 지원하여 바로 프로덕션에 적용할 수 있음.
개발자는 낮음(Low), 중간(Medium), 높음(High) 세 가지 추론 노력(reasoning effort) 옵션을 선택하여 속도와 정확성의 균형을 조정할 수 있음.
ChatGPT 무료 사용자도 ‘Reason’ 옵션을 선택하거나 응답을 재생성하여 o3-mini를 체험 가능, 이는 OpenAI의 추론 모델이 무료 사용자에게 처음으로 제공된 사례임.
그렇다면 OpenAI는 왜 GPT o3-mini를 개발했을까요? (딥시크의 등장과 관련이 있을 수 있지만, 공식적으로 발표된 내용만을 바탕으로 분석해보겠습니다.) OpenAI는 이미 다양한 GPT 모델을 운영하고 있음에도 불구하고, 더 작고 효율적인 모델을 개발한 이유는 크게 두 가지로 볼 수 있습니다.
첫째, 비용 절감과 성능 최적화입니다. AI 모델이 고도화될수록 연산 비용이 증가합니다. 특히 대형 모델은 고사양의 하드웨어를 요구하기 때문에, 사용자들에게 낮은 비용으로 AI를 제공하는 것이 어려운 과제였습니다. o3-mini는 이러한 비용 부담을 줄이면서도 강력한 성능을 유지할 수 있도록 설계되었습니다.
둘째, 빠른 응답 속도입니다. AI 서비스가 보편화되면서, 사용자들은 더 빠르고 정확한 답변을 요구하고 있습니다. o3-mini는 낮은 지연 시간(latency)을 유지하면서도 높은 성능을 제공하도록 최적화되었습니다. 특히 앞서 언급했던 함수 호출, 구조화된 출력 등 실용적인 기능을 통해 개발자들에게 더욱 유용한 도구로 자리 잡고 있습니다.
AI 시장은 빠르게 변화하고 있으며, 새로운 모델들이 끊임없이 등장하면서 기존 강자들도 변화할 수밖에 없는 상황입니다. 앞으로 이러한 변화는 더욱 가속화되겠죠.딥시크의 출현은 AI 업계의 경쟁 구도를 새롭게 형성했으며, 이에 대응해 OpenAI는 GPT o3-mini를 출시했습니다.앞으로도 AI 시장의 경쟁은 더욱 치열해질 것이며, OpenAI가 어떤 혁신을 선보일지 주목할 필요가 있습니다. 또한, 또 다른 신흥 강자가 등장할 가능성도 면밀히 지켜봐야 할 것입니다.