목록
OpenAI는 어제 저녁 gpt-oss-120B 및 gpt-oss-20B라는 두 개의 오픈웨이트 언어 모델을 Apache 2.0 라이선스로 출시한다고 발표했습니다. 이 접근 방식은 GPT-2 이후 오픈웨이트 LLM을 제공하지 않았던 회사에 중요한 전환점이 됩니다. 모델의 가중치는 Hugging Face에서 공개적으로 접근 가능합니다.
추론과 효율성을 위해 설계된 모델
두 모델은 Mixture-of-Experts (MoE) 아키텍처에 기반하고 있으며, 각각 총 1170억과 210억 개의 매개변수를 갖추고 있지만 각 토큰마다 일부만 활성화됩니다 (120B는 51억, 20B는 36억). 두 모델 모두 128,000 토큰까지 확장된 문맥 길이를 지원합니다.
OpenAI는 추론 작업에서 경쟁력 있는 성능을 주장합니다. GPT-OSS-120B는 전통적인 벤치마크(MMLU, HLE, TauBench 등)에서 o4-mini와 비슷한 결과를 얻으면서도 80GB GPU 한 대에서 실행 가능합니다. 더 가벼운 20B 모델은 16GB 메모리로 실행되어 로컬 또는 임베디드 장치에서의 사용이 가능할 수 있습니다.
호환성과 사용 사례
이 모델들은 OpenAI의 Responses API와 호환되며, Chain-of-Thought (CoT), 함수 호출, 구조화된 출력, 작업에 따른 추론 노력 조정의 기본 지원을 통합합니다.
OpenAI는 에이전트 워크플로우, 지능형 비서 개발, 연구, 또는 보안 및 데이터 주권을 이유로 한 로컬 배포 등에서의 사용을 목표로 하고 있습니다. AI Sweden, Orange, Snowflake와 같은 파트너가 출시 전 통합의 구체적인 사례를 탐구하기 위해 참여했습니다.
보안 및 위험 평가
OpenAI는 오랜 기간 보안 문제로 인해 폐쇄형 모델로의 전환을 설명했습니다. 따라서 보안은 회사의 고려 사항의 중심에 있었고, 이 오픈웨이트 모델 출시의 여러 차례 연기의 원인이었습니다. OpenAI는 오늘날 공공 제공에 따른 위험을 줄이기 위해 고급 필터링 및 후속 훈련 메커니즘을 통합했다고 주장합니다. 외부 전문가가 악의적으로 미세 조정된 버전(사이버 보안, 생물학)에 대한 평가도 OpenAI의 준비 프레임워크에 따라 수행되었습니다.
회사에 따르면, 이러한 극단적인 시나리오에서도 모델들은 우려할 만한 수준의 능력을 달성하지 않는다고 합니다. 또한 50만 달러 상금의 레드 팀 챌린지가 Kaggle에서 공동으로 취약성을 탐지하기 위해 시작되었습니다.
오픈 소스로의 신중한 복귀?
이번 출시는 여러 질문을 제기합니다. 한편으로는 강력한 독점 모델과 오픈 소스 대안을 균형 있게 제공하려는 의지를 보여줍니다. 다른 한편으로는 OpenAI가 기술적으로 우위를 유지하면서 사용을 조절하고, 오픈웨이트를 위한 새로운 보안 표준을 설정할 수 있게 합니다.
허용적인 라이선스로 가중치의 공개, 제공된 도구(최적화된 추론, 하모니 렌더러, PyTorch 및 Metal 지원 등), 그리고 Azure, Hugging Face, Vercel과의 파트너십은 점점 더 분열되는 생태계에서 채택을 용이하게 하려는 것입니다.
이 모델들이 Mistral, LLaMA, Mixtral, Yi와 같은 대안에 비해 커뮤니티에 얼마나 채택될지, 그리고 실제로 얼마나 열려 있는지(특히 자유로운 미세 조정 가능성)가 연구자와 개발자의 기대에 부응할지 지켜봐야 합니다.
Hugging Face에서 모델 카드 확인:
https://huggingface.co/openai/gpt-oss-20b
https://huggingface.co/openai/gpt-oss-120b
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale