AI 속도 혁명…GPT-4.1보다 7배 빠른 언어모델 ‘머큐리’ 등장
||2025.07.09
||2025.07.09
[디지털투데이 AI리포터] 스탠퍼드대, UCLA, 코넬대 교수들이 설립한 인공지능(AI) 스타트업 인셉션랩스(Inception Labs가 초고속 확산형 대규모언어모델(dLLM) '머큐리'(Mercury)를 공개했다. 이는 기존 자기회귀 모델 대비 빠른 처리 속도와 저지연 성능을 갖춘 것이 특징이다.
8일(현지시간) 온라인 매체 기가진에 따르면 머큐리는 구글이 개발한 딥러닝 모델 트랜스포머를 통해 파라미터화되며, 병렬적으로 여러 토큰을 예측하도록 훈련됐다. 확산 모델은 이미지 생성에서 고품질 콘텐츠를 제작하는 기술로 등장했으며, 기존 자기회귀 모델 대비 빠른 처리 속도와 세밀한 제어, 멀티모달 데이터 처리 능력을 갖추고 있다. 그러나 LLM 수준으로 확장하는 데는 한계가 있었다.
머큐리는 이러한 한계를 극복하며, 기존 자기회귀 모델과 동등한 성능과 효율성을 제공한다. 또한, 코드 생성에 최적화된 '머큐리 코더'(Mercury Coder도 함께 출시됐다. 인셉션랩스는 머큐리 코더가 일반 AI 모델보다 최대 10배 빠른 텍스트 생성을 지원한다고 밝혔다. AI 모델 비교 사이트 아티피셜 애널리시스(Artificial Analysis)에 따르면, 머큐리는 GPT-4.1 나노, 클로드 3.5 하이쿠 등 경량 모델보다 7배 이상 빠르다.
머큐리는 빠른 출력 속도뿐 아니라 저지연 특성도 갖추고 있어, 번역 서비스나 콜센터 에이전트 등 실시간 응답이 중요한 음성 애플리케이션에도 활용될 수 있다. 마이크로소프트의 NLWeb과 결합해 웹 기반 자연어 인터페이스를 구현할 수 있으며, 실시간 데이터 기반 초고속 대화도 가능하다.
머큐리는 인셉션랩스 데모 사이트뿐 아니라 오픈라우터(OpenRouter, 포(Poe)에서도 사용할 수 있다. 가격은 입력 100만 토큰당 0.25달러, 출력 100만 토큰당 1달러이며, 선착순 1000명의 학생 및 연구자에게는 1000만 토큰 무료 크레딧이 제공된다.
고객님만을 위한 맞춤 차량