디노티시아, AI 시대 최적화된 ‘수직통합형 AI 스토리지’ 선보인다
||2026.03.04
||2026.03.04
디노티시아가 향후 큰 성장이 기대되는 추론 특화 ‘AI 스토리지’ 시장을 위한 자체 가속기와 벡터 데이터베이스를 기반으로 한 스토리지 전략을 발표했다. 디노티시아의 ‘AI 스토리지’ 전략은 스토리지의 역할을 기존의 ‘저장’을 넘어 ‘AI 기억 체계’로 확장하며, 엔비디아의 ICMS(Interconnect and Memory Subsystem) 전략에도 대응한다는 계획이다. 첫 제품은 하반기에 출시될 예정이다.
디노티시아는 3일 서울 강남구 콜럼버스 스페이스서 열린 기자간담회를 통해 ‘에이전틱 AI’ 시대에 최적화된 추론 특화 ‘AI 스토리지’ 전략을 제시했다. 디노티시아의 ‘씨홀스 스토리지’는 자체 설계한 벡터 검색 가속기 ‘VDPU’, 벡터 데이터베이스, 장기 메모리 기술, 단기 작업 메모리 KV(Key-Value) 캐시 오프로드 기능 등을 단일 스토리지에 통합 구현한 것이 특징이다.
AI 지식 레이어 전반에 통합 접근하는 ‘씨홀스 스토리지’
정무경 디노티시아 대표는 “디노티시아는 AI를 위한 스토리지에 집중하고 있다”며 “지금의 생성형AI는 학습 뿐만 아니라 서비스에서도 데이터가 중요하다. 우리는 서비스를 위한 데이터 시스템 시장을 이끌고자 한다”고 말했다.
이어 정 대표는 현재의 거대언어모델(LLM) 구조가 가진 문제로는 실시간 정보 부재와 개인화 서비스가 어려운 점, 환각 문제, 장기 기억 문제 등을 꼽았다. 그리고 이를 극복하려는 시도로 ‘검색증강생성(RAG)’을 꼽으며, RAG는 모델과 에이전트, 지식 기반 시맨틱(Semantic) 검색을 위한 ‘벡터 데이터베이스’가 함께 움직이는 구조라고 설명했다. 이어 “AI 서비스 차별화 요인은 데이터에 있다”며 “디노티시아는 벡터 DB에 집중한 기술을 가지고 있다”고 말했다.
디노티시아는 벡터 데이터베이스 ‘씨홀스(Seahorse)’와 자체 설계 전용 데이터 연산 가속 반도체 ‘VDPU’를 결합한 ‘씨홀스 스토리지’를 올 하반기 선보인다는 계획이다. 정 대표는 “지난해 하드웨어 칩이 나오지 않은 상태에서도 31억5000만원의 매출을 기록했다”며 “VDPU는 지난해 테이프아웃이 완료됐고 내년부터 양산할 계획이다. 씨홀스 스토리지도 올 하반기 첫 제품이 나올 계획이다”라고 밝혔다.
‘씨홀스 스토리지’는 외부 지식, 장기 메모리와 단기 메모리로 구성된 AI 지식 레이어 전반에 통합 접근하는 구조가 특징이다. 이 중 외부 지식의 경우 RAG를 위한 벡터 데이터베이스로 대응한다. 또한 장기 메모리는 사용자와의 상호 작용 내용을 구조적으로 저장해 에이전틱 AI 환경에서 개인화와 업무 연속성을 확보한다.
정 대표는 “앞으로는 스토리지에 저장된 데이터 소비 주체도 AI가 될 것”이라며 “향후 AI 시대에는 데이터베이스와 스토리지 사이의 경계가 흐려지고, 스토리지가 AI 지식 계층이 될 것”이라고 제시했다. 이어 “데이터의 규모가 폭증하면서 데이터 검색을 위한 컴퓨팅 용량 요구도 크게 늘어 전용 가속기가 필요할 것”이라 덧붙였다.
단기 작업 메모리는 보통 ‘KV 캐시’로 불리며 GPU 메모리 위에 위치하는데, 최근 엔비디아는 이 ‘KV 캐시’를 스토리지 단으로 오프로드할 수 있는 스토리지 기술을 제시한 바 있다. 정 대표는 “현재 사용하지 않는 동안 삭제한 KV캐시를 재요청시 다시 계산하는 방식은 컴퓨팅 자원 소비가 심하다”며 “KV캐시를 스토리지 시스템으로 오프로드했다 불러오면 자원 소비를 줄일 수 있다. 디노티시아는 엔비디아의 ICMS(Interconnect and Memory Subsystem) 호환 방식으로도 시스템을 개발하고 있다”고 덧붙였다.
통합 구조로 효율 잡고, 전용 가속기로 성능 잡아
노홍찬 디노티시아 CDO는 “최근 사용이 늘고 있는 ‘에이전틱 AI’는 몇 개의 툴과 모델, 검색 작업 등으로 이전 대비 토큰 사용량이 88배까지 늘어난다”며 “효율 향상을 위해서는 AI가 사용한 토큰들이 저장되고 재활용될 수 있어야 한다”고 제시했다. 이 때 단기 메모리는 스토리지에 KV캐시 오프로딩으로, 장기 메모리는 파일 형태로 벡터 데이터베이스에 인덱싱해 재활용할 수 있다고 언급했다. 특히 KV 캐시를 재활용할 경우 첫 토큰 응답 지연 시간을 기존 대비 10~100배까지 단축할 수 있다고 설명했다.
에이전트 시대에 필요한 스토리지의 요건으로는 KV 캐시 압축, 벡터 데이터베이스 내장, 자동 전처리 파이프라인 통합을 제시했다. 이 중 KV 캐시 압축의 경우 정밀도를 유지하면서 5~10배 압축해서 스토리지로 이관하고, 필요시 마이크로초 단위로 복원하는 과정에서 전용 하드웨어 가속이 필요하다고 언급했다. 또한 벡터 데이터베이스 내장은 장기 메모리를 스토리지에 통합해 데이터 이동 없이 구현할 수 있다는 장점을 제시했다.
자동 전처리 파이프라인은 데이터의 업로드 이후 인덱싱되기까지의 몇 가지 과정을 시스템에 통합, 자동화해 AI 모델이 바로 사용할 수 있게 준비한다. 노홍찬 CDO는 “기존에 AI 에이전트 메모리를 구축하려면 몇 개의 별도 서비스를 설치하고 관리, 동기화해야 했으며 고가의 스토리지에 데이터를 중복 복제해야 했다”며 “통합 구조를 가진 디노티시아의 스토리지는 비용 효율적 측면에서 외산 제품 구성 대비 50% 이상 비용 절감이 가능하다”고 제시했다.
자체 설계한 VDPU의 활용은 기존에 고가의 GPU에서 이뤄지던 KV 캐시 압축과 벡터 검색을 전용 칩으로 진행해 GPU 부담을 덜 수 있게 한다. 디노티시아는 이 VDPU를 통해 GPU의 메모리 부담을 줄이고 마이크로초 단위의 KV 캐시 복원으로 GPU 활용 효율을 극대화할 수 있다고 제시했다. 또한 벡터 DB가 스토리지에 통합돼 빠른 내부 처리가 가능하다고 덧붙였다.
디노티시아는 지난 2025년 4월 발표한 ‘씨홀스 클라우드’에서 이러한 기술의 기반인 ‘관리형 벡터 DB’를 구현했다고 제시했다. 하반기 예정인 ‘씨홀스 스토리지 V1’에서는 이를 기반으로 벡터 DB를 가속하는 VDPU가 탑재된다. 이후 2027년 ‘씨홀스 스토리지 V2’, 2028년 ‘씨홀스 스토리지 V3’까지 예정하며, 2028년까지 국내 시장에서 점유율 15%, 해외시장 0.1% 점유율 달성을 목표로 제시했다. 또한 2030년 해외시장 점유율 1%도 목표로 제시했는데, 향후 시장 규모 전망치에 대입하면 1조원 매출까지 기대한다고 덧붙였다.
전용 가속기 ‘VDPU’, CPU 대비 2.8배 높은 벡터 검색 성능 제시
양세현 디노티시아 CTO는 “스토리지의 역할이 에이전트가 맥락을 이해하고 저장, 관리, 검색할 수 있는 AI 지식 계층 인프라로 바뀌고 있다”며 현재 AI 스토리지에서의 당면 과제로 비정형 데이터 폭증과 AI 컨텍스트 저장비용 증가, 잦은 데이터 이동 발생을 꼽았다. 그리고 이러한 스토리지의 요구사항들을 해결하기 위한 방안으로 ‘VDPU’를 제시하며, 기존에는 연산 노드에서 수행하던 데이터와 컨텍스트 검색, 압축 및 관리 작업을 스토리지에서 처리하고 불필요한 데이터 이동을 줄일 수 있다고 밝혔다.
디노티시아의 VDPU는 칩 내부에 벡터 검색 가속기와 KV 캐시 압축기, 추론 컨텍스트 매니저 등을 갖췄다. 시스템과는 PCI 익스프레스(PCIe) 인터페이스로 연결되며 스토리지와 GPU 메모리간 직접 연결 기능도 갖췄다. 제조 공정은 TSMC의 12nm급이며, 내부 메모리는 LPDDR5x를 사용할 것으로 언급됐다. 현재는 테이프아웃 단계로 양산은 2027년 예정이고, 하반기 선보일 ‘씨홀스 스토리지’에도 탑재된다. 현재 평가는 FPGA 기반으로 진행한 것으로 소개됐다.
양세현 CTO는 “현재의 ‘VDPU V1’은 벡터 검색 가속 중심으로 설계됐고, KV 캐시 압축이나 컨텍스트 메모리 계층 관리는 일부 기능이 구현됐다”며 “2028년 출시 예정인 ‘VDPU V2’에서는 KV 캐시 압축이나 추론 컨텍스트 메모리 계층 관리 등 모든 부분이 구현될 것”이라고 밝혔다. 또한 “현재 FPGA 기반으로 구현된 VDPU는 벡터 검색 성능에서 일반적인 2소켓 서버 CPU 대비 2.8배이며, 4개 VDPU를 사용시 8.5배까지 성능이 오른다. 양산 버전 칩에서는 성능과 확장성이 더 오를 것”이라 덧붙였다.
권용만 기자
yongman.kwon@chosunbiz.com
고객님만을 위한 맞춤 차량
