메타, 다이노v3 발표…17억장 이미지 학습한 AI 모델 등장
||2025.08.18
||2025.08.18
[디지털투데이 AI리포터] 메타가 시각언어모델 '다이노v3'(DINOv3)를 발표하며 라벨 없는 이미지 데이터로 학습하는 인공지능(AI) 기술을 한 단계 끌어올렸다.
15일(현지시간) 온라인 매체 기가진에 따르면 다이노v3는 라벨이 없는 17억장의 이미지를 학습했다. 기존 AI는 이미지에 ‘고양이’, ‘걷는 중’, ‘줄무늬’ 등과 같은 라벨을 붙여 학습해야 했지만, 다이노v3는 사람의 설명 없이도 데이터를 학습할 수 있다.
다이노v3는 전작 다이노v2(DINOv2)보다 약 7배 확장된 70억개 파라미터를 갖췄다. 해당 모델은 이미지 일부를 가리고 나머지 요소를 예측하거나, 동일 이미지를 회전·크롭해 패턴을 학습하는 방식으로 자가 학습을 진행한다.
성능 역시 기존 AI 모델 대비 뛰어난 것으로 나타났다. 메타의 퍼셉션 인코더(Perception Encoder)나 구글 딥마인드의 시그립 2(SigLIP 2)와 비교한 결과, 다이노v3는 모든 벤치마크에서 기존 모델을 뛰어넘었다.
메타는 "다이노v3가 헬스케어, 환경 모니터링, 자율주행, 제조업 등 다양한 분야에서 활용 가능성이 높다"고 밝혔다. 특히 라벨링이 어려운 의료 이미지나 위성 이미지에서도 강력한 성능을 보일 전망이다. 메타는 다이노v3를 오픈소스로 공개하진 않았지만, 독자 라이선스로 배포해 개발자들이 접근할 수 있도록 했다.
고객님만을 위한 맞춤 차량
