AI, 인간처럼 지도 읽을 수 있을까…여전한 한계 드러나
||2025.03.27
||2025.03.27
[디지털투데이 AI리포터] 인간은 어릴 때부터 지도를 보고 길을 찾는 법을 배우지만, AI는 인간처럼 지도를 해독할 수 있을까?
이를 평가하기 위해 개발된 벤치마크 '맵벤치'(MapBench)를 사용해 대규모 시각언어모델(LVLM)의 지도 읽기 능력을 테스트한 결과가 공개됐다고 26일(현지시간) 온라인 매체 기가진이 전했다.
LVLM은 이미지와 텍스트를 결합해 의미를 해석하는 AI 모델로, 의료 영상 분석, 자율주행, 로봇 공학 등 다양한 분야에서 활용이 기대되고 있다. 미국의 텍사스 A&M대학교와 캘리포니아대학교 버클리 등 연구팀은 LVLM이 인간처럼 지도를 이해하려면 시각적 기호를 인식하고, 공간적 이해를 바탕으로 경로를 계획하는 능력이 필요하다고 설명했다.
맵벤치는 동물원, 박물관, 국립공원, 도시 등 9개 시나리오에 기반한 1600개 이상의 지도 읽기 및 경로 탐색 과제로 구성됐다. 연구팀은 이를 활용해 메타의 '라마-3.2', 알리바바의 '큐웬2-VL', 오픈AI의 'GPT-4o 미니' 및 'GPT-4o'를 테스트했다. 그러나 LVLM의 성능은 최적 경로 탐색 수준에 한참 미치지 못했으며, 복잡한 공간 추론과 장기 계획에서 여전히 한계를 보였다고 한다.
연구팀은 "주목해야 할 것은 LVLM의 성능이 이론적으로 최적의 내비게이션을 크게 밑돌고 있다는 점이다. 이는 멀티모달 정보 이해, 공간 추론, 복잡한 장기 계획하에서의 의사결정에 있어서 중요한 한계를 드러내고 있다"고 전했다.
고객님만을 위한 맞춤 차량